Páginas

segunda-feira, 4 de julho de 2011

A evolução dos computadores.



Quando os primeiros computadores apareceram em meados dos anos 50, eles eram máquinas de processamento de dados enormes, cuja demanda de capital para a sua aquisição e manutenção era extremamente elevada, sendo suportada somente por grandes empresas. Desde então, eles têm seguido certas tendências principais:
·         Diminuição de tamanho;
·         Aumento da capacidade de processamento;
·         Diminuição de preços;
Esta evolução teve como ponto culminante, a invenção dos microcomputadores, que levaram a informática até mesmo para dentro das casas das pessoas.
Durante as primeiras gerações de computadores, a operação e a programação eram tarefas altamente especializadas, que necessitavam de profissionais extremamente capacitados. Com o surgimento dos computadores pessoais houve uma grande evolução na área de software, através da utilização da capacidade e facilidade de uso destas máquinas (relativa aos grandes computadores). A partir daí desenvolveu-se o conceito de ferramentas user-friendly, o que permitiu que pessoas comuns pudessem fazer uso destas máquinas.
A conseqüência imediata destas evoluções foi o fim da estrutura hierárquica implementada pelos grandes computadores, onde toda capacidade de processamento está concentrada em um só ponto. Com isso, os microcomputadores começaram a se espalhar pelas empresas, fazendo com que os usuários não mais dependessem do Mainframe para digitar seus textos, calcular suas tabelas, etc. Criou-se, então, vários focos de processamento distribuídos geograficamente, o que gerou, também, uma distribuição dos dados.
A comunicação entre os computadores tornou-se necessária na medida em que estes focos de processamento e informação foram se distribuindo, o que dificultou o acesso a informações vitais para o funcionamento e gerenciamento da empresa. As redes de computadores surgiram para resolver este problema: os vários pontos de processamento são interligados entre si, permitindo que as informações armazenadas nestes pontos sejam compartilhadas.
A evolução das instalações de redes.
Com a proliferação dos computadores pessoais na década de 80, uma mudança relevante ocorreu na informática. Antes do advento do computador pessoal, as informações eram armazenadas em repositórios centrais, localizados nos Mainframes e eram acessados mediante o uso de terminais de vídeo. Os computadores pessoais proporcionaram ao usuário capacidade de processamento e liberdade de escolhas inigualáveis, resultando porém, na criação de pequenas ilhas de informação, inacessíveis a outros indivíduos da organização.
Alguma forma de conectividade tornou-se necessária para a transferência de dados e aplicações entre os PCs. O método usado inicialmente consistia em rodar as aplicações entre PCs, utilizando-se um disquete para transferência. Esta técnica, que se tornou conhecida como Sneaker-net, foi então substituída por outras mais eficientes, até o estabelecimento das LANs (Local Area Network).
Em geral as organizações conectam seus computadores para compartilhar dados, aplicações, periféricos de alto custo e permitir a comunicação eletrônica entre os usuários. As LANs são definidas como um grupo de computadores interligados, localizados no mesmo prédio ou ao menos, em áreas próximas. Quando linhas telefônicas alugadas, microondas, enlaces de satélites, etc., são usadas para interligar computadores ou LANs distantes umas das outras, uma rede WAN (Wide Area Network) é criada.
Uma das maneiras de compartilhar o acesso aos dados é colocá-lo em um computador que possa ser acessado por todos a partir de suas estações de trabalho. Este dispositivo, chamado de servidor de arquivos é capaz de oferecer serviços a um grande número de usuários simultaneamente.
Uma rede é um sistema onde ocorre transferência de informação. Redes de computadores incluem todo o Hardware e Software necessários para conectar computadores e outros dispositivos eletrônicos a um canal de forma que possam se comunicar entre si. Os dispositivos que compõe uma rede são chamados de nós ou pontos, podendo variar de dois a milhares de pontos.
O processo de informatização utilizando-se redes locais LANs ou WANs é hoje uma necessidade e está crescendo a cada dia abrangendo praticamente todos os ramos de atividades e englobando todos os setores das corporações, para que se possa ter o desempenho esperado e crescer sem maiores traumas, de forma ordenada e sob o controle do seu responsável.


A importância do planejamento 
Em comparação com o investimento realizado em outros componentes de uma rede, o cabeamento tem uma duração praticamente ilimitada. Tanto o software quanto o hardware de sua rede tem duração estimada de no máximo cinco anos, segundo pesquisas mais recentes. O cabeamento de sua rede, se bem planejado e executado pode durar por vários anos, e se manter durante a mudança dos equipamentos e sistemas que provavelmente irão se tornar obsoletos.
Salienta-se que esta durabilidade garante o funcionamento dos materiais envolvidos, mas não as evoluções tecnológicas, ou seja, se neste tempo surgirem novas tecnologias que necessitem mais do cabeamento em termos de taxa de transmissão, o mesmo deverá ser trocado.
O que considerar na hora de planejar.
Ao iniciar o trabalho de especificação de uma rede, devemos tentar olhar para o futuro, imaginando não nossa empresa hoje, mas como ela será, ou que poderá acontecer amanhã.
Essas considerações são fundamentais para o planejamento da rede. Assim quando começar a planejar a rede, devemos levar em consideração os seguintes pontos:
1.      Escalabilidade: Quanto esta rede poderá crescer e qual o tamanho deste crescimento.
2.      Densidade populacional da empresa: Quantos funcionários deveriam ter microcomputadores a curto, médio e longo prazo.
3.      Serviços de rede: Que serviços serão necessários dentro da rede.
4.      Desenvolvimento da tecnologia: Por quanto tempo os elementos da rede suportarão as evoluções tecnológicas.
5.      O ambiente físico da empresa: Que soluções utilizar para não afetar o ambiente e verificar se o ambiente suporta as soluções imaginadas.
O cabeamento estruturado.
Com o crescimento do uso das redes locais de computadores e a agregação de novos serviços e mídias como voz, dados, teleconferência, internet e multimídia, surgiu a necessidade de se estabelecer critérios para ordenar e estruturar o cabeamento dentro das empresas.
No final dos anos 80, as companhias dos setores de telecomunicações e informática estavam preocupadas com a falta de padronização para os sistemas de cabos de telecomunicações em edifícios comerciais e campus.
Em 1991, a associação EIA/TIA (Eletronic Industries Association / Telecommunications Industry Association) propôs a primeira versão de uma norma de padronização de fios e cabos para telecomunicações em prédios comerciais, denominada de EIA/TIA-568 cujo objetivo básico era:
a)       Implementar um padrão genérico de cabeamento de telecomunicações a ser seguido por fornecedores diferentes;
b)       Estruturar um sistema de cabeamento intra e inter-predial, com produtos de fornecedores distintos;
c)       Estabelecer critérios técnicos de desempenho para sistemas distintos de cabeamento tradicional, baseado em aplicações;
Assim, os prédios possuíam cabeamento para voz, dados, sistemas de controle, eletricidade, segurança, cada qual com uma padronização proprietária.
Eram fios e cabos por toda aparte, cabo coaxial, par trançado, cabo blindado. Neste cenário, alguns problemas surgiram para desestimular essa forma de cabeamento não estruturado:
I.                     Mudança rápida de tecnologia: Microcomputadores mais velozes, serviços integrados de voz e dados, redes locais de alta velocidade;
II.                   Infra estrutura de telefonia privada inadequada para novas tecnologias;
III.                 Rápida saturação de dutos, canaletas e outros suportes de cabeamento;
IV.                 Inflexibilidade para mudanças;
V.                   Cabeamento não reaproveitável com novas tecnologias;
VI.                 Suporte técnico dependente de fabricantes;
VII.               Aumento de custo.



terça-feira, 28 de junho de 2011

Inventores do computador moderno



A Invenção do Ethernet - Redes de Área Local - Robert Metcalfe



Eu vim para trabalhar um dia no MIT e o computador havia sido roubado, então liguei para DEC para dar a notícia a eles que o computador de $ 30.000 que eles tinham me emprestado tinha ido embora. Eles pensaram que esta era a melhor coisa que já aconteceu, porque acontece que eu tinha em minha posse o primeiro computador suficientemente pequeno para ser roubado! - Robert Metcalfe sobre os ensaios e atribulações de inventar a Ethernet.

O ethernet é um sistema para conexão de computadores dentro de um edifício usando hardware rodando de máquina para máquina. Ela difere da Internet, que conecta os computadores localizados remotamente por telefone, protocolo de software e algum hardware. Ethernet usa algum software (emprestado de Internet Protocol), mas o hardware de conexão foi a base da patente              (# 4063220) envolvendo chips, novo design e fiação. * A patente descreve ethernet como um "sistema de comunicação multiponto de dados com detecção de colisão".



Robert Metcalfe era um membro da equipe de pesquisa para a Xerox, em Palo Alto Research Center (PARC) onde alguns dos primeiros computadores pessoais estavam sendo feitos. Metcalfe foi convidado a construir um sistema de rede para computadores do PARC. A motivação da Xerox para a rede de computadores era de que eles também fossem responsaveis pela construção da primeira impressora laser do mundo e queria que todos os computadores do PARC fossem capazes de imprimir com esta impressora.

Robert Metcalfe tinha dois desafios: a rede tinha que ser rápida o suficiente para conduzir a nova impressora laser muito rápido, e ela tinha que conectar centenas de computadores dentro do mesmo edifício. Nunca antes houve centenas de computadores no mesmo prédio - naquela época ninguém tinha mais de um, dois ou talvez três computadores em operação em qualquer uma premissa.
A imprensa muitas vezes afirmou que ethernet foi inventada em 22 de maio de 1973, quando Robert Metcalfe escreveu um memorando a seus chefes indicando as possibilidades potenciais do ethernet, mas Metcalfe afirma que ethernet foi realmente inventado muito gradualmente ao longo de um período de vários anos. Em 1976, Robert Metcalfe e David Boggs (assistente de Metcalfe) publicaram um estudo intitulado " Ethernet: Distributed Packet-Switching For Local Computer Networks."
Robert Metcalfe deixou a Xerox em 1979 para promover o uso de computadores pessoais e redes locais (LANs). Ele conseguiu convencer a Digital Equipment, Intel, Xerox e outras empresas a trabalhar em conjunto para promover a Ethernet como um padrão. Agora um padrão da indústria internacional de computadores, ethernet, é o mais instalado protocolo LAN.
No início de 1970, qualquer pessoa que quisesse usar um computador tinha que esperar em uma longa linha, computadores eram poucos e inacessiveis. O desejo do mercado era cada vez maior por um computador que pudesse ser usado em casa ou no escritório, o "computador pessoal". Diversos fabricantes diferentes comercializaram "computadores pessoais" entre 1974 e 1977, em resposta a esse desejo. Estes eram principalmente kits (conjunto de grandes requisitos) anunciados nas últimas páginas de revistas como Popular Science.
Na edição de março de 1974, da revista QST apareceu o primeiro anúncio de um "computador pessoal". Era chamado de Scelbi (SCientific, ELectronic and BIological) projetado pela Empresa de Consultoria de Informática Scelbi de Milford, Connecticut. Baseado em um microprocessador Intel 8008, Scelbi era vendido por US $ 565 e veio com 1K de memória programável, com 15K adicionais de memória disponível por        $ 2760. O segundo "kit de computador pessoal" foi o Mark-8 (também baseado na Intel 8008) desenhado por Jonathan Titus. A edição de julho da revista Radio Electronics publicou um artigo sobre a construção de um microcomputador Mark-8, o público em geral estava com fome de informações. Ao mesmo tempo, a empresa Intel introduziu o chip microprocessador 8080, feito para controlar semáforos. Foi para se tornar o microprocessador dentro do muito bem sucedido computador Altair.

                        


 Uma empresa de Albuquerque, Novo México, chamada MITS (Micro Instrumentation Telemetry Systems) estava no negócio de calculadora, até que a Texas Instruments varreu o mercado em 1972 com suas calculadoras de baixo custo. Ed Roberts proprietário da MITS, um ex-especialista em eletrônica da força aérea, então decidiu tentar projetar um kit de computador. Ele foi ajudado por seu amigo Les Soloman, que passou a ser o editor técnico da revista Popular Mechanics que tinha sido inundada com cartas de leitores descrevendo idéias para computadores domésticos. Roberts trabalhou em conjunto com engenheiros de hardware William Yates e Jim Bybee durante '73 e '74 para desenvolver o MITS Altair 8800. O Altair foi nomeado pela filha de Soloman de 12 anos depois de um episódio da série original de televisão Star Trek.

O Altair foi a reportagem de capa do mês de Janeiro de 1975, emissão de Popular Electronics, que descreveu o Altair como o "Primeiro Kit de minicomputador do Mundo Rival dos Modelos Comerciais". As vendas do Altair eram enormes, em resposta ao artigo. O kit de computador era enviado com uma CPU 8080, um cartão de 256 Byte RAM, e o novo design Altair Bus (barramento S100 - o conector tinha 100 pinos) pelo preço de US $ 400. Coube ao consumidor para fazê-lo funcionar montar e escrever qualquer software necessário. Esta era uma tarefa difícil, mas o computador era definitivamente expansível, barato e disponível.
Dois jovens programadores perceberam que um programa de software já escrito para microcomputadores poderia funcionar no Altair. Ed Roberts foi logo contactado por calouros de Harvard, Bill Gates (da famosa Microsoft) e Paul Allen programador. Dentro de seis semanas, Gates e Allen compilram uma versão do BASIC para rodar no Altair. A Allen foi oferecida por Roberts uma posição como o Diretor de Software e o único membro do departamento de software. Gates, que na época era ainda um estudante, começou a trabalhar para a MITS em meio período depois da escola.
O BASIC precisava de 4096 bytes de memória para executar, dezesseis vezes a quantidade de memória que então vinha com o Altair. MITS criou uma placa de memória de 4K (4096 byte) que permitiu que o Altair executasse o BASIC. As placas foram mal projetadas e criaram problemas, e Bob Marsh (um computer hobbyist) projetou uma placa melhor de 4k e abriu uma empresa chamada Processor Technology para vender placas compatíveis com o Altair. Roberts tentou evitar a perda de suas vendas pelo software BASIC apenas com suas placas. Ele foi bem sucedido em promover o primeiro caso generalizado de pirataria de software. Amadores em todos os lugares compravam uma placa de memória Processor Technology e de alguma forma encontravam uma cópia gratuita do BASIC.
A Tendência de Robert para enviar alguns produtos mal projetados pode ter causado a queda da MITS depois de poucos anos, mas ninguém pode negar que foi o Altair, que realmente iniciou a revolução do computador pessoal. Gates e Allen então começaram a Microsoft, tornando-se desenvolvedores do software de maior liderança do mundo. Ed Roberts se tornou um médico e passou a exercer a medicina.
Mais um computador digno de nota durante este período foi o IBM 5100. O 5100 foi lançado em 1975 após dois anos de desenvolvimento. Ele era conhecido como "Project Mercury" pelos cientistas da IBM. O 5100 foi o primeiro computador portátel da IBM e considerado um sistema de nível de entrada, mas seu preço $ 10.000 o colocava  para além do alcance dos amadores que compravam o Altair. As vendas do 5100 foram para empresas de pequeno porte e instituições de ensino que compravam o minicomputador com tamanho de desktop que vinha com BASIC, 16KB de memória RAM, armazenamento em fita e um built-nos de 5 polegadas tela.
"A Apple foi apenas um primeiro ponto culminante de toda a minha vida." - SteveWozniak, co-fundador Computadores Apple



Após a introdução do Altair, um boom de computadores pessoais ocorreu, e felizmente para o consumidor, a próxima rodada de computadores domésticos foram consideradas úteis e faceis de usar.

Em 1975, Steve Wozniak trabalhava para Hewlett Packard ( fabricante de calculadora) durante o dia e montava computador amador a noite,  com os kits de computadores antigos, como o Altair. "Todos os kits de pequeno computador que estavam sendo testados por hobbyists em 1975 eram caixas quadradas ou retangulares, com switches não compreensíveis sobre eles ..." Wozniak afirmouWozniak conta de que os preços de algumas peças do computador (por exemplo, microprocessadores e chips de memóriatinha chegado tão baixo que ele poderia comprá-los talvez com um mês de salárioWozniak decidiu que, com alguma ajuda de um colega hobbyist  Steve Jobs, eles poderiam construir seu próprio computador.

No Dia da Mentirade 1976, Steve Wozniak e Steve Jobs lançaram o computador Apple I e iniciaram a Apple Computers . O Apple I foi o primeiro computador de placa único circuito. Ele veio com uma interface de vídeo8k de memória RAM e um teclado. O sistema incorporou alguns componentes econômicos, incluindo o processador 6502 (apenas US $ 25 dólares - projetado pela Rockwell e produzido por MOSTechnologies) e RAM dinâmica.


terça-feira, 10 de maio de 2011

USB 3.0

O USB surgiu originalmente como um substituto para as portas seriais e paralelas usadas até então. Como a aplicação inicial era a conexão de mouses, impressoras, scanners e PDAs, os 12 megabits iniciais foram considerados mais do que suficientes. Entretanto, com o passar do tempo o USB passou a ser cada vez mais usado por câmeras, pendrives e outros dispositivos "rápidos", que demandam velocidades muito maiores. Surgiu então o USB 2.0, uma atualização indolor que aumentou a taxa de transferência teórica para 480 megabits, sem quebrar a compatibilidade com o padrão antigo.


Na prática, ele permite taxas de transferência entre 30 e 45 MB/s, que são uma pesada limitação no caso dos HDs externos, interfaces de rede e outros dispositivos atuais. Como a demanda por banda não para de crescer, é apenas questão de tempo para que os 480 megabits do USB 2.0 se tornem uma limitação tão grande quanto os 12 megabits do USB original foram no passado.

O USB é uma barramento serial (assim como o SATA), onde os dados são transmitidos usando um único par de fios, com um segundo par dando conta da alimentação elétrica. O principal problema é que o USB suporta o uso de cabos mais longos e hubs, o que torna complicado atingir taxas de transferência muito maiores que os 480 megabits do USB 2.0. Isso fez com que logo no início, os trabalhos se concentrassem em desenvolver novos cabos e conectores, que permitissem o uso de mais banda.

O primeiro rascunho do USB 3.0 foi apresentado em 2007 pela Intel, que propôs o uso de um par de cabos de fibra óptica, complementando os dois pares de fios de cobre. O uso de fibra óptica elevaria a taxa de transferência para respeitáveis 5 gigabits, sem quebrar a compatibilidade com dispositivos antigos:


 
O grande problema com o padrão da Intel era o custo, já que tanto os cabos quanto os dispositivos seriam muito mais caros. Ele também não fazia nada com relação à capacidade de fornecimento elétrico, mantendo os mesmos 2.5 watts por porta do USB 2.0, que são insuficientes para muitos dispositivos.


Não é preciso dizer que ele foi bastante criticado e acabou sendo abandonado em 2008, dando lugar ao padrão definitivo, que oferece 4.8 gigabits de banda (10 vezes mais rápido que o 2.0 e apenas 4% menos que o padrão proposto pela Intel) utilizando apenas cabos de cobre. Os 4.8 gigabits do USB 3.0 são chamados de "SuperSpeed", complementando o "High-Speed" (480 megabits) do USB 2.0 e o "Full-Speed" (12 megabits) do USB 1.x.

Para possibilitar o aumento da banda, foram adicionados dois novos pares de cabos para transmissão de dados (um para envio e outro para recepção) e um neutro, totalizando 5 novos pinos, que nos conectores tipo A são posicionados na parte interna do conector:


 
Essa organização permitiu manter a compatibilidade com dispositivos antigos, já que os 4 pinos do USB 2.0 continuam presentes. Ao plugar um dispositivo antigo em um conector USB 3.0, apenas os 4 pinos de legado são usados e ele funciona normalmente. O inverso também funciona, desde que o dispositivo USB 3.0 seja capaz de trabalhar em modo de legado, dentro das limitações elétricas do USB 2.0.


Por outro lado, os conectores USB tipo B (os usados por impressoras) e micro-USB (adotados como padrão para os smartphones) oferecem uma compatibilidade de mão-única, onde você pode plugar um dispositivo USB 2.0 em uma porta 3.0, mas não o contrário, devido ao formato dos conectores. O tipo B ganhou um "calombo" com os 5 pinos adicionais e o USB micro ganhou uma seção adicional:






 
Além dos novos conectores, outra novidade é o aumento no fornecimento elétrico das portas, que saltou de 500 mA (2.5 watts) para 900 mA (4.5 watts), o que permitirá que mais dispositivos sejam alimentados através da porta USB. Não deve demorar até que surjam gavetas para HDs de 3.5" alimentadas por duas (ou três) portas USB 3.0, por exemplo, já que muitos HDs "verdes" de 5.400 RPM trabalham tranquilamente abaixo dos 10 watts. Você pode contar também com toda uma nova safra de ventiladores, LEDs e bugigangas diversas tirando proveito da energia adicional.


Para reduzir o consumo elétrico dos controladores, o padrão inclui também um novo sistema de interrupções, que substitui o sistema de enumeração usado no USB 2.0. Em resumo, em vez de o controlador manter a porta ativa, constantemente perguntando se o dispositivo tem algo a transmitir, o host passa a manter o canal desativado até que o dispositivo envie um sinal de interrupção. Além de oferecer uma pequena redução no consumo do host (suficiente para representar um pequeno ganho de autonomia no caso dos netbooks) o novo sistema reduz o consumo nos dispositivos plugados.

Para diferenciar os conectores, foi adotada a cor azul como padrão tanto para os cabos quanto para a parte interna dos conectores. Naturalmente, os fabricantes não são necessariamente obrigados a usarem o azul em todos os produtos, mas ao ver um conector azul, você pode ter certeza de que se trata de um 3.0.

Os primeiros dispositivos devem chegar ao mercado no final de 2009, mas não espere que eles se tornem comuns antes da metade de 2010. Inicialmente, os lançamentos se concentrarão em HDs e SSDs externos (que são severamente limitados pelo USB 2.0), mas eventualmente ele chegará a outros dispositivos, substituindo o 2.0 gradualmente.

Apesar disso, ainda demorará muitos anos até que o USB 3.0 substitua o padrão anterior completamente, já que os controladores USB 2.0 são muito mais simples e baratos, e o desempenho é mais do que suficiente para muitas aplicações. Não faria sentido lançar um mouse ou um adaptador bluetooth USB 3.0, por exemplo, a não ser que fosse por simples hype.

Existem também várias complicações técnicas em equipar uma placa-mãe com um grande número de portas USB 3.0. Os controladores são caros e cada par de portas precisa ser conectado a duas linhas PCI Express 2.0 (ou quatro linhas PCIe 1.x) para que o desempenho não seja penalizado.

Considerando que muitos chipsets possuem apenas 20 ou 24 linhas PCI Express, é perfeitamente compreensível que a primeira geração de placas tenham apenas duas portas USB 3.0 (em azul), complementadas por mais 6 ou 10 portas USB 2.0:


 
Isso deve mudar a partir do momento em que a Intel, nVidia e AMD passarem a produzir chipsets com um número maior de portas integradas, mas isso deve acontecer apenas em 2010. A Intel é a mais avançada, graças ao trabalho no padrão xHCI (sucessor do EHCI e OHCI, usados no USB 2.0). Embora ele seja um padrão aberto de controladores, a Intel realizou a maior parte do desenvolvimento e por isso acabou desenvolvendo uma dianteira em relação aos outros fabricantes, liberando o projeto do controlador apenas depois que ele já estava concluído.


Ao usar uma placa antiga, é possível adicionar um controlador USB 3.0 através de uma placa de expansão, como de praxe. Nesse caso é recomendável usar uma placa PCIe x4, já que os slots x1 não oferecem banda suficiente para alimentar uma placa com duas ou quatro portas.

Com relação aos drivers, temos suporte no Linux a partir do kernel 2.6.31. A versão inicial do Windows 7 ainda não inclui drivers, mas eles devem ser adicionados através de uma atualização posterior, que deve se estender ao Vista. A dúvida fica por conta do Windows XP e anteriores, dos quais a Microsoft quer se livrar o mais rápido possível.

sábado, 23 de abril de 2011

Power Over Ethernet (PoE)

Power over Ethernet (PoE)

Em muitas situações, pontos de acesso e outros dispositivos de rede precisam ser instalados em telhados e outros locais de difícil acesso. Nesses casos, além do cabo de rede, é necessário fazer a instalação elétrica, o que aumenta os custos. O PoE, é um padrão que permite transmitir energia elétrica usando o próprio cabo de rede, juntamente com os dados, o que soluciona o problema.

Power over Ethernet ou tecnologia PoE descreve um sistema para transmitir energia elétrica com segurança, juntamente com os dados, por cabos Ethernet. PoE requer cabo categoria 5 ou superior para níveis de potência alta, mas pode operar com cabo de categoria 3 para os níveis de baixa potência. A energia pode vir de uma fonte de energia dentro de um dispositivo de rede PoE como um switch Ethernet ou podem ser injetadas em um cabo por uma fonte de alimentação midspan.

Tudo começou com projetos, que utilizavam os dois pares de fios não usados para transmitir dados (em redes de 100BaseT, de 100 megabits) nos cabos de par trançado cat-5 para enviar corrente elétrica para dispositivos do outro lado do cabo, eliminando a necessidade de usar uma fonte de alimentação separada. Com o passar do tempo, a idéia acabou pegando e deu origem ao padrão IEEE 802.3af, ratificado em 2005, que já é suportado por diversos produtos.



No padrão, dois dos quatro pares de fios do cabo de par trançado são utilizados para transmitir uma corrente com tensão de 48 volts e até 400 mA o que, depois de descontadas todas as perdas, resulta em uma capacidade de fornecimento de até 12.95 watts. A energia é suficiente para alimentar a grande maioria dos pontos de acesso, telefones VoIP e outros dispositivos menores ou até mesmo um notebook de baixo consumo.

Um sistema especial de modulação permite que os dois pares que transmitem energia sejam usados também para transmitir dados, o que permite o uso em conjunto com dispositivos Gigabit Ethernet. A tecnologia não é muito diferente da utilizada desde o início do século passado no sistema telefônico, que também transmite uma corrente com tensão de 48 volts (usada para alimentar o aparelho) juntamente com o sinal de voz.



Existem duas opções para utilizar o PoE. A primeira é utilizar um conjunto de injector (injetor) e splitter (divisor) posicionados entre o switch e o dispositivo que vai receber energia. O injetor é ligado na tomada e "injeta" energia no cabo, enquanto o splitter separa a corrente elétrica do sinal de rede, oferecendo dois conectores ao dispositivo: um conector de rede e um conector de energia, ligado no lugar da fonte:



Usar o injetor e o splitter é a solução mais simples, já que você não precisa mexer no resto da estrutura da rede, mas não é necessariamente a mais barata, já que você precisa comprar dois dispositivos adicionais para cada aparelho que precisar receber energia.

A segunda solução, mais viável para situações em que você queira usar o PoE para vários dispositivos é usar diretamente um PoE switch (um switch Ethernet capaz de enviar energia em todas as portas) e apenas pontos de acesso e outros dispositivos compatíveis, eliminando a necessidade de usar injectors e splitters:



O switch é capaz de detectar se o dispositivo ligado na outra ponta do cabo suporta ou não o PoE, o que é feito medindo a resistência. Só depois de detectar a presença de um dispositivos compatível é que ele inicia a transmissão de corrente. Isso permite que você conecte também dispositivos "normais" ao switch, sem risco de queimá-los.

Atualmente, o PoE é usado basicamente para alimentar pontos de acesso instalados em locais inacessíveis, mas uma nova versão do padrão pode aumentar sua área de atuação. O padrão IEEE 802.3at ou PoE+, em desenvolvimento desde 2005 (http://www.ieee802.org/3/at/) aumentará a capacidade de transmissão para até 60 watts, o que permitirá que o PoE seja usado para alimentar notebooks ou até mesmo PCs de baixo consumo, o que pode levar a uma pequena revolução, já que os equipamentos receberão energia já estabilizada e convertida para DC diretamente através do cabo de rede, sem necessidade de utilizar uma fonte de alimentação externa, como atualmente.

Esta tecnologia é especialmente útil para ligar telefones IP , wireless LAN access points , câmeras com pan tilt e zoom (PTZ), controle remoto switches Ethernet , computadores integrados , thin clients e LCDs .



Todos estes requerem mais poder do que USB oferece e muitas vezes deve ser alimentado por períodos mais longos do que permite um cabo USB. Além disso, PoE utiliza apenas um tipo de conector, o conector 8P8C modular (RJ45), mais viável que conectores USB que existem inúmeros tipos .

PoE é actualmente implementado em aplicações onde USB é inadequado e onde o poder AC seria inconveniente, caro ou inviável para abastecimento. No entanto, mesmo onde USB ou de alimentação AC pode ser utilizado, PoE tem várias vantagens sobre qualquer um, incluindo o seguinte:

• Cabeamento mais barato - mesmo cabo de Categoria 5 é mais barato do que os repetidores USB, e a tarefa de construir as exigências do código de reunião para passagem de cabo de alimentação AC é eliminado. U
• Gigabit de dados por segundo para cada dispositivo é possível, o que excede os recursos de rede de 2009 USB e adaptador AC.
• As organizações globais podem implantar PoE em todos os lugares sem se preocupar com qualquer variação local nas normas de energia AC , tomadas, plugues, ou confiabilidade.
• Injeção direta do padrão de 48 V DC bateria matrizes de energia, o que permite a infra-estrutura crítica para executar mais facilmente em paradas e fazer racionamento de decisões do poder central para todos os dispositivos PoE.
• Possibilidade de dustribuição simétrica. Ao contrário de saídas USB e AC, a energia pode ser fornecida em cada extremidade do cabo ou tomada. This means the location of the power source can be determined after cables and outlets are installed. Isto significa que a localização da fonte de energia pode ser determinada depois que os cabos e tomadas estão instalados. 



terça-feira, 15 de fevereiro de 2011

Sistemas de Gerenciamento de Infra-Estrutura Inteligente

Gerenciamento de Camada Física



As empresas hoje são totalmente dependentes de comunicação de rede para a realização de suas operações do dia a dia e há uma percepção crescente de que a gestão da rede, sem uma visão completa da infra-estrutura física é impossível. A camada física é a fundação da rede, mas muitas vezes o menos visível de todos os componentes da rede.

O sistema de cabeamento estruturado surgiu para padronizar e organizar a infra-estrutura física, de forma a torná-la independente da aplicação (voz, dados, vídeo, segurança, etc.).Um cabeamento estruturado visa assim garantir a flexibilidade, facilidade de operação e manutenção do sistema de comunicação.

Contudo, mesmo com a padronização dos componentes de uma solução de cabeamento estruturado (patch cords, patch panels, keystones e cabos) e da forma de utilizá-los, é muito comum ocorrer um uso inadequado e sem critérios deste tipo de solução, o que acaba por anular as suas vantagens.

Sistemas de Gerenciamento de Infra-Estrutura Inteligente, também chamados de Sistemas de Gerenciamento em Camada Física, são sistemas desenhados para monitorar e orientar as atividades na infra-estrutura das redes de cabeamento estruturado metálico e óptico em tempo real.

Estes tipos de sistema detectam qualquer alteração na conectividade física da rede, informando-a ao administrador, além de serem capazes de orientar os técnicos de administração da rede através de indicações visuais em atividades de reparos ou na execução de ordens de trabalho em operações de adição, alteração ou mudanças na rede, ao mesmo tempo em que mantêm a documentação de rede atualizada.

Dois exemplos de Sistemas de gerenciamento de camada fisica são PatchView da Furukawa e o iPatch da Sistimax.

PATCHVIEW - FURUKAWA

A família PatchView da Furukawa implementa a solução de gerenciamento de infra-estrutura inteligente, oferecendo:

• Controle em tempo real sobre a situação da conectividade metálica e óptica.
• Diminuição do downtime, reduzindo custo operacional.
• Agilidade em mudanças de layout
• Atualização automática do As-Built.
• Efetividade da utilização das portas dos ativos.
• Maior segurança na operação da rede de cabeamento estruturado.
• Nenhuma interferência sobre o tráfego da rede - funcionamento transparente.
• Solução expansível conforme o crescimento da rede estruturada.
• Suporte as boas práticas de gestão corporativa em TI (CObIT, ITIL, SOX).

Recursos / Facilidades:

• Permite integração com o AutoCAD, carregando plantas baixas no software de gerenciamento.
• Suporte a sistemas de cabeamento estruturado metálicos (CAT.6 / CAT.6A) e ópticos.
• Geração de ordens de serviço eletrônicas.
• Agilidade em mudanças de layout.
• Detecção automática de todos dispositivos TCP/IP na rede.
• Interage com os ativos da rede, via protocolo SNMP.
• Suporte aos principais switches gerenciáveis do mercado.
• Software de gerenciamento com interface gráfica WEB, permitindo administração remota.
• Disponibilidade de software cliente para PDA's, garantindo maior mobilidade.
• Interação com o administrador da rede via email e mensagens de alerta.
• Patch panel e DIO (Distribuidores Internos Ópticos) gerenciáveis com LEDs indicadores por porta.
• Detecção de ruptura de patch cords e cordões ópticos inteligentes.
• Deteção automática de inserção / desconexão dos patch cords e cordões ópticos inteligentes.
• Módulos/Dispositivos adicionais para identificação visual dos racks de cabeamento estruturado.

O que compõe a solução PatchView?

A solução PatchView é composta por ítens de hardware e de software:

• Patch Panel e/ou DIO Gerenciável
• Patch Cords e/ou Cordões Ópticos Inteligentes
• Ativos para controle
• Software para gerenciamento



IPATCH – SISTEMA DE PATCH PANEL INTELIGENTE - COMMSCOPE

O Sistema SYSTIMAX® iPatch® integra software e hardware de cobre e fibra para fornecer informações e controle sobre a infra-estrutura de telecomunicações em tempo real. O Sistema iPatch proporciona ao administrador de rede maior visão, ao coordenador de cabeamento um completo gerenciamento, e ao técnico de cabeamento inteligência para otimizar a eficiência da rede, e confiabilidade para reduzir o downtime indesejado. O Sistema iPatch adiciona monitoramento em tempo real dos canais de cobre e de fibra e integração com o software de gerenciamento.

O sistema iPatch permite que cada porta seja continuamente monitorada, verificada e seu histórico seja armazenado em um banco de dados centralizado. Ordens de serviço eletrônicas eliminam o preenchimento de formulários, melhorando a produtividade e acelerando movimentações, inclusões e mudanças. O trabalho é guiado em cada patch panel por sinais visuais e auditivos para virtualmente eliminar erros de conexão, economizando tempo e trabalho para o bom funcionamento do data center.

Crítico em aplicações de data center, os gerentes são instantaneamente alertados sobre intrusões na segurança ou sobre mudanças ou condições que possam afetar a continuidade dos negócios. Qualquer perda ou dano de dados devido a um downtime inesperado, pode prejudicar seriamente a continuidade dos trabalhos das empresas.
Quando ocorrem problemas, o iPatch alerta automaticamente o administrador da rede através de um sistema de notificação de eventos, e o técnico através do equipamento iPatch no local da conexão cruzada. O iPatch é o único sistema de patch panels do mundo que pode detectar e alertar os gerentes sobre intrusões ou desconexões físicas na região dos patch cords enviando e-mails, mensagens de texto ou alertas SNMP. O tempo de resposta é tão rápido que em muitos casos os problemas são resolvidos antes mesmo que os telefones comecem a tocar. Você pode até mesmo verificar um novo caminho antes da mudança ser realizada – chega de conexões por tentativa e erro. Com a funcionalidade “IP Device Discovery”, os gerentes de TI podem adicionar configurações de switches (número e tipo de portas e cartões) e aumentar a segurança encontrando instantaneamente dispositivos críticos como servidores, com a funcionalidade de rastreamento.

O sistema iPatch não requer patch cords proprietários ou mesmo componentes especiais. Ao invés de cabos atrás dos patch panels para conexão com o gerenciador do rack, você encontrará um único e organizado barramento, com todos os fios fora do caminho das laterais do rack, proporcionando espaço suficiente para trabalhar. Na frente, os patch panels iPatch apresentam um perfil muito baixo, para reduzir a sobra dos cordões e tornar as conexões fáceis de se ver e alterar.

Benefícios do sistema iPatch:

• Monitora todas as conexões e desconexões dos cordões;
• Compatível com os patch cords padrões da indústria, modular, LC e SC;
• Guia os técnicos ao realizar movimentações, inclusões e mudanças;
• O rastreamento de patch cords com um toque acelera a administração;
• Reporta automaticamente conexões impróprias para minimizar a interrupção dos serviços;
• Verifica a localização, disponibilidade e uso de portas em patch panels e de jacks nos espelhos;
• Rastreia os serviços habilitados para conexões horizontais e de backbone;
• Ordens de serviço eletrônicas eliminam a burocracia;
• Suporta todas as soluções modulares de cobre e de fibra SYSTIMAX.
• Desenvolvido pelos laboratórios SYSTIMAX, cujo conhecimento técnico desenvolveu o SYSTIMAX SCS, o seu sistema iPatch é certificado para fornecer a mesma performance e confiança inigualáveis do líder de soluções de cobre e fibra.

segunda-feira, 14 de fevereiro de 2011

Dificuldades para pagar o Curso Superior? Conheça o FIES

O Fundo de Financiamento ao Estudante do Ensino Superior (FIES) é um programa do Ministério da Educação destinado a financiar a graduação na educação superior de estudantes matriculados em instituições não gratuitas. A partir deste ano, o FIES passa a funcionar em um novo formato. Agora, o Fundo Nacional de Desenvolvimento da Educação (FNDE) é o novo Agente Operador do Programa e os juros caíram para 3,4% ao ano. Além disso, o financiamento poderá ser solicitado em qualquer período do ano.



Entenda o Fies

O que é?
Programa do governo federal que financia mensalidades de estudantes matriculados em cursos de ensino superior


Quem pode se candidatar?
Matriculados em cursos de graduação pagos que tenham obtido avaliação positiva no Sistema Nacional de Avaliação da Educação Superior (Sinaes) e que sejam oferecidos por instituição participante do programa. O estudante deve ter feito o Enem


Quem não pode se inscrever?
Quem está com a matrícula trancada, que já tenha sido beneficiado pelo Fies, inadimplentes do Programa de Crédito Educativo e aqueles cujo percentual de comprometimento da renda familiar mensal bruta per capita seja inferior a 20%


Quando se inscrever?
A partir deste ano, as inscrições podem ser feitas em qualquer período do ano


Qual é a taxa de juros?
3,4% ao ano


Como funciona?
Durante o curso, o estudante paga, a cada 3 meses, o máximo de R$ 50, referentes aos juros. Após 18 meses do fim do curso, o saldo devedor é parcelado em até 3 vezes o período financiado, acrescido de 12 meses


O que é o Fundo de Garantia de Operações de Crédito Educativo?
 Pelo fundo, não é preciso apresentar fiador


Quem pode aderir ao fundo garantidor?
Matriculados em cursos de licenciatura, com renda familiar mensal per capita de até 1 salário mínimo e meio e bolsistas parciais do ProUni. A instituição em que o estudante está matriculado deve aderir ao fundo garantidor


Como ficam os outros estudantes?
Devem apresentar fiador


Para mais informações acesse:
http://sisfiesportal.mec.gov.br/faq.html 

quarta-feira, 26 de janeiro de 2011

O venerável Conector RJ45

Material publicado na revista CNS (Cabling Network Systems) de Janeiro/Fevereiro 2011 por Paul Kish.






O conector modular 8-posição evoluiu significativamente
desde os primeiros dias da categoria 5.

Tenho estado envolvido no desenvolvimento de padrões para cabeamento a mais de 20 anos. E nesse período de tempo, nunca deixo de me surpreender com quanto progresso foi conseguido na evolução do conector modular de oito - posição.
O 8P8C (8 posição 8 contacto) conector modular é a interface de conector de saída onipresente nos serviços de telecomunicações em todo o mundo com especificações de desempenho se estendendo até 500 MHz. Isso é bastante surpreendente para um conector que foi especificado originalmente para aplicações de baixa freqüência abaixo de 3 MHz.
Quais são as especificações de desempenho para uma conexão modular plug/jack? As especificações de desempenho são mostradas na tabela 1.
 

Lembro-me dos primórdios do desenvolvimento de padrões de cabeamento, quando se descobriu que o crosstalk de uma conexão única descompensada plug/jack poderia ser tanto como o crosstalk em um comprimento de 100 metros de cabo de categoria 5.
O culpado foi o crosstalk inerente entre as lâminas de um conector modular de 8-posição, especialmente para a combinação de par de divisão entre posições 3-6 e 4-5. Isto começou e passou a bola para a indústria de conectores desenvolver técnicas diferentes para compensar (Cancelar fora) o crosstalk inerente em um plug modular. Se olharmos para o desempenho NEXT de uma conexão plug/jack em 100 MHz da tabela 1, um connector de categoria 5e atinge cerca de 10 dB de compensação de Diafonia e um conector de categoria 6 atinge cerca de 20 dB de compensação de diafonia no pior caso para toda a gama de conectores especificados.
Nem todas as técnicas de compensação são criadas iguais. Os métodos de compensação para uma tomada modular são realizados pelo roteamento criterioso de vestígios em uma placa de circuito impresso (PCB) ou pelo layout criterioso dos condutores em um design de quadro principal.
O projeto pode se tornar bastante complexa e os melhores modelos proporcionam uma perda de retorno alta (reflexões do sinal mínimo) e um rol gradual do desempenho do crosstalk em altas freqüências.


A distância entre onde a interferência ocorre (no plug) e que a compensação ocorre no PCB da tomada tem um efeito significativo sobre o desempenho em alta freqüência.
Para compensação de fase única, uma distância física de menos de 5 mm entre a fonte de interferência (no plug) e onde o sinal de interferência é compensado na placa de circuito (na tomada) pode degradar o desempenho de diafonia por 3-6 dB a 500 MHz. Finalmente, eu estou apenas tocando em alguns dos parâmetros bem conhecidos que são especificadas na norma.
Um bom design também garante que um sinal equilibrado (modo diferencial) que viaja através de um conector não se torne desequilibrado e gere sinais de modo comum sobre o mesmo par ou em outros pares que compartilham o mesmo espaço físico dentro de um conector. Este fenômeno é chamado de modo de conversão. Modo de conversão pode resultar em diafonia adicional entre canais nas proximidades e também pode afetar o desempenho de compatibilidade eletromagnética (EMC), juntamente com alguns outros fatores.
Como você pode ver o conector modular 8-posição evoluiu significativamente desde os primeiros dias da categoria 5.
Os especialistas de hardware conexão no Subcomitê de TIA TR 42,7 estão a desenvolver os métodos de ensaio para medir esses novos parâmetros de "modo de conversão" às freqüências até GHz usando chaves de teste especializadas. É o começo de uma nova era no desenvolvimento de conectores para aplicações futuras além de 10 Gb/s.


Paul Kish é director de sistemas e normas da Belden. As informações apresentadas são a visão do autor e não correspondência oficial da TIA.

 

domingo, 23 de janeiro de 2011

Cabeamento não é Commodity!

Materia Publicada no portal iMasters em 28 de fevereiro de 2005 por Maria Cecília Miquel, Coordenadora de Marketing da Panduit do Brasil.


 


Cabeamento não é Commodity!



Prezado CIO, Gerente de Informática, Gerente de IT, Gerente de Infra-estrutura, Administrador de Rede e demais envolvidos com infra-estrutura de cabeamento, por favor, aprenda: cabeamento não é commodity!
Ele pode ser uma parte não tão charmosa da rede, porém é onde a maior parte dos problemas ocorre. Pesquisas indicam que o cabeamento é responsável por de 50 a 70% dos problemas nas redes, quando mal utilizado (1). É interessante notar, no entanto, que apesar de ser o causador de tantos problemas, ele só responde por aproximadamente 5% dos investimentos totais de Informática.
Agora, uma pergunta: se o cabeamento é o alicerce de toda rede, se é onde estão concentrados mais da metade dos seus problemas e se corresponde por uma parte pequena dos investimentos em informática, por que economizar comprando produtos de qualidade duvidosa e performance limítrofe às normas?
Simplesmente não faz sentido comprar um sistema de cabeamento, que possui expectativa de vida de mais de 20 anos, que tenha qualidade duvidosa e que não atenda às demandas futuras.
Sabemos que mais de 80% dos negócios das empresas dependem da rede (2), sabemos também que cada vez mais os profissionais de TI são cobrados por estarem envolvidos proximamente com os aspectos de negócio da empresa, e assim não deveriam dedicar seu escasso tempo para problemas de cabeamento. Mas a realidade é outra, pesquisas indicam que 40% dos gerentes de IT é gasto com a solução de problemas!
Com a convergência, o papel do cabeamento torna-se ainda mais fundamental. Quando pacotes de dados trafegam aos “trancos e barrancos” por um cabeamento, às vezes isso não fica muito patente, mas quando se trafega pacotes de voz, no caso de telefonia IP, ou pacotes de vídeo, possuir largura de banda não é somente importante, é fundamental.
Até agora estamos falando dos problemas... Mas o importante é saber como evitá-los, fazendo uma compra inteligente e que traga um bom ROI para a empresa. Seguem abaixo os pontos fundamentais que devem ser observados:
  • Marca Reconhecida. Escolha uma marca reconhecida, que tenha suporte e estoque local. Isto lhe dará a segurança que se tiver algum problema, você poderá recorrer não somente ao integrador de sistemas, mas também a um fabricante que lhe dará suporte.
  • Linha de Produtos Completa. Comprando produtos de um fabricante que possua uma linha completa para cabeamento estruturado, que o atenda de “ponta-a-ponta”, você irá eliminar problemas de compatibilidade e a dor de cabeça de administrar diversos fornecedores.
  • Categoria 6. Instale cabeamento de “última geração”. Conforme comentamos, não vale a pena economizar no cabeamento. A informática evolui impressionantemente e com ela cresce a necessidade de largura de banda. Nas Américas, as instalações de cabeamento obedecem (ou deveriam obedecer) as normas estabelecidas pela EIA/TIA (Electronic Industry Alliance / Telecommunications Industry Association). Estas normas basicamente estabelecem sistemas de cabeamento em cobre classificados em duas categorias, categoria 5e, com performance mais limitada e categoria 6, de melhor performance. Nosso conselho é, não arriscar. Seu cabeamento deve ser feito para durar no mínimo 10 anos! Escolha a Categoria 6 e fique mais tranquilo com as demandas futuras por largura de banda. É certo que não é muito produtivo ter que refazer o cabeamento em um curto período de tempo, afinal estamos mexendo com infra-estrutura ...
  • Conectores Re-aproveitáveis: Preserve seu investimento! Uma pesquisa do Gartner Group indica que em média 10% da empresa muda de layout durante um ano. No dia-a-dia temos percebido uma taxa ainda maior. Com os sistemas onde o conector não é re-aproveitável, boa parte do investimento vai para a lata do lixo. Por isso na hora da compra é fundamental verificar se os conectores podem ser re-aproveitados com garantia do fabricante.
  • Sistema Modular. A utilização de um sistema de cabeamento modular traz diversas vantagens ao usuário. A primeira é a maior flexibilidade que fornece à instalação, pois permite que o patch panel contenha diversas mídias além dos conectores RJ45 de cobre. Permite a utilização em um mesmo patch panel de conectores de fibra óptica, coaxiais e super VHS, entre diversos outros, economizando espaço em rack e investimento. Permite ainda que o patch panel “cresça” de acordo com a instalação. Assim o usuário não precisa comprar um patch panel já com todas as portas, pode simplesmente colocar no patch panel os conectores que necessita e ir comprando extras conforme sua instalação vai crescendo.
  • Aval de um fabricante de ativos reconhecido. É importante que o fabricante de conectividade faça parte do programa de parcerias de um fabricante de ativos reconhecido, isto garante a interoperabilidade e avaliza a qualidade do fabricante de cabeamento. Afinal não adianta ter um switch de última geração instalado em um cabeamento “jurássico”.
  • Integrador de Sistema Habilitado e Certificado. Grande parte da performance da sua rede é relacionada à qualidade da instalação que foi realizada. Não adianta adquirir produtos de qualidade e escolher um integrador de sistemas sem habilitação. Por isso, antes de escolher-se o integrador/instalador que será responsável pela instalação e algumas vezes também pelo projeto de sua rede, é importante verificar alguns pontos:
§ O integrador/instalador é certificado pela marca que irá instalar? Isto é fundamental, pois somente assim poderá fornecer a certificação da obra caso você solicite.

§ O provedor de serviços possui CREA jurídico? Este registro indica que a empresa possui um responsável técnico e assim a empresa contratante estará amparada frente às leis caso surja algum problema.

§ Possui outras obras de porte semelhante ou maior já instaladas, inclusive possuindo atestados de capacidade técnica?

§ Possui equipamento de teste? Uma empresa que possui equipamento de teste (algumas vezes chamados também de scanner ou analisadores de cabeamento) demonstra preocupação com a qualidade das instalações que realiza. Depois de instalados todos os pontos de cabeamento devem ser testados pelo integrador/instalador, verificando-se se “passam” na categoria proposta para maior segurança do usuário.

§ Faz parte de alguma associação ou entidade que congrega integradores/instaladores como, por exemplo, BICSI ou UBIC? Isto mostra comprometimento da empresa com sua atualização técnica constante e também o interesse por uma melhoria constante do mercado.

Seguindo estas dicas possivelmente você contará com um cabeamento confiável e com perfomance para suportar suas aplicações por muito tempo, além de maximizar o seu ROI. Isto é fundamental para que tenha disponibilidade para dedicar seu tempo ao desenvolvimento da área de TI e não à solução de problemas do dia-a-dia.

(1) O instituto Real Decisions indica que 70% dos problemas das redes são devidos ao cabeamento
(2) Gartner Group


http://imasters.com.br/artigo/3018/redes/cabeamento_nao_e_commodity/

segunda-feira, 10 de janeiro de 2011

Certificação de redes com cabos UTP

Material Retirado da revista PC & CIA Redes Locais na Prática

Editora Saber 1ª Edição Cap. 1


A importância da certificação  
Os principais fabricantes de cabos metálicos para redes de dados no Brasil oferecem 5 anos de garantia para seus produtos. Essa garantia pode subir para 10 ou 15 anos se o serviço de instalação for executado por uma empresa com profissionais certificados pelos respectivos fabricantes.
Se 15 anos de garantia parece ser muito tempo, imagine então 25 anos. É isso mesmo, dependendo da importância da obra, a empresa fabricante do cabo, em conjunto com a empresa instaladora, pode oferecer até 25 anos de garantia nos produtos (empresa fabricante) e serviços (empresa instaladora).
Mas para que essa garantia super estendida possa ser oferecida, é imprescindível que toda a estrutura do cabeamento seja testada e certificada com equipamento adequado.
Nesse caso a certificação pode garantir um período adicional de garantia da ordem de quatro vezes a garantia original. Com isso todas as partes saem ganhando. O cliente porque recebeu uma garantia bem maior, o instalador conquistou a gratidão do cliente e o respeito do fabricante dos cabos e este último ganhou a certeza de que a obra foi muito bem executada e que nenhum problema técnico foi encontrado

Testes e certificações
Até que uma estrutura de rede esteja totalmente certificada muitos testes deverão ser feitos e para tal podemos utilizar três tipos de equipamentos: Um simples testador de cabos (Lan teste), um microscanner e um certificador, mais comumente conhecido por Scanner.

Tipos de testes

Podemos dividir a bateria de testes de uma rede em dois tipos básicos, os testes passivos, que são executados sem que a rede esteja em real funcionamento, e os testes ativos, que deverão ser executados com a rede em condições reais de funcionamento, ou seja, com a rede operando normalmente mesmo.
Os testes ativos são mais comumente utilizados, quando se precisa investigar e diagnosticar o que esta havendo de errado numa rede. Felizmente tal tipo de teste não é muito freqüente, o que significa que a tecnologia de redes esta cada vez melhor, assim como nossos profissionais de instalação de cabos e redes.
Já os testes passivos são muito difundidos e utilizados. Isso é muito bom, pois estes testes que homologarão uma estrutura de cabeamento instalada.
Os testes passivos podem ser divididos em estáticos e dinâmicos. Os estáticos são realizados em laboratórios, fábricas ou institutos de pesquisas e não pode haver reprovação alguma, caso contrário o cabo em teste não atenderá às normas e com isso seu projeto técnico ou de fabricação não serão aprovados.


Já os testes dinâmicos são mais complexos, são eles:
1 – Wiremap (Mapa de Fios);
2 – Lenght (Comprimento do cabo lançado);
3 – Attenuation ou Insertion Loss (Atenuação);
4 – NEXT Loss (Near end Crosstalk);
5 – PS-NEXT Loss (Power Sum NEXT);
6 – FEXT (Far End Crosstalk);
7 – ELFEXT Loss (Equal Level Far End Crosstalk);
8 – PS-ELFEXT Loss (Power Sum Equal Level Far End Crosstalk);
9 – Return Loss (Perda de retorno);
10 – Propagation Delay (Atraso de propagação);
11 – Delay Skew ou Propagation Delay Skew ( Desvio de propagação);
12 – ACR (Atenuation to Crosstalk Ratio);
13 – PS-ACR (Power Sum Attenuation to Crosstalk Ratio);
14 – Alien Crosstalk (Linha Cruzada adjacente);
15 – Insertion Loss Deviation;
16 – DC Loop Resistance.

Estes testes também podem ser chamados de testes de campo (Field Tests) e são obrigatórios pela norma EIA/TIA 568B.1, seção 11.2.4 para os cabos Categoria 5e, e EIA/TIA 568B.2-1 para os cabos categoria 6, do número 1 ao número 11, e são complementares do número 12 ao 16.
Para que os fabricantes possam conceder suas super garantias de até 25 anos, todos os testes de campo têm que ser realizados, excetuando-se os complementares.
Todo fabricante de cabos disponibiliza os parâmetros referentes a todo os testes em seus sites. Para obtê-los basta fazer download gratuitamente.


O que testar

Agora abordaremos testes e certificações para cabos metálicos do tipo UTP, e é com este tipo de cabos que trabalharemos.
Cabos metálicos de outros tipos também devem ser certificados, assim como as redes e interligações feitas com cabos de fibras ópticas.
Normalmente têm-se duas opções principais do que testar: Link e Canal. O link, melhor chamado de Link Permanente, compreende todos os cabos que ficam nas Estruturas de Passagens, iniciando nas tomadas de Telecomunicações da Área de Trabalho e finalizando nos Painéis de Conexões (Patch Panel).
Já o Canal é o Link Permanente mais os cabos flexíveis chamados de Line Cords (cabos que ligam a tomada de telecomunicação ao microcomputador) e Patch Cords (cabos que ligam a tomada do Painel de Conexão ao equipamento ativo de interconexão da rede).

Para que Padrão de rede testar
Atualmente podemos testar e certificar cabos UTP categoria 5e ou 6 para serem empregados em redes de dados, imagens e voz.
Normalmente essa rede é do tipo Ethernet em 10Base-T, 100Base-TX, 1000Base-T ou 1000Base-TX.

Obs.: A Nomenclatura nBase-Yz indica um padrão de rede local em banda básica, portanto, sem qualquer tipo de modulação ou alteração do sinal original. O número “n” indica a taxa de transferência máxima em Megabits por segundo e o “Y” representa o tipo de mídia, como abaixo listado:


2 – Cabo coaxial fino, de 50 Ohms;
5 – Cabo coaxial grosso, de 75 Ohms;
T – Cabo de par trançado;
F – fibra óptica multímodo com conector SC;
S – Fibra óptica multímodo com conector SC;
L – Fibra óptica monomodo ou multímodo com conector SC;


Já o “Z” indica algum tipo de melhoramento ou alteração do projeto normatizado inicialmente, por exemplo, 100Base-T (100 Megabits por segundo em banda básica com cabo tipo par trançado), 100Base-TX (100 Megabits por segundo em banda básica com cabo tipo par trançado com aprimoramentos), 100Base-T4 (100 Megabits por segundo em banda básica com cabo tipo par trançado utilizando oas quatro pares) e 100Base-FX (100 Megabits por segundo em banda básica com cabo de fibra óptica).

Essas duas últimas merecem uma atenção muito especial, pois o padrão 100 Base-T pode funcionar em cabos categoria 5e e 6. Já o novo padrão 1000Base-TX só é capaz de operar com cabos categoria 6.
Ambos os padrões de Gigabit Ethernet utilizam os quatro pares de condutores. O 1000Base-TX utiliza dois pares para transmitir e os outros dois para receber, de forma dedicada, operando em modo Full Duplex contínuo. Cada par de condutores opera a 500Mbits por segundo, em 250MHz.
O padrão 1000Base-T pode funcionar bem em cabos categoria 5e, pois ele utiliza os quatro pares ora para transmitir e ora para receber, operando, desta forma, em modo Full Duplex alternado. Cada par de condutores opera a 250Mbits por segundo, em 85MHz nominais.

Testando
A operação dos equipamentos de testes está cada vez mais simples, pois os atuais modelos seguem o conceito “One touch Test – teste com um toque”. Isso quer dizer que só é necessário apertar um único botão para que todos os testes sejam executados pelo equipamento.
O Scanner pode ser ajustado via interface serial ou USB através de um software do próprio fabricante. Com isso podem ser programados quais testes serão realizados pelo equipamento.
Para se testar os novos cabos categoria 6 precisa-se de um Scanner nível III, pois somente esse equipamento suporta os novos tipos e parâmetros de testes, possui faixa dinâmica para uma correta aferição de FEXT (um dos tipos de testes que será abordado adiante) e Perda de Retorno, e ainda suporta uma largura de banda superior a 250MHz.



Wiremap (Mapa de Fios)

Esse primeiro tipo de teste a ser executado é bem simples e independe do padrão da rede ethernet adotado.
Ele consiste basicamente em verificar a continuidade de cada fio, bem como o seu posicionamento referencial no conector, indicando fundamentalmente erros de crimpagens e conectorizações.
Esse teste pode revelar:
- Conectorização correta pino-a-pino ou cruzada;
- Continuidade de cada condutor;
- Curto entre dois ou mais condutores;
- Pares cruzados;
- Pares separados;
- Par reverso.

Um testador de cabos do tipo mais simples é útil para fazer o wiremap, mas envolve mais atenção do instalador, pois o equipamento só oferece como retorno a continuidade de cada condutor e uma sinalização através de um simples LED se há um cruzamento de alguns condutores, sem, entretanto, especificar quais estão cruzados.
De acordo com a configuração de crimpagem utilizada, um cruzamento pode ser desejável, no caso de cabos Half-Cross e Cross-Over. Com isso o testador de cabos pode indicar um erro inexistente.


Obs.: Podemos ter três tipos de cabos quanto às suas conectorizações:

- Straight Through – Cabo com os condutores ligados pino-a-pino, sem inversão alguma;
- Half Cross – Cabo com cruzamento parcial, com inversão em dois pares de condutores, usado para ligar dois microcomputadores ou dois equipamentos ativos em 10Base-T ou 100Base-TX;
- Cross Over – Cabo com cruzamento total, com inversão em todos os quatro pares de condutores, usado para ligar dois microcomputadores ou dois equipamentos ativos em 10Base-T, 100Base-TX, 100Base-T4, 1000Base-T ou 1000Base-TX.


Já existem testadores de cabos no mercado que são capazes de testar cabos com terminação RJ-11, RJ-45, BNC e USB.

Esses novos modelos podem indicar também a ocorrência de curtosentre condutores, mas há aqui uma ressalva; se durante um teste aparecer a indicação de um curto, verifique se o equipamento não disparou seu sinal contra um Hub ou uma placa de rede desligados.
Assegure sempre que o equipamento de teste tenha disparado contra seu próprio terminador e nunca dispare o sinal do equipamento contra placas de rede, Hubs ou Switches ligados, pois o testador pó ser irreversivelmente avariado.
É importante mencionar que os testadores de cabo à venda no nossomercado não são capazes de testar a continuidade da malha de aterramento da blindagem de cabos do tipo ScTP (Screened Twisted Pair, termo que engloba atualmente os antigos cabos FTP, STF, SFTP e FFTP), uma vez que eles não são compatíveis com os conectores especiais de nove vias.
Alguns testes de Wiremap só podem ser conclusivos quando é empregado um Scanner. Suponhamos que seja necessário avaliar a ocorrência de pares separados, um testador simples indicará uma situação normal.
Já um Scanner, ao realizar o teste de NEXT (que será abordado adiante) sugerirá haver pares separados, pois nessas circunstâncias o valor do NEXT é extraordinariamente alto, possivelmente acima de 22dB.
Tal valor de NEXT é suficiente para causar um séria degradação na largura de banda.

- Correções
Qualquer erro apontado pelo Wiremap implica na realização de um exame minucioso nos trechos de cabos apontados com erros.
Normalmente esses erros localizam-se nos conectores, Patch Panels ou Blocos de Interconexão.
A correção é refazer a conectorização que apresentou problema.


Comprimento do cabo lançado (Length)

A medida do comprimento dos condutores costuma ser um pouco maior do que a medida co comprimento linear do cabo. Isso se deve ao espinamento ou trança dos fios.
Entre os próprios pares de condutores também é possível haver uma pequena diferença. Essa diferença deve ser inferior a 6,0mm entre o maior e o menor pares de condutores, para que não haja quaisquer tipos de problemas.
O maior comprimento tolerável é de 100,0m para o Canal. O Link Permanente deve ser de no máximo 90,0m, já incluídas as sobras de cabos.

- Correções
Um Canal com mais de 100,0m de comprimento, um Link Permanente com mais de 90,0m ou um Line Cord com mais de 5,0m devem ser verificados e corrigidos.
O excesso de curvas no traçado do cabo pode “consumir” mais comprimento linear.
Se não houver a possibilidade de refazer o lançamento de um cabo com mais de 90,0m de comprimento, corte-o o mais próximo possível do meio e instale um equipamento retransmissor. Um Hub pode ser muito útil nessa situação, para tal, quanto menos portas disponíveis, melhor será.
Um erro ,muito comum que acaba por ocasionar uma leitura equivocada do comprimento dos condutores é a declaração incorreta dos valores referentes ao NVP (Nominal Velocity of Propagation – Velocidade Nominal de Propagação). O NVP será melhor abordado adiante.

Atenuação (Attenuation ou Insertion Loss)

Atualmente o termo Atenuação, que está em uso desde 1993, foi substituído pelo termo Insertion Loss ou Perda por Inserção. Todo sinal elétrico transitando num cabo metálico perde parte de sua potência ao percorrê-lo. Isso é um fenômeno fisicamente normal, pois como sabemos a resistência de um cabo metálico aumenta com seu comprimento linear, ou seja, quanto maior for um cabo, maior será sua resistência elétrica.
Quanto maior a freqüência do sinal que trafega em um condutor elétrico, maior será também a resistência encontrada e conseqüentemente a Perda por Inserção.
Portanto, os valores de Perda por Inserção serão diferentes para as distintas categorias de cabos. Cabos com uma bitola maior oferecem menos resistência e com isso, menor será a Perda por Inserção.
Vale lembrar também que cabos com condutores flexíveis podem apresentar valores referentes a Perda de Inserção da ordem de 20 a 50% maiores do que os cabos com condutores sólidos. Por isso devemos empregar Line Cords e Patch Cords com o menor comprimento possível.
Os certificadores exibem as medidas de Perda por Inserção de forma absoluta e também comparada com os valores máximos permissíveis na norma técnica escolhida.

- Correções

Embora os valores referentes a Perda por Inserção sejam característicos do cabo empregado, tais valores podem ser ainda maiores se o manuseio e a instalação não forem bem feitas.
Um grande inimigo e por assim dizer causador do aumento dos valores de Perde pó Inserção é o próprio comprimento linear do cabo lançado. Reduzir o tamanho do cabo reduzirá também a Perda por Inserção.
Se os valores de Perda por Inserção não forem uniformes ou proporcionais nos quatro pares de condutores, verifique as crimpagens, conectorizações e observe também a marca, modelo e especificação técnica de componentes passivos como Patch Panel, tomadas de Telecomunicação e conectores.
Pode ocorrer ainda algum tipo de defeito ou imperfeição no trecho de cabo lançado. Normalmente tal fato é bem raro e quando se manifesta, o faz somente em um par de condutores; nesse caso, infelizmente o trecho de cabo terá que ser relançado.
Caso isso ocorra, guarde o trecho do cabo com problemas e entre em contato com o fabricante, provavelmente haverá um bom acordo para as partes envolvidas.
A temperatura ambiente também é inimiga da Perda por Inserção. Como sabemos, quanto maior a temperatura, será maior a dilatação do corpo metálico dos condutores e também a agitação das moléculas que compõem a liga metálica dos fios. Justamente em função da temperatura ambiente não poder ser prevista e uniformizada, as normas trazem os valores dos testes para aprovação das instalações estabelecidos à temperatura ambiente de 20°C.


NEXT Loss (Near End Crosstalk)

NEXT é a sigla para um tipo de medição que pode ser traduzido como “linha cruzada na terminação mais próxima”. Isso nos lembra alguma coisa, não é mesmo?
E é exatamente isso, o NEXT nada mais é do que uma chamada linha cruzada, relativamente comum e nossa telefonia até a década passada.
Quando um sinal percorre um condutor metálico do cabo, um campo eletromagnético surge e pode interferir nos pares de condutores mais próximos, causando alguns inconvenientes na rede instalada.
Quanto maior a freqüência, maior será também a possibilidade da ocorrência de NEXT no cabo, por isso deve-se aferir os valores de NEXT em várias freqüências. Comumente de 1 a 100MHz em cabos categoria 5e e até 250MHz em cabos categoria 6.
A medida do NEXT é obtida da diferença do par de condutores que gera a interferência para o par de condutores que recebe essa mesma interferência.
Assim, um valor baixo de NEXT indica menos Linha Cruzada, ao passo que um valor alto indica mais Linha Cruzada.
O NEXT tem que ser medido nas duas extremidades do cabo; felizmente os atuais Scanners, os de nível III, já fazem as medidas locais e remotas sem a necessidade de se transportar o equipamento para a outra terminação.
As medidas do NEXT são feitas par-a-par, ou seja, considerando um cabo UTP de 4 pares, inicialmente é medido o NEXT do Par 1 sobre o Par 2, depois sobre o Par 3 e só então sobre o Par 4. Após isso a mesma medição é realizada com o Par 2 sobre o Par 1, depois sobre o Par 3 e finalmente sobre o Par 4. E assim por diante até que todos os pares tenham sido aferidos como emissores de interferência e receptores dos outros pares.

- Correções
Um grande causador de reprovação por NEXT é um excessivo ou indevido destrançamento dos condutores nas Tomadas de Telecomunicação, Patch Panels e Conectores RJ45.
A medida de destrançamento permitida é de no máximo 13,0mm para os cabos categoria 5e e de apenas 6,0mm para os cabos categoria 6. Acia disso tem-se problemas.
Inicialmente localize a reprovação por NEXT, se local (terminação mais próxima) ou remota (terminação oposta).
Após isso verifique e se possível refaça as conectorizações e crimpagens.
Uma declaração incorreta do tipo de cabo no Scanner também pode retornar uma reprovação por NEXT. Por exemplo, ao testarmos um Link com cabo categoria 5e, não devemos esperar resultados tão bons quanto os cabos categoria6.


PS-NEXT Loss (Power Sum NEXT)
O PS-NEXT não é uma medida e sim um simples cálculo do quanto um par recebe NEXT de todos os outros juntos, simultaneamente.
A sigla pode ser traduzida como “soma da força dos NEXT” e ocorre quando todos os pares induzem sobre um único par, excetuando-se, lógico, o próprio par induzido.
Realizar o teste de PS-NEXT é muito importante, sobretudo para instalações de cabeamento que trabalharão com todos os quatro pares com sinal, como é necessário para os padrões Gigabit Ethernet.
Todos os procedimentos, aferições e correções aplicadas ao NEXT, aplicam-se também ao PS-NEXT.

FEXT (Far End Crosstalk)
O FEXT pode ser entendido como “linha cruzada na extremidade mais distante”. Isso não parece familiar?
Pois é, o FEXT é um NEXT que ocorre na outra extremidade do cabo. A única diferença é que o par de condutor induzido também está transmitindo o sinal.
A ocorrência de reprovação de cabos lançados por FEXT não é tão comum quanto por NEXT, pois como sabemos, o sinal propagado pelos condutores tende a sofrer Perda por inserção ao longo do trajeto, o que diminui a possibilidade da ocorrência de FEXT.
Os procedimentos referentes às correções aplicadas ao NEXT e PS-NEXT aplicam-se também ao FEXT.
É muito importante executar o teste de FEXT em redes que funcionarão com Gigabit Ethernet e em cabos categoria 6.


ELFEXT Loss (Equal Level Far End Crosstalk)
ELFEXT é outra medida calculada, ela nada mais é do que a diferença entre os valores de FEXT e da Perda por Inserção.
Por exemplo: consideremos um link cujo FEXT nos deu 45dB e a Perda por Inserção foi de 10dB. Assim, o valor de ELFEXT será de 45 - 10, o que resulta em 35dB.
Como podemos deduzir, o ELFEXT não sofre a mesma influência da Perda por Inserção que o FEXT sofre.
O ELFEXT também tem que ser medido nas duas extremidades do cabo. Em caso de problemas de ELFEXT, deve-se proceder da mesma forma que se procede com problemas com NEXT e FEXT.

PS-ELFEXT Loss (Power Sum Equal Level Far End Crosstalk)
Atualmente o PS-ELFEXT é calculado e não mais medido. Esse tipo de teste tem o mesmo principio do PS-NEXT, ou seja, é a soma das influências individuais de ELFEXT em cada par.
Normalmente os valores de PS-ELFEXT apresentam-se com algo em torno de 3dB a menos do que os valores de ELFEXT.
Utiliza-se os mesmos procedimentos de correção do ELFEXT.


Perda de Retorno (Return Loss)
Perda de Retorno ocorre quando o sinal encontra, ao longo da estrutura de cabeamento, uma diferença de impendância, com isso, parte do sinal retorna ao sentido original, enquanto o sinal que continua propagando corretamente tende a perder parte de sua potência original.
Normalmente o ponto mais crítico para a Perda de Retorno está nas conectorizações, crimpagens e principalmente nas interfaces com equipamentos ativos e passivos.
Por isso deve-se empregar conectores com a maior qualidade possível.


- Correções.
Para garantir bons valores de Perda de Retorno, deve-se decapar o mínimo possível do cabo e evitar ao máximo quaisquer destrançamentos desnecessários.


Atraso de Propagação (Propagation Delay)
O Atraso de Propagação é o tempo, medido em nanossegundos, que o sinal leva para, a partir de sua origem, atingir a outra estremidade do cabo.
Este tipo de teste é a principal razão para que se limite o comprimento linear dos cabos tipo UTP em 100,0m, acima desse valor pode-se perder o controle das comunicações de uma rede com o aumento do Atraso de Propagação.

- Coreções.
Se um cabo for reprovado no teste de Atraso de Propagação, nem perca tempo, reveja o comprimento do cabo afetado e trate de diminuí-lo. Isso provavelmente resolverá o problema.

Desvio de Propagação (Delay Skew ou Propagation Delay Skew)

Desvio de Propagação é a diferença, expressa em nanossegundos, entre o par de condutores que apresenta o maior Atraso de Proagação e o par que apresenta menor Atraso de Propagação. Este teste pode representar um problema crítico em redes Gigabit Ethernet que usam todos os quatro pares.
Observe que nesse tipo de rede, o Sinal parte simultaneamente de dois (1000Base-TX) ou de quatro (1000Base-T) pares e pode chegar ao seu destino com um desvio suficientemente significativo a ponto do sistema de rede não ser capaz de recompor os quadros originalmente transmitidos.

- Correções.
Diminuir um cabo com problemas de desvio de propagação pode ajudar a corrigir o problema, entretanto, um manuseio incorreto durante a instalação pode pôr todo o bom funcionamento da rede a perder.
Isso é crítico em gigabit ethernet.
Pode ser necessário relançar o cabo, fazendo o mínimo de curvas possível.

ACR (Attenuation to Crosstalk Ratio)
ACR – Pode ser entendido como a diferença entre o valor de next e o de atenuação ( Perda de inserção).
Quanto maior for esse valor obtido, melhor será a capacidade de transmitir sinal de um par testado.

- Correções.
Como o ACR é derivado do NEXT e da perda por inserção, qualquer ação que melhore essas performances, melhorará também a performance do ACR.
Na prática, pode se adotar os mesmos procedimentos de correção do NEXT.

PS-ACR ( Power Sum Attenuation to Crosstalk Ratio )
O PS-ACR é outro tipo de teste cujos valores são obtidos por cálculo e não por medições.
Ele deve ser entendido como a soma das influências individuais de ACR nos pares dos cabos.
Quanto maior os valores de PS-ACR obtidos, melhor estará a propagação do sinal.
Para se corrigir problemas de PS-ACR, pode se empregar os mesmos procedimentos descritos para ACR.

Linha Cruzada Adjacente (Alien Crosstalk)
A linha cruzada adjacente é a influência do sinal de um par de condutores sobre um outro par de condutores, só que de um cabo diferente que esteja bem próximo.
É multíssimo difícil medir esses valores, pois implica em uma perfeita sincronia entre duas análises de cabos simultaneamente.
Na realidade, não há limite de aprovação ou reprovação para esse teste.
Utilizar uma estrutura de passagem com uma margem de folga pode ser útil para evitar a linha cruzada adjacente, assim como não prender firmemente um cabo sobre outros.

Desvio de Perda por Inserção ( Insertion loss Deviation )
Esse teste é empregado em cabos categoria 6 e pode ser singelamente entendido como a diferença entre os valores de perda por inserção esperados e os efetivamente medidos.
Os valores do desvio de perda por inserção são obtidos a partir da primeira medida de perda por inserção, a partir da qual se projeta os demais valores baseados na atual freqüência empregada.
Ainda não existem valores definidos para a aprovação desse teste, o que já se tem como certo é que quanto menor o valor medido, melhor será.

DC loop Resistance
É a medida da resistência ômica total de dois condutores espinados em uma das terminações do cabo.
Normalmente esse valor depende do diâmetro do condutor e tende a aumentar ao longo do comprimento do cabo.
DC Loop Resistance pode ser considerado como um teste dinâmico de impedância( que é originalmente um teste estático) do cabo.

- Correções
Se os valores obtidos forem muito altos em apenas um par de condutores, pode-se verificar as terminações em busca de eventual oxidação.
Mas se os valores de todos os pares forem muito altos, é bom investigar a causa, talvez um line Cord que apresenta alta resistência ômica esteja no circuito do teste.


Valores de performance dos principais testes propostos para cabos UTP
Os valores exibidos nas tabelas estão expressos em decibéis “dB”.


- Link  de 90,0m

- Canal de 100,0m