Páginas

segunda-feira, 4 de julho de 2011

A evolução dos computadores.



Quando os primeiros computadores apareceram em meados dos anos 50, eles eram máquinas de processamento de dados enormes, cuja demanda de capital para a sua aquisição e manutenção era extremamente elevada, sendo suportada somente por grandes empresas. Desde então, eles têm seguido certas tendências principais:
·         Diminuição de tamanho;
·         Aumento da capacidade de processamento;
·         Diminuição de preços;
Esta evolução teve como ponto culminante, a invenção dos microcomputadores, que levaram a informática até mesmo para dentro das casas das pessoas.
Durante as primeiras gerações de computadores, a operação e a programação eram tarefas altamente especializadas, que necessitavam de profissionais extremamente capacitados. Com o surgimento dos computadores pessoais houve uma grande evolução na área de software, através da utilização da capacidade e facilidade de uso destas máquinas (relativa aos grandes computadores). A partir daí desenvolveu-se o conceito de ferramentas user-friendly, o que permitiu que pessoas comuns pudessem fazer uso destas máquinas.
A conseqüência imediata destas evoluções foi o fim da estrutura hierárquica implementada pelos grandes computadores, onde toda capacidade de processamento está concentrada em um só ponto. Com isso, os microcomputadores começaram a se espalhar pelas empresas, fazendo com que os usuários não mais dependessem do Mainframe para digitar seus textos, calcular suas tabelas, etc. Criou-se, então, vários focos de processamento distribuídos geograficamente, o que gerou, também, uma distribuição dos dados.
A comunicação entre os computadores tornou-se necessária na medida em que estes focos de processamento e informação foram se distribuindo, o que dificultou o acesso a informações vitais para o funcionamento e gerenciamento da empresa. As redes de computadores surgiram para resolver este problema: os vários pontos de processamento são interligados entre si, permitindo que as informações armazenadas nestes pontos sejam compartilhadas.
A evolução das instalações de redes.
Com a proliferação dos computadores pessoais na década de 80, uma mudança relevante ocorreu na informática. Antes do advento do computador pessoal, as informações eram armazenadas em repositórios centrais, localizados nos Mainframes e eram acessados mediante o uso de terminais de vídeo. Os computadores pessoais proporcionaram ao usuário capacidade de processamento e liberdade de escolhas inigualáveis, resultando porém, na criação de pequenas ilhas de informação, inacessíveis a outros indivíduos da organização.
Alguma forma de conectividade tornou-se necessária para a transferência de dados e aplicações entre os PCs. O método usado inicialmente consistia em rodar as aplicações entre PCs, utilizando-se um disquete para transferência. Esta técnica, que se tornou conhecida como Sneaker-net, foi então substituída por outras mais eficientes, até o estabelecimento das LANs (Local Area Network).
Em geral as organizações conectam seus computadores para compartilhar dados, aplicações, periféricos de alto custo e permitir a comunicação eletrônica entre os usuários. As LANs são definidas como um grupo de computadores interligados, localizados no mesmo prédio ou ao menos, em áreas próximas. Quando linhas telefônicas alugadas, microondas, enlaces de satélites, etc., são usadas para interligar computadores ou LANs distantes umas das outras, uma rede WAN (Wide Area Network) é criada.
Uma das maneiras de compartilhar o acesso aos dados é colocá-lo em um computador que possa ser acessado por todos a partir de suas estações de trabalho. Este dispositivo, chamado de servidor de arquivos é capaz de oferecer serviços a um grande número de usuários simultaneamente.
Uma rede é um sistema onde ocorre transferência de informação. Redes de computadores incluem todo o Hardware e Software necessários para conectar computadores e outros dispositivos eletrônicos a um canal de forma que possam se comunicar entre si. Os dispositivos que compõe uma rede são chamados de nós ou pontos, podendo variar de dois a milhares de pontos.
O processo de informatização utilizando-se redes locais LANs ou WANs é hoje uma necessidade e está crescendo a cada dia abrangendo praticamente todos os ramos de atividades e englobando todos os setores das corporações, para que se possa ter o desempenho esperado e crescer sem maiores traumas, de forma ordenada e sob o controle do seu responsável.


A importância do planejamento 
Em comparação com o investimento realizado em outros componentes de uma rede, o cabeamento tem uma duração praticamente ilimitada. Tanto o software quanto o hardware de sua rede tem duração estimada de no máximo cinco anos, segundo pesquisas mais recentes. O cabeamento de sua rede, se bem planejado e executado pode durar por vários anos, e se manter durante a mudança dos equipamentos e sistemas que provavelmente irão se tornar obsoletos.
Salienta-se que esta durabilidade garante o funcionamento dos materiais envolvidos, mas não as evoluções tecnológicas, ou seja, se neste tempo surgirem novas tecnologias que necessitem mais do cabeamento em termos de taxa de transmissão, o mesmo deverá ser trocado.
O que considerar na hora de planejar.
Ao iniciar o trabalho de especificação de uma rede, devemos tentar olhar para o futuro, imaginando não nossa empresa hoje, mas como ela será, ou que poderá acontecer amanhã.
Essas considerações são fundamentais para o planejamento da rede. Assim quando começar a planejar a rede, devemos levar em consideração os seguintes pontos:
1.      Escalabilidade: Quanto esta rede poderá crescer e qual o tamanho deste crescimento.
2.      Densidade populacional da empresa: Quantos funcionários deveriam ter microcomputadores a curto, médio e longo prazo.
3.      Serviços de rede: Que serviços serão necessários dentro da rede.
4.      Desenvolvimento da tecnologia: Por quanto tempo os elementos da rede suportarão as evoluções tecnológicas.
5.      O ambiente físico da empresa: Que soluções utilizar para não afetar o ambiente e verificar se o ambiente suporta as soluções imaginadas.
O cabeamento estruturado.
Com o crescimento do uso das redes locais de computadores e a agregação de novos serviços e mídias como voz, dados, teleconferência, internet e multimídia, surgiu a necessidade de se estabelecer critérios para ordenar e estruturar o cabeamento dentro das empresas.
No final dos anos 80, as companhias dos setores de telecomunicações e informática estavam preocupadas com a falta de padronização para os sistemas de cabos de telecomunicações em edifícios comerciais e campus.
Em 1991, a associação EIA/TIA (Eletronic Industries Association / Telecommunications Industry Association) propôs a primeira versão de uma norma de padronização de fios e cabos para telecomunicações em prédios comerciais, denominada de EIA/TIA-568 cujo objetivo básico era:
a)       Implementar um padrão genérico de cabeamento de telecomunicações a ser seguido por fornecedores diferentes;
b)       Estruturar um sistema de cabeamento intra e inter-predial, com produtos de fornecedores distintos;
c)       Estabelecer critérios técnicos de desempenho para sistemas distintos de cabeamento tradicional, baseado em aplicações;
Assim, os prédios possuíam cabeamento para voz, dados, sistemas de controle, eletricidade, segurança, cada qual com uma padronização proprietária.
Eram fios e cabos por toda aparte, cabo coaxial, par trançado, cabo blindado. Neste cenário, alguns problemas surgiram para desestimular essa forma de cabeamento não estruturado:
I.                     Mudança rápida de tecnologia: Microcomputadores mais velozes, serviços integrados de voz e dados, redes locais de alta velocidade;
II.                   Infra estrutura de telefonia privada inadequada para novas tecnologias;
III.                 Rápida saturação de dutos, canaletas e outros suportes de cabeamento;
IV.                 Inflexibilidade para mudanças;
V.                   Cabeamento não reaproveitável com novas tecnologias;
VI.                 Suporte técnico dependente de fabricantes;
VII.               Aumento de custo.



terça-feira, 28 de junho de 2011

Inventores do computador moderno



A Invenção do Ethernet - Redes de Área Local - Robert Metcalfe



Eu vim para trabalhar um dia no MIT e o computador havia sido roubado, então liguei para DEC para dar a notícia a eles que o computador de $ 30.000 que eles tinham me emprestado tinha ido embora. Eles pensaram que esta era a melhor coisa que já aconteceu, porque acontece que eu tinha em minha posse o primeiro computador suficientemente pequeno para ser roubado! - Robert Metcalfe sobre os ensaios e atribulações de inventar a Ethernet.

O ethernet é um sistema para conexão de computadores dentro de um edifício usando hardware rodando de máquina para máquina. Ela difere da Internet, que conecta os computadores localizados remotamente por telefone, protocolo de software e algum hardware. Ethernet usa algum software (emprestado de Internet Protocol), mas o hardware de conexão foi a base da patente              (# 4063220) envolvendo chips, novo design e fiação. * A patente descreve ethernet como um "sistema de comunicação multiponto de dados com detecção de colisão".



Robert Metcalfe era um membro da equipe de pesquisa para a Xerox, em Palo Alto Research Center (PARC) onde alguns dos primeiros computadores pessoais estavam sendo feitos. Metcalfe foi convidado a construir um sistema de rede para computadores do PARC. A motivação da Xerox para a rede de computadores era de que eles também fossem responsaveis pela construção da primeira impressora laser do mundo e queria que todos os computadores do PARC fossem capazes de imprimir com esta impressora.

Robert Metcalfe tinha dois desafios: a rede tinha que ser rápida o suficiente para conduzir a nova impressora laser muito rápido, e ela tinha que conectar centenas de computadores dentro do mesmo edifício. Nunca antes houve centenas de computadores no mesmo prédio - naquela época ninguém tinha mais de um, dois ou talvez três computadores em operação em qualquer uma premissa.
A imprensa muitas vezes afirmou que ethernet foi inventada em 22 de maio de 1973, quando Robert Metcalfe escreveu um memorando a seus chefes indicando as possibilidades potenciais do ethernet, mas Metcalfe afirma que ethernet foi realmente inventado muito gradualmente ao longo de um período de vários anos. Em 1976, Robert Metcalfe e David Boggs (assistente de Metcalfe) publicaram um estudo intitulado " Ethernet: Distributed Packet-Switching For Local Computer Networks."
Robert Metcalfe deixou a Xerox em 1979 para promover o uso de computadores pessoais e redes locais (LANs). Ele conseguiu convencer a Digital Equipment, Intel, Xerox e outras empresas a trabalhar em conjunto para promover a Ethernet como um padrão. Agora um padrão da indústria internacional de computadores, ethernet, é o mais instalado protocolo LAN.
No início de 1970, qualquer pessoa que quisesse usar um computador tinha que esperar em uma longa linha, computadores eram poucos e inacessiveis. O desejo do mercado era cada vez maior por um computador que pudesse ser usado em casa ou no escritório, o "computador pessoal". Diversos fabricantes diferentes comercializaram "computadores pessoais" entre 1974 e 1977, em resposta a esse desejo. Estes eram principalmente kits (conjunto de grandes requisitos) anunciados nas últimas páginas de revistas como Popular Science.
Na edição de março de 1974, da revista QST apareceu o primeiro anúncio de um "computador pessoal". Era chamado de Scelbi (SCientific, ELectronic and BIological) projetado pela Empresa de Consultoria de Informática Scelbi de Milford, Connecticut. Baseado em um microprocessador Intel 8008, Scelbi era vendido por US $ 565 e veio com 1K de memória programável, com 15K adicionais de memória disponível por        $ 2760. O segundo "kit de computador pessoal" foi o Mark-8 (também baseado na Intel 8008) desenhado por Jonathan Titus. A edição de julho da revista Radio Electronics publicou um artigo sobre a construção de um microcomputador Mark-8, o público em geral estava com fome de informações. Ao mesmo tempo, a empresa Intel introduziu o chip microprocessador 8080, feito para controlar semáforos. Foi para se tornar o microprocessador dentro do muito bem sucedido computador Altair.

                        


 Uma empresa de Albuquerque, Novo México, chamada MITS (Micro Instrumentation Telemetry Systems) estava no negócio de calculadora, até que a Texas Instruments varreu o mercado em 1972 com suas calculadoras de baixo custo. Ed Roberts proprietário da MITS, um ex-especialista em eletrônica da força aérea, então decidiu tentar projetar um kit de computador. Ele foi ajudado por seu amigo Les Soloman, que passou a ser o editor técnico da revista Popular Mechanics que tinha sido inundada com cartas de leitores descrevendo idéias para computadores domésticos. Roberts trabalhou em conjunto com engenheiros de hardware William Yates e Jim Bybee durante '73 e '74 para desenvolver o MITS Altair 8800. O Altair foi nomeado pela filha de Soloman de 12 anos depois de um episódio da série original de televisão Star Trek.

O Altair foi a reportagem de capa do mês de Janeiro de 1975, emissão de Popular Electronics, que descreveu o Altair como o "Primeiro Kit de minicomputador do Mundo Rival dos Modelos Comerciais". As vendas do Altair eram enormes, em resposta ao artigo. O kit de computador era enviado com uma CPU 8080, um cartão de 256 Byte RAM, e o novo design Altair Bus (barramento S100 - o conector tinha 100 pinos) pelo preço de US $ 400. Coube ao consumidor para fazê-lo funcionar montar e escrever qualquer software necessário. Esta era uma tarefa difícil, mas o computador era definitivamente expansível, barato e disponível.
Dois jovens programadores perceberam que um programa de software já escrito para microcomputadores poderia funcionar no Altair. Ed Roberts foi logo contactado por calouros de Harvard, Bill Gates (da famosa Microsoft) e Paul Allen programador. Dentro de seis semanas, Gates e Allen compilram uma versão do BASIC para rodar no Altair. A Allen foi oferecida por Roberts uma posição como o Diretor de Software e o único membro do departamento de software. Gates, que na época era ainda um estudante, começou a trabalhar para a MITS em meio período depois da escola.
O BASIC precisava de 4096 bytes de memória para executar, dezesseis vezes a quantidade de memória que então vinha com o Altair. MITS criou uma placa de memória de 4K (4096 byte) que permitiu que o Altair executasse o BASIC. As placas foram mal projetadas e criaram problemas, e Bob Marsh (um computer hobbyist) projetou uma placa melhor de 4k e abriu uma empresa chamada Processor Technology para vender placas compatíveis com o Altair. Roberts tentou evitar a perda de suas vendas pelo software BASIC apenas com suas placas. Ele foi bem sucedido em promover o primeiro caso generalizado de pirataria de software. Amadores em todos os lugares compravam uma placa de memória Processor Technology e de alguma forma encontravam uma cópia gratuita do BASIC.
A Tendência de Robert para enviar alguns produtos mal projetados pode ter causado a queda da MITS depois de poucos anos, mas ninguém pode negar que foi o Altair, que realmente iniciou a revolução do computador pessoal. Gates e Allen então começaram a Microsoft, tornando-se desenvolvedores do software de maior liderança do mundo. Ed Roberts se tornou um médico e passou a exercer a medicina.
Mais um computador digno de nota durante este período foi o IBM 5100. O 5100 foi lançado em 1975 após dois anos de desenvolvimento. Ele era conhecido como "Project Mercury" pelos cientistas da IBM. O 5100 foi o primeiro computador portátel da IBM e considerado um sistema de nível de entrada, mas seu preço $ 10.000 o colocava  para além do alcance dos amadores que compravam o Altair. As vendas do 5100 foram para empresas de pequeno porte e instituições de ensino que compravam o minicomputador com tamanho de desktop que vinha com BASIC, 16KB de memória RAM, armazenamento em fita e um built-nos de 5 polegadas tela.
"A Apple foi apenas um primeiro ponto culminante de toda a minha vida." - SteveWozniak, co-fundador Computadores Apple



Após a introdução do Altair, um boom de computadores pessoais ocorreu, e felizmente para o consumidor, a próxima rodada de computadores domésticos foram consideradas úteis e faceis de usar.

Em 1975, Steve Wozniak trabalhava para Hewlett Packard ( fabricante de calculadora) durante o dia e montava computador amador a noite,  com os kits de computadores antigos, como o Altair. "Todos os kits de pequeno computador que estavam sendo testados por hobbyists em 1975 eram caixas quadradas ou retangulares, com switches não compreensíveis sobre eles ..." Wozniak afirmouWozniak conta de que os preços de algumas peças do computador (por exemplo, microprocessadores e chips de memóriatinha chegado tão baixo que ele poderia comprá-los talvez com um mês de salárioWozniak decidiu que, com alguma ajuda de um colega hobbyist  Steve Jobs, eles poderiam construir seu próprio computador.

No Dia da Mentirade 1976, Steve Wozniak e Steve Jobs lançaram o computador Apple I e iniciaram a Apple Computers . O Apple I foi o primeiro computador de placa único circuito. Ele veio com uma interface de vídeo8k de memória RAM e um teclado. O sistema incorporou alguns componentes econômicos, incluindo o processador 6502 (apenas US $ 25 dólares - projetado pela Rockwell e produzido por MOSTechnologies) e RAM dinâmica.


terça-feira, 10 de maio de 2011

USB 3.0

O USB surgiu originalmente como um substituto para as portas seriais e paralelas usadas até então. Como a aplicação inicial era a conexão de mouses, impressoras, scanners e PDAs, os 12 megabits iniciais foram considerados mais do que suficientes. Entretanto, com o passar do tempo o USB passou a ser cada vez mais usado por câmeras, pendrives e outros dispositivos "rápidos", que demandam velocidades muito maiores. Surgiu então o USB 2.0, uma atualização indolor que aumentou a taxa de transferência teórica para 480 megabits, sem quebrar a compatibilidade com o padrão antigo.


Na prática, ele permite taxas de transferência entre 30 e 45 MB/s, que são uma pesada limitação no caso dos HDs externos, interfaces de rede e outros dispositivos atuais. Como a demanda por banda não para de crescer, é apenas questão de tempo para que os 480 megabits do USB 2.0 se tornem uma limitação tão grande quanto os 12 megabits do USB original foram no passado.

O USB é uma barramento serial (assim como o SATA), onde os dados são transmitidos usando um único par de fios, com um segundo par dando conta da alimentação elétrica. O principal problema é que o USB suporta o uso de cabos mais longos e hubs, o que torna complicado atingir taxas de transferência muito maiores que os 480 megabits do USB 2.0. Isso fez com que logo no início, os trabalhos se concentrassem em desenvolver novos cabos e conectores, que permitissem o uso de mais banda.

O primeiro rascunho do USB 3.0 foi apresentado em 2007 pela Intel, que propôs o uso de um par de cabos de fibra óptica, complementando os dois pares de fios de cobre. O uso de fibra óptica elevaria a taxa de transferência para respeitáveis 5 gigabits, sem quebrar a compatibilidade com dispositivos antigos:


 
O grande problema com o padrão da Intel era o custo, já que tanto os cabos quanto os dispositivos seriam muito mais caros. Ele também não fazia nada com relação à capacidade de fornecimento elétrico, mantendo os mesmos 2.5 watts por porta do USB 2.0, que são insuficientes para muitos dispositivos.


Não é preciso dizer que ele foi bastante criticado e acabou sendo abandonado em 2008, dando lugar ao padrão definitivo, que oferece 4.8 gigabits de banda (10 vezes mais rápido que o 2.0 e apenas 4% menos que o padrão proposto pela Intel) utilizando apenas cabos de cobre. Os 4.8 gigabits do USB 3.0 são chamados de "SuperSpeed", complementando o "High-Speed" (480 megabits) do USB 2.0 e o "Full-Speed" (12 megabits) do USB 1.x.

Para possibilitar o aumento da banda, foram adicionados dois novos pares de cabos para transmissão de dados (um para envio e outro para recepção) e um neutro, totalizando 5 novos pinos, que nos conectores tipo A são posicionados na parte interna do conector:


 
Essa organização permitiu manter a compatibilidade com dispositivos antigos, já que os 4 pinos do USB 2.0 continuam presentes. Ao plugar um dispositivo antigo em um conector USB 3.0, apenas os 4 pinos de legado são usados e ele funciona normalmente. O inverso também funciona, desde que o dispositivo USB 3.0 seja capaz de trabalhar em modo de legado, dentro das limitações elétricas do USB 2.0.


Por outro lado, os conectores USB tipo B (os usados por impressoras) e micro-USB (adotados como padrão para os smartphones) oferecem uma compatibilidade de mão-única, onde você pode plugar um dispositivo USB 2.0 em uma porta 3.0, mas não o contrário, devido ao formato dos conectores. O tipo B ganhou um "calombo" com os 5 pinos adicionais e o USB micro ganhou uma seção adicional:






 
Além dos novos conectores, outra novidade é o aumento no fornecimento elétrico das portas, que saltou de 500 mA (2.5 watts) para 900 mA (4.5 watts), o que permitirá que mais dispositivos sejam alimentados através da porta USB. Não deve demorar até que surjam gavetas para HDs de 3.5" alimentadas por duas (ou três) portas USB 3.0, por exemplo, já que muitos HDs "verdes" de 5.400 RPM trabalham tranquilamente abaixo dos 10 watts. Você pode contar também com toda uma nova safra de ventiladores, LEDs e bugigangas diversas tirando proveito da energia adicional.


Para reduzir o consumo elétrico dos controladores, o padrão inclui também um novo sistema de interrupções, que substitui o sistema de enumeração usado no USB 2.0. Em resumo, em vez de o controlador manter a porta ativa, constantemente perguntando se o dispositivo tem algo a transmitir, o host passa a manter o canal desativado até que o dispositivo envie um sinal de interrupção. Além de oferecer uma pequena redução no consumo do host (suficiente para representar um pequeno ganho de autonomia no caso dos netbooks) o novo sistema reduz o consumo nos dispositivos plugados.

Para diferenciar os conectores, foi adotada a cor azul como padrão tanto para os cabos quanto para a parte interna dos conectores. Naturalmente, os fabricantes não são necessariamente obrigados a usarem o azul em todos os produtos, mas ao ver um conector azul, você pode ter certeza de que se trata de um 3.0.

Os primeiros dispositivos devem chegar ao mercado no final de 2009, mas não espere que eles se tornem comuns antes da metade de 2010. Inicialmente, os lançamentos se concentrarão em HDs e SSDs externos (que são severamente limitados pelo USB 2.0), mas eventualmente ele chegará a outros dispositivos, substituindo o 2.0 gradualmente.

Apesar disso, ainda demorará muitos anos até que o USB 3.0 substitua o padrão anterior completamente, já que os controladores USB 2.0 são muito mais simples e baratos, e o desempenho é mais do que suficiente para muitas aplicações. Não faria sentido lançar um mouse ou um adaptador bluetooth USB 3.0, por exemplo, a não ser que fosse por simples hype.

Existem também várias complicações técnicas em equipar uma placa-mãe com um grande número de portas USB 3.0. Os controladores são caros e cada par de portas precisa ser conectado a duas linhas PCI Express 2.0 (ou quatro linhas PCIe 1.x) para que o desempenho não seja penalizado.

Considerando que muitos chipsets possuem apenas 20 ou 24 linhas PCI Express, é perfeitamente compreensível que a primeira geração de placas tenham apenas duas portas USB 3.0 (em azul), complementadas por mais 6 ou 10 portas USB 2.0:


 
Isso deve mudar a partir do momento em que a Intel, nVidia e AMD passarem a produzir chipsets com um número maior de portas integradas, mas isso deve acontecer apenas em 2010. A Intel é a mais avançada, graças ao trabalho no padrão xHCI (sucessor do EHCI e OHCI, usados no USB 2.0). Embora ele seja um padrão aberto de controladores, a Intel realizou a maior parte do desenvolvimento e por isso acabou desenvolvendo uma dianteira em relação aos outros fabricantes, liberando o projeto do controlador apenas depois que ele já estava concluído.


Ao usar uma placa antiga, é possível adicionar um controlador USB 3.0 através de uma placa de expansão, como de praxe. Nesse caso é recomendável usar uma placa PCIe x4, já que os slots x1 não oferecem banda suficiente para alimentar uma placa com duas ou quatro portas.

Com relação aos drivers, temos suporte no Linux a partir do kernel 2.6.31. A versão inicial do Windows 7 ainda não inclui drivers, mas eles devem ser adicionados através de uma atualização posterior, que deve se estender ao Vista. A dúvida fica por conta do Windows XP e anteriores, dos quais a Microsoft quer se livrar o mais rápido possível.

sábado, 23 de abril de 2011

Power Over Ethernet (PoE)

Power over Ethernet (PoE)

Em muitas situações, pontos de acesso e outros dispositivos de rede precisam ser instalados em telhados e outros locais de difícil acesso. Nesses casos, além do cabo de rede, é necessário fazer a instalação elétrica, o que aumenta os custos. O PoE, é um padrão que permite transmitir energia elétrica usando o próprio cabo de rede, juntamente com os dados, o que soluciona o problema.

Power over Ethernet ou tecnologia PoE descreve um sistema para transmitir energia elétrica com segurança, juntamente com os dados, por cabos Ethernet. PoE requer cabo categoria 5 ou superior para níveis de potência alta, mas pode operar com cabo de categoria 3 para os níveis de baixa potência. A energia pode vir de uma fonte de energia dentro de um dispositivo de rede PoE como um switch Ethernet ou podem ser injetadas em um cabo por uma fonte de alimentação midspan.

Tudo começou com projetos, que utilizavam os dois pares de fios não usados para transmitir dados (em redes de 100BaseT, de 100 megabits) nos cabos de par trançado cat-5 para enviar corrente elétrica para dispositivos do outro lado do cabo, eliminando a necessidade de usar uma fonte de alimentação separada. Com o passar do tempo, a idéia acabou pegando e deu origem ao padrão IEEE 802.3af, ratificado em 2005, que já é suportado por diversos produtos.



No padrão, dois dos quatro pares de fios do cabo de par trançado são utilizados para transmitir uma corrente com tensão de 48 volts e até 400 mA o que, depois de descontadas todas as perdas, resulta em uma capacidade de fornecimento de até 12.95 watts. A energia é suficiente para alimentar a grande maioria dos pontos de acesso, telefones VoIP e outros dispositivos menores ou até mesmo um notebook de baixo consumo.

Um sistema especial de modulação permite que os dois pares que transmitem energia sejam usados também para transmitir dados, o que permite o uso em conjunto com dispositivos Gigabit Ethernet. A tecnologia não é muito diferente da utilizada desde o início do século passado no sistema telefônico, que também transmite uma corrente com tensão de 48 volts (usada para alimentar o aparelho) juntamente com o sinal de voz.



Existem duas opções para utilizar o PoE. A primeira é utilizar um conjunto de injector (injetor) e splitter (divisor) posicionados entre o switch e o dispositivo que vai receber energia. O injetor é ligado na tomada e "injeta" energia no cabo, enquanto o splitter separa a corrente elétrica do sinal de rede, oferecendo dois conectores ao dispositivo: um conector de rede e um conector de energia, ligado no lugar da fonte:



Usar o injetor e o splitter é a solução mais simples, já que você não precisa mexer no resto da estrutura da rede, mas não é necessariamente a mais barata, já que você precisa comprar dois dispositivos adicionais para cada aparelho que precisar receber energia.

A segunda solução, mais viável para situações em que você queira usar o PoE para vários dispositivos é usar diretamente um PoE switch (um switch Ethernet capaz de enviar energia em todas as portas) e apenas pontos de acesso e outros dispositivos compatíveis, eliminando a necessidade de usar injectors e splitters:



O switch é capaz de detectar se o dispositivo ligado na outra ponta do cabo suporta ou não o PoE, o que é feito medindo a resistência. Só depois de detectar a presença de um dispositivos compatível é que ele inicia a transmissão de corrente. Isso permite que você conecte também dispositivos "normais" ao switch, sem risco de queimá-los.

Atualmente, o PoE é usado basicamente para alimentar pontos de acesso instalados em locais inacessíveis, mas uma nova versão do padrão pode aumentar sua área de atuação. O padrão IEEE 802.3at ou PoE+, em desenvolvimento desde 2005 (http://www.ieee802.org/3/at/) aumentará a capacidade de transmissão para até 60 watts, o que permitirá que o PoE seja usado para alimentar notebooks ou até mesmo PCs de baixo consumo, o que pode levar a uma pequena revolução, já que os equipamentos receberão energia já estabilizada e convertida para DC diretamente através do cabo de rede, sem necessidade de utilizar uma fonte de alimentação externa, como atualmente.

Esta tecnologia é especialmente útil para ligar telefones IP , wireless LAN access points , câmeras com pan tilt e zoom (PTZ), controle remoto switches Ethernet , computadores integrados , thin clients e LCDs .



Todos estes requerem mais poder do que USB oferece e muitas vezes deve ser alimentado por períodos mais longos do que permite um cabo USB. Além disso, PoE utiliza apenas um tipo de conector, o conector 8P8C modular (RJ45), mais viável que conectores USB que existem inúmeros tipos .

PoE é actualmente implementado em aplicações onde USB é inadequado e onde o poder AC seria inconveniente, caro ou inviável para abastecimento. No entanto, mesmo onde USB ou de alimentação AC pode ser utilizado, PoE tem várias vantagens sobre qualquer um, incluindo o seguinte:

• Cabeamento mais barato - mesmo cabo de Categoria 5 é mais barato do que os repetidores USB, e a tarefa de construir as exigências do código de reunião para passagem de cabo de alimentação AC é eliminado. U
• Gigabit de dados por segundo para cada dispositivo é possível, o que excede os recursos de rede de 2009 USB e adaptador AC.
• As organizações globais podem implantar PoE em todos os lugares sem se preocupar com qualquer variação local nas normas de energia AC , tomadas, plugues, ou confiabilidade.
• Injeção direta do padrão de 48 V DC bateria matrizes de energia, o que permite a infra-estrutura crítica para executar mais facilmente em paradas e fazer racionamento de decisões do poder central para todos os dispositivos PoE.
• Possibilidade de dustribuição simétrica. Ao contrário de saídas USB e AC, a energia pode ser fornecida em cada extremidade do cabo ou tomada. This means the location of the power source can be determined after cables and outlets are installed. Isto significa que a localização da fonte de energia pode ser determinada depois que os cabos e tomadas estão instalados. 



terça-feira, 15 de fevereiro de 2011

Sistemas de Gerenciamento de Infra-Estrutura Inteligente

Gerenciamento de Camada Física



As empresas hoje são totalmente dependentes de comunicação de rede para a realização de suas operações do dia a dia e há uma percepção crescente de que a gestão da rede, sem uma visão completa da infra-estrutura física é impossível. A camada física é a fundação da rede, mas muitas vezes o menos visível de todos os componentes da rede.

O sistema de cabeamento estruturado surgiu para padronizar e organizar a infra-estrutura física, de forma a torná-la independente da aplicação (voz, dados, vídeo, segurança, etc.).Um cabeamento estruturado visa assim garantir a flexibilidade, facilidade de operação e manutenção do sistema de comunicação.

Contudo, mesmo com a padronização dos componentes de uma solução de cabeamento estruturado (patch cords, patch panels, keystones e cabos) e da forma de utilizá-los, é muito comum ocorrer um uso inadequado e sem critérios deste tipo de solução, o que acaba por anular as suas vantagens.

Sistemas de Gerenciamento de Infra-Estrutura Inteligente, também chamados de Sistemas de Gerenciamento em Camada Física, são sistemas desenhados para monitorar e orientar as atividades na infra-estrutura das redes de cabeamento estruturado metálico e óptico em tempo real.

Estes tipos de sistema detectam qualquer alteração na conectividade física da rede, informando-a ao administrador, além de serem capazes de orientar os técnicos de administração da rede através de indicações visuais em atividades de reparos ou na execução de ordens de trabalho em operações de adição, alteração ou mudanças na rede, ao mesmo tempo em que mantêm a documentação de rede atualizada.

Dois exemplos de Sistemas de gerenciamento de camada fisica são PatchView da Furukawa e o iPatch da Sistimax.

PATCHVIEW - FURUKAWA

A família PatchView da Furukawa implementa a solução de gerenciamento de infra-estrutura inteligente, oferecendo:

• Controle em tempo real sobre a situação da conectividade metálica e óptica.
• Diminuição do downtime, reduzindo custo operacional.
• Agilidade em mudanças de layout
• Atualização automática do As-Built.
• Efetividade da utilização das portas dos ativos.
• Maior segurança na operação da rede de cabeamento estruturado.
• Nenhuma interferência sobre o tráfego da rede - funcionamento transparente.
• Solução expansível conforme o crescimento da rede estruturada.
• Suporte as boas práticas de gestão corporativa em TI (CObIT, ITIL, SOX).

Recursos / Facilidades:

• Permite integração com o AutoCAD, carregando plantas baixas no software de gerenciamento.
• Suporte a sistemas de cabeamento estruturado metálicos (CAT.6 / CAT.6A) e ópticos.
• Geração de ordens de serviço eletrônicas.
• Agilidade em mudanças de layout.
• Detecção automática de todos dispositivos TCP/IP na rede.
• Interage com os ativos da rede, via protocolo SNMP.
• Suporte aos principais switches gerenciáveis do mercado.
• Software de gerenciamento com interface gráfica WEB, permitindo administração remota.
• Disponibilidade de software cliente para PDA's, garantindo maior mobilidade.
• Interação com o administrador da rede via email e mensagens de alerta.
• Patch panel e DIO (Distribuidores Internos Ópticos) gerenciáveis com LEDs indicadores por porta.
• Detecção de ruptura de patch cords e cordões ópticos inteligentes.
• Deteção automática de inserção / desconexão dos patch cords e cordões ópticos inteligentes.
• Módulos/Dispositivos adicionais para identificação visual dos racks de cabeamento estruturado.

O que compõe a solução PatchView?

A solução PatchView é composta por ítens de hardware e de software:

• Patch Panel e/ou DIO Gerenciável
• Patch Cords e/ou Cordões Ópticos Inteligentes
• Ativos para controle
• Software para gerenciamento



IPATCH – SISTEMA DE PATCH PANEL INTELIGENTE - COMMSCOPE

O Sistema SYSTIMAX® iPatch® integra software e hardware de cobre e fibra para fornecer informações e controle sobre a infra-estrutura de telecomunicações em tempo real. O Sistema iPatch proporciona ao administrador de rede maior visão, ao coordenador de cabeamento um completo gerenciamento, e ao técnico de cabeamento inteligência para otimizar a eficiência da rede, e confiabilidade para reduzir o downtime indesejado. O Sistema iPatch adiciona monitoramento em tempo real dos canais de cobre e de fibra e integração com o software de gerenciamento.

O sistema iPatch permite que cada porta seja continuamente monitorada, verificada e seu histórico seja armazenado em um banco de dados centralizado. Ordens de serviço eletrônicas eliminam o preenchimento de formulários, melhorando a produtividade e acelerando movimentações, inclusões e mudanças. O trabalho é guiado em cada patch panel por sinais visuais e auditivos para virtualmente eliminar erros de conexão, economizando tempo e trabalho para o bom funcionamento do data center.

Crítico em aplicações de data center, os gerentes são instantaneamente alertados sobre intrusões na segurança ou sobre mudanças ou condições que possam afetar a continuidade dos negócios. Qualquer perda ou dano de dados devido a um downtime inesperado, pode prejudicar seriamente a continuidade dos trabalhos das empresas.
Quando ocorrem problemas, o iPatch alerta automaticamente o administrador da rede através de um sistema de notificação de eventos, e o técnico através do equipamento iPatch no local da conexão cruzada. O iPatch é o único sistema de patch panels do mundo que pode detectar e alertar os gerentes sobre intrusões ou desconexões físicas na região dos patch cords enviando e-mails, mensagens de texto ou alertas SNMP. O tempo de resposta é tão rápido que em muitos casos os problemas são resolvidos antes mesmo que os telefones comecem a tocar. Você pode até mesmo verificar um novo caminho antes da mudança ser realizada – chega de conexões por tentativa e erro. Com a funcionalidade “IP Device Discovery”, os gerentes de TI podem adicionar configurações de switches (número e tipo de portas e cartões) e aumentar a segurança encontrando instantaneamente dispositivos críticos como servidores, com a funcionalidade de rastreamento.

O sistema iPatch não requer patch cords proprietários ou mesmo componentes especiais. Ao invés de cabos atrás dos patch panels para conexão com o gerenciador do rack, você encontrará um único e organizado barramento, com todos os fios fora do caminho das laterais do rack, proporcionando espaço suficiente para trabalhar. Na frente, os patch panels iPatch apresentam um perfil muito baixo, para reduzir a sobra dos cordões e tornar as conexões fáceis de se ver e alterar.

Benefícios do sistema iPatch:

• Monitora todas as conexões e desconexões dos cordões;
• Compatível com os patch cords padrões da indústria, modular, LC e SC;
• Guia os técnicos ao realizar movimentações, inclusões e mudanças;
• O rastreamento de patch cords com um toque acelera a administração;
• Reporta automaticamente conexões impróprias para minimizar a interrupção dos serviços;
• Verifica a localização, disponibilidade e uso de portas em patch panels e de jacks nos espelhos;
• Rastreia os serviços habilitados para conexões horizontais e de backbone;
• Ordens de serviço eletrônicas eliminam a burocracia;
• Suporta todas as soluções modulares de cobre e de fibra SYSTIMAX.
• Desenvolvido pelos laboratórios SYSTIMAX, cujo conhecimento técnico desenvolveu o SYSTIMAX SCS, o seu sistema iPatch é certificado para fornecer a mesma performance e confiança inigualáveis do líder de soluções de cobre e fibra.