Dica: A história e presente dos supercomputadores
Por Carlos E. Morimoto
http://www.guiadohardware.net

        Na década de 40, todos os computadores do mundo eram gigantescos e caros, custando vários milhões de dólares, e agregando tudo o que havia mais avançado em termos de conhecimento humano. Pois bem, vendo de hoje, pode parecer ridículo que qualquer calculadora de mão possa ter um poder de processamento equivalente ou superior ao de um Eniac, que só de manutenção custava quase 200.000 dólares por dia, mas os supercomputadores continuam existindo, tão grandes e caros quanto um Eniac, porém incomparavelmente mais rápidos do que os micros de mesa, como o que você está usando neste exato momento.
        No artigo de hoje falaremos justamente sobre eles, os mastodontes que estão por trás de muitos dos avanços da humanidade, que apesar de estarem escondidos em grandes salas refrigeradas são alvo de grande curiosidade, que tentaremos matar durante este artigo

A demanda

        Apesar de mesmo um "PC de baixo custo" atualmente possuir um poder de processamento superior ao de um supercomputador que a 15 anos atrás custava 5 milhões de dólares, a demanda por sistemas casa vez mais rápidos continua.
        As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares diversas, e vários tipos de aplicativos financeiros e relacionados à Internet, aplicativos que envolvem uma quantidade absurda de processamento, e claro, envolvem instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível.  Existindo demanda... aparecem os fornecedores.

As soluções

        Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa, memória, HDs, e processadores, Intel, IBM e em alguns casos também chips Athlon. A diferença é que vários processadores, HDs e módulos de memória são combinados para criar um sistema incrivelmente rápido.
        Ao invés de usar apenas um disco rígido IDE, como num micro de mesa, um supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços simultaneamente apartir de vários HDs, obtendo taxas de transferência muito altas. A capacidade total de armazenamento de um supercomputador já é medida na casa dos Terabytes, o IBM ASCI White, que é considerado o supercomputador mais poderoso atualmente tem 160 Terabytes de armazenamento em disco.
        Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores tenham um acesso à memória tão rápido quanto um PC de mesa. Os nós por sua vez são interligados através de algum tipo de barramento ultra-rápido, o que os torna partes do mesmo sistema de processamento. Como neurônios interligados para formar um cérebro. Um nó sozinho não tem uma capacidade de processamento tão surpreendente assim, mas ao interligar algumas centenas, ou milhares de nós a coisa muda de figura.
        Os processadores mais utilizados atualmente são processadores Pentium III ou chips IBM Power 3, (produzidos especialmente para esta tarefa), entre algumas outras opções. Os processadores Athlon não são os preferidos da indústria neste segmento, pois apresentam uma dissipação de calor bem mais alta que os chips Intel e IBM, o que torna-se um problema grave ao usar vários chips dentro do mesmo gabinete. Se num micro doméstico já é preciso um bom cooler e uma boa ventilação do gabinete para usar apenas um chip Athlon, imagine o problemão que é juntar 200 ou 500 destes chips.
        Algumas empresas vem cogitando o uso de chips Crusoé, o que faz sentido, já que apesar do baixo desempenho, estes chips consomem pouca eletricidade e geram pouco calor, um Crusoé sozinho tem um desempenho muito abaixo do de um Pentium III, mas se for possível usar mais chips Crusoé na mesma máquina, a maior quantidade pode compensar o menor desempenho por cabeça.

Modelos

        Como disse a pouco, o supercomputador mais poderoso da atualidade é o IBM ASCI White. Ele possui nada menos que 8192 processadores IBM Power 3 de 375 MHz com filamentos de cobre. A baixa freqüência de operação dos processadores é justificada pela necessidade de uma estabilidade irretocável e baixa dissipação de calor. O supercomputador tem um poder de processamento estimado em 12.3 teraflops, uma potência mais de mil vezes superior à de qualquer PC topo de linha atual. Completando, temos 6 Terabytes de memória RAM e um total de 160 Terabytes de armazenamento em disco. Em compensação o sistema é simplesmente gigantesco, ocupando uma área equivalente à de duas quadras de basquete.
        Outro sistema bastante poderoso é o ASCI Blue-Pacific, formado por 1296 nós, de 4 processadores cada, totalizando 5856 processadores PowerPC 604e de 332 MHz em paralelo. 423 dos nós tem 2.5 GB de memória RAM cada, e os demais tem 1.5 GB cada, totalizando 2.6 Terabytes no total. A capacidade de armazenamento em disco fica em 62.3 Terabytes. A velocidade total de acesso a disco chega a 10.5 GB/s, quase mil vezes o que temos num micro de mesa. Esse aparato todo é dividido em 162 gabinetes ligados entre sí, que também ocupam a área de duas quadras de basquete.
        Sistemas como estes são extremamente poderosos, o problema é que são incrivelmente caros, custando dezenas de milhões de dólares. Tanto o ASCI White, quanto o ASCI Blue-Pacific são únicos e existem no mundo apenas mais alguns poucos supercomputadores com uma potência próxima à mostrada por eles.
        Uma opção mais barata para uma compania que precisa de um supercomputador, mas não tem tanto dinheiro assim disponível é usar um sistema de processamento distribuído, ou cluster. Um cluster formado por vários PCs comuns ligados em rede. Em muitos casos sequer é preciso que os PCs tenham uma configuração idêntica, e a conexão pode ser feita através de uma rede Ethernet 10/100, ou mesmo através da Internet.
        O exemplo mais famoso de processamento distribuído foi o projeto , onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as informações relacionadas ao projeto. Os pacotes de dados de 300 KB cada chegavam pela Internet e demoravam várias horas para serem processados. Isso permitiu que mais de 2 milhões de pessoas, muitas com conexão via modem participassem do projeto. O sistema montado pela é considerado por muitos o supercomputador mais poderoso do mundo.
        Este tipo de sistema pode ser construído usando por exemplo a rede interna de uma empresa. Rodando o software adequado, todos os micros podem fazer parte do sistema, alcançando juntos um poder de processamento equivalente ao de um supercomputador. O mais interessante é que estes PCs poderiam ser usados normalmente pelos funcionários, já que o programa rodaria utilizando apenas os ciclos ociosos do processador.

A história

        Os primeiros supercomputadores começaram a surgir na década de 60, alias uma década de muitos avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada transístor era centenas de vezes menor que uma válvula, era muito mais durável e tinha a vantagem de gerar pouco calor.
        Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer coisa do tamanho de um armário, com uma capacidade de processamento inferior ao de uma agenda eletrônica atual, e das mais baratinhas.
        Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC 6600, que foi seguido pelos IBM 360/95 e 370/195.
        Na década de 70 surgiu uma nova revolução, os microchips, formados por alguns milhares de transístores. Um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador, mas em compensação era escandalosamente menor e mais barato. Surgiram então os primeiros microcomputadores.
        Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes, os principais modelos foram o CDC 7600, o BSP, produzido pela Burroughs  e o ASC da Texas Instruments.
        Estes sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto flutuante por segundo. Esta é a mesma capacidade de processamento de um Pentium 60, a diferença é que o Pentium surgiu quase 20 anos mais tarde.
        No final da década de 70 sugiram os supercomputadores Cray, produzidos pela Seymour. O primeiro da linha, chamado de Cray 1 processava 100 megaflops, porém o Cray-XMP atingiu a incrível marca de 1 Gigaflop, no início da década de 80. Esta é uma capacidade de processamento próxima à de um Pentium II 350.
        Os supercomputadores desta época foram usados principalmente na corrida espacial, aliás eles foram os principais responsáveis pelo sucesso do programa espacial Americano sobre o Russo. Uma viagem espacial demanda um número absurdo de cálculos. Os Americanos tinham computadores melhores que os Russos, o que antecipava seus lançamentos.