Recriando circuitos de computador para impedir futuros gargalos

Chegada da nanoeletrônica será a nova sacada no design de novos computadores

The New York Times |

Pesquisadores da Hewlett-Packard propuseram uma mudança fundamental no computador moderno para a chegada da era da nanoeletrônica -- uma combinação de memória e poder computacional capaz de reduzir drasticamente a energia usada pelos computadores.

Hoje, o microprocessador é o centro do universo da computação e a informação é transferida, com um grande custo energético, primeiro para ser usada na computação e depois armazenada. A nova abordagem combinaria o processamento à memória para reduzir o transporte de dados e o uso de energia.

Há tempos a indústria de semicondutores tem avisado sobre uma série de gargalos iminentes conhecidos como "o muro", um instante em que mais de cinco décadas de progresso no contínuo encolhimento do tamanho dos transistores usados na computação irá terminar. Se o progresso parar, a taxa de inovação dos produtos eletrônicos será reduzida, junto com o fim do aumento exponencial na velocidade dos supercomputadores mais poderosos do mundo _ mil vezes mais rápidos a cada década.

Contudo, segundo um artigo publicado na "IEEE Computer" em janeiro, Parthasarathy Ranganathan, engenheiro eletricista da Hewlett-Packard, sugere uma alternativa radical ao design computacional de hoje em dia, permitindo novos projetos para bens de consumo eletrônicos além da nova geração de supercomputadores, conhecidos como processadores em escala exa.

Hoje, os computadores transportam dados constantemente entre memórias lentas e rápidas. Os sistemas mantêm os dados usados com frequência perto do processador e depois os movem para um armazenamento mais lento e permanente, quando deixam de ser necessários para os cálculos correntes.

Nessa abordagem, o microprocessador fica no centro do universo da computação. Porém, em termos de gasto energético, mover a informação, primeiro para ser computada e depois armazenada, supera grandemente a energia usada na operação computacional em si.

Além disso, o problema se torna cada vez pior porque a quantidade de dados consumidos pelos computadores cresce mais rapidamente do que o aumento do desempenho.

"Qual será o principal aplicativo daqui a dez anos?", perguntou Ranganathan. "Está claro que será a informação, não precisa ser gênio para perceber isso. No futuro, tudo que tiver a ver com armazenagem no planeta virá com um computador embutido."

Para distinguir esse novo tipo de computação da usada hoje em dia, ele disse que os sistemas serão baseados em chips de memória chamados "nanostores", para não confundir com os microprocessadores de agora. Eles serão sistemas 3-D híbridos nos quais os circuitos de baixo nível serão baseados numa tecnologia nanoeletrônica chamada memristor, que a Hewlett-Packard está desenvolvendo para armazenar dados.

Os chips nanostore terão um design de andares múltiplos e os circuitos computacionais feitos com silício convencional ficarão diretamente sobre a memória para processar dados, a um custo energético mínimo.

Os especialistas avaliam que, dentro de sete anos, esse chip poderá armazenar um trilhão de bytes (cerca de 220 filmes digitais de alta definição), além de contarem com 128 processadores, conforme Ranganathan escreveu. Caso tais equipamentos se tornem ubíquos, eles reduziriam radicalmente a quantidade de informação que teria de ser transportada nos esquemas de processamento de dados do futuro.

Durante anos, os arquitetos da computação têm dito que precisavam de uma nova grande ideia. De fato, os transistores continuaram a encolher e não a inovar, e os projetistas computacionais simplesmente adotaram a chamada abordagem de "núcleos múltiplos", na qual diversos processadores foram sendo acrescentados à medida que ficavam disponíveis.

A ausência de uma grande revolução foi mencionada durante uma discussão notável que aconteceu há dois anos durante a Hot Chips, uma conferência anual sobre design computacional que acontece todo verão na Universidade Stanford.

John L. Hennessy, reitor de Stanford e especialista em design computacional, dirigiu-se a um grupo dos melhores projetistas da área do mundo e os desafiou a apresentar uma ideia fundamentalmente nova. A única resposta foi o silêncio.

"Qual é sua grande ideia?", questionou. "Creio que a próxima grande ideia virá de alguém muito mais jovem do que a média de idade das pessoas desta sala."

Ranganathan, que tinha 36 anos nessa época, estava lá. Ele disse que usou a crítica de Hennessy como inspiração e acredita que o design do chip nanostore é um exemplo do tipo de grande ideia que estava faltando.

Hennessy não é o único a alertar sobre o fim da era de crescimento rápido do desempenho dos computadores. Em 2008, a Agência de Pesquisas em Projetos Avançados de Defesa (Darpa, na sigla em inglês) reuniu um grupo dos maiores especialistas em supercomputadores dos Estados Unidos e pediu que pensassem em formas de criar um computador na escala exa _ capaz de executar um quintilhão de cálculos matemáticos por segundo, cerca de mil vezes mais veloz que o sistema mais rápido existente hoje em dia.

O grupo, liderado por Peter Kogge, designer de supercomputador da Universidade de Notre Dame, voltou com conclusões pessimistas. "Será que a próxima década verá o mesmo tipo de progresso espetacular dos dois últimos decênios?", ele perguntou na edição de janeiro da IEEE Spectrum. "Infelizmente, não." Kogge acrescentou: "A festa ainda não acabou, mas a polícia chegou e a música foi abaixada."

Um motivo é o enorme apetite por energia da computação. Um supercomputador de 10 petaflop _ programado para ser construído pela IBM no ano que vem _ gastará 15 megawatts de energia, basicamente a eletricidade consumida por uma cidade com 15 mil residências. Um computador na escala exa, construído com os microprocessadores de hoje, demandaria 1,6 gigawatt, cerca de uma vez e meia a quantidade de eletricidade produzida por uma usina nuclear.

Entretanto, o grupo apoia a abordagem baseada em memória de Ranganathan. Descobriu-se que o custo energético de um único cálculo era de cerca de 70 picojoules (um picojoule é um milionésimo de milionésimo de joule. A energia necessária para manter acesa uma lâmpada de 100 watts durante uma hora é superior a oito milhões de joules). Já o gasto energético para transportar os dados necessários para fazer um único cálculo _ levar e trazer 200 bits de dados da memória diversas vezes _ pode variar entre mil e dez mil picojoules.

Várias outras tecnologias estão sendo exploradas para permitir o crescimento continuado do poder computacional, inclusive formas de construir chaves eletrônicas de tamanho inferior a dez nanômetros _ considerado o menor formato pelas atuais técnicas de fabricação de chips.

Mês passado, por exemplo, pesquisadores de Harvard e da Mitre Corporation anunciaram o desenvolvimento de "ladrilhos" de nanoprocessadores baseados em chaves eletrônicas fabricadas com fios de germânio e silício extremamente finos.

Pesquisadores da IBM estão em busca das assim chamadas memórias de mudança de fase, baseadas na capacidade de usar uma corrente elétrica para alterar um material do estado cristalino para um amorfo e vice-versa. Essa tecnologia foi comercializada pela Samsung ano passado. Mais recentemente, os pesquisadores da IBM se disseram empolgados com a possibilidade de usar nanotubos de carbono como parte de uma etapa parcial para construir sistemas híbridos que superam a divisão entre os mundos nanoeletrônico e microeletrônico.

Designers computacionais experimentados assinalam que, independentemente da tecnologia vencedora, a ideia de colocar o processamento mais perto da memória já foi ventilada algumas vezes e que a chegada de eletrônicos em escala nano pode tornar essa nova arquitetura finalmente possível.

Uma tentativa anterior foi batizada de iRAM, um projeto de pesquisa da Universidade da Califórnia, campus de Berkeley, no final da década de 1990. A pressão de hoje em dia por uma computação baseada em memória surge dos desafios computacionais criados pelos smartphones e centros de processamento de dados, afirmou Christoforos Kozyrakis, cientista da computação da Universidade Stanford, que trabalhou no projeto iRAM durante a pós-graduação.

    Leia tudo sobre: eletrônicananotecnologiacomputação

    Notícias Relacionadas


      Mais destaques

      Destaques da home iG