Vamos começar com uma verdade inconveniente: o trono da inteligência artificial pertence à Nvidia. Suas GPUs, como a H100, são os motores divinos por trás de cada imagem de IA, cada conversa com o ChatGPT e cada descoberta científica. Elas são o auge absoluto de décadas de pesquisa digital, custando bilhões para desenvolver. Agora, imagine alguém lhe dizendo que pesquisadores da Universidade de Pequim criaram um chip mil vezes mais rápido.
A primeira reação é a descrença. Isso soa impossível. Como alguém poderia dar um salto de três ordens de magnitude sobre o líder incontestável da indústria? A resposta é fascinante: eles não tentaram construir um carro mais rápido. Eles construíram um avião. A inovação não está em otimizar o digital, mas em abandoná-lo por completo por algo que já tínhamos aposentado: a computação analógica.
O “Pequeno Segredo Sujo” da Computação Moderna
Para entender por que essa mudança é tão revolucionária, precisamos falar sobre o “pequeno segredo sujo” de todos os computadores, telefones e data centers do mundo: eles são fundamentalmente ineficientes. Quase todos operam sob uma arquitetura de 70 anos atrás, chamada “von Neumann”, que separa fisicamente o processamento (a CPU ou GPU) da memória (a RAM).
Vamos usar uma analogia. Pense na sua GPU H100 como o chef mais rápido do mundo. Ele consegue picar um tomate em um nanossegundo. O problema? A despensa (a memória) onde os tomates (os dados) estão guardados fica do outro lado da rua.
Em tarefas normais, como rodar um jogo, isso é administrável. Mas a IA é diferente. A IA é “data-intensive”, o que significa que o chef precisa de milhões de ingredientes diferentes, um de cada vez, para cada mínima decisão. O resultado? O chef passa 99% do tempo não cozinhando, mas correndo de um lado para o outro da rua para buscar dados. Esse “deslocamento” é o que chamamos de gargalo de von Neumann.
Esse gargalo não apenas torna a computação lenta; ele consome uma quantidade absurda de energia. O treinamento de grandes modelos de IA está se tornando ambientalmente insustentável. Planos para data centers futuros preveem um consumo de energia na escala de reatores nucleares inteiros. A verdadeira notícia, portanto, não é apenas o ganho de 1.000x em velocidade. É a afirmação de que este novo chip faz o mesmo trabalho consumindo 100 vezes menos energia. Ele é mais rápido *porque* é mais eficiente.

Analógico? Você Quer Dizer Toca-Discos?
A palavra “analógico” nos faz pensar em tecnologia antiga, como fitas K7 ou TVs de tubo. E, de fato, os primeiros computadores eram analógicos. Então, por que voltamos a eles?
Pense assim: a computação digital, que domina nossas vidas, funciona como um interruptor de luz. Tudo é representado por um 0 (desligado) ou um 1 (ligado). É binário, discreto e incrivelmente preciso. Não há meio-termo.
A computação analógica, por outro lado, funciona como um dimmer. Em vez de apenas 0 ou 1, ela usa um fluxo contínuo de valores, como uma corrente elétrica que pode ser 0.1, 0.2, 0.75 ou qualquer valor intermediário. Ela usa a própria física para “modelar” um problema.
O motivo pelo qual abandonamos o analógico é que ele era notoriamente impreciso. Como uma onda suave no mar , ele era suscetível a “ruído” e interferências. Uma pequena variação de voltagem e todo o cálculo estava errado. O digital, com seus 0s e 1s claros, venceu por ser robusto.
O que os pesquisadores da Universidade de Pequim, liderados por Sun Zhong, afirmam ter resolvido é exatamente esse “problema de um século”. Eles criaram um chip analógico que atinge uma precisão de ponto fixo de 24 bits. Em termos leigos, isso significa que o “dimmer” analógico agora tem marcações tão precisas quanto o “interruptor” digital. Ele não está mais “adivinhando”; ele está calculando com a mesma precisão do sistema digital, resolvendo o problema central que matou a computação analógica em primeiro lugar.
A Mágica da RRAM: A Memória que Pensa
O ingrediente secreto que torna isso possível chama-se RRAM, ou Memória Resistiva de Acesso Aleatório. É um tipo de dispositivo chamado “memristor” , que é, essencialmente, um resistor que pode se lembrar do seu nível de resistência mesmo quando desligado. Ele é o “dimmer” físico que armazena a informação.
Aqui está a genialidade: em vez de usar a RRAM apenas para *armazenar* dados (como memória), o chip a utiliza para *processar* dados ao mesmo tempo. Isso é chamado de Computação na Memória (CIM).
Lembra da nossa analogia do chef? Com a RRAM, o chef agora cozinha dentro da despensa.
Em vez de buscar um dado, processá-lo e salvar o resultado, o chip simplesmente envia uma corrente elétrica (os dados de entrada) através de uma matriz de células RRAM (que armazenam os “pesos” da IA em seus níveis de resistência). A corrente que sai do outro lado *já é* o resultado do cálculo , determinado instantaneamente pelas leis da física (especificamente, a Lei de Ohm). Não há deslocamento. Não há gargalo. O consumo de energia despenca e a velocidade explode.
A parte mais impressionante? Isso não é ficção científica de laboratório. O chip foi fabricado usando um “processo comercial padrão”. A RRAM é compatível com as fábricas de chips existentes (CMOS). Na verdade, o chip de Pequim foi feito em um processo de 40nm.
Isso é um divisor de águas geopolítico. Enquanto os EUA e a China travam uma guerra comercial por sanções em chips de ponta (abaixo de 7nm) , esta descoberta mostra que é possível obter desempenho 1.000x superior (para tarefas específicas) usando tecnologia de fabricação “antiga”, barata e que não está sujeita a sanções. É uma jogada de mestre em xadrez assimétrico.
O Duelo Real: Onde o Analógico Vence (e Onde Não Vence)
É crucial entender que este chip não vai substituir a GPU do seu computador para você jogar. Ele não é um processador de uso geral. Ele é um acelerador altamente especializado, projetado para fazer uma coisa de forma absurdamente rápida: inversão e multiplicação de matrizes.
Acontece que os problemas mais complexos da IA e da ciência moderna são, no fundo, problemas de matriz. Quando o ChatGPT “pensa”, ele está, na verdade, realizando bilhões de multiplicações de matriz-vetor para pesar a probabilidade da próxima palavra. A afirmação de 1.000x mais rápido veio de testes resolvendo matrizes de até 128×128.
Isso tem duas implicações imediatas. A primeira é na própria IA, tornando o treinamento e a inferência muito mais eficientes. A segunda é nas telecomunicações. O chip foi testado em “detecção de sinal MIMO” (Múltiplas Entradas, Múltiplas Saídas), a tecnologia central do 5G e 6G. Para uma estação base 6G gerenciar milhares de sinais simultaneamente, ela precisa resolver uma matriz complexa em tempo real. Os pesquisadores afirmam que uma tarefa que levaria um dia para uma GPU de ponta foi resolvida por este chip em cerca de um minuto.
O futuro da computação, portanto, não é um único super-chip, mas um sistema “heterogêneo”. Seu próximo dispositivo terá uma CPU para lógica geral, uma GPU para gráficos e uma “APU” (Unidade de Processamento Analógico) como esta, dedicada a mastigar os cálculos massivos de IA e sinalização com eficiência máxima.
Pintando o Novo Horizonte: O Mundo Pós-Digital
As implicações desta tecnologia são profundas, pois ela muda fundamentalmente onde a inteligência pode viver. A primeira onda dessa mudança irá reformar os data centers. O consumo voraz de energia da indústria de IA pode ser drasticamente reduzido, tornando o progresso da IA mais barato e ecologicamente sustentável.
Mas a verdadeira revolução acontece na “borda” (Edge AI). Como este tipo de chip é tão incrivelmente eficiente em termos de energia, ele permite que uma IA no nível de supercomputador funcione em dispositivos pequenos, alimentados por bateria.
Isso permite um futuro que antes era impossível. Pense em implantes médicos que não apenas monitoram seus sinais vitais, mas executam uma rede neural complexa em tempo real para prever um ataque cardíaco horas antes que ele aconteça, tudo com uma bateria que dura anos. Isso se estende a carros autônomos que podem processar dados de sensores de visão instantaneamente, com latência zero, sem depender de uma conexão com a nuvem para tomar a decisão de frear. E, finalmente, torna o mundo do 6G, com sua promessa de realidade virtual e IoT onipresente, uma possibilidade prática em vez de um pesadelo de consumo de energia. Esta tecnologia permite que a inteligência saia da nuvem e volte para as mãos do usuário, com implicações gigantescas para a privacidade e a autonomia dos dados.
O Futuro é Híbrido
Não estamos testemunhando a morte do digital. Estamos testemunhando o fim de seu monopólio. O que essa descoberta da Universidade de Pequim sinaliza é o início da “Renascença Analógica”.
O futuro é híbrido. Os computadores de amanhã usarão o digital para o que ele faz de melhor: lógica precisa e controle de sistemas. E usarão o analógico para o que o cérebro faz de melhor: reconhecimento de padrões massivamente paralelo e computação “difusa”.
Parece irônico que, para construir as máquinas mais futuristas que já imaginamos, tivemos que desenterrar a tecnologia mais antiga que havíamos abandonado. O futuro da computação, ao que parece, precisou dar um passo atrás para poder dar um salto de mil vezes para frente.
![]()





