A Nova Física da Inteligência: Computação Termodinâmica e o Fim do Paradigma Digital Determinista

O Horizonte de Eventos Energético: A Crise da Computação Contemporânea

A Nova Física da Inteligência: Computação Termodinâmica e o Fim do Paradigma Digital Determinista
Susan Hill
Susan Hill
Redator da secção de tecnologia. Ciência, programação e, como todos nesta revista, apaixonado por cinema, entretenimento e arte.

A civilização tecnológica encontra-se perante um paradoxo existencial. Enquanto a procura por inteligência artificial (IA) cresce exponencialmente, impulsionada pela proliferação de Grandes Modelos de Linguagem (LLMs) e sistemas generativos, a infraestrutura física que sustenta estes avanços aproxima-se rapidamente de limites termodinâmicos inultrapassáveis. A narrativa predominante da Lei de Moore — a duplicação constante de transístores e eficiência — começou a fraturar-se, não por incapacidade de miniaturização, mas devido às restrições fundamentais de dissipação de calor e consumo energético. Neste contexto crítico emerge a computação termodinâmica, uma mudança de paradigma que promete não apenas mitigar a crise energética, mas redefinir a própria natureza do processamento da informação.

A Tirania do Watt na Era da IA Generativa

A arquitetura de computação atual, baseada no modelo de von Neumann e na lógica booleana determinista, enfrenta o que os especialistas designam por “Muro Energético”. O treino e a inferência de modelos de IA avançados dependem quase exclusivamente de Unidades de Processamento Gráfico (GPUs), como a omnipresente NVIDIA H100. Uma única destas unidades possui um consumo de projeto térmico (TDP) de 700 watts e, quando agrupadas em sistemas HGX H100, o consumo ultrapassa os 2000 watts por bastidor (rack). Esta densidade de potência transforma os centros de dados modernos em fornalhas digitais que exigem infraestruturas de arrefecimento massivas, consumindo água e eletricidade em escalas industriais.

Os dados macroeconómicos corroboram a iminência desta crise. A Goldman Sachs projeta que a procura global de energia por parte dos centros de dados aumentará 165% até ao final da década. Por sua vez, a Agência Internacional de Energia (AIE) estima que o consumo elétrico dos centros de dados poderá duplicar até 2026, atingindo 1000 TWh, um valor comparável ao consumo total de eletricidade do Japão. Este crescimento não é linear, mas segue a curva exponencial da complexidade dos modelos de IA, criando uma situação insustentável onde 92% dos executivos de centros de dados já identificam as restrições da rede elétrica como o principal obstáculo ao escalonamento.

A Ineficiência Intrínseca do Determinismo

O problema fundamental não reside apenas na quantidade de computação, mas na sua qualidade física. A computação digital contemporânea opera sob um regime de supressão de ruído. Para garantir que um bit seja inequivocamente um 0 ou um 1, os transístores devem operar em voltagens que superam largamente o “ruído térmico” natural dos eletrões. Esta luta constante contra a entropia — o esforço para manter uma ordem perfeita num meio físico caótico — acarreta um custo energético exorbitante.

Cada operação lógica num processador digital implica carregar e descarregar condensadores e mover eletrões através de resistências, gerando calor residual que não contribui para o cálculo, mas representa energia desperdiçada na “fricção” de impor o determinismo. Como apontam os investigadores, os sistemas convencionais “pagam energia” para suprimir a estocasticidade. Além disso, a separação física entre a memória e a unidade de processamento (o gargalo de von Neumann) significa que uma grande parte da energia é gasta simplesmente a mover dados de um local para outro, e não a processá-los.

A Alternativa Termodinâmica

Perante este cenário, a computação termodinâmica propõe uma inversão radical dos princípios operacionais. Em vez de gastar energia para combater o ruído térmico, esta disciplina procura aproveitá-lo como recurso computacional. Baseia-se na premissa de que a natureza calcula de forma eficiente através de processos de relaxamento em direção ao equilíbrio térmico. Ao alinhar a arquitetura computacional com a física subjacente da informação, torna-se possível realizar tarefas complexas — especificamente a amostragem probabilística exigida pela IA generativa — com uma eficiência ordens de magnitude superior à dos transístores digitais.

Esta abordagem não é meramente teórica. Empresas como a Extropic e a Normal Computing começaram a fabricar hardware que materializa estes princípios, prometendo eficiências até 10 000 vezes superiores às tecnologias atuais. Este relatório analisa exaustivamente o estado desta tecnologia, os seus fundamentos físicos, os principais atores e as implicações geopolíticas e económicas de uma transição para a computação baseada na física.

Fundamentos Físicos: Do Bit Determinista ao P-Bit Estocástico

Para compreender a magnitude da inovação que a computação termodinâmica representa, é imperativo descer ao nível físico da operação dos circuitos. A diferença entre um chip convencional e uma Unidade de Amostragem Termodinâmica (TSU) não é de grau, mas de classe ontológica.

Termodinâmica do Não-Equilíbrio e Computação

A teoria geral que sustenta estes avanços é a física estatística do não-equilíbrio, frequentemente denominada termodinâmica estocástica. Este campo fornece as ferramentas para analisar sistemas que estão longe do equilíbrio térmico, como os computadores. Na computação clássica, segue-se o princípio de Landauer, que estabelece um limite inferior teórico para a energia necessária para apagar um bit de informação, dissipando calor para o ambiente. No entanto, a computação termodinâmica opera sob dinâmicas diferentes.

Os dispositivos termodinâmicos são concebidos para evoluir sob dinâmicas de Langevin (amortecidas ou subamortecidas). Isto significa que o sistema físico “procura” naturalmente o seu estado de energia mínima. Se um problema matemático for codificado na paisagem energética do dispositivo, o sistema resolverá o problema simplesmente relaxando em direção ao seu estado de equilíbrio térmico. Neste paradigma, o cálculo não é uma série de passos lógicos forçados, mas um processo físico natural, análogo à forma como uma gota de água encontra o caminho mais rápido montanha abaixo ou como uma proteína se dobra na sua configuração ideal.

O Bit Probabilístico (p-bit)

A unidade fundamental desta nova arquitetura é o p-bit (bit probabilístico). Ao contrário de um bit digital, que é estático até que se ordene a sua mudança, um p-bit flutua continuamente entre 0 e 1 em escalas de tempo de nanossegundos, impulsionado pelo ruído térmico ambiental. No entanto, esta flutuação não é completamente aleatória; pode ser enviesada (biased) através de voltagens de controlo para que o p-bit passe, por exemplo, 80% do tempo no estado 1 e 20% no estado 0.

Este comportamento imita as distribuições de probabilidade. Ao ligar múltiplos p-bits entre si, cria-se um circuito que representa uma distribuição de probabilidade conjunta complexa. Quando se “lê” o estado do circuito num dado momento, obtém-se uma amostra válida dessa distribuição. Isto é crucial porque a IA generativa moderna trata fundamentalmente de probabilidades: prever a próxima palavra mais provável ou gerar o píxel mais plausível numa imagem.

Amostragem Nativa vs. Simulação Digital

A vantagem de eficiência de “10 000x” proclamada pela Extropic surge desta diferença estrutural. Numa GPU digital (determinista), gerar uma amostra aleatória de uma distribuição complexa requer a execução de algoritmos pseudoaleatórios (PRNG) que consomem milhares de ciclos de relógio e milhões de transições de transístores. A GPU deve simular o acaso através de aritmética determinista complexa.

Em contraste, o chip termodinâmico gera a amostra de forma nativa. Ele não simula o ruído; o ruído é o motor do cálculo. A física faz o trabalho pesado de gerar a aleatoriedade, eliminando a necessidade de Unidades Lógicas e Aritméticas (ALU) complexas para essa tarefa específica. É, em essência, computação analógica assistida por ruído, onde o meio físico realiza a operação matemática instantaneamente.

Característica OperacionalComputação Digital (GPU/CPU)Computação Termodinâmica (TSU)
Unidade BásicaTransístor CMOS (Switch Determinista)p-bit (Oscilador Estocástico)
Relação com o RuídoSupressão (Ruído = Erro)Utilização (Ruído = Recurso/Combustível)
Mecanismo de CálculoAritmética Booleana SequencialRelaxamento Físico para Estado de Energia Mínima
Consumo EnergéticoAlto (Luta contra a termodinâmica)Mínimo (Flui com a termodinâmica)
Aplicação IdealCálculos precisos, lógica exataInferência probabilística, Otimização, IA Generativa

Extropic: Arquitetura e Estratégia da Incerteza

A Extropic, sediada nos Estados Unidos, posicionou-se como a ponta de lança comercial desta tecnologia. Fundada por Guillaume Verdon (ex-físico da Google e conhecido na esfera digital como “Beff Jezos”, líder do movimento de aceleracionismo efetivo ou e/acc) e Trevor McCourt, a empresa passou da teoria para o fabrico de silício tangível.

O Chip X0: Validação do Silício Probabilístico

O primeiro marco tangível da Extropic é o chip X0. Este dispositivo é um protótipo de teste concebido para validar que os circuitos probabilísticos podem ser fabricados utilizando processos de semicondutores padrão e operar à temperatura ambiente. Ao contrário dos computadores quânticos que requerem temperaturas próximas do zero absoluto, o X0 utiliza o calor ambiental como fonte de entropia.

O X0 alberga uma família de circuitos desenhados para gerar amostras de distribuições de probabilidade primitivas. A sua função principal foi confirmar a precisão dos modelos de ruído da Extropic: demonstrar que se pode desenhar um transístor para ser “ruidoso” de uma forma previsível e controlável. Esta conquista é significativa porque a indústria de semicondutores passou 60 anos a otimizar processos para eliminar o ruído; reintroduzi-lo de forma controlada requer um domínio profundo da física dos materiais.

Plataforma de Desenvolvimento XTR-0

Para permitir que investigadores e programadores interajam com esta nova física, a Extropic lançou a plataforma XTR-0. Este sistema não é um computador independente, mas uma arquitetura híbrida. Fisicamente, consiste numa placa-mãe trapezoidal que alberga um CPU convencional e um FPGA, ligada a duas placas secundárias (daughterboards) que contêm os chips termodinâmicos X0.

A função da XTR-0 é servir de ponte. O CPU gere o fluxo de trabalho geral e a lógica determinista, enquanto o FPGA atua como um tradutor de alta velocidade, enviando instruções e parâmetros aos chips X0 e recebendo as amostras probabilísticas geradas. Esta arquitetura reconhece uma realidade pragmática: os computadores termodinâmicos não substituirão os digitais para tarefas como executar um sistema operativo ou processar uma folha de cálculo. O seu papel é o de aceleradores especializados, análogos à forma como as GPUs aceleram gráficos, mas dedicados exclusivamente à carga de trabalho probabilística da IA.

O Chip Z1 e a Visão de Escala

O objetivo final da Extropic não é o X0, mas o futuro chip Z1. Projeta-se que este dispositivo albergará centenas de milhares ou milhões de p-bits interligados, permitindo executar modelos de IA generativa profundos inteiramente no substrato termodinâmico. As simulações realizadas pela empresa sugerem que este chip poderia executar tarefas de geração de imagens ou texto consumindo 10 000 vezes menos energia do que uma GPU equivalente.

A arquitetura do Z1 baseia-se numa conectividade local massiva. Ao contrário das GPUs, onde os dados viajam longas distâncias através do chip (consumindo energia), no design da Extropic, a memória e a computação estão entrelaçadas. Os p-bits interagem apenas com os seus vizinhos imediatos, criando uma rede de interações locais que, em conjunto, resolvem problemas globais. Isto elimina grande parte do custo energético do movimento de dados.

Algoritmos Nativos: O Modelo Termodinâmico de Remoção de Ruído (DTM)

Hardware revolucionário requer software revolucionário. Tentar executar algoritmos de aprendizagem profunda padrão (baseados em multiplicação de matrizes determinista) num chip termodinâmico seria ineficiente. Por isso, a Extropic desenvolveu uma nova classe de algoritmos nativos.

Modelos Baseados em Energia (EBMs)

A base teórica do software da Extropic são os Modelos Baseados em Energia (Energy-Based Models ou EBMs). Na aprendizagem automática, um EBM aprende a associar uma “energia” baixa aos dados que parecem realistas (como a imagem de um gato) e uma energia alta ao ruído ou dados incorretos. Gerar dados com um EBM envolve encontrar configurações de baixa energia.

Os EBMs existem teoricamente há décadas, mas caíram em desuso face às redes neuronais profundas porque treiná-los e usá-los em computadores digitais é extremamente lento. Requerem um processo chamado Amostragem de Gibbs, que é computacionalmente proibitivo num CPU ou GPU. No entanto, o chip da Extropic realiza a Amostragem de Gibbs de forma nativa e quase instantânea. O que é uma fraqueza para o silício digital é a força fundamental do silício termodinâmico.

Denoising Thermodynamic Model (DTM)

O algoritmo principal da Extropic é o Modelo Termodinâmico de Remoção de Ruído (DTM). Este modelo funciona de forma semelhante aos modelos de difusão modernos (como os que impulsionam o Midjourney ou o Stable Diffusion), que começam com ruído puro e o refinam progressivamente até obter uma imagem nítida.

No entanto, enquanto um modelo de difusão numa GPU deve calcular matematicamente como remover o ruído passo a passo, o DTM utiliza a física do chip para realizar a transformação. O hardware termodinâmico permite que o estado “ruidoso” evolua fisicamente para o estado “ordenado” (a imagem final) seguindo as leis da termodinâmica. As simulações indicam que esta abordagem não só é mais rápida, mas requer ordens de magnitude menos energia porque o processo de “remoção de ruído” é realizado pela tendência natural do sistema para o equilíbrio, não por biliões de multiplicações de vírgula flutuante.

O Ecossistema Competitivo: Abordagens Divergentes na Computação Física

Embora a Extropic tenha captado a atenção dos media com as suas afirmações audaciosas e estética cyberpunk, não é o único ator neste espaço. A corrida pela computação termodinâmica e probabilística inclui outros concorrentes sofisticados como a Normal Computing, cada um com filosofias técnicas e de mercado distintas.

Normal Computing: A Fiabilidade através da Estocasticidade

A Normal Computing, sediada em Nova Iorque e fundada por ex-engenheiros da Google Brain e da Alphabet X, aborda o problema de um ângulo ligeiramente diferente. Enquanto a Extropic se foca na velocidade e eficiência bruta para a geração (aceleracionismo), a Normal coloca uma ênfase significativa na fiabilidade, segurança e quantificação da incerteza em sistemas críticos.

A sua tecnologia baseia-se na Unidade de Processamento Estocástico (SPU). Tal como a Extropic, utilizam o ruído térmico, mas a sua estrutura matemática foca-se em processos estocásticos específicos como o processo Ornstein-Uhlenbeck (OU). O processo OU é um processo estocástico de reversão à média, útil para modelar sistemas que flutuam, mas tendem a voltar a um centro estável.

A Normal Computing atingiu marcos significativos, como o “tape-out” (finalização do design para fabrico) do seu chip CN101. Este chip é desenhado para demonstrar a viabilidade da arquitetura termodinâmica em silício real. O seu roteiro inclui os futuros chips CN201 e CN301, destinados a escalar modelos de difusão de alta resolução e vídeo até 2027-2028.

Diferença Chave: A Extropic parece otimizar para a máxima entropia e criatividade generativa a baixo custo energético (ideal para arte, texto, ideação). A Normal Computing parece otimizar para a “IA explicável” e fiável, utilizando o hardware probabilístico para que a IA “saiba o que não sabe” e gira riscos em aplicações empresariais ou industriais.

Computação Neuromórfica vs. Termodinâmica

É crucial distinguir a computação termodinâmica da neuromórfica (representada por chips como o TrueNorth da IBM ou o Loihi da Intel). A computação neuromórfica tenta imitar a arquitetura biológica do cérebro (neurónios, sinapses, picos de voltagem) utilizando frequentemente circuitos digitais ou analógicos deterministas.

A computação termodinâmica, por outro lado, imita a física do cérebro. O cérebro biológico opera num ambiente húmido e ruidoso a 37°C, utilizando o ruído térmico para facilitar as reações químicas e a transmissão de sinais. Ele não luta contra o ruído; ele usa-o. A Extropic e a Normal Computing argumentam que imitar a física (termodinâmica) é um caminho mais direto para a eficiência do que imitar apenas a estrutura (neuromórfica).

Análise Profunda da Eficiência: Desconstruir o “10 000x”

A afirmação de uma melhoria de eficiência de 10 000 vezes é extraordinária e requer um escrutínio técnico rigoroso. De onde surge exatamente este número e será realista em ambientes de produção?

A Física da Poupança

A poupança energética provém de três fontes principais:

  1. Eliminação do Movimento de Dados: Numa GPU, ler os pesos de um modelo da memória VRAM consome mais energia do que realizar o cálculo em si. Na TSU da Extropic, os pesos do modelo estão codificados fisicamente nas conexões entre p-bits. O cálculo ocorre onde os dados estão.
  2. Cálculo Passivo: Num circuito digital, o relógio força transições de estado milhões de vezes por segundo, consumindo energia ativa em cada ciclo. Num circuito termodinâmico, o sistema evolui passivamente para a solução. A energia é fornecida em grande parte pelo calor ambiental (ruído térmico), que é “grátis”.
  3. Eficiência de Amostragem: Como discutido, gerar uma amostra estatística no digital requer milhares de operações. Na termodinâmica, é uma operação única. Se uma tarefa requer recolher milhões de amostras (como na geração de vídeo), a vantagem acumula-se linearmente até atingir ordens de magnitude.

Comparativo de Consumo Real

Para colocar isto em perspetiva, consideremos o treino e a inferência de modelos tipo LLaMA. A Meta treinou o LLaMA 3 utilizando 16 000 GPUs H100. Se assumirmos um consumo médio conservador, o custo energético é de centenas de gigawatts-hora. Na fase de inferência (uso diário), se milhões de utilizadores consultam o modelo, o consumo acumulado supera o do treino.

Se um chip termodinâmico puder realizar a mesma inferência consumindo miliwatts em vez de centenas de watts, a viabilidade económica da IA muda radicalmente. Permitiria executar modelos de nível GPT-4 num smartphone sem esgotar a bateria em minutos, ou implementar sensores inteligentes na agricultura que funcionem durante anos com uma bateria pequena.

Limitações e Ressalvas

No entanto, o número de 10 000x deriva de simulações de benchmarks específicos otimizados para este hardware. Em cargas de trabalho mistas, onde se requer lógica determinista, pré-processamento de dados e comunicação com o CPU, a eficiência global do sistema (Lei de Amdahl) será menor. Além disso, a precisão analógica é inerentemente limitada. Para cálculos financeiros que exigem precisão exata de 64 bits, a computação termodinâmica não é adequada. O seu nicho é a inferência probabilística, não a contabilidade exata.

Métrica de EficiênciaGPU Digital (H100)TSU Termodinâmica (Projetada)Fator de Melhoria Teórica
Operações por JouleLimitado pela barreira de Landauer e arquitetura CMOSLimitado apenas pelo ruído térmico de fundo~10^3 – 10^5
Latência de AmostragemAlta (requer iterações PRNG sequenciais)Muito Baixa (fisicamente instantânea)~100x – 1000x
Complexidade do CircuitoAlta (milhões de transístores para lógica de controlo)Baixa (p-bits simples e acoplamentos)Alta densidade de área

Desafios de Fabrico e Escalabilidade: O Vale da Morte do Hardware

A história da computação está repleta de tecnologias promissoras (memristores, computação ótica, spintrónica) que falharam ao tentar escalar. A computação termodinâmica enfrenta barreiras significativas para sair do laboratório.

Variabilidade de Processos e Calibração

O maior desafio para a Extropic e a Normal Computing é a homogeneidade. No fabrico de chips modernos (nós de 5nm ou 3nm), existem variações microscópicas entre transístores. No digital, isto é gerido com margens de segurança. No analógico/termodinâmico, onde o “ruído” é o sinal, uma variação no tamanho de um transístor altera o seu perfil de probabilidade.

Se cada p-bit tiver um viés (bias) ligeiramente diferente devido a defeitos de fabrico, o chip não representará a distribuição de probabilidade correta. Calibrar milhões de p-bits individuais para compensar estas variações poderia exigir circuitos de controlo digital massivos, o que consumiria parte da poupança de energia e espaço. A Extropic afirma ter resolvido isto com designs de circuitos robustos, mas o teste real virá com a produção em massa do chip Z1.

Integração no Ecossistema de Software

Hardware é inútil sem um ecossistema. A NVIDIA domina a IA não apenas pelos seus chips, mas pelo CUDA, a sua camada de software. Para que os programadores adotem as TSUs, a complexidade física deve ser abstraída. A Extropic lançou a Thrml, uma biblioteca Python que permite aos programadores definir modelos de energia e executá-los no backend (seja simulado em GPU ou real na XTR-0). O sucesso dependerá de quão transparente será esta integração com PyTorch e TensorFlow. Se os engenheiros de ML tiverem de aprender física estatística para programar o chip, a adoção será nula.

A Concorrência da Lei de Moore

A tecnologia digital não está estagnada. A NVIDIA, a AMD e a Intel continuam a otimizar as suas arquiteturas para IA (ex: precisão FP8, arquiteturas Blackwell). A computação termodinâmica persegue um alvo móvel. Quando o chip Z1 chegar ao mercado comercial, as GPUs convencionais terão melhorado a sua eficiência. A vantagem de “10 000x” é uma margem grande, mas a execução deve ser rápida para não perder a janela de oportunidade.

Implicações Geopolíticas e Económicas

A emergência desta tecnologia tem ramificações que vão além da sala de servidores, afetando a estratégia nacional e a economia global da IA.

Soberania da IA e Descentralização

Atualmente, a IA avançada é um oligopólio controlado por entidades capazes de financiar centros de dados de mil milhões de dólares e aceder a fornecimentos restritos de GPUs. A computação termodinâmica, ao reduzir drasticamente o custo energético e de hardware (utilizando processos de fabrico de silício mais antigos e baratos, já que não requerem a última litografia de 3nm para funcionar), poderia democratizar o acesso à “superinteligência”.

Isto permitiria a nações menores ou empresas médias operarem os seus próprios modelos fundamentais sem depender das nuvens dos hiperescaladores americanos (Microsoft, Google, Amazon). É um vetor potencial para uma maior soberania tecnológica.

Impacto na Rede Elétrica e Sustentabilidade

A AIE e os governos estão alarmados com o consumo dos centros de dados. Em lugares como a Irlanda ou o norte da Virgínia, os centros de dados consomem percentagens de dois dígitos da rede total. A computação termodinâmica oferece uma “válvula de escape” para essa pressão. Se a indústria migrar parte das suas cargas de inferência para hardware termodinâmico, seria possível dissociar o crescimento da IA do crescimento da pegada de carbono, permitindo cumprir metas climáticas sem travar o progresso tecnológico.

A Filosofia do Aceleracionismo (e/acc)

Não se pode ignorar a componente ideológica. Guillaume Verdon, CEO da Extropic, é uma figura central do movimento e/acc, que defende o progresso tecnológico irrestrito e rápido como imperativo moral e termodinâmico do universo. A Extropic não é apenas uma empresa; é a manifestação física desta ideologia. Eles procuram maximizar a produção de entropia e inteligência do universo. Isto contrasta com as visões de “Desaceleração” ou “Segurança da IA” (Safetyism). O sucesso da Extropic seria uma vitória cultural e técnica para o campo aceleracionista em Silicon Valley.

O Amanhecer da Inteligência Natural

A computação termodinâmica representa a tentativa mais séria até ao momento de fechar a lacuna entre a computação artificial e a natural. Durante setenta anos, construímos computadores que funcionam como burocracias rígidas: seguindo regras exatas, arquivando dados em locais precisos e gastando imensa energia para garantir que nada saia da norma. Entretanto, o cérebro humano — e a própria natureza — operou como um artista de jazz: improvisando, utilizando o ruído e o caos como parte da melodia, e alcançando resultados brilhantes com uma eficiência energética assombrosa.

As tecnologias apresentadas pela Extropic e Normal Computing, através de dispositivos como o X0 e o CN101, sugerem que estamos prontos para adotar essa segunda abordagem. A promessa de uma eficiência energética de 10 000x não é apenas uma melhoria incremental; é uma mudança de fase que permitiria a ubiquidade da inteligência artificial.

No entanto, o caminho está repleto de riscos técnicos. A transição do determinismo digital para o probabilismo termodinâmico exigirá não apenas novos chips, mas uma reeducação completa de como pensamos sobre os algoritmos, a precisão e a natureza da computação. Se a Extropic conseguir escalar os seus p-bits e a Normal Computing conseguir certificar a segurança dos seus processos estocásticos, é possível que numa década olhemos para as GPUs atuais — esses fornos de silício de 700 watts — com a mesma nostalgia e perplexidade com que hoje olhamos para as válvulas de vácuo da década de 1940. A era de lutar contra a termodinâmica acabou; a era de computar com ela começou.

O Panorama da Computação Pós-Digital

DimensãoAbordagem Digital ClássicaAbordagem Termodinâmica (Extropic/Normal)
FilosofiaControlo total, supressão de errosAceitação do caos, uso do ruído
Limite FísicoDissipação de calor, Lei de MooreLimites entrópicos fundamentais
Modelo de IARedes Neuronais Profundas (DNN)Modelos Baseados em Energia (EBM), Difusão
HardwareGPUs, TPUs (Alta Potência)TSUs, SPUs (Baixa Potência, Passivos)
Visão de FuturoCentros de dados do tamanho de cidadesInteligência omnipresente, descentralizada e ambiental
Partilhar este artigo
Sem comentários

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *