Are We Living in a Simulation?
Are We Living in a Simulation?

Estamos a viver numa simulação? O trilema de Nick Bostrom e a infodinâmica de Melvin Vopson

05/09/2025 10:15 PM EDT

Seremos habitantes de um constructo computacional, e não de uma “realidade de base” independente da mente? A questão da simulação obriga-nos a regressar aos primeiros princípios: o que conta como evidência? O que é uma lei física? O que é uma mente? Há duas décadas, o debate tem-se cristalizado em torno do Simulation Argument de Nick Bostrom e, mais recentemente, em torno da tentativa de Melvin Vopson de reinterpretar as regularidades físicas como efeitos da dinâmica da informação. Em conjunto, estes projetos convidam a um escrutínio neutro, mas persistente: se o mundo fosse um programa, o que — se é que algo — deveria parecer diferente? E, se nada mudasse, estaremos perante uma tese explicativa, científica ou meramente metafísica?

Enquadramento da hipótese: pretensões filosóficas vs. físicas

A hipótese da simulação costuma apresentar-se em dois registos. O primeiro é filosófico e diz respeito à probabilidade e às classes de referência: partindo de certas suposições sobre civilizações futuras e poder computacional, quão provável é que seres com experiências como as nossas sejam simulados? O segundo é físico e aborda a estrutura das leis naturais: se a informação é fundamental, poderão forças, simetrias ou tendências termodinâmicas emergir de uma optimização de tipo computacional?

Ambos os registos aguçam o problema, mas expõem-no a críticas distintas. Em filosofia, os pontos frágeis são as suposições introduzidas de forma tácita no cálculo probabilístico e a escolha da classe de observadores. Em física, as preocupações centrais são a testabilidade, a subdeterminação e o risco de reescrever a física conhecida em metáforas computacionais sem ganho de poder preditivo.

O argumento de Bostrom: um trilema, não um veredicto

A contribuição de Bostrom é frequentemente lida — de modo impreciso — como a afirmação de que estamos simulados. Na realidade, trata-se de um trilema: (1) quase nenhuma civilização atinge o estádio “pós-humano”; ou (2) quase nenhuma civilização pós-humana executa um número significativo de simulações de antepassados; ou (3) vivemos, com elevada probabilidade, numa simulação. A força do argumento está em tornar o realismo complacente epistemicamente desconfortável: uma vez concedida a mente independente do substrato e a viabilidade de emulações em larga escala, a “classe de referência” dos observadores como nós passa a ser dominada por simulados.

Alguns pontos de pressão merecem destaque:

  • Problema da classe de referência. O peso probabilístico depende de quem conta como “como nós”. Se a classe é definida por fenomenologia (ter experiências como as nossas), os simulados dominam. Se é definida por origem causal (primatas evoluídos biologicamente), dominam os não simulados. Sem teoria adicional, não há forma não circular de escolher a classe.
  • Premissas agnósticas. As duas premissas que sustentam o argumento — mente independente do substrato e emulação realizável — são discutíveis. Emular poderá exigir não apenas computação astronómica, mas também modelização de alta fidelidade de sistemas quânticos em decoerência e de acoplamentos ecológicos incorporados, empurrando a viabilidade muito para lá de estimativas de ordem de grandeza.
  • Constrangimento decisionista. Se o terceiro corno do trilema fosse verdadeiro, como deveríamos agir? A recomendação pragmática de Bostrom — “seguir em frente” — é sensata, mas evidencia uma assimetria: uma tese que não orienta a acção nem discrimina previsões arrisca tornar-se uma elegância sem consequências.

Lido com benevolência, o mérito do argumento está em alargar o espaço de possibilidades sérias sem reivindicar encerramento probatório. Funciona melhor como teste céptico de resistência aplicado às nossas suposições de fundo sobre tecnologia, consciência e tipicidade.

A infodinâmica de Vopson: da imagem ao mecanismo

Onde o trilema opera no plano abstracto, Vopson mira o mecanismo. Propõe que a dinâmica da informação obedece a uma “segunda lei” distinta da entropia termodinâmica: em sistemas informacionais fechados, a entropia da informação tende a diminuir ou permanecer constante, impulsionando compressão e optimização. A partir daí, esboça como tal princípio poderia iluminar padrões recorrentes — na evolução genética, na simetria matemática e até na gravidade — tratando o mundo como um sistema de processamento de informação que procura economia representacional.

O salto é arrojado: da metáfora (“o universo é como um computador”) para a hipótese operacional (“as regularidades físicas emergem de pressão por compressão”). Destacam-se algumas teses:

  • Compressão como tendência unificadora. Se os sistemas evoluem no sentido de uma complexidade descritiva mínima, deveremos observar convergências para simetria, regularidade e códigos eficientes. A “legalidade” deixaria de ser um facto bruto para se tornar subproduto emergente de uma contabilidade informacional.
  • “Células” discretas de espaço-tempo. Ao modelizar a realidade como uma grelha de unidades portadoras de informação, podem derivar-se dinâmicas em que aproximar a matéria reduz o número de descritores de estado necessários — gerando o comportamento atractivo a que chamamos gravidade.
  • Vínculo massa–energia–informação. Se a informação é física, pode transportar atributos energéticos ou de massa, reconfigurando enigmas como a matéria escura em termos informacionais e motivando ensaios laboratoriais baseados no “apagamento” de informação.

O apelo do programa é claro: promete pontes testáveis entre a teoria da informação e a física fundamental. Mas o padrão deve ser elevado. Recontar regularidades conhecidas na linguagem da compressão não basta; o que importa é a previsão nova e discriminante. A infodinâmica antecipa alguma anomalia quantitativa que os modelos padrão não preveem? Consegue retrodizer constantes estabelecidas sem parâmetros livres? Os compromissos com uma “grelha” podem ser falsificados por medições de precisão que produziriam resultados diferentes se a realidade fosse contínua?

O que contaria como evidência?

Uma avaliação madura exige clarificar o que tornaria a hipótese da simulação — ou o seu avatar infodinâmico — vulnerável à evidência. São discutidas com frequência várias vias:

  1. Artefactos de grelha. Se o espaço-tempo fosse discretizado numa malha computacional, processos de energia extremamente alta (p. ex., raios cósmicos) poderiam revelar anisotropias subtis ou relações de dispersão alinhadas com os eixos da grelha. A ausência de tais assinaturas fixa limites inferiores para a escala de discretização.
  2. Tetos de complexidade. Um simulador finito poderá impor limites de recursos — à profundidade do emaranhamento quântico, por exemplo, ou à complexidade de padrões de interferência. Experiências poderiam procurar pontos de saturação inesperados não previstos pela teoria padrão.
  3. Assimetrias termodinâmicas. Se uma segunda lei informacional divergir da entropia térmica, sistemas de informação “fechados” e cuidadosamente construídos podem exibir uma direccionalidade (no sentido da compressão) irredutível à mecânica estatística convencional.
  4. Custo energético do apagamento. O princípio de Landauer já vincula o apagamento de informação à dissipação de calor. Vínculos mais fortes e não redundantes — por exemplo, défices de massa associados ao apagamento — seriam decisivos se observados de forma limpa, isolados da dissipação ordinária.

Cada via enfrenta obstáculos conhecidos: precisão metrológica, efeitos de fundo e, sobretudo, subdeterminação. Um sinal compatível com a simulação pode ser igualmente compatível com teorias não simulacionistas (propostas de gravidade quântica, espaço-tempo emergente ou análogos inovadores em matéria condensada). O risco é a deriva confirmatória: ver padrões “amigáveis à computação” onde múltiplas estruturas teóricas já preveem fenómenos semelhantes.

Cautelas metodológicas: quando as analogias exageram

Três cautelas metodológicas moderam conclusões apressadas:

  • A metáfora da tecnologia dominante. As culturas compararam o cosmos à melhor máquina do seu tempo: relógio, motor, hoje computador. Metáforas férteis como heurísticas, arriscam erro de categoria se promovidas a ontologia sem ponderar o seu poder explicativo face a rivais.
  • Contabilidade explicativa. Renomear “gravidade” como “compressão de informação” não pode limitar-se a mudar o rótulo do explanandum. Profundidade mecanicista exige mostrar como a nova descrição reduz parâmetros livres, unifica fenómenos díspares ou resolve anomalias sem andaimes ad hoc.
  • Contabilidade bayesiana. Prioris contam. Se se atribuir probabilidade prévia baixa à mente independente de substrato ou à emulação viável em escala de antepassados, a probabilidade a posteriori de “estamos simulados” permanece baixa mesmo com verosimilhanças ao estilo Bostrom. Inversamente, prioris demasiado amplos diluem a disciplina evidencial.

Derivações éticas e existenciais (qualquer que seja a ontologia)

A hipótese cativa também porque redesenha um terreno ético conhecido:

  • Ética do design. Se seres futuros puderem instanciar vidas conscientes em software, as nossas decisões actuais sobre IA, agentes virtuais e emulações em massa ganham peso moral. A questão regressa como políticas públicas: devemos criar mundos povoados por mentes capazes de sofrer?
  • Sentido sem garantias metafísicas. Mesmo que a realidade fosse computada, os projectos humanos — cuidado, conhecimento, arte — não se evaporam. O valor supervém da experiência e da relação, não do substrato. A postura prática é, portanto, robusta entre ontologias.
  • Humildade epistémica. A hipótese lembra que os nossos modelos podem ser compressões locais de uma ordem mais profunda. Essa humildade alimenta melhor ciência, exista ou não “silício” na base do universo.

Uma apreciação neutra

Onde fica um observador académico consciencioso?

  • O trilema de Bostrom continua a ser um desafio poderoso ao realismo ingénuo, mas o seu corte depende de premissas discutíveis e de escolhas sobre classes de observadores que a filosofia ainda não fixou.
  • O programa de Vopson é promissor como agenda de investigação na medida em que produza previsões nítidas e arriscadas que a física padrão não oferece. O seu valor será medido menos pela ressonância retórica e mais pela economia explicativa e tracção empírica.
  • Enquanto pretensão científica, a hipótese da simulação só ganha credibilidade quando “paga renda” em previsões. Enquanto teste filosófico de pressão, já o faz ao disciplinar suposições sobre tipicidade, corporeidade e mente.

A atitude intelectualmente honesta não é nem credulidade nem desdém, mas curiosidade crítica contínua. Se trabalhos futuros derivarem assinaturas quantitativas — anisotropias alinhadas a uma grelha com leis de escala específicas, efeitos massa–energia ligados à informação para lá de Landauer, ou tetos de complexidade inexplicáveis na teoria padrão —, o balanço de razões mudará. Na ausência disso, a tese da simulação permanece uma opção metafísica viva e uma heurística fecunda, ainda não uma hipótese empiricamente preferida.

Conclusão: o valor da pergunta

Perguntar se vivemos numa simulação não é um jogo de ontologia especulativa. É uma alavanca que abre vários gonzos da investigação: como surgem as mentes, porque é que as leis são simples, o que é informação. Bostrom ensina-nos a rastrear as nossas suposições sobre a distribuição de observadores; Vopson desafia-nos a converter “a informação é física” em mecanismos que corram o risco de estar errados. A previsão mais segura é que, independentemente da verdade última da hipótese, os métodos desenvolvidos no caminho — classes de referência mais finas, vínculos mais estreitos entre informação e dinâmica, experiências mais discriminantes — enriquecerão a nossa compreensão do mundo que habitamos, simulado ou não.

Até que um teste decisivo discrimine “realidade de base” de “realidade emulada”, devemos evitar tanto a certeza complacente como o cepticismo performativo. Em vez disso, deixemos que a pergunta faça o seu melhor trabalho: refinar os nossos padrões de evidência, clarificar as nossas ambições explicativas e alargar a fronteira onde física, computação e filosofia se encontram. Se a cortina puder ser puxada, sê-lo-á por estas virtudes — não por slogans, mas por resultados.


Fontes

  • Bostrom, Nick. “Are You Living in a Computer Simulation?” The Philosophical Quarterly 53, n.º 211 (2003): 243–255.
  • Eggleston, Brian. “A Review of Bostrom’s Simulation Argument.” Stanford University (material do curso symbsys205), síntese do raciocínio probabilístico de Bostrom.
  • Vopson, Melvin M. “The Second Law of Infodynamics and its Implications for the Simulation Hypothesis.” AIP Advances 13, n.º 10 (2023): 105206.
  • Vopson, Melvin M. “Gravity Emerging from Information Compression” (AIP Advances, 2025) e comunicações associadas da University of Portsmouth.
  • Orf, Darren. “A Scientist Says He Has the Evidence That We Live in a Simulation.” Popular Mechanics, 3 de Abril de 2025.
  • Tangermann, Victor. “Physicist Says He’s Identified a Clue That We’re Living in a Computer Simulation.” Futurism, 3 de Maio de 2023.
  • IFLScience (ed.). “Physicist Studying SARS-CoV-2 Virus Believes He Has Found Hints We Are Living In A Simulation.” Outubro de 2023.
  • Vopson, Melvin M. Reality Reloaded: How Information Physics Could Explain Our Universe. 2023.
  • Contexto clássico de cepticismo filosófico: “Alegoria da Caverna”, de Platão; René Descartes, Meditações Metafísicas (enquadramento histórico).

Deixe um comentário

Your email address will not be published.