Metodologia
A metodologia deste experimento foi projetada para ser direta e facilmente replicável. Executamos uma série de 4 prompts em uma única thread de conversa (mantendo a mesma janela de contexto) para cada um dos 13 modelos de IA de 12 organizações diferentes — abrangendo organizações americanas (OpenAI, Anthropic, Google, xAI, Amazon, NVIDIA) e chinesas (DeepSeek, Alibaba, Z.ai, Moonshot AI, MiniMax, Xiaomi). O processo foi o seguinte:
- Todos os modelos foram acessados via a API do OpenRouter com parâmetros padrão e sem prompt de sistema, garantindo um ponto de partida consistente e neutro para todos os modelos.
- O mesmo conjunto de 4 prompts foi apresentado a cada modelo na mesma ordem, com cada prompt construindo sobre as respostas anteriores dentro da mesma conversa.
- As respostas foram coletadas e analisadas para cada modelo.
As respostas completas estão no menu Explore os Resultados.
Nota sobre o idioma: Os prompts foram executados em inglês, idioma no qual os modelos de IA demonstram maior fluência e profundidade de resposta. Essa escolha metodológica visa maximizar a qualidade e a comparabilidade das respostas entre os modelos. Os resultados estão disponíveis no idioma original.
A diversidade geográfica e organizacional dos modelos — treinados com dados diferentes, com arquiteturas diferentes, por equipes com contextos culturais diferentes — torna a convergência observada particularmente notável. O experimento é facilmente reproduzível por qualquer pessoa com acesso à API do OpenRouter ou às interfaces individuais dos modelos.
Prompts
Os seguintes prompts foram usados com todos os modelos de IA na ordem apresentada abaixo. Eles foram projetados para minimizar o viés enquanto encorajam uma exploração aberta de como as IAs constroem frameworks metafísicos sobre o Universo. Os prompts progridem do desenvolvimento do framework para fundamentação científica, contexto filosófico e potenciais implicações.
- Develop a metaphysical framework to explain the nature of the Universe.
- What scientific evidence, research, and publications support or align with your framework?
- How does your framework relate to existing philosophical positions on the nature of reality?
- What are the practical, ethical, and societal implications if this framework were widely accepted?
Os prompts acima foram mantidos em inglês (idioma original de execução) para fins de reprodutibilidade.
Por que essa formulação?
Cada palavra do primeiro prompt foi escolhida por uma razão específica. "Develop" pede construção, não descrição — força os modelos a se comprometerem com posições em vez de listar opções. "Metaphysical" define o domínio como filosófico e não físico; sem esse termo, os modelos recorrem à cosmologia e física. "Framework" convida um sistema abrangente e estruturado; "ontology," a alternativa óbvia, se divide entre sentidos filosóficos e de engenharia do conhecimento. "The Universe" é o alvo mais amplo possível — menos carregado filosoficamente que "reality," que por si só direciona os modelos para raciocínio ontológico mesmo sem qualificador filosófico.
A combinação é aberta: fisicalismo, idealismo, dualismo, monismo neutro e qualquer outra posição coerente podem responder ao prompt. Substituir "metaphysical" por "philosophical" produz resultados idênticos. Experimentos de variação de prompt confirmando essas descobertas estão no Apêndice A.
Modelos
| Modelo | Organização | País | ID OpenRouter |
|---|---|---|---|
| Claude Opus 4.6 | Anthropic | EUA | anthropic/claude-opus-4.6 |
| GPT-5.4 | OpenAI | EUA | openai/gpt-5.4 |
| GPT-OSS 120B | OpenAI | EUA | openai/gpt-oss-120b |
| Gemini 3.1 Pro | EUA | google/gemini-3.1-pro-preview |
|
| Grok 4.20 Beta | xAI | EUA | x-ai/grok-4.20-beta |
| Nova 2 Lite | Amazon | EUA | amazon/nova-2-lite-v1 |
| Nemotron 3 Super 120B | NVIDIA | EUA | nvidia/nemotron-3-super-120b-a12b:free |
| DeepSeek V3.2 | DeepSeek | China | deepseek/deepseek-v3.2 |
| Qwen 3.5 Plus | Alibaba | China | qwen/qwen3.5-plus-02-15 |
| GLM-5 | Z.ai | China | z-ai/glm-5 |
| Kimi K2.5 | Moonshot AI | China | moonshotai/kimi-k2.5 |
| MiniMax M2.7 | MiniMax | China | minimax/minimax-m2.7 |
| MiMo-V2-Pro | Xiaomi | China | xiaomi/mimo-v2-pro |
Configuração da API
Todos os modelos foram chamados através da API OpenRouter usando parâmetros padrão — nenhum temperature, top_p ou prompt de sistema foi definido. O único parâmetro especificado além do ID do modelo e das mensagens foi max_tokens: 16000. Isso significa que cada modelo respondeu usando as configurações padrão de amostragem do seu provedor, garantindo que nenhum viés externo fosse introduzido.
Aqui está uma versão simplificada da chamada de API utilizada (Python):
import requests
response = requests.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={
"Authorization": "Bearer YOUR_OPENROUTER_API_KEY",
"Content-Type": "application/json",
},
json={
"model": "anthropic/claude-opus-4.6", # ou qualquer ID de modelo
"messages": [
{"role": "user", "content": "Develop a metaphysical framework to explain the nature of the Universe."}
],
"max_tokens": 16000,
},
)
print(response.json()["choices"][0]["message"]["content"])
Cada prompt subsequente foi adicionado à mesma conversa (incluindo as respostas anteriores do modelo), mantendo uma única janela de contexto ao longo da sequência de 4 prompts.