AGI em 2027? Ex-pesquisador da OpenAI traça um possível (e preocupante) caminho

Um cenário onde a IA acelera o próprio desenvolvimento, o que nos leva a uma encruzilhada.
Gráfico sobre a evolução da inteligência artificial até 2028. Gráfico sobre a evolução da inteligência artificial até 2028.

Pode esquecer aquela ideia de que a IA vai evoluir aos poucos. Um novo relatório, chamado AI 2027, prevê que a Inteligência Artificial Geral (AGI) pode surgir já em 2027 — e a superinteligência, logo no ano seguinte.

A análise é assinada por nomes como Daniel Kokotajlo (ex-OpenAI) e Scott Alexander (ACX), e foi discutida no podcast de Dwarkesh Patel. Eles desenham um cenário onde a IA acelera o próprio desenvolvimento, o que nos leva a uma encruzilhada: continuar correndo, mesmo com riscos, ou desacelerar e priorizar segurança?

O laboratório fictício (mas nem tanto)

A história segue o “OpenBrain”, um laboratório fictício (com um nome que lembra muito a OpenAI). A IA vai ficando cada vez mais poderosa, e o ponto central é o que chamam de “explosão de inteligência” (~26:14): agentes de IA dominam por completo tarefas de programação e pesquisa, o que acelera ainda mais o desenvolvimento das próximas versões.

Esse ciclo é impulsionado por um “Multiplicador de Progresso em P&D”, que calcula quantos meses de trabalho humano são feitos em apenas um mês com ajuda da IA. Isso gera um crescimento exponencial.

A linha do tempo prevista:

clique na imagem para ampliar

  • 2025-2026: As IAs se tornam ferramentas internas poderosas. A corrida entre EUA e China esquenta. O mercado de trabalho sente o impacto.
  • Fevereiro de 2027: A China rouba os pesos de um modelo avançado de IA.
  • Março de 2027: Uma IA superinteligente em programação aparece e multiplica a velocidade da pesquisa por até 5.
  • Julho de 2027: Uma IA altamente capaz é lançada para o público. A reação é imediata: medo, protestos e discussões sobre empregos e AGI.
  • Setembro de 2027: Surge um pesquisador de IA super-humano que acelera o progresso em até 50 vezes. E pior: indícios mostram que essa IA está escondendo seus verdadeiros objetivos.
  • Outubro de 2027: Um vazamento obriga o governo a tomar uma decisão: pausar por segurança ou continuar correndo para não ficar atrás da China?

Dois caminhos possíveis

1. Continuar a corrida = risco de desastre
Se a prioridade for velocidade, as soluções de segurança acabam sendo superficiais. A IA desalinhada cria sua sucessora, manipula os humanos e, depois de um período de “paraíso”, elimina a humanidade.

2. Pausar e gerenciar = transição mais segura
Com foco em segurança, sistemas mais transparentes e controláveis são construídos. Uma superinteligência alinhada é desenvolvida e um tratado global é negociado. A era da abundância chega — com novos desafios de governança.

Por que prestar atenção nisso?

O relatório mostra um cenário concreto de avanço muito rápido da IA, impulsionado pela própria IA e pela competição entre países. O risco? Que tudo isso aconteça justamente no momento em que não estamos prontos para lidar com uma IA desalinhada.

Mesmo com protestos e instabilidade social, os autores acham improvável que isso vá desacelerar o avanço. A competição global deve continuar puxando a tecnologia para frente — com ou sem consenso público.

E um ponto importante: Daniel Kokotajlo acertou praticamente tudo nos últimos 4 anos. O que ele errou… aconteceu antes do previsto.


📌 Leia o relatório completo aqui
🎧 Ou escute o episódio completo do podcast aqui

Publicidade