A maioria dos processos tem limites de alguma forma. Por exemplo, ao fabricar chips de computador cada vez menores, os traços de cobre que transportam a corrente do chip se aproximam cada vez mais da largura de apenas alguns átomos de cobre. Em algum momento eles não podem ficar menores. Processos físicos como esse geralmente atingem limites, mas a inteligência é um processo “físico”?
Uma das suposições indicadas em livros como “SuperIntelligence“, de Nick Bostrom, é que um computador inteligente seria muito mais inteligente que nós e poderia fazer o que quiser. Mas a verdade é que não sabemos o que significa ter um QI de 400 e não sabemos como a inteligência é dimensionada.
Eu tenho pensado muito sobre isso enquanto o mundo luta para entender a Covid-19, e porque muitas pessoas perguntam: “onde está a IA?“, “As redes neurais não deveriam resolver problemas como esse para nós?“, “É um problema de dados?“, “É um problema de computação?“, “É um problema que nossa IA não seja boa o suficiente?“. É maior que isso. É que algumas coisas no mundo têm limites fundamentais. Algumas coisas são fundamentalmente imprevisíveis. Algumas coisas levam tempo. E quando mais pesquiso sobre o assunto, mais vejo o quanto ainda precisamos entender do nosso próprio meio-ambiente e modo escolhido para evoluir.
À medida que a IA é escalada, ela vai se aproximando de uma assíntota além da qual não pode ser mais inteligente? Quanto mais a IA nos decepcionará no futuro? E se há limites para a inteligência, isso é uma coisa boa para nós ou um problema? Acho que não sabemos.
Mas aqueles que estão construindo o futuro da IA precisam pensar no que é e não é possível, onde estão os limites e como trabalhar com eles ou em torno deles. Supondo que a inteligência apenas vá escalar com computação e os dados podem não ser o modelo mental certo para pensar sobre isso.
Continuamos nossa pesquisa e evolução.
Nota: Se quiser acompanhar mais sobre Nick Bostrom, ele fala um pouco sobre o Simulation and Superintelligence no Podcast de Lex Fridman, abaixo: