Precisamos falar sobre LaMDA, a IA que o engenheiro do Google achou que havia adquirido autoconsciência

Quem trabalha com IA já está acostumado com o tipo de interação que um modelo muito sofisticado é capaz de apresentar. Também está acostumado com alegações de autoconsciência, como no caso do LaMDA.
Precisamos falar sobre LaMDA, a IA que o engenheiro do Google achou que havia adquirido autoconsciência Precisamos falar sobre LaMDA, a IA que o engenheiro do Google achou que havia adquirido autoconsciência

Por alguns dias neste mês de junho de 2022 surgiu como trend topic, quase que do nada, um debate sobre Inteligências Artificiais auto-conscientes. Quase que do nada é uma figura de linguagem minha, porque a controvérsia surgiu sim de algo.

Por volta do dia 11, Blake Lemoine, engenheiro da Google, publicou dois posts [1, 2] a respeito do sistema LaMDA (pronuncia-se “lambda”, como a décima primeira letra do alfabeto grego). Os posts foram meio que uma resposta ao artigo publicado no jornal The Washington Post [3], relatando que apesar do departamento ético da companhia ter recomendado que não se treinasse uma rede neural para “personificar” seres-humanos, a empresa o fez (o sistema LaMDA) e que um de seus funcionários (o próprio Blake Lemoine) acreditava que o sistema havia adquirido autoconsciência.

Lemoine contava em seus posts os motivos que o levaram a acreditar na emergência da autoconsciência e para provar seu ponto, compartilhou transcrições de “conversas” que teve com LaMDA. A Google imediatamente rebateu as alegações, acusou Lemoine de compartilhar informações proprietárias da empresa e o colocou em “paid administrative leave”, que basicamente é o primeiro passo para a demissão (é o nosso famoso “afastado das suas funções”).

Antes de mais nada, é importante entender o que é o sistema LaMDA

Segundo o post da própria Google, que anunciou o modelo em maio de 2021 [4], trata-se de um sistema que cria chatbots (os robôs que são usados para interação com humanos por meio de texto). O  LaMDA foi desenvolvido com base na abordagem Transformers (escrevi a respeito dela no texto “Uma transformação profunda na IA”) e pode discorrer, de maneira aparentemente fluida, sobre um número infinito de tópicos [4]. O nome LaMDA decorre de uma abreviação para “Language Model for Dialogue Applications”, algo como modelo de linguagem para aplicações de diálogo. O trabalho de Lemoine no sistema era “garantir” que o modelo não começasse a “cuspir” palavrões, comentários racistas, misóginos, etc. Basicamente, que a IA fosse “bem-educada” e “civilizada”. 

Quem trabalha diretamente com IA já está acostumado com o tipo de interação que um modelo muito sofisticado é capaz de apresentar. Também está acostumado com alegações de autoconsciência desde que ELIZA, um software que atuou entre 1965 e 66, “fingiu” ser uma terapeuta (conseguindo enganar alguns seres-humanos no processo) e mais recentemente, em 2014, com Eugene Goostman, o primeiro chatbot que ganhou uma versão reduzida do Teste de Turing personificando um garoto de 13 anos. De forma que, ninguém se deu ao trabalho de rebater Lemoine até a notícia viralizar. A partir daí, “hell broke loose”. A comunidade de IA em peso se envolveu.

Por exemplo, o economista e professor em Stanford Erik Brynjolfsson, que atua no Stanford Institute for Human-Centered AI (HAI), usou uma analogia do gramofone para explicar que modelos como LaMDA, exploram uma inteligência real (o grande corpus de texto usado para seu treinamento) para gerar sequências de palavras estatisticamente plausíveis como output, sem entender realmente o que estão dizendo. Como o gramofone, só reproduzem aquilo que foi feito anteriormente por um ser-humano.

Gary Marcus, da New York University e uma das referências em modelos de linguagem para IA, lembrou que se LaMDA não fosse apenas um sistema de associação de padrões estatísticos, seria um “sociopata, inventando amigos imaginários e proferindo chavões para parecer legal”. 

Até um tweet de maio do Roger K. Moore, especialista em processamento e reconhecimento automático de linguagem e professor da Sheffield University, foi resgatado para lembrar que o que é comumente chamado de “modelagem de linguagem” é na verdade “modelagem de sequência de palavras”.  

Pessoalmente, penso que ser autoconsciente é estar ciente de si mesmo no mundo. Acredito que isto, LaMDA simplesmente não está. É um motor estatístico extremamente sofisticado. LaMDA está mais para um p-zombie, diminutivo do termo “philosophical zombie” (algo como zumbi filosófico). Trata-se de um experimento mental criado pelo filósofo David Chalmers, da Australian National University, envolvendo um ser hipotético que é fisicamente idêntico e indistinguível de um ser-humano, mas que não possui experiência consciente. Imagine um universo “paralelo”, em que o estado do mundo é exatamente o mesmo do nosso, com a diferença de que absolutamente nada se passa na cabeça de ninguém. É como se apagassem as luzes dos fluxos de consciência por todo o planeta. Não há sentimento, nem vida interior, nem experiências. Ainda há energia sendo trocada bio-molecularmente, ainda há disparos neurais, ainda há os movimentos circulares da sua boca quando você vibra o ar para falar, ainda há a “dança” dos átomos no universo (como diz o Scott Aaronson). Nesse universo “paralelo”, tudo é e não é como aqui, pois não é possível ser um alguém em um universo p-zombie. 

A descrição do parágrafo anterior tem apenas a intenção de mudar a sua perspectiva para podermos tornar o dualismo mais concebível. O que gostaria de propor é que você reflita na possibilidade de existirem mentes individuais que “continuem no escuro” e não desenvolvam consciência (os p-zombies). E se assim o for, que matéria e mente possam ser fundamentalmente diferentes. A ideia aqui é pensar na possibilidade de termos uma coleção de átomos e, ainda assim, isto não nos dizer tudo a respeito das propriedades físicas desses átomos [6]. E não nos diria tudo pela impossibilidade de olharmos o sistema, e o que o envolve, completamente. O sistema (a matéria) teria a adição de vários estados mentais possíveis. Se esses átomos fizessem parte de uma pedra, os estados mentais da pedra seriam muito primitivos, essencialmente irrelevantes. Agora, se esses mesmos átomos fizessem parte de uma pessoa, a coisa mudaria de figura e teríamos acesso a uma enorme variedade de estados mentais. Nesta visão dualista, para entender a consciência, teríamos que levar em consideração todas as propriedades desses estados mentais [6]. 

Se essas propriedades mentais afetassem o comportamento das partículas da mesma forma que propriedades físicas, como descargas elétricas, afetam, então elas seriam apenas um outro tipo de propriedade física e fariam parte do mundo sub-atômico da mecânica quântica [6]. Mas isto não ocorre. Assim sendo, se tivéssemos duas coleções idênticas de átomos, ambas tomando a forma de um ser-humano, mas uma autoconsciente (o ser-humano) e a outra não (os p-zombies), então a consciência e seus estados mentais não são puramente físicos. Há algo mais aí. Não necessariamente um espírito ou alma, mas certamente um aspecto mental em adição à configuração física. Embora reconheça que, em princípio, não há nada, físico ou digital, que impeça um computador de adquirir autoconsciência (mesmo porque não temos ideia de como essa emergência aconteceria), não há razão para fingirmos que experiências subjetivas existam apartadas de um aspecto mental, seja ele adicional (como defendo) ou intrínseco. Não creio que LaMDA possua algum aspecto mental em adição à sua configuração digital. Explico o motivo desta minha conclusão a seguir. 

A controvérsia em torno do sistema LaMDA, e a questão do que se fazer quando uma entidade se autodenomina “consciente”, me fez lembrar de um artigo publicado em 2021 chamado “Falsification and Consciousness” (algo como falsificação e consciência) [5] dos pesquisadores Johannes Kleiner e Erik Hoel. Nele, os autores argumentam que as teorias que defendem que a consciência pode ser determinada pelo relato ou comportamento, estão presas entre o que chamaram de “a rock and a hard place”, em tradução livre minha, uma pedra e um lugar difícil. A expressão é usada quando uma pessoa é confrontada por duas escolhas ou circunstâncias igualmente perigosas ou difíceis. Quando isto acontece (escolhas do tipo “a rock and a hard place”), muitos tendem a ficar apenas com suas intuições ou fé religiosa, como parece ser o caso do Blake Lemoine, como mostra o tweet abaixo:

https://twitter.com/cajundiscordian/status/1536503474308907010

Voltando ao artigo de Kleiner e Hoel, os autores argumentam que a escolha por se manter com as suas intuições em momentos muito difíceis ocorre porque a inteligência e o comportamento são dissociáveis da consciência (algo que chamam de “tese da ortogonalidade”). Ainda segundo os autores, as teorias científicas atuais da consciência, que afirmam que esta (a consciência) pode ser determinada pelo relato ou comportamento, permite que se consiga falsear a própria consciência e consequentemente, as teorias que a define (por isso essas teorias estariam presas entre “a rock and a hard place”). É também por este motivo que David Chalmers argumenta que a realidade física (ou digital) precisaria ser aumentada por algum tipo de ingrediente adicional para que possamos explicar a consciência [6]. 

Vejamos o raciocínio de Kleiner e Hoel aplicado ao caso LaMDA. Aqui usarei o processo de estruturação do raciocínio lógico da abdução. Primeiro, vamos determinar uma premissa: para qualquer relato de um cérebro humano alegando consciência de algo, existe algum outro sistema físico ou digital, como o sistema LaMDA, que também pode fornecer tal relato. Agora, vejamos a regra: um sistema como LaMDA tem um conjunto radicalmente diferente de funções em comparação com o cérebro, ou seja, o sistema realiza seu relato por meios totalmente diferentes do cérebro. Essas diferenças não são apenas em termos do seu substrato subjacente (um é feito de matéria na forma de neurônios orgânicos, o outro de bits na forma de neurônios artificiais), mas também, em como ambos processam as coisas, sua arquitetura interna, seus mecanismos e caminhos. Como conclusão, temos a probabilidade de que uma teoria, dado o mesmo relato de autoconsciência de ambos (do cérebro humano e de LaMDA), consiga provar que a experiência consciente em um cérebro humano e em um sistema como LaMDA seja equivalente, é muito baixa. O que significa, por definição, que há uma incompatibilidade em um deles (e não creio que seja no cérebro humano). Isto acontece porque o que acabei de descrever não é um ensaio aleatório de Bernoulli, em que há um experimento aleatório com exatamente dois resultados possíveis (por exemplo, presença e ausência de consciência), em que a probabilidade do indicador (a consciência) estar presente ou não é a mesma toda vez que o estudo é realizado, independente do sujeito analisado (ser-humano ou LaMDA). Não é a mesma porque estamos comparando “alhos com bugalhos”, ser-humano com p-zombie.

Assim, se os relatos não correspondem às previsões da teoria usada sobre as experiências do cérebro e de LaMDA, isso falsificaria a própria teoria da consciência usada. Esta é a pedra a qual  Kleiner e Hoel se referem. Talvez até pudéssemos contornar isso com uma teoria superflexível que prestasse pouca atenção ao funcionamento interno de um sistema físico ou digital (por exemplo, como um processamento de informação é realizado) e se preocupasse apenas com sua entrada e saída. Desse modo, os autores ressaltam que, ao seguir nesse caminho, há uma grande probabilidade de que a teoria usada acabe se tornando infalsificável, já que teria que ser tão flexível que basicamente qualquer um terminaria concluindo logicamente que “qualquer coisa que me diga que é consciente, é consciente”, sendo verdade ou não. Para Kleiner e Hoel, esse é o lugar difícil. Note que não há nenhum caminho óbvio entre uma teoria que defenda que a consciência possa ser determinada pelo relato ou comportamento e um resultado que possa validar que um sistema físico ou digital, como LaMDA, possa se tornar autoconsciente. Para mim, LaMDA conseguiu falsear a autoconsciência. Não é algo verdadeiro.

Mas, não é este o enfoque que gostaria de dar a esse texto.  

Quanto mais reflito neste caso LaMDA, mais me convenço de que um ponto mais amplo tem sido desconsiderado. Há uma observação humanista a ser tirada de todo esse assunto, que é o fato de sermos muito ruins tanto em atribuir, quanto em retirar a capacidade de autoconsciência dos outros. Não apenas de animais ou robôs, mas também de outros seres-humanos. Me parece que fazemos isso por uma questão de conveniência. Muito ouço falar sobre a tendência humana de antropomorfizar bichos de pelúcia ou cãozinhos, presenteá-los com uma consciência como a nossa. Mas, raramente ouço sobre o oposto, o despojo da consciência. Penso que damos e despojamos a consciência aos outros, ou pelo menos a consideração dessa consciência, o tempo todo. Muitas vezes como uma recompensa por bom comportamento ou concordância.

Pode-se ver essa tendência com mais clareza no mundo online, principalmente o das redes sociais. Tendemos a ser dualistas seletivos: consciência para mim e meus amigos, nada para você que discorda de mim. Parece que somos cercados por hordas de p-zombies no mundo online: alguns p-zombies escreveram um artigo do qual não gostei, alguns p-zombies estão postando suas opiniões problemáticas no Twitter, alguns p-zombies estão exibindo seu estilo de vida estúpido no Instagram. 

No mundo real, estamos constantemente recebendo dicas sobre o conteúdo da consciência de outra pessoa. Com isso, a humanidade física de uma pessoa deixa uma impressão em nós, que nos demonstra a solidez e a realidade da sua consciência. Por exemplo, quando as máscaras faciais começaram a ser removidas, me impressionei com a realidade de todo o rosto de pessoas que só havia conhecido e visto com máscaras durante os momentos mais críticos da pandemia. Imagine como ficaríamos impressionados se víssemos aqueles que odiamos online sem a máscara das redes sociais? Nós os(as) veríamos em suas casas, descansando em seus sofás e assistindo TV com seus cônjuges, separando contas no balcão da cozinha, abraçando seu cachorro, ou simplesmente jogados(as) na frente do computador, comendo o mesmo tipo de comida que comemos e ouvindo o mesmo tipo de música que ouvimos. Creio que esses momentos de realidade fariam um estrago no ódio online. 

É por isso que a frase “você nunca diria isso na cara da pessoa”, tem um significado mais profundo do que simplesmente “porque você pode apanhar”. A verdade é que podemos perceber que estamos falando com alguém autoconsciente. É por isso que qualquer história em que o vilão é retratado como protagonista, mesmo que suas ações ainda sejam más, automaticamente se torna um “anti-herói”. Simplesmente não podemos odiar alguém cuja perspectiva estamos adotando. Isso não quer dizer que se tenha que abrir espaço para incivilidades, estas devem ser combatidas, mas que não fechemos a porta para a civilidade nesse processo.

Referências

[1] Lemoine, Blake. “What Is LaMDA and What Does It Want?” Medium, June 11, 2022, https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489.
[2] Lemoine, Blake. “Is LaMDA Sentient? — An Interview”. Medium, June 11, 2022, https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917.
[3]  Tiku, Nitasha. “The Google Engineer Who Thinks the Company’s AI Has Come to Life”. Washington Post. www.washingtonpost.com, June 11, 2022, https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/.
 [4] Collins, Eli; Ghahramani, Zoubin. “LaMDA: Our Breakthrough Conversation Technology”. Google, May 18, 2021, https://blog.google/technology/ai/lamda/.
[5] Kleiner, Johannes; Hoel, Erik. “Falsification and Consciousness”. Neuroscience of Consciousness, vol. 2021, no 1, February, 2021, p. niab001. DOI.org (Crossref), https://doi.org/10.1093/nc/niab001.
[6] Carroll, Sean. “Zombies must be dualists”. Nautilus. June 13, 2016, https://nautil.us/zombies-must-be-dualists-4803/.
Add a comment

Deixe um comentário