Era questão de tempo. Há alguns anos a tecnologia deepfake vem atravessando o famoso uncanny valley, aquele meio-do-caminho em que as coisas ficam meio artificiais demais, entre o digital e o real. Agora, aparentemente, a tecnologia está chegando ao outro lado da vale, não apenas por se tornar indistinguível de rostos humanos, mas indo além e passando também uma sensação de confiança.
Se até hoje os “garotos(as) propaganda” nos seduziam usando beleza ou notoriedade, agora a Inteligência Artificial traz uma novidade para esse jogo de sedução: uma confiança inconsciente, daquele tipo que a gente não consegue nem explicar o motivo, aquele rosto amigável que volta e meia aparece entre grupos de amigos, vizinhos e familiares. Um julgamento que nosso cérebro faz em uma fração de segundo, baseado em características absolutamente sutis, e que, ao que tudo indica, estarão em breve à disposição de anunciantes, políticos e sabe-se lá mais quem.
A confiança que vem de um outro comum, como nós (só que não)
A proliferação da tecnologia deepfake causa uma preocupação de que a IA possa começar a distorcer nosso senso de realidade.
Em 2018, a Nvidia surpreendeu o mundo com uma IA que era capaz de produzir fotos ultra-realistas de pessoas que não existem. A tecnologia era baseada em um tipo de algoritmo conhecido como Rede Contraditória Generativa (GAN), que funciona com duas redes neurais, uma contra a outra. Uma tenta detectar falsificações e a outra tenta aprimorar resultados a partir do feedback da primeira. feedback. Depois de um certo tempo, as GANs vão aprendendo e melhorando suas criações e começam a gerar falsificações convincentes, até que não possam mais ser percebidas e/ou detectadas como fakes por humanos.
De lá pra cá, a tecnologia evoluiu ainda mais, agora com algumas implicações preocupantes, afinal viabilizam uma série de enganações, como por exemplo a utilização de rostos de pessoas (geralmente celebridades) em filmes pornográficos sem o seu consentimento, ou declarações falsas de figuras públicas e o consequente aumento na desconfiança da mídia online.
Embora seja possível usar a própria IA para detectar deepfakes, as falhas e falta de pro-atividade das empresas de tecnologia em efetivamente moderar material sugerem que isso não será uma solução definitiva.
A pesquisa
Para testar reações a rostos falsos, os pesquisadores (fonte: https://www.pnas.org/content/119/8/e2120481119) usaram uma versão atualizada do GAN da Nvidia para gerar 400 rostos, com uma divisão de gênero igual e com 100 faces de cada um dos quatro grupos étnicos: preto, caucasiano, leste asiático e sul-asiático.
abaixo, o Tom Cruise que não é o Tom Cruise
Uma amostragem com 315 participantes foi convidada a julgar 128 rostos e decidir se eram falsos ou não. Eles alcançaram uma taxa de precisão de 48%, na verdade pior do que os 50% de um palpite aleatório.
Um segundo grupo com outros 219 participantes, passou por um breve “treinamento básico” com apontamento de algumas dicas de falhas que costumam aparecer em rostos falsos. O desempenho desse grupo foi apenas ligeiramente melhor, com 59% de acerto.
Em um experimento final, a equipe decidiu testar se reações intuitivas poderiam dar um resultado melhor. Eles decidiram ver se a confiabilidade — algo que normalmente decidimos em uma fração de segundo, poderia ajudar as pessoas a fazer melhores escolhas. E foi aí que descobriram que os participantes classificavam 8% mais rostos falsos como sendo confiáveis. Uma diferença pequena, mas estatisticamente bastante significativa.
Dado o uso nefasto dos deepfakes, trata-se de um achado preocupante. Os pesquisadores sugerem que parte da razão pela qual os rostos falsos parecem ser mais confiáveis é porque eles tendem a se parecer mais com rostos comuns porque são feitas por junções de vários tipos de faces.
Os pesquisadores dizem que suas descobertas sugerem que aqueles que desenvolvem a tecnologia subjacente por trás dos deepfakes precisam pensar muito sobre o que estão fazendo. Um primeiro passo importante é se perguntar se os benefícios da tecnologia superam seus riscos. A indústria também deve considerar medidas protetivas obrigatórias, como a adição de marcas d’água e disclaimers.
Fonte: siga este link para o PDF com o estudo completo