Criando um rosto para a inteligência artificial

Criando um rosto para a inteligência artificial Criando um rosto para a inteligência artificial

Uma das coisas mais incríveis do SXSW é, quase que por acidente, ter contato com abordagens e perspectivas que rompem completamente com o que sabemos sobre determinado assunto. Foi mais ou menos o que rolou anteontem, quando, ao não conseguir entrar em um painel que eu queria por excesso de público, optei por um aleatório e parei num papo da NASA sobre o maior desafio da para a colonização de Marte: cultivar micróbios no planeta vermelho, já que sem eles a vida humana não existe. Ontem, mesmo com outros planos, acabei entrando em uma session chamada ‘The new faces of AI’. Confesso que mesmo estando envolvido em projetos que tem algo de Deep Learning e AI, a perspectiva que veio à tona foi incrivelmente disruptiva. Portanto, resolvi compartilhar por aqui.

Mark Sagar é criador e CEO da empresa neozelandesa Soul Machines, além de vencedor de 2 Oscars pela criação tecnológica dos personagens de filmes como Avatar e Spider Man 2. Seus trabalhos, no entanto, estão cada vez mais direcionados à criação de interfaces realistas para sistemas computacionais interativos que vão revolucionar a relação entre pessoas e máquinas. E tudo isso é feito com uma combinação entre modelos baseados na biologia do rosto humano (ele é Ph.D. em Bioengenharia) e em sistemas neurais.

Para Sagar, as experiências mais significativas que temos na vida são baseadas na interação face a face, o que ainda está longe quando se fala de interação homem máquina. Assim, seu desafio de criar uma cara real para a inteligencia artificial tende a ter profundo impacto nas nossas relações com a tecnologia. Com tais avanços, destacou, poderemos em breve co-criar e co-operar de verdade com sistemas computacionais que consigam expressar em tempo e de forma real uma interconexão entre o que acontece dentro do sistema com os estímulos do ambiente externo. Na pratica, é ter representações e movimentações faciais capazes de comunicar o não-verbal e expressar empatia exatamente como fazemos. Mas para isso, ele praticamente replicou virtualmente o funcionamento de partes do nosso cérebro e de nossas redes neuro comportamentais.

Não é nada simples. Ele apresentou, inclusive, os modelos de respiração que já criaram, assim como os inúmeros níveis e expressões para feedback de afirmação, de negação, de duvida, das nossas emoções primárias e secundárias, além das diversas combinações possíveis. Também falou dos níveis de atenção, da questão da repetição (que ele chamou de empathetic behavior), entre outros, que tem um papel enorme nas interações sociais, onde passarão a ser inseridos os sistemas de AI com o trabalho da Soul Machines.

Mais impressionante ainda: são interfaces que se mantem aprendendo. E não apenas plataformas programáveis. Estamos falando de inteligência artificial também para as emoções.

Para ilustrar, Sagar demostrou dois projetos reais que a empresa vem realizando. O primeiro foi o Baby X, no qual estão criando um bebê ultra realista. É impressionante.

O outro foi o projeto Nadia, primeiro trabalho comercial da Soul Machines, feito com o governo da Austrália para ser um assistente pessoal dos usuários do NDIS (National Disability Insurance Scheme), órgão que cuida de pessoas com desabilidades e necessidades especiais no país. Confira no vídeo.

https://www.youtube.com/watch?v=3jMQuTXTj6c

[signoff]

Add a comment

Deixe um comentário