Quem devo matar? Teste os dilemas morais dos carros autônomos na Moral Machine

Em um mundo cada vez mais autônomo, onde máquinas e dispositivos devem poderão tomar decisões de vida ou morte, qual a escolha moralmente mais adequada?

Para testar os limites do julgamento, o Massachusetts Institute of Technology: MIT desenvolveu o Moral Machine, uma plataforma que visa identificar como as pessoas escolhem quem deve viver e quem deve morrer em uma situação de falha repentina dos freios de um carro autônomo.

Clique na imagem para acessar a Moral Machine

Os cenários envolvem homens, mulheres, crianças, animais, idosos, grávidas, obesos, atletas, executivos, moradores de rua, criminosos, entre outros perfis que buscam justamente confrontar o princípio aristotélico do “mal menor”: na inevitabilidade de escolhas ruins, qual trará menor sofrimento para a humanidade?

Você também pode criar seus próprios cenários e acompanhar como os seres humanos respondem a este experimento social.

5 comments
  1. Obgd! Com “máquinas tomando decisões”, é curioso tentar racionalizar em uma árvore de decisões as inúmeras variáveis que levamos em consideração em dilemas morais. A normatização das inteligências artificiais versus a subjetividade do comportamento humano :)

  2. A questão moral (e provavelmente judicial por tabela) envolvendo as decisões tomadas pelos carros autônomos é realmente muito interessante e faz pensar. São coisas que ultrapassam os limites das tecnologias, como as leis que regulamentam o uso de drones, ou o aprendizado das máquinas por imitação do comportamento humano (machine learning), coisas que estão surgindo em função dessas novidades todas. Ótima leitura e reflexão JC.

    1. Obgd! Com “máquinas tomando decisões”, é curioso tentar racionalizar em uma árvore de decisões as inúmeras variáveis que levamos em consideração em dilemas morais. A normatização das inteligências artificiais versus a subjetividade do comportamento humano :)

Deixe um comentário