O projeto, anunciado nesta última terça-feira, tem como objetivo ensinar os sistemas de IA a detectarem automaticamente eventos violentos na primeira pessoa sem sinalizar imagens de videogames ou programas na TV.
O projeto deve utilizar de imagens de body-cams de treinamento de armas de fogo fornecidas pelo governo dos EUA e pelo Reino Unido – além de mais agências policiais não citadas. A gigante tech também quer expandir sua definição de terrorismo para incluir não apenas atos de violência praticados para atingir um objetivo político ou ideológico, mas também tentativas de violência, especialmente quando visadas a civis com a intenção de coagir e intimidar.
A decisão acontece depois que as IAs do Facebook não conseguiram detectar uma transmissão ao vivo do recente tiroteio em massa em uma mesquita em Christchurch, Nova Zelândia.