Uma equipe de pesquisadores de Harvard – com o laboratório de inteligência artificial MIT-IBM Watson – criou um sistema que, segundo eles, pode detectar se o texto foi gerado por outra IA. Eles esperam criar as bases para futuras ferramentas que possam facilitar a identificação de comentários falsos ou mesmo artigos de notícias on-line.
O Giant Language model Test Room é uma “ferramenta para apoiar os humanos na detecção de um texto gerado por um outra IA”, de acordo com uma pré-impressão da pesquisa publicada no arXiv em junho. Você pode experimentar a demonstração clicando aqui.
O conceito básico por trás da ferramenta é bastante simples: o texto escrito por humanos é muito mais imprevisível na maneira de como é estruturado. O sistema não poderá “detectar automaticamente o abuso em larga escala” devido à sua escala limitada. Pelo momento, é um teste, existem erros de probabilidades e ele foi projetado para detectar textos falsos apenas em casos individuais. Ainda assim um grande passo real para lutar contra a gigante guerra das notícias falsas online.