Frances Haugen ganhou a ateção do mundo no ano passado, quando resolver “botar a boca no Trambone” e denunciar práticas nocivas do Facebook (inclusive esse movimento de mudar de nome para Meta como tentaiva de limpar um pouco sua imagem).
Foi assim que ela virou a “Whistleblower da Meta” e foi convidada a testemunhar em frente a um subcomitê do Senado sobre os efeitos nocivos que os algoritmos e os métodos de curadoria de conteúdo do Instagram e do Facebook têm sobre usuários jovens. Ela trouxe documentos internos vazados do Facebook mostrando que a empresa sabe que esses métodos são prejudiciais, mas que mesmo assim os mantêm, simplesmente porque são lucrativos.
Em sua palestra no SXSW, em que foi aplaudida de pé, a cientista de dados comparou as práticas da empresa de Mark Zuckenberg em relação às demais big techs, elogiou as práticas de transparência da Apple e Google e mais uma vez apresentou as problemáticas que observou no FB entre 2019 e 2021. E foi além: disse que “temos que incentivar o boicote de anunciantes”
Segundo reportado pelo M&M, o Facebook reproduz o sistema de recompensar publicações com grande engajamento aumentando seu alcance. Em uma pesquisa realizada por Haugen em 2019, a cientista descobriu que 12% dos estadunidenses que publicavam conteúdo na plataforma eram responsáveis por 80% do impacto recebido na plataforma.
Da mesma forma foi desenvolvido o recurso que exibia conteúdos relacionados quando o usuário compartilhava notícias no feed em 2016. “O Facebook quer continuar te dando conteúdo que você possa continuar na plataforma. Todas as histórias que apareciam eram parecidas, mas elas eram 15% mais sensacionalistas, como conspiração”, explicou.
O problema com desinformação e extremismo se intensificou em 2019. Notando que o público estava produzindo menos conteúdo próprio, a plataforma começou a comunicar com maior intensidade a sua iniciativa de grupos, pressionando usuários a entrarem em comunidades de interesses. “Eles fizeram experimentos em indivíduos e descobriram que o jeito era te dar mais dopamina”, contou. Isso se tornou um problema ainda maior em 2020, quando ainda buscando reter a atenção do usuário, a ferramenta permitiu que um usuário compartilhasse a mesma mensagem em vários grupos. Aumentou de 20% a 30% a desinformação.
Denunciados pela desinformação na plataforma, mesmo em outras questões, o Facebook começou a trabalhar com inteligência artificial para aplicar técnicas de fact-checking. Segundo Frances, IA resolve de 3% a 5% do conteúdo violento. “Quando você dá um livro o IA consegue entender sobre o que é, mas se você dá menos texto para o sistema, não há muito dado e você precisa de um forte IA para entender”, explicou. Dessa forma, a leitura do conteúdo publicado no feed não é efetiva. Com mais investimentos, esse número pode chegar a 12%. Com um olhar humano, o conteúdo demora até três dias para ser eliminado, mas até isso acontecer, o conteúdo já atingiu 75% do alcance esperado.
Além disso, a profissional argumentou que o Facebook não cria sistema de machine learning para atender todas as línguas e dialetos globais, então o combate à desinformação novamente não é efetivo ao redor do mundo, principalmente para aquelas comunidades que têm o Facebook como sua principal plataforma de informação.
Esse é um assunto importante, que todos os profissionais ligados às áreas de comunicação precisam se aprofundar, afinal, existe sempre uma associação entre marcas e onde elas aparecem. É preciso monitorar de perto o papel de todas as redes nas vidas das pessoas ennao apenas enxergar a oportunidade publicitária. Existe todo um movimento de propósito das marcas e não posso imaginar um tópico ais importante neste sentido do que a maneira como anunciantes tem se utilizado do meio digital como um todo.