Com a internet facilitando a disseminação de teorias da conspiração, algumas inofensivas e outras com potencial para causar grandes danos, pesquisadores estão explorando novas estratégias para combater esse problema. Uma recente pesquisa realizada por especialistas do MIT Sloan e da Universidade de Cornell sugere que chatbots de Inteligência Artificial (IA) podem ser uma ferramenta eficaz nessa tarefa.
O estudo mostrou que conversar sobre uma teoria da conspiração com um modelo de linguagem de IA pode reduzir a crença das pessoas na teoria em até 20%. Este resultado foi observado mesmo em indivíduos que consideram essas crenças importantes para sua identidade. Os resultados foram publicados na revista Science e indicam uma possível nova estratégia para engajar e educar pessoas que aderem a teorias infundadas.
Desafios em mudar crenças
Modificar as crenças de pessoas que acreditam em teorias da conspiração é uma tarefa complexa, segundo os pesquisadores. Uma das principais dificuldades é que cada pessoa pode se apegar a diferentes aspectos de uma teoria, tornando ineficaz a apresentação de um único conjunto de fatos.
No entanto, os modelos de IA, com sua vasta base de dados e capacidade de adaptação, podem oferecer respostas personalizadas e com bons resultados para cada indivíduo.
LEIA TAMBÉM: Uso do ChatGPT pode prejudicar desempenho de estudantes, aponta estudo
Como o estudo foi realizado?
No experimento, 2.190 participantes foram convidados a interagir com o GPT-4 Turbo, o modelo de linguagem mais recente da OpenAI no momento da pesquisa. Eles descreveram uma teoria da conspiração em que acreditavam, explicaram suas razões e apresentaram as evidências que consideravam válidas. Com base nessas informações, o chatbot gerou respostas adaptadas, focando em ser o mais persuasivo possível.
Além disso, durante o estudo, os participantes avaliaram o quanto acreditavam na teoria em questão, em uma escala de 0 a 100, e sua importância para sua visão de mundo. Após três rodadas de conversa com o chatbot, houve uma redução média de 20% na crença dos participantes em suas teorias escolhidas.
Resultados promissores e precisão do modelo adotado
Os resultados sugerem que a interação com chatbots pode influenciar a percepção das pessoas sobre teorias da conspiração. Mesmo em um ambiente controlado, um impacto de 20% na mudança de crenças é relevante, e destaca o potencial dessa estratégia.
Durante a condução do estudo, os pesquisadores tomaram cuidado para evitar que o modelo de IA fornecesse informações incorretas, um fenômeno conhecido como “alucinação”.
Alucinações de IA ocorrem quando um modelo de linguagem gera informações que parecem plausíveis, mas são falsas ou imprecisas. Isso pode acontecer porque a IA é treinada em uma vasta quantidade de dados da internet e, em alguns casos, pode “inventar” detalhes ao tentar responder a perguntas ou fornecer explicações.
Deste modo, para mitigar esse risco, os pesquisadores empregaram um verificador de fatos profissional para revisar a precisão das informações fornecidas pelo chatbot. Das 128 afirmações geradas pela IA durante o estudo, 99,2% foram consideradas verdadeiras, com apenas 0,8% sendo enganosas. Essa alta taxa de precisão foi atribuída à vasta quantidade de conteúdo sobre teorias da conspiração disponível online, que está bem representada nos dados de treinamento do modelo.
LEIA TAMBÉM: Planejando viagens com a IA: Veja o que fazer (e o que evitar!)
Potencial de aplicação prática de chatbots para combater teorias da conspiração
Os pesquisadores acreditam que essa estratégia pode ser aplicada de diversas maneiras, como em fóruns online ou redes sociais, onde chatbots poderiam fornecer respostas corretivas a usuários que compartilham informações falsas. Outra aplicação sugerida é o uso de anúncios direcionados em mecanismos de busca para fornecer informações confiáveis em resposta a pesquisas relacionadas a teorias da conspiração.
Além disso, a pesquisa revela um lado mais receptivo das pessoas à apresentação de evidências contrárias às suas crenças.
“As pessoas foram notavelmente receptivas a evidências”, afirma Gordon Pennycook, professor associado da Universidade de Cornell e coautor do estudo. “E isso é realmente importante”.
Referências:
Thomas H. Costello et al. ,Durably reducing conspiracy beliefs through dialogues with AI.Science385,eadq1814(2024).DOI:10.1126/science.adq1814
0 comentários