Há alguns dias, publicamos aqui as incoerências em imagens históricas que o Gemini gerou, lembra? Mas, ainda que isso tenha gerado uma repercussão complicada na época, não se trata de algo incomum. Pelo contrário, as alucinações de IA são bem mais corriqueiras do que se imagina e, conforme recomendam especialistas, é bom ficar de olho no que se pesquisa em bots do tipo ChatGPT, Gemini e Copilot.
Só para exemplificar, trouxemos 6 destas situações (e os absurdos que elas contêm).
No caso específico do Gemini, os erros incluíam, por exemplo, as imagens de uma papisa negra ou pessoas asiáticas entre soldados nazistas. Diante das consequências negativas, o Google suspendeu a função na plataforma até as devidas correções. Contudo, mesmo informações escritas não são sempre confiáveis.
LEIA MAIS: 6 grandes invenções feitas por crianças e que usamos até hoje!
O que são as alucinações de IA?
Resumidamente, trata-se do termo que dado às informações que o sistema, seja Gemini, ChatGPT, Copilot ou outra IA, fornece de forma, aparentemente, bem coerente. Mas, quando vamos investigar, não tem nada de concreto nelas. De fato, apresentam desde fatos incorretos até dados sem muita conexão, além de mesmo tendenciosos.
Isso ocorre por motivos diversos, por exemplo, a geração de dados é feita conforme informações disponíveis nos motores de busca até uma determinada data. Mas, a explicação por trás disso está na Large Language Model, ou, grande modelo de linguagem. É a tecnologia pela qual a IA generativa avalia grande quantidades de texto que extrai da internet.
Como explica uma reportagem da BBC, quando identifica padrões, a LLM “advinha” a palavra que vem na sequência. É como se fosse um “preenchimento automático”, só que, nem sempre, o conceito que vem está correto. Sobretudo, diante da quantidade de informações falsas que a gente (e a máquina) vê por aí e, como alguns seres humanos, a IA tende a repetir.
5 exemplos de alucinações de IA que são uma verdadeira “viagem”!
Só para ilustrar, trouxemos alguns episódios nos quais a IA deu uma bela “escorregada” nos dados. Veja só:
- A informação de que a coroação do rei Charles III foi no dia 19 de maio, quando na verdade, ocorreu no dia 06 do mesmo mês. Aqui, o erro foi do ChatGPT
- Início da Segunda Guerra Mundial em 1940, também segundo o ChatGPT, sendo que o ano foi 1939
- Mais uma vez, a IA da Open AI listou nove brasileiros ganhadores do Prêmio Nobel. Infelizmente, nunca tivemos um compatriota na lista
- A eleição de Elon Musk como presidente dos Estados Unidos em janeiro deste ano: isso foi notícia apenas no Gemini, pois nem há um novo presidente no país, menos ainda, o dono da Tesla!
- Ah, em mais uma das alucinações de IA, o Gemini ainda afirmou que Musk inaugurou uma cidade em Marte!
- Por fim, novamente, o ChatGPT afirmou que o primeiro presidente do Brasil foi Pedro I. No entanto, o título coube a Deodoro da Fonseca
LEIA MAIS: 10 aplicativos superinteressantes que só tem no iPhone
Mas, aparentemente, os relatos não são os únicos. A Forbes mencionou uma pesquisa de agosto do ano passado de autoria da Universidade de Pudue, nos Estados Unidos. Segundo ela, 52% das respostas que o ChatGPT gerava eram incorretas.
O melhor é ter cuidado
Diante destes casos, o ideal é ter bastante cautela nas informações que se pesquisa em qualquer bot de inteligência generativa. Embora a escrita seja bem elaborada e traga dados de forma muito rápida, nem sempre dá para confiar neles. Aliás, esta é uma recomendação das próprias empresas, como Google e Microsoft. Logo, vamos checar as notícias antes de sair compartilhando, hein?