O Google anunciou a suspensão da geração de imagens humanas por inteligência artificial. A decisão veio após relatos de erros do Gemini para representar figuras e acontecimentos históricos.
A funcionalidade começou a operar no início de fevereiro, mas somente nos últimos dias, houve relatos de inconsistências raciais, de gênero e históricas. Por exemplo, usar pessoas negras e asiáticas para representar soldados nazistas.
LEIA MAIS: Como consultar a placa de um carro online? Entenda mais sobre esse item!
Com isso, houve uma controvérsia gigantesca entre usuários e usuárias. De um lado, progressistas afirmam que as falhas escondem discriminações notórias ao longo da história.
Por outro, pessoas mais conservadoras afirmam que a plataforma esteja tentando “forçar” a diversidade nas representações. Independente das interpretações, a empresa emitiu um comunicado de desculpas, afirmando estar tomando providências para corrigir os erros.
Impactos dos erros do Gemini
A princípio, a polêmica das falhas está na imprecisão histórica que elas causaram. Entre os apontamentos, estão:
- uma papisa negra
- mulheres e pessoas indígenas entre os ditos “pais fundadores” dos Estados Unidos
- vikings com feições asiáticas
Embora nada prove que, de fato, pessoas de diferentes raças e gêneros tenham participado, por exemplo, da independência estadunidense, as medidas podem apagar preconceitos do passado. Ao menos, é o que afirmam os usuários e usuárias mais progressistas.
Mas, por que esse tipo de falha acontece? De modo geral, as plataformas de IA trabalham com dados fornecidos durante seu treinamento. Daí, quando a pessoa usuária insere um comando, mas o bot não tem as informações necessárias, acaba “inventando” ou usa conteúdo impreciso.
É o que se chama de “alucinações”, resultado da ação da máquina para não deixar o usuário ou usuária sem resposta. O problema é que, quando isso acontece, pode levar a resultados que não condizem com a realidade histórica ou social.
Declarações do Google
Antes os relatos e polêmica, a Google se pronunciou sobre os erros do Gemini. Segundo a gigante da tecnologia, os equívocos foram gerados em razão das correções de preconceito de gênero e raça, comuns nas ferramentas de inteligência artificial.
Dito de outra maneira, na tentativa de fomentar a diversidade, a IA criou imagens sem qualquer coerência, além de disfarçar discriminações que, como todo mundo sabe, tantos grupos sofreram (e ainda sofrem) ao longo da história.
Embora a variedade de gênero e raça seja fundamental, inclusive para o repertório do bot, o Google reconhece a necessidade de aprimoramento da tecnologia. Por isso, enquanto trabalha na correção dos comandos, suspendeu as imagens generativas com representação humana.
Já em memorando interno, o CEO da Alphabet, Sundar Pichai, afirmou que nenhuma inteligência artificial é perfeita. No entanto, os erros do Gemini são inaceitáveis, sobretudo por ofender grupos e demonstrar vieses.
Sobre o Gemini
O Gemini é o sistema de inteligência artificial do Google, que engloba tanto o método criado pela companhia quanto a plataforma anterior, o Bard. Desde o começo, o programa tem o objetivo de ser um instrumento “multimodal”, tratando áudio, textos, códigos, vídeo e imagens.
LEIA MAIS: Você usa antivírus no smartphone? Veja porque você deveria ter um!
Logo após o lançamento, a empresa divulgou a liberação da função de criação de imagens no ambiente do Gemini. Assim, ampliava a concorrência com o ChatGPT. Nos últimos dias, porém, postagens nas redes sociais criticaram a inexatidão histórica da tecnologia.
E você, o que achou dos erros do Gemini? Chegou a detectar algum?
Com informações de Canaltech e Brazil Journal
0 comentários