A inteligência artificial (IA) trouxe inúmeras vantagens para o mundo moderno, – isso não é um segredo – mas também apresenta sérios riscos quando se trata de golpes e fraudes.
Para te auxiliar a entender a gravidade disso, abaixo falaremos dos principais perigos que a IA trouxe, além de discutir maneiras de se proteger, abordando alguns casos reais que ilustram essas ameaças. Confira tudo em detalhes!
LEIA MAIS: 10 truques e recursos do Windows 11 que você precisa conhecer
1. O uso das imagens falsas
A facilidade de criar imagens falsas com IA generativa, como os modelos DALL-E e Midjourney, está permitindo que golpistas produzam produtos fictícios para atrair compradores desavisados.
Um exemplo recente que aconteceu fora do Brasil, são as flores “Cat’s Eye Dazzle”, geradas por IA e divulgadas em redes sociais como o Facebook.
Basicamente os golpistas criaram a foto de uma espécie incrível de planta, que não existe no mundo real, divulgando as tais “sementes” em grupos e canais do meio digital. Esse caso ilustra perfeitamente bem como a tecnologia está sendo utilizada para enganar consumidores.
2. A credibilidade da narração por voz da IA
As vozes geradas por IA estão sendo utilizadas para conferir credibilidade a vídeos e anúncios fraudulentos. Embora atualmente seja possível identificar certas características robóticas na fala, espera-se que, infelizmente para esse contexto, essas ferramentas melhorem com o tempo, tornando ainda mais difícil distinguir o real do falso.
Vamos combinar que essa possibilidade traz um risco real para a aplicação de golpes, especialmente quando falamos sobre o recurso que clona vozes de outras pessoas.
3. Golpes em aplicativos de namoro
Os golpistas estão utilizando chatbots de IA em aplicativos de namoro para lançar redes mais amplas e enganar as vítimas.
Essa abordagem, que pode variar desde encontrar potenciais parceiros até realizar golpes financeiros, ilustra como a IA também está sendo explorada para atingir as pessoas em um nível pessoal.
4. Vídeos gerados por IA
Além das vozes de inteligência artificial nos vídeos, também devemos citar o risco da criação de material indevido com os recursos atuais para o audiovisual.
Embora atualmente a conversão de texto em vídeo por IA não esteja amplamente disponível, ferramentas como o OpenAI SORA mostram que essa tecnologia está avançando rapidamente.
Isso levanta preocupações sobre a disseminação de vídeos falsos que podem ser utilizados para enganar consumidores e promover produtos fraudulentos.
5. Falsificação de avaliações
Com o uso de grandes modelos de linguagem, a falsificação de avaliações se tornou mais fácil do que era antes. Além disso, a IA também pode ser utilizada para elaborar críticas injustas contra produtos concorrentes, aumentando ainda mais os desafios enfrentados pelos consumidores na identificação de informações confiáveis.
A importância da educação do consumidor
Considerando todas as ameaças que destacamos aqui, é muito importante estar ciente dos riscos impostos pelos golpes impulsionados pela inteligência artificial.
Os consumidores devem se educar sobre como identificar e evitar essas armadilhas. Instituições governamentais, organizações sem fins lucrativos e empresas do setor privado podem desempenhar um papel importante na promoção da conscientização.
Além disso, considerando o atual cenário, governos e autoridades reguladoras devem trabalhar em conjunto com as empresas para estabelecer diretrizes claras e medidas de aplicação da lei que ajudem a combater eficazmente as práticas fraudulentas.
LEIA MAIS: Afinal, por que os teclados não seguem a ordem alfabética?
Como se proteger
Em todo caso, é essencial adotar medidas básicas de segurança para evitar qualquer problema. Sempre pesquise antes de comprar algo online, verifique a autenticidade das informações e esteja atento a sinais de fraude.
A capacidade dos golpistas de utilizar a IA para criar conteúdo falso e enganoso exige uma resposta proativa por parte dos usuários, então, cuide-se e lembre-se que toda oferta “boa demais” para ser verdade apresenta grandes riscos!
0 comentários