Por HALELUYA HADERO
A ascensão de inteligência artificial generativa ferramentas que ajudam as pessoas a produzir com eficiência análises on-line novas e detalhadas, sem muito trabalho comerciantesos prestadores de serviços e os consumidores estão em território desconhecido, afirmam grupos de vigilância e investigadores.
Críticas falsas têm atormentado muitos sites de consumo populares há muito tempo, como a Amazon e Yelp. Eles normalmente são negociados em grupos privados de mídia social entre corretores de avaliações falsas e empresas dispostas a pagar. Às vezes, essas avaliações são iniciadas por empresas que oferecem incentivos aos clientes, como cartões-presente, para feedback positivo.
Mas as ferramentas de geração de texto com IA popularizadas pelos OpenAIs Bate-papoGPTpermitem que os fraudadores produzam avaliações com mais rapidez e em maior número, de acordo com especialistas do setor de tecnologia.
A prática enganosa, viz ilegal nos EUAé realizado o ano todo, mas se torna um problema maior para os consumidores no período temporada de compras natalinasquando muitas pessoas confiam nas avaliações para comprar presentes.
Onde aparecem as avaliações geradas por IA?
Avaliações falsas podem ser encontradas em uma ampla variedade de setores, desde comércio eletrônico, hospedagem e restaurantes até serviços como reparos domésticos, cuidados médicos e aulas de piano.
A Transparency Company, uma empresa de tecnologia e grupo de vigilância que usa software para detectar avaliações falsas, disse que começou a ver avaliações geradas por IA aparecendo em grande número em meados de 2023 e que têm se multiplicado desde então.
Num relatório divulgado este mês, a The Transparency Company analisou 73 milhões de avaliações em três setores: cuidados domiciliários, serviços jurídicos e serviços médicos. Quase 14% das avaliações eram provavelmente falsas, e a empresa expressou um “alto grau de confiança” de que 2,3 milhões de avaliações foram geradas no todo ou em parte pela IA.
“É uma ferramenta muito, muito boa para esses golpistas de revisão”, disse Maury Blackman, investidor e consultor de startups de tecnologia que revisou o trabalho da The Transparency Company e liderará a organização a partir de 1º de janeiro.
Em agosto, a empresa de software DoubleVerify disse ter visto um “aumento significativo” nos aplicativos para celulares e smart TV, com análises feitas por IA generativa. As avaliações eram frequentemente usadas para induzir os clientes a instalar aplicativos que poderiam sequestrar dispositivos ou exibir anúncios continuamente, disse a empresa.
No mês seguinte, a Comissão Federal de Comércio processou a empresa por causa de uma ferramenta de escrita e gerador de conteúdo de IA chamada Rytr, acusando a empresa de oferecer um serviço que poderia poluir o mercado com análises fraudulentas.
A FTC, que este ano… venda ou compra de avaliações falsas, disse que alguns assinantes do Rytr usaram a ferramenta para produzir centenas e talvez milhares de avaliações para empresas de conserto de portas de garagem, vendedores de “réplicas” de bolsas de grife e outras empresas.
Provavelmente também está em sites on-line importantes
Max Spero, CEO da empresa de detecção de IA Pangram Labs, disse que o software que sua empresa usa detectou com quase certeza que algumas avaliações geradas por IA postadas na Amazon chegaram ao topo dos resultados de pesquisa de avaliações porque eram muito detalhadas e pareciam boas. considerado.
Mas determinar o que é falso ou não pode ser um desafio. Terceiros podem ficar aquém porque não têm “acesso a sinais de dados que indicam padrões de abuso”, disse a Amazon.
O Pangram Labs realizou detecção de alguns sites online proeminentes, que a Spero se recusou a nomear devido a acordos de não divulgação. Ele disse que revisou de forma independente a Amazon e o Yelp.
Muitos dos comentários gerados por IA no Yelp pareciam ter sido postados por indivíduos que tentavam publicar avaliações suficientes para ganhar um selo de “Elite”, que visa permitir que os usuários saibam que devem confiar no conteúdo, disse Spero.
O selo dá acesso a eventos exclusivos com empreendedores locais. Os fraudadores também querem que seus perfis no Yelp pareçam mais realistas, diz Kay Dean, ex-investigadora federal que lidera um grupo de vigilância chamado Fake Review Watch.
Para ser justo, só porque uma avaliação é gerada por IA não significa necessariamente que seja falsa. Alguns consumidores podem experimentar ferramentas de IA para gerar conteúdo que reflita seus sentimentos genuínos. Alguns falantes não nativos de inglês dizem que estão recorrendo à IA para garantir o uso de uma linguagem precisa nos comentários que escrevem.
“Isso pode ajudar as avaliações (e) torná-las mais informativas se vierem de boas intenções”, disse Sherry He, professor de marketing da Michigan State University, que pesquisou avaliações falsas. Ela diz que as plataformas tecnológicas devem concentrar-se nos padrões comportamentais dos maus actores, o que plataformas proeminentes já estão a fazer, em vez de desencorajar os utilizadores legítimos de recorrerem a ferramentas de IA.
O que as empresas fazem
Empresas proeminentes estão desenvolvendo políticas sobre como o conteúdo gerado por IA se encaixa em seus sistemas para remover avaliações falsas ou ofensivas. Alguns já usam algoritmos e equipes de pesquisa para detectar e remover avaliações falsas, mas oferecem aos usuários alguma flexibilidade para usar IA.
Porta-vozes da Amazon e da Trustpilot, por exemplo, disseram que permitiriam que os clientes publicassem avaliações baseadas em IA, desde que refletissem sua experiência no mundo real. O Yelp adotou uma abordagem mais cautelosa, dizendo que suas diretrizes exigem que os revisores escrevam seus próprios textos.
“Com o recente aumento na adoção de ferramentas de IA pelos consumidores, o Yelp fez investimentos significativos em métodos para melhor detectar e limitar esse conteúdo em nossa plataforma”, disse a empresa em comunicado.
A Coalition for Trusted Reviews, uma organização da Amazon, Trustpilot, Glassdoor e sites de viagens Tripadvisor, Expedia e Booking.com lançada no ano passado, disse que embora os impostores possam usar a IA ilegalmente, a tecnologia também oferece “uma oportunidade de reagir contra aqueles que tentam usar as avaliações para enganar os outros”.
“Ao partilhar as melhores práticas e elevar os padrões, incluindo o desenvolvimento de sistemas avançados de detecção de IA, podemos proteger os consumidores e manter a integridade das avaliações online”, afirmou o grupo.
A regra da FTC A proibição de avaliações falsas, que entrou em vigor em outubro, permite à agência multar empresas e indivíduos considerados culpados disso. As empresas de tecnologia que hospedam essas análises estão protegidas da multa porque, de acordo com a lei dos EUA, não são legalmente responsáveis pelo conteúdo que terceiros publicam em suas plataformas.
Empresas de tecnologia como Amazon, Yelp e Google processaram corretores de avaliações falsas, acusando-os de vender avaliações falsas em seus sites. As empresas afirmam que sua tecnologia bloqueou ou removeu um grande número de avaliações e contas suspeitas. No entanto, alguns especialistas dizem que poderiam fazer mais.
“Seus esforços até agora não são suficientes”, diz Dean da Fake Review Watch. “Se essas empresas de tecnologia estão tão comprometidas em eliminar fraudes em avaliações em suas plataformas, como é que eu, uma pessoa que trabalha sem automação, posso encontrar centenas ou até milhares de avaliações falsas em um determinado dia?”
Identifique avaliações falsas geradas por IA
Os consumidores podem experimentar identificar avaliações falsas prestando atenção a alguns possíveis sinais de alertadisseram os pesquisadores. Avaliações excessivamente entusiasmadas ou negativas são sinais de alerta. A gíria que repete o nome completo ou o número do modelo de um produto é outra possível revelação.
Quando se trata de IA, a pesquisa do professor de comportamento organizacional de Yale, Balázs Kovács, mostrou que os humanos não conseguem distinguir entre avaliações geradas por IA e avaliações escritas por humanos. Alguns detectores de IA também podem ser enganados por textos mais curtos, comuns em análises online, disse o estudo.
No entanto, existem alguns “sinais de IA” que os compradores online e os que procuram serviços devem tomar nota. Panagram Labs afirma que as avaliações escritas com IA tendem a ser mais longas, altamente estruturadas e contêm “descritores vazios”, como frases e atributos comuns. A escrita também contém clichês como “a primeira coisa que notei” e “que muda o jogo”.
Publicado originalmente: