METRÔMeu irmão segurou o telefone no meu ouvido. “Isso vai ser assustador para você”, alertou ele. UM carretel do instagram que mostrava um adolescente em um comício com uma narração estilo noticiário. Uma voz feminina calma, com um sotaque mancuniano quase imperceptível, disse: “O recente protesto de um estudante britânico tornou-se um símbolo poderoso de uma crise cada vez mais profunda no sistema educacional do Reino Unido”. Sentei-me direito, com os olhos bem abertos.
Como apresentador de um canal de notícias no YouTube, estava acostumado a ouvir minha voz na tela. Só que não fui eu, mesmo que a voz fosse inquestionavelmente meu. “Eles estão nos forçando a aprender sobre o Islã e Maomé na escola”, continuou ele. “Ouvir. “Isso é nojento.” Foi arrepiante ouvir a minha voz associada à propaganda de extrema direita, mas mais do que isso, à medida que me aprofundei na forma como esta fraude é perpetrada, descobri o quão abrangentes podem ser as consequências do áudio falso.
A clonagem de voz AI é uma forma emergente de áudio deepfake e a terceira que mais cresce Golpe de 2024. As vítimas involuntárias vêem as suas vozes reproduzidas por especialistas sem o seu consentimento ou mesmo conhecimento, e o fenómeno já levou a verificações de segurança nos bancos. omitido e as pessoas decepcionado para enviar dinheiro a estranhos que eles pensavam ser da família. Um amigo que reconheceu minha voz enviou o clipe para meu irmão.
Depois de algumas pesquisas, consegui rastreá-lo até um canal de extrema direita no YouTube com cerca de 200.000 inscritos. Era supostamente um canal americano, mas muitos dos erros ortográficos nos vídeos eram típicos de relatos de desinformação não nativos de língua inglesa. Fiquei horrorizado ao descobrir que oito dos 12 vídeos mais recentes do canal usaram minha voz. Voltando ainda mais, encontrei um vídeo meu usando minha voz há cinco meses que mostrava um Contagem de visualizações de 10 milhões. A voz soava quase exatamente como a minha. Exceto que havia um ritmo um pouco estranho na minha fala, um sinal de que a voz foi gerada pela IA.
Esta crescente sofisticação do software de clonagem de voz de IA é uma grande preocupação. Em novembro de 2023, um áudio deepfake do prefeito de Londres, Sadiq Khan supostamente fazendo comentários inflamados sobre o Dia do Armistício que circularam amplamente nas redes sociais. O clipe quase causou “desordem grave”, Khan disse à BBC. “O momento não poderia ter sido melhor se o objetivo fosse semear discórdia e causar problemas”. Numa altura em que a confiança no sistema político do Reino Unido já atinge níveis recordes baixoCom 58% dos britânicos a dizer que “quase nunca” confiam nos políticos para dizerem a verdade, ser capaz de manipular a retórica pública nunca foi tão prejudicial.
O direito legal de ter voz está dentro de uma área cinzenta e obscura de questões de IA mal legisladas. O naturalista televisivo David Attenborough esteve no centro de uma Escândalo de clonagem de voz de IA Em novembro, ele se descreveu como “profundamente perturbado” ao descobrir que sua voz estava sendo usada para transmitir boletins de notícias partidários americanos; em maio, ator Scarlett Johansson Ela entrou em conflito com a OpenAI depois que um modelo de conversão de texto em fala de seu produto, ChatGPT, usou uma voz que Johansson descreveu como “assustadoramente semelhante” à dela.
Em março de 2024, IA aberta atrasou o lançamento de uma nova ferramenta de clonagem de voz, considerando-a “muito arriscada” para lançamento geral num ano com um número recorde de eleições mundiais. Algumas startups de inteligência artificial que permitem aos utilizadores clonar a sua própria voz introduziram uma política de cautela, permitindo-lhes detectar a criação de clones de voz que imitam figuras políticas activamente envolvidas em campanhas eleitorais, começando pelas dos Estados Unidos e do Reino Unido. .
Mas estas medidas de mitigação não são suficientes. Nos Estados Unidos, senadores preocupados propuseram um projeto de lei que reprimiria aqueles que reproduzem áudio sem consentimento. Na Europa, o Sistema Europeu de Observatório de Roubo de Identidade (eitos) está desenvolvendo quatro ferramentas para ajudar a polícia a identificar deepfakes, que esperam estar prontas este ano. Mas enfrentar a nossa crise de áudio não será uma tarefa fácil. Dominic Lees, especialista em IA no cinema e na televisão que assessora uma comissão parlamentar do Reino Unido, ele disse ao guarda: “Nossas leis de privacidade e direitos autorais não estão atualizadas com o que esta nova tecnologia apresenta.”
Se um problema é o declínio da confiança nas instituições, outro é a crescente desconfiança entre as comunidades. A capacidade de confiar é fundamental para a cooperação humana nas nossas vidas pessoais e profissionais cada vez mais globalizadas e interligadas; No entanto, nunca estivemos tão perto de miná-lo. Hany Farid, professor de análise forense digital da Universidade da Califórnia em Berkeley e especialista em detecção de deepfake, disse ao Washington Post que as consequências desta crise de áudio podem ser tão extremas como a violência em massa ou o “roubo de eleições”.
Poderia haver alguma vantagem nesta nova capacidade de clonar vozes facilmente? Talvez. Clones de voz de IA podem nos permitir buscar conforto conectando-nos com o falecido entes queridosou ajude a dar voz àqueles com condições médicas. O ator americano Val Kilmerque recebeu tratamento para câncer na garganta, retornou em 2022 para Top Gun: Maverick com sua voz restaurada pela IA. A nossa capacidade de inovar pode servir aqueles que têm objetivos nefastos, mas também serve aqueles que trabalham para o bem.
Embora eu tenha compartilhado voluntariamente minha voz na tela quando me tornei apresentador, não concordei em abrir mão dessa parte integrante e preciosa de mim para quem quiser usá-la. Como radiodifusores, às vezes nos preocupamos com a forma como um vírus de resfriado ou de inverno pode afetar nossas gravações. Mas minha experiência recente deu outro significado, muito mais sinistro, ao conceito de perder a voz.