Início Tecnologia Texas AG investiga Character.AI e outras plataformas sobre questões de segurança infantil

Texas AG investiga Character.AI e outras plataformas sobre questões de segurança infantil

28
0

O procurador-geral do Texas, Ken Paxton, divulgou na quinta-feira um investigação no Character.AI e em 14 outras plataformas tecnológicas para questões de privacidade e segurança infantil. A investigação avaliará se Character.AI (e outras plataformas populares entre os jovens, incluindo Reddit, Instagram e Discord) cumprem as leis de segurança e privacidade infantil do Texas.

A investigação de Paxton, que normalmente é dura para as empresas de tecnologia, analisará se essas plataformas estavam cumprindo duas leis do Texas: a Lei de Segurança para Crianças Online por meio de Empoderamento Parental, ou SCOPE, e a Lei de Proteção e Privacidade de Dados do Texas, ou DPSA. .

Estas leis exigem que as plataformas forneçam aos pais ferramentas para gerirem as definições de privacidade das contas dos seus filhos e forçam as empresas tecnológicas a cumprir requisitos rigorosos de consentimento ao recolherem dados sobre menores. Paxton diz que ambas as leis se estendem à forma como os menores interagem com os chatbots de IA.

“Estas investigações são um passo crítico para garantir que as redes sociais e as empresas de IA cumpram as nossas leis destinadas a proteger as crianças da exploração e dos danos”, disse Paxton num comunicado de imprensa.

Character.AI, que permite configurar personagens generativos de chatbot de IA com os quais você pode enviar mensagens de texto e conversar, foi recentemente envolvido em uma série de ações judiciais de segurança infantil. Os chatbots de IA da empresa decolaram rapidamente entre os usuários mais jovens, mas vários pais alegaram em ações judiciais que os chatbots Character.AI faziam comentários inadequados e perturbadores para seus filhos.

Um caso na Flórida afirma que um menino de 14 anos teve um relacionamento romântico com um chatbot de IA de personagem e Ele disse a ela que estava tendo pensamentos suicidas. nos dias anteriores ao seu próprio suicídio. Em outro caso no Texas, um dos chatbots da Character.AI supostamente sugeriu um Adolescente autista deveria tentar envenenar sua família.. Outro pai no caso do Texas alega que um dos chatbots da Character.AI sujeitou sua filha de 11 anos a conteúdo sexualizado nos últimos dois anos.

“Estamos atualmente analisando o anúncio do Procurador-Geral. Como empresa, levamos muito a sério a segurança de nossos usuários”, disse um porta-voz da Character.AI em comunicado ao TechCrunch. “Acolhemos com satisfação o trabalho com os reguladores e anunciamos recentemente que lançaremos alguns dos recursos mencionados na declaração, incluindo o controle dos pais.”

Character.AI na quinta-feira implementou novos recursos de segurança Com o objetivo de proteger os adolescentes, disse que essas atualizações limitarão seus chatbots de iniciar conversas românticas com menores. A empresa também começou a treinar um novo modelo específico para usuários adolescentes no último mês; Algum dia, ele espera que os adultos usem um modelo em sua plataforma, enquanto os menores usem outro.

Estas são apenas as atualizações de segurança mais recentes que Character.AI anunciou. Na mesma semana em que o processo na Flórida se tornou público, a empresa ditado estava ampliando sua equipe de confiança e segurança e recentemente contratou um novo chefe para a unidade.

Não é de surpreender que problemas com plataformas complementares de IA estejam surgindo no momento em que ganham popularidade. No ano passado, Andreessen Horowitz (a16z) disse em um pos blogNão que ele via a companhia da IA ​​como um canto subvalorizado da Internet do consumidor, no qual investiria mais. A16z é um investidor na Character.AI e continua investindo em outras startups companheiras de IA, recentemente apoiando uma empresa cujo fundador quer recriar a tecnologia do filme “Her”.

Reddit, Meta e Discord não responderam imediatamente aos pedidos de comentários.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here