As plataformas de mídia social têm “um trabalho árduo” a fazer para cumprir as regras do Reino Unido. Lei de Segurança Online e ainda não introduzimos todas as medidas necessárias para proteger crianças e adultos de conteúdos nocivos, afirmou o regulador das comunicações.
A Ofcom publicou na segunda-feira códigos de prática e diretrizes que as empresas de tecnologia devem seguir para cumprir a lei, que acarreta a ameaça de multas significativas e fechamento de locais se as empresas não cumprirem.
O regulador disse que muitas das medidas que recomenda não são seguidas pelas plataformas maiores e mais arriscadas.
“Não acreditamos que nenhum deles esteja aplicando todas as medidas”, disse Jon Higham, diretor de política de segurança online do Ofcom. “Achamos que há muito trabalho a fazer.”
Todos os sites e aplicativos no âmbito da lei, desde Facebook, Google e X até reddit e Onlyfans, agora tem três meses para avaliar o risco de conteúdo ilegal aparecer em sua plataforma.
A partir de 17 de março terão de começar a implementar salvaguardas para fazer face a esses riscos, e o Ofcom monitorizará o seu progresso. Os códigos de prática e diretrizes do Ofcom estabelecem maneiras de lidar com esses riscos. Os sites e aplicativos que os adotarem serão considerados em conformidade com a lei.
A lei se aplica a sites e aplicativos que publicam conteúdo criado por usuários para outros usuários, bem como a grandes mecanismos de busca, que cobrem mais de 100 mil serviços online. Enumera 130 “crimes prioritários” (abrangendo uma variedade de tipos de conteúdo, incluindo abuso sexual infantil, terrorismo e fraude) que as empresas tecnológicas terão de abordar proativamente, adaptando os seus sistemas de moderação.
Escrevendo no GuardianO secretário de tecnologia, Peter Kyle, disse que os códigos e diretrizes foram “a maior mudança já feita na política de segurança online”.
“Terroristas da Internet e abusadores de crianças não poderão mais agir impunemente”, escreveu ele. “Porque, pela primeira vez, as empresas de tecnologia serão forçadas a remover proativamente o conteúdo ilegal que assola a nossa Internet. “Se não o fizerem, enfrentarão multas pesadas e, se necessário, o Ofcom pode pedir aos tribunais que bloqueiem o acesso às suas plataformas na Grã-Bretanha.”
Os códigos e diretrizes publicados pelo Ofcom incluem: nomear um executivo sênior para ser responsável pelo cumprimento da lei; ter equipes de moderação com pessoal e financiamento adequados que possam remover rapidamente material ilegal, como conteúdo extremo relacionado ao suicídio; melhores testes de algoritmos (que selecionam o que os usuários veem em seus feeds) para dificultar a disseminação de material ilegal; e excluir contas operadas por ou em nome de organizações terroristas.
Espera-se também que as plataformas tecnológicas operem ferramentas “fáceis de encontrar” para apresentar reclamações de conteúdo que reconheçam a recepção de uma reclamação e indiquem quando esta será tratada. Espera-se que plataformas maiores forneçam aos usuários opções para bloquear e silenciar outras contas na plataforma, juntamente com a opção de desativar comentários.
A Ofcom também espera que as plataformas implementem sistemas automatizados para detectar material de abuso sexual infantil, incluindo as chamadas medidas de “correspondência de hash” que podem combinar esse material suspeito com exemplos conhecidos de conteúdo. Os novos códigos e diretrizes serão agora aplicados a serviços de compartilhamento de arquivos como Dropbox e Mega, que correm “alto risco” de distribuição de material abusivo.
Os ativistas da segurança infantil disseram que o anúncio do Ofcom não foi longe o suficiente. A Fundação Molly Rose, criada pela família de Molly Russell, que tirou a vida dele Quando ela tinha 14 anos em 2017, depois de ver conteúdo sobre suicídio nas redes sociais, ela disse estar “surpresa” por não haver medidas específicas para abordar conteúdos relacionados a automutilação e suicídio que atingissem o limite de criminalidade. A NSPCC disse estar “profundamente preocupada” com o fato de plataformas como o WhatsApp não serem obrigadas a remover conteúdo ilegal se for não é tecnicamente viável.
A fraude, um problema generalizado nas redes sociais, será abordada exigindo que as plataformas estabeleçam canais de denúncia específicos com organismos como a Agência Nacional do Crime e o Centro Nacional de Segurança Cibernética, que podem assinalar exemplos de fraude às plataformas.
Também realizará consultas na primavera sobre a criação de um protocolo para eventos de crise, como os tumultos que eclodiram no verão em resposta aos assassinatos de Southport.