Uma ferramenta de IA hospedada na Amazon projetada para impulsionar o recrutamento do Ministério da Defesa do Reino Unido coloca o pessoal de defesa em risco de ser identificado publicamente, de acordo com uma avaliação do governo.
Os dados utilizados no sistema automatizado para melhorar a redação de anúncios de emprego na defesa e atrair candidatos mais diversos, melhorando a linguagem inclusiva, incluem nomes, funções e e-mails de militares e são armazenados por Amazônia nos EUA Isto significa que “uma violação de dados pode ter consequências preocupantes, nomeadamente a identificação do pessoal da defesa”, de acordo com documentos que detalham os sistemas de inteligência artificial do governo publicados hoje pela primeira vez.
O risco foi considerado “baixo” e o Ministério da Defesa disse que os provedores Textio, Amazon Web Services e Amazon GuardDuty, um serviço de detecção de ameaças, implementaram “proteções robustas”.
Mas é um dos vários riscos reconhecidos pelo governo relativamente à utilização de ferramentas de inteligência artificial no sector público numa parcela de documentos publicado para melhorar a transparência no uso de algoritmos pelo governo central.
Declarações oficiais sobre como os algoritmos funcionam enfatizam que existem mitigações e salvaguardas para enfrentar os riscos, à medida que os ministros pressionam para usar a IA para aumentar a produtividade económica do Reino Unido e, nas palavras do secretário de tecnologia Peter Kyle na terça-feira, “trazer serviços públicos”. volte da beira do abismo.”
Esta semana foi noticiado que Chris Wormald o novo secretário de gabinete disse às autoridades O primeiro-ministro quer “reestruturar a forma como o governo funciona”, exigindo que as autoridades aproveitem “as grandes oportunidades que a tecnologia oferece”.
Google e Meta têm trabalhado diretamente com o governo do Reino Unido em projetos piloto para usar IA em serviços públicos. A Microsoft está fornecendo seu sistema Copilot baseado em IA para funcionários públicos e, no início deste mês, o ministro do Gabinete, Pat McFadden, disse que queria que o governo “pensasse mais como uma startup”.
Outros riscos e benefícios identificados nas atuais IA do governo central incluem:
-
A possibilidade de que material didático inadequado seja gerado por um Ferramenta de planejamento de aulas com tecnologia de IA usado por professores com base no poderoso modelo de linguagem grande da Open AI, GPT-4o. A IA economiza tempo dos professores e pode personalizar rapidamente os planos de aula de uma forma que de outra forma não seria possível.
-
“Alucinações” de um Chatbot implementado para esclarecer dúvidas sobre o bem-estar das crianças. nos tribunais de família. Porém, também oferece informações 24 horas por dia e reduz o tempo de fila de quem precisa falar com um agente humano.
-
“Operação de código de erro” e “dados de entrada incorretos” no novo Tesouro HM Mecanismo de Política que usa aprendizado de máquina para modelar mudanças fiscais e de benefícios “com mais precisão do que as abordagens existentes”.
-
“Uma degradação do raciocínio humano” se os usuários de uma IA para priorizar os riscos de inspeção de higiene alimentar se tornarem demasiado dependentes de o sistema. Também pode resultar numa “pontuação consistente para estabelecimentos de um determinado tipo”, mas também deve significar inspeções mais rápidas de locais com maior probabilidade de violar os padrões de higiene.
As divulgações vêm num registo de transparência algorítmica recentemente expandido que regista informações detalhadas sobre 23 algoritmos do governo central. Alguns algoritmos, como os utilizados no sistema de previdência social pelo Departamento de Trabalho e Pensões, que têm mostrou sinais de preconceitoEles ainda não estão cadastrados.
“A tecnologia tem um enorme potencial para melhorar os serviços públicos”, disse Kyle. “Iremos utilizá-lo para reduzir atrasos, poupar dinheiro e melhorar os resultados para os cidadãos de todo o país. “A transparência sobre como e por que o setor público utiliza ferramentas algorítmicas é crucial para garantir que sejam confiáveis e eficazes.”
As organizações do governo central serão obrigadas a publicar um registo de quaisquer ferramentas algorítmicas que interajam diretamente com os cidadãos ou influenciem significativamente as decisões tomadas sobre os indivíduos, a menos que se aplique um conjunto limitado de isenções, como a segurança nacional. Os logs das ferramentas serão publicados assim que forem testados publicamente ou estiverem ativos e operacionais.
Outras IAs incluídas no registro expandido incluem um chatbot de IA que lida com as dúvidas dos clientes na Network Rail e é treinado em casos históricos do sistema de relacionamento com o cliente da entidade ferroviária.
O Departamento de Educação está operando um assistente de aula de IA para professores, Aila, usando o modelo GPT-4o da Open AI. Criado dentro de Whitehall, em vez de recorrer a um contratante, permite que os professores gerem planos de aula. A ferramenta foi projetada intencionalmente para não gerar aulas com o toque de um botão. Mas os riscos identificados e mitigados incluem material didático produzido prejudicial ou inadequado, preconceito ou desinformação e “injeção imediata”- uma forma de atores mal-intencionados enganarem a IA para que cumpram suas intenções.
O Serviço de Aconselhamento e Apoio ao Juizado de Crianças e Família, que aconselha os tribunais de família sobre o bem-estar das crianças, utiliza um robô de processamento de linguagem natural para alimentar um serviço de chat num website que realiza cerca de 2.500 consultas por mês. Um dos riscos reconhecidos é que você pode estar lidando com relatos de preocupações sobre crianças, enquanto outros são “alucinações” e “resultados imprecisos”. Tem uma taxa de sucesso de dois terços. É apoiado por empresas como Genesys e Kerv, que novamente usam Amazon Web Services.