Início Tecnologia Uma startup britânica de IA com laços governamentais está desenvolvendo tecnologia para...

Uma startup britânica de IA com laços governamentais está desenvolvendo tecnologia para drones militares

20
0

Uma empresa que trabalhou em estreita colaboração com o governo do Reino Unido na segurança da IA, no NHS e na educação também está a desenvolver IA para drones militares.

A empresa de consultoria Faculdade AI tem “experiência no desenvolvimento e implantação de modelos de IA em UAVs”, ou veículos aéreos não tripulados, de acordo com uma empresa parceira da indústria de defesa.

A faculdade se tornou uma das empresas mais ativas na venda de serviços de inteligência artificial no Reino Unido. Ao contrário de pessoas como OpenAI, Deepmind ou AntrópicoNão desenvolve modelos em si, mas concentra-se na revenda de modelos, especialmente OpenAI, e no aconselhamento sobre a sua utilização no governo e na indústria.

Os professores ganharam especial destaque no Reino Unido depois de trabalharem na análise de dados para a campanha Vote Leave antes da votação do Brexit. O ex-conselheiro de Boris Johnson, Dominic Cummings, então deu trabalho governamental ao corpo docente durante a pandemia, e incluiu seu CEO, Marc Warnerem reuniões do painel consultivo científico do governo.

Desde então, a empresa, oficialmente chamada de Faculdade de Ciências, tem conduzido testes de modelos de IA para o O AI Safety Institute (AISI) do governo do Reino Unido, criado em 2023 na forma do primeiro-ministro Rishi Sunak.

Os governos de todo o mundo estão a correr para compreender as implicações de segurança da inteligência artificial, depois de as rápidas melhorias na IA generativa terem desencadeado uma onda de entusiasmo em torno das suas possibilidades.

As empresas de armamento estão interessadas em colocar IA em drones, desde “companheiros leais” que poderiam voar ao lado de caças, até munições ociosas que já são capazes de esperar que os alvos apareçam antes de disparar contra eles.

Avanços tecnológicos recentes levantaram a possibilidade de que os drones possam rastrear e matar sem um humano “por dentro” tomar a decisão final.

em um Comunicado de imprensa Ao anunciar uma parceria com a Faculdade com sede em Londres, a startup britânica Hadean escreveu que as duas empresas estão trabalhando juntas na “identificação de sujeitos, rastreamento de movimentos de objetos e exploração do desenvolvimento, implantação e operações de enxames autônomos”.

Entende-se que o trabalho do Colégio com Hadean não incluiu ataques com armas de fogo. No entanto, o Colégio não respondeu a perguntas sobre se estava a trabalhar em drones capazes de usar força letal, nem forneceu mais detalhes sobre o seu trabalho de defesa, citando acordos de confidencialidade.

Um porta-voz do Colégio disse: “Ajudamos a desenvolver novos modelos de IA que ajudarão nossos parceiros de defesa a criar soluções mais seguras e robustas”, acrescentando que possui “políticas e processos éticos internos rigorosos” e segue as diretrizes éticas sobre IA do Ministério. de Defesa.

O porta-voz disse que a faculdade tem uma década de experiência em segurança de IA, inclusive no combate ao abuso sexual infantil e ao terrorismo.

Scott Trust, o proprietário final do The Guardian, é investidor na Mercuri VC, anteriormente GMG Ventures, que é acionista minoritária da Faculdade.

A faculdade, liderada pelo diretor executivo Marc Warner, continua a trabalhar em estreita colaboração com o AISI. Fotografia: arutoronto/Facultad AI

“Trabalhamos na segurança da IA ​​há uma década e somos especialistas líderes mundiais nesta área”, disse o porta-voz. “É por isso que os governos e os desenvolvedores de modelos confiam em nós para garantir que a IA nas fronteiras seja segura e que os clientes da defesa apliquem a IA de forma ética para ajudar a manter os cidadãos seguros”.

Muitos especialistas e políticos apelaram à cautela antes de introduzir tecnologias mais autónomas nas forças armadas. Em 2023, um comité da Câmara dos Lordes apelou ao governo do Reino Unido para procurar estabelecer um tratado ou acordo não vinculativo para clarificar a aplicação do direito humanitário internacional no que se refere a drones letais. Em Setembro, o Partido Verde apelou à aprovação de leis que proibissem completamente os sistemas de armas letais autónomos.

Os professores continuam a trabalhar em estreita colaboração com o AISI, colocando-o numa posição em que os seus julgamentos podem influenciar a política do governo do Reino Unido.

Em novembro, a AISI contratou professores para investigar como grandes modelos de linguagem “são usados ​​para auxiliar comportamentos criminosos ou indesejáveis”. A AISI disse que o vencedor do contrato – o corpo docente – “será um importante contribuidor estratégico para a equipe de salvaguardas da AISI, contribuindo diretamente com informações importantes para os modelos de segurança do sistema AISI”.

pular a promoção do boletim informativo

A empresa trabalha diretamente com a OpenAI, a startup que iniciou a última onda de entusiasmo pela IA, para usar seu modelo ChatGPT. Especialistas já expressaram preocupação sobre um potencial conflito trabalhista no trabalho que o Colégio realizou com o AISI, de acordo com o Politico, um site de notícias. A escola não detalhou quais modelos de negócios havia testado, embora tenha testado Modelo OpenAI o1 antes do seu lançamento.

O governo já havia dito sobre o trabalho do Departamento de IA para o AISI: “O mais importante é que eles não entrem em conflito no desenvolvimento de seu próprio modelo”.

Natalie Bennett, deputada do Partido Verde, disse: “O Partido Verde há muito expressa sérias preocupações sobre a ‘porta giratória’ entre a indústria e o governo, levantando questões que vão desde funcionários destacados de empresas de gás para trabalhar na política energética até ex-ministros da defesa que vão trabalhar para empresas de armas.

“É uma preocupação séria que uma única empresa tenha aceitado um grande número de contratos governamentais para trabalhar em IA e ao mesmo tempo trabalhe com o AI Safety Institute para testar grandes modelos de linguagem; não tanto ‘caçador furtivo que virou guarda-caça’, mas desempenhando ambos os papéis. ao mesmo tempo.”

Bennett também destacou que o governo do Reino Unido “ainda não assumiu um compromisso total” para garantir que haja um ser humano consciente dos sistemas de armas autónomos, conforme recomendado pelo Comité dos Lordes.

A faculdade, cujo maior acionista é uma holding registada em Guernsey, também procurou cultivar laços estreitos com o governo do Reino Unido, ganhando contratos no valor de pelo menos 26,6 milhões de libras, de acordo com divulgações do governo. Estes incluem contratos com o NHS, o Departamento de Saúde e Assistência Social, o Departamento de Educação e o Departamento de Cultura, Mídia e Desporto.

Esses contratos representam uma importante fonte de receita para uma empresa que realizou vendas no valor de £ 32 milhões no ano encerrado em 31 de março. Perdi £ 4,4 milhões durante esse período.

Albert Sánchez-Graells, professor de direito económico na Universidade de Bristol, alertou que o Reino Unido depende do “autocontrolo e da responsabilidade das empresas tecnológicas no desenvolvimento da IA”.

“As empresas que apoiam o trabalho da AISI devem evitar conflitos de interesses organizacionais decorrentes do seu trabalho para outras partes do governo e para empresas de IA mais amplas baseadas no mercado”, disse Sánchez-Graells.

“As empresas com portfólios tão amplos de atividades de IA como o College têm perguntas a responder sobre como garantem que o seu aconselhamento à AISI é independente e imparcial, e como evitam aproveitar esse conhecimento nas suas outras atividades.”

O Departamento de Ciência, Inovação e Tecnologia não quis comentar, dizendo que não entraria em detalhes sobre os contratos comerciais individuais.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here