Muitos dos problemas causados pela inteligência artificial estão enraizados no sigilo que envolve o seu funcionamento e os dados que alimenta, por isso, se a comunidade de segurança nacional assumir a liderança na IA, a situação só irá piorar.
A Casa Branca do presidente Joe Biden divulgou recentemente um memorando sobre “avançando a liderança dos Estados Unidos em inteligência artificialIsso incluía uma directiva para que o aparelho de segurança nacional se tornasse um líder global na utilização da IA.
Sob a liderança da Casa Branca, espera-se que o Estado de segurança nacional assuma esta posição de liderança, roubando grandes mentes do mundo académico e do sector privado e, o que é mais preocupante, implantando modelos privados de IA já funcionais para objectivos de segurança nacional.
Os sistemas privados de IA administrados por empresas de tecnologia já são incrivelmente opacos, em nosso detrimento. As pessoas se sentem, com razão, desconfortáveis com isso empresas que usam IA para decidir todo tipo de coisa sobre suas vidasdesde a probabilidade de cometerem um crime, à sua aptidão para o emprego, às questões de imigração, seguros e habitação.
As empresas com fins lucrativos alugam os seus serviços automatizados de tomada de decisão a todos os tipos de empresas e empregadores, e a maioria de nós afectados nunca saberá que um computador fez uma escolha sobre nós, muito menos compreenderá como essa escolha foi feita ou como pode ser apelado. essa decisão.
Mas as coisas podem piorar: a combinação da IA privada com segredos de segurança nacional ameaça tornar um sistema já secreto ainda mais opaco e opaco.
A constelação de organizações e agências que compõem o aparelho de segurança nacional é notoriamente secreta. A Electronic Frontier Foundation e outras organizações de liberdades civis teve que brigar no tribunal repetidamente, tentando expor até mesmo os quadros mais fundamentais da vigilância global e as regras que a regem.
Dar a este dispositivo o controle sobre a IA cria um monstro de sigilo, irresponsabilidade e poder de decisão de Frankenstein. À medida que o poder executivo pressiona as agências a implementar conhecimentos especializados em IA privada, cada vez mais informações sobre como funcionam estes modelos de IA permanecerão escondidas no véu quase impenetrável do segredo governamental.
É como o velho axioma da ciência da computação de “entra lixo, sai lixo”: sem transparência, os dados que contêm os preconceitos sistêmicos da nossa sociedade treinarão a IA para espalhar e reforçar esses preconceitos. Com dados de treinamento secretos e algoritmos de caixa preta que o público não pode analisar, o preconceito torna-se “lavado pela tecnologia” e as decisões opressivas ficam escondidas atrás da suposta objetividade do código.
A IA funciona através da recolha e processamento de uma enorme quantidade de dados, pelo que a compreensão das informações que detém e como chega às conclusões tornar-se-á incrivelmente central na forma como o Estado de segurança nacional pensa sobre as questões. Isto significa que o estado provavelmente argumentará não apenas que os dados de treinamento da IA podem precisar ser classificados, mas também que as empresas devem, sob pena de lei, também manter em segredo os algoritmos que regem.
Como afirma o memorando: “A IA emergiu como uma tecnologia que definiu uma era e demonstrou uma relevância significativa e crescente para a segurança nacional. Os Estados Unidos devem liderar o mundo na aplicação responsável da IA nas funções apropriadas de segurança nacional.”
A abordagem padrão do aparelho de segurança nacional mantém o público no escuro. A abordagem padrão para a IA deve ser a transparência e a responsabilidade cristalinas nos dados de treinamento e na tomada de decisões algorítmicas. Estes são objectivos inerentemente contraditórios, e transferir o impacto rapidamente crescente da IA na nossa sociedade para o domínio sombrio da segurança nacional poderá significar um desastre nas próximas décadas.
Matthew Guariglia é analista político sênior da Electronic Frontier Foundation, uma organização digital de direitos civis com sede em São Francisco.