Empresas de tecnologia Amazon, Google e Meta foram criticados por uma investigação do comitê selecionado do Senado por serem especialmente vagos sobre como usaram dados australianos para treinar seus poderosos produtos de inteligência artificial.
O senador trabalhista Tony Sheldon, presidente do inquérito, ficou frustrado com a recusa das multinacionais em responder a perguntas directas sobre a utilização que fazem das informações pessoais e privadas dos australianos.
“Olhando Amazônia“Meta e Google evitar perguntas durante as audiências foi como assistir a um truque de mágica barato: muitos gestos com as mãos, uma nuvem de fumaça e nada para mostrar no final”, disse Sheldon em comunicado após divulgar o relatório final do. investigação na terça-feira.
Ele chamou as empresas de tecnologia de “piratas” que estavam “saqueando nossa cultura, dados e criatividade para obter lucro, enquanto deixavam os australianos de mãos vazias”.
O relatório concluiu que alguns modelos de IA de uso geral, como o GPT da OpenAI, o Llama da Meta e o Gemini do Google, deveriam passar automaticamente para uma categoria de “alto risco” e estar sujeitos a requisitos obrigatórios de transparência e responsabilidade.
Vários temas-chave surgiram durante a investigação e no seu relatório.
São necessárias leis separadas de IA
Sheldon disse que a Austrália precisava de “novas leis independentes de IA” para “controlar as grandes tecnologias” e que as leis existentes deveriam ser alteradas conforme necessário.
“Eles querem fazer as suas próprias regras, mas os australianos precisam de leis que protejam os direitos, e não os resultados financeiros do Vale do Silício”, disse ele.
Ele disse que a Amazon se recusou durante a investigação a revelar como usou dados registrados de dispositivos Alexa, Kindle ou Audible para treinar sua IA.
O Google também, disse ele, se recusou a responder a perguntas sobre quais dados de usuários de seus serviços e produtos usava para treinar seus produtos de IA.
A Meta admitiu que vem coletando dados de usuários australianos do Facebook e Instagram desde 2007, em preparação para futuros modelos de IA. Mas a empresa não conseguiu explicar como os usuários poderiam consentir que seus dados fossem usados para algo que não existia em 2007.
Sheldon disse que a Meta evitou perguntas sobre como usava dados de seus produtos WhatsApp e Messenger.
IA é de “alto risco” para trabalhadores criativos
O relatório concluiu que os trabalhadores criativos corriam o risco mais iminente de a IA ter um impacto grave nos seus meios de subsistência.
Recomendou que fossem implementados mecanismos de pagamento para compensar os criativos quando o trabalho gerado pela IA se baseasse no seu material original.
Os desenvolvedores de modelos de IA precisavam ser transparentes sobre o uso de obras protegidas por direitos autorais em seus conjuntos de dados, disse o relatório. Qualquer trabalho declarado deve ser licenciado e pago.
Entre as 13 recomendações do relatório está um apelo à introdução de legislação autónoma sobre IA que abranja modelos de IA considerados de “alto risco”.
A IA que tem impacto nos direitos das pessoas no trabalho deve ser considerada de alto risco, o que significa consulta, cooperação e representação antes de ser adotada.
A organização de gestão de direitos musicais Apra Amcos disse que o relatório reconheceu o impacto prejudicial da IA sobre os trabalhadores, especialmente no setor criativo. Ele disse que as recomendações do relatório propunham “medidas claras” para mitigar os riscos.
A Media Entertainment and Arts Alliance disse que o apelo do relatório para a introdução de legislação para estabelecer uma Lei de IA era “claro e inequívoco”.
Não sufoque a IA com burocracia
Os dois membros da Coalizão no comitê, os senadores Linda Reynolds e James McGrath, disseram que a IA representa uma ameaça maior à segurança cibernética, à segurança nacional e às instituições democráticas da Austrália do que a economia criativa.
Afirmaram que era necessário implementar mecanismos “sem infringir as oportunidades potenciais que a IA apresenta em relação à criação de emprego e ao crescimento da produtividade”.
Eles não aceitaram a conclusão do relatório de que todos os usos de IA por “pessoas no trabalho” deveriam ser automaticamente classificados como de “alto risco”.
Comentários adicionais dos Verdes argumentaram que o relatório final não foi suficientemente longe.
“(O relatório) não recomenda uma estratégia geral que alinhe a regulamentação australiana de IA com a do Reino Unido, Europa, Califórnia ou outras jurisdições”, disse o partido.
O Guardian entrou em contato com Amazon, Google e Meta para comentar.