O quadro, assinado pelo presidente Joe Biden, foi concebido para garantir que as agências de segurança nacional podem aceder à mais recente e poderosa IA, enquanto limita a sua utilização indevida.

 

As medidas pretendem equilibrar o vasto potencial da utilização desta tecnologia com a necessidade de proteção contra os seus riscos.

“Esta é a primeira estratégia da nossa nação para aproveitar o poder e gerir os riscos da IA para promover a nossa segurança nacional”, afirmou Jake Sullivan, ao descrever a nova política aos estudantes, durante uma palestra na Universidade de Defesa Nacional.

Os recentes avanços na IA foram aclamados como potencialmente transformadores para uma longa lista de indústrias e setores, incluindo o militar, a segurança nacional e a inteligência.

Mas existem riscos para a utilização da tecnologia pelo Governo, incluindo possibilidades de que possa ser aproveitada para vigilância em massa, ataques cibernéticos ou mesmo dispositivos autónomos letais.

O quadro orienta as agências de segurança nacional para expandirem a sua utilização dos sistemas de IA mais avançados, ao mesmo tempo que proíbe certas utilizações, tais como aplicações que violariam os direitos civis protegidos constitucionalmente ou qualquer sistema que automatizasse a implantação de armas nucleares.

Outras disposições incentivam a investigação em IA e apelam a uma maior segurança da cadeia de abastecimento de chips informáticos do país.

As regras também orientam as agências de inteligência a priorizarem o trabalho para proteger a indústria norte-americana de campanhas de espionagem estrangeira.

Grupos de defesa dos direitos civis têm observado de perto o uso crescente da IA pelo Governo e têm manifestado a preocupação de que a tecnologia possa facilmente ser usada abusivamente.

A União Americana pelas Liberdades Civis (ACLU) disse na quinta-feira que o Governo está a dar demasiada liberdade às agências de segurança nacional, que são autorizadas a “policiar-se”.

“Apesar de reconhecer os consideráveis riscos da IA, esta política não vai suficientemente longe para nos proteger de sistemas de IA perigosos e irresponsáveis”, disse Patrick Toomey, vice-diretor do Projeto de Segurança Nacional da ACLU, em comunicado.

As diretrizes foram criadas após uma ambiciosa ordem executiva assinada por Biden, no ano passado, que pedia às agências federais para que criassem políticas sobre como a IA poderia ser utilizada.

Leia Também: Nobel da Economia avisa que é preciso limitar o poder das ‘big tech’

Compartilhar
Exit mobile version