Os Estados Unidos estão trabalhando para lidar com os desafios de segurança da inteligência artificial (IA), uma tecnologia que tem gerado cada vez mais preocupação entre o governo e a população. “A IA é uma tecnologia como nenhuma outra na história humana”,”, afirmou Gina Raimondo, secretária de Comércio dos EUA, na segunda semana de novembro de 2024.
Ela destacou que, embora seja importante avançar no desenvolvimento da IA, isso não deve ser feito às pressas, sem considerar os possíveis impactos: “Avançar rápido só porque podemos, sem pensar nas consequências, não é a escolha mais inteligente”, afirmou.
As declarações foram feitas durante a primeira reunião da Rede Internacional de Institutos de Segurança da IA. Essa rede reúne institutos de nove países, além da Comissão Europeia, e foi organizada pelos Departamentos de Comércio e de Estado dos EUA. O grupo é formado por especialistas de diferentes áreas, incluindo governo, indústria, academia e sociedade civil. O objetivo é debater como lidar com os riscos que a IA pode trazer à medida que a tecnologia se torna mais avançada e complexa.
A formação desse grupo marca um avanço importante na cooperação internacional para garantir a segurança e a regulamentação da inteligência artificial.
Em uma declaração conjunta, os membros explicaram sua missão: criar um fórum que reúna especialistas de todo o mundo, facilitando uma compreensão técnica comum sobre os riscos e as medidas de segurança relacionadas à IA. Eles também destacaram a importância de promover uma abordagem global para garantir que os benefícios da inovação em IA sejam compartilhados de forma justa entre países em diferentes níveis de desenvolvimento.
O movimento por medidas de segurança e conformidade surge em meio a tensões crescentes no cenário internacional sobre o desenvolvimento da IA, especialmente entre os EUA e a China. Vale destacar que a China não está entre os países participantes dessa iniciativa.
Entre os maiores desafios da IA estão questões como responsabilidade, direitos de propriedade intelectual e conformidade regulatória. A questão da responsabilidade, por exemplo, entra em foco quando uma decisão tomada por um sistema de IA falha ou provoca um acidente, gerando possíveis danos a pessoas ou organizações.
Facebook Comments