Departamento de Defesa dos EUA adota princípios éticos para o uso da IA

O Departamento de Defesa dos EUA (DoD) adotou formalmente um conjunto de princípios para usar a inteligência artificial (IA) para uso militar.

Em outubro de 2019, as recomendações para o uso da tecnologia foram fornecidas ao Secretário de Defesa Dr. Mark T. Esper pelo Conselho de Inovação em Defesa. Essas recomendações surgiram após 15 meses de consulta com os principais especialistas em IA em vários setores, como governo, academia, comercial e público.

A medida está alinhada com o objetivo da estratégia de IA do DoD, direcionando a liderança militar do país na ética da IA ​​e no uso legal dos sistemas de IA. Os princípios serão projetados na estrutura de ética existente das Forças Armadas dos EUA, com base na Constituição dos EUA, Título 10 do Código dos EUA, Lei da Guerra, tratados internacionais existentes e normas e valores de longa data. Como a estrutura existente fornece uma base tecnológica e duradoura para o comportamento ético, o uso da IA ​​aumenta novas incertezas e riscos éticos. É aqui que os novos princípios desempenharão seu papel, abordando os novos desafios.

O próximo na fila para anunciar ética e transparência como lema é a União Europeia, que lançou estratégias para a IA e a “economia de dados”. Em sua declaração, a Comissão Européia (CE) afirmou: “A sociedade européia alimentada por soluções digitais que colocam as pessoas em primeiro lugar, abre novas oportunidades para as empresas e impulsiona o desenvolvimento de tecnologia confiável para promover uma sociedade aberta e democrática e uma vibrante e sustentável economia”. Segundo a CE, o foco seria em três objetivos principais no digital: “tecnologia que funcione para as pessoas, uma economia justa e competitiva e uma sociedade aberta, democrática e sustentável”.

De acordo com um relatório do governo do Reino Unido emitido no início deste mês, o governo estava “falhando na abertura” em relação ao uso da IA, embora um regulador específico não tenha sido proposto como resposta. O relatório acrescentou que os receios sobre a ‘caixa preta AI’, segundo a qual os dados produzem resultados por métodos inexplicáveis, foram largamente extraviados. O relatório defendia o uso dos Princípios Nolan na criação de IA para o setor público do Reino Unido, argumentando que eles não precisavam ser reformulados.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here