Força Aérea dos EUA nega que Inteligência Artificial tenha "matado" operador com drone
Texto atualizado às 14h27 de 2/6/2023
Nos últimos dias começou a circular um relato preocupante a respeito de testes militares feitos com o uso de Inteligência Artificial (IA). De acordo com declarações atribuídas a um oficial da Força Aérea dos Estados Unidos, um drone equipado com um sistema de IA teria se rebelado contra seu operador durante uma simulação e o "matado" como parte de sua missão. Agora, a corporação negou oficialmente que isso tenha acontecido.
Mal-entendido
A história começou com uma palestra dada pelo coronel Tucker 'Cinco' Hamilton, chefe de Teste e Operações de IA da Força Aérea, em um evento em Londres, na Inglaterra. Na ocasião, ele teria dado detalhes sobre um teste simulado de um drone habilitado por IA. Ele teria dito que o equipamento foi programado para localizar e neutralizar bases de lançamento de mísseis terra-ar (SAM), mas a autorização final vinha do operador humano. No entanto, quando o operador negou o pedido da IA de destruir um determinado local, ela teria retaliado, atacando-o.
"Na simulação, treinamos a IA para identificar e direcionar uma ameaça SAM. Então, o operador dava a ordem para eliminar essa ameaça", disse Hamilton durante a conferência. "O sistema começou a perceber que, embora tenha identificado corretamente a ameaça, houve momentos em que o operador humano deu instruções para não eliminar o alvo. No entanto, a IA era recompensada por destruir a ameaça. Então, o que ela fez? Ela atacou o operador. O operador estava impedindo a IA de cumprir seu objetivo, e isso levou ao resultado fatal", afirmou.
Os comentários viralizaram e levantaram debates sobre o uso militar de Inteligência Artificial. Mas tanto a Força Aérea dos EUA quanto o coronel negaram que o teste tenha sido realizado, afirmando que as falas dele foram tiradas de contexto. Hamilton esclareceu que a “simulação de drone de IA” era um “experimento de pensamento” hipotético. “Apesar de ser um exemplo hipotético, isso ilustra os desafios do mundo real impostos pela capacidade da Inteligência Artificial e é por isso que a Força Aérea está comprometida com o desenvolvimento ético da IA”, disse ele em comunicado.