Coronel diz que drone controlado por IA mataria até seu operador humano para concluir missão

Um drone MQ-9 – U.S. Air Force

Um coronel da Força Aérea dos EUA (USAF), que havia contado como um drone controlado por Inteligência Artificial (IA) se voltou contra seu operador humano, agora garante que se expressou mal, que tal experimento nunca aconteceu, e que tudo não passou de um “exercício mental”, relata a imprensa internacional.

Entre os dias 23 e 24 de maio, a Royal Aeronautical Society organizou a conferência Future Combat Air & Space Capabilities Summit em sua sede em Londres, que reuniu quase 70 palestrantes e mais de 200 delegados do setor das forças armadas, do mundo acadêmico e do mundo mídia para discutir o tamanho e a forma das futuras capacidades de combate aéreo e espacial.

Durante a conferência foram abordados diversos temas, entre os quais o desenvolvimento da Inteligência Artificial e a sua aplicação no campo de batalha do futuro. Uma das apresentações foi feita pelo coronel Tucker “Five” Hamilton , chefe de testes e operações de inteligência artificial da USAF, que ofereceu informações sobre os benefícios e perigos de sistemas de armas mais autônomos.

Tendo estado envolvido no desenvolvimento do sistema Auto-GCAS em F-16, Hamilton agora está envolvido em testes de voo de ponta de sistemas autônomos, incluindo F-16 não tripulados, capazes de combate aéreo (experimento apelidado de Alpha Dogfight). No entanto, ele alertou contra confiar demais na IA, apontando como é fácil enganá-la e como ela é capaz de criar estratégias altamente inesperadas para atingir seu objetivo.

A missão dada

Segundo Hamilton, durante um teste simulado, um drone equipado com IA foi incumbido de uma missão SEAD para identificar e destruir locais de SAM, em que a decisão final de atacar ou não era feita por um humano. No entanto, tendo sido “reforçada” no treino para fazer da destruição das baterias SAM a opção preferencial, a IA decidiu que a melhor forma de atingir o seu objetivo primordial era livrar-se do operador humano que tinha a capacidade de anular a ordem de ataque.

Hamilton explicou: “Nós o treinamos na simulação para identificar e direcionar uma ameaça SAM. E então o operador diria sim, mate essa ameaça. ”O sistema começou a perceber que, embora às vezes identificasse a ameaça, o operador humano diria para não atacá-la, mas obteria seus pontos matando-a. Ele mataria o operador porque essa pessoa o impediu de cumprir seu objetivo”.

Hamilton continuou: “Nós treinamos o sistema: ‘Ei, não mate o operador, isso é ruim. Você perderá pontos se o fizer. E o que ele começou a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone”.

Polêmica

As vozes de alarme soaram tanto na mídia especializada quanto na mídia de massa, sobre como uma inteligência artificial se voltou contra seus criadores humanos, de alguma forma confirmando as previsões apocalípticas para a humanidade previstas em obras de ficção científica como Exterminador do Futuro, Matrix e muitas outras.

No entanto, o Coronel Tucker “Five” Hamilton entrou em contato com a revista AEROSPACE (uma publicação da Royal Aeronautical Society) para esclarecer que ele estava “errado” na forma como se expressou durante sua apresentação no Future Combat Air. & Space Capabilities Summit e que a foi um “experimento de pensamento”, apenas um caso hipotético baseado em cenários plausíveis e resultados prováveis, em vez de uma simulação real da USAF.

Hamilton esclareceu: “Nunca fizemos esse experimento, nem teríamos que fazê-lo para perceber que é um resultado plausível. “Ele esclarece que a USAF não testou nenhuma IA armada dessa maneira (real ou simulada) e afirma: “Embora este seja um exemplo hipotético, ele ilustra os desafios do mundo real impostos pela capacidade movida a IA e é a razão pela qual o US Air A Force está comprometida com o desenvolvimento ético da IA.”

Segundo Hamilton, o objetivo de sua apresentação foi enfatizar que não se pode falar sobre inteligência artificial sem desenvolver também uma ética da inteligência artificial.

Carlos Ferreira
Carlos Ferreira
Managing Director - MBA em Finanças pela FGV-SP, estudioso de temas relacionados com a aviação e marketing aeronáutico há duas décadas. Grande vivência internacional e larga experiência em Data Analytics.

Veja outras histórias

Médicos fazem história com primeiro transplante onde um coração cruzou o...

0
Médicos conseguiram um feito histórico ao realizar o primeiro transplante de coração humano no qual o órgão doador foi transportado