전문가들에 따르면 AI는 전쟁실에 진입했으며 조만간 아무데도 가지 않을 것이라고 합니다.
월스트리트저널(WSJ)에 따르면 도널드 트럼프 대통령이 연방 기관과 군수업체에 앤트로픽과의 거래를 중단하라고 지시했음에도 불구하고 미군은 이란 공격에 앤트로픽의 인공지능 모델인 클로드를 사용한 것으로 알려졌다.
이제 일부 전문가들은 전쟁 작전에 AI를 사용하는 것에 대해 우려를 표명하고 있습니다. 현대 전쟁에서 군 변호사의 역할을 조사한 The War Lawyers: US, Israel and the Spaces of Targeting의 저자인 Craig Jones 박사는 The Guardian과의 인터뷰에서 “AI 기계는 공격할 표적에 대한 권장 사항을 제시하는데, 이는 실제로 생각의 속도보다 어떤 측면에서 훨씬 빠릅니다.”라고 말했습니다.
Newcastle University의 전쟁 및 분쟁 교수인 Jones는 Fortune과의 대화에서 AI가 초기 목표 식별부터 최종 파괴까지의 시간을 단축하여 “킬 체인”을 크게 가속화했다고 말했습니다. 그는 아야톨라 알리 하메네이의 사망을 초래한 미국과 이스라엘의 이란 공격은 AI가 없었다면 일어나지 않았을 수도 있다고 말했습니다.
존스는 포춘과의 인터뷰에서 “그런 식으로 하는 것은 불가능하거나 거의 불가능했을 것”이라고 말했다. “실행 속도, 공격의 규모와 규모는 AI가 가능하다고 생각합니다.”
미 국방부는 전쟁 계획 속도를 높이고 개선하기 위해 인공 지능 회사의 도움을 받아 2024년 Anthropic과 파트너십을 구축했지만 회사의 인공 지능 모델인 Claude 사용에 대한 의견 차이로 인해 지난주 무산되었습니다. 그러나 OpenAI는 신속하게 국방부와 계약을 체결했고 Elon Musk의 xAI는 회사의 AI 모델인 Grok를 기밀 시스템에 사용하기로 계약을 체결했습니다. 미군은 또한 데이터 마이닝 회사 Palantir의 소프트웨어를 사용하여 의사 결정 목적으로 AI 기반 정보를 얻습니다.
전장의 AI
존스는 미 공군이 수년 동안 의사결정 속도의 기준으로 ‘사고의 속도’를 사용해 왔다고 말했다. 그는 공중 정찰 등 정보 수집부터 폭격 임무 수행까지 2차 세계대전과 베트남전 기간 동안 최대 6개월이 걸릴 수 있다고 말했다. AI는 해당 타임라인을 크게 단축했습니다.
전쟁실에서 AI 도구의 핵심 역할은 대량의 데이터를 빠르게 분석하는 것이다. 존스는 “우리는 테라바이트, 테라바이트, 테라바이트 규모의 데이터에 대해 이야기하고 있다”고 말했다. “항공 이미지, 인간 지능, 인터넷 지능, 휴대전화 추적 등 모든 것이 포함됩니다.”
‘하이퍼워: AI 세기의 갈등과 경쟁’의 공동 저자인 아미르 후세인 박사는 AI가 관찰, 안내, 결정, 행동의 약어인 OODA 루프로 알려진 미군의 의사결정 프레임워크를 압축하는 데 사용되고 있다고 말했습니다. 그는 AI가 전자 및 위성 데이터, 전술적 수준의 의사결정, 특히 신호가 방해될 때 인간의 안내 없이 작동해야 하는 자율 드론을 통해 이미 전자 및 위성 데이터를 관찰하거나 해석하는 데 중요한 역할을 하고 있다고 말했습니다. 이들 드론 중 일부는 실제로 이란이 자체적으로 운용하는 샤헤드(Shahed) 드론의 모조품이다.
AI는 다른 전장에도 등장했습니다. 이스라엘은 이스라엘-하마스 전쟁 중에 AI를 사용하여 하마스 표적을 식별한 것으로 알려졌습니다. 그리고 자율 드론은 러시아와 우크라이나 간 전쟁의 최전선에 있으며, 러시아와 우크라이나는 모두 다양한 자율 기술을 사용하고 있습니다.
위험 증가
그러나 Jones는 AI 기반 전쟁에 대한 여러 가지 우려를 지적했습니다. 존스는 “AI를 추가할 때 문제는 오류의 정도가 몇 배로 늘어난다는 것”이라고 말했습니다.
존스는 2003년 미국의 이라크 침공을 결함 있는 정보 수집에 기반한 갈등으로 언급하면서 AI 기술이 있든 없든 인간의 실수는 확실히 존재한다고 말했다. 그러나 그는 기술이 분석하는 데이터의 규모 때문에 AI가 이러한 오류를 악화시킬 수 있다고 말했습니다.
또한 AI 전쟁은 주로 책임 문제와 관련하여 제기되는 여러 가지 윤리적 질문이 있습니다. 후세인은 제네바 협약과 무력 충돌 법률에 따라 국가가 이미 준수해야 한다고 말했습니다. AI가 인간 수준의 의사 결정과 기계 수준의 의사 결정 사이의 경계를 모호하게 만들면서, 그는 국제 사회가 전장의 모든 행동에 인간의 책임이 부여되도록 보장해야 한다고 말했습니다.
후세인은 “무력분쟁법은 우리가 그 사람을 비난하도록 요구하고 있다”고 말했다. “전장에서 어떤 수준의 자동화가 사용되든 사람은 책임을 져야 합니다.”
