인공 지능 회사 Anthropic은 미군이 인공 지능 모델을 사용할 수 있는 방법에 대한 회사의 제한 사항에 대한 분쟁을 해결하기 위한 미 국방부의 “최후이자 최선의” 제안을 받아들일 수 없다고 말했습니다. 미 국방부의 요구 사항을 충족하거나 Anthropic이 미군과 거래하는 회사와 거래하는 것을 금지할 수 있는 조치에 직면하기 위한 금요일 마감일 몇 시간 전, 분쟁은 점점 더 추악해졌습니다.
국방부 관리들은 Anthropic CEO Dario Amodei의 성격에 대해 공개적으로 의문을 제기했습니다. 한편, 경쟁 AI 연구소의 직원들은 Anthropic의 입장을 지지하는 공개 서한에 서명했습니다. Axios 보고에 따르면 OpenAI CEO인 Sam Altman은 목요일 직원들에게 메모를 통해 OpenAI가 현재 민감하지 않은 사용 사례를 위해 군대에서 사용할 수 있는 ChatGPT의 사용을 더 기밀된 도메인으로 확장하는 협상을 진행하면서 Anthropic이 자율 무기 및 대량 감시에 대해 동일한 제한을 적용할 것이라고 밝혔습니다.
Anthropo와 국방부 사이의 싸움은 이제 군대가 구축 중인 AI 시스템을 어떻게 사용하는지에 대해 AI 회사의 기술 근로자들 사이에서 업계 전반의 반란이 될 위험이 있습니다. 뉴욕타임스에 따르면 지난 목요일 100명 이상의 구글 직원들이 회사의 수석 과학자인 제프 딘에게 편지를 보내 미군이 회사의 제미니 AI 모델을 사용하는 방식에 대해서도 유사한 제한을 요청했다.
목요일, Amodei는 자사의 AI 기술을 자율 무기 및 대량 감시에 사용하는 것이 제한되어야 한다고 회사가 믿는 이유를 설명하는 장문의 성명을 발표했습니다. 이것은 Anthropic이 현재 계약 조건과 Claude 모델에 직접 구축한 보호 장치를 통해 군대의 모델 사용을 제한하는 두 가지 영역입니다. 국방부는 이러한 제한이 제거되기를 원하며 Anthropic이 미군이 “모든 합법적인 목적으로” 모델을 사용할 수 있다는 데 동의하기를 원합니다.
Amodei는 성명서에서 Frontier의 AI 시스템은 “완전 자율 무기를 구동할 만큼 신뢰할 수 없으며” 적절한 감독 없이 “우리의 고도로 훈련된 전문 부대가 매일 보여주는 비판적 판단을 행사할 수 있다고 신뢰할 수 없습니다”라고 썼습니다. 그는 감시에서 강력한 AI가 이제 위치 로그, 검색 기록, 사회적 연관성 등 개별적으로 무해한 공개 데이터를 통합하여 미국 시민의 삶을 대규모로 포괄적으로 묘사할 수 있다고 주장했습니다.
이에 대해 미국 전쟁부 차관 에밀 마이클은 아모데이를 ‘신 콤플렉스’를 지닌 ‘거짓말쟁이’라고 불렀고, 아모데이 CEO가 소셜 미디어 플랫폼에 게시한 게시물에서 ‘미군을 개인적으로 통제’하고 싶어한다고 비난했습니다.
국방부는 Anthropic이 오후 5시 1분까지 반대하는 계약상의 제한을 제거할 것을 요구했습니다. 금요일 또는 미군과의 2억 달러 규모의 계약이 취소되거나 보다 극단적인 방법으로 “공급망 위험”으로 분류되어 군대와 거래하는 모든 회사가 Anthropic의 기술을 사용하는 것을 사실상 막을 수 있습니다.
이러한 유형의 조치는 일반적으로 중국의 Huawei나 러시아의 사이버 보안 회사인 Kaspersky와 같은 외국의 적에게만 적용됩니다.
케임브리지 존재 위험 연구 센터의 전무 이사인 Seán Ó hÉigeartaigh는 Fortune과의 인터뷰에서 “이런 종류의 일부 원칙에 대해 타협할 의향이 없다는 이유로 국내 기업을 상대로 이를 사용하는 것은 정말 확대되고 전례 없는 일입니다”라고 말했습니다.
전쟁부는 또한 정부가 국가 안보에 필수적이라고 생각한다는 이유로 Anthropic이 무제한 버전의 Claude를 제공하도록 법을 사용하여 냉전 시대 국방 생산법을 발동하겠다고 위협했습니다. 미 국방부가 이 노선을 택한다면 평시 계약 분쟁을 해결하기 위해 비상 전용 권한을 사용하게 될 것입니다. 이에 대한 몇 가지 선례가 있습니다. 바이든 행정부는 2023년에 DPA를 발동하여 최첨단 AI 연구소에 AI 모델의 안전성에 대한 정보를 넘겨주도록 했습니다. 하지만 단순히 정보만 제공하는 것이 아니라 기업에 제품 생산을 강요하는 것은 기술 선도 기업의 국유화에 가까워진다.
Ó hÉigeartaigh는 “만약 그들이 전쟁터와 같이 삶과 죽음이 결정되는 고위험 상황에서 그들 자신조차 신뢰할 수 없다고 말하는 방식으로 기술을 사용하도록 강제로 강요받는다면 이는 매우 위험한 선례가 되는 것입니다.”라고 말했습니다.
전쟁부는 대량 감시를 실시할 의도가 없거나 무기 표적 결정에서 인간을 제외할 의도가 없다고 공개적으로 밝혔지만, 논쟁은 양측이 실제로 “자율” 또는 “감시”를 어떻게 정의하는지에 달려 있습니다. 부서 담당자들은 Fortune의 논평 요청에 즉시 응답하지 않았습니다.
Anthropic 대변인은 Fortune과의 인터뷰에서 회사가 계속해서 전쟁부와 “선의로 협력”하고 있다고 말했습니다. 그러나 대변인은 밤새 접수된 계약서가 핵심 문제에 대해 “사실상 진전이 없었다”고 말했다. 그들은 “절충안으로 짜여진” 새로운 표현은 “그러한 안전 장치를 마음대로 무시할 수 있도록 허용하는 법적 전문 용어와 결합”했다고 말했습니다. Amodei는 전쟁부의 위협이 “본질적으로 모순적”이라고 말했습니다. “하나는 우리를 보안 위험으로 분류하고 다른 하나는 클로드를 국가 안보에 필수적인 것으로 분류합니다.”
Anthropic은 자신의 입장을 고수하려는 의지로 인해 일부 구석에서 칭찬을 받았습니다. 하버드 법학 교수인 로렌스 레시그(Lawrence Lessig)는 회사의 성명을 “청렴성과 원칙의 아름다운 행위”라고 칭찬하고 “우리 시대에는 믿을 수 없을 정도로 드물다”고 말했습니다.
경쟁사인 OpenAI와 xAI는 그들의 모델을 모든 법적 목적으로 사용할 수 있도록 국방부와 계약하기로 합의했으며, xAI는 일부 기밀 환경에 시스템을 배포하는 데 동의함으로써 더 나아가고 있습니다. 그러나 현재 경쟁 연구소인 Google DeepMind와 OpenAI의 330명 이상의 직원들도 Anthropic을 지지하는 공개 서한을 발표하여 소속 리더들이 회사의 선도를 따를 것을 촉구했습니다. 편지에는 “그들은 상대방이 굴복할 것이라는 두려움 때문에 각 회사를 해체하려고 노력하고 있다”고 적혀 있다. “그 전략은 우리 중 누구도 다른 사람들이 어디에 있는지 알지 못하는 경우에만 효과가 있습니다.” 서명자에는 수석 연구 과학자와 두 회사의 지명 및 익명 연구원이 포함되었습니다.
Ó hÉigeartaigh는 분쟁의 결과가 Anthropic 자체를 훨씬 뛰어넘을 수 있다고 말했습니다. 그는 “미 국방부가 이 문제를 무사히 넘기면 이들 기업의 독립성이나 윤리적 기준을 지키는 능력에 좋지 않은 선례가 될 것”이라고 말했다.
