펜타곤의 선택: OpenAI의 진입과 Anthropic의 퇴출, AI 군사화의 새로운 국면
최근 인공지능(AI) 산업과 미국 국방부(Pentagon) 간의 관계에서 역사적인 전환점이 발생했습니다. 도널드 트럼프 행정부가 Anthropic을 '공급망 위험(supply chain risk)'으로 지정하며 연방 정부의 사용을 전면 금지한 직후, OpenAI가 국방부와 새로운 계약을 체결했습니다. 이 사건은 AI 기술의 군사적 활용을 둘러싼 윤리적 딜레마와 국가 안보의 충돌을 극명하게 보여줍니다.
Anthropic의 '레드라인'과 국방부의 강경 대응
Anthropic은 자사의 AI 모델인 Claude가 대량 감시(mass surveillance) 나 완전 자율 무기(fully autonomous weapons) 시스템에 사용되는 것을 금지하는 엄격한 '레드라인'을 고수해 왔습니다. 국방부는 이러한 제한을 해제할 것을 요구했으나, Anthropic의 CEO인 다리오 아모데이(Dario Amodei)는 이를 단호히 거절했습니다.
"우리는 이 두 가지 레드라인을 첫날부터 유지해 왔습니다. 우리는 여전히 그 레드라인을 옹호하며, 결코 물러서지 않을 것입니다."
— 다리오 아모데이, Anthropic CEO
Anthropic이 거부한 핵심 요구 사항은 다음과 같습니다.
- 미국인에 대한 대량 감시 목적의 Claude 사용 허용
- 인간의 개입 없는 완전 자율 무기 시스템 구동에 Claude 활용
- 기존 안전장치 및 사용 제한 조항의 전면 철폐
이에 대한 대응으로 피트 헤그세스(Pete Hegseth) 국방장관은 Anthropic을 국가 안보에 대한 '공급망 위험'으로 지정했습니다. 이는 미국 기업으로서는 전례가 없는 조치로, 군사 계약업체들이 Anthropic과 상업적 거래를 하는 것조차 금지하는 강력한 제재입니다. 트럼프 대통령은 모든 연방 기관에 즉시 Anthropic의 AI 사용을 중단하도록 명령했으며, 국방부 등 일부 기관에는 6개월의 전환 기간을 부여했습니다.
Anthropic은 이 조치가 법적 근거가 부족하며 보복적이라고 비판하며 소송을 예고했습니다. 아모데이 CEO는 이를 "보복적이고 징벌적인 조치"라고 규정하며, 회사가 2024년 6월부터 기밀 네트워크에 Claude를 배포해 온 사실을 상기시켰습니다.
OpenAI의 신속한 계약 체결과 안전장치 논란
Anthropic이 배제된 지 불과 몇 시간 만에, OpenAI의 CEO 샘 알트만(Sam Altman)은 국방부의 기밀 시스템에 자사의 AI 도구를 제공하는 계약을 체결했다고 발표했습니다. 알트만은 이번 계약이 다소 서둘러 진행되었음을 인정하면서도, OpenAI 역시 대량 감시와 자율 무기 시스템에 대한 동일한 레드라인을 유지하고 있다고 강조했습니다.
OpenAI는 공식 블로그를 통해 자사의 안전장치가 단순한 사용 정책을 넘어선 다층적인 접근 방식을 취하고 있다고 설명했습니다. 모델 사용이 금지되는 세 가지 영역은 다음과 같습니다.
- 대량 국내 감시(Mass domestic surveillance)
- 자율 무기 시스템(Autonomous weapon systems)
- 고위험 자동화 의사결정 시스템 (예: 사회 신용 시스템)
OpenAI가 제시한 기술적 안전장치의 핵심은 아래와 같습니다.
| 안전장치 항목 | 내용 |
|---|---|
| 클라우드 기반 배포 | 모델을 클라우드 API로만 제한하여 무기 시스템이나 센서 등 작전 하드웨어에 직접 통합되는 것을 방지 |
| 인적 개입(Human-in-the-loop) | 보안 인가를 받은 OpenAI 직원이 시스템 운영에 상시 관여 |
| 계약적 보호 조항 | 법적, 계약적 장치를 통한 오용 방지 |
| 자체 안전 스택 유지 | OpenAI가 독자적인 안전 기술 스택에 대한 완전한 재량권 보유 |
그러나 이 계약은 즉각적인 비판에 직면했습니다. 기술 전문 매체 Techdirt의 마이크 마스닉(Mike Masnick)은 계약 조항이 행정명령 12333(Executive Order 12333)을 준거로 삼고 있어 실질적으로 국내 감시를 허용할 수 있다고 주장했습니다. 이에 대해 OpenAI의 국가 안보 파트너십 책임자 카트리나 멀리건(Katrina Mulligan)은 "배포 아키텍처가 계약 언어보다 더 중요하다"며 클라우드 API 배포 방식이 실질적인 안전장치라고 반박했습니다.
AI 기업들의 엇갈린 행보와 향후 전망
이번 사건은 AI 기업들이 국가 안보 요구와 기업의 윤리적 기준 사이에서 어떻게 균형을 맞출 것인지에 대한 중요한 선례를 남겼습니다.
| 기업명 | 국방부와의 관계 | 핵심 입장 | 현재 상태 |
|---|---|---|---|
| Anthropic | 계약 취소 및 사용 금지 ($2억 이상 계약 취소) | 자율 무기 및 대량 감시 사용 절대 불가 고수 | 국방부 상대로 소송 준비 중 |
| OpenAI | 기밀 시스템 사용 계약 체결 | 클라우드 배포 등 기술적 제한을 통한 안전장치 마련 주장 | 국방부 시스템에 통합 진행 중 |
| xAI (Grok) | 기밀 시스템 사용 계약 체결 (2월 23일) | 군사 목적 사용에 적극적 | 국방부 시스템에 통합 완료 |
법률 전문가들은 국방부의 Anthropic에 대한 '공급망 위험' 지정이 여러 절차적 결함을 안고 있다고 지적합니다.
- 법령이 요구하는 위험 평가(risk assessment) 미실시
- 조치 전 의회 통보 부재
- 적대 세력이 Anthropic의 사용 제한을 통해 시스템을 파괴하거나 전복할 수 있다는 증거 부재
- 덜 강압적인 완화 조치를 먼저 시도하지 않은 점
전 트럼프 AI 정책 자문관 딘 볼(Dean Ball)은 헤그세스의 해석이 "거의 확실히 불법"이며 "기업 살인 시도"라고까지 표현했습니다.
이 사건이 AI 산업에 던지는 질문
이번 사태는 AI 기술의 군사화를 둘러싼 근본적인 질문을 제기합니다. 민간 기업이 자사 기술의 사용 방식에 대해 윤리적 한계를 설정할 권리가 있는가, 아니면 국가 안보를 이유로 정부가 이를 강제로 해제할 수 있는가의 문제입니다.
Anthropic의 소송 결과는 향후 정부가 민간 기술 기업에 행사할 수 있는 권한의 한계를 규정하는 중요한 판결이 될 것입니다. 소송이 수년에 걸쳐 진행되는 동안, 기업들의 법무팀은 리스크 회피 차원에서 Anthropic 제품 도입을 꺼릴 수 있으며, 이는 회사의 성장에 실질적인 타격을 줄 수 있습니다.
결론적으로, 펜타곤을 둘러싼 OpenAI와 Anthropic의 엇갈린 운명은 AI 기술이 단순한 산업적 도구를 넘어 국가 안보의 핵심 자산으로 자리 잡았음을 보여줍니다. 기술의 발전 속도만큼이나 이를 통제하고 활용하는 윤리적, 법적 가이드라인의 확립이 시급한 시점입니다.
참고 자료
- TechCrunch: OpenAI reveals more details about its agreement with the Pentagon
- CBS News: AI executive Dario Amodei on the red lines Anthropic would not cross
- MLQ.ai: Anthropic Announces Plan to Sue Pentagon Over Supply Chain Risk Label
- Reuters: OpenAI details layered protections in US defense department pact



