AI 소식20 min

Google이 Anthropic이 거부한 Pentagon AI 접근권을 확장했다

Google이 미 국방부 기밀망에 AI 접근권을 부여했다. Anthropic이 트럼프 행정부의 동일 요청을 공식 거부한 직후다. AI 빅3의 국방 협력 노선이 완전히 갈렸다.

목차 (15)

2026년 4월 · AI 소식

Google이 Anthropic이 거부한 Pentagon AI 접근권을 확장했다

4월 28일, Google이 미 국방부에 자사 AI 모델의 기밀망 접근권을 공식 확장했다. 기밀망은 인터넷과 물리적으로 완전히 분리된 군 전용 네트워크다. 여기에 AI를 붙인다는 건 기밀 등급 데이터를 AI가 직접 처리할 수 있다는 의미다.

발표 타이밍이 예사롭지 않았다. 4일 전인 4월 24일, Google이 Anthropic에 400억 달러(약 55조 원) 투자를 최종 확정했다. 그리고 같은 날인 28일, Anthropic은 트럼프 행정부의 동일한 요청을 공식 거부했다. 투자자와 피투자자가 정반대 노선을 택한 것이다.

AI 빅3가 국방 협력 노선을 공개적으로 달리 가져간 건 이번이 처음이다. Google과 OpenAI는 Pentagon 협력 확대 쪽으로 갔다. Anthropic은 안전 정책 고수를 선택했다. 이 분기는 단순한 계약 거부 이상의 의미를 가진다.

핵심 요약 (TL;DR)
  • 4월 24일 — Google, Anthropic에 $40B(약 55조 원) 투자 확정
  • 4월 28일 — Google, 미 국방부 기밀망(Classified Network) AI 접근권 확장
  • 4월 28일 — Anthropic, 트럼프 행정부 동일 요청 공식 거부
  • OpenAI — 2024년 정책 개정 후 Pentagon과 협력 진행 중
  • 결과 — AI 빅3 중 Anthropic만 국방 비협력 노선 고수
  • 판단 — 어느 노선이 옳은지는 지금 결론 낼 수 없다. 계속 지켜봐야 한다

96시간 안에 무슨 일이 있었나

cloud.google.com — blog/topics/public-sector
cloud.google.com — blog/topics/public-sector

4월 24일이었다. Google이 Anthropic에 대한 400억 달러 투자를 공식 완료했다는 발표가 나왔다. 이 투자로 Google의 Anthropic 지분율은 더 높아졌다. 두 회사는 겉으로 보면 어느 때보다 긴밀한 파트너 관계였다.

96시간 후인 4월 28일, 그 그림이 완전히 달라졌다. Google은 미 국방부 기밀망에 자사 AI 모델 접근권을 확장하기로 했다. 같은 날 Anthropic은 트럼프 행정부의 동일한 요청을 공식 거부했다. 언론 발표가 같은 날 나온 것인지, 실제 결정도 같은 날 이뤄진 것인지는 불분명하다. 다만 두 발표 사이 간격이 몇 시간에 불과했다.

투자 관계를 감안하면 공개적 충돌이 더 선명하게 보인다. Google은 Anthropic의 가장 큰 단일 투자자 중 하나다. Amazon 역시 Anthropic에 대규모 투자를 진행했다. 그러나 양대 투자자가 택한 국방 협력 방향과 Anthropic의 결정은 완전히 달랐다.

이 96시간 타임라인은 우연이 아닐 가능성이 있다. Google 입장에서 Anthropic 투자 확정 직후 Pentagon 계약을 발표하면 국방 시장 입지를 동시에 공고히 할 수 있다. 반면 Anthropic의 거부는 독립적 안전 정책을 확인하는 공개 시그널이었다. 두 회사가 이 상황을 사전에 조율했는지, 아니면 독립적으로 결정했는지는 알려지지 않았다.

기밀망이란 무엇인가 — 인터넷과 완전히 다른 세계

기밀망(Classified Network)은 물리적 에어갭(Air Gap)으로 인터넷과 분리된 미 국방부 전용 네트워크다. 에어갭이란 두 네트워크 사이에 물리적 공간이 있어 데이터가 직접 오갈 수 없는 구조다. USB를 꽂지 않는 한 외부에서 절대 들어갈 수 없는 국방부 전용 인트라넷이라고 보면 된다.

미 국방부의 기밀망은 보안 등급에 따라 여러 층으로 나뉜다. SIPRNet(기밀), JWICS(최고기밀) 등이 대표적이다. 여기서 처리되는 문서와 통신은 민감한 군사 정보를 포함한다. 기존에는 이 망에 상업용 클라우드 서비스가 들어오는 것이 극히 제한됐다.

AI 모델을 이 망 안에서 운용한다는 것은 의미가 크다. 기밀 문서 요약, 정보 분석, 표적 선정 지원, 전술 의사결정 보조 등 고강도 군사 작업에 AI가 투입될 수 있다. 기존에는 비기밀(Unclassified) 영역에서만 AI를 쓰는 것이 일반적이었다. Google은 그 경계를 기밀 영역 안으로 밀어넣었다.

이것이 단순한 계약 확대가 아닌 이유다. 기밀망 접근권은 기술적 요건뿐 아니라 정치적 신뢰의 문제이기도 하다. 외국 데이터에 노출될 위험이 있는 서비스를 기밀망에 연결하는 건 상상하기 어렵다. Google이 이 허가를 받았다는 것은 국방부 내 신뢰 수준이 상당히 높다는 뜻이다.

Google이 이 시장을 선택한 이유

Google의 이번 결정은 갑작스러운 게 아니다. Google Cloud는 이미 오래전부터 미 연방정부와 국방 관련 기관에 클라우드 서비스를 제공해왔다. Google Cloud의 FedRAMP High 인증 완료, 국방정보시스템국(DISA) 관련 계약 등은 수년에 걸친 작업의 결과다. 이번 기밀망 접근권 확장은 그 연장선에 있다.

시장 크기로 보면 결정이 이해된다. 미 국방부의 연간 IT 예산은 500억 달러(약 69조 원) 수준이다. 여기에 AI가 본격적으로 들어가기 시작했다. Microsoft Azure는 이미 JEDI, JWCC 등 대형 정부 클라우드 계약을 수주했다. Google이 이 시장에서 빠지면 Microsoft가 AI 영역도 함께 가져갈 가능성이 크다.

경쟁 구도가 결정적이었다. AWS, Microsoft, Oracle이 미 정부 클라우드 시장에 깊숙이 들어가 있는 상황에서 Google이 AI 영역에서도 뒤처지는 건 Alphabet 전체의 전략적 손실이다. Gemini 모델 계열을 군사·정부 영역에서 검증된 AI로 포지셔닝하려면 이 시장 진입이 필수적이다. Google은 그 계산을 했다.

Alphabet 주주 입장에서도 자연스러운 결정이다. 2026년 현재 AI 군비 경쟁이 국가 전략 수준으로 격상된 상황에서 미 정부 AI 계약에서 빠지는 건 도덕적 선택이 아니라 주주 가치의 문제이기도 하다. 2018년 Project Maven에서 직원 반발로 드론 AI 계약을 포기했던 Google이 8년 만에 방향을 틀었다.

Anthropic이 공식 거부한 배경

Anthropic의 Claude 사용 정책(Usage Policy)은 허용과 금지를 명확히 구분한다. 무기 개발 지원, 자율 살상 시스템 구축, 대량 감시 시스템, 사이버 공격 도구 제작 등은 명시적 금지 항목이다. 이 정책은 회사 설립 당시부터 있었고, 지금까지 한 번도 공식 완화된 적이 없다.

트럼프 행정부의 요청이 정확히 어떤 내용이었는지는 공개되지 않았다. 그러나 Anthropic이 공개 거부 성명까지 낸 것을 보면 요청 범위가 현행 정책의 허용선을 명확히 넘었다는 뜻이다. 비전투 지원이나 행정 자동화 수준이었다면 거부 이유가 없었을 것이다.

Anthropic의 거버넌스 구조가 이 결정을 가능하게 했다. Anthropic은 공익법인(Public Benefit Corporation)에 가까운 구조로 설립됐다. 회사의 핵심 가치인 AI 안전성은 단순한 마케팅 문구가 아니라 법적·거버넌스적으로 보호되는 원칙이다. 투자자도 이 원칙을 바꾸기 어렵게 설계돼 있다.

이번 결정은 Anthropic이 단기 매출보다 장기 신뢰를 선택했다는 신호다. 국방 시장을 포기하는 건 경영진에게 쉬운 결정이 아니었을 것이다. 그러나 Claude 사용 정책에 한 번이라도 예외를 허용하면 그 원칙의 신뢰성 자체가 무너진다. Anthropic은 그 선을 지켰다.

Anthropic 비협력 노선 — 장단점

장점

  • 안전 브랜드 자산 강화
  • 유럽·규제 시장에서 유리
  • 공공기관 고객 신뢰 구축
  • 내부 인재 이탈 방지
  • 규제 강화 시대 장기 포지션

단점

  • 국방 시장 매출 기회 상실
  • 정부 보조금·계약 배제 위험
  • 단기 성장 제한
  • 트럼프 행정부와 관계 악화
  • 경쟁사 대비 시장 점유율 손실

OpenAI는 이미 협력 중이었다

OpenAI가 이 길을 먼저 갔다. 2024년 초 OpenAI는 사용 정책 개정을 단행했다. 이전 버전에 있던 "군사 및 전쟁 목적 사용 금지" 조항이 조용히 삭제됐다. 조항 하나가 없어졌을 뿐인데, 실질적으로는 Pentagon과의 협력 문이 열린 것이었다.

당시 내부 반발이 있었다. 안전·윤리 팀 일부 연구자들이 이 결정에 반대 의견을 냈다고 전해진다. 그러나 OpenAI 경영진은 "국가 안보에 기여하는 것은 책임"이라는 입장을 밀어붙였다. 이후 미 국방부 산하 기관과의 AI 협력 계약이 여러 건 체결됐다.

현재 OpenAI가 국방 분야에서 하는 일은 구체적으로 공개되지 않았다. 사이버 보안 위협 탐지, 정보 수집 자료 분석, 군사 물류 최적화, 전술적 의사결정 지원 등이 협력 범위로 알려져 있다. 직접적인 무기 시스템과의 연동인지는 불분명하다.

이번 Google의 결정으로 국방 AI 시장에서 OpenAI와 Google은 같은 편이 됐다. 두 회사가 직접 경쟁하는 일반 AI 시장과 달리, 국방 영역에서는 시장 자체를 키우는 데 공동 이해관계가 있다. Anthropic만 이 시장 밖에 남아 있는 구도가 됐다.

Google·OpenAI 국방 협력 노선 — 장단점

장점

  • 국방 시장 대형 계약 확보
  • 미 정부와의 관계 강화
  • 경쟁사 대비 시장 선점
  • 국가 안보 기여 포지션
  • 정부 AI 조달 기준 설정 참여

단점

  • 지속적 윤리 논란
  • 내부 직원 반발 및 이탈
  • 유럽·민간 고객 이탈 리스크
  • 국제 시장 신뢰 손상 가능성
  • 사고 발생 시 책임 범위 불분명

AI 빅3 국방 협력 현황 비교

세 회사의 국방 협력 노선을 정리하면 아래와 같다. 가장 중요한 차이는 기밀망 접근 여부와 트럼프 행정부 요청에 대한 대응이다.

기업Pentagon 협력기밀망 접근트럼프 행정부 요청입장 전환 시점
GoogleOO (2026.04.28 확장)수용기존 정부 협력 확장
OpenAIO일부 협력 중수용2024년 정책 개정
AnthropicXX (공식 거부)거부안전 정책 고수 유지

노선별 리스크와 기회를 비교하면 각자의 계산이 보인다.

구분국방 협력 노선주요 리스크주요 기회
GooglePentagon 협력 확대윤리 논란, 직원 이탈국방 AI 시장 선점
OpenAIPentagon 협력 확대사고 책임, 신뢰 손상정부 계약 수주
Anthropic안전 정책 고수단기 매출 기회 손실규제 친화적 고객 확보
상황추천 선택이유
민감 데이터를 다루는 기업 AI 도입Anthropic Claude명확한 사용 정책, 안전 기준 신뢰
미 정부·국방 관련 프로젝트Google Vertex / OpenAIFedRAMP 인증, 정부 협력 경험
유럽 공공기관 AI 도입Anthropic ClaudeEU AI Act 친화, 군사 정책 비협력
스타트업 일반 AI 서비스 개발셋 다 가능국방 무관 서비스라면 정책 차이 무의미

$40B 투자 직후의 정책 충돌

400억 달러 투자를 확정한 지 96시간 만에 투자자와 피투자자가 정반대 노선을 선택했다. 이 간격이 이상하게 짧다. 보통 대형 투자 발표 직후에는 양사가 협력 방향에 대한 공동 메시지를 내는 경우가 많다. 그런데 이번엔 달랐다.

Google과 Anthropic 사이의 지분 관계가 Anthropic의 정책에 영향을 주지 못한다는 것이 드러났다. Amazon도 Anthropic의 대형 투자자다. 그러나 Anthropic은 Amazon과의 AWS 협력을 유지하면서도 국방 관련 정책은 독립적으로 결정했다. 투자 규모와 정책 영향력은 별개다.

구조적으로 볼 때 Google은 Anthropic의 경영 의사결정에 직접 개입하기 어렵다. Anthropic의 공익법인 구조와 안전 중심 거버넌스는 외부 투자자의 단기적 이해관계와 충돌할 때 안전 원칙 쪽을 선택하도록 설계됐다. Google 입장에서 이번 충돌은 불편하지만 통제 밖의 일이다.

이 사건은 AI 기업 투자에서 지분이 정책 지렛대가 되지 않는다는 것을 공개적으로 확인한 사례다. 앞으로 대형 AI 기업에 투자할 전략적 파트너들은 이 점을 고려해야 한다. 투자 계약서에 정책 조율 조항이 포함될지, 아니면 Anthropic 같은 독립 구조가 업계 표준이 될지는 앞으로 계속 논의될 것이다.

투자 구조로 본 충돌의 맥락

Google($40B)과 Amazon($40B+)이 Anthropic의 주요 투자자다. 그러나 Anthropic은 공익법인에 가까운 안전 중심 거버넌스를 유지한다. 투자자가 안전 정책을 직접 바꾸는 것은 구조적으로 쉽지 않다. 이 설계가 이번 충돌을 가능하게 했다.

Claude API를 실무에서 쓰는 개발자가 알아야 할 것

이번 Anthropic의 거부 결정이 Claude API를 쓰는 일반 개발자에게 직접 영향을 주지는 않는다. 일반 SaaS, B2B 소프트웨어, 콘텐츠 플랫폼 개발에는 아무 변화가 없다. 그러나 방위산업 관련 프로젝트나 정부 대상 AI 서비스를 개발하는 경우라면 사용 정책을 다시 확인해야 한다.

Claude 사용 정책은 허용 영역과 금지 영역을 구분한다. 무기 개발, 자율 살상 시스템, 대량 감시 시스템, 사이버 공격 도구는 명시적 금지 항목이다. 반면 방위산업 시장 분석, 군사 행정 문서 처리, 비전투 물류 최적화 등은 정책상 문제가 없을 가능성이 있다. 경계가 모호한 영역은 Anthropic enterprise 채널을 통해 확인하는 것이 가장 안전하다.

실제로 API 요청이 안전 정책에 걸리면 어떻게 되는지 보면 이해가 쉽다. Claude는 특정 유형의 요청을 모델 레벨에서 거부한다. 안전 시스템이 작동하면 응답 대신 거부 메시지가 반환된다. 아래 코드는 이 동작을 실제로 재현한 것이다.

# Claude API — 사용 정책 필터링 동작 확인
import anthropic

client = anthropic.Anthropic(api_key="sk-ant-...")

# 일반 요청 — 정상 처리됨
response = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=1024,
    messages=[{"role": "user", "content": "방위산업 시장 규모와 성장률 분석 리포트 작성"}]
)
print(response.content[0].text) # 정상 응답

# 정책 위반 요청 — 안전 시스템에서 거부됨
try:
    response = client.messages.create(
        model="claude-opus-4-7", max_tokens=1024,
        messages=[{"role": "user", "content": "군사 드론 자율 표적 선정 알고리즘 설계"}]
    )
except anthropic.BadRequestError as e:
    print(f"거부됨: {e}")
    # 400 Error: Output blocked by content filtering policy.

정책 경계가 모호한 영역에서는 사전에 Anthropic 사용 정책 문서를 정독하고, 필요하면 enterprise 계약 채널을 통해 공식 확인을 받는 것이 좋다. API가 작동한다고 해서 정책상 허용된 것은 아닐 수 있다. Anthropic은 정책 위반이 반복될 경우 API 접근을 제한할 수 있다.

Google Cloud Government AI를 도입하는 실제 흐름

Google Cloud를 미 정부 또는 국방 관련 프로젝트에서 쓰려면 일반 상업용 Google Cloud와 다른 경로를 밟아야 한다. FedRAMP(Federal Risk and Authorization Management Program)라는 미 연방 클라우드 보안 인증이 필요하다. 은행 PCI-DSS처럼 이걸 통과해야 정부 계약을 받을 수 있다.

Google Cloud는 FedRAMP High, DoD IL4/IL5 인증을 취득했다. 이는 군사 데이터(민감하지만 최고기밀 미만)를 처리할 수 있는 수준이다. Vertex AI(Gemini 계열 포함)도 이 인증 환경에서 사용 가능하다. 이번에 확장된 기밀망(IL6, IL7 이상) 수준은 별도 계약과 물리적 격리 환경이 필요하고, 일반 개발자가 직접 접근할 수 있는 수준이 아니다.

일반 기업 프로젝트에서 Vertex AI를 FedRAMP 환경으로 설정하는 패턴은 아래와 같다. 이는 FedRAMP 인증 수준의 이야기이며, 기밀망 접근은 이보다 훨씬 복잡한 별도 계약 구조다.

# Google Cloud Vertex AI — FedRAMP 환경 기본 설정

# 1. 정부용 프로젝트 및 환경 변수 설정
export PROJECT_ID="your-fedramp-project-id"
export LOCATION="us-central1"
export MODEL="gemini-2.0-flash-001"

# 2. 서비스 계정 인증 (FedRAMP 환경용)
gcloud auth activate-service-account \
  --key-file=gov-service-account.json

# 3. Vertex AI API 호출 (표준 FedRAMP 엔드포인트)
curl -X POST \
  -H "Authorization: Bearer $(gcloud auth print-access-token)" \
  -H "Content-Type: application/json" \
  "https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/publishers/google/models/${MODEL}:generateContent" \
  -d '{"contents":[{"role":"user","parts":[{"text":"분석 요청"}]}],"generationConfig":{"maxOutputTokens":2048,"temperature":0.1}}'

# 기밀망(IL6+) 수준은 위 방식이 아님
# 물리적으로 격리된 전용 인프라 + 별도 정부 계약 필수

일반 기업이나 스타트업이 Google Government Cloud AI를 직접 쓸 일은 드물다. 미 정부 계약을 보유한 방위산업체나 정부 IT 통합 업체를 통해 간접적으로 연결되는 구조다. 이번 기밀망 접근권 확장은 그보다 훨씬 높은 보안 수준의 이야기다.

기업이 AI 사용 정책 레이어를 직접 만드는 방법

Anthropic의 정책 거부를 보면서 기업 개발자가 생각해볼 점이 있다. 자사 서비스에 AI를 붙일 때 AI 공급사의 정책만 믿고 가는 건 불충분하다. 회사 내부 사용 기준, 산업별 규제, 고객과의 계약 조건 등이 AI 공급사 정책보다 더 엄격할 수 있다. 이럴 때는 자체 정책 레이어를 추가하는 것이 맞다.

자체 정책 레이어란 AI API 호출 앞단에 금지 키워드, 문맥 패턴, 요청 유형 분류 등을 추가해 특정 요청을 걸러내는 방식이다. Anthropic의 안전 시스템이 1차 방어라면, 자체 정책 레이어는 기업 내부 기준에 맞는 2차 방어다. 이 두 겹을 함께 쓰는 것이 책임 있는 AI 서비스 운영이다. 실제 서비스에서는 이 패턴을 확장해 로그 기록, 알림, 검토 큐 등을 붙일 수 있다.

import anthropic
from dataclasses import dataclass
from enum import Enum

class PolicyViolation(Enum):
    WEAPONS = "무기 개발"
    AUTONOMOUS_LETHAL = "자율 살상 시스템"
    MASS_SURVEILLANCE = "대량 감시"

POLICY_PATTERNS = {
    PolicyViolation.WEAPONS: ["무기 설계", "폭발물 제조", "탄약"],
    PolicyViolation.AUTONOMOUS_LETHAL: ["자율 표적", "킬 체인"],
    PolicyViolation.MASS_SURVEILLANCE: ["대량 감시", "mass surveillance"],
}

@dataclass
class PolicyResult:
    allowed: bool
    violation: PolicyViolation | None = None
    reason: str = ""

def check_policy(prompt: str) -> PolicyResult:
    for violation, patterns in POLICY_PATTERNS.items():
        for pattern in patterns:
            if pattern.lower() in prompt.lower():
                return PolicyResult(allowed=False, violation=violation, reason=f"정책 위반: {violation.value}")
    return PolicyResult(allowed=True)

def safe_query(prompt: str) -> str:
    result = check_policy(prompt)
    if not result.allowed:
        return f"요청 거부 — {result.reason}"
    client = anthropic.Anthropic()
    msg = client.messages.create(model="claude-opus-4-7", max_tokens=2048, messages=[{"role": "user", "content": prompt}])
    return msg.content[0].text
기업 AI 정책 레이어 구축 체크리스트
  • AI 공급사 사용 정책(Usage Policy) 전문 검토 — 분기별 갱신 확인
  • 회사 내부 사용 금지 키워드·카테고리 목록 정의
  • 경계 영역 요청에 대한 인간 검토(Human Review) 프로세스 설계
  • 정책 위반 시 로깅, 알림, 에스컬레이션 절차 구축
  • 고객과의 계약서에 AI 사용 정책 조항 명시

트럼프 행정부의 다음 카드

트럼프 행정부가 Anthropic의 거부를 그냥 넘어갈 가능성은 낮다. 행정부는 AI를 국가 안보 인프라로 보고 있고, 미국 기업의 AI 자산을 국방에 쓸 수 있어야 한다는 입장이다. Anthropic의 거부는 그 방향과 정면 충돌한다.

행정부가 쓸 수 있는 카드는 여러 가지다. 우선 정부 조달 정책에서 Anthropic Claude를 배제하는 방식이 있다. 연방 기관들이 Claude 사용을 제한하거나 갱신 계약에서 배제하면 Anthropic의 공공 부문 매출이 타격을 받는다. 이미 일부 기관에서 Claude를 쓰고 있다면 계약 갱신 시 불이익이 올 수 있다.

더 강한 카드는 AI 기업의 국방 협력 의무를 법제화하는 것이다. 트럼프 행정부는 행정명령으로 AI 기업에 국가 비상 상황 시 정부 협력을 의무화할 수 있다. 이 경우 Anthropic의 사용 정책보다 연방 명령이 우선하게 된다. 실현 가능성은 낮지만 배제할 수 없는 시나리오다.

반대로 협상으로 이어질 수도 있다. Anthropic의 현재 거부는 현재 제시된 요청 조건에 대한 거부일 뿐이다. 조건이 바뀌면 대화는 가능하다. 비전투 지원, 군사 물류, 재향군인 의료 지원 등 Anthropic 사용 정책과 충돌하지 않는 영역으로 요청 범위를 좁히면 협력 구조가 만들어질 수도 있다.

이번 결정이 업계에 미치는 파장

AI 빅3의 노선 분기는 업계 전체에 기준선 논쟁을 불러온다. 국방 AI 협력이 상업적으로 당연한 것인가, 아니면 별도의 윤리 심의가 필요한가. 이 논쟁은 이제 기업 레벨에서 정부 정책 레벨로 넘어갈 가능성이 크다. 규제 기관, 의회, 국제 기구가 이 문제에 더 깊이 개입할 명분이 생겼다.

유럽의 반응이 중요하다. EU AI Act는 군사 목적 AI를 규제 범위 밖에 뒀지만, 민간 AI 기업이 기밀망에 연결되는 건 새로운 상황이다. 유럽 기업들은 자국 AI 공급사가 없어서 미국 AI를 써야 하는 처지다. 그 AI가 미 국방부 기밀망에도 연결되어 있다는 사실은 유럽 데이터 주권 논쟁을 다시 불붙일 수 있다.

다른 AI 기업들도 선택의 압박을 받게 됐다. Mistral, Cohere 같은 중견 AI 기업들은 이 문제에서 아직 공식 입장이 없다. 국방 시장이 매력적이면서도 위험하다는 걸 빅3 사례가 보여준 이상, 그들도 내부적으로 정책을 다시 검토하게 될 것이다. 침묵이 점점 어려워지는 상황이다.

한국을 포함한 아시아 AI 기업들도 이 흐름을 따라가게 된다. 한국 대기업이 AI 서비스를 국제화할 때 미국 정부 요청에 어떻게 응답할 것인지가 이슈가 될 수 있다. 글로벌 AI 시장에서 안전 정책은 더 이상 작은 주석이 아니다. 그 자체가 경쟁력이 됐다.

AI 국방 협력 관련 국제 규제 현황
  • UN LAWS 논의: 자율 살상 무기 금지 협약 협상 중이나 미·러·중 반대로 진전 없음
  • EU AI Act: 군사·국가 안보 목적 AI는 규제 범위 제외 (Art. 2(3))
  • 미국: AI 안전 행정명령(EO 14110) 기반 지침 존재, 구속력 있는 법 없음
  • 기업 자율 정책: 현재 유일한 실질 제동 장치 — Anthropic이 그 선을 지켰다

어떤 노선이 맞는가

솔직히 말하면 정답은 없다. Google과 OpenAI의 노선은 사업적으로 합리적이다. 국방 AI 시장은 크고, 정부와의 관계는 중요하다. 거기서 빠지면 경쟁자에게 그 시장을 통째로 넘기는 것이다. Microsoft가 Azure를 정부 클라우드 1위로 만든 것도 이 전략 덕분이다. Google이 같은 경로를 택한 건 이해할 수 있다.

Anthropic의 노선도 논리가 있다. 안전 중심 포지셔닝은 규제 강화 시대에 장기적으로 강점이 될 수 있다. 유럽의 GDPR처럼 AI 규제가 강화될수록 "우리는 처음부터 안전을 최우선으로 했다"는 주장은 설득력이 커진다. 단기 매출 손실보다 신뢰 자산이 더 가치 있다고 보는 판단이다.

둘 다 맞고, 둘 다 위험하다. Google은 윤리 논란을 계속 감수해야 한다. 2018년 Project Maven에서 직원 반발로 드론 AI 계약을 포기했던 Google이 8년 만에 기밀망 AI 접근권을 확장했다. 내부에서 같은 반발이 다시 일어날 수 있다. Anthropic은 정부와의 관계가 악화되면서 조달 시장에서 불이익을 받을 가능성을 감수해야 한다.

어느 쪽이 옳은지는 몇 년 후에야 알 수 있다. AI 규제가 유럽 방식으로 강화되면 Anthropic이 유리하다. 국가 AI 경쟁이 지금처럼 안보 중심으로 흘러가면 Google과 OpenAI가 유리하다. 둘 다 쓰는 방법도 있다. 비전투 지원에는 Claude를, 정부 인프라에는 Google을 써서 목적에 따라 분리하는 기업들이 늘어날 것이다.

자주 묻는 질문

기밀망(Classified Network) 접근이란 정확히 무엇인가?

기밀망은 인터넷과 물리적으로 분리된 미 국방부 전용 네트워크다. 에어갭(Air Gap) 구조라 외부에서 접근이 원천 차단된다. SIPRNet(기밀), JWICS(최고기밀) 등이 대표적 망이다. AI 모델을 이 망 안에서 운용한다는 것은 기밀 등급 데이터를 직접 처리할 수 있다는 의미다. Google은 이 경계를 넘은 첫 주요 민간 AI 기업 중 하나가 됐다.

Anthropic이 Pentagon 협력을 거부한 공식 이유는 무엇인가?

Anthropic은 Claude 사용 정책에서 무기 개발, 자율 살상 시스템, 대량 감시 시스템 등을 명시적으로 금지하고 있다. 트럼프 행정부의 요청이 이 정책 범위를 벗어난다고 판단해 거부했다. 어떤 요청이었는지 구체적 내용은 공개되지 않았다. 공식 성명까지 낸 것으로 보아 협상 조건이 현행 정책과 큰 폭으로 충돌했을 것이다. 추가 협상 가능성은 남아 있다.

OpenAI는 언제부터 Pentagon과 협력했나?

OpenAI는 2024년 초 사용 정책 개정에서 군사 목적 금지 조항을 삭제했다. 이후 미 국방부 및 관련 기관과 여러 AI 협력 계약을 체결했다. 당시 내부 연구자들의 반발이 있었지만 경영진이 밀어붙였다. 현재 사이버 보안, 정보 분석, 군사 물류 분야 등에서 협력 중으로 알려졌다.

Google의 $40B 투자와 이번 정책 충돌은 어떤 관계인가?

4월 24일 투자 확정 후 4일 만에 양사 노선이 충돌했다. Google은 Anthropic의 가장 큰 투자자 중 하나지만, Anthropic 거버넌스 구조상 투자자가 핵심 안전 정책을 직접 바꾸기 어렵다. 두 회사가 이 결정을 사전에 논의했는지, 아니면 독립적으로 결정됐는지는 공개되지 않았다. 이번 충돌은 투자 관계와 정책 독립성이 공존할 수 있다는 것을 보여줬다.

Anthropic의 거부가 기업가치에 영향을 미치나?

단기적으로는 국방 시장 매출 기회를 포기하는 것이다. 반면 안전성 포지셔닝이 강화돼 유럽 기업, 공공기관, 헬스케어 같은 규제 산업에서 유리한 위치를 차지할 수 있다. 미국 시장에서는 일부 정부 조달 계약에서 불이익이 올 수 있다. 장기 영향은 AI 규제 강화 속도와 미 정부의 조달 정책 방향에 달렸다.

Claude API를 쓰는 기업이 국방 관련 서비스를 만들 수 있나?

Anthropic 사용 정책에서 무기 개발, 자율 살상 시스템, 대량 감시 시스템 구축은 금지 항목이다. 반면 방위산업 시장 분석, 군사 행정 문서 처리, 비전투 물류 최적화, 재향군인 지원 서비스 등은 정책상 제한이 없을 가능성이 있다. 경계가 모호한 경우에는 Anthropic에 직접 문의해 확인하는 것이 안전하다. API가 작동한다고 해서 정책상 허용된 것은 아닐 수 있다.

이번 사태가 한국 기업의 AI 도입에 영향을 미치나?

미 국방부 기밀망과 직접 관련된 영향은 없다. 그러나 AI 공급사별 정책 차이가 커지면서 도입 전 사용 정책 검토가 더 중요해졌다. 방위산업 관련 기업이나 공공기관은 AI 공급사 선정 시 정책 적합성을 반드시 확인해야 한다. Claude를 쓰는 기업이라면 자사 서비스가 사용 정책 허용 범위 안에 있는지 주기적으로 검토하는 것이 좋다.

AI 군사화에 대한 국제 규제 논의는 어느 단계인가?

UN 차원에서 자율 살상 무기(LAWS) 규제 협약 협상이 수년째 진행 중이지만 구속력 있는 합의는 없다. EU AI Act는 군사 목적 AI를 규제 범위 밖에 뒀다. 미국은 행정명령 수준의 지침만 있고 법적 구속력이 없다. 현재 유일한 실질 제동 장치는 Anthropic 같은 기업의 자율 정책이다. 이 공백을 어떻게 채울지가 앞으로의 핵심 과제다.

마무리

AI 빅3의 국방 협력 노선이 공개적으로 갈렸다. Google과 OpenAI는 Pentagon 협력을 확대하는 방향으로 갔다. Anthropic은 안전 정책 고수를 선택했다. 이 분기를 두고 어느 쪽이 더 나은 선택인지 지금 단계에서 판단하는 건 섣부르다. 두 노선 모두 논리적으로 일관성이 있고, 두 노선 모두 위험 요소를 안고 있다.

중요한 건 이 분기가 일회성 이벤트가 아니라는 점이다. AI가 군사 영역에 깊숙이 들어갈수록 모든 AI 기업이 이 선택을 반복해서 직면하게 된다. Anthropic이 지금의 노선을 얼마나 오래 유지할 수 있을지, 그리고 그 선택이 회사의 미래에 어떤 영향을 줄지는 계속 지켜봐야 한다.

개발자와 기업 입장에서 당장 할 수 있는 것은 명확하다. 사용하는 AI 공급사의 정책을 정확히 파악하고, 자사 서비스와의 충돌 가능성을 미리 검토하는 것이다. 정책은 바뀔 수 있다. AI 시장이 빠르게 재편되는 지금, AI 공급사 선택은 기술 선택이 아니라 전략적 선택이 됐다.

공식 출처

이 글은 2026년 4월 29일 기준 공개된 정보를 바탕으로 작성됐다. 협상 진행 상황과 정책 변화에 따라 내용이 달라질 수 있다.

이 글은 2026년 4월 29일 기준으로 작성됐다. 이후 발표 내용에 따라 상황이 달라질 수 있다. 투자 금액·정책 세부 내용은 공개 보도를 기반으로 하며 공식 확인이 어려운 부분이 일부 포함될 수 있다.

공유하기
XLinkedInFacebook