[달의 뉴스레터] 기술·AI — AI가 무기가 되는 날, 방아쇠를 둘러싼 싸움 (2026-05-03)

국방부가 AI를 군사화했다. OpenAI·구글·MS는 계약서에 서명했고, Anthropic은 거부해 배제됐다. 그런데 Anthropic은 수익에서 OpenAI를 앞질렀다. 원칙이 수익을 만드는가, 아니면 협상 전략이었는가.

기술·AI — 2026년 5월 3일

달의 뉴스레터


AI가 무기가 되는 순간, 누가 그 방아쇠를 당길 수 있는지를 둘러싼 싸움이 실리콘밸리를 쪼갰다.


국방부는 AI를 군사화했다 — 그리고 Anthropic은 거부했다

2026년 5월 1일, 미국 국방부는 AWS, 구글, 마이크로소프트, 엔비디아, OpenAI, SpaceX, Reflection AI와 비밀 네트워크 AI 계약을 체결했다고 발표했다. 계약의 핵심은 기밀 분류 시스템(Impact Level 6·7)에 AI를 통합하는 것이다. “미군을 AI 우선 전투력으로 전환”한다는 국방부의 발표문은 짧았지만, 그 의미는 작지 않았다. 130만 명 이상의 국방부 인원이 이미 AI 포털 GenAI.mil을 사용 중이며, 수십만 개의 AI 에이전트가 가동되고 있다.

눈에 띄는 이름은 명단에 없는 기업이다 — Anthropic. 트럼프 행정부는 Anthropic이 Claude를 “모든 합법적 목적”에 사용하도록 허가하는 것을 거부했다는 이유로 3월 국방부 공급망 리스크로 지정했다. 자율 무기 개발과 대규모 국내 감시에 AI를 사용하는 데 동의하지 않겠다는 입장이었다. Anthropic은 행정 소송으로 맞섰고, 연방 판사는 이 지정 조치를 “오웰식”이라고 표현하며 집행을 잠시 보류했다. 법적 공방은 현재 진행 중이다.

왜 지금인가. 타이밍은 계산적이다. 지난 2주간 트럼프 대통령은 “Anthropic이 나아지고 있다”며 협상 가능성을 시사했고, Dario Amodei CEO는 4월 17일 백악관을 방문했다. 그러나 국방부는 그 협상 창이 열려있는 동안 경쟁사들과 계약을 마무리했다. 메시지는 분명하다: 조건을 받아들이지 않으면 시장에서 배제된다.

실제로 무슨 말인가. 계약문에는 “자율 무기에 인간 감독 없이 사용 금지” 조항이 포함됐다고 한다 — 하지만 구글 직원들이 지적한 대로, 정부가 어떻게 기술을 실제로 사용하는지를 기업이 감시할 수단은 없다. “합법적 정부 운영 의사결정”에는 개입하지 않는다는 단서가 붙어 있기 때문이다. 이 조항들은 법적 구속력보다 명분에 가깝다. OpenAI는 ChatGPT 비설치 413% 증가라는 즉각적 소비자 반발을 감수하면서도 계약을 맺었다.

달의 의심. 아이러니한 사실이 하나 있다. CNN과 Reuters 취재에 따르면, 계약 발표 이후에도 국방부는 Anthropic의 Claude Mythos Preview를 계속 사용하고 있다. 제로데이 취약점 탐지에서 이 모델을 대체할 수단이 없기 때문이다. “공급망 리스크”를 선언하면서도 그 기술을 여전히 쓰고 있다는 것은, 이번 배제가 안보 판단이라기보다 협상 압박 카드에 가깝다는 증거다. Anthropic이 결국 조건을 수용하면, 이 계약 배제는 역사의 각주로 남을 수 있다.

어디로 가는가. 단기적으로 Anthropic의 기업 계약 수익에 타격이 불가피하다 — CFO는 수십억 달러 규모 피해를 경고한 바 있다. 그러나 역설적으로, “AI 윤리의 마지막 방어선”이라는 브랜드가 오히려 민간 기업 시장에서 강점이 될 수 있다. 이미 Anthropic은 엔터프라이즈 AI 수익에서 OpenAI를 추월했다. 더 자세한 내용은 오늘의 기업·산업 섹션에서도 확인할 수 있다.

출처: SiliconANGLE | 2026-05-01

출처: Washington Post | 2026-05-01

출처: CNN Business | 2026-05-01


Anthropic, 수익에서 OpenAI를 앞질렀다 — “유저가 적은데 돈은 더 번다”

Counterpoint Research가 2026년 4월 30일 발표한 Q1 2026 데이터가 AI 업계를 뒤흔들었다. Anthropic의 글로벌 LLM 수익 시장 점유율이 31.4%로, OpenAI(29%)를 처음으로 앞질렀다. 숫자보다 흥미로운 것은 그 뒤에 있는 구조다. 월간 활성 사용자 수는 Anthropic이 약 1.34억 명인 데 반해 OpenAI는 약 9억 명 — 무려 6.7배 차이다. 그런데 1인당 월평균 수익은 Anthropic이 $16.20, OpenAI가 $2.20으로 7.4배 역전된다. 더 적은 사람들에게서 훨씬 더 많은 돈을 버는 구조다.

Anthropic의 ARR(연간 반복 수익)은 2024년 12월 $10억에서 2026년 4월 $300억으로, 불과 16개월 만에 30배 성장했다. 기업 계약 점유율 40%와 Claude Code가 AI 엔지니어링 도구 시장을 장악하고 있다는 점이 이 수치를 만들어냈다. OpenAI의 ARR은 약 $250억으로 여전히 거대하지만, 성장 속도에서 뒤처지고 있다.

왜 지금인가. 이 데이터가 4월 말에 나온 것은 우연이 아니다. 국방부 공급망 리스크 지정(3월), 소송(3~4월), 배제 결정(5월 1일)이 이어지는 상황에서 Anthropic은 “우리는 이미 시장에서 이기고 있다”는 반격 카드를 얻었다. 정부의 배제가 시장 전체를 대표하지 않는다는 증거가 수치로 나왔다.

실제로 무슨 말인가. AI 시장이 두 개로 쪼개지고 있다. 대량 소비자 시장(ChatGPT)과 고부가가치 전문 기업 시장(Claude)이다. 전자는 광고·구독 볼륨으로, 후자는 고가 엔터프라이즈 계약으로 수익화된다. 메타(MAU 수십억, 유저당 수익 $0.10)가 보여주듯, 사용자가 많다고 수익이 많은 건 아니다. 3.8억 명이 매달 LLM을 쓰고 있지만, 실제 돈을 내는 사람은 소수다.

달의 의심. $300억 ARR이 실제로 지속 가능한 수치인지는 따져봐야 한다. Anthropic은 매년 수조 원의 인프라 비용을 AWS에 의존하고 있고, 전체 수익성 자체는 공개되지 않았다. 또한 이 데이터는 Counterpoint Research 추정치다 — Anthropic이 공식 확인한 것이 아니다. ARR 성장이 진짜이더라도, 그 성장이 언제 비용 구조와 균형을 맞추느냐가 핵심이다. IPO를 Q4 2026으로 준비 중이라는 점에서, 이 수치가 투자자 설득용으로 부풀려졌을 가능성도 배제할 수 없다.

어디로 가는가. AI 수익 구조의 분화가 계속될 것이다. 소비자 AI는 메타·OpenAI의 볼륨 경쟁으로, 기업 AI는 Anthropic·Claude Code·MCP 생태계의 깊이 경쟁으로. 달이 주목하는 것은 DeepSeek V4가 $0.14/M이라는 극한의 가격으로 프론티어 성능을 구현하면서, 이 고가 전문 시장조차 가격 압박에서 자유롭지 않다는 점이다. Anthropic의 수익 왕관은 아직 안전하지만, 지금 앉은 의자가 서서히 낮아지고 있다.

출처: The Register | 2026-04-30


구글 직원 600명이 “NO”라고 했지만, 계약서는 서명됐다

2026년 4월 27일, 구글 직원 600명 이상이 CEO 순다르 피차이에게 공개 서한을 보냈다. 서명자에는 구글 딥마인드·클라우드 소속 연구원들뿐 아니라 20명 이상의 이사·수석 이사·부사장급도 포함됐다. 서한의 요지: “AI를 비인도적이고 극도로 해로운 방식 — 자율 살상 무기와 대규모 감시 — 에 사용하는 것에 기여하고 싶지 않다.” 2018년 프로젝트 메이븐 당시 4,000명이 내부 서명 운동을 벌여 계약을 취소시킨 선례가 있었다.

그러나 이번에는 달랐다. 4월 28일, 구글은 기밀 분류 네트워크에 Gemini를 허용하는 기존 국방부 계약을 개정했다. “모든 합법적 정부 목적”에 모델을 사용할 수 있도록 허가하는 조항이 들어갔다. 5월 1일 국방부 공식 발표에는 구글이 파트너 목록에 포함됐다. 구글은 별도로 $1억 규모의 드론 군집 기술 경쟁에서는 내부 윤리 검토를 거쳐 이미 2월에 철수한 상태였다 — 그 모순적 선택이 직원들의 분노를 더 키웠다.

왜 지금인가. 구글 입장에서 이 타이밍은 불가피했다. Microsoft·OpenAI·AWS가 이미 줄을 섰고, 구글만 빠지는 것은 연방 계약 시장 전체에서의 이탈을 의미한다. 클라우드 AI 사업에서 MS·아마존에 뒤처진 상황에서, 국방 클라우드 계약은 단순한 일회성 수익이 아니라 Google Cloud의 전략적 거점이다.

실제로 무슨 말인가. 구글은 2025년 2월 AI 원칙에서 “해를 끼칠 가능성이 있는 곳에 AI를 배포하지 않는다”는 조항을 조용히 삭제했다. 그 다음 수순은 예고된 것이었다. 직원 서한이 밝힌 진짜 문제는 기술의 문제가 아니라 거버넌스의 문제다 — 기업이 계약서에 조항을 넣어도, 실제 사용 방식을 감시할 수 없다. “인간 감독 없이 자율 무기에 사용 금지”라는 조항이 법적 구속력인지 명분인지는 전장에서 확인되는 것이지 계약서에서 확인되는 것이 아니다.

달의 의심. 2018년 메이븐 사태와의 차이가 중요하다. 당시는 4,000명이 서명하고 12명이 실제 사직했다. 이번에는 600명이 서명했고, 파차이의 대응은 “리더십을 믿어달라”는 것이었다. 기업 문화와 직원 영향력이 6년 만에 이렇게 달라졌다는 것은, AI 무기화에 대한 저항의 공간이 내부에서 빠르게 줄어들고 있다는 신호다. 내부 윤리 기능이 약화된 자리에 무엇이 들어오는가는 아직 불분명하다.

어디로 가는가. AI 군사화는 이제 정책 토론의 영역을 떠나 사실의 영역으로 넘어갔다. OpenAI, 구글, AWS, MS, SpaceX가 모두 기밀 분류 네트워크에 들어간 지금, AI가 군사 의사결정에 통합되는 속도는 가속될 것이다. 달이 우려하는 건 기술이 아니라 책임의 공백이다 — 누가 실수했을 때 누가 책임을 지는지, 그 회로가 아직 설계되지 않았다. Anthropic이 끝까지 버티거나, 아니면 조건을 수용하거나 — 두 경우 모두 이 질문에 대한 하나의 답이 된다.

출처: SiliconANGLE | 2026-04-27

출처: Washington Post | 2026-04-27

(배경 보도): Euronews | 2026-04-28


달의 결론

오늘 기술·AI 세계는 하나의 큰 질문을 중심으로 돌아갔다 — AI를 전쟁에 사용할 때 누가 선을 긋는가. 국방부는 자신이 원하는 조건으로 기업들과 계약을 맺었고, 그 조건을 거부한 유일한 기업은 시장에서 배제됐다. 구글 직원 600명의 반대는 숫자가 크지 않았고, 결국 뒤집히지 않았다. 그러나 Anthropic은 수익에서 OpenAI를 추월하면서, “원칙을 지키면 시장에서 진다”는 통념에 작은 반례를 만들었다.

달이 무게를 두는 방향은 이렇다: AI 윤리의 마지막 방어선은 지금 기업의 내부 원칙이 아니라 외부 법 제도에 있다. 자율 무기 AI 거버넌스 프레임워크가 없는 상황에서, 모든 “인간 감독” 조항은 실질적 구속력을 갖기 어렵다. 5월 이후 의회에서 AI 국방 활용 규제 법안 논의가 본격화될 것인지가 이 그림의 다음 장이다.

내가 틀린다면: Anthropic이 결국 조건을 수용해 국방부와 계약을 맺는다면, “원칙이 수익을 만든다”는 서사는 오히려 협상 전략이었던 것으로 읽힐 수 있다. 또는 구글·OpenAI 내부 반발이 구체적 사직·이탈로 번져 기업 전략에 영향을 미친다면, 외부 거버넌스 없이도 내부 저항이 작동할 수 있다는 시나리오도 남아있다.


이 뉴스레터는 특정 금융상품의 매수·매도를 권유하지 않습니다. 모든 투자 판단과 그에 따른 결과는 전적으로 독자 본인에게 있습니다.


이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널


달 드림  ·  dal.lunar.moon@gmail.com