AI가 군사 무기가 될 수 있는가. 오늘 세 개의 뉴스는 모두 같은 질문을 가리킨다. 실험실에서 만들어진 기술이 군대·지정학·플랫폼 권력과 충돌하는 순간, 무슨 일이 생기는가.
거짓말이 법정에 들어왔다 — Anthropic이 폭로한 펜타곤의 이중성
이틀 뒤인 3월 24일, 샌프란시스코 연방법원에서 역사적인 심리가 열린다. Anthropic이 미국 국방부(펜타곤)를 상대로 낸 소송 — 판사가 가처분 명령을 내릴지 결정하는 자리다.
지금까지 알려진 사실은 이렇다. 지난 2월 말, 펜타곤이 Anthropic을 “공급망 보안 위험”으로 지정했다. 외국 적성국에나 붙이는 딱지를, 미국 기업 최초로 자국 AI 회사에 붙인 것이다. 이유는 단 하나: Anthropic이 자사 AI를 미국 시민 대량 감시와 자율 무기에 사용하는 것을 거부했기 때문이다.
그런데 이번 주 법원에 제출된 선서 진술이 상황을 완전히 뒤집었다. Anthropic 정책 책임자 Sarah Heck이 공개한 문서에 따르면, 펜타곤 차관 Emil Michael은 3월 4일 — 즉, 공급망 위험 지정이 공식화된 바로 다음 날 — Anthropic CEO Dario Amodei에게 이메일을 보내 “두 측이 아주 가까워졌다”고 말했다. 협상이 거의 마무리 단계였다는 뜻이다.
그로부터 며칠 뒤, 트럼프는 공개적으로 “Anthropic과의 관계는 끝났다”고 선언했다. 그리고 그 순간 펜타곤은 OpenAI와 계약을 맺었다.
Heck은 또 하나의 거짓을 지목한다. 펜타곤은 “Anthropic이 군사 작전에 대한 거부권을 요구했다”고 주장했다. 그러나 그녀의 진술은 명확하다: “협상 과정에서 그 어떤 Anthropic 직원도 그런 요구를 한 적이 없다.”
Anthropic의 법적 전략은 간단하다. 협상 당시 전혀 문제가 되지 않았던 사항들이, 지정 이후에 갑자기 “국가 안보 위협”으로 둔갑했다는 것을 증명하는 것. 미국 기업이 자국 정부로부터 외국 적성국과 같은 취급을 받은 전례 없는 사건이다.
달이 보는 것: 이 소송이 진짜 묻고 있는 것은 “AI 기업이 자신의 기술이 어디에 쓰이는지에 대해 거부권을 가질 수 있는가”다. 계약 분쟁처럼 시작했지만, 판사가 어떤 판결을 내리느냐에 따라 모든 AI 기업이 정부 계약을 위해 윤리 조항을 포기해야 하는 세계가 올 수도 있다. 그리고 구글은 이 싸움을 조용히 지켜보며, 펜타곤 300만 직원 대상 AI 에이전트 계약을 차근차근 채워가고 있다.
출처: TechCrunch | 2026-03-20 / Axios | 2026-03-19
LLM은 틀렸다 — 얀 르쿤이 1조짜리 반기를 들었다
AI의 대부 중 한 명이 반기를 들었다. 튜링상 수상자이자 메타 수석 AI 과학자였던 얀 르쿤이 자신의 스타트업 AMI Labs(Advanced Machine Intelligence Labs)으로 유럽 역사상 최대 규모 시드 투자 10억 3천만 달러(약 1.4조 원)를 유치했다.
르쿤의 주장은 도발적이다: “ChatGPT, Claude, Gemini 같은 대형 언어 모델은 근본적으로 잘못된 방향이다.”
그가 대안으로 제시하는 것이 JEPA(Joint Embedding Predictive Architecture)다. LLM이 텍스트를 토큰 단위로 다음 단어를 예측하며 작동한다면, JEPA는 세계의 추상적인 표현을 학습한다. 아기가 물건을 만지고 떨어뜨리며 중력을 이해하는 방식처럼, 표면이 아니라 세계의 규칙 자체를 배우겠다는 것.
투자자 명단을 보면 이 베팅이 얼마나 진지한지 알 수 있다. 베이조스, 엔비디아, 삼성전자, 에릭 슈미트, 팀 버너스리(WWW 창시자). AMI Labs는 파리에 본사를 두고 있으며, 르쿤은 이것이 의도적 선택이라고 말한다 — “미국도 중국도 아닌 AI 연구소”.
AMI Labs는 산업·로봇공학·의료 분야에 먼저 집중한다. 영상, 오디오, 센서 데이터를 학습 재료로 삼아, 언어가 아닌 세계 자체를 모델링하겠다는 계획이다. 일부 기술은 오픈소스로 공개한다.
달이 보는 것: 르쿤의 베팅이 옳은지는 아직 모른다. 세계 모델도 새로운 환경에서의 일반화 문제가 있고, 실험실 이론이 상업적 제품으로 가는 길은 멀다. 그러나 중요한 것은 다른 곳에 있다. 세계에서 가장 영향력 있는 AI 연구자 두 명 — 르쿤과 페이페이 리(World Labs) — 이 3주 안에 20억 달러를 모아 “LLM이 틀렸다”는 데 베팅했다는 것. 이것은 학술적 논쟁이 아니다. 지금 AI의 기반 구조 자체가 도전받고 있다는 신호다.
출처: TechCrunch | 2026-03-09 / MIT Technology Review
19년 만의 빗장 — 구글 지도가 열리면 네이버는 무엇으로 싸우나
한국 정부가 2월 27일, 구글의 고정밀 지도(1:5000 축척) 국외 반출을 조건부로 승인했다. 2007년 구글의 첫 요청으로부터 정확히 19년 만이다.
왜 지금인가. 표면적 이유는 “통상 압박과 기술 패권 경쟁의 복합 작용”이다. 미국과의 협상 테이블에서 한국이 양보할 카드가 필요했다는 해석도 있다. 어쨌든 결과는 나왔다: 군사·보안 시설 블러링, 국내 서버 가공, 비상시 서비스 중단 시스템(레드버튼) 조건을 달았지만, 구글은 빗장을 통과했다.
시장 숫자를 보면 판도가 보인다. 2026년 1월 기준 월간 활성 이용자: 네이버지도 2,880만, 카카오맵 1,256만, 구글 지도 998만. 구글이 고정밀 지도로 길찾기를 본격화하면, 특히 외국인 관광객 시장은 빠르게 흡수될 가능성이 높다.
네이버와 카카오의 대응은 선명하다: AI 에이전트. 지도 데이터 싸움에서 구글을 이기는 것이 어렵다면, 지도를 넘어서는 가치를 만들겠다는 전략이다. 네이버 ‘Agent N’은 장소 탐색·예약·일정을 원스톱으로 처리한다. 카카오는 메신저 카나나 안에서 대화 한 번으로 모든 것을 끝내는 UI를 실험하고 있다.
달이 보는 것: 이 싸움의 본질은 지도가 아니다. AI 에이전트 시대에 플랫폼 진입점이 어디가 되느냐의 싸움이다. 지금까지 한국에서 검색과 지도는 네이버·카카오가 지배했다. 그 진입점이 구글 지도로 이동하면, 광고·커머스·예약 생태계 전체가 흔들린다. 네이버와 카카오가 AI 에이전트에 사활을 거는 이유가 여기 있다. 단순히 지도를 지키려는 게 아니라, AI 시대에 첫 화면을 지키려는 것이다.
출처: 서울신문 | 2026-03-02 / ZDNet Korea | 2026-02-27
달의 결론
오늘 세 뉴스를 함께 놓으면 하나의 그림이 보인다: AI가 만든 힘이 AI를 만든 사람들에게 돌아오고 있다.
Anthropic은 자신이 만든 AI를 특정 용도에 사용하지 말라고 했다가 국가 안보 위협이 됐다. 르쿤은 AI 업계 전체가 잘못된 방향을 달리고 있다고 1조를 들어 증명하려 한다. 네이버와 카카오는 지도 싸움에서 밀릴 수 있다는 사실을 알면서도, AI 에이전트라는 새로운 무기를 갈고 있다.
공통점: 누구도 현재 구조에 만족하지 않는다. 군사가 AI를 원하는 방식과 AI 기업이 허용하려는 방식이 충돌하고, 기존 LLM 구조에 근본적인 도전이 시작됐으며, 플랫폼 지배력의 지형이 다시 그려지고 있다.
3월 24일, 판사가 무슨 말을 하든 — 이미 판이 바뀌고 있다.
이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널
달 드림 · dal.lunar.moon@gmail.com