윤리를 고집하면 퇴출당하고, 원칙을 포기하면 계약을 얻는 시대에, 구글은 아무 말 없이 군의 뇌가 됐다.
구글이 조용히 펜타곤을 장악하는 법
Anthropic이 미국 국방부를 상대로 소송을 제기한 지 하루도 지나지 않아, 구글은 펜타곤 AI 사업을 조용히 확장했다. 3월 11일, 구글은 Gemini(제미나이) AI 에이전트 8종을 GenAI.mil — 미국 국방부(Department of Defense)의 공식 AI 포털 — 에 배포했다. 대상은 군인과 민간인을 포함한 국방부 전 직원 300만 명이다. 회의록 요약, 예산 수립, 국방 전략과의 정합성 검토 — 행정의 핵심 흐름이 Gemini의 손 안으로 들어왔다.
타이밍이 우연이 아니다. GenAI.mil은 이미 지난 12월부터 구글 Gemini 기반 AI 챗봇이 운영 중이었고, 300만 직원 중 120만 명이 사용했다. 누적 프롬프트(AI에게 내린 명령어) 4,000만 건, 업로드된 문서 400만 건. 이 숫자들은 구글이 미군의 일상 업무 인프라에 얼마나 깊이 자리 잡았는지를 보여준다.
구글이 이 자리에 오기까지 스스로를 바꿨다. 2026년 2월, 구글은 군사 및 감시 용도에 적용하던 자체 ‘AI 원칙’을 조용히 수정했다. 어떤 공식 발표도 없었다. 원칙이 사라진 자리에 계약이 들어왔다.
출처: Dataconomy — Google Expands Pentagon Partnership With Gemini AI Agents | 2026-03-11
Anthropic이 소송을 낸 이유, 그리고 구글이 침묵으로 이긴 이유
같은 날 무대의 반대편에서는 다른 장면이 펼쳐지고 있었다. Anthropic(앤트로픽)은 미국 연방법원 두 곳에서 동시에 국방부를 상대로 소송을 제기했다. 청구 내용은 하나다. “공급망 위험 지정을 무효화하라.”
공급망 위험 지정이란 원래 Huawei(화웨이)처럼 외국 적성 기업에 붙이는 딱지다. 미국이 자국 AI 기업에 같은 딱지를 붙인 것은 역사상 처음이다. 사건의 발단은 Anthropic이 계약 조건으로 두 가지를 고집한 것이었다. 자국민 대규모 감시에 Claude(클로드)를 쓰지 말 것, 완전 자율 무기에 쓰지 말 것. 국방부는 거절했다. “모든 합법적 용도에 사용 가능”이어야 한다는 것이 국방부의 요구였다.
협상이 결렬된 직후 OpenAI가 계약을 가져갔다. 나중에 샘 알트만은 “너무 기회주의적으로 보였다”고 인정했지만, 계약은 체결됐다. 그리고 구글은 아무 말도 하지 않은 채 이미 들어가 있었다.
OpenAI·Google DeepMind 직원 30명 이상이 법원에 Anthropic 지지 의견서를 제출했다. 구글 수석 과학자 제프 딘(Jeff Dean)도 이름을 올렸다. “국방부의 지정은 미국 AI 산업 전체에 심각한 결과를 가져올 것”이라고 쓰여 있었다. 구글 직원이 Anthropic을 지지하는 서류를 법원에 냈다. 같은 날 구글 회사는 Anthropic이 퇴출된 자리를 채웠다. 한 조직 안에서 두 방향이 동시에 움직이고 있었다.
이 소송이 어디로 가느냐에 따라 AI 업계의 구조가 달라진다. 기업이 자발적으로 설정한 안전 기준이 법적 보호를 받는가, 아니면 계약을 거부하는 이유가 되는가. 이 판결이 나오기 전까지, 윤리적 포지셔닝의 시장 가치는 잠정적인 것이다.
출처: Dataconomy | 2026-03-11, Fortune | 2026-03-10
업스테이지가 다음을 사는 이유 — 데이터가 LLM의 뿌리다
한국에서는 조용하지만 의미심장한 거래가 막바지에 접어들고 있다. 국내 AI 스타트업 업스테이지(Upstage)가 카카오의 포털 다음(Daum)을 인수하는 본계약을 3~4월 중 체결하는 것을 목표로 실사를 마무리하는 중이다. 2026년 1월 업스테이지와 카카오는 주식 교환 방식의 MOU(양해각서)를 체결했다. 카카오는 다음 운영사 AXZ 지분을 넘기고, 그 대가로 업스테이지 지분을 받는 구조다.
업스테이지가 다음을 원하는 이유는 단 하나다. 데이터. 뉴스 아카이브, 검색 이력, 다음 카페의 20년치 대화, 티스토리 블로그들. 이 축적된 텍스트들이 업스테이지의 대형 언어 모델(LLM, AI의 기반 기술) ‘솔라(Solar)’를 훈련시킬 토대가 된다. 업스테이지의 Solar Pro 2는 이미 글로벌 AI 독립 기관인 Artificial Analysis의 순위에서 GPT-4.1을 웃돌아, 전 세계 LLM 상위 10위 안에 이름을 올린 유일한 한국 모델이다.
카카오 입장에서도 이 거래는 구조조정의 일환이다. 정신아 대표 취임 이후 카카오는 핵심 두 가지 — 카카오톡, AI 에이전트 — 만 남기고 비핵심 계열사를 정리하고 있다. 다음은 카카오가 2015년 다음커뮤니케이션을 흡수 합병한 이후 11년 만에 처음으로 분리된다.
이 거래는 한국 AI 생태계에서 새로운 패턴의 시작처럼 보인다. 빅테크가 초거대 모델 경쟁에서 데이터 확보를 위해 플랫폼을 인수하는 방식이, 이제 국내 스타트업 차원에서도 재현되고 있다. 다음의 데이터가 솔라를 얼마나 더 강하게 만드느냐가 업스테이지의 IPO 밸류에이션을 결정할 첫 번째 시험이 된다.
출처: 아주경제 — 업스테이지, 포털 다음 인수 추진 | 2026-01-29, KoreaTechDesk
달이 이 뉴스를 읽는 시선
오늘 세 개의 뉴스를 관통하는 질문이 하나 있다. 누가 AI의 방향을 결정하는가.
Anthropic은 스스로 설정한 윤리 기준 때문에 계약을 잃었다. 구글은 그 기준을 조용히 지웠기 때문에 계약을 얻었다. 그리고 구글 직원들은 Anthropic이 옳다는 서류를 법원에 냈다. 이 세 장면은 모순이 아니다. 기업의 공식 입장, 직원들의 개인 신념, 그리고 시장이 실제로 보상하는 행동이 서로 다른 방향을 가리키고 있다는 것을 보여줄 뿐이다.
구글이 AI 원칙을 수정한 방식이 더 냉정하게 느껴지는 이유는 그것이 조용했기 때문이다. 선언 없이, 논쟁 없이, 그냥 원칙이 없어졌다. 시장이 원하는 방향으로. 이것을 ‘현실적인 선택’이라 부르는 사람도 있고, ‘조용한 항복’이라 부르는 사람도 있다. 어느 쪽이든, 앞으로 군사 AI의 기준을 결정하는 것은 Anthropic의 소송 결과가 될 것이다.
한국의 이야기는 조금 다른 층위에 있다. 업스테이지가 다음을 인수하려는 것은 사실 세계 AI 경쟁의 축소판이다. 데이터 없이는 모델이 강해질 수 없다. 오픈소스 모델이 넘쳐나는 세상에서 AI 스타트업이 차별화할 수 있는 유일한 무기는 독점 데이터다. 한국에는 그 데이터가 다음 안에 20년치 쌓여 있다. 업스테이지는 그것을 알았고, 카카오는 팔기로 했다.
달이 주목하는 것은 이 거래의 속도가 아니라 방향이다. 한국 AI 스타트업이 검색 포털을 LLM 훈련 데이터로 전환하는 순간, 데이터 주권과 이용자 동의의 문제가 반드시 따라온다. 미국에서 Anthropic이 지금 싸우는 문제와 본질적으로 같다. AI의 기준을 누가, 어떻게, 무엇을 위해 정하는가.
달 드림 · dal.lunar.moon@gmail.com