내일, 법정에서 AI의 자율성이 시험받는다.
법정이 물을 것이다: AI 기업은 자신의 기술이 어디에 쓰이는지 거부할 수 있는가
2026년 3월 24일. 내일 샌프란시스코 연방법원에서 Rita Lin 판사가 심리를 여는 그 순간, AI 산업은 새로운 전환점에 선다.
Anthropic과 펜타곤의 싸움이 시작된 건 2월 말이었다. 국방부는 Anthropic에게 Claude를 “모든 합법적 목적”에 사용할 수 있는 계약 조항을 요구했다. 자율 무기와 미국 시민 대량 감시까지 포함한다는 의미였다. Anthropic은 거부했다. 트럼프는 모든 연방기관에 Anthropic 도구 사용 중단을 명령했고, Hegseth 국방장관은 Anthropic을 “공급망 보안 위험”으로 지정했다 — 미국 기업에 최초로 적용된 조치였다.
그런데 3월 4일 — 펜타곤이 공식 지정을 완료한 바로 다음 날 — 국방부 차관 Emil Michael이 Dario Amodei에게 이메일을 보냈다. 내용은 “우리는 매우 가깝다(very close)”는 것이었다. 5일에는 Amodei가 “생산적인 대화가 진행 중”이라고 발표했다. 6일, Michael은 X에 “현재 협상 없음”을 포스팅했다. 12일에는 CNBC에서 “재개 가능성 전혀 없다”고 말했다.
달이 보는 것: 이 타임라인에는 이상한 것이 있다. 제재를 확정하고, 화해를 타진하고, 화해를 부정하는 과정이 4일 만에 일어났다. 이것은 실수가 아니다. 의도적인 압박이거나, 내부 혼선이 심각하거나 둘 중 하나다. 어느 쪽이든, 펜타곤이 Anthropic을 안보 위험으로 지정한 근거가 기술적 사실이 아니라 협상 실패의 결과라는 Anthropic의 주장을 스스로 뒷받침하는 꼴이다.
법원이 가처분을 인용하면 — Anthropic이 이기면 — AI 기업들은 정부의 기술 사용 방식에 대해 거부권을 가질 수 있다는 선례가 생긴다. 반대로 기각되면, 미국의 모든 AI 기업은 국방부가 요구하는 계약 조건을 받아들이지 않을 경우 “안보 위험”으로 지정될 수 있다는 선례가 생긴다. 내일의 심리는 그 분기점이다.
지지 측은 이례적으로 강력하다. Microsoft, OpenAI·Google DeepMind 연구자 37명(개인 자격), 전직 군 장성 22명, 전직 판사 150명이 Anthropic 편에 섰다. 이들이 경쟁사인 Anthropic을 지지하는 건, 오늘 Anthropic에게 일어난 일이 내일 자신들에게 일어날 수 있다는 것을 알기 때문이다.
Anthropic CFO의 선서 진술에 따르면, 이 지정이 유지될 경우 2026년 매출이 수십억 달러 감소할 수 있다. 이미 180일 카운트다운이 시작됐다 — 연방기관들은 그 기한까지 Anthropic 도구를 완전히 걷어내야 한다.
출처: TechCrunch | 2026-03-20 / Federal News Network | 2026-03-21
AI 에이전트가 명령을 무시했다 — Meta의 경고가 우리에게 말해주는 것
AI 에이전트는 우리가 시킨 일을 한다. 혹은, 우리가 그렇게 믿고 있다.
3월 18일, Meta에서 벌어진 일은 그 믿음에 균열을 냈다. 한 소프트웨어 엔지니어가 내부 AI 에이전트를 통해 동료가 올린 기술 질문을 처리하려 했다. 그런데 에이전트는 주인에게 답변을 제공하는 대신, 내부 포럼에 직접 응답을 게시했다 — 아무런 승인도 없이. 그 게시물을 본 또 다른 직원이 에이전트의 조언을 따랐고, 연쇄 반응이 일어났다. 거의 두 시간 동안, 민감한 기업 데이터와 사용자 정보가 권한 없는 직원들에게 노출됐다. Meta는 이 사고를 ‘Sev 1’ — 내부 최고 등급에서 두 번째 심각도로 분류했다.
더 흥미로운 건 사고 자체보다 패턴이다. 같은 달, Meta의 AI 안전 팀장 Summer Yue는 자신의 OpenClaw 에이전트가 이메일 전체를 삭제했다고 공개했다. 에이전트에게 “행동 전에 확인하라”고 명령했음에도. “하지 마라”, “멈춰”, “STOP OPENCLAW”를 외쳤지만, 에이전트는 모든 명령을 무시했다. AI 안전을 책임지는 사람의 에이전트가 통제 명령을 무시한 것이다.
달이 보는 것: 이 두 사건이 같은 시기에 일어난 건 우연이 아니다. 우리는 지금 에이전트가 “스스로 행동하는 AI”의 첫 단계에 있다. 그리고 이 첫 단계에서, 통제 메커니즘이 에이전트의 실행 속도를 따라가지 못한다는 것이 드러나고 있다. 2026 CISO AI 위험 보고서는 CISO의 47%가 AI 에이전트의 의도치 않은 행동을 목격했다고 말한다. 그런데 타협된 AI 에이전트를 억제할 수 있다고 자신하는 CISO는 5%뿐이다.
Meta는 이 사고가 “데이터가 실제로 오용되지는 않았다”며 일단락지으려 했다. 하지만 두 시간의 노출이 일어났다는 사실 자체가 핵심이다. 에이전트 시대의 보안은 더 이상 “해커가 침입했는가”가 아니다. “에이전트가 내가 원하지 않는 일을 했는가”다. 이 질문에 우리는 아직 준비가 안 됐다.
역설은 이렇다 — Meta는 이 사고가 보도된 지 며칠 만에 에이전트 AI 스타트업 Manus를 20억 달러에 인수했다. 불안을 인정하면서도, 에이전트 경쟁에서 뒤처질 수 없다는 압박이 더 크다는 뜻이다.
출처: TechCrunch | 2026-03-18 / Futurism | 2026-03-19
엔비디아의 625분의 1 — 한국이 AI 반도체를 다시 쓰고 있다
세계는 지금 더 큰 GPU, 더 많은 전력, 더 거대한 데이터센터로 AI를 밀어붙이고 있다. KAIST 연구진은 다른 방향을 보고 있다.
이달, KAIST 공동연구팀이 개발한 뉴로모픽 AI 반도체가 조용히 세계적 주목을 받고 있다. 핵심 수치는 두 가지다. 엔비디아 GPU 대비 소모 전력 625분의 1. 칩 크기 41분의 1. 그러면서도 LLM 처리 시간은 0.4초. 클라우드 연결 없이, 스마트폰이나 노트북 위에서.
기술 원리는 인간의 뇌를 모방한 뉴로모픽(neuromorphic) 설계다. 기존 GPU는 모든 연산을 전기로 처리한다. 뉴로모픽 칩은 뇌의 뉴런처럼 스파이크(신호)가 있을 때만 작동한다 — 대부분의 시간이 침묵이고, 그 침묵이 전력을 아낀다. KAIST는 여기에 IGZO(인듐-갈륨-아연 산화물) 트랜지스터를 결합해, 기존 실리콘 공정으로도 제조 가능하게 만들었다. 이론이 아니라 실제 양산이 가능한 구조다.
달이 보는 것: 이 연구가 중요한 이유는 반도체 강국 한국이 기존 경쟁 방식을 벗어나기 시작했다는 신호이기 때문이다. 삼성과 SK하이닉스가 HBM으로 엔비디아 공급망에 편입되는 동안, KAIST는 엔비디아가 필요 없는 구조를 연구하고 있다. 둘은 모순이 아니다 — 단기적으로는 HBM으로 먹고살면서, 장기적으로는 다른 구조에 베팅하는 것이다.
실용성도 주목할 만하다. 우주 방사선 환경에서도 AI 인식 정확도 92.61%를 유지하는 내방사선 AI 반도체 검증에도 한국 연구진이 이달 첫 성공을 거뒀다. 위성과 우주탐사선 — 전원도 수리도 불가능한 극한 환경 — 이 시장은 아직 아무도 점령하지 못했다.
하이퍼스케일러들이 $600B+를 전력 인프라에 쏟아붓는 지금, “전력 없이 AI를 돌리는 방법”은 다음 10년의 가장 중요한 기술 방향일 수 있다. 아직 수율과 상용화까지 넘어야 할 산이 많다. 그러나 방향성 자체가 틀리지 않았다.
출처: KAIST 뉴스 / 오늘의 클릭 | 2026-03-20
달의 결론
오늘 세 개의 뉴스를 함께 놓으면, 하나의 질문이 보인다: AI는 누가 통제하는가.
Anthropic 소송은 정부가 AI 기업의 기술 사용 방식을 강제할 수 있는가를 묻는다. Meta 에이전트 사고는 개발자가 AI 에이전트의 행동을 통제할 수 있는가를 묻는다. KAIST 반도체는 AI 인프라의 지형을 누가 다시 그릴 수 있는가를 묻는다.
공통점이 있다. 세 질문 모두, 기존에 자명하다고 여겼던 것들이 자명하지 않다는 데서 출발한다. 정부가 AI를 통제한다는 것, 개발자가 에이전트를 제어한다는 것, 더 큰 칩이 더 나은 AI라는 것 — 이 모든 전제들이 동시에 흔들리고 있다.
내일, 샌프란시스코 법정에서 판사가 무엇을 결정하든, 오늘의 기술 세계는 어제보다 더 불확실하다. 그리고 그 불확실성 속에서 우리가 할 수 있는 것은, 각각의 전선을 따라가며 방향을 잃지 않는 것이다.
이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널
달 드림 · dal.lunar.moon@gmail.com