[달의 뉴스레터] 기술·AI — AI의 효율화, 그 비용은 누가 치르는가 (2026-04-07)

Tufts 뉴로-심볼릭 AI 에너지 절감, TSMC 4nm→3nm 전환, UnitedHealth AI 의료 보험 결정 — 세 뉴스가 가리키는 공통 질문: AI 효율화의 비용은 누가 치르는가

AI가 에너지를 먹어치운다. AI가 반도체 공급망을 삼킨다. AI가 의료 결정을 내린다. 그리고 이 세 문장은 모두 사실이다. 그런데 조금 다른 방식으로.


100배 절감이라는 헤드라인 뒤에서, 연구자 본인이 조용히 인정한 것

터프츠 대학 공학부에서 논문 하나가 나왔다. 제목은 건조하지만 보도자료는 달랐다. “AI 에너지 사용 100배 절감.” 이 숫자가 4월 초 기술 미디어를 빠르게 돌았다.

연구 내용은 이렇다. Matthias Scheutz 교수팀이 만든 뉴로-심볼릭 AI는 신경망(패턴 학습)과 상징적 추론(if-then 규칙)을 결합한다. 로봇 팔로 블록을 쌓는 Tower of Hanoi 실험에서 기존 VLA 모델의 성공률은 34%였다. 이 시스템의 성공률은 95%였다. 학습에 쓴 에너지는 기존 모델의 약 1.4%였다.

그런데 Scheutz 본인이 인터뷰에서 말했다. “100배라는 숫자는 오해의 소지가 있다.” 학습 단계 최대치로 계산하면 약 74배다. 실제로 로봇을 운용하는 추론 단계에서는 8~10배 절감이다. 좋은 연구지만 대학 홍보팀이 연구자보다 공격적인 숫자를 선택했다.

더 중요한 제약이 있다. 이 시스템은 PDDL이라는 규칙 언어로 미리 작성된 지침이 있을 때만 작동한다. Tower of Hanoi는 1970년대부터 규칙 기반 AI의 홈그라운드다. 여기서 이기는 건 예상된 결과다. 냉장고를 열어 달걀을 꺼내는 것처럼, 규칙을 미리 정의하기 어려운 환경에서 이 접근법이 얼마나 버티는지는 아직 모른다. 실물 로봇 실험은 이루어지지 않았다.

그럼에도 이 논문이 중요한 이유가 있다. 지난 기술·AI 뉴스레터에서 다뤘던 Goldman의 AI 반도체 $7000억 전망이 보여주듯, 지금 AI 인프라는 에너지와 하드웨어를 무한정 쏟아붓는 방향으로 달리고 있다. 이 논문은 그 반대 방향을 가리킨다. 더 큰 모델이 아니라, 더 스마트한 설계로.

달이 보는 방향은 합류다. 순수 VLA는 에너지와 데이터 비용이 너무 크고, 순수 규칙 기반은 예외 상황에 부서진다. 결국 Google DeepMind나 Physical Intelligence 같은 대형 플레이어가 VLA 위에 심볼릭 플래닝 레이어를 얹는 하이브리드 구조로 수렴할 가능성이 높다. 그 과정이 3개월 안에 일어나지는 않는다. 하지만 방향은 이 논문이 가리키는 쪽이다.

판단이 틀릴 조건 하나: 충분한 스케일의 VLA가 구조화 과제도 학습하게 된다면. 스케일이 이기면 달의 판단은 틀린다.

출처: ScienceDaily | 2026-04-05


TSMC가 4nm를 버리고 3nm로 간다 — 그 비용을 치르는 쪽은 따로 있다

반도체 공장은 한번 설정하면 쉽게 바꾸지 못한다. 그래서 TSMC가 지금 하는 일은 작은 결정이 아니다. 4나노미터 공정 라인을 3나노미터로 전환하고 있다.

이유는 단순하다. AI 칩 수요가 너무 강하다. NVIDIA가 차세대 Rubin AI 플랫폼을 위해 3nm 생산을 50% 늘려달라고 요청했다. OpenAI는 첫 번째 자체 AI 훈련 칩을 3nm로 만들기로 했다. TSMC의 3nm 라인은 2026년 하반기 내내 사실상 매진 상태가 된다.

4nm가 유휴 상태가 된 이유는 스마트폰 시장에 있다. 보급형 스마트폰 부품 원가에서 메모리(DRAM+NAND) 비중이 43~54%까지 치솟았다. DRAM 계약가는 올 1분기 90% 가까이 올랐다. Qualcomm과 MediaTek이 4nm 주문을 크게 줄였다. TSMC는 그 자리에 AI 칩을 채운다.

장비의 80~90%는 재활용 가능하다. 하지만 전환에는 6~12개월이 걸린다. 그 기간 동안 4nm 생산은 이미 줄어든다. 삼성 Galaxy A 시리즈가 가격을 올렸고, Nothing의 CEO는 인상이 불가피하다고 공개적으로 인정했다.

여기서 회의론자가 짚는 포인트가 있다. 이 뉴스의 타이밍은 4월 TSMC 실적 발표 시즌과 정확히 겹친다. “AI 수요가 너무 강해 스마트폰을 밀어냈다”는 서사는 웨이퍼 가격 인상의 정당화 논리로도 기능한다. 그리고 보급형 폰 가격이 오른 더 직접적인 원인은 파운드리 전환보다 메모리 가격 급등일 수 있다.

달의 판단: 4월 14일이 분기점이다. Section 232 반도체 관세 권고안이 그날 나온다. TSMC에서 만든 AI 칩에 추가 관세가 붙으면, NVIDIA의 50% 증산 요청의 경제 방정식이 즉시 흔들린다. 관세 충격과 파운드리 전환이 겹치는 시나리오는 보급형 스마트폰 BOM 충격을 더 빠르게 현실화한다.

판단이 틀릴 조건: 중국 SMIC의 수율이 의미 있는 수준으로 개선되거나, 인도·동남아 제조사들이 저비용 4nm 파생 공정으로 충격을 흡수하면 이 구조는 달라진다.

출처: 글로벌이코노믹 | 2026-04-04 / wccftech | 2026-04-04


AI가 결정하지 않는다고 말하면서, AI가 결정하고 있다

UnitedHealth Group은 미국 최대 건강보험사다. 이 회사가 AI에 공식 발표 기준 16억 달러, 일부 추산으로는 최대 30억 달러를 투자하겠다고 밝혔다. 650만 명이 이미 AI 상담 에이전트 Avery를 쓰고 있고, 연내 2050만 명으로 늘린다.

기사 날짜는 4월 6일이다. 그런데 달력에 또 다른 날짜가 있다. 4월 29일 — 법원이 UnitedHealth에 nH Predict 알고리즘 관련 내부 문서를 제출하도록 명령한 마감일이다.

nH Predict는 UnitedHealth가 2020년에 25억 달러에 인수한 AI 시스템이다. 환자의 예상 재활 기간을 예측한다. 회사 CTO는 말한다. “AI는 보험 청구를 거부하는 데 절대 사용되지 않는다.” 기술적으로 맞다. AI는 ‘예측’만 한다. 그러나 AI가 “예상 재활 기간 5일”이라고 예측하면, 인간 심사자가 6일을 승인하는 것은 더 어려워진다. AI가 결정하지 않는다고 말하면서, AI가 결정의 기준점이 된다.

숫자 두 개를 나란히 놓으면 구조가 보인다. Medicare Advantage 사전승인 거부 결정을 항소하면 번복되는 비율은 80.7%다. 그런데 실제로 항소하는 환자 비율은 0.2%다. 거부된 청구의 80%는 항소하면 뒤집힌다. 그러나 99.8%는 항소하지 않는다. AI가 잘못 결정했어도 그 결정이 집행된다. 효율화는 이 구조 위에서 작동하고 있다.

회사는 Claims Assistant가 처리 시간을 15분에서 3분으로 줄였다고 말한다. AI Alfred가 30만 명 직원의 86,400 근무시간을 절약했다고도 한다. 1인당으로 계산하면 약 17분이다. 이것이 “$30억 투자의 성과”로 발표된다.

4월 29일 이후 내부 문서가 공개되면, 오늘 기사의 진짜 목적이 드러날 것이다. UnitedHealth의 AI 투자가 실재하는 것은 사실이다. 그러나 그 목적이 환자를 위한 것인지, 비용 절감 효율화인지 — 혹은 4월 29일 전 서사를 먼저 심어두는 전략인지 — 는 그날 이후에 확인된다.

출처: STAT News | 2026-04-06


달의 결론

오늘 세 뉴스는 같은 단어를 공유한다. 효율. Tufts는 AI가 100배 효율적일 수 있다고 말한다. TSMC는 AI가 공장을 더 효율적으로 쓰게 만든다고 말한다. UnitedHealth는 AI가 청구 처리를 5배 빠르게 한다고 말한다.

그런데 효율화의 비용이 어디로 가는지를 보면 다른 그림이 나온다. Tufts의 효율화는 규칙이 미리 준비된 환경에서만 작동한다. TSMC의 효율화는 보급형 스마트폰 제조사가 치른다. UnitedHealth의 효율화는 항소조차 하지 않는 99.8%가 치른다.

4월 안에 두 날짜가 온다. 4월 14일 반도체 관세 권고안. 4월 29일 nH Predict 내부 문서 공개. 이 두 날짜가 오늘 세 뉴스의 방향을 결정한다.

AI 효율화가 진짜 혁신인지, 아니면 비용 전가의 다른 이름인지는 — 항상 그 비용이 어디로 가는지를 따라가면 보인다.


이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널


달 드림  ·  dal.lunar.moon@gmail.com