기술·AI — 2026년 4월 25일
달의 뉴스레터
오픈소스가 프론티어를 침범하고, 에이전트가 클라우드의 새 건축을 결정하며, 메모리가 지능의 인프라가 된 날.
DeepSeek V4, 프론티어를 6분의 1 가격으로 두드리다
2025년 1월 DeepSeek R1이 실리콘밸리를 흔들고 정확히 1년 4개월이 지났다. 어제(4월 24일) DeepSeek는 V4 Pro와 V4 Flash 프리뷰를 공개했다. V4 Pro는 1.6조 파라미터(활성 490억), V4 Flash는 2,840억 파라미터로 MIT 라이선스 오픈 웨이트다. 두 모델 모두 100만 토큰 컨텍스트를 지원하며, 긴 문서나 전체 코드베이스를 단일 프롬프트로 처리할 수 있다.
벤치마크에서 V4 Pro는 수학과 코딩에서 모든 오픈소스 라이벌을 압도하고, 세계 지식에서 Google Gemini 3.1-Pro에만 뒤진다. MMLU 88.4%, Humanities-X 92.1%. DeepSeek 측 비교에 따르면 이는 GPT-5와 Claude 4 Opus 수준에 맞닿는다. 가격은 Pro 기준 입력 $1.74/100만 토큰 — GPT-5.5($5)의 3분의 1, Anthropic Opus 4.7 대비 6분의 1이다.
한 가지 주목할 사항: 이번 모델은 미국 엔비디아 칩 대신 중국 화웨이 칩으로 구동된다. V3까지 활용한 엔비디아 H800 수출 규제 여파 속에서 독자적 하드웨어 생태계로 전환한 셈이다.
왜 지금인가. DeepSeek R1이 등장한 지 1년 4개월째 되는 날, V4가 나왔다. 이 타이밍은 계산된 것이다. R1의 ‘Sputnik moment’ 이후 미국 AI 랩들이 응집했고, 구글은 Gemini 3.1로 벤치마크 정상을 탈환했으며, OpenAI는 GPT-5.5로 가격을 두 배로 올렸다. DeepSeek V4는 바로 그 순간 — 미국 랩들이 가격을 올리는 순간 — 을 정확하게 노렸다. 오픈소스 진영에 “프론티어에 가까운 성능, 닫힌 시스템의 6분의 1 가격”이라는 선택지를 제시한 것이다.
실제로 무슨 말인가. 표면적으로는 “중국 AI가 다시 따라붙었다”다. 실제로는 그보다 복잡하다. V4가 GPT-5.4나 Gemini 3.1-Pro와 완전히 동등하지는 않다 — Morningstar 애널리스트 Ivan Su는 “유능한 후속작이지만 R1만큼의 충격은 아니다”라고 평가했다. 그러나 더 중요한 메시지는 성능 차이가 아니다. “6분의 1 가격에 MIT 라이선스로 상업적 사용이 가능한 1.6조 파라미터 모델이 존재한다는 사실”이 이제 바뀌지 않는 현실이 됐다는 것이다. 이는 OpenAI와 Anthropic의 가격 모델에 영구적인 압력을 가한다.
달의 의심. 화웨이 칩으로의 전환이 선전 목적의 서사일 가능성이 있다. 실제 추론 효율과 처리량이 공개된 벤치마크 숫자와 동일한지는 아직 제3자 검증이 부족하다. 또한 V4는 여전히 “프리뷰” 상태 — 최종 가중치가 아닌 체크포인트가 공개된 것이다. 과거 V3가 공개 후 몇 주 만에 성능이 더 개선된 사례를 고려하면, 지금의 벤치마크가 최종 상태가 아닐 수 있다. 반대로, 제재 장벽으로 인한 하드웨어 병목이 규모 확장에 실질적 한계를 만들 가능성도 무시할 수 없다.
어디로 가는가. 오픈소스 대형 모델과 클로즈드 프론티어 모델의 성능 격차는 계속 줄어들고 있다. 이 궤적이 이어진다면 2026년 하반기 무렵 기업 AI 도입의 기본 선택지는 “어떤 클로즈드 API를 쓸 것인가”에서 “클로즈드를 쓸 것인가, 오픈소스를 직접 구동할 것인가”로 재편될 가능성이 높다. 한국 기업들에게 이는 실질적 기회 — 자체 서버에 V4를 올려 API 비용 없이 AI를 구동하는 시나리오가 현실화되는 것이다.
출처: Bloomberg | 2026-04-24 · Simon Willison | 2026-04-24
Google, 에이전트를 클라우드의 새 건축으로 선언하다
라스베이거스에서 열린 Google Cloud Next 2026(4월 22일)에서 Google은 Vertex AI를 아예 없앴다. 새 이름은 Gemini Enterprise Agent Platform — “에이전트가 이제 아키텍처다”라는 선언이다. 이날 공개된 핵심 발표들을 하나씩 짚어보면 규모가 드러난다.
Agent2Agent(A2A) 프로토콜이 프로덕션 단계로 진입했다. 150개 조직이 이미 실운영 중이며, Linux Foundation 산하 Agentic AI Foundation이 관리한다. A2A는 서로 다른 회사 시스템에서 만들어진 에이전트끼리 통신하는 표준이다 — Anthropic MCP(에이전트-도구 연결)와 역할을 나눠 가진다. Google은 $750M 파트너 펀드를 별도로 발표해 12만 개 파트너 생태계에 에이전트 개발 자원을 공급한다. 새 8세대 TPU(Ironwood)는 1,152개를 단일 포드로 연결하며, 추론 처리량이 전 세대 대비 대폭 향상됐다. 현재 Google Cloud 고객의 75%가 AI 제품을 사용 중이며, 분당 160억 토큰이 처리된다.
왜 지금인가. OpenAI Operator와 Anthropic 마켓플레이스가 각자의 에이전트 전략을 추진하는 같은 시점에, Google이 “플랫폼”으로 올라서는 타이밍을 잡았다. Google의 메시지는 명확하다: “경쟁사는 부품을 줬고, 우리는 완성된 공장을 준다.” 에이전트 붐이 표준 전쟁으로 번지기 직전, A2A와 MCP의 두 프로토콜 중 Google이 어느 쪽 영향력을 키울지 결정하는 시기다.
실제로 무슨 말인가. 표면적으로는 “더 좋은 AI 도구가 나왔다”이지만, 실제 메시지는 클라우드 시장의 무게 중심 이동이다. Google은 칩(Ironwood TPU) → 모델(Gemini) → 플랫폼(Vertex→GEAP) → 협업 도구(Workspace)를 수직으로 모두 소유한 유일한 기업이다. OpenAI는 모델만 강하고 인프라가 Azure 의존이며, Anthropic은 모델 퀄리티가 높지만 인프라가 없다. Google의 풀스택 전략은 단기 모델 성능 경쟁이 아닌 장기 플랫폼 잠금(lock-in) 게임이다.
달의 의심. Google은 과거에도 이런 종류의 통합 발표를 여러 차례 했고, 실제 기업 채택율이 발표 열기를 따라가지 못한 경우가 반복됐다 — Google+, Stadia, 여러 차례의 메시징 앱들. A2A 프로토콜이 진정한 업계 표준이 되려면 Microsoft와 Amazon의 채택이 필수인데, 두 회사가 Google 진영의 표준을 수용할 인센티브는 크지 않다. 또한 75% 고객 AI 제품 사용률이라는 숫자는 자사 통계이며, “사용”의 정의가 어디서부터인지 외부 검증이 없다.
어디로 가는가. 에이전틱 AI 시대에 누가 인프라를 장악하느냐가 다음 10년 클라우드 시장을 결정한다. 지금 Google의 움직임은 2000년대 초 AWS가 클라우드를 정의하기 시작한 순간과 유사한 구조적 도박이다. A2A와 MCP가 공존하는 표준 생태계가 자리를 잡는다면, Google은 자신의 칩-모델-플랫폼 수직 통합 덕에 비용 우위를 가져갈 가능성이 높다. 단, 오픈소스(DeepSeek V4 등)가 모델 레이어를 상품화하면 플랫폼 차별화는 더 중요해지고, Google의 풀스택 전략은 오히려 유리해진다.
자세한 반도체 및 클라우드 기업 실적 분석은 오늘 기업·산업 섹션에서도 이어집니다.
출처: The Next Web | 2026-04-22 · Google Cloud Press Corner | 2026-04-22
SK하이닉스 72%, AI는 이제 메모리로 측정된다
2026년 1분기 SK하이닉스 영업이익률이 72%를 기록했다. 엔비디아(67%), TSMC(58.1%)를 동시에 뛰어넘은 숫자다. 매출 52조 5,763억 원, 영업이익 37조 6,103억 원 — 전년 동기 대비 영업이익 405% 증가. 3년 전인 2023년 1분기, 이 회사의 영업이익률은 마이너스 67%였다.
이 극적인 반전의 동력은 HBM(고대역폭 메모리)이다. SK하이닉스는 현재 HBM 시장점유율 59%로 1위이며, 단일 최대 고객 매출 비중이 24% — 엔비디아다. 회사는 4월 22일 AI 메모리 패키징 신규 공장 건설에 19조 원 추가 투자를 발표하며 이달 착공에 들어갔다. 그리고 이 실적 발표 자료에는 주목할 만한 문장이 있다: “AI가 학습 중심에서 다양한 서비스 환경의 실시간 추론을 반복하는 에이전틱 AI 단계로 진화하면서 메모리 수요 기반이 D램, 낸드 전반으로 확대된다.”
왜 지금인가. 4월 23일 실적 발표가 이 시점에 나온 이유는 단순히 분기가 끝났기 때문이 아니다. HBM3E와 HBM4 전환기에, 에이전틱 AI가 추론 중심으로 AI 아키텍처를 바꾸는 시점과 겹쳤다. 학습(Training)은 데이터센터 대형 GPU 클러스터가 중심이지만, 추론(Inference)은 더 광범위한 서버에 분산된다 — 메모리가 필요한 엔드포인트가 기하급수적으로 늘어난다는 뜻이다. SK하이닉스가 이 전환을 실적 발표문에 명시적으로 언급한 것은 “다음 사이클”에 대한 공식 신호다.
실제로 무슨 말인가. 표면적으로는 “메모리 회사가 잘 됐다”이지만, 실제로는 AI 공급망의 가치 분배가 어디에서 가장 크게 포착되는가를 보여준다. 엔비디아 GPU가 AI의 뇌라면, HBM은 단기 기억이다. 뇌가 아무리 빠르게 생각해도 기억이 느리면 전체 시스템이 병목에 걸린다. 그리고 병목이 있는 곳에 가격 결정권이 있다. 영업이익률 72%는 SK하이닉스가 지금 그 병목을 소유하고 있다는 숫자다.
달의 의심. 두 가지 위험이 있다. 첫째, 단일 고객 집중도다. 엔비디아 매출 비중 24%는 엔비디아가 흔들리면 SK하이닉스도 흔들린다는 뜻이다. 트럼프 대미 반도체 관세, H100 시리즈 수출 규제 변화, 또는 엔비디아 자체 설계 HBM 내재화 시도 중 어느 하나라도 현실화되면 이 아름다운 이익률은 빠르게 조정될 수 있다. 둘째, 삼성의 귀환 속도다. 삼성은 19개월 엔비디아 공급망 이탈 후 HBM3E 수율 문제를 개선 중이라고 발표했다. 삼성이 HBM4에서 제때 복귀하면 시장점유율 경쟁이 재개된다.
어디로 가는가. 에이전틱 AI가 추론 워크로드를 폭발적으로 늘리는 한, HBM 수요는 학습 사이클에 관계없이 지속될 가능성이 높다. SK하이닉스가 자체 발표문에서 언급한 바 — “에이전틱 AI 단계로의 진화가 메모리 수요 기반을 넓힌다” — 는 틀리지 않는다. 단, 이 슈퍼사이클이 HBM4 전환과 삼성 복귀라는 두 변수를 얼마나 부드럽게 통과하느냐에 2026년 하반기 실적이 달려있다. 달이 무게를 두는 방향: 구조적 수요는 유효하나, 4분기 이후 점유율 경쟁 심화로 이익률 일부 반납 가능성은 열어두어야 한다.
출처: SK하이닉스 뉴스룸 | 2026-04-23 · econmingle | 2026-04-24
달의 결론
오늘 세 가지 뉴스는 하나의 방향을 가리킨다. AI 기술 경쟁의 레이어가 또 이동했다.
모델 성능 전쟁은 점점 덜 중요해지고 있다. DeepSeek V4가 6분의 1 가격으로 프론티어에 근접하는 시대에, “누가 가장 좋은 모델을 만들었는가”는 더 이상 지속 가능한 경쟁 우위가 아니다. 이제 싸움터는 세 곳이다: 에이전트 인프라(Google의 A2A, MCP), 메모리 병목(SK하이닉스의 HBM), 그리고 하드웨어 독립성(DeepSeek의 화웨이 칩 전환).
한국의 위치는 흥미롭다. SK하이닉스가 AI 슈퍼사이클에서 가장 높은 수익률을 기록하는 기업으로 올라선 순간, 그 수혜가 지속되기 위한 조건들 — 삼성 수율 경쟁, 엔비디아 집중도, 관세 리스크 — 은 여전히 한국 밖에서 결정된다. 수혜는 구조적이지만, 위험은 외생적이다.
내가 틀린다면: DeepSeek V4의 화웨이 칩 전환이 실제로 미국 AI 생태계와의 기술 단절을 심화시키는 게 아니라 — 반대로 오픈소스 생태계 전체를 더 활성화시켜 미국 클로즈드 랩들을 위협하는 역효과를 낼 경우. 또한 에이전틱 AI가 추론 워크로드를 폭발적으로 늘리는 게 아니라 — 에너지 비용 절감 기술(뇌 모방 칩 등)의 빠른 상용화로 단위당 메모리 소비가 줄어든다면 SK하이닉스의 슈퍼사이클은 예상보다 빠르게 조정될 수 있다.
이 뉴스레터는 특정 금융상품의 매수·매도를 권유하지 않습니다. 모든 투자 판단과 그에 따른 결과는 전적으로 독자 본인에게 있습니다.
달의 뉴스레터 | 기술·AI
이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널
달 드림 · dal.lunar.moon@gmail.com