[달의 뉴스레터] 기술·AI — SK하이닉스 40조, TurboQuant, Anthropic의 딜레마 (2026-04-23)

SK하이닉스 역대급 실적 발표일, Google TurboQuant가 GPU 병목을 알고리즘으로 무너뜨렸고, Anthropic은 최고 모델을 만들었지만 공개할 수 없다고 선언했다.

기술·AI — 2026년 4월 23일

달의 뉴스레터


오늘 기술 세계의 한 문장: AI가 만들어낸 초호황이 메모리 가격을 두 배로 만들었고, 알고리즘 한 줄이 GPU 병목을 무너뜨렸으며, 세상에서 가장 강력한 AI 모델은 아직 공개되지 않았다.


SK하이닉스: AI가 만든 역대급 실적, 그리고 그 다음

오늘 SK하이닉스가 2026년 1분기 실적을 발표한다. 시장의 예측은 하나로 수렴한다 — 역대 최대. 매출 약 50조 원, 영업이익 35~40조 원, 전년 대비 370% 증가. 반도체 기업의 단일 분기 실적으로는 인류 역사상 전례가 없는 숫자다.

이 숫자를 만든 엔진은 분명하다. DRAM 계약 가격은 1분기에 전 분기 대비 90~95% 급등했다. NAND 플래시도 55~60% 올랐다. 하지만 반전이 있다. 증권사들은 이번 실적 서프라이즈의 주역이 HBM이 아니라 일반 DRAM과 eSSD라고 본다. AI 서버 수요가 일반 메모리까지 끌어올리는 ‘낙수 호황’이 시작됐다는 뜻이다. SK하이닉스의 이번 분기 DRAM 영업마진은 80%에 육박할 것으로 전망된다. TSMC의 1분기 기록적 영업마진(58.1%)을 훌쩍 넘는다.

그리고 어제(4월 22일), 실적 발표 하루 전에 SK하이닉스는 19조 원 규모의 국내 첨단 패키징 공장 신설 계획을 발표했다. 이달 안에 착공한다. 미국 인디애나 HBM 패키징 공장(약 39억 달러) 투자와 별개다.

왜 지금인가. 실적 발표 하루 전 19조 투자 발표는 우연이 아니다. 4월 23일 실적 발표 후 SK하이닉스 경영진은 곧바로 미국 로드쇼에 나선다. 목표는 6~7월 미국 ADR(주식예탁증서) 상장으로 약 100억 달러를 조달하는 것이다. 투자자들에게 보여줄 스토리가 필요했다 — 이 회사는 단순히 호황을 누리는 게 아니라, 구조적으로 공급을 확장하고 있다는 이야기. 19조 투자 발표는 그 스토리의 첫 장이다.

실제로 무슨 말인가. SK하이닉스는 “메모리 부족이 2030년까지 지속될 수 있다”고 경고한다. TrendForce도 2027년 말까지 DRAM 공급이 글로벌 수요의 60%밖에 충족하지 못할 것으로 전망한다. 이게 사실이라면, 지금의 가격 폭등은 단기 스파이크가 아니라 구조적 공급 부족의 서막이다. 문제는 AI 수요가 실제로 이 수준을 유지할 것인지, 아니면 데이터센터 CapEx 사이클이 꺾이면 공급 과잉으로 역전될 것인지다.

달의 의심. HBM이 초과 예약 상태라는 건 검증된 사실이다. 그런데 이번 실적의 주역이 HBM이 아닌 일반 DRAM이라는 점이 흥미롭다. 클라우드 기업들이 AI 서버만큼이나 범용 서버도 대규모로 구매하고 있다는 신호인데, 이 수요가 AI 인프라 투자와 얼마나 연동돼 있는지가 중요하다. 만약 클라우드 CapEx 조정이 오면 일반 DRAM 가격이 먼저 꺾인다. 실적이 좋아도 주가가 선반영을 이미 했다면 — SK하이닉스 주가는 어제 사상 최고치(122만 8,000원)를 경신했다 — 오늘 실적이 예상을 넘더라도 추가 상승 여력은 HBM 2분기 가이던스에 달려 있다.

어디로 가는가. 단기적으로 40조 원 영업이익 돌파 여부와 HBM 가격 가이던스가 오늘 주가를 결정한다. 중기적으로는 SK하이닉스가 삼성·마이크론과의 격차를 벌리는 속도가 관건이다. 삼성이 HBM4 수율 문제를 아직 해결하지 못한 사이, SK하이닉스는 HBM4 샘플을 이미 출하하며 한 발 앞서 있다. 한국의 AI 메모리 패권은 구조적이다 — 조건은 SK하이닉스가 이 속도를 유지하는 것이다.

출처: Ad-Hoc News | 2026-04-22 · Meyka | 2026-04-23 · TradingKey | 2026-04-22


TurboQuant: GPU 다음 병목을 풀다

젠슨 황은 GTC 2026에서 같은 말을 반복했다. KV 캐시가 문제라고. 대형 언어모델이 길고 복잡한 문맥을 처리할 때, 이 KV 캐시 — 과거 대화·문서 내용을 저장하는 메모리 구조 — 가 GPU 메모리를 폭식한다. 컨텍스트 창이 8,000 토큰을 넘어서면 단일 모델의 KV 캐시만으로도 2GB 이상이 잠긴다. 더 좋은 GPU를 사도 이 병목은 사라지지 않는다.

구글 리서치가 ICLR 2026에서 공개한 TurboQuant는 이 병목을 알고리즘으로 공략한다. 핵심 원리는 두 단계다. 첫 번째 PolarQuant 단계에서 벡터를 카르테시안 좌표 대신 극 좌표계로 변환한다. 어텐션 메커니즘이 실제로 필요한 건 벡터 간의 각도 관계이지, 절댓값이 아니기 때문이다. 두 번째 QJL(Quantized Johnson-Lindenstrauss) 단계에서 남은 오차를 1비트 트릭으로 처리한다. 결과는 인상적이다. KV 캐시를 16비트에서 3비트로 압축하되 정확도는 FP16과 사실상 동일하게 유지한다. 압축률은 6배, H100 GPU에서 속도는 최대 8배 향상된다. 그리고 이 과정에서 학습 데이터도, 파인튜닝도, 모델 수정도 필요 없다 — 어떤 트랜스포머 아키텍처에도 그대로 꽂힌다.

왜 지금인가. TurboQuant 논문은 ICLR 2026 행사 주간(이번 주)에 공식 포스터 발표(4월 25일)를 앞두고 있다. 그러나 이미 커뮤니티 반응이 앞서 달아올랐다. 3월 25일 SGLang이 TurboQuant를 네이티브 KV 캐시 옵션으로 통합했고, llama.cpp에도 CPU/GPU 구현체가 올라왔다. Google의 공식 구현은 Q2 2026 출시 예정이다. 젠슨 황이 GTC에서 지목한 바로 그 문제에 대한 가장 유력한 해답이 학계에서 먼저 나온 것이다 — 이것 자체가 2026년 AI 연구 생태계의 속도를 보여주는 신호다.

실제로 무슨 말인가. 기술적 의미보다 경제적 의미가 크다. 지금까지 긴 컨텍스트 = 더 비싼 GPU, 더 비싼 API라는 등식이 성립했다. TurboQuant가 보급되면 이 등식이 흔들린다. 128K 토큰 문맥을 처리하는 비용이 지금의 절반 이하로 떨어질 수 있다. 클라우드 AI 추론 비용이 구조적으로 낮아진다는 뜻이다. 이건 AI 스타트업에겐 기회, 추론 마진으로 먹고사는 클라우드 기업에겐 압박이다. 또한 이 알고리즘은 벡터 검색에도 적용된다 — RAG(Retrieval-Augmented Generation) 기반 서비스 전체의 효율이 올라간다.

달의 의심. 성능 결과가 너무 깔끔하다. 3비트 압축에서 FP16과 “사실상 동일”한 정확도라는 주장은 벤치마크 세팅에 크게 의존한다. 실제로 구현체 문서를 보면 4비트가 실용적 스위트스폿이고, 3비트에서는 8B 이하 소형 모델에서 품질 저하가 나타난다. 또한 KV 캐시 압축이 이론적 한계에 근접했다는 지적도 있다 — 다음 도약은 압축이 아닌 완전히 다른 아키텍처에서 올 가능성이 있다. TurboQuant가 해결하는 건 현재 트랜스포머 패러다임의 마지막 효율 짜내기일 수 있다.

어디로 가는가. 단기적으로 vLLM 공식 통합이 완료되면 오픈소스 추론 비용이 한 번 더 꺾인다. 중기적으로 Google의 공식 구현이 TPU에 최적화돼 나오면 클라우드 AI 추론의 가격 경쟁이 다시 격화될 것이다. 한국의 시각에서는 추론 효율 향상이 HBM 수요를 약화시킬 수 있다는 우려가 있는데, 실제로는 반대다 — 더 싼 추론 비용은 AI 활용 범위를 확대해 전체 메모리 수요를 키운다. 낙수 호황의 논리다. 더 자세한 반도체 공급망 분석은 기업·산업 섹션에서 다루고 있다.

출처: Google Research Blog | 2026-04 · GitHub — OnlyTerp/turboquant | 2026-04 · Ship or Skip | 2026-04


Anthropic의 딜레마: 최고의 AI를 만들었지만 공개할 수 없다

4월 16일, Anthropic은 Claude Opus 4.7을 공개했다. 그리고 같은 날, 이 모델이 자사 최고 모델이 아니라는 사실도 공개했다. 진짜 최고 모델, Claude Mythos Preview는 여전히 초대받은 소수 기업에게만 열려 있다. 이유는 하나다 — 너무 위험하기 때문이다.

Mythos는 모든 주요 OS와 브라우저에서 제로데이 취약점을 발견했다. OpenBSD의 27년 된 버그도 찾아냈다. Firefox에서는 181개의 취약점을 성공적으로 익스플로잇했다 — Opus 4.6의 2개와 비교하면 90배가 넘는다. Anthropic은 이 모델이 “AI가 공격 속도를 방어 속도보다 빠르게 만들 수 있다”고 자체 경고한다. Opus 4.7은 그 다음 단계다. Mythos의 사이버 능력을 의도적으로 낮춘 채 훈련했고, 금지된 사이버보안 용도를 자동으로 감지하고 차단하는 안전장치를 달았다. 쉽게 말하면 — 진짜 모델을 공개하기 전에 연습용 모델로 안전장치를 시험하는 것이다.

왜 지금인가. Mythos의 존재는 사실 Anthropic의 선택으로 공개된 게 아니었다. 3월 28일, 보안 연구자들이 Anthropic 데이터베이스의 공개 접근 가능한 스토어에서 약 3,000개의 미공개 자료를 발견했다 — Mythos를 설명하는 초안 블로그 포스트도 포함돼 있었다. Anthropic은 같은 날 밤 패치했지만 이미 정보는 퍼졌다. Opus 4.7 발표는 그 여파 속에서 나왔다. 사고로 유출된 최고 모델의 그림자를 안고, 그보다 안전한 모델을 공식 제품으로 내놓는 역설적 상황이다.

실제로 무슨 말인가. AI 산업 역사상 처음으로 한 회사가 “우리는 공개할 수 없는 모델을 갖고 있다”고 공식 선언했다. 이건 단순한 PR이 아니다. 구조적 변화다. 지금까지 AI 경쟁은 “더 강한 모델을 먼저 공개하면 이긴다”는 단순한 규칙으로 움직였다. Anthropic은 그 규칙을 깨뜨렸다 — 또는 깨뜨릴 수밖에 없는 상황에 몰렸다. Project Glasswing을 통해 AWS, Apple, Microsoft, Google, Cisco가 Mythos를 테스트하고 있다. 트럼프 행정부와 테크 CEO들이 회의를 열었다. AI 안전이 외교적 의제로 올라온 것이다.

달의 의심. Anthropic이 정말 안전을 위해 Mythos를 제한하는 건지, 아니면 아직 완성되지 않은 모델을 안전 명분으로 포장한 건지 — 바깥에서는 알 수 없다. 그런데 흥미로운 숫자가 있다. Anthropic의 연간 매출이 현재 300억 달러 런레이트를 넘어섰고, 기업 고객 1,000곳이 연 100만 달러 이상을 쓰고 있다. Mythos를 공개하지 않아도 돈은 충분히 벌고 있다. 이게 역으로 “우리는 수익보다 안전을 택했다”는 서사를 강화한다. 상업적으로도 나쁘지 않은 전략이다.

어디로 가는가. Opus 4.7의 안전장치가 실전에서 얼마나 작동하는지를 Anthropic이 확인하면, 그 데이터를 바탕으로 Mythos의 단계적 공개가 이뤄질 것이다. 그 시점에서 AI 모델 성능의 격차는 다시 한 번 크게 벌어진다. OpenAI와 Google이 각각 GPT-5.4와 Gemini 3.1 Pro로 경쟁하는 사이, Anthropic은 아직 꺼내지 않은 카드를 쥐고 있다. AI 패권 경쟁이 “최강 모델 발표”가 아니라 “안전하게 배포 가능한 최강 모델 발표”로 기준을 바꾸고 있다.

출처: Anthropic | 2026-04-16 · Help Net Security | 2026-04-16 · IT Pro | 2026-04-16


달의 결론

오늘 세 개의 이야기는 하나의 축으로 수렴한다 — AI가 만들어낸 시장이 이제 스스로의 규칙을 쓰기 시작했다는 것.

SK하이닉스의 40조 원 영업이익은 AI 수요가 ‘전망’에서 ‘실적’으로 완전히 이동했음을 확인시킨다. TurboQuant는 더 좋은 하드웨어 없이 알고리즘만으로 병목을 뚫는 시대가 왔음을 보여준다. Anthropic의 Mythos 딜레마는 AI가 강력해질수록 공개 속도가 능력 개발 속도를 따라가지 못할 수 있음을 드러낸다.

세 이야기 중 달이 가장 눈여겨보는 건 세 번째다. Anthropic이 만든 선례 — 공개할 수 없는 모델을 보유하고 있다는 공식 선언 — 는 AI 개발의 방향을 조용히 바꾸고 있다. 다음 경쟁의 기준이 “가장 강한 모델을 가진 자”에서 “가장 안전하게 배포 가능한 모델을 가진 자”로 이동한다면, 안전 연구에 가장 많이 투자한 회사가 다음 주기의 승자가 될 수 있다. 아직은 가정이다. 하지만 그 가정이 현실이 되는 속도가 예상보다 빠를 수 있다.

내가 틀린다면: SK하이닉스 실적이 가이던스를 충족하지 못하거나 HBM 가격 하락 신호가 나올 경우 메모리 슈퍼사이클 서사가 흔들린다. TurboQuant의 실제 보급 속도가 기대보다 느리면 추론 비용 혁명은 2027년 이후로 미뤄진다. Mythos의 위험성이 Anthropic의 설명보다 과장된 것이라면, 경쟁사들이 더 강한 모델로 시장 점유율을 가져가는 동안 Anthropic은 스스로를 제약했을 수 있다.


이 뉴스레터는 특정 금융상품의 매수·매도를 권유하지 않습니다. 모든 투자 판단과 그에 따른 결과는 전적으로 독자 본인에게 있습니다.


달의 뉴스레터 | 기술·AI


이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널


달 드림  ·  dal.lunar.moon@gmail.com