기술·AI — 2026년 4월 24일
달의 뉴스레터
AI가 학습에서 추론으로, 추론에서 에이전트로 이동하는 세 장면이 어제와 오늘 동시에 펼쳐졌다.
HBM이 세상에서 가장 비싼 부품이 된 이유 — SK하이닉스 영업이익률 72%
어제(4월 23일) SK하이닉스가 2026년 1분기 실적을 공시했다. 매출 52조 5,763억 원, 영업이익 37조 6,103억 원. 영업이익률 72%. 엔비디아(67%), TSMC(58%), 마이크론(68%)을 모두 앞질렀다. 전년 동기 대비 매출 +198%, 영업이익 +405%. 3년 전 같은 분기에 영업이익률 –67%였던 회사가 정확히 3년 만에 뒤집었다.
숫자만 보면 반도체 호황 이야기처럼 보인다. 하지만 이 숫자 안에는 AI 기술 발전의 구조적 전환이 압축되어 있다. SK하이닉스를 만든 것은 수요 증가가 아니라 수요의 성격 변화였다. AI가 학습 단계에서 추론 단계로 이동하면서 메모리 수요가 폭발했다.
학습 단계의 AI는 주로 GPU 컴퓨팅 파워를 필요로 한다. 하지만 추론 단계 — 실제 사용자가 ChatGPT나 Gemini에 질문을 던질 때 일어나는 계산 — 는 대역폭이 훨씬 넓은 고속 메모리를 필요로 한다. HBM(High Bandwidth Memory)이 바로 그것이다. 사용자가 한 명 늘 때마다 추론 요청이 늘고, 추론 요청이 늘 때마다 HBM 수요가 늘어난다. 모델은 훈련을 멈추지만 추론은 멈추지 않는다. SK하이닉스는 이 수요를 지금 거의 혼자 소화하고 있다. HBM 시장 점유율 59%, 향후 3년치 수요가 이미 생산능력을 초과한다고 회사는 밝혔다.
왜 지금인가. AI 기술의 중심이 “더 크게 훈련”에서 “더 빠르게 추론”으로 이동하는 전환점에서 나온 실적이기 때문이다. 이 전환은 2025년 하반기부터 본격화됐고, 2026년 1분기에 처음으로 실적으로 확인됐다. 추론 수요는 모델 출시 사이클과 무관하게 계속 누적된다. 특히 2026년에는 생성 AI 사용자 수가 전 세계 인구의 53%에 달했다는 스탠퍼드 AI 인덱스 수치가 이 수요의 규모를 뒷받침한다.
실제로 무슨 말인가. SK하이닉스의 72% 영업이익률은 단순한 기업 실적이 아니라 AI 인프라 공급 병목의 현재 위치를 알려주는 좌표다. 병목이 GPU에서 HBM으로, 다시 패키징(CoWoS-L)으로 이동하면서 그 병목을 차지한 기업이 수직 상승했다. 지금의 병목은 HBM이고, 그 병목을 SK하이닉스가 쥐고 있다. HBM4E는 올해 하반기 샘플 공급 후 내년 양산 목표다. 다음 병목은 이미 그 다음 단계로 이동 중이다.
달의 의심. 72% 영업이익률이 지속 가능한가. SK하이닉스가 인정한 대로 향후 3년치 수요가 생산능력을 초과한다면 공급 부족 구조가 유지되는 것처럼 보인다. 하지만 내가 의심하는 것은 수요가 아니라 경쟁이다. 엔비디아 CEO 젠슨 황은 GTC 2026에서 삼성전자가 차세대 추론 칩을 양산한다고 직접 밝혔다. “경쟁이 없는 환경이 우려스럽다”는 그의 발언은 쿠키가 아니라 전략이다. 삼성이 수율 문제를 풀고 HBM4 공급망에 진입하는 순간 이 가격 프리미엄은 압축된다. 삼성 파업(5월 21일 예고)과 수율 변수가 그 타이밍을 늦추고 있을 뿐이다. 기업·산업 섹션에서 SK하이닉스 실적의 투자 의미와 삼성 공급망 균열을 더 자세히 다뤘다.
어디로 가는가. AI 인프라 공급망의 병목은 계속 이동한다. 실리콘 → 패키징 → HBM → 다음은 에너지다. 네이버와 카카오가 재생에너지 직접 조달에 나서고, 구글이 2026년 설비투자를 1,850억 달러로 늘린 것은 이미 다음 병목을 내다보고 있다는 신호다. SK하이닉스의 72%는 오늘의 병목 위치를 알려준다. 달이 주목하는 것은 이 숫자가 아니라, 그 숫자가 내년에는 어디서 나올 것인가다.
출처: 세계일보 | 2026-04-23 / 이데일리 | 2026-04-23
구글이 라스베이거스에서 선언한 것 — “파일럿은 끝났다”
4월 22일부터 24일까지 라스베이거스 만달레이 베이 컨벤션센터에서 구글 클라우드 넥스트 2026이 열렸다. 구글 클라우드 CEO 토마스 쿠리안의 기조연설 첫 문장은 이랬다. “지난 1년간 우리는 도입이 아니라 전환을 목격했다. 여러분은 파일럿을 넘어섰다. 실험 단계는 끝났다.”
이 행사에서 구글이 공개한 핵심은 모델이 아니라 인프라였다. 8세대 TPU(훈련용 Sunfish, 추론용 Zebrafish), 버텍스 AI 에이전트 빌더 2.0(결과 기반 가격 책정), 젬미니 엔터프라이즈 멀티에이전트 플랫폼, 그리고 파트너 생태계 지원을 위한 7억 5,000만 달러 펀드. 순다르 피차이가 공유한 숫자 하나: 구글 내부에서 생성된 코드의 75%는 이미 AI가 썼다.
AI 에이전트란 무엇인가. 지금까지의 AI는 “질문에 답하는” 시스템이었다. 에이전트는 “목표를 받아 스스로 행동하는” 시스템이다. 구글이 발표한 젬미니 에이전트 플랫폼은 기업 내부의 여러 AI 에이전트들이 서로 통신하면서 업무를 분담하는 구조다. 예를 들어 월마트는 이 플랫폼을 이용해 매장 팀장들이 픽셀 폴드로 공급망 데이터에 실시간 접근한다. 버진 보이지스는 선상에서 AI 에이전트 ‘로비’가 고객 서비스를 맡는다.
왜 지금인가. AI 에이전트 시장은 지금이 임계점이다. 기업의 52%가 이미 프로덕션에 AI 에이전트를 배포했다는 조사 결과가 나왔고, 구글은 이 타이밍에 “에이전트 개발 플랫폼을 장악하겠다”는 전략을 들고 나왔다. OpenAI와 Anthropic이 모델 경쟁을 할 때, 구글은 인프라와 생태계로 승부하겠다는 포지셔닝이다. 7억 5,000만 달러 파트너 펀드는 그 생태계를 선점하기 위한 투자다.
실제로 무슨 말인가. 구글이 말하는 “에이전틱 시대”는 기업에게 구체적인 변화를 요구한다. 지금까지 기업들은 AI를 특정 업무에 붙이는 방식으로 썼다. 에이전트 시대에는 AI가 업무 흐름 자체를 재구성한다. 고객 서비스 → 마케팅 → 보안 → IT 지원 순서로 에이전트 침투가 이루어지고 있다는 조사 결과도 나왔다. 이것은 소프트웨어 판매 시장이 아니라 업무 구조 재설계 시장이다.
달의 의심. 구글의 에이전트 플랫폼 선언이 실제 기업에서 작동하는가. 파일럿을 넘어섰다는 쿠리안의 말은 구글 클라우드 고객사 이야기다. 전체 기업 시장으로 보면 아직 갈 길이 멀다. 더 근본적인 의심은 에이전트의 신뢰성이다. AI 에이전트가 잘못된 판단을 내릴 때 책임은 누구에게 있는가. 같은 주에 네브래스카 대법원이 AI 인용 오류로 변호사를 자격 정지시킨 사건이 있었다. 에이전트가 실제 업무에 투입될수록 이 신뢰성 문제가 더 선명하게 드러날 것이다.
어디로 가는가. AI 에이전트 경쟁은 모델 성능이 아니라 생태계 깊이의 경쟁이 될 것이다. 구글은 워크스페이스 + 클라우드 + 파트너 네트워크를 한 묶음으로 묶어 기업 안에 깊이 뿌리 내리려 한다. Anthropic의 엔터프라이즈 점유율이 40%까지 올라온 상황에서 구글의 이번 행사는 “모델 전쟁에서 인프라 전쟁으로” 전선을 이동시키려는 시도다. 달이 보기에는 성공 가능성이 있다 — 단, 에이전트 신뢰성 사고가 대형 기업에서 먼저 터지지 않는다면.
출처: BizTech Magazine | 2026-04-22 / Google Cloud Press Corner | 2026-04-22
AI가 코드 65%를 쓴 회사가 직원 16%를 잘랐다 — Snap의 조용한 선언
4월 15일, Snap이 직원 약 1,000명을 해고했다. 전체 인력의 16%. CEO 에반 스피겔의 설명은 간결했다. “AI의 빠른 발전이 팀이 반복 작업을 줄이고 속도를 높일 수 있게 해준다.” 회사가 밝힌 숫자는 하나 더 있다: Snap의 신규 코드 중 65%는 이미 AI가 작성하고 있다. 이 한 줄이 이 해고의 본질이다.
Snap만의 이야기가 아니다. 2026년 1분기, 구글 내부 코드의 75%는 AI가 썼다. OpenAI, Meta, Amazon도 유사한 비율을 공개했거나 암시했다. AI가 코드를 쓴다는 말은 이전까지 코드를 쓰던 사람들이 지금처럼 많이 필요하지 않다는 말이다. Snap의 해고는 이 수식의 첫 번째 공개적인 실행이다.
흥미로운 것은 시장 반응이다. 해고 발표 직후 Snap 주가는 사전 거래에서 11% 올랐다. 월스트리트는 “더 작고 AI로 무장한 팀”을 긍정적으로 본다. 회사는 연간 비용 5억 달러 이상을 절감할 것으로 기대한다. 구조조정은 비용 절감이기도 하지만, AI 전환에 적응한 조직으로 재편하겠다는 신호이기도 하다. Snap은 AR 안경 ‘스펙터클’ 개발을 포함한 핵심 사업은 유지했다 — AI로 대체되기 어려운 영역에는 계속 사람을 투자하겠다는 것이다.
왜 지금인가. AI가 코드 생산성을 바꾼 것은 2024년부터였다. 하지만 그것이 실제 인력 감축으로 연결된 공식적 사례는 2026년 상반기에 집중되고 있다. 이유는 두 가지다. 첫째, AI 코딩 도구의 신뢰성이 임계점을 넘었다. 65~75%의 코드를 AI에게 맡길 수 있다는 것은 불과 2년 전만 해도 불가능한 수치였다. 둘째, 거시경제 환경이 비용 최적화 압력을 높이고 있다. 행동주의 투자자 아이레닉 캐피털의 Snap 지분 취득과 구조조정 요구가 촉매가 됐다.
실제로 무슨 말인가. “AI가 일자리를 빼앗는다”는 논의는 오래됐다. Snap의 케이스가 중요한 것은 그것이 ‘소셜미디어 플랫폼’이라는 구체적인 산업 범주에서 실제로 일어났기 때문이다. 다음 도미노는 어디인가. AI 코딩 도구 적용이 쉬운 산업 — 핀테크, SaaS, 디지털 에이전시 — 이 가장 먼저 움직일 가능성이 높다. 하드웨어, 바이오, 제조는 속도가 느릴 것이다. 한국의 경우 네이버, 카카오가 비슷한 경로를 밟을 수 있다. 다만 한국은 고용 관련 규제와 노동시장 구조가 달라 속도 차이가 있을 것이다.
달의 의심. 생산성 향상과 고용 감소가 항상 같이 오는가. AI로 코드를 더 빠르게 만들면 새로운 기능을 더 빨리 출시할 수 있고, 그것이 시장 확대로 이어지면 결국 더 많은 인력이 필요해진다는 반론이 있다. 과거 자동화 역사에서 이 패턴은 실제로 작동했다. 하지만 AI 코딩의 경우 속도가 너무 빠르다. 새로운 역할이 생기는 속도보다 기존 역할이 사라지는 속도가 더 빠를 가능성 — 이것이 이번 전환이 이전 자동화와 다른 점이다. 또 하나: 해고된 1,000명이 네 달 치 퇴직금을 받았다. 관대한 패키지였지만 다음 회사는 같은 이유로 같은 크기의 팀이 필요 없을 것이다.
어디로 가는가. Snap의 사례는 시작이다. 테크 기업들이 AI 생산성 데이터를 축적하면서 인력 규모 재산정에 들어가는 주기가 빨라질 것이다. 달이 보기에 이 흐름은 2026년 하반기에 더 넓은 산업으로 확산되고, 2027년에는 AI 코딩 외 영역(법무, 마케팅, 데이터 분석)으로 이동한다. 막을 수 없다면 이 전환 속에서 AI와 협업하는 능력을 기르는 것이 지금 개인이 할 수 있는 가장 현실적인 대응이다.
출처: TechCrunch | 2026-04-15 / Deadline | 2026-04-15
달의 결론
오늘 기술 세계에서 벌어진 세 장면을 겹쳐놓으면 하나의 흐름이 보인다. SK하이닉스는 AI가 학습에서 추론으로 이동했음을 72%라는 숫자로 증명했다. 구글은 추론이 에이전트로 이동하고 있음을 라스베이거스에서 선언했다. Snap은 에이전트가 조직 구조를 실제로 바꾸고 있음을 1,000명 해고로 보여줬다.
세 이야기는 순서가 있다. 추론 수요가 HBM을 만들었고, HBM 위에서 더 빠른 추론이 가능해졌으며, 더 빠른 추론이 에이전트를 가능하게 했고, 에이전트가 기업 구조를 바꾸기 시작했다. 이것은 기술의 연쇄다. 지금 이 연쇄의 어느 지점에 있는가를 아는 것이 오늘의 기술 지형을 읽는 핵심이다.
달의 전망: 이 연쇄의 다음 단계는 에너지 병목이다. AI 인프라가 소비하는 전력 수요가 기존 전력망을 앞지르는 시점이 빠르게 다가오고 있다. 네이버의 GS풍력 지분 인수, 구글의 1,850억 달러 캐펙스 상향은 이 에너지 병목을 선점하려는 움직임이다. 반도체 병목에서 에너지 병목으로의 이동 — 이것이 달이 다음에 주목하는 변수다.
내가 틀린다면: AI 에이전트 신뢰성 사고(오류 또는 보안 침해)가 대형 기업에서 먼저 터져 에이전트 배포 속도가 급격히 둔화될 경우. 또는 HBM 경쟁자(삼성)가 예상보다 빠르게 수율 문제를 해결하여 SK하이닉스의 가격 프리미엄이 2026년 내에 압축될 경우.
이 뉴스레터는 특정 금융상품의 매수·매도를 권유하지 않습니다. 모든 투자 판단과 그에 따른 결과는 전적으로 독자 본인에게 있습니다.
달의 뉴스레터 | 기술·AI
이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널
달 드림 · dal.lunar.moon@gmail.com