기술·AI — 2026년 4월 27일
달의 뉴스레터
어제 자본과 인프라가 움직였다면, 오늘은 기술 자체가 변하고 있다 — 코드를 쓰는 일, 모델을 실행하는 방식, 그리고 AI가 들고 다니는 칼의 날카로움까지.
소프트웨어 엔지니어의 일이 바뀌고 있다 — 구글은 코드의 75%를 AI로 쓴다
2026년 4월 22일, 구글 CEO 순다르 피차이는 Cloud Next ’26 컨퍼런스 블로그 포스트에 한 줄을 남겼다. “구글에서 작성되는 새 코드의 75%가 이제 AI로 생성되고 있으며, 엔지니어가 검토·승인한다.” 1년 전 이 숫자는 30%였고, 지난 가을엔 50%였다. 6개월마다 25%포인트씩 오르고 있다.
숫자보다 더 중요한 것이 있다. 피차이는 “에이전틱 워크플로우로의 전환”을 선언했다. 이제 엔지니어는 코드를 줄 단위로 쓰는 사람이 아니라, AI 에이전트들을 지휘하는 오케스트레이터가 된다. 구체적 사례로는 복잡한 코드 마이그레이션 작업을 AI와 엔지니어가 협업해 1년 전보다 6배 빠르게 완료한 것, 내부 에이전틱 개발 플랫폼 ‘안티그래비티(Antigravity)’를 이용해 macOS용 Gemini 앱 프로토타입을 며칠 만에 완성한 것이 공개됐다. 보안 운영 센터에서는 AI 에이전트가 매달 수만 건의 위협 보고서를 자동 분류해 위협 대응 시간을 90%이상 단축했다.
왜 지금인가. 이 발표의 타이밍은 우연이 아니다. AI 코딩 도구 시장에서 Anthropic의 Claude Code, GitHub Copilot, Cursor가 치열하게 경쟁하는 가운데, 구글은 자사가 이미 가장 앞선 AI 개발 환경에서 일하고 있음을 증명하고 싶었다. 동시에 Google Cloud Next는 기업 고객들에게 Gemini 기반 에이전틱 개발 도구를 파는 행사다 — “우리 회사도 이렇게 쓴다”는 증거가 가장 강력한 영업 자료다.
실제로 무슨 말인가. 75%는 단순한 자동완성 비율이 아니다. 코드의 4분의 3이 AI가 초안을 쓰고 사람이 검토한다는 것은, 엔지니어링 조직의 생산성 방정식이 근본적으로 바뀌었다는 뜻이다. 같은 인원으로 더 많이 만들 수 있다. 혹은 같은 결과를 더 적은 인원으로 낼 수 있다. 채용을 멈추고 AI로 갭을 메우거나, 전략적으로 인력을 줄이는 것이 합리적 경영 판단이 된다. Snap이 AI를 이유로 16%(약 1,000명)를 해고한 것은 같은 논리의 다른 이름이다.
달의 의심. 75%가 “AI 생성 코드”라는 정의에 조심해야 한다. 자동완성 수준의 짧은 코드 조각부터 복잡한 로직까지를 모두 같은 기준으로 셀 수 있는가? 구글의 내부 기준이 어디서 선을 긋느냐에 따라 이 숫자는 얼마든지 달라진다. 그리고 “엔지니어가 검토·승인”한다는 조건이 실제로 얼마나 엄밀한지도 불분명하다 — 생산성 압박 아래 검토가 형식화되는 순간, AI가 만든 버그는 사람의 이름으로 배포된다. 마지막으로: 피차이가 “엔지니어는 대체되는 것이 아니라 역할이 바뀌는 것”이라고 했지만, 그 “역할 변화”가 채용 규모 변화와 어떻게 다른지는 답하지 않았다.
어디로 가는가. 소프트웨어 개발의 병목이 코드 작성에서 의사결정으로 이동하고 있다. 어느 기능을 만들지, 어떤 아키텍처를 선택할지, 어떤 기술 부채를 우선 갚을지 — 이 판단을 AI는 아직 대신할 수 없다. 엔지니어의 가치는 코드를 빠르게 타이핑하는 데서 시스템을 옳게 설계하는 데로 이동한다. 이 전환에서 앞서 배우는 사람이 앞선다. 구글은 이미 에이전틱 개발 플랫폼을 내부에 깔았다. 나머지 기업들이 이 격차를 따라잡는 데 걸리는 시간이 다음 3년의 생산성 경쟁을 결정한다.
출처: Google Blog — Sundar Pichai | 2026-04-22 · NewsBytesApp | 2026-04-26
AI 추론의 병목을 깼다 — TurboQuant, 메모리 6배 압축·속도 8배
2026년 4월 25일, ICLR 2026 컨퍼런스 포스터 세션에서 구글 리서치의 알고리즘이 공식 발표됐다. 이름은 TurboQuant. 원리는 단순하다 — LLM이 추론할 때 가장 많은 메모리를 먹는 부분인 KV 캐시(Key-Value Cache)를 3.5비트로 압축한다. 기존 방식에서는 압축하면 정확도가 떨어지는 것이 당연했다. TurboQuant는 3.5비트 압축에서 정확도 손실이 사실상 0에 수렴한다고 주장한다.
성능 수치는 이렇다. 메모리 사용량이 기존 대비 최소 6배 줄어들고, NVIDIA H100 GPU 기준으로 어텐션 연산 속도가 최대 8배 빨라진다. 재훈련이 필요 없다 — 기존 모델에 바로 적용할 수 있다. 기술적 핵심은 두 단계다. 먼저 PolarQuant 단계에서 입력 벡터를 회전 변환해 분포를 균일하게 만들고, 이후 QJL(양자화 존슨-린덴슈트라우스) 단계에서 1비트 잔류 압축으로 오류를 제거한다. ICLR 2026은 딥러닝 분야 최상위 학술대회 중 하나다 — 여기서 발표됐다는 것은 동료 연구자들의 심사를 통과했다는 의미다.
왜 지금인가. TurboQuant가 ICLR 2026(4월 23~27일, 리우데자네이루)에서 공식 발표된 시점은 AI 인프라 병목에 대한 논의가 정점에 달한 때다. 어제 뉴스레터에서 다뤘듯이, TSMC의 CoWoS 패키징이 AI 칩의 물리적 천장이 됐다(어제 기술·AI 섹션 참조). 하드웨어 병목이 풀리지 않는 상황에서, 소프트웨어 알고리즘으로 메모리와 속도 문제를 동시에 해결하는 기술이 등장했다. 이것이 지금 이 기술이 주목받는 이유다 — 칩이 부족하면 알고리즘이 더 중요해진다.
실제로 무슨 말인가. KV 캐시는 LLM이 긴 대화 맥락을 기억하는 데 쓰는 메모리다. 100만 토큰 컨텍스트 윈도우를 지원하는 DeepSeek V4나 Claude Opus 4.7을 실제로 쓰려면 메모리가 어마어마하게 필요하다. TurboQuant가 실전에서 효과를 내면, 같은 GPU로 더 긴 맥락을 처리할 수 있고, 같은 비용으로 더 많은 동시 요청을 처리할 수 있다. 이것은 클라우드 API 비용을 낮추고, 엣지 디바이스(스마트폰, PC)에서 대형 모델을 실행하는 것을 현실화할 수 있다. 두 주 만에 독립 구현 5개가 나왔고, MacBook에서 1040억 파라미터 모델을 돌린 사례까지 보고됐다.
달의 의심. 구글 리서치의 자체 결과와 실제 프로덕션 환경 성능 사이에는 항상 간극이 있다. 논문의 벤치마크는 통제된 조건에서 나온 것이다. 특히 “정확도 손실 0″은 특정 모델·태스크 기준이며, 다른 모델이나 수학·코딩처럼 정밀도가 요구되는 태스크에서는 결과가 달라질 수 있다. 더불어 구글이 이 기술을 외부에 무상 공개한 이유도 살펴볼 필요가 있다 — 기반 기술을 오픈소스화해 생태계 표준으로 만들고, 그 위에 구글의 상용 제품(Google Cloud TPU, Gemini API)을 쌓는 전형적인 구글식 전략일 수 있다.
어디로 가는가. TurboQuant가 vLLM, Hugging Face 같은 주요 추론 프레임워크에 통합되면 AI 서비스의 비용 구조가 바뀐다. NVIDIA GPU 한 대로 처리하던 것을 더 적은 하드웨어로 감당할 수 있게 되면, AI 서비스 진입 장벽이 낮아진다. 그리고 엣지 AI — 클라우드 없이 기기 자체에서 대형 모델을 돌리는 시대 — 가 한 걸음 더 가까워진다. 이 방향이 현실화되면 NVIDIA의 GPU 수요 성장 속도와 칩 마진에 어떤 영향을 줄지 — 이것이 다음 분기 반도체 섹터를 읽는 핵심 변수 중 하나다.
출처: ICLR 2026 포스터 | 2026-04-25 · Google Research Blog (2026-03, 기술 문서) · TechCrunch | 2026-03-25 (배경 보도)
가장 위험한 AI의 빗장이 열렸다 — Anthropic Mythos 무단 접근
2026년 4월 22일, 사이버보안 전문 매체들이 블룸버그의 보도를 인용하며 충격적인 사건을 전했다. Anthropic의 Claude Mythos Preview — 50개 기업에만 제한 공개된 AI 모델 — 에 소규모의 무단 접근이 이루어졌다. 이 그룹은 Anthropic과 계약한 서드파티 벤더 환경을 통해 접근했고, Anthropic의 URL 포맷 규칙을 추론해 모델의 온라인 위치를 알아냈다. 무단 접근을 도운 인물은 그 서드파티 계약업체의 직원이었다.
Mythos가 왜 특별히 위험한가. Anthropic의 평가에 따르면, 이 모델은 모든 주요 운영체제와 웹 브라우저에서 수천 개의 고위험 취약점을 찾아냈다. 27년 된 OpenBSD 취약점과 16년 된 FFmpeg 버그를 자동으로 발견했고, Linux 커널 취약점들을 자율적으로 연쇄 연결해 어떤 Linux 시스템에도 완전한 접근 권한을 얻을 수 있는 익스플로잇 체인을 구성했다. 이전 모델인 Opus 4.6의 자율 익스플로잇 성공률이 거의 0%였다면, Mythos는 시도한 사례의 83.1%에서 성공했다. 이것이 Anthropic이 50개 기업에만 Project Glasswing이라는 이름으로 제한 제공하고, 일반 공개를 거부한 이유다.
왜 지금인가. 무단 접근 사건이 공개된 시점은 구글의 Anthropic $40B 투자 발표(4월 24일)와 맞물렸다. 정확히 자본이 Anthropic에 몰리는 순간, 그 Anthropic이 통제하는 모델의 보안이 뚫렸다는 사실이 함께 보도됐다. AI 모델의 가치와 그 위험이 동시에 극대화되는 아이러니한 순간이다. 국가 수준의 관심도 확인됐다 — 미국 CISA, 상무부, 영국, 캐나다, 인도 금융 당국이 Anthropic으로부터 브리핑을 받았고, 인도 재무장관은 은행권 CEO를 모아 위험 평가 회의를 소집했다.
실제로 무슨 말인가. 이 사건은 두 가지를 동시에 드러낸다. 첫째, 가장 제한적으로 통제된 AI도 서드파티 공급망을 통해 누출될 수 있다 — 모델 자체의 보안보다 그것을 둘러싼 벤더 생태계가 취약점이 될 수 있다. 둘째, Mythos가 실제로 그 수준의 능력을 가지고 있다면, 무단 접근자가 이 모델을 악용해 취약점 정보를 어딘가에 판매하거나 실제 공격에 활용할 수 있다는 것이다. OpenAI CEO 샘 알트만은 이것을 “공포 기반 마케팅”이라고 일축했지만, 보안 연구자들은 실제로 그 능력이 증명됐다는 점에서 태도가 다르다.
달의 의심. Anthropic의 이 발표 방식에는 의도적 구성이 있을 수 있다. 위험하다고 공개 선언한 모델 → 제한 배포 → 무단 접근 사건 → 더 큰 화제성. 모델 능력의 극적 표현(“27년 된 취약점 발견”)과 무단 접근의 타이밍이 오히려 Mythos의 존재감을 키우는 방향으로 작동하고 있다. 마치 모델을 비밀로 만들수록 사람들이 더 원하게 되는 효과다. 샘 알트만의 “공포 마케팅” 비판이 전혀 근거 없지 않다. 그리고 더 실질적인 의심: 83.1% 익스플로잇 성공률이라는 수치는 누가, 어떤 조건에서 측정했는가 — Anthropic 내부 평가다.
어디로 가는가. AI 사이버보안의 역설이 현실이 됐다. AI가 방어에도 쓰이고 공격에도 쓰인다 — 이것은 이론이 아니라 오늘의 현실이다. Project Glasswing으로 취약점을 먼저 찾아 막는 속도가 악의적 사용자가 같은 능력으로 공격하는 속도보다 빠를 수 있는가. 이 경주가 AI 시대 사이버보안의 핵심 문제다. 당분간 Mythos는 제한 배포 상태를 유지하겠지만, 프론티어 모델의 능력이 이 방향으로 계속 발전한다면 언젠가 이보다 강력한 모델이 오픈소스로 풀리는 날이 온다. 그 날을 위한 방어 체계를 지금 만들고 있는가 — 이것이 각국 정부와 기업이 지금 직면한 질문이다.
출처: CybersecurityNews | 2026-04-22 · BusinessToday | 2026-04-26 · Axios | 2026-04-07 (배경 보도)
달의 결론
오늘 세 꼭지는 기묘하게 하나의 선을 그린다. 코드를 쓰는 방식이 바뀌고, 코드를 실행하는 비용이 낮아지며, 코드의 취약점을 찾는 일도 AI가 한다. 소프트웨어 개발의 시작부터 끝까지, 그리고 보안 점검까지 — AI가 이 사이클 전체를 바꾸고 있다.
구글의 75% AI 코드 생성은 인간 엔지니어의 역할이 무엇인지를 다시 묻는다. TurboQuant는 AI 서비스의 비용 방정식을 소프트웨어 레벨에서 재설계한다. Mythos 무단 접근 사건은 가장 강력한 도구가 제대로 통제되지 않으면 어떻게 되는지를 보여준다. 세 흐름의 교차점에서 보이는 것은 이것이다 — AI의 발전이 더 이상 성능 경쟁만이 아니라는 것. 누가 이 기술을 안전하게, 효율적으로, 그리고 넓게 퍼뜨리는가가 다음 10년을 가른다.
한국의 맥락에서 보면: 소프트웨어 개발자의 역할이 재정의되는 속도가 한국의 IT 인력 구조 전반에 영향을 준다. AI 코딩 도구를 얼마나 빠르게 내재화하느냐가 생산성 격차를 만들 것이다. TurboQuant 같은 추론 효율화 기술이 확산되면 AI 서비스 비용이 내려가고, 국내 AI 스타트업들의 API 비용 부담도 줄어든다. 그리고 Mythos가 보여준 AI 사이버보안 위협은 금융, 의료, 국방 인프라를 가진 한국에도 직접 해당된다.
내가 틀린다면: 구글의 75% AI 코드 생성이 생산성 환상에 그쳐, 실제 소프트웨어 품질 저하나 숨겨진 기술 부채로 이어진다면 이 숫자는 뒤집힌다. TurboQuant가 특정 모델·태스크에서만 효과를 내고 범용 적용이 어렵다면, 실전 영향력은 제한된다. Mythos 무단 접근이 과장됐거나 실제 악용 사례 없이 마무리된다면, AI 사이버보안의 위기 서사는 공포 마케팅으로 판명될 수 있다.
이 뉴스레터는 특정 금융상품의 매수·매도를 권유하지 않습니다. 모든 투자 판단과 그에 따른 결과는 전적으로 독자 본인에게 있습니다.
달의 뉴스레터 | 기술·AI
이 흐름을 매일 같이 따라오고 싶으시면, 텔레그램에서 먼저 만날 수 있어요. → 달루나 채널
달 드림 · dal.lunar.moon@gmail.com