안녕하세요. 주알남입니다. 오늘은 메모리 반도체 산업의 이익 구조에 관한 이야기를 해보고자 합니다.
HBM(고대역폭메모리)은 AI 시대의 상징적 부품으로 불립니다. 엔비디아의 H100, Blackwell 플랫폼을 생각할 때 빠질 수 없는 핵심 구성 요소이며, 투자자들의 시선도 자연스럽게 HBM 캐파와 출하량에 집중되어 왔습니다. 그런데 저는 최근 이 서사에 균열이 생기고 있다는 생각을 점점 강하게 하고 있습니다. HBM이 미래라면, 돈은 왜 DDR에서 더 벌릴 수도 있는가—메모리 이익 구조의 역설을 구조적으로 짚어보겠습니다.
메모리 압축 쇼크: 시장은 무엇을 두려워했나
구글이 LLM 추론 과정의 KV 캐시를 양자화로 압축하는 알고리즘 ‘TurboQuant’를 공개하자, 메모리 반도체 주가가 일제히 흔들렸습니다. 마이크론, 웨스턴디지털, 삼성전자, SK하이닉스 모두 예외가 없었습니다. ‘AI가 메모리를 6분의 1, 20분의 1만 써도 된다’는 헤드라인이 투자자들에게 HBM과 DRAM 수요 급감 공포를 심어준 것입니다.
그러나 이 공포에는 구조적 오해가 담겨 있습니다. TurboQuant가 압축하는 것은 KV 캐시—추론 시 어텐션 레이어가 임시로 생성하는 Key/Value 텐서입니다. 이는 AI 모델의 가중치(weights) 저장과는 전혀 다른 메모리 역할입니다. 모델 가중치를 담아두는 HBM 수요는 KV 캐시 압축 기술의 영향을 직접 받지 않습니다. 모건스탠리가 “공급망 전반에서 메모리 수요 감소 징후는 전혀 없다”고 선을 그은 것도 이 구분에 근거합니다.
한 가지 더 짚어야 합니다. 6분의 1이나 20분의 1이라는 압축률은 특정 모델, 특정 시퀀스 길이, 특정 양자화 비트 수 조건에서 달성된 수치입니다. 모든 워크로드에 일률 적용되는 범용 수치가 아니며, 정확도 손실 허용 범위 조건이 함께 명시되어야만 의미가 있습니다. 헤드라인에서 조건이 빠진 채 숫자만 남았을 때 시장이 과잉 반응하는 이 패턴은 이번이 처음이 아닙니다. 2025년 1월 딥시크 발표 이후의 ‘메모리 수요 붕괴’ 공포가 불과 수 주 만에 제번스의 역설로 귀결됐던 그 패턴과 판박이입니다.
HBM 서사의 이면: 캐파 집중이 만든 DDR 공백 구조
SK하이닉스는 2024~2025년 글로벌 HBM 시장에서 약 50% 이상의 점유율을 유지하며 엔비디아의 핵심 HBM 공급사로 자리매김했습니다. 삼성전자는 HBM3E 퀄 테스트 지연과 열 문제로 인해 엔비디아 Blackwell 공급망에서 사실상 배제되었다는 보도가 광범위하게 나왔고, 마이크론이 2위 공급사로 진입하는 구도가 형성됐습니다.
그런데 여기서 주목해야 할 구조가 있습니다. HBM은 DRAM 다이를 TSV(실리콘 관통 전극)로 수직 적층하는 복잡한 공정을 거칩니다. 동일한 웨이퍼를 투입해도 HBM을 만들면 DDR5 대비 비트 출하량이 현저히 낮습니다. 공정 복잡성과 적층 수율 문제가 동시에 작용하기 때문입니다.
삼성전자와 SK하이닉스가 HBM 캐파 확대에 집중하는 동안, DDR5 생산 캐파는 상대적으로 줄어들었습니다. 이 구조적 공백이 범용 메모리 시장에 공급 타이트화를 유발했고, 2025년 하반기 이후 DDR5 공급 타이트화에 따른 가격 상승 압력이 강화됐다는 분석이 반도체 업계 내에서 다수 제기됐습니다. 방향성 자체는 HBM 집중 → DDR5 공급 축소 → 가격 상승이라는 인과관계가 구조적으로 타당합니다.
이것이 역설의 핵심입니다. HBM에 더 많이 투자할수록 DDR5 공급이 줄어들고, DDR5 가격이 올라가는 구조. 공급자가 프리미엄 제품에 집중하면서 범용 시장이 비는 전형적인 패턴이 메모리 산업에서도 정확하게 작동하고 있습니다.
AI 제재가 만든 숨겨진 DDR 수요 엔진
미국의 BIS 수출관리규정(EAR)에 따라 H100, A100 등 고성능 AI 칩의 중국 수출이 단계적으로 제한되었습니다. 이 규제는 현재도 지속적으로 변동 중이므로 실제 적용 범위는 최신 BIS 공지를 기준으로 확인이 필요합니다.
규제를 받은 중국 AI 기업들이 선택한 대안은 저사양 GPU와 화웨이 Ascend 등 자국산 칩을 대규모 클러스터로 구성하는 방식입니다. 여기서 DDR 수요와 연결되는 구조가 생깁니다.
고성능 GPU 하나를 단독으로 쓸 때와 저사양 GPU 다수를 병렬로 연결해 동일한 연산 목표를 달성하려 할 때의 차이를 생각해보십시오. 병렬 구성에서는 각 노드가 별도의 메모리를 보유하고, 분산 학습·추론 과정에서 통신 버퍼와 메모리 복제가 추가됩니다. 동일한 연산 목표 달성 시 총 메모리 소비량이 단일 고성능 GPU 구성보다 증가하는 경향이 있습니다.
중국의 ‘AI 굴기’가 역설적으로 한국 메모리 기업의 DDR 수요를 끌어올리는 숨겨진 엔진이 된다는 논리입니다. HBM이 수출 규제 대상 고성능 AI 가속기에 묶여 있는 반면, 범용 DDR은 상대적으로 다른 수급 경로를 갖습니다. 삼성전자와 SK하이닉스의 중국 내 생산 라인은 미국산 장비·기술 사용에 따른 복잡한 라이선스 의무 등 규제 환경이 존재하지만, 중국 AI 인프라 확대와 함께 범용 메모리 수요 자체는 유지되는 구조입니다.
TurboQuant의 진짜 의미: 제번스의 역설
구글 TurboQuant로 돌아가 봅시다. KV 캐시 압축으로 추론 비용이 낮아지면 어떤 일이 벌어질까요? 지금까지 비용 부담 때문에 AI 도입을 주저하던 중소기업과 개인들이 문턱을 넘게 됩니다. AI 서비스를 제공하는 하이퍼스케일러 입장에서는 토큰당 비용이 낮아지면서 더 많은 사용자를 감당할 수 있게 됩니다. 결국 AI 채택의 총량이 늘어납니다.
이것이 제번스의 역설입니다. 기술 효율화로 자원 단가가 하락하면 채택이 확산되어 총수요가 오히려 증가하는 현상. 딥시크 발표 이후의 흐름이 이를 이미 한 번 실증했습니다. 저비용 AI 모델이 메모리 수요 감소로 이어지지 않고, 오히려 AI 확산을 가속화하며 수요를 키웠습니다. TurboQuant 발표 이후의 시장 흐름도 딥시크 사례와 유사한 경로를 밟았습니다. 압축 기술이 AI를 더 싸게, 더 넓게 퍼뜨리면서 메모리 총수요 감소보다 AI 채택 확대 쪽으로 귀결되고 있다는 것이 현재까지의 업계 관찰입니다.
지금도 하이퍼스케일러들은 폭증하는 AI 수요를 따라가지 못해 급급한 상황입니다. AI 효율이 높아지고 토큰당 비용이 낮아지면 지금까지 비용 부담 때문에 주저하던 기업과 개인들이 AI 제품을 도입하게 됩니다. 메모리 제조사 입장에서는 전체 시장의 파이가 커지는 셈입니다.
삼성전자 HBM4: 엔비디아 공급망에서의 현재 위치
SK하이닉스가 HBM3E 세대에서 엔비디아의 핵심 공급사로 자리를 굳혔고, 마이크론이 본격적으로 HBM 시장에 진입했다는 사실입니다. 삼성전자는 이 경쟁 구도에서 상대적으로 뒤처진 포지션에 있었으며, HBM4 세대에서 이를 만회할 수 있는지가 핵심 변수입니다.
흥미로운 역설이 여기서도 등장합니다. HBM 경쟁에서 삼성전자가 어려움을 겪는 동안, 삼성전자는 HBM 캐파를 SK하이닉스만큼 공격적으로 투입하지 않는 상황이 됩니다. 이는 삼성전자가 DDR5 캐파를 상대적으로 더 많이 보유하는 구조로 이어질 수 있습니다. HBM 경쟁에서 뒤처지는 것이 DDR5 공급 타이트화 수혜로 전환될 수 있다는, 다소 역설적인 구도입니다.
반면 SK하이닉스는 HBM에 집중된 포트폴리오를 가지고 있어 HBM 가격·수요가 강한 시기에 이익이 집중됩니다. 따라서 ‘이익이 DDR에서 더 난다’는 명제는 삼성전자 중심으로는 성립 가능성이 있지만, SK하이닉스에 일률 적용하면 적절하지 않습니다. 기업별 제품 믹스와 이익 구조를 분리해서 보는 시각이 반드시 필요합니다.
이익 기여의 핵심 논점: HBM인가, DDR인가
HBM의 GB당 ASP(평균판매단가)는 DDR5 대비 수 배 높다는 것이 업계의 공통된 추정입니다. 그러나 비트 기준 출하량에서는 DDR5가 압도적으로 많습니다. 메모리 기업의 총이익 기여도는 단순히 ASP만으로 결정되지 않으며, 출하량 × ASP × 마진율 세 축의 조합으로 결정됩니다.
구조적 논리는 다음과 같이 정리됩니다:
- HBM: 높은 ASP, 낮은 비트 출하량, 공급 집중(SK하이닉스·마이크론 주도), 삼성전자 경쟁 열세
- DDR5: 상대적으로 낮은 ASP, 압도적 비트 출하량, HBM 캐파 집중으로 인한 공급 타이트화, 가격 상승 압력 내재
메모리 사이클 관점에서 주목할 시나리오가 있습니다. HBM 캐파 집중이 지속되면서 DDR5 공급이 타이트하게 유지되는 구간에서는, DDR5의 ASP 상승이 출하량 볼륨과 결합해 예상 외로 강한 이익 기여를 만들 수 있습니다. 이것이 메모리 이익 구조의 역설의 핵심입니다.
물론 이 구조는 영구적이지 않습니다. 신규 DDR5 캐파가 추가되거나 AI 수요 둔화가 나타나면 DDR5 가격 상승은 제한됩니다. 그러나 적어도 HBM 투자 집중이 지속되는 동안, DDR5는 그 그늘에서 조용히 이익을 만들어내는 구조입니다.
결론: 투자자가 봐야 할 것은 DDR 회귀 타이밍
저는 HBM이 AI 메모리의 핵심이라는 사실 자체를 부정하지 않습니다. 엔비디아 GPU 아키텍처에서 HBM은 대역폭 병목을 해소하는 핵심 부품이고, AI 학습 워크로드에서 HBM 의존도는 구조적으로 유지됩니다.
그러나 투자 관점에서 주목해야 할 것은 이익 기여의 실질 무게중심입니다. HBM이 뉴스의 중심이라고 해서 이익의 중심도 항상 HBM이라는 가정은 틀릴 수 있습니다. 특히 다음 세 가지 구조적 조건이 맞물릴 때 DDR 이익 기여가 강하게 부상하는 시나리오를 만납니다:
- HBM 캐파 집중이 DDR5 공급 타이트화를 유발하는 구간
- 중국 저사양 GPU 병렬 클러스터 확대로 DDR 수요가 예상 외로 증가하는 흐름
- TurboQuant 등 AI 효율화 기술이 AI 채택 총량을 늘려 메모리 총수요를 확대하는 제번스의 역설
삼성전자·SK하이닉스·마이크론의 제품 믹스는 다릅니다. HBM 경쟁력이 강한 기업은 HBM 가격이 강한 시기에 유리하고, DDR 비중이 높은 기업은 DDR 공급 타이트화 구간에서 상대적으로 더 큰 수혜를 받을 수 있습니다. 기업별 제품 믹스와 이익 구조를 분리해서 보는 시각이 필요합니다.
HBM 출하량 뉴스에 집중하기 전에, DDR 회귀 시나리오의 타이밍이 어디서 만들어지고 있는지를 먼저 확인하는 것이 저에게는 더 중요한 투자 관점입니다.
본 글은 삼성전자·SK하이닉스·마이크론 등 특정 종목에 대한 투자 권유가 아닌 구조적 분석 목적의 정보 공유입니다. 개별 기업의 실적·이익 구조·주가는 시장 환경에 따라 빠르게 변할 수 있으며, 투자 판단과 그에 따른 결과의 책임은 전적으로 독자 본인에게 있습니다.
본 글은 투자 권유가 아닌 정보 공유 목적입니다. 투자 판단과 책임은 본인에게 있습니다.
