
경기도 이천 소재의 SK하이닉스 플랜트. /사진=로이터/뉴스1
2025.10.03 15:49
- 0
SK하이닉스의 거대한 M14 칩 제조공장에서 클린룸 작업복을 입은 직원들이 기계들을 점검하는 가운데, 700대 로봇이 천장 레일을 따라 움직이며 제조 공정의 각 단계 사이에서 실리콘 웨이퍼를 운반하고 있다.
이천에 위치한 SK하이닉스의 메인 캠퍼스에 있는 이 팹은 초당 200편의 장편영화에 해당하는 데이터를 전송할 수 있는 고대역폭 메모리 HBM 칩을 생산한다.
수십 년간 메모리 칩은 AMD, 퀄컴, 엔비디아, TSMC 같은 기업들이 설계하고 생산하는 로직 칩이나 프로세서 칩에 가려 덜 화려한 분야였다. 이런 로직 칩들은 컴퓨팅의 핵심 연산을 수행하고 전자기기의 동작을 제어하는 역할을 한다.
하지만 이천 반도체 팹에서 생산되는 HBM3E 같은 HBM 설계는 메모리 업계를 변화시키고 있다. SK하이닉스의 HBM 사업기획 담당 최준용 부사장은 기존 DRAM에서는 "고객들이 전력과 성능보다 비용을 우선하지만, HBM에서는 비용보다 전력과 성능이 우선시된다"고 지적한다.
[새로운 PADO 기사가 올라올 때마다 카톡으로 알려드립니다 (무료)]
HBM은 소위 대형언어모델 (LLM) 개발자들이 '메모리 월(Memory Wall)'의 영향을 완화하는 데 도움을 주고 있다. 메모리 월이란 데이터 저장과 검색의 한계가 성능 향상을 가로막는 현상이다. 또한 전 세계에서 건설 중인 수천 개의 데이터센터에서 효율성을 높이고 비용을 낮추는 역할도 한다.
AI에서 메모리의 중요성이 커지면서, 이 분야는 중국의 첨단 기술 접근을 제한하려는 워싱턴과 글로벌 경쟁사들과 맞서 국산 반도체 부문을 육성하려는 베이징 간의 치열한 경쟁의 중심에 서게 됐다.
또한 업계 최고 기업들의 역사적 순서를 바꿔놓았다. SK하이닉스의 DRAM 매출(HBM은 DRAM의 하위 분야)은 2021년 2분기 7조 5000억원(54억달러)에서 2025년 같은 분기 17조 1000억원으로 급증해, 1980년대 메모리 시장에서 경쟁을 시작한 이래 처음으로 최대 라이벌 삼성을 앞질렀다.
"SK하이닉스가 삼성을 추월할 수 있다는 생각은 불과 5년 전만 해도 상상할 수 없었다"고 터프츠대학교 부교수이자 '칩 워'의 저자 크리스 밀러는 말한다. "이는 마치 닥터페퍼가 갑자기 코카콜라보다 인기를 끌게 된 것과 같다."
크리스 밀러는 "수십 년 전부터 범용품 메모리 시장의 특성상 막대한 수익을 올리기가 매우 어렵다는 것이 분명해졌다"고 말한다. 그 때문에 엔비디아의 젠슨 황, 퀄컴의 어윈 제이콥스 같은 야심찬 기업가들이 프로세서 칩으로 관심을 기울이게 되었다며 다음과 같이 첨언했다.
"하지만 이제 메모리가 다시 돌아왔다."
인텔은 1960년대 메모리 칩 회사로 시작했지만, 일본 경쟁사 도시바와 NEC 등의 압박으로 1980년대 DRAM 부문에서 철수했다.
1990년대 삼성과 현대전자(나중에 SK그룹이 인수한 하이닉스)가 일본 기업들의 자리를 대체했다. 그 이후로 두 한국 기업과 미국의 마이크론이 이 분야를 지배해왔다.
삼성은 최근까지 고도로 범용화된 DRAM 칩 시장의 확실한 선두주자였다. DRAM은 프로세서가 작동하는 동안 전력을 공급받아 데이터를 임시 저장하는 역할을 한다. 삼성은 탁월한 규모를 바탕으로 경기순환에 따라 주기적인 침체기에도 생산 능력에 투자해왔다.
최준용 부사장은 DRAM과 저가형 낸드 칩(전력 없이도 장시간 데이터를 저장)이 주력 사업이었던 시절에도 틈새시장을 겨냥한 기술도 실험해 보았다고 설명한다. 하이닉스가 2013년부터 개발에 착수한 HBM 칩도 그 중 하나였다. 이는 머리카락 굵기의 10분의 1에 해당하는 구리선으로 연결된 DRAM 칩을 적층하는 것으로, 이는 마치 다층 도서관에서 책더미를 다른 층으로 빠르게 운반하는 엘리베이터와 같다.
그 결과 HBM 칩이 프로세서와 데이터를 주고받는데 1024개 경로를 제공할 수 있다고 최 부사장은 설명한다. 이는 기존 고급 DRAM 칩의 64개 경로와 비교된다. "물탱크를 채우는 수도꼭지의 개수나 고속도로의 차선 수를 생각해보라"고 그는 말한다. "AI의 메모리 요구사항에 관해서는 HBM에 필적할 것이 없다."
컨설팅 기업 퓨처럼그룹Futurum Group의 수석 반도체 애널리스트 레이 왕은 하이닉스가 MR-MUF(Mass Reflow-Molded Underfill, 대량 리플로우 몰드 언더필)라는 고급 접합 기술을 일찍 도입한 것이 HBM 성공의 핵심이었다고 지적한다. 이는 특수 수지 기반 절연 소재를 사용해 과열을 방지하는 기술로, 최대 16개의 DRAM 칩을 쌓을 때 매우 중요하다.
일본 공급업체 나믹스와의 독점 계약을 통해 이 소재를 확보한 하이닉스 덕분에 삼성과 마이크론은 고온과 강한 힘을 사용하는 제조 공정상 어려움을 극복해야 했다. 이 두 가지 공정은 모두 실리콘 층에 균열을 가져와 수율 저하를 초래할 수 있다.
우수한 제품 덕분에 하이닉스는 엔비디아에 HBM 칩을 공급하는 주요 업체로서의 지위를 굳힐 수 있었고, 2022년 말 오픈AI의 챗GPT 챗봇이 출시된 후 AI 칩 수요가 폭발하면서 엔비디아의 성장에 편승할 수 있었다.
번스타인 리서치에 따르면, 하이닉스의 전체 DRAM 매출에서 HBM이 차지하는 비중은 2022년 4분기 약 5%에서 2025년 1분기 40% 이상으로 증가했다.
컨설팅업체 세미애널리시스의 마이런 시에는 마이크론의 HBM3E 칩이 엔비디아의 최첨단 AI 칩에 사용되기 위한 엄격한 자격 테스트를 통과할 당시, 삼성의 동급 제품은 아직 그렇지 못하다고 지적했다.
관계자들은 삼성의 HBM3E 칩도 엔비디아 테스트 통과가 "임박" 했다고 말한다. 하지만 최근까지 범용화된 메모리 칩 시장에서 지배적이었던 삼성이 특정 요구사항에 맞춘 맞춤형 메모리 솔루션에 대한 AI 업체들의 요구를 제대로 파악하지 못했던 점을 인정한다.
"삼성은 HBM에 탑재되는 최첨단 DRAM 칩 생산의 핵심 과제에서도 어려움을 겪었다"고 시에는 말한다. "마이크론은 잘해왔지만, 삼성이 3위를 차지하기는 어려울 것입니다."
크리스 밀러는 삼성이 AI 시대보다는 "스마트폰 시대에 최적화"되어 있었다고 덧붙인다. "스마트폰이 더 이상 지배적인 제품이 아닌 시대에서 세상이 어떻게 변화할지 상상하기 위해서 전체 조직이 고군분투하고 있다고 생각한다."
이는 값비싼 실수였다. 씨티그룹의 서울 소재 반도체 애널리스트 피터 리는 HBM 칩 이익률이 약 50~60%에 달하는 반면 기존 DRAM의 이익률은 약 30%에 불과하다고 지적한다.
각 HBM 칩은 특정 AI GPU 칩에 맞게 설계되어야 하기 때문에, 생산 1년 전에 주문이 이뤄져야 하며 일반적으로 1년 단위로 계약을 진행된다.
"이는 한 달이나 심지어 하루 전에 통지하여 구매할 수 있거나 경쟁사 칩으로 쉽게 교체할 수 있는 기존 DRAM 판매와는 다르다. 이는 잠재 고객에 대한 메모리 회사의 가격 책정에 있어서 영향력을 크게 행사할 수 있게 한다"고 리는 덧붙였다.
레이 왕은 삼성이 실책으로 인해 챗GPT 출시 이후 연간 수백억 달러의 HBM 매출 기회를 놓쳤다고 추정한다. "AI의 부상이 메모리 수요에 미치는 영향을 제대로 인식했어야 했다"고 말한다.
"HBM의 잠재력을 과소평가한 것은 엄청난 전략적 실수였다."
HBM의 부상이 메모리 시장 상위권의 기존 질서를 뒤흔들었다면, 그 아래에서 또 다른 교란 요소가 나타나고 있다. 바로 중국의 메모리 챔피언 창신메모리테크놀로지(CXMT)다.
선전 소재 컨설팅업체 첸잔에 따르면, 안휘성 동부 허페이에 본사를 둔 CXMT는 글로벌 DRAM 시장 점유율을 2020년 거의 0%에서 작년 5%로 늘렸다.
기존 DRAM에서의 CXMT의 진전이 최첨단 HBM 칩의 대량생산에서 하이닉스, 삼성, 마이크론을 따라잡고 성공할 수 있을지는 여전히 불확실하다. 이런 발전은 잠재적으로 핵심 부품에 대한 중국AI 개발업체와 칩메이커들의 외국 기업 의존도를 줄일 수 있을 것이다.
파이낸셜타임스는 지난달 CXMT가 HBM3E보다 한 세대 뒤진 HBM3 제품 샘플을 테스트하고 있으며 내년 출시를 목표로 하고 있다고 보도했다. 하지만 애널리스트들과 업계 관계자들은 미국 수출통제 대상인 핵심 장비와 소재에 대한 접근 없이는CXMT가 가까운 미래에 HBM 격차를 줄이는 것에는 여전히 회의적이다.
퓨처럼그룹의 레이 왕은 "CXMT는 최근 규제 이전에 필요한 장비를 상당부분 비축해 두었다"고 말한다. "하지만 극자외선 장비(EUV)에는 접근할 수 없으며, 선도 메모리 업체들과 비슷한 규모로 첨단 HBM 제품을 양산할 충분한 장비를 보유하고 있을지는 분명치 않다." 그는 CXMT가 HBM 개발에서 "3~4년 뒤처져 있다"고 추정한다.
8월말 미국 정부는 하이닉스와 삼성이 라이선스 없이 중국 내 반도체 제조시설에 장비를 보낼 수 있도록 허용했던 면제 조치를 철회했다. 레이 왕은 이 결정이 "중국의 메모리 기술 접근을 더욱 제한하려는 미국 정부의 의도를 강조한다"고 말한다.
중국의 AI야망에서 HBM의 중요성을 보여주는 신호로, 중국의 테크 그룹과 칩메이커들은 작년12월 미국 수출통제로 공급이 제한되기 전에 한국산 HBM을 비축하기 위해 서둘렀다.
이런 통제에도 불구하고 많은 전문가들은 미국 정책입안자들이 AI 성능에서 메모리의 중심성을 인식하는 데 늦었다고 주장한다. 최첨단 GPU 칩에 제한이 가해진 지 오랜 시간 중국 기업들이 최첨단 HBM 메모리 기술에 접근할 수 있게 방치했다는 것이다.
HBM2E 표준 이상에 해당하는 개별 HBM 칩은 더 이상 중국으로 수출할 수 없지만, 특정 성능 기준을 초과하지 않는 AI 칩에 미리 패키징된 경우라면 더 높은 사양의 칩도 수출할 수 있었다.
세미애널리시스의 시에는 트럼프 대통령이 "구형"이라는 이유로 중국 판매를 허용한 엔비디아의 H20 칩을 예로 든다.
H20의 처리 성능은 분명히 H100보다 떨어지지만, 내장된 6개의 삼성 HBM3 칩은 실제로 더 나은 메모리 성능을 제공한다. 초당 4테라바이트의 메모리 대역폭으로, H100의 3.4TBps와 화웨이의 주력 어센드 910c의 3.2TBps를 능가한다.
시에는 AI 모델 훈련에는 GPU 연산 성능이 더 중요한 반면, 추론(inference)라고도 알려진 쿼리 응답에는 메모리가 더 중요하다고 알려져 있다고 지적한다.
"어떤 면에서 H20은 메모리 용량과 대역폭이 더 크기 때문에 H100보다 더 나은 칩이다"라고 시에는 말한다. "사람들은 여전히 컴퓨팅 연산 성능에 지나치게 집중하지만, 그것은 성능의 한 측면일 뿐이다."
애널리스트들은 HBM에서 SK하이닉스의 현재 지배력이 다른 분야에서 압박을 받을 수 있다고 말한다.
이 한국 기업은 올해 엔비디아의 차세대 루빈 플랫폼에 사용될 차세대 HBM4 칩의 대량생산을 시작할 계획이며, 이는 LLM 개발자들에게 성능면에서 상당한 도약을 제공할 것이다.
HBM3E와 그 이전 버전들이 상대적으로 단순한 DRAM 칩을 HBM 스택의 작동을 조절하는 기본 칩인 "로직 다이"로 사용한 반면, 새로운 설계에서는 TSMC가 생산하는 고급 프로세서 칩이 그 역할을 수행할 것이다.
삼성의 HBM4도 자사 파운드리 부문에서 생산하는 고급 프로세서 칩을 사용할 것이다. 삼성의 이러한 전략에 정통한 한 관계자는 파이낸셜타임스에 프로세서와 메모리 칩 모두에서 최첨단 역량을 갖추고 있으며 여러 칩을 통합하는 고급 패키징 기술도 보유한 유일한 회사로서 삼성이 고객들에게 "원스톱 서비스"를 제공할 수 있다고 말했다.
이 관계자는 또한 잠재적으로 더 큰 대역폭, 전력, 신호 무결점을 제공할 수 있는 적층 DRAM 칩의 최신 연결 방법인 "하이브리드 본딩"이라는 기술에 대해 "주요 고객들과 적극적으로 논의"하고 있다고 덧붙였다.
퓨처럼그룹의 레이 왕은 누구든 하이브리드 본딩을 먼저 도입하는 쪽이 "차세대HBM의 주도권을 차지할 것"이라고 주장한다. 그는 중국 기업들도 관련 연구에 막대한 투자를 하고 있으며 하이브리드 본딩 관련 특허 출원을 가속화하고 있다고 말한다.
씨티그룹의 리는 성능 향상 외에도 프로세서 칩을 로직 다이로 사용하면 HBM 제품을 특정 작업에 맞게 맞춤화할 수 있게 되어 고객이 공급업체 전환하기가 더욱 어려워질 것이라고 지적한다.
이는 HBM4가 삼성의 재기에 길을 열어줄 것인지에 대한 의문을 제기한다. 더 큰 회사인 삼성은 HBM4를 위해 HBM3E 설계에서 범한 실수를 수정할 시간을 충분히 가졌기 때문에 이는 엔비디아의 공급업체로 자격을 갖출 가능성이 높다는 것을 의미한다고 리는 말한다.
하지만 왕은 하이닉스가 엔비디아와의 최근 긴밀한 협력과 업계 선두주자 TSMC와의 오랜 관계로부터 계속 혜택을 받을 것이라고 지적한다. 수요일 하이닉스는ASML에서 확보한 High NA 극자외선 리소그래피 (EUV) 장비를 공개하며 HBM 경쟁사 대비 추가적인 우위를 확보했다.
반면 세미애널리시스의 시에는 삼성의 파운드리와 메모리 사업이 아직 품질과 생산 문제 어려움을 겪고 있다고 지적한다. "모든 개별 부품들이 열등하다면 원스톱 서비스를 제공하는 것은 큰 의미가 없다."
삼성은 성명을 통해 "HBM 사업에 지속적으로 투자하고 있으며 차세대 메모리 기술 개발에 집중하고 있다"고 밝혔다.
한편 미국 수출통제를 우회할 수 없는 중국 AI 칩메이커들은 성능 향상 수단으로서HBM에 대한 의존도를 줄이는 방법을 모색하고 있다.
화웨이는 지난달 다양한 메모리 칩에 각기 다른 메모리 작업을 할당하여 HBM 의존도를 낮추도록 설계된 새로운 AI 소프트웨어를 출시했다. 지난주에는 중국 테크 대기업이 대안 솔루션으로 3개의 새로운 "AI SSD(솔리드 스테이트 드라이브)"도 공개했다.
터프츠대학교의 크리스 밀러는 HBM이 여전히 상대적으로 비싸고 에너지 집약적이며, 메모리 용량이 AI 성능에 매우 중요하기 때문에 많은 테크 기업들이 대안을 개발하고 있다고 말한다.
여기에는 HBM과 다른 배선 시스템을 활용하는 적층형 DRAM 제품을 개발하기 위해 인텔과 협력하고 있는 일본 테크 그룹 소프트뱅크도 포함된다.
대부분의 애널리스트들은 HBM이 적어도 향후 5년간은 메모리 솔루션을 지배할 것이라는 데 동의한다. 하지만 맞춤형 칩 확대는 파운드리 기업, 칩 설계업체, 고객사 자신이 설계와 제조 과정에 더 깊이 관여하게 될 가능성이 높다는 것을 의미한다.
이는 공급망에서 더 많은 가치를 포착하려는 메모리 회사들의 야심을 위협할 수 있다고 시에는 경고한다. "HBM 스택의 더 많은 부분이 TSMC와 팹리스 설계 회사들에 아웃소싱될수록, 메모리 회사들이 직면하는 위험은 더 커진다. 유망한 업체들이 결국 가장 힘든 일을 떠안게 될 것이다"라고 시에는 말한다.
"만약 그런 일이 일어난다면, 메모리 업체들에게 현재의 이 호황은 달콤씁쓸한 기억이 될 수 있다."
역자 임준서는 연세대학교 시스템반도체공학과 교수로 AI반도체혁신연구소장을 겸임하고 있고, 컴퓨팅 프로세서와 진화 연산에 대한 연구를 하였고 KAIST에서 박사 학위를 받았다. 현재는 AI 반도체 기술 지정학과 생태계 혁신에 초점을 맞춰 연구를 진행하고 있다. 저서로 '칩퓨처'(21세기북스, 2025)가 있다.
AI 혁명의 핵심이 GPU나 CPU가 아닌 메모리 칩이라는 파이낸셜타임스(FT)의 분석이 주목됩니다. 특히 HBM(고대역폭메모리) 시장에서 SK 하이닉스가 삼성을 제치고 1위로 올라선 것은 단순한 순위 변동을 넘어선 의미를 갖습니다. HBM 시장의 급변은 시장 지배자도 안주하면 순식간에 뒤처질 수 있음을 보여줍니다. 막연한 위기감이 아니라 '죽을지도 모른다'는 절박함에서 진정한 혁신이 나온다는 소중한 교훈입니다.
HBM의 이익률은 50~60%로 일반 DRAM의 30%보다 훨씬 높고, 1년 전 주문, 1년 계약이라는 특성상 메모리 업체들의 가격 협상력도 크게 강화됐습니다. 하지만 현재의 호황이 영원하지는 않을 것입니다. HBM4에서는 TSMC가 생산하는 고성능 프로세서 칩이 로직 다이 역할을 하게 되면서 파운드리 업체들의 영향력이 커질 전망입니다. 게다가 EUV 장비 접근 제한으로 3~4년 뒤처져 있긴 하지만 중국의 추격도 만만치 않습니다.
기술적 병목이 생기는 시대야말로 다양한 아키텍처적 진화가 꽃피는 전성기입니다. HBM 대안을 모색하는 화웨이의 소프트웨어 솔루션이나 소프트뱅크-인텔의 새로운 메모리 아키텍처가 그 증거입니다. PIM(Processing-In-Memory) 기술이 메모리 기업들에게 기회일지 위협일지는 아직 알 수 없습니다. 그렇다면 현재의 호황은 메모리 기업들에게 달콤씁쓸한 기억이 될지도 모릅니다.