Skip to main content

 

<인터뷰 원문>

 

진행 : 디일렉 한주엽 대표

출연 : 씨티그룹 이세철 전무

 

오늘 라이브 시간 또 찾아왔습니다. 저희가 월···목 매일 오후 3~4시에 이쪽 분야 라이브 방송을 하는 것으로 어제(2024311) 시작했고요. 오늘은 방송으로 모시기 어려운 분인데 오늘 모셨습니다. 씨티그룹의 이세철 전무님을 모셨습니다. 전무님 안녕하십니까?

“안녕하세요.”

이 전무님은 반도체 애널리스트 오래 하셨죠?

“12년째 하고 있죠.”

그전에는 국내 증권사에 계시다가?

“반도체 애널리스트로 12년. 국내 6년, 해외 6년. 그리고 삼성전자에는 한 12년 있었죠”

애널리스트 하시기 전에 삼성반도체?

“애널리스트 하기 전에 삼성전자에서 반도체 공정 엔지니어로 일했었고. 또 반도체 기획팀에도 있었고요. 마케팅에도 있었습니다.”

빠삭하게 아시고, 상도 많이 받으신 분인데. 오늘 재밌는 얘기해 주시러 나오셨습니다. 말씀해 주실 내용이, 메모리가 특히 D램 같은 경우는 맞춤형 제품으로 계속 가고 있다.

“커스텀 메모리라고 요즘 많이들 하시죠.”

가고 있다고 했는데. HBM도 그렇고 다양한 것들이 생기고 있는데. 어떤 배경에서 그렇게 될 거라고 보십니까?

“사실 저도 이게 24년 동안 반도체를 그동안 봐왔는데. 반도체는 항상 커머디티였어요. 그리고 한때는 또 이거는 이번에는 다를 거라고 모바일 시대 때 그런 얘기가 있었고. 근데 계속 커머디티였어요. 그게 이유가 어떻게 보면 JEDEC(국제반도체표준협의기구) 스탠다드라는 구조에 있고. 제가 이걸로 비유하겠는데. CPU가 있고, D램이 있고, 여기에 컨트롤러가 있어서 어떻게 보면 바로바로 이렇게 되지 못하고. 이렇게 데이터가 순차적으로 왔다 갔다 하거든요. 그래서 D램은 D램끼리, CPU는 CPU끼리 각자 스펙을 가지고 중간에 어떤 매개체가 있어서 그걸 결정하는 그런 구조였거든요. 그러다 보니까 D램은 스펙이 맞으면 동일하게 들어가는데. 최근에 벌어지고 있는 게 AI 디맨드가 수요가 다릅니다. 그러니까 기존의 데이터는 약간 시리얼하게 순차적으로 움직였다면, AI 데이터는 어떻게 보면 데이터가 병렬(parallel)로 가잖아요. 데이터가 계산 자체가 행렬 연산이 많습니다. 그러다 보니까 프로세스와 D램이 과거에 떨어져 있었는데 이게 서로 옆에 붙어가는, 붙어서 밑에 인터포저나 아니면 이런 것들을 연결시켜서 대역폭(bandwidth)을 그러니까 도로를 많이 연결해서 한 번에 데이터 왔다 갔다 하게 해야 되는 이런 니즈가 생기게 됩니다. 그러다 보니까 HBM이 원래는 초기 출발은 커머디티였는데. 어떻게 보면 엔비디아의 니즈에 맞춰줘야 돼요. 그리고 AMD도 AMD 자체 MI300 같은 경우는 또 프로세서인데. 거기에 또 HBM이 또 맞춰줘야 돼요. 그러니까 이게 커머디티가 아니다 보니까 이런 일이 자꾸 벌어집니다. 그리고 여기에 I/O가 1024개씩 붙거든요. 이러다 보니까 밑에 있는 스펙도 달라지고요. 그다음에 요구하는 속도도 달라지고요. 이런 일이 벌어지다 보니까 요즘 HBM 커스텀화된다는 얘기들이 많아지고 있습니다.”

옛날에 그냥 만들어 놓은 거 그냥 사가면 됐는데. 이제는 고객 요구에 맞춰서 뭔가 많이 조정을 해야 한다는 얘기인 거군요.

“그리고 로직하고 메모리가 서로 직접 연결이 됩니다. 직접 연결되고 직접 커뮤니케이션을 하다 보니까. 메모리 회사가 로직 제품의 이해도가 높아져야 되고요. 로직 회사는 메모리 업체의 이해도가 높아져야 이 제품이 완성이 되는 거죠.”

말씀하신 구조는 소위 얘기하는 오픈 AI의 인프라, GPT 운영하는 인프라에 들어가는 그 엔비디아 GPU 옆에 HBM 달려 있는 그 구조를 말씀하신 겁니다?

“그렇죠. 그러니까 예를 들면 엔비디아의 AI GPU 칩이 있으면 그 칩 옆에 D램이 바로 옆에 붙는 거죠. 그리고 밑에 인터포저가 있어서 데이터가 한 1024개 I/O로 데이터가 왔다 갔다 하는 겁니다. 그러니까 컨셉은 이거죠. 과거에는 그냥 한 2~3차선에 데이터가 왔다 갔다 했는데. 이제는 1000차선으로 데이터가, 차들이 한 번에 왔다 갔다 할 수 있는 이런 구조가 바뀌다 보니 요즘 약간 맞춤형 커스텀화된다는 얘기들이 자꾸 나오고 있습니다.”

-HBM 말고도, HBM은 어쨌든 연산하는 인프라 단에 들어가는, 현재는 그 수요가 많은데. 그거 말고도 엣지 단에서 요즘 소위 얘기하는 온디바이스AI에 관련해서도 역시 마찬가지 흐름이 있습니까?

“맞습니다. 근데 아직은 올해가 사실 원년이잖아요. 온디바이스AI 그러다 보니까 아직 컴퓨팅 구조가 AI 구조로 되어 있지 않아요. 스마트폰은, 스마트폰은 아직도 이 구조가 기존에 있는 컴퓨터 구조. 그러니까 우리가 말하는 폰 노이만 구조라고 해서 CPU와 D램이 떨어져 있고. 모바일 D램이 있고. 이런 형태로 구조가 되어 있거든요. 다만 지금은 온디바이스AI 폰이라는 수요 때문에 D램 용량을 늘리죠. 모바일 D램 용량을 올려서 모델을 살짝 살짝 돌리는 작업은 하고 있습니다. 근데 완성도가 떨어지는 게 AI 서버처럼 하려면 엄청 돈이 많이 들어요. 그래서 아마 여기에 제가 보기에는 서버 단에서 쓰는 HBM 같은 그런 메모리가 여기에 아마 동작이 될 것 같아요. 시장에서 보는 제품이 LLW 이런 것들. LLW(Low Latency Wide IO·저지연성와이드IO)라고 해서 한 I/O가 한 500개 됩니다.”

기존 HBM보다 한 반 정도

“그리고 아마 HBM보다 싸게 구할 수 있고. 이런 것들이 후보군으로 물망에 들고 있죠.”

-LLW라고 하는 것은 표준이 나온 겁니까? 아니면 그런 규격에 대한 논의가 있는 겁니까?

“지금은 아마 JEDEC으로 많이들 얘기를 하는데. 문제는 스마트폰 회사마다 니즈가 틀려요. 그러니까 예를 들면 애플은 애플대로 내가 원하는 걸 하는데. 그 스펙 맞춘 걸 쓰면 다른 회사랑 똑같잖아요. 그리고 애플 입장에서는 여러 가지 다른 회사와 다르게 낸드 장사도 해야 되고. 여러 가지 그런 게 있다 보니까 D램을 극강으로 써야 됩니다. 그러다 보니까 I/O 수에 대한 것들이 자기 AP와 또 다르게 융합이 되거든요.”

그렇다 보니까 그것도 커머디티가 아니고.

“커스텀화가 되는 거죠.”

-LLW 같은그러니까 I/O를 많이 늘린 그런 것은 예를 들어 보시기에는 한 어느 정도 뒤에 핸드폰에 들어갈 것 같으세요?

“아마 올해는 아니고. 빨라야 내년 하반기. 아마 시간이 걸릴 겁니다. 왜냐하면 이게 아무리 또 하더라도. 아키텍처를 바꿔야 되고 또 비용도 이게 또 꽤 들 거거든요. AI폰 그렇게 하려면…”

근데 핸드폰에도 그렇게 되기 시작하면 기본 구조는 HBM하고 완전 똑같지는 않더라도 비슷한

“일종의 미니 HBM처럼 비슷한 유사 성능을 내면서 가격은 낮춘 이런 것들이, 왜냐하면 온디바이스AI는 아무래도 B2C 마켓이니까. 비싸게 팔 수는 없잖아요. 그래서 그런 것들을 구현하지 않을까. 이렇게 보여집니다. 이게 아마 PC도 마찬가지일 겁니다. 쓰고 계시는 PC도 나중에는 여기에 AI 기능이 들어갈 거고요.”

결국 내 컨슈머 디바이스에도 AI 기능이 들어가고 이러면 거기도 메모리의 대역 폭이 엄청 넓어져야 되니까.

“마이크로소프트 365 코파일럿이 아마 OS에 내장되기 시작하고. 이런 식으로 되면서 아마 이 PC도 AI 최적화된 PC들이 나올 거고. 그게 훨씬 더 성능이 좋을 테니까요.”

커스텀 메모리 그거 말고 HBM하고 LLW 대략 말씀해주셨고. HBM은 이미 온 시장이고, LLW는 앞으로 올 시장인데. 그거 말고도 커스텀화된 메모리들 있습니까?

“커스텀까지는 아니지만 LRDIMM이라는 게 또 있습니다. 그거는 성능을 2배 늘린 제품인데. DDR5 속도의 2배. DDR6 같은 건데. 사실 DDR6가 2030년에 나와야 되는데. 아직 멀었죠. 근데 우리가 급해요. 왜냐하면 속도를 빨리 가고. 이 데이터를 늘려야 되니까. 이 데이터가 DDR5는 이런 식으로 움직이거든요. 근데 그거는 MUX 기술 써서 데이터가 한 번에 이렇게 합니다. 그래서 속도가 2배로 왔다 갔다 하는, 약간의 인터페이스를 바꿔서 이런 게 아마 하반기에 나올 겁니다. MRDIMM라는 게 나오는데요. 그래서 이 MRDIMM 같은 경우가 아마 이런 추론용 쪽으로도 쓸 수 있고. 아니면 하이퍼포먼스 HBC 이런 데 사용될 가능성이 많이 높죠.”

-HBM하고는 약간 시장이 다릅니까?

“조금 다릅니다. HBM은 주로 트레이닝이고. 이거는 아마 하이퍼포먼스 컴퓨팅 쪽.”

-HBM하고 MRDIMM은 인프라 쪽이고. LLW도 있고, CXL도 있고 여러가지

“되게 많죠. 저도 이번에 연초에 자료를 냈는데. 제가 이렇게 단시일 내에 이렇게 많은 다양한 메모리들이 한꺼번에 쏟아져 간 게 거의 처음인 것 같아요. 근데 이 모든 게 다 AI랑 연관이 돼 있더라고요.”

-AI랑 연관이 돼 있고. 커스텀이 관통하는 키워드인데. 그렇게 되면 어떻게 보십니까? 그 메모리를 생산하는 제조업체. 혹은 생산을 위해서 장비를 대는 회사들. 후방 업계들의 경영·환경·전략 이런 것도 많이 바뀌어야 되는 것 아닙니까?

“그렇죠. 이미 주식시장에서 움직임이 있겠지만 후공정이 많이 각광받을 수밖에 없죠. 왜냐하면 메모리가 어떻게 보면 사실 HBM도 위에 있는 코어는 이렇게 만약에 쌓았다고 치면, 밑에는 로직 다이가 들어가고. 여기 HBM 로직하고 같이 붙는데. 이 윗단은 거의 비슷한 메모리를 쓸 거고요. 밑에 로직이 아마 커스텀화 시키고. 그다음에 I/O나 여러 인터페이스가 달라질 거예요. 그래서 저희가 보는 건 이걸 약간 세미 커스텀이라고 저희는 명명하는데. 왜냐하면 반 정도 맞춤, 반 맞춤 제품이겠죠. 근데 그러기 위해서는 이게 밑에 단에서 즉 후공정 단에서 많이 연결되거나. 이런 것들에 대한 것들이 많아질 것 같습니다. 그래서 후공정이 많이 복잡해져요. 그리고 이종간에 칩을 자꾸 붙이다 보니까. 이거에 대한 패키징 기술들이 되게 어려워지고. 이거에 대한 병목현상(bottleneck)이 여기서 많이 나오겠죠.”

근데 전무님께서 보시기에는 어떻습니까? 그 정도 얘기하신 패키징. 거의 전공정에 가까운전공정에 가까운? 하이브리드 본딩 이렇게까지 넘어가면 CMP도 쓰고 해야 하니까. 거의 전공정에 가까워지는데. 말씀하신 그 정도를 할 수 있는 국내 회사들이 있습니까? OSAT?

“근데 OSAT는 사실 약하죠. 이게 글로벌적인 회사들이 우리나라에, 그동안에 우리나라가 물론 전공정도 많이 따라왔지만, 후공정이 사실은 그동안에 육성을 많이 안 했죠. 그리고 아마 메모리 회사들도 후공정에 대해서 이렇게 그렇게 중요시 안 했죠. 제가 20년 전에 삼성 입사할 때 저는 기흥, 화성에서 근무했는데. 후공정이 온양에 사업장… 지금도 있나 모르겠는데.”

온양에 있어요.

“입사하면 이렇게 얘기하기는 그렇지만 기흥, 화성이 거의 마지노선이거든요.”

온양까지 가면 안 된다.

“그게 있더라고요. 저도 그 당시에 기흥 사업장에서 일했는데. 화성 사업장 가는 것도 친구들이 되게 두려워했어요. 멀어진다고 사실 거리상으로 5~10분밖에 안 걸리는데도. 심리적인 부분이 있더라고요. 그래서 아무튼 후공정이 아무래도 회사들이 집중하지 않았던 거는 그동안은 사실이었던 것 같아요.”

국내에 있는 후공정 회사들의 범핑하는 회사들이라든지. 아니면 레거시 제품들 패키징 하는 회사들 위주로 있는데. 그런 회사들은 이런 거에 접근하기는 쉽지 않은 걸로 봐야 합니까?

“그렇지만 제가 보기에는 전공정 업체들이 후공정 쪽으로 많이 진출할 수 있을 것 같아요. OSAT는 그럴 수 있지만, 한국에서 그나마 저희가 전공정을 잘하고 있는데. 이 전공정 회사들이 후공정 가는 건 쉽거든요. 어렵지 않거든요. 제가 쉽다는 얘기하면 안 되고 어렵지 않다. 왜냐하면 거기서 계측하던 회사들이 전공정 계측하는 회사들이 후공정 계측으로 가면 쉽고요.

전공정에서 아까 말씀하신 CMP 에칭하던 회사가, 이 후공정에서도 CMP 에칭이 있거든요. 이런 거 하기에는 용이하죠. 아무리 우리가 어드밴스드 패키징 기술이 어려워진다 해도. 전공정만큼 나노스케일은 아니거든요. 그런 부분에서는 제가 보기에는 한국 회사들이 기회가 생길 것 같고.”

한국 회사라는 거는 큰 대기업들을 얘기하는 겁니다?

“아니요. 소부장회사들. 그리고 삼성이나 하이닉스 같은 경우는, 주로 삼성 같은 경우 요즘 어드밴스드 패키징 팀도 만들어지고. 그래서 많이 하고 있는 거 같고요. 하이닉스는 HBM 관련해서 집중하고 계신거죠.”

얼마 전에 대만에서 뉴스 나온 거 보니까 삼성·하이닉스·마이크론 이런 쪽에서 이런 DDR5 혹은 HBM 이런 쪽으로 굉장히 급격하게 전환하다 보니까. 그전에 DDR4라든지. 지금은 레거시 제품들이 된 게 오히려 이 물량이 없어서 가격을 엄청 높였다. 이런 얘기들도 있던데. 사실 올해 하이닉스 같은 경우는 컨퍼런스콜에서 본인들이 직접 공언했어요. 올해 투자는 대부분 HBM 관련된 TSV라든지 이런 쪽에 하겠다고. 실제 움직임도 있는데 어떻게 보세요? D램에서 차지하는 전체 시장에서 HBM 매출 비중이 어느 정도까지 올라왔습니까?

“아마 하이닉스 기준으로 한 15% 와 있는 것 같고요. 그리고 아마 한 연말쯤 되면 한 20~25%까지 가지 않을까, 그렇게 보여집니다. 생각보다 무시할 수 없는 비중까지 왔습니다.”

-엄청난 비중인데요. 하이닉스를 예로 든 거는 거기가…

“제일 비중이 높다 보니까. 아마 인더스트리는 한 10%대가 안 될 겁니다.”

그게 앞으로 향후 몇 년간 한 어느 정도까지 비중이 올라갈 것 같으세요?

“저희가 볼 때는 이게 HBM 포함해서 AI 메모리까지 하면 제가 말한 아까 LRDIMM, MRDIMM이나 기타 등등… 이런 걸 다 합치면 저는 2026~2027년까지 전체 수량 중에 40% 중반까지 갈 것 같아요. AI 관련된 걸로. 왜냐하면 모든 산업이 AI로 많이 바뀌고 있고요. 거기에 들어가는 메모리들이 약간 커스텀화 되는 것들이 많아지고 있고. 거기 그쪽만 수요가 듭니다. 그리고 제가 과거에도 보면 모바일 D램이 과거에 한 2013년 이때 피크 칠 때가 40% 중반까지 갔거든요. 그리고 서버가 한 2017~2018년에 40% 정도까지 갔고요. 그리고 2000년도에 PC가 한 50%까지 갖고 있습니다. 하나의 응용처가 전체 수요의 한 40~50%를 차지하는 그런 패턴을 갖고 있더라고요.”

시장이 완전히 바뀐 겁니다.

“전방 수요가 완전히 바뀌는 거죠. 그러다 보니까 저희가 HBM 얘기를 많이 하는 거죠.”

시장에서 한 40%까지는 갈 수 있을 것 같다.

“그렇죠. 그건 제가 보기에 HBM 다 합쳐서, 그리고 아마 HBM 보면 한 20% 중반에서 30%까지 수량으로. 2027년 되면 금액으로는 거의 60~70%까지 갈 것 같아요.”

그럼 그쪽으로 거의 가는 거군요. 그러한 것은 미국 증시의 시총을 봐도. 사실 마이크로소프트의 시총 올라가는 거, 엔비디아 올라가는 거 보면. 또 애플은 최근에 많이 떨어지고 있고. 그런 거 보면 앞으로 이 반도체 특히 메모리의 수요를 견인하는 것은 AI인 것은 우리가 부인할 수 없다고 보여지는데. 이렇게 커스텀화되면은 하여튼 복잡할 것 같긴 하네요. 이 고객은 이렇게 해달라고 그러고, 저 고객은 이렇게 해달라고 그러니까. 굉장히 유연하게 이거를 잘 맞춰갖고 사업을 끌어가는 쪽이 잘 될 것 같다.

“이게 아마 삼성전자나 하이닉스 경영진분께서 머리 아프실 거예요. 왜냐하면 옛날에는 그냥 양으로 생산해서 사면 사고, 말면 말어 이랬고. 그러다가 공급 과잉 되면 또 그냥 시장에다 풀거나, 채널에 풀거나 그렇게 해서 떨이도 하고. 그래서 가격도 더 폭락하고. 이게 또 한때는 또 경쟁사 압박도 됐고 이랬는데. 게임의 룰이 바뀐 거죠. 아무리 그렇게 해도 커스텀 메모리는 그게 안 되거든요. 그렇게 늘렸다가 고객이 안 사면 본인이 망하는 거예요.”

딴 데 팔 수가 없으니까요.

“이게 딜레마예요. 약간 파운드리 같습니다. 그래서 제가 보면 HBM은 오더를 한 1년 전에 줘야 해요. 서로 디자인을 해야 하고요. 엔비디아가 이런 식으로 설계하면, 예를 들면 하이닉스가 HBM 거기에 맞게 설계를 해줘야 해요. 그걸 서로 논의를 안 하고 따로따로 만들면 이게 안 붙는 거죠. 옛날에는 따로따로 만들었거든요. 이거 따로 이거 따로, 따로따로 만들어서 그냥 각자도생하고 붙인 거예요. 왜냐면 폰 노이만 구조가 그래요. 근데 AI 구조에는 얘네들이 그냥 붙어야 돼요. 그리고 미래에는 아마 이게 만약에 AI메모리칩이라면 메모리가 나중에는 위로 붙겠죠. 그리고 여기에 TSV로 해서 구멍을 뚫어버리는 이걸 저희가 패키징이 2.5D에서 3D라고 하잖아요. 그러려면 긴밀히 협의해야 됩니다. 이게 되게 재미있는 현상이 나오겠죠.”

이미 하이닉스는 보도 나오고. 사실인지 모르겠지만 올해 거 이미 다 솔드아웃되었다.

“이미 된 것 같습니다. 전체 예약된 거 같고요. 이게 파운드리거든요. TSMC가 그러잖아요. 올해 이미 다 정해졌고. 매출, 이익 다 정해졌다고 얘기하거든요. TSMC 같은 경우는 연초에 다 정해요. 올해 매출과 영업이익이 대충 정해집니다. 거의 안 바뀌어요.”

그러면 이제까지 우리가 커머디티화된 메모리를 확 팔아서 가격이 떨어져서 창고에 쌓아놓고 싸게 풀고 하는 이 사이클이라고 해야 합니까? 그런 것도 이 커스텀화가 이루어지면 옅어질 수도 있겠다는 생각이 드네요.

“그럴 수 있을 것 같아요. 다만 여전히 시장 참여자가 아직은 커머디티의 마인드가 아직 있어서. 그리고 아직도 커머디티 시장이 있어요. 아직도 커요. 그래서 제가 연초에 자료를 낸 게, 세미커스텀화 된다. 반맞춤화 된다. 이렇게 하는 이유가 시간이 걸릴 거예요. 그래서 올해 아마 커머디티 D램 가격이 아까도 대표님 말씀한 것처럼 폭등을 계속하고 있는데. 이게 아마 올해 내내 그럴 것 같아요. 왜냐하면 제가 아까 질문하셨던 거에 조금 더 부연 답을 드리면, 3개 업체가 HBM 몰빵이에요. 왜냐하면 하이닉스 HBM 아까 예약된 거 투자 엄청나게 했고. 1b 공정 이런 데다가 HBM3e를 다 쏟아 넣어야 하거든요.”

그거 하려고 ASML한테 노광기도 계속 더 추가로

“그게 왜냐하면 전공정하고 연관이 들어가거든요. 1b 공정을 또 쓰려면 EUV를 또 도입을 해야 하거든요. 그리고 백엔드는 백엔드로 해야하고요.”

모든 게 거기 다 맞춰져 있군요.

“거기에 맞추다 보니까 1b 공정에 커머디티 D램을 생산하기가 어렵죠. 이거는 비단 하이스뿐만 아니라 삼성, 마이크론이 똑같죠. 삼성도 HBM 어떻게든 해야 되니까, 하고 있고. 마이크로도 최근에 공지해서 자기는 HBM 하겠다고 그러고 있고. 그럼 하반기에 투자된 대부분이 다 HBM. 물론 이거를 시장에서 우려해요. HBM 공급 과잉이 되지 않겠냐. 그 우려를 하는데. 제가 보기에는 수요가 너무 세요. 수요가 올해 한 3배 올라가거든요. 작년 대비 3배 올라갑니다. 아마존도 원하고. 이런 하이퍼 스킬러들도 AI를 하려고 하니까. 그러다 보니까 거기는 그쪽으로 공급이 잠기고. 커머디티 D램은 생산량이 안 느는 거죠. 오히려 줄 수도 있고요. 그래서 제가 보기에는 1분기 때 삼성전자, 하이닉스의 1분기 가이던스가 비트그로스(bit Growth)가 마이너스 15% 정도. 그게 제가 보기에는 커머디티를 굳이 많이 팔 필요가 없다. 어차피 내년 하반기 되면 부족하다는 생각들이 있는 것 같아요.”

가격이 그렇게 오르면 실적에는 굉장히 도움이 되겠는데요.

“도움 많이 되겠죠.”

그럼 올해 메모리가 하반기에는 엄청나게 뛰어오를 수도 있겠다.

“그래서 하반기가 워낙 좋다는 거를 구매자들도 아는 거죠. 그러면 보통 어떤 일이 벌어지냐면 Buy ahead가 들어갑니다. 미리 사는 거죠. 그래서 1분기 가격이 많이 올라갑니다. 1분기 가격이 저희가 한 20% 올라갈 걸로 보고 있거든요. 사실 1분기가 비수기인데. 그리고 모바일 수요가 좋지도 않고. PC도 별로고, 1분기 비수기잖아요. 원래 1분기 계절적 비수기인데도 불구하고 가격이 올라요. 왜냐하면 내년 하반기에 살 사람은 지금 사는 거예요.”

나중에 되면 가격 많이 오를 테니까 미리 사놓자.

“그러다 보니까 아마 1분기가 더 튀는 현상이 있는 거죠.”

메모리 소자 업체 입장에서는 작년까지 되게 힘들었지만, 되게 좋은 시기가 찾아온 거군요.

“그러니까 커스텀 시장도 생기고 있고. 커머디티 시장은 어떻게 보면 공급 과잉에서 공급 부족 현상이 심하게 벌어지있는 상황이죠. 그리고 본인들 입장에서도 커머디티 생산하는 것보다는 커스텀화된 HBM을 생산하는 게 아직까지는 훨씬 더 유리하거든요. 마진도 훨씬 높고.”

수요도 확실하고. 전무님 회사에서 보시기에는 어떻게 전망하십니까? HBM 시장이 지금은 하이닉스가 제일 잘하고 있는 것으로 보는데. 앞으로 이 지형에 변화가 많이 생길까요?

“일단 올해는 시장에서 우려를 하고 있죠. 왜냐하면 마이크론, 삼성전자가 최근에 발표도 했고요. 그래서 아마 하이닉스가 작년만큼의 누리는 갭은 줄어들 것 같아요. 근데 워낙 하이닉스의 MR-MUF 기술이 독보적이고. 그리고 또 1b 공정으로도 들어가잖아요. 삼성, 하이닉스 같은 경우는. 여전히 기술에 큰 변화가 없기 때문에요. HBM3e라는 기술이 HBM3하고 큰 차이가 없습니다. 어떻게 보면 하이브리드 본딩 같은 새로운 기술이 바뀌지 않는 한, 거기서는 이미 선제적으로 진행을 했기 때문에 당분간은 아마 하이닉스가 계속 우위를 점하지 않을까, 보여집니다.”

-HBM4 때는 어떨까요?

“HBM4는 변화가 많죠. 변수가 많죠. 단수도 올라가고 12단, 16단도 올라가고. 또 시장에 노이즈가 많죠. 하이브리드 본딩이 도입된다더니, 안 된다더니.”

바로 도입하기는 쉽지 않을 것 같은데요.

“만약에 도입이 안 되면 기존 기술을 갖고 있는 회사들이 계속 유리할 수 있고요. 기술이 바뀔 때 아마 변화가 많이 생기지 않을까.”

전방 수요가 AI , 특히 인프라 쪽에 학습, 연산 위주로 가는 쪽에 많이 수요가 되고 있는데. 보시기에는 어때요? PC, 폰 전통적인 메모리의 수요처였던 그쪽 시장은 어떻습니까? 슬로우하게 올라가고 있습니까? 아니면 전망하기로는 그냥 플랫한데 조금 올라갈 것으로 본다. 아니면 떨어질 것으로 본다. 어떻게 보세요?

“작년에 최악이었고요. PC, 스마트폰이 최악이었고요. 올해는 그래도 회복은 되지만 그렇다고 모멘텀이 세지는 않을 것 같아요. 그래서 대수가 그렇게 많이 늘 것 같지는 않습니다. 근데 여기도 PC, 스마트폰도 요즘 AI 붐이 붙었거든요. 아까 대표님 말씀하신 온디바이스 AI 때문에 콘텐츠가 올라갑니다. 탑재량이, 그래서 원래는 저희가 스마트폰 시장의 탑재량이 거의 안 될 걸로 봤거든요. 작년에 저희가 봤을 때는…”

대략 몇 기가 정도 들어가죠?

“저희는 올해 한 10% 이상 올라갈 것 같아요. 그러니까 모델을 돌릴 때 한 4기가 이상은 채용해야 하고. 아마 이론적으로는 한 8기가를 추가로 도입을 해야 할 거예요. 온 디바이스 AI 폰 돌리려면. 근데 그러기에는 아마 올해 부담이 되니까. 한 4기가 정도 채택하고 이러면서 아마 전체적으로 스마트폰 탑재량이 한 10% 정도 올라갈 것 같고요. PC도 마찬가지로 그쪽 붐이 있다 보니까. 한 13% 정도 탑재량 증가가 예상됩니다. 그게 없었다면 올해도 그냥 거의 플랫 될 뻔했죠.”

-AI가 정말 많이 살렸군요. 그 기능 써보셨어요?

“갤럭시 시리즈 보니까 번역, 통역 잘하더라고요. 그리고 인터넷 없이도 되더라고요. 그래서 이거 다듬어주면, 예를 들면 영상 통화 같은 거 할 때. 저는 한국어 하고, 영어로 바로바로 상대방이랑 통화도 되고 이런 것들이 가능해지지 않을까.”

그게 괜찮습니까?

“아직 100%는 아닌데. 그래도 이 정도면 쓸 만한 거 같아요.”

지금도 해외에 말 안 통하는 데 가면, 파파고로 얘기하고 하는데. 여기는 인터넷 안 돼 있어도 그냥 바로 된다는 거죠?

“인터넷이 아니고 그냥 자체 모델을 탑재했더라고요.”

그렇군요. 온디바이스 AI라는 이 시장의 트렌드가 아까 LLW 이런 거 말씀하셨지만, 그거 조금 뒤에 나올 기술이지만, 당장 그렇게 수요를 자극할 만한 정도의 소구 포인트를 가져갈 수 있다고 보십니까?

“제가 보기에는 AI는 B2B가 먼저 갈 것 같아요. 왜냐하면 B2C가 일단은 전체 기계값이 많이 올라가잖아요. 그래서 아마 초기에 약간 얼리어답터들 그런 부분에서 진행이 될 거고. B2B로 많이 갈 것 같고. PC가 어떻게 보면 그런 면에서 변화가 생길 것 같고요. 기업형 PC들이 많은 부분에 있어서 저희가 하는 일들을 사람이 하는 일을 많이 대체해 줄 것들이 많이 있거든요. 오늘 같은 내용 같은 거 요약을 한다든지. 이런 것들을 바로바로 해줄 수 있거든요. 이런 것들이 제가 보기에는 회사의 엄청난 비용 절감이나 효율성을 높여줄 것 같습니다. 그래서 그런 것들이 늘어날 거고요. 그런 거로 아마 어닝 모델이 생기면 거기서부터 B2B 쪽이 커질 거고. 그거를 B2C로 확장하지 않을까, 그렇게 보여집니다.”

-CXL에 대해서도 말들이 많은데. 이런 전망들이 많이 나오고 있는데 어떻게 보십니까? CXL이 어떤 메모리인지부터 차근차근 설명해주시죠.

“CXL은 메모리 풀링을 해줄 수 있는 제품인데. 시장에서 보는 거와 달리 성능이 아주 좋을 필요는 없습니다. 제가 보기에는 향후 PC D램이 하던 역할 제품들이, CXL로 다 들어갈 것 같아요. 마치 SSD처럼, SSD에 메모리가 들어가고. 거기에 컨트롤러가 들어가서 그 컨트롤러로 어느 정도 성능을 개선시켜서, 그래서 어떻게 보면 CXL이 약간 하이엔드 SSD하고 약간 오버랩이 되고요. 데이터센터 쪽은. 그리고 레벨 1·2·3 한 4 정도 되는 메모리라고 보시면 되고. 이게 트래픽이나 데이터 움직일 때, 데이터를 서버a, 서버b. 서버c에 같이 공유하는 메모리 형태로 될 것 같습니다. 그렇게 되면 서버 데이터센터 업체들 입장에서는 비용을 줄일 수 있고요. 그리고 메모리 업체 입장에서는 앞으로 PC D램의 응용처가 애매해지거든요. 그래서 그런 것들이 여기 들어가서 어떻게 보면 벌키하게 용량을 높여서 고객한테 최적화시킬 수 있는 이런 것들로 제품이 될 것 같습니다.”

일반 낸드는 어떻게 보세요?

“낸드는 아직까지도 그렇게 긍정적으로 볼 수가 없더라고요. 물론 메모리 업체들이 워낙 낸드에 대해서 요즘 힘들다 보니까. 투자를 많이 안 합니다. 투자를 할 수가 없죠. 그러니까 어떻게 보면 낸드는 공급 때문에 올해하고 내년도가 계속 약간 균형되거나 타이트하게 가지 않을까 생각이 들고요. 왜냐하면 투자를 할 수가 없어요. 다들 작년에 너무 데여서 근데 문제가 낸드는 아직 AI 관련된 쪽의 수요가 별로 없습니다. 그러니까 물론 AI에 나중에 모델이 늘어나면 그거를 저장하는 수요가 늘 수는 있는데. 그래봤자 우리가 챗GPT 같은 거 돌려봤자 모드 하나가 30기가 정도 되거든요. 그게 HBMl 30기가가 돌아가면 D램한테 엄청 큰 건데. 낸드한테는 우리가 몇 테라바이트 쓰는데. 거기에 30기가 몇 개 넣어봤자. 사실 큰 영향을 주지 못하거든요. 아직까지는 트레이닝 기관이다 보니까 당분간은 낸드가 AI에 따른 수혜를 많이 받지 못할 것 같고요. 나중에 추론 형태로 만약에 AI가 간다 그러면 모델을 많이 갖고 있어야 되니까 그런 데서는 간접 수혜를 받지 않을까 이렇게 보여집니다.”

종합해보면 아무튼 커스텀화 되고 있고. AI 쪽에 상당히 많은 신규 물량들이 쏟아지고 있어서 그쪽을 기업들이 집중하는 것 같다. 커스텀 메모리 업체 입장에서는 여러 가지가 있을 것 같은데. 고객하고 미리부터 부킹을 해서 되면 올해 솔드아웃이에요하고 따뜻하게 갈 수 있는그러니까 약간의 가시성이 조금 더 있는 느낌이 있지만, 또 한편으로는 과거에는 그냥 표준화된 제품 만들어놓고서는 원가만 우리가 잘 해놓으면, 우리가 할 건 한다. 이런 거였는데. 지금은 너무 갑을이 확실해지는 거 아닌가 이런 생각도 드네요.

“근데 이게 제가 저도 HBM 보면서 되게 재미있게 느낀 게. HBM이 원가가 2배 이상 비싸요. 근데 제가 메모리 역사상, 메모리 원가가 떨어지면 떨어지지. 그동안에 올린 제품을 판 적이 없어요. 아시는 것처럼 몇십 년 동안 메모리 가격은 무조건 빠져야 되고. 원가는 무조건 내려가야 되는 싸움이었거든요. 근데 이게 처음으로 원가가 2배 이상 올렸는데. 5~6배 주고 사는 제품이 나온 거거든요. 그동안에 메모리 업체들이 업계에 있는 분들도 ‘이게 뭐지?’라고 느낄 수 있는 제품이 나온 거죠. 그래서 그런 부분에서 다르게 움직일 것 같아요.”

업계의 지형도도 상당히 변화할 수 있겠네요.

“엄청난 변화죠. 왜냐하면 게임의 룰이 바뀐거니까요.”

게임의 룰이 바뀌니까 3등이 1등할 수도 있고. 2등이 1등할 수도 있고.

“왜냐하면 원가가 높아도 성능이 좋으면 고객은 사간다는 거죠. 잘 대응이 되면 커스텀화 시켜주고, 맞춤 시켜주고, 고객 납기 맞춰주고. 또 거기에 정확한 스펙을 제공해서 제품을 공급하면 약간 파운드리죠.”

그런 파운드리틱한 마인드를 국내 메모리 기업들이 갖고 있습니까?

“약하죠. 어쩔 수 없습니다. 메모리는 이렇게 만들어놓고 ‘사세요’ 이거거든요. 근데 그게 아니라 이거는 서로 얘기하고. 디자인하고. 원하는 거 해주고. 아쉬운 거 긁어주고. 이렇게 하면서 해줘야 하는데 막 라인 마음대로 바꾸고 이러면 안 되거든요.”

뭔가 제가 글이 떠오르는데.

“그거를 그대로 고객이 원하는 거에 딱 원하는 대로 해줘야 돼요. 마치 호텔 산업처럼, 호텔이 스위트 룸을 원했는데. 왔더니 스위트 룸이 아니라 2, 3층에 있는 허름한 룸을 주면. 그 다음에 안 가죠. 이런 일이 벌어집니다. 그래서 여기는 약간 파운드리 콘셉트를 섞어서 해야 되고 그다음에 상품 기획력이 되게 중요합니다. 그래서 아마 상품 기획 인력들을 많이들 아마 채용을 하셔야 될 거예요. 대응하기 위해서, 물론 안에 팥소는 커머디티라도 밖에서 보는 거는 약간 커스텀화 시키는 이런 전략들을 잘 구사하는 회사는 성공할 거고요. 적응 못하는 회사들은 계속 커머디티만 생산해서 고생하는 그런 형국이 될 것 같습니다.”

한국의 콧대 높은 메모리 기업들이 그런 시장 변화에 잘 대응하면 좋겠다는 생각이 드네요.

“근데 어차피 메모리 회사들이 한국뿐만 아니라 다른 회사도 마찬가지입니다. 왜냐하면 메모리 회사들은 다 생각이 다 똑같거든요. 저도 메모리 업계에 있어봤지만 그게 그렇게 안 바뀌거든요. 그러니까 그거는 제가 볼 때는 그게 한국의 디스카운트 요소는 아닐 것 같습니다.”

-HBM 수요는 엔비디아 H1인가요? GPU 연산용, AI 연산용 많이 옆에 달리는데. 아까 AMD 잠깐 말씀하셨지만 다른 수요처들이 생길 걸로 보십니까?

“그렇습니다. 일단은 먼저 엔비디아가 나왔고. AMD가 하고 있잖아요. 근데 하이퍼스케일러들이 자기네가 직접 하고 싶은 생각이 많아요. 자기네 거에 최적화시키는, 예를 들면 구글 같은 경우는 TPU를 설계하고 있고. 또 아마존도 자기네가 직접 하고 싶어 하는 욕구가 있고요. 메타도 사실 있고요. 최근에 오픈AI도 사실 욕심이 있는 것 같고요. 마이크로소프트도 자기네가 하고 싶고. 테슬라도 Dojo 내놓잖아요. 그러니까 모든 큰돈을 벌고 있는 회사들은 자기네가 설계하고 싶습니다. 애플도 마찬가지고요. 애플도 자기가 AI를 갖고 싶을 거고. 아마 삼성도 자기네가 직접 하고싶고.”

중앙에 어쨌든 MPU 같은 게 붙으면, 그 옆에 또 HBM 옆에 붙는 형태로.

“이게 콘셉트이 왜 자꾸 HBM 거 얘기하냐면, AI칩이 콘셉트가 이렇습니다. 인간이 뇌를 본뜬 거거든요. 뉴론이 CPU고요. 시냅스가 D램입니다. 이게 같이 붙어 있어요. 그러니까 이게 얘가 떨어져 있을 수가 없어요. AI 컴퓨터를 돌리려면, 그러다 보니까 AI 칩이 있는 곳에 얘는 무조건 붙어야 됩니다. 아니면 위로 있든지.”

마지막으로 이 커스텀 메모리 시대, AI 메모리 시대에 맞춰서 보통 리포트 이런 거 쓰시면 우리는 이런 데 추천한다이렇게 얘기하지 않습니까? 혹시 그런 거 얘기하실 수 있습니까?

“저희는 일단 하이닉스 그리고 삼성전자는 가치평가가 낮다 보니까 많이 떨어졌지만 두 종목 다 좋게 보고요. 다만 하이닉스에 모멘텀이 많이 있는 것 같고. 그리고 밑에 있는 밸류체인들 되게 좋게 봐요. 그래서 저희가 TSV나 CMP 이런 쪽 밸류체인. 그다음에 본딩 쪽 밸류체인. 그다음에 계측 쪽 검사, 테스팅 이런 쪽 밸류체인들이 있는 회사들이 되게 저희뿐만 아니라 글로벌 시장에서 관심을 많이 가질 것 같습니다.”

회사 이름 얘기하기는 좀 그런가요?

“제가 그런 거 얘기하긴 좀 그렇고요.”

종종 나오셔서 이런 반도체 업계의 큰 흐름에 대해서 한 번씩 짚어주시면 좋겠습니다. 오늘 나와주셔서 고맙습니다.

“초대해 주셔서 감사합니다.”

정리_최홍석 PD nahongsuk@thelec.kr

Leave a Reply