Skip to main content

<인터뷰 원문>

 

진행 : 디일렉 한주엽 대표, 레드일렉 이종준 심사역

출연 : 래블업 김준기 CTO

 

-이 회사는 언제 설립됐어요?

“저희는 2015년 4월에 설립했습니다.”

-CTO님도 그때부터 계셨던 겁니까?

“저도 그때 공동 창업자로 같이, 3명 중 1명으로 참여했습니다.”

-지금 세 분이 계세요?

“대표님이 메인 창업자시고, 저하고 박종현 연구소장님을 말하자면 꼬셔서, 회사를 만든 케이스입니다.”

-그전에는 어디 계셨습니까?

“3명 다 박사 과정을 하고 있었고요. 저희 대표님 같은 경우는 그전에도 이미 다른 스타트업들에 참여하시거나, 창업 멤버로 참여하신 적도 있고. 혹은 오픈소스 쪽 개발 리더를 해서 커뮤니티 쪽으로 참여하신 케이스도 있었고. 여러 가지 경험이 많으시고요. 박종현 소장님하고 저는 그때 박사 과정 마치면서 합류를 한 케이스입니다.”

-그렇군요.

-박사 과정 때 전공은 어떤 거 하셨어요?

“저는 네트워크 시스템 분야를 했고요. 그중에서도 GPU를 기반으로 패킷(packet) 처리를 가속해주는 일반화된 프레임워크(framework) 만들고. 그 과정에서 CPU나 GPU, 그 당시에 제온(Xeon)5 인텔에서 만든 가속기 플랫폼을 활용해서, 어떠한 플랫폼을 섞어서 조합을 하더라도 항상 최대의 성능이 나올 수 있도록 자동으로 로드밸런싱하는 알고리즘까지 개발해서 그런 걸로 박사학위를 받았습니다.”

-그렇군요. 2017년도?

“박사학위는 2016년에 받았습니다.”

-받고, 2017년도에 창업?

“창업은 2015년인데. 학위 받기 전에 이 회사는 미리 준비하고 있었고요.”

-요즘 회사가 엄청 많이 언론상에 노출도 되고, 기술 콘퍼런스 이런 데도… 근래 들어서 부쩍 많이 늘어난 것 같아요?

“저희가 올해를 어떻게 보면 홍보 원년으로 삼고 있습니다. 약간 물 들어왔을 때 노를 열심히 젖자 이런 콘셉트로, 다들 아시다시피 챗GPT 같은 것들이 나오면서 세상이 급격하게 변하고 있고. 그 과정에서 저희가 원래 2017~2018년 정도에 이미 예상하긴 했어요. 이런 상황이 올 것이다. 근데 저희의 예상보다 빨리 왔죠.”

-네이버에서도 비슷한 얘기를 하더라고요. 준비는 다 하고 있었는데. 저기서 먼저 하는 바람에 우리가 약간 후발 느낌인데, 미리 준비하고 있었다고 얘기는…

“저희 사업 내용이나 이런 것들 보시면 아시겠지만 특이해요. 한국에 잘 없는 유형의 회사예요. 그러니까 저희는 완전 AI 응용 모델을 만들어서 제공하거나 기업들이 이런 AI 모델이 필요하면 개발해 주세요. 이런 걸 하는 회사가 아니고. 또 그렇다고 저희가 스스로 클라우드 플랫폼처럼 IDC를 갖고서 이런 거를 대여하는 사업을 하는 그런 회사도 아니고. 그 중간에 있는 회사다 보니까. 이게 그냥 회사에서 ‘AI 개발을 위한 플랫폼을 만들어 드려요’까지만 얘기하면 사람들이 다들 ‘……그래서 그게 뭐죠?’ 이런 상황인데. 한마디로 설명한다면 AI를 개발하고 서비스하는 전 과정에 필요한 여러 가지 기술적인 엔지니어링들을 하드웨어 위에서, 그리고 응용 서비스 바로 아래에서 일어나는 모든 중간에 있는 일들을 최적화하고, 비용 절감해준다. 이런 콘셉트의 소프트웨어 솔루션이라고 보시면 될 것 같습니다.”

-우리가 자동차 가지고 다니다 보면, 차를 세차해야 하는데. 집이 시골에 있는 분들은 집에서 그냥 수돗물 뿌려서 할 때도 있고. 대부분 도시에 사니까 자동 세차를 맡기든, 손세차를 맡기는데. 셀프세차 이렇게 생각하면 됩니까? 비유가 너무 이상합니까?

“그 세차를 하는… 말하자면 세차장을 만들어야 하는데, 그 세차장을 더 쉽게 만들 수 있는 조립식 모듈을 제공하는 느낌이다. 세차장에 들어가는 부품들을 저희가 다 만들지는 않지만, 그 세차장을 하나로 통합적으로 운영할 수 있게 해주는 그런 거라고 생각하시면 되고. 저희가 스스로 비유적으로 얘기할 때는 어떤 표현을 하냐면 AI라는 금광에 사람들이 다들 달려가고 있잖아요. 너도나도 AI를 해야 한다. 대기업들도 ‘우리 서비스나 제품에 AI를 녹여내야 할 것 같아’해서, 위에서 명령이 내려와서 밑에 있는 실무진분들께서 열심히 삽질하면서 기업들도 만나보고 솔루션도 찾아보고 하시잖아요. 그렇게 다들 금강으로 달려가는데, 저희는 그 길목에 딱 서서 곡괭이하고 청바지를 파는 회사죠. 저희가 AI 금강을 대신 파드리진 않아요. AI 모델을 직접 만들어드리는 건 아니니까. 왜냐하면 그거는 여러 가지 이유가 있어요. 예를 들면 저희가 데이터를 직접 다 보유하고 있는 것도 아니고. 결국 기업에서 AI를 만들 때 핵심은 그 기업이 가지고 있는 데이터를 얼마나 잘 활용하느냐잖아요. 그런데 그 데이터라는 건 아시다시피 너무 민감한 정보가 많아서 그걸 쉽사리 다른 회사에 오픈해 줄 수가 없고. 결국 그래서 어느 정도 규모가 있는 회사들은 그걸 다 내재화해서 직접 AI를 개발하려고 해요. 근데 그래 하는 건 좋아. 그래서 예산도 받았고 하는데, 근데 이걸 할 수 있는 사람이 없잖아요. 그래서 그 사람들을 구해야 하는데. 그 과정에서 예를 들면 100억원을 들여서 엄청나게 좋은 서버룸에, GPU 서버들을 막 샀어요. ‘이거 어떻게 운영하지?’라는 질문이 반드시 따라 나오게 돼 있고. 그렇다 보니까 GPU를 만들어 파는 예를 들면 엔비디아 같은 회사들도 그 문제를 알기 때문에 자기네들도 그런 쪽에 솔루션을 제공하려고 여러 가지 노력하고는 있는데요. 저희 같은 경우는 그러한 플랫폼을 만드는 노력을 이미 2015년에 시작을 했기 때문에, 어떻게 보면 굉장히 미리 현장에서 부딪혀서 쌓은 경험이 되게 많아요. 기존의 운영체제나 클라우드 컴퓨팅을 최적화하고 만들던 방법론으로는 안 되는 부분들이 많이 있고. 또 기존의 GPU라든지 이런 가속기를 굉장히 많이 활용하던 분야가 고성능 컴퓨팅(HPC)이나 슈퍼 컴퓨팅. 이런 분야들이 있는데. 거기서는 상대적으로 불특정 다수를 위한 대규모의 클라우드 서비스. 그러니까 멀티테넌시(MultITenancy)를 위한 서비스를 한 경험은 별로 없어요.”

-자기들 필요한 것만 했고.

“그렇죠. 각자 필요한 분야들이 서로 발전해오고 있었는데. 거기에 있는 여러 가지 장점들을 다 합쳐야만 우리가 AI를 클라우드 상에서 돌리겠다. 혹은 기업 내에서 대규모의 데이터센터로 디플로이(Deploy) 해서 돌리겠다는 게 가능해지는 상황이고. 그래서 각 분야의 전문가들을 모아서 조합을 해야 하는데. 이게 쉽지 않은 거죠. 그거를 그렇게 조합을 해야 한다는 인사이트를 가지고 있는 사람도 생각보다 많지 않고. 인사이트가 있다 하더라도 그런 인력을 시장에서 구하는 것도 쉽지 않고. 그래서 저희가 그러면 이거를 우리가 소프트웨어를 통해서 최대한 자동화할 수 있는 부분은 자동화를 하고. 관리자 입장에서는 정책 기반으로 관리를 자동화할 수 있게 하고. 사용자 입장에서는 원 클릭으로 원하는 만큼, GPU 몇 개 쓸 거야 해서 개발 환경 띄우면 바로 딱 떠서 돌아가고. 거기다 예약해서 배치 잡(Batch Job)을 돌린다든지. 이런 것들을 자동으로 스케줄링해서 돌아가고. 이런 것들을 제공하는 회사죠. 그래서 저희가 AI 금광을 대신 파드리지는 않지만, 그 금광을 쉽게 팔 수 있는 도구를 제공해 드립니다. 그런 콘셉트입니다.”

-리바이스 같은 거?

“그렇죠. 리바이스 같은 회사도 골드러시 때 금광 노동자들한테 청바지 만들어 팔면서 시작한 회사잖아요. 저희는 AI시대에 청바지를 파는 회사죠.”

-청바지만 파는 건 아니고 여러 가지를 다 파시는 거죠?

“청바지인데, 청바지가 스마트한 청바지다. 약간 이런 느낌으로 얘기를 할 수 있을 것 같습니다.”

-그런 사업 방향하고 오픈소스인 거하고 관련이 있습니까?

“저희가 오픈소스를 하는 거는 여러 가지가 있는데요. 예를 들면 일단은 이 분야에서 사람들이 이런 솔루션이 왜 필요한가에 대한 인식을 하는 것도 필요하다고 생각했어요. 저희가 회사 구성이 특이하게도 굉장히 개발자나 엔지니어 위주로 구성이 돼 있는, 인력 구성 자체가. 그런 회사고. 대표님하고 저도 오픈소스 프로젝트를 하면서 알게 된 사이이기도 했고. 그러다 보니까 사실 오픈소스로 개발하는 게 자연스럽기도 했고. 또 동시에 어떤 생각도 있었냐 하면, 어차피 우리가 마케팅을 엄청난 돈을 때려 부어서 사람들한테 이런 플랫폼이 있다고 광고하고 다닐 수 있는 회사가 아닌 거예요. 예를 들면 그러니까 저희는 B2C 회사가 아니기 때문에 일반인들은 사실 저희 같은 회사가 있는지 전혀 모르시죠. 예를 들면 쿠팡이라든지 배달의민족이라든지 이런, 스타트업이라기에는 너무 큰 회사들이 되긴 했지만. 그런 회사들은 소비자를 타깃으로 하니까. ‘이런 앱이 나왔네’하고 사람들이 인지하고 그런 걸로 마케팅이 되고 홍보가 되지만, 저희는 그런 게 아니라 기업의 연구소에 계신 분들, 학교에 계신 분들 이런 분들이 저희의 고객층이다 보니까. 그런 분들한테 어떻게 소구를 할 수 있을까. 물론 비즈니스적으로 B2B라는 또 영업에 굉장히 고유한 룰이 적용되는 영역이기 때문에 어려운 부분들도 있었지만. 저희는 결국에는 개발자들이 우리 제품을 좋아해야 성공할 수 있다고 생각했고. 그렇기 때문에 오픈소스로 개발하는 모델을 채택했습니다.”

-그럼 오픈소스이기 때문에 회사 밖에서도 참여하시고 그런 분들이 많이 계신 가요?

“저희는 많이 있었으면 좋겠는데. 제품의 난도가 높다 보니까, 저희가 컨트리뷰션 아카데미라든지 여러 가지 오픈소스 활성화를 위해서 지원해주는 프로그램들이 많이 있어요. 그래서 그런 것들을 활용해서 다양한 학생분들이라든지, 혹은 기업에서도 개인적으로 오픈소스를 해보고 싶다든지, 이런 분들이 참여할 수 있게끔 저희가 멘토링을 하고 이런 걸 지원받는 사업들이 있어서. 그런 것들을 꾸준히 참여하고 있고요. 그 과정에서 실제로 인턴십으로 들어와서 정직원까지 입사하신 그런 케이스들도 있고. 저희는 그런 식으로 확장하고 있습니다.”

-작년에 매출 얼마나 했습니까?

“저희가 작년 매출이… 제가 정확한 넘버는 기억이 안 나는데, 한 26억원 정도 했던 걸로 알고 있습니다. 근데 정확한 넘버는 CEO님께 확인을 해봐야 해요.”

-이익이 있습니까?

“저희는 2020년에 이미 흑자 전환해서 계속 흑자 유지하고 있습니다.”

-그러면 지금까지 자금 조달은 얼마나 하셨어요?

“자금은 저희가 2017년에 20억 프리시리즈A 투자받았고. 올해 초에 마무리한 게 105억원 규모의 시리즈A 투자받았습니다.”

-그럼 누적으로는 한…

“130억원 조금 안 되게.”

-그 자금은 어디에 쓰시는 용도로 받으신 겁니까? 이미 프리시리즈A는 소진하셨을 테고.

“사실 그 돈도 다 쓰진 않았고요. 저희가 여러 가지 연구개발 과제 같은 것을 하면서 GPU 클라우드 핵심 기술 개발 이런 프로젝트들도 했었고. 그런 과정에서 사실 또 지원을 많이 받은 것들이 있어요. 그래서 그런 걸 통해서 저희 핵심 기술이라고 할 수 있는 GPU 가상화 기술 같은 것도 개발했었고.”

-R&D에 주로 쓰시는 거예요?

“R&D에 주로 사용했었고. 저희가 아까 말씀드렸듯이 올해가 홍보의 원년이다. 물 들어왔을 때 노를 젓자 해서, 저희가 올해는 비행기도 많이 타고 다니고. 요새 비행기 값이 굉장히 비싸지만, 비행기도 많이 타고 다니면서 해외 콘퍼런스 참석해서 계속 알리고 또 콘퍼런스도 워낙 다양하잖아요. 전시회 같은 것도 워낙 많고. 그러니까 그런 곳에서 어떤 곳이 우리가 집중적으로 타기팅을 하고, 우리의 고객분들을 만날 수 있는 곳인가라는 걸 올해는 전략적으로 판단하기 위해서 다양한 곳에 참여해보고 있고.”

-그럼 매출 20억원 정도 나는 거는 어떤 종류의 매출입니까?

“주로 B2B 세일즈.”

-그러면 그 고객군은 어떤 고객들이 있죠?

“굉장히 다양한데요. 저희가 크게 외부에 알려진 것으로는 KT라든지, 삼성전자라든지. 이런 국내 주요 대기업들의 연구소, 연구팀들. 그다음에 그쪽의 SI 계열사들 이런 곳이 저희 걸 도입해서 내부에서 AI를 개발하거나 이런 용도로 많이 활용하십니다.”

-그럼 계정으로 파는 겁니까?

“아니요. 저희가 클라우드를 제공하는 게 아니라 그분들이 다 서버를 사시죠. 내부의 데이터센터를 다 구축하시는데, 거기에 그걸 운영하는 솔루션이 없으니까. 그걸 운영할 관리자를 갑자기 뽑기도 어렵고. 왜냐하면 기존의 그런 정도 규모 회사들은 사실 다 IT 관리팀들이 있잖아요. 전산 관리하시는 분들이. 그분들이 이 GPU 서버라는 건 너무 생소한 존재인 거예요. 예를 들면 웹 애플리케이션 웹사이트 같은 걸 내부적으로 구축하기 위해서, 서버를 발주하고 이럴 때는 CPU 사양 맞추고, 메모리 맞추고 하면 대충 다 됐는데. GPU 서버라는 거는 그 자체도 너무 특이하거니와 거기에 이걸 성능을 잘 내기 위해서는 한 대만 살 게 아니잖아요. 여러 대를 살 건데. 그거를 잘 묶어서 돌리기 위해서는 100기가, 200기가 되는 전용 네트워크 장비들도 또 추가로 도입이 필요하고. 그리고 얘네들이 전력 같은 것도 워낙 요구 사항이 다르다 보니까. 일반 랙(Rack)에 넣으면 바로 문제가 터지거든요. 그래서 그런 것들을 다 맞춰서 데이터센터 자체부터, 상면 공간부터 다 새로 만들어야 하고 이러니까. 이런 것들을 갑자기 하려니까 힘든 거죠. 경우에 따라서는 저희가 사전 컨설팅을 통해서 데이터센터에 발열이라든지, 전력 설계가 이 정도가 들어가야 한다는 거를 가이드를 다 드려서 그 단계부터 그분들이 저희가 이런 구성의 하드웨어는 최소한 이 정도 스펙은 만족하는 걸 사셔야 한다고 가이드를 드려서, 그렇게 발주해서 다 구축하시고. 저희 솔루션까지 위에 얻는 그런 형태로 한 경우도 있고.”

-그 솔루션이 『Backend.AI』입니까?

“맞습니다.”

-그렇군요. 이제 이해가 됐습니다. 여기서 그러면 데이터센터를 여기 두고 고객이 여기 들어와서 원격으로 개발하고 이게 아니고.

“그런 모델도 있는데, 아직 거기에는 저희의 주요 매출처는 아니고요. 앞으로 클라우드 비즈니스를 확장하려고…”

-그거는 자본이 많이 들어가야 합니다? 그렇죠?

“그런 목적으로 투자를 받은 겁니다.”

-지금은 컨설팅+SI+솔루션 판매 이렇게 되는 겁니까?

“SI는 저희가 하지 않고요.”

-SI는 안 하시고요?

“물론 고객사마다 당연히 커스텀 해달라는 요구들이 있잖아요.”

-있을 것 같은데요.

“저희는 기본적으로 그거를, 플러그인 아키텍처로 처리합니다. 그래서 코어는 다 오픈소스로 공통 기능은 모든 고객사에 똑같이 들어가고. 예를 들면 보통 그런 SI성 요구가 발생하는 게 어떤 것들이 있냐면, 큰 회사들 같은 경우에는 내부에 직원들 계정 관리하고 이런 시스템들이 다 있잖아요. 그런 시스템에 예를 들면 우리 직원 계정으로 로그인하면 자동으로 여기에도 계정이 연동되게 해주세요. 이런 요구 사항들이 있는데. 그런 것들은 저희가 다 플러그인으로 붙였다 뗐다 할 수 있게 아키텍처를 해놓고. 고객사마다 전용 플러그인을 하나씩 넣어드린다든지 이런 형태로 해결하고 있습니다.”

-그렇군요. 래블업의 경쟁 상대가 있습니까? 클라우드로 간다고 하면 경쟁 상대가 꽤 있을 것 같은데, 현재 사업 모델로는 경쟁 상대가 없을 것 같다는 생각도 드네요.

“저희랑 비슷한 게 ‘MLOps 솔루션을 제공해 드립니다’ 이런 곳들이 몇 군데 있기는 해요. 근데 저희가 보기에 이게 실제로 엔터프라이즈에 저희만한 규모로 납품해서, 검증받았다고 할 수 있는 솔루션은 많지 않은 걸로 알고 있고요.”

-그게 국내 기준으로 말씀하시는 거예요? 아니면 글로벌 기준으로?

“국내 기준으로도 마찬가지고. 글로벌로도 제가 알기로는 한두 군데가 그나마 저희랑 비슷한 걸 한다고 하는 곳들이 있고. 근데 그 회사들도 저희만큼의 트랙 레코드(Track Record)는 아직은 없는 걸로 알고 있습니다.”

-그러면 래블업은 어쨌든 소프트웨어를 개발하는 곳인데. 그러면 아까 투자와 관련해서 말씀을 더 드리자면, 올해 초에 100억 원 정도 투자금을 모집했는데. 홍보를 한다고 해도 그 돈을 그렇게 많이 쓰진 못할 것 같은데. 혹시 M&A도 생각하고 계신가요?

“아직까지는 저희가 직접 M&A를 하는 케이스는 고려하고 있지 않고요. 저희 같은 경우는 해외 쪽에 저희가 지사를 만들 것인가, 혹은 세일즈 오피스 같은 걸 둘 것인가. 이런 부분에 대해서는 고민하는 단계고. 아직 확정되지 않았고. 저희가 인적 구성이 또 해외에서 리모트로 일을 하시는 분들이 몇 분 계세요. 세일즈 쪽도 한 분 계시고. 또 개발 쪽에도 한 분 계시고. 이러다 보니까 현지 시장 상황들이나 이런 것들을 계속 그분들을 통해서 관찰하면서 전략적으로 접근하려고 하고 있습니다.”

-그렇군요. Backend.AI 이거 오픈소스로도 제공하시지만, 기업들한테 공급할 때는 상용으로 공급하시는 거죠?

“라이센스를 구매하시는 형태로 진행을 하게 되고. 라이센스 형태는 저희가 기본적으로 GPU당 과금 모델을 채택하고 있습니다.”

-개당 얼마씩 이런식으로? 보통 한 몇 개 정도 쓰십니까?

“그건 굉장히 천차만별이죠.”

-제일 많이 쓰는 데는 어느 정도나 써요?

“제일 많은 곳이 제가 알기로 1000장 넘게 쓰고 계십니다.”

-GPU를요?

“네.”

-그 GPU는 어느 급입니까?

“제일 좋은 NVIDIA A100.”

-그걸 1000장이나 쓴다고요?

“그리고 H100 이런 것들.”

-그럼 개당 과금은 얼마나 해요?

“개별적인 계약 조건에 따라 되게 다르기는 하지만 제가 기억하기로는 GPU 가격의 한 20~30% 정도를 저희가 연간 라이센스 형태로 과금하고 있습니다.”

-Backend.AI 말고 다른 오픈소스들이 있잖아요. 오픈스택(OpenStack)이라든지, 쿠버네티스 (Kubernetes)라고 하는 게 맞습니까? 그런 거랑 비교해서 래블업 것을 선택하는 이유는 뭐라고 보십니까?

“할 게 너무 많죠. 그런 오픈소스 솔루션들도 굉장히 나름대로 자기의 목적에 충실해서 특화되어있는 솔루션들인데. 이게 목적이 다르다 보니까, 예를 들면 쿠버네티스가 저희도 컨테이너 플랫폼이고, 쿠버네티스도 컨테이너 플랫폼이다 보니까, 실제로 고객분들도 많이들 물어보시거든요. ‘그거랑 다른 게 뭐예요?’ ‘왜 우리가 굳이 Backend.AI를 써야 하나요?’라고 당연히 물어보시는데. 쿠버네티스로 이런 시스템을 구현할 수 없냐, 기술적으로는 다 됩니다. 안 될 이유는 없어요. 근데 많이 뜯어고쳐야 하는 거죠.”

-그것도 래블업처럼 상용화를 해서 상용 버전을 공급하는 이런 회사들이 있지 않습니까?

“제가 기억하기로 그런 회사들이 전 세계에 한 2~3곳 있고. 엔비디아도 직접 하고 있어요. 베이스 커맨드(NVIDIA Base Command)·플릿 커맨드(NVIDIA Fleet Command)라는 자체적인 그런 솔루션을 개발하고 있고. 엔비디아는 아무래도 자기네가 직접 하드웨어부터 다 만드는 곳이다 보니까. 모니터링이라든지 이런 로우(RAW) 레벨 한 제어 같은 것들이 더 잘 되는 걸로 알고 있고요. 근데 거기도 어떻게 보면 시작은 저희보다는 늦었어요. 저희는 훨씬 먼저 2016~2017년에 이미 컨테이너 기반으로 GPU 붙여서, 다수의 노드를 스케줄링해서 돌리는 것들을 이미 그때 기반 기술을 다 완성한 상태였었고. 이미 2019년부터 고객사에 납품하면서 저희가 매를 먼저 맞았죠. 항상 그렇잖아요. 아무리 열심히 만들어도 막상 실제 환경에 넣어보면 안 되는 것들이 나오기 마련이라, 그런 것들은 저희가 노하우를 더 많이 쌓은 편이라고 볼 수 있을 것 같고. 쿠버네티스 같은 시스템하고 저희하고 가장 큰 차이점은, 쿠버네티스는 인터랙티브 워크로드. 그러니까 상대적으로 개별의 요청하고, 응답받는 시간이 짧은 워크로드들을 굉장히 많은 수의 커머디티(Commodity) 서버에 흩뿌려서 대규모로 실행하는, 말하자면 양떼 치는 목동 같은 느낌인 거죠. 그런 느낌의 워크로드에 굉장히 최적화가 된 시스템입니다. 이게 대부분의 웹사이트라든지, 무슨 모바일 앱의 서버 단 구현이라든지 이런 거에는 굉장히 잘 맞는 모델이고요. 그러다 보니까 그런 서비스를 구축할 때, 굉장히 기본 옵션으로 고려를 하게 되는 그런 솔루션이라고 할 수가 있겠습니다. 그런데 저희가 하는 AI나 머신러닝 이런 쪽의 워크로드들 그다음에 슈퍼 컴퓨팅 쪽에 있던 워크로드들은 굉장히 특성이 달라요. 일단 배치 잡이고요. 하나의 작업 요청을 넣으면 이게 몇십 밀리초(ms)에 끝나는 이런 게 아니라 몇 시간이 걸리죠. 혹은 며칠이 걸리고. 그러다 보니까 그 잡들이 한 번 실행이 돼서 컴퓨터 자원을 차지하고 돌아가는 동안에는 그걸 끄면 안 돼요. 근데 쿠버네티스 같은 것들은 예를 들면 서버를 다이나믹하게 오토스케일링을 한다면 그냥 돌고 있던 것들 그냥 연결 끊고서, 돌리고 새로 서버 띄우고 이런 것들을 할 때 각각의 요청들이 워낙 빨리 끝나니까 사용자가 그거를 인지하지 않게 되거든요. 그런 거를 숨겨주는 거를 잘 구현할 수가 있는데. 저희는 1시간만 더 돌면 끝나는데, 일주일 동안 돌았던 잡을 자원이 부족하다고 갑자기 꺼버리면 안 되잖아요. 그런 식의 스케줄링에서 다른 필요(requirement) 요구 사항들이 존재하고. 쿠버네티스도 당연히 그런 식으로 돌아가게 구성할 수는 있습니다만 그게 기본값이 아니라는 거죠.”

-누군가 들어와서 뭘 뜯어고쳐야 한다는 얘기군요. 아까 Backend.AI가 CPU 장당 얼마 과금한다고 했나요?

“GPU 장당 과금입니다.”

-장당 과금, 장당 얼마라고 아까 말씀은 못 한다고 했나요? 그게 많아지면 할인도 되고 하겠죠?

“그런 옵션들도 있고. 그다음에 퍼페추얼(perpetual)로 구매하시느냐 하면 몇 년 치 라이센스 가격을 미리 받고 유지보수 비용만 따로 책정하는 그런 경우도 있고. 여러 가지 케이스가 있습니다.”

-그러면 고객들 아까 여러 회사 말씀해 주셨는데, 사실 업력이 좀 됐어요. 2015년에 했으니까 8~9년 차 되는 건데 이탈 고객도 있습니까?

“저희가 딱 한 군데 정도 있는 걸로 알고 있어요.”

-어딥니까?

“그거는 제가 말씀드릴 수가 없습니다.”

-거기는 왜 이탈했습니까?

“거기는 내부에서 이런 시스템을 자기네가 직접 개발해보겠다고 깃발을 드신 분이 계셔서.”

-그게 GPU 장당 얼마 과금한다고 그러면 상대적으로 대규모로 운영하는 고객일수록, 우리가 그 비용을 계속 내느니, 물론 시행착오도, 결정의 문제인데. 앞으로는 어떻게 보세요? 사실 큰 고객들 잡으려면 매출액 규모나 이런 걸 봤을 때는 굉장히 대규모로 이 GPU를 운영하는 고객들도 현재 사업 구조에서는 많이 구해야 하는데. ‘우리가 직접 하겠어’ 이런 회사들도 많지 않을까요?

“당연히 그런… 현재 고객 중에서도 그런 걸 하고 싶어 하는 곳들이 당연히 존재하고요.”

-왜냐하면 잘 안되면 아까 플러그인으로 이것저것 해서 만들어 두셨다고는 하지만 아직 쓰는 단에서는 불만이 있을 수 있겠다는 생각도 들거든요.

“저희 플랫폼의 특징이 실제로 저희를 직접 손에 쥐고 쓰시는 실무자분들은 되게 좋아하세요. 그리고 그걸 관리하시는 분들도 저희 것만큼 잘 돌아가는 거 못 봤다고 하신 케이스도 있고. 제가 어디라고 말씀을 드릴 수는 없지만 모 고객사 같은 경우도 대기업인데 자사 SI 계열사에서 내부적으로 만든 솔루션을 쓰시다가 ‘이거 도저히 못 쓰겠다’해서 저희 걸로 전환하신 사례도 있고. 또 반대로 아까 한 군데 이탈하신 경우도 저희 걸 쓰다가 ‘내부에서 한번 만들어볼게요’해서 넘어간 그런 케이스인데. 실제 실무적으로 저희 걸 쓰시는 분들은 되게 만족도가 높은 그런 솔루션입니다.”

-이 사업 구조로만 하실 건 아니신 거죠?

“클라우드하고 B2C라고 하기에는 애매하지만, 여전히 일반인들보다는 개발자를 대상으로 하는 거기 때문에 하지만 본인이 하드웨어를 보유하지 않았더라도 저희 클라우드에 가입해서 구독형으로 자원을 쓸 수 있는 그런 형태.”

-‘내가 개발 한번 해보겠다’ 이런 사람도 있을 수 있겠네요.

“왜냐하면 스타트업이나 중소기업들 같은 경우에는 그렇게 몇십억씩 들여서 서버를 구매하기가 힘들어서 한번 돌려서 테스트해보고 싶은데, 그때는 서버를 너무 비싸게 사자니 부담이 되고. 그런 분들을 위한 플랜도 준비하고 있습니다.”

-이미 뭐 시작했습니까? 아니면 그 자금 조달 100억원 정도 받으신 걸로, 그걸로 그거 하시려고 하는 거예요?

“그래서 자체 IDC 공간에 GPU 서버들 구매해서 미리 테스트도 해보고. 개발도 하고 있습니다.”

-얼마나 구매하셨습니까?

“저희 회사가 아마 국내 기준으로는 엔비디아의 제일 최신 GPU인 DGX H100 서버를, 정확히는 모르겠지만 거의 최초가 아닐까.”

-그래요?

“저희는 이미 구매해서 굴리고 있습니다.”

-안에 GPU 몇 장이나 들어가 있습니까?

“그거 하나에 8장 들어가 있습니다.”

-몇 대 구매하셨어요?

“그거를 저희가 수십 대까지는 아니고요. 그 DGX 하나, 그다음에 HGX라고 해서 엔비디아에서 인증해준 호환 플랫폼들이 있거든요. 그런 걸로 한 2대 정도 더 사고. 그리고 지금도 계속 나오는 대로 발주 넣고 준비하는 상황입니다.”

-그러면 그거는 언제부터, 내부에서 좀 만지고 나면 정식 서비스도 하셔야 할 거 아닙니까? 언제 정도로 생각하고 계시는 겁니까?

“저희가 목표로는 내년 상반기 정도로 생각하고 있고요. 저희가 이미 사실 베타 서비스는 오픈이 돼 있습니다. 그래서 제 이메일로 가입 신청하면 저희가 다 받아들이지는 않고. 배치로 한 번씩 초대장을 보내드려서, 그걸 받으신 분들은 제한된 용량만 무료로 쓸 수 있게. 조금씩 오픈하면서, 왜냐하면 저희도 갑자기 확 오픈하면 사이즈가 감당이 안 될 수가 있으니까. 그런 식으로 경험해 볼 수 있게 조금씩 제공해 드리는 그런 거는 하고 있고. 정식으로 돈을 받고 서비스를 하는 거는 내년 중으로 생각하고 있습니다.”

-그러면 돈은 과금은 어떻게 해요? 계정 하나에 용량이라고 해야 합니까? 처리 능력 해서 이렇게 받는 거예요?

“저희가 정확한 가격 레인지는 계산을 해봐야 하긴 하는데. 일단 모델은 월별 얼마를 내면, 그러면 거기에서 GPU 타임을 얼마를 쓸 수 있고. 그걸 혹시 더 쓰고 싶으면 상위 플랜으로 업그레이드하든가 아니면 추가 비용을 내든가. 이런 옵션들을 붙여서 하는 모델을 생각하고 있습니다.”

-그런 서비스는 저도 꽤 있는 걸로 알거든요. 미국에서도 엔비디아에서 전략적으로 밀어주는 스타트업도 있고.

“GPU를 대여해 주겠다는 서비스들은 사실 꽤 많고. 이 분야에 되게 전통적인 회사들이 몇 개 있습니다. 예를 들면 렌더팜, 여기 영상 하시는 분들은 아실 수도 있는데. 영상 편집하거나 3D 랜더링 해서 영상을 뽑아내려고 그러면 시간이 많이 걸리잖아요. 전문적으로 하시는 분들이 따로 그런 서버를 구축도 하시는데. 그런 걸 클라우드에서 대여하는 회사들이 있어요.”

-렌더팜.

“그래서 그런 데는 계정을 만들어서 접속하면 윈도우 원격 데스크탑 화면이 뜨고 거기에 미리 랜더링이나, 예를 들면 어도비 프리미어라든가 이런 게 미리 다 깔려 있어서. 거기에서 작업을 하면 그걸 켜놓은 시간만큼 과금이 되고. 이런 모델들이 사실 이미 있어서. 그런 특정한 유형의 가속기 GPU 같은 가속기 자원을 대여해 주겠다는 사업 모델은 사실 되게 오래된 모델이에요. 이미 그런 쪽으로 잘하는 곳들도 있고. 근데 저희는 AI라는 게 눈에 보이지 않게 배치로 터미널에서 명령어를 치면 뒤에서 돌아가고 이런 작업이다 보니까. 이게 눈에 보이는 작업이 아니니까, 쓰는 사람 입장에서 모니터링 같은 게 되게 어렵거든요. 그래서 그런 부분을 더 특화해서 만드는 솔루션이라고 생각하시면 될 것 같습니다.”

-그렇군요. 비슷한 모델은 없는 거예요? 예를 들어서 퍼블릭한 클라우드에 AI를 돌릴 수 있는 환경을 만들어 놓고. 그 위에 Backend.AI도 올려놓고 하시겠다는 얘기신 거잖아요? 이런 형태의 서비스는 있습니까?

“크게 빅테크들은 내부에 갖고 있거나. 그리고 구글 클라우드 플랫폼, 아마존 웹 서비스(AWS), 애저(Microsoft Azure) 같은 메이저한 클라우드 업체들도 자체적인 머신러닝 개발 환경 서비스들이 있습니다. 그래서 그래픽 사용자 인터페이스(GUI)에서 파이프라인을 디자인해서 붙여서 쓴다든가 하는데. 저희도 당연히 다 한 번씩 써봤고. 얘네들은 이렇게 만드는구나, 파악도 할 겸 해봤는데. 장점은 그 클라우드 예를 들면 내가 AWS를 쓰고 있었다. 혹은 애저를 쓰고 있었다. 그런 상황에서 이미 인프라를 거기서 잘 쓰고 있는데. 거기에 AI 기능이 더 필요해. 이런 경우에는 사실 그들이 제공하는 AI 서비스 쓰는 게 굉장히 편리하고요. 인티그레이션이 잘 되니까. 반대로 AWS나 애저를 쓰고 있지 않았는데. AI를 하고 싶어서 굳이 AWS와 애저를 찾아가서 그 AI를 거기서 할 것이냐 이거는 또 다른 문제인 것 같아요. 그래서 사용성이나 이런 거는 그 클라우드 플랫폼에 이미 종속이 된 상황이면 굉장히 좋고. 어떤 면에서는 가격 절감을 할 수 있는 부분도 많이 있는데. 신규로 처음부터 AI 시스템을 만들려는데 그걸 쓰는 거는 생각보다 진입장벽이 높아요. 예를 들면 권한 관리 같은 것들이 클라우드 같은 것들이 규제라든지 그다음에 보안이라든지 이런 컴플라이언스를 맞추기 위해서 그 보안 관리하는 정책 시스템들이 굉장히 복잡하거든요. 근데 이거를 제대로 알고서 세팅해서 큰 규모의 조직에서 이거를 컨피규레이션(configuration) 하는 것 자체가 되게 일이고요.”

-엄청난 시행착오가 생기겠죠.

“그래서 그걸 이미 그런 걸 하던 내부 인프라가 있고, 그걸 담당하는 담당자가 있고, 팀이 있고, 이런 회사들이 기존에 쓰던 걸 우리 AI 제품도 같이 쓰자 해서 쓰는 거는 좋은데. 그렇게 갑자기 신규로 만드는 건 쉽지 않다. 그리고 아까 말씀드렸듯이 대기업들은 데이터 프라이버시 문제, 데이터 시큐리티 문제가 너무 크기 때문에 퍼블릭 클라우드에 올라가고 싶어도 못 올라가는 애들도 많이 있고요. 저희 고객사들도 대부분 그런 케이스이긴 합니다.”

-회사에서 보시기에 기존의 비즈니스, 초기 컨설팅 있을 수도 있고. 아니면 Backend.AI를 아예 그냥 제공해서 아까 GPU 장당 과금하는 B2B 서비스와 이 클라우드 서비스를 봤을 때 회사의 성장은 어떤 모델이 더 견인할 수 있다고 보십니까?

“저희는 크게 투트랙으로 보고 있어요. 국내에서의 B2B 비즈니스는 저희 생각에는 포화 됐다고 생각했는데. 그래도 계속 신규로 들어오는 건들이 있어서, 그래도 사업적인 규모는 유지가 될 것 같다고 보는 부분이 있고요. 그렇지만 저희가 넥스트 레벨로 점프하기 위해서는 국내에서의 B2B는 한계가 있고. 이거를 해외 지역으로 확장해야 한다. 그래서 주로 저희가 미국, 유럽, 동남아 쪽 해서, 주요 시장들을 타깃을 하고 있고요. 그다음에 클라우드 비즈니스를 장기적으로는 확장하려고 하는 게. 이게 B2B 특히나 아까 말씀드린 것처럼 데이터 시큐리티가 중요한 고객사들의 경우에 아예 망분리가 된 환경에 구축하는 경우가 많습니다. 그러다 보니까 저희가 원격으로 ‘문제가 생겼어요’ 고객님께서 전화하셨을 때, 저희가 바로 접속해서 고쳐드리겠습니다. 할 수가 없는 경우가 되게 많거든요. 그러면 방문 일정을 잡고, 방문 등록하고, 이게 되게 절차가 복잡해지다 보니까, 저희도 힘들고. 그런 부분들이 있어서 장기적으로는 그런 고객 중에도 규제가 완화되면서 클라우드 쪽으로 옮겨가려는 그런 산업군들도 있고요. 그러다 보니까 저희도 클라우드 쪽으로 해야 저희가 스케일업을 하는 데 훨씬 유리하겠다.”

-클라우드 쪽으로 해야, 그리고 해외 쪽도 많이…

“해외도 결국, 저희가 전화 올 때마다 비행기 타고 갈 수는 없잖아요.”

-근데 한국에 있는 기업이 클라우드 시장에서 로컬라이제이션(localization)이 제대로 안 된 기업들, 제가 볼 때는 거의 한국 내에서 그 서비스한다고 해외에 간다고 했는데, 성공한 기업들이 없거든요. 그런 거에 대해서 내부에 이런…

“B2B SaaS로는 성공한 회사들이 몇 군데 있기는 합니다.”

-그래요?

“예를 들면 샌드버드(Sendbird) 같은 곳들도 채팅하는 백엔드 인프라를 서비스화해서 만든 회사인데. 그 회사 같은 경우도 시작은 국내에서 했지만, 미국으로 플립해서 거기서 굉장히 큰 성장을 하는 회사 중에 하나고요. 저희도 그런 형태를 어떻게 보면 약간 롤 모델로 삼아서 저희도 그런 비슷한 경로들을 고려하는 상황이라고 보시면 되겠습니다.”

-해외 판매 실적, 브라질 판매 실적이 있던데. 이거에 대해서 자세하게 말씀해 주실 수 있으신가요?

“저희가 계약 관계상 정확히 어디라고는 설명을 못 드리지만. 대략적으로만 설명드리면 브라질의 국책연구소 한 곳이 있고. 그다음에 국내 대기업의 해외 연구법인 한 군데가 있습니다. 그래서 사실은 브라질 고객이 한 곳이 아니라 두 곳이고요. 그중에 국책연구소 같은 경우는 그 당시로서는 저희 고객 중에서는 제일 큰 규모로 구축을 했던 곳이고. 남아메리카에서 제일 큰 슈퍼 컴퓨터를 보유하고 있는 연구소입니다.”

-거기는 근데 국내 거기를 고객…

“고객이 하나 있고. 그 고객이 쓰는 걸 보고 옆에 다른 고객이 하나가 더 생긴 그런 케이스인데. 거기 같은 경우는 내부 팀에서도 이용하지만, 국책연구소다 보니까 주변 대학들한테 제공하는 리소스 팜도 같이 운영하는데. 이거를 통합 솔루션으로 운영하고 싶다고 해서 저희 솔루션에 있는 멀티 도메인이라는 기능을 활용해서 물리적으로는 하나의 클러스터인데. 밖에서 봤을 때는 이게 자원이 격리가 돼서 돌아가는 그런 보안 계층을 가진 별도의 사이트인 것처럼 보이게 하는 거죠. 사용자 계정도 다 분리가 돼 있고. 그런 구성을 해서 지역사회 대학들한테도 자원을 공유하는 그런 모델을 제공해 드린 바가 있습니다.”

-브라질 국책기관 말씀하셨고, 남아프리카?

“아니요. 브라질의 다른, 국내 대기업의 해외 연구법인. 현지화된 AI 모델 같은 것들 개발하는 팀에서 저희 걸 사용하고 계십니다.”

-저희 이 인터뷰 꾸러미가 『혁신 분야 창업 패키지의 신산업 스타트업 육성 사업』에서 『시스템 반도체 분야 선정 기업』으로 모신 거예요. 래블업을. 근데 제가 들어보니까 반도체하고는 큰 상관이 없고. 물론 반도체 위에서 벌죠. 주로 반도체 IP나 반도체 관련된 기업들이 많이 선정됐는데. 래블업이 여기 선정된 이유가 뭐라고 보십니까? 어떤 취지로?

“저희가 이미 국내 AI 반도체를 하는 곳들이 여러 군데 있는데. 그중에서 리벨리온이나 퓨리오사AI하고는 이미 협업하고 있어요. 그래서 저희 플랫폼에서 그들이 엔비디아 GPU처럼 리벨리온 칩 이름 같은 것들이 그대로 다 떠서 거기서 그냥 몇 개 실행하겠다 하면 클라우드처럼 실행이 되고. 그리고 그런 게 붙어 있는 서버가 수십 대가 있어도 그중에서 비어 있는 노드로 자동으로 스케줄링이 되고 이런 것들을 다 하고 있고요. 그 과정에서 저희가 원래 엔비디아 GPU용으로 만들었던 GPU 가상화 기술이 있는데. 그런 가상화 기술들을 어떻게 보면 개발 단계에서부터 그런 회사들도 내부적으로 고민을 많이 하고 계시더라고요. 그러니까 이게 칩이라는 단위가 상당히 고성능을 추구하다 보면 그 칩 하나에 들어갈 수 있는 워크로드의 양이 꽤 큰데 이거를 항상 그걸 꽉 채워서 쓰지는 않거든요. 그러다 보니까 항상 남는 용량들이 생기게 되는데, 그런 용량들을 어떻게 해서 더 효율적으로 활용을 할 수 있을 것이냐. 사실 클라우드 컴퓨팅이라는 것도 그게 핵심이거든요. CPU를 1개를 갖고 있지만 이 CPU 1개를 항상 100% 쓰는 게 아니기 때문에, 30% 쓰는 고객을 3명을 유치할 수도 있는 거죠. 이거를 한 명한테만 주는 게 아니라 그런 식으로 해서 규모의 경제도 추구하고, 수익도 추구하고 또 시스템 자체도 더 효율적으로 운영하고. 이런 걸 추구하는 거고. 그래서 AI 반도체 하는 회사분들도 비슷한 고민을 가지고 계시더라고요. 저희가 그런 것들을 시스템상에서 클라우드 상에서 예를 들면 칩을 반만 쓰고 싶다. 그런 경우도 지원을 할 수 있도록 저희가 같이 시스템을 디자인하는 그런 과정에 있습니다.”

-굉장히 좋은 일 하시는 거네요. 그 회사들이 그런 거 개발할 역량은 사실…

“역량이 없다기보다는 거기가 주력 분야가 아니기 때문에, 그러니까 그 칩을 만드는 것 자체도, 특히 저보다 더 잘 아시겠지만, 너무 힘든 일이고. 그걸 테이핑해서 실제로 서버에 꽂아서 돌려보기까지 수많은 인증이라든지 테스트도 다 통과해야 하고. 그 회로도만 그린다고 끝나는 게 아니잖아요.”

-근데 그렇다고 하더라도 그것만 만들어서는 고객군을 창출하기가 어렵고. 실제로 이걸로 상용 매출이 나올 수 있게 하려면, 예를 들어서 GPU처럼 이런 개발 환경이라든지 사용할 수 있는 환경이 돼야 하는데. 사실 그거에 대한 부재 때문에 굉장한 고민이 있었던 것으로 아는데. 그래서 래블업에서 그런 것을 작업을…

“저희의 목표는 그런 과정들의 허들을 확 단축해서 이분들이 원래 본인들이 집중해야 하고, 잘하는 분야만 집중하시면, 그 위에 실제 서비스로 엔드투엔드 배달하는, 저희가 라스트 마일이라고 그러죠. 그 과정은 저희가 대신 해드리겠다.”

-그러면 어느 정도나 됐어요? 그게 MPU 기반인 거죠? GPU 기반인데 MPU 기반으로, 약간 바꿨는지 많이 바꿨는지 모르겠지만. 이거에 맞춰서 하시면 그 작업은 어느 정도나 하셨어요? 협업한 지는 얼마나 됐습니까?

“협업은 저희가 이야기가 나오고 논의를 한 거는 제가 기억하기로는 작년 말 정도부터였을 거고요. 실제로 그런 거를 인티그레이션하는 데 걸리는 시간은 기술적으로는 굉장히 짧습니다. 저희가 이미 임의의 가속기를 붙일 수 있는 플러그인 인터페이스라든지 그런 내부적인 소프트웨어적인 대응은 이미 거의 다 되어 있는 상태라서. 예를 들면 리벨리온이나 퓨리오사AI의 칩을 사용하는 컨테이너를 생성하는 도커 런(docker run) 명령어에 무슨 옵션을 고쳐주면 되나요. 예를 들어 이 정도 정보만 있으면 저희는 인티그레이션 되게 쉽게 할 수 있거든요. 그다음에 디바이스가 뭐가 설치됐는지 인식하고 이것들의 성능 메트릭이 어떤 형태로 나오고, 어떻게 조회할 수 있는지. 이런 몇 가지 정보들만 있으면 기술적으로는 인티그레이션을 어렵지 않게 할 수 있고요.”

-그렇게 되면 기존에 GPU 위에서 돌던 Backend.AI의 환경을 MPU 위에서 그대로 동일하게 해서 동일하게 쓸 수 있는 겁니까? 그럼 만약에 CTO님이 대기업에서 PM(Project Manager)이에요. 뭘 해야 해요, 어느 순간이 되면 MPU도 그런 서비스들이 나올 거 아닙니까? MPU로 위에서 돌려야 될지, GPU 위에서 돌려야 될지. 선택을 해야 할 텐데. CTO님은 뭘 선택하시겠습니까?

“여러 가지 요소를 고려해야 하겠죠. 전력이나 발열적인 측면이 중요하다. 그리고 돌리고자 하는 머신러닝 모델 내 호안성이라든지. 이런 것들이 MPU에서 잘 돌아간다고 하면, MPU를 선택하는 게 비용적으로 훨씬 이득이 클 거고요. 근데 새로운 AI 모델을 이것도 돌려보고 저것도 돌려보고 테스트를 많이 해야 하고. 그리고 지금 막 논문에 나오는 모델들을 새로 개발해보고 이런 걸 하려고 그러면 아무래도 다수의 사람이 사용하는 엔비디아 같은 플랫폼을 사용하는 게 그나마 삽질이나 시행착오를 줄일 수가 있으니까. 그런 부분이 진짜 더 중요하다고 하면 엔비디아 플랫폼을 선택할 것 같아요.”

-MPU가 GPU의 AI 연산의 인프라 경험들이 MPU도 어느 정도 축적이 됐을 때는, 그렇다고 한다면 대부분 다 MPU로 갈 수밖에 없는 상황이 오는 겁니까?

“이거는 제가 이렇게 저렇게 얘기한다고 해서 시장이 정말 그렇게 갈지는 모르겠는데. 엔비디아가 굉장히 특이한 회사이고요. 그러니까 원래 GPU 반도체를 만들면서 시작하는 회사이긴 하지만 쿠다(CUDA)라고 하는 소프트웨어 스펙을 만들면서 GPU로 일반적인 계산을 할 수 있게 한 게. 이미 그거를 2007~2008년에 시작했어요. 이미 15년 넘게 그거를 개발하고 갈고 닦아온 회사고.”

-사실상 20년이 넘은 거죠. 그전에 기획하고 준비한 거 생각하면.

“그렇죠. 그전부터 준비했던 기간을 생각하면 거의 20년째 일해오고 있는 회사고. 실제로 그렇다 보니까 업계에서 거의 모든 소프트웨어들이 가장 기본적으로 지원하는 플랫폼이라는 점에서 독보적인 위치를 차지하고 있고요. 그거는 누가 뭐래도 일단 현실이 그러한 상황이고. 그거를 사실 MPU나 AI 반도체 하는 회사가 단시간에 따라 잡을 수 있을 거라고 생각하지는 않지만 아까 말씀드린 것처럼 엔비디아 GPU가 공급 부족 문제도 있고. 발열이나 전력 문제도 굉장히 심각합니다. 실제로 저희 고객사 중에서도 데이터센터에 다 구축했는데 돌려보다가 그런 것 때문에 또 문제가 돼서 조정하고 이런 케이스들이 실제로 발생하거든요. 미리 다 계산을 나름대로 했음에도 불구하고. 그래서 과연 언제까지고 그렇게 갈 것인가. 그리고 AI 워크로드라는 게 약간 그런 느낌이에요. 지질학적으로 보면 캄브리아기 대폭발을 막 지나고 있는 느낌이거든요. 근데 여기에서 정리가 되겠죠. 그러면서 실제로 사람들이 돌리고 싶어 하는 AI 워크로드의 종류라는 것이 수천, 수만 가지는 아닐 거예요. 수십, 수백 가지 정도가 될 거라고 생각합니다. 어느 정도 이 시장이 정착하면, 그러면은 그것들을 엔비디아보다 훨씬 더 효율적으로 돌려줄 수 있고. 훨씬 더 저비용으로 그걸 서비스할 수 있게 해준다고 하면 저는 분명히 그 부분은 시장에서 굉장히 큰 가능성이 있다고 보고요. 저희가 그동안 관찰해 온 바로는, 그동안에는 모델을 만들고 트레이닝을 하는 그런 쪽의 시장이 컸어요. 약간 투자 개념이죠. 일단 R&D를 하자, 대기업들 같은 경우에는 선행 기술을 연구하자. 그래서 우리가 이걸로 당장 돈을 벌 수 있을지는 모르겠는데. 일단은 우리가 이런 거를 한다, 이러한 미래를 대비하고 있다는 걸 약간 대외적으로 홍보하면서 내부적으로도 이런 기술적인 역량을 키우는 단계였다면 이제는 AI를 갖고 돈을 벌어보자고 하는 단계예요. 그래서 아직까지는 챗GPT 같은 그런 서비스들이 이익을 내고 있다고 하기는 어려운 상황이지만, 그 이익을 내기 위해서 가고 있고. 그러한 방향으로 저희는 이 산업의 판도가 완전히 바뀌고 있다고 보고 있습니다. 그래서 그러한 시대로 가게 되면 결국에는 비용 절감이 중요해질 거고. 그렇다면 MPU나 AI 반도체들이 지금과는 완전히 다른 시장 구성을 할 수 있을 거라고 생각하고 있습니다.”

-혹자는 그런 LLM(Large Language Model)이 여러 가지 애플리케이션에 붙어서 그게 되면 넷플릭스보다 훨씬 더 비싼 금액을 과금할 수 있는 아주 좋은 사업 모델이 될 거라고 기대를 엄청 많이 하는 것 같더라고요.

“이미 챗GPT를 돈 내고 쓰면서 ‘이 돈이 전혀 아깝지 않다’라고 말씀하시는 분들도 제 주변에도 많이 계시고요. 미드저니(Midjourney)라든지, 달리(DALL·E)라든지. 이런 생성형 알고리즘들을 통해서 발표 자료라든지 이런 거 만드는 데도 이미 많이 활용하시는 분들도 있고. 그렇습니다.”

-그리고 당연히 말씀하셨던 것처럼 MPU가 GPU에 대항하거나 혹은 대체할 때가 되면 래블업도 할 수 있는 일이 훨씬 더 많아지는 거죠?

“저희도 결국에는 돈을 버는 시장은 인퍼런스가 될 거라고 생각하고 있습니다. 과거에는 인퍼런스라는 게 트레이닝 할 때는 우리가 엄청 비싼 좋은 GPU를 써서 빡세게 돌리고, 만들어진 모델을 서비스할 때는 그냥 CPU로 돌려도 되는 정도의 사이즈였는데. 이게 LLM이라는 게 나오면서, 이거를 서비스할 때도 엄청 연산량이 많이 들어가고, 굉장히 큰 메모리의 디바이스들이 필요하고 이런 상황이 되면서 갑자기 다들 ‘어어?’ 하는 상황이거든요. 그래서 당연히 저희랑 협력하고 있는 이런 AI 반도체 회사들도 그런 부분에 대해서 다 고민하고 준비하고 계신 걸로 알고 있고. 그러다 보니까 그런 것들이 어느 정도 가시화되는 시점이 되면 LLM 같은 것들을 어떻게 하면 남들보다 더 낮은 비용으로 서비스할 수 있을 것이냐. 이런 것들이 또 나름의 제품의 경쟁력이 될 거기 때문에 그런 상황이 오면, 저희 입장에서는 그동안에 미리 준비해놨던 협업이라든지 인티그레이션들이 크게 도움이 되지 않을까, 생각하고 있습니다.”

-세 분이서 공동 창업했다고 말씀하셨는데.

“맞습니다.”

-같이 액면가로 다 하신 겁니까? 액면가로 다 같이 투자하신 겁니까? 자본금 넣을 때 액면가로?

“그렇죠.”

-지분이 어떻게 돼 있어요?

“정확하게 말씀드릴 수는 없지만, 대표님이 최대 주주시고. 저하고 소장님이 그다음.”

-두 분이 합치면 대표님보다 많아요?

“그렇지는 않고요. 근데 3명을 합치면 저희가…”

-특별결의할 수 있는? 60%가 넘는다는 거군요. 그럼 두 번 투자 라운드 받으셨는데, 앞으로 마일스톤도 있고. 투자를 계속 자금 조달할 계획들은 쭉 서 있습니까?

“정확하게 저희가 ‘이렇게 합시다’하고 정해놓은 상태는 아니고. 주변에서 계속 문의가 오죠. 투자사들의 동료 투자사분들도 계시고 하니까. 계속 문의가 오고. 사실 이번 라운드에 들어오고 싶었지만 여러 가지 사정 때문에 안 된 케이스도 있고 하다 보니까 계속 그런 분들도 컨택을 주시고 해서, 아직 이거는 정해진 게 없으니까 말씀을 드리기는 어려운데. 추가 라운드 같은 경우는 저희가 해외 진출 준비하면서 자금을 얼마나 빨리 소진하느냐에 따라서 아마 시기적으로 보게 될 것 같아요.”

-올해는 매출이 작년보다 많이 오릅니까? 어떻습니까?

“일단 작년에 번 거 이상으로 벌었고요.”

-벌써요? 1개 분기 남았는데요?

“이미 상반기에 작년만큼 벌었고요.”

-그럼 올해 2배 정도 성장하는 겁니까?

“그렇게 대충 예상하고 있습니다.”

-실질 매출이 그 정도는 계속 굉장히 드물어요. 스타트업들 중에 매출을 안정적으로 내면서 성장하는 회사들이 드문데, 이익률은 얼마나 나옵니까?

“정확한 숫자는 모르는데.”

-그렇군요. 직원이 몇 명이시죠?

“저희 27명입니다.”

-27명이요? 주로 엔지니어들 위주로…

“거의 20명 정도는 다 엔지니어라고 보시면 됩니다.”

-회사의 장기 플랜에서 우리 언제 정도의 상장을 해야겠어. 이런 얘기들은 창업자분들끼리 얘기하십니까?

“그 얘기도 사실 저희보다는 투자사 쪽에서 먼저 물어보시죠. ‘어떻게 엑시트하실 거예요?’ 당연히 물어보시는데. 저희도 정해진 답은 없으나 고민하고 있어요. 저희가 원래 이 회사를 시작한 목적 자체가 우리가 좋아하는 일을 지속하면서 그러면서 세상에 도움이 되는 일을 하자는 모토가 있었고. 그다음에 저도 그렇고 저희 대표님도 그렇고 회사가 성장해서 생기는 이익이 있잖아요. 그게 대부분 사실 인수하게 되면, 창업자들한테 가장 많이 돌아가게 되고 그 뒤에 입사하신 분들한테는 스톡 옵션이라든지 이런 게 있다 하더라도 한계가 생기는 부분들이 있어서 이거를 IPO로 할 수 있으면 좋지 않을까 정도이고. 이거를 구체적으로 ‘합시다’한 상태는 아니고. 그리고 저희 투자사분들이 소개해 주셔서 몇몇 군데 만나서 절차적인 거에 대해서는 어떤 과정으로 이루어지는지 이런 것도 얘기를 들어보긴 했거든요. 근데 이게 쉽지 않습니다. 상장이라는 게 아무나 하는 게 아니고. 저희 회사가 돈을 벌고 있지만 훨씬 더 규모적인 것도 필요하고. 이게 시스템적으로 정비해야 하는 것도 되게 많고 해서, 이게 하고 싶다고 갑자기 내일, 모레 할 수 있는 그런 게 아니기 때문에.”

-올해 매출 중에 이미 상반기에 작년 거 넘었고, 굉장히 순항하고 있는 듯한 말씀을 하셨는데. 작년도 매출에 신규로 들어온 분들이 올해도 유지가 되면서 아까 얘기한 그 GPU 장당 라이센스 피가 들어온 것이 많은 비중이 있죠? 거기에 신규로 붙이니까 또 계속 늘어나고…

“연장해서 계속 쓰고 계시는 고객들도 계속 많이 계시고요.”

-이탈이 별로 없으면 계속 늘어날 수밖에 없는 거군요? 오늘 CTO님 말씀 고맙습니다. 글로벌한 AI 서비스 혹은 제품군 만들어서 크게 매출도 하시고 하면 좋겠습니다. 고맙습니다.

“수고하셨습니다. 감사합니다.”

정리_최홍석 PD nahongsuk@thelec.kr

Leave a Reply