Skip to main content

 

<자막원문>

  • 진행 : 한주엽 디일렉 대표
  • 출연: 제홍모 스트라드비젼 CTO

-오늘 스트라드비젼의 제홍모 CTO님 모시고 자율주행차와 관련된 기술에 대해서 알아보는 시간을 갖도록 하겠습니다. 안녕하십니까.

“안녕하십니까”

-CTO라고만 적혀 있어서 명함에. 내부에서는 그냥 어떻게 부릅니까? “CTO님” 이렇게 불러요?

“아니요. 그냥 저희 내부에서는 따로 타이틀이나 직책 구분이 없기 때문에 이름을 부르고 있습니다. “홍모” 혹은 이름 약자인 “HM” 그렇게 부르고 있습니다”

-그럼 신입사원들이나 이렇게 와서 “홍모” 이렇게 부르면 좀 기분 나쁘지 않습니까?\

“아니요. 저 같은 경우는 이전 회사에서도 외국계 기업이었기 때문에 당연히 이제 따로 그런 호칭을 부르는 문화가 이미 익숙해져 있었고. 오히려 이제 최근에 입사하는 대학을 갓 졸업한 신입사원들이 오히려 저를 부를 때 좀 이야기하기가 좀 거리감이 있지 않나 오히려 저는 그게 더 걱정이고. 저는 오히려 좋습니다”

-“저기” 뭐 이렇게 얘기할 것 같은데. 그렇지 않고.

“조금 그러면 “홍모님” 정도”

-그전에 직장이라는 곳은 어디를 얘기하는 겁니까?

“인텔 코리아이고요. 한국에 있지만 모든 내부적인 부서나 그런 이제 회사 운영 방침들이 다 미국 본사와 동일하게 운영되고 있기 때문에 말씀드렸다시피 직책 간의 호칭과 그런 타이틀이 없는 그런 문화였다고 생각하시면 될 것 같습니다”

-인텔을 말씀하셨는데. 지금 인텔에 입사하기 전에는?

“올라웍스였습니다”

-올라웍스라는 회사에 계셨었죠.

“그렇습니다”

-지금 스트라드비젼이라는 회사의 주요 창업 주요 경영진이라고 해야 됩니까? 공동 창업자들은 다 그쪽 출신들입니까?

“그렇습니다. 거의 대부분 그렇다고 보시면 될 것 같습니다”

-올라웍스는 인텔에 인수가 되었잖아요. 그렇습니다. 꽤 오래전 일이죠.

“2012년도였죠”

-벌써 그게 한 10년 다 돼 가네요.

“그러네요”

-그때만 해도 한국의 IT 업계에서는 굉장히 화제였거든요. 국내 업체를 미국에 최대 반도체 회사가 인수를 했다. 이때 인수 금액 제가 200억원에서 300억원 사이 정도였던 것 같은데. 그때 그 올라웍스의 기술이 이미지를 인식 분류하는 이런 기술이었죠?

“좀 더 정확하게 말씀드리면 얼굴을 인식을 해서 예전에 구글 포토 서비스를 생각하시면 될 것 같은데 사람 얼굴에 따라서 분류를 하고 자동으로 이 태깅을 하고 이 사람이 누구다 그런 얼굴 인식 기술이라고 생각하시면 될 것 같습니다”

-애플 아이폰에서 사진 막 찍어서 보면 사람별로 이렇게 이렇게 정렬되고 하는 그런 기술을 갖고 있었던 거죠?

“그렇습니다”

-스트라드비젼은 언제 설립됐습니까?

“2014년도에 창업을 했습니다”

-2014년도. 2012년도에 인텔에 피인수되고 2년 정도 인텔에 계시다가 나오셔서 스트라드비젼을 창업을 했는데. 스트라드비젼은 뭘 하는 회사입니까?

“처음에는 저희가 이제 원래 얼굴 인식이나 얼굴 인식 외에 각종 이미지 인식 기술의 강점이 있었기 때문에 스마트폰 혹은 그 당시에 유행했던 구글 글라스가 있었지 않습니까. 구글 글래스를 활용한 물체 인식 기술회사로 저희가 창업을 하였습니다. 그런데 이제 생각나시겠지만 구글 글라스 시장이 생각보다 활황이 되지 못하고 또 이제 배터리 라이프 사이클의 한계로 인해서 이게 널리 확산이 되지 못했지 않습니까. 그래서 저희가 자동차 쪽으로 저희가 이제 우리 기술을 도입하는 방향으로 전환했다고 생각을 하시면 될 것 같습니다”

-그러니까 말하자면 처음 설립했을 때는 이런 웨어러블 기기에서 작동되는 개체 인식이라고 해야 됩니까? 우리 [아이언맨] 영화 같은 거 보면 이렇게 그런 거를 처음에 기획을 했다라는 거죠?

“그렇습니다”

-그럼 우리가 공약 시장을 자동차로 바꿔야 되겠다라고 생각한 거는 어느 정도 지난 시점인가요?

“그로부터 한 1~2년 시점에 이게 계속 글래스 쪽으로는 그렇게 이제 시장이 열리는 그런 가능성이 좀 보이지 않고 있는 상황에서 저희 이제 시리즈A에 투자하셨던 고객사들 자동차 관련된 회사들이 좀 있으셨어요. 고객사분들이 자동차에도 카메라가 들어가는 추세이고 좀 더 깊게 말씀드리겠지만 자율주행이나 그렇게 넘어가게 되면서 인식 기술들이 더 많이 들어가게 될 텐데 너희의 기술로 이제 못 하지 않을 것 같다. 그래서 이제 관심을 가지게 되었고 그렇게 이제 시작을 하게 되었습니다. 그래서 본격적인 개발은 2016년도부터라고 시작을 하시면 될 것 같다고 생각하시면 될 것 같습니다”

-CTO님 차 뭐 타세요? 거기도 지금 반자율주행 기능 들어가 있죠?

“들어가 있습니다”

-옵션으로 넣으셨습니까? 기본으로 다 탑재돼 있나요?

“풀옵션으로 선택을 했습니다. 왜냐하면 아무래도 이쪽 분야로 일을 하다 보니까. 저도 소비자로서 경험을 한번 해보고 싶은 부분이 있고 불편한 부분 또 개선돼야 할 상황을 저희 회사 기술에 반영을 해야 하기 때문에 풀옵션으로 선택을 해야 했습니다”

-저도 전에 국내 차를 타보면 고속도로 갈 때는 되게 편하더라고요.

“그렇습니다”

-눌러놓으면 제가 탔던 차는 시내에서는 멈췄을 때는 출발은 안 했는데. 고속도로에서는 차선이 하고 앞차하고 거리도 자기가 이제 브레이크도 밟았다 가속도 했다가 하는 정도까지는 다 됐었었는데. 생각보다 이게 되게 편한데 그게 구현되기 위해서는 어떤 과정을 거칩니까?

“일단 기본적으로 사람이 운전하는 그 과정을 차 혹은 기계가 할 수 있게 만들어준다고 생각을 하시면 될 것 같아요. 사람도 시각 정보를 통해서 앞차와의 거리가 대충 어느 정도 거리냐, 끼어드는 차선은 없냐, 내가 지금 차선을 제대로 유지하고 있느냐를 바탕으로 판단을 합니다. 시각 정보를 판단을 하고 그 이후에 이제 브레이크를 밟는다든지 핸들링을 움직인다든지 그런 액션을 취하게 되겠죠. 이 과정들 중에서 가장 선행돼야 되는 게 말씀드렸듯이 눈으로부터 시각 정보를 인식하는 부분들이 있지 않겠습니까 그러니까 이 부분을 저희가 이제 담당하는 거고요. 그 이후에 사람 손으로 핸들링 한다든지 브레이킹을 받는 기술은 제어라고 해서 그런 부분은 여전히 자동차 회사에서 담당하고 있는 부분이라고 생각하시면 될 것 같습니다”

-앞차나 차선. 이거는 지금 뭐로 봅니까. 카메라로 봅니까?

“그렇습니다. 카메라와 그리고 현재 양산되어 있는 기술들 중에 가장 널리 쓰이고 있는 기술은 또 레이더를 활용한 기술들이 있습니다. 왜냐하면 레이더는 거리를 인식하는 데는 아주 잘 특화된 센서이기 때문입니다”

-그러면 카메라로 차선을 인식하고 앞차하고 거리는 레이더로 하고.

“그렇습니다”

-더 가까운. 우리가 후진할 때 보면 “삐삐” 이렇게 울리는 그건 초음파 센서인가요?

“주차장 환경에서는 초음파 센서를 쓰기도 하고요. 최근에는 그 부분도 근거리 레이다 많이 채용을 하고 있는 추세입니다”

-근거리 레이더가 더 낫습니까. 초음파보다?

“이제 아마 각도 분해능이라고 하죠. 초음파 센서는 이제 이렇게 몇도 단위로 분해하는 것들이 좀 넓기 때문에. 그거보다는 좀 약간 각도 분해능이 높은 근거리 레이더 센서를 채용하기도 하고요. 제가 이제 저희 회사가 또 카메라 위주로 하니까 카메라 위주로. 카메라 센서로만 말씀드렸던 거리 인식과 후측방에서 경고 기능을 구현을 하는 것도 최근의 추세이긴 합니다”

-지금 도로에서 돌아다니고 있는 차들 있잖아요? 스마트 크루즈 컨트롤(SCC)이라는 “어댑티브 크로즈 컨트롤”이라고 부르기도 하고 그런 차이는 카메라가 인식하는 어떤 사물의 인식 정도는 어디까지입니까? 차선 정도만 인식해요. 어떻게 해요?

“그것은 이 회사마다 좀 다른데요. 이제 아주 일반인들에게도 잘 알려져 있는 모빌아이라는 회사의 예를 들자면”

-거기도 인텔 자회사 아닙니까?

“그렇죠. 차선뿐만 아니라 앞에 가는 차량 그리고 보행자까지 인식이 가능합니다”

-차량과 보행자까지.

“옵션에 따라서 다르긴 한데 표지판과 교통 신호등도 인식을 할 수 있습니다”

-교통 신호는 예를 들어서 80km 이하 이러면 갑자기 가다가 자기가 알아서 멈추고 조금 속도를 멈추고 이런 것도 가능하다는 거죠?

“물론 이제 연동이 가능하죠”

-지금 스트라드비젼이 갖고 있는 비전 기술도 그렇게 사물을 인식하는 기술을 갖고 있는 거죠?

“그렇습니다”

-모빌아이 말씀하셨는데. 거기랑 비교했을 때 뭐가 다릅니까?

“일단 모빌아이는 기본적으로 일반적인 소프트웨어의 SDK처럼 그렇게 공개하는 소프트웨어가 아니라 완전히 카메라부터 모든 SoC까지 하나의 박스처럼 제공을 하기 때문에 모빌아이의 세부적인 기술 자체를 확인할 수 있는 방법은 없습니다. 그러나 단지 저희 고객사들, 평가를 하는 기술을 평가하는 저희 고객사들로부터 간접적으로 들었을 때 물체를 인식하는 카메라 영상을 받아서 물체를 인식하고 이 물체가 영상 내에서 어디 있는지 알아야 되지 않습니까. 그 기술은 유사하거나 또 특정 환경에서는 우리가 좀 낫다 모르겠습니다. 저희 고객들이 저희 편이어서 그런 있겠습니다만 그렇고 그러나 아무래도 모빌아이 같은 경우에는 업력이 상당히 길기도 하고 단순하게 영상에서 인식하는 기술 플러스 실제로 첨단운전자보조시스템(ADAS)의 기능을 구현하기 위해서는 또 후처리로 해야 되는 여러 가지 처리들이 있지 않겠습니까. 그런 부분들은 아무래도 업력이 긴 모빌아이가 좀 우세한 것 같다 그런 평가를 받고 있습니다”

-영상으로 들어온 거는 그게 초당 몇 프레임 정도가 들어옵니까?

“거의 대부분 초당 30프레임 정도입니다”

-그러면 지금 스트라드비젼의 그 기술은 초당 30장의 사진이 들어오는 것들을 다 분석해서 저건 사람 저건 오토바이, 차, 차선, 고양이, 표지판 이런 거 다 인식할 수 있는 거예요?

“그렇습니다”

-그건 어떤 원리예요?

“일단은 저희가 이제 기본적으로 쓰는 알고리즘은 이제 널리 알려진 딥러닝이라고 불리는 AI 기술의 한 가지를 저희가 사용을 하고 있습니다. 그런데 예전에 딥러닝 기술이 도입되기 전에는 차량을 인식하기 위해서 차량 디텍터, 사람을 인식하기 위해는 보행자 디텍터. 그렇게 개별적으로 여러 개의 인식 모듈들이 쭉 이제 개별적으로 만들어졌었어야 됐습니다. 근데 저희는 딥러닝 기술을 채용하면서 하나의 단일 네트워크 내에서 사람을 인식하기 위한 부분 그리고 차량을 인식하는 부분 그리고 차선을 인식하는 부분을 끝단에서 추가로 주렁주렁 달리듯이 하여서 사물 인식을 하나의 네트워크에서 구현할 수 있게 만들었고 또 이제 저희가 딥러닝 기술이 원래 계산량이 엄청나게 많이 있기 때문에 차량용 반도체에서는 좀 들어가기 힘듭니다. 그것을 경량화하는 시도를 저희가 좀 많이 했었습니다”

-예를 들어서 이미지를 분석하는 어떤 이런 딥러닝 기술, 여러 가지 기술들이 있는데 예전에 무슨 알파고나 이런 걸 보면 회사 뒷단에 서버가 엄청나게 큰 서버가 전기도 많이 먹고 하는 게 있는데. 그걸 경량화했다라는 얘기인가요?

“그렇습니다”

-어떻게 경량화했습니까? 어느 정도로 경량화를 했는지?

“그걸 수치적으로 말씀드리는 게 좀 도움이 될 것 같아요. 이미 딥러닝 기술들은 구글이든 페이스북이든 퍼블릭을 통해서 널리 공개된 딥러닝 네트워크 구조들이 많이 있습니다. 그런 네트워크 대비 일단 네트워크 사이즈로는 100분의 1 이상 정도에, 100분의 1보다 더 작은 100배 더 작은 사이즈이고. 실행 속도 기준으로 봤을 때는 100배에서 200배 정도 빠르게 저희가 구현을 했다고 이해하시면 될 것 같습니다”

-알고리즘을 처음부터 다시 다 만든 겁니까?

“그렇습니다. 저희는 기존에 있는 퍼블릭 네트워크를 활용하지 않고 처음부터 저희가 ‘프롬 더 스크래치’로 한 땀 한 땀 만들었다고 생각하시면 될 것 같습니다”

-보통은 그런 걸 어떤 학교나 이런 데서 연구용으로 쓸 때는 그런 공개되어 있는 걸 갖고 와서 쓰죠. 근데 그걸 다 다시 만들었다라는 말씀이신가요?

“그렇죠. 저희도 이제 처음 출발은 공개된 것에서 당연히 출발을 했죠. 그런데 이제 저희가 판단하기를 도저히 이거는 그냥 SoC가 더 좋아지는 걸 기다릴 수밖에 없다. 그런데 저희는 그렇게 학교나 연구소처럼 마냥 기다리면 는 것이 아니라 빨리 사업화를 해야 되는 조직이기 때문에 빠르게 우리가 그냥 더 경량화를 하자라고 결정을 해서 기술 개발에 투입을 한 거죠”

-머신러닝이랑 딥러닝은 무슨 차이가 있습니까?

“일반적으로 딥러닝도 결국은 사실은 머신러닝의 한 분야라고 생각을 하시면 되는데요. 굳이 최근에 구분을 하는 이유는 고전적인 머신러닝 방법은 그냥 단순하게 데이터로부터 그 데이터 입력 세트가 있다면 그 출력된 y에 대해서 그거를 관계를 나타내는 의미에 함수가 있을 수 있고 블랙박스 같은 그런 기계가 있을 텐데. 이걸 학습하기 위한 일련의 과정들을 일컬었다면 딥러닝은 그중에서도 ‘’딥뉴럴네트워크’라는 기술이 있어 신경망 기술이라는 부분이 있는데 그 신경망 기술을 활용하는 머신러닝 기법을 딥러닝이라고 이해를 하시면 될 것 같습니다”

-그러면 지금 아까 기존에 예를 들어서 지금 회사에서 소개 자료도 제가 봤는데. 어디보다 몇 배 이상 더 빠르게 이제 검출하는 게 나와 있는데 그 비교한 제품은 어디 거예요?

“그거 같은 경우에는 그냥 퍼블릭 네트워크죠”

-퍼블릭 네트워크 대비.

“왜냐하면 경쟁사들은 그걸 오픈하지 않기 때문에 알 방법이 없습니다”

-그렇군요. 지금 이게 소프트웨어로 제공이 되는 것이죠.

“그렇습니다”

-그럼 누구한테 제공을 합니까?

“일단은 가장 많은 고객들은, 저희의 주 고객은 자동차 회사의 1차 협력사 티어1이 될 거고”

-보쉬, 콘티넨탈 같은 이런 류의 회사를 말씀하시는 거죠.

“그렇습니다. 그리고 최근에 올해 5월에 저희가 계약한 경우에는 저희도 이제 처음 계약을 하게 된 건데 자동차 OEM에 독일 OEM 중 한 곳에 직접 계약을 했습니다”

-직계약을 했습니까?

“그렇습니다”

-이게 ADAS를 구현하기 위해서는 ADAS용 SoC가 필요하지 않습니까?

“그렇습니다”

-그러면 이 소프트웨어는 어딘가에 저장 장치에 들어가서 이 SoC랑 맞물려갖고 이렇게 움직이는 겁니까?

“그렇죠. 기본적으로 자동차에 들어가게 되는 SoC에는 저희 같은 인식 소프트웨어 말고도 제동이나 아니면 조향 같은 그런 소프트웨어들이 실행 파일 형태로 들어가야 되지 않겠습니까? 저희 이제 소프트웨어도 그와 같이 실행 파일 형태이고 또 저희가 딥뉴럴네트워크 기반이기 때문에 그런 네트워크를 설명할 수 있는, 네트워크 구조를 포함하는 그런 이제 파라미터라고 하는데 그 파라미터가 같이 하나의 실행 파일 형태로 제공되게 되어 있습니다”

-그건 어디 들어갑니까. 차 안 어디에?

“SoC에”

-SoC 안에 아예 들어갑니까?

“그렇습니다”

-그러면 아까 티어1에 주든 아니면 OEM에 주든 간에 그 사람들은 자기네들이 넣는 ADAS용 SoC하고 스트라드비젼의 이름이 ‘SVNet’이라고 하던데. 이걸 안에 넣는 작업들을 그 사람들이 하는 거예요?

“그렇습니다. 그런 이제 인티그레이션 작업이라고 하는데요. 그 작업은 보통 이제 티어1 혹은 저희 고객들이 담당하게 되어 있습니다”

-그러면 지금 시중에 반도체 회사들이 공급하는 칩들하고의 호환성 이런 것도 좀 생각을 하고 이렇게 개발을 하셔야 되는 겁니까?

“일단 저희 회사의 큰 장점은 뭐냐 하면 저희 ‘SVNet’이 특정한 SoC에만 이렇게 특화되게 설계된 게 아니라 상당히 유연하게 모든 종류의 SoC에 무관하게 포팅이 되는 거 구조로 되어 있습니다. 그런데 이제 포팅을 할 때 가장 핵심은 뭐냐 하면 각 SoC마다 최근에 이제 이 딥뉴럴네트워크 계산을 위해서 여러 형태의 가속기가 있지 않겠습니까? 속도를 빠르게 하는. 이게 이제 회사마다 그리고 SoC마다 그 방식들이 조금씩 틀리거든요. 근데 거기에 맞게 저희는 적용이 가능하게 기본적으로 네트워크 구조가 설계되어 있고 또 우리가 양산 과제를 우리가 따게 되면 그 타겟 SoC에 맞게 약간 커스터마이즈하는 과정은 필요할 수밖에 없습니다. 그 기간을 보통 저희가 한 3개월에서 6개월 정도 잡고 있거든요. 그 기간 내에서 우리가 만들어내기 때문에 아마 질문하시는 그 내용에 답변을 직접 드리자면 저희는 SoC와 무관하게 어떤 SoC와 무관하게 최적의 성능을 낼 수 있는 딥뉴럴네트워크 기반의 인식 소프트웨어를 제공할 수 있다로 정리할 수 있을 것 같습니다”

-과거에 보도나 이런 거 나온 걸 오시기 전에 제가 찾아보니까 텍사스인스트루먼트라든지 르네사스라든지 이런 회사들하고 같이 협업을 많이 하시던데. 그런 거를 사전에 미리 맞춰놓는 거예요?

“그렇습니다. 왜냐하면 SoC 회사들 같은 경우에도 자사의 딥뉴럴네트워크 가속기가 충분히 ADAS나 자율주행의 가치가 있다는 것을 보이기 위해서는 저희 같은 소프트웨어 회사에 일반인들에게는 좀 잘 공개되지 않는 그런 기능들을 소개를 할 때가 있습니다. 그러니까 바로 이 특정한 API, 컴퓨터 프로그래밍에서 이제 API(응용 프로그램 프로그래밍 인터페이스)라고 표현을 하는데요. API를 소개를 한다든지 아니면 기능을 저희한테 이야기를 해 주고 또 필요한 어떤 기능들이 있다면 저희한테 물어봐서 반영을 할 수 있게 하는 형태로 협업이 진행되는 것이 일반적이라고 생각하시면 될 것 같습니다”

-지금 차량용으로 ADAS용 SoC를 내놓는 회사들 보니까 엔비디아, 퀄컴, 삼성전자, 르네사스, 텍사스인스트루먼트 이런 회사들 다 있는데 그쪽이랑 다 협력관계 지금 맺고 계신 거죠?

“그렇습니다”

-그걸 하는 데는 크게 어려웠다거나 장벽 같은 게 혹시 있었습니까?

“일단은 이건 아무래도 제가 개인적인 생각이긴 한데요. 그 SoC 회사들이 오토모티브 회사, 오토모티브 산업 그리고 ADAS 혹은 자율주행에 대해서 얼마나 많은 관심을 가지고 투자를 하느냐에 따라서 좀 다른 것 같기는 하거든요. 좀 적극적으로 좀 나오는 회사들은 우리한테 더 많은 정보를 좀 줄 수 있고. 이 비즈니스가, 이 섹터가 아직까지는 그 회사에서 아직 메인 비즈니스가 아니거나 아니면 그쪽에서도 아직 좀 준비가 충분하지 않을 경우에는 협업이 원활하지 않는 그런 부분들이 있습니다. 가장 대표적인 예를 들자면 최근 자동차 업계에서는 당연히 자율주행으로 넘어가면 안전이 가장 크게 부각되지 않습니까? 그러면 이제 이것과 관련된 국제 표준들이 있어요. ‘Functional Safety(기능안전)’라든지 아니면 소프트웨어를 개발함에 있어서 ‘ASPICE(Automotive SPICE)’라든지 그런 과정들이 있는데 SoC 회사 자체들이 이제 그런 부분들에 대해서 좀 준비가 미흡하거나 혹은 방향성을 제대로 찾지 못한다면 저희와 협업하는 데 좀 어려운 문제들이 있는 것 같고요. 이미 여러 번 양산 경험을 가지고 있고 그런 프로세스가 충분한 회사들은 또 저희와 협업할 때 좀 더 원활하게 진행이 되는 것 같습니다”

-제가 아는 어떤 회사들 같은 경우에는 자동차용 SoC도 만들면서 자회사를 만들어서 지금 하고 계신 이런 사물을 인식할 수 있는 비전 기술도 직접 개발하는 경우들도 있고 하던데. 아까 조금 더 가볍고 검색 속도가 빠르다라고 이렇게 했는데. 그런 경쟁사, 아까 모빌아이 같은 회사들 말고 크고 작은 경쟁사들이 많이 있지 않습니까?

“그렇습니다”

-거기서 지금 스트라드비젼이 뭔가 성과를 올릴 수 있었던 것은 성능이 다 뛰어나기 때문입니까?

“저는 일단 그렇다고 생각을 하고 있고요. 기본적으로 하나를 더 굳이 추가하자면 일단은 그냥 단순하게 성능만 올리기 위해서라면 지금 나와 있는 이제 그냥 딥러닝 기술로 그냥 데이터를 막 모아서 성능을 올릴 수가 있겠죠. 그런데 이제 한 가지 굳이 더 추가를 하자면 진짜 자동차에 실제로 포팅을 하여 그리고 필드 상에서 검증하는 그런 과정. 그 말인즉슨 진짜 필드에서 검증하는 과정이 추가가 되어야 된다고 생각합니다. 저희는 이제 실험실 레벨에서 딥러닝 인식을 개발을 했을 뿐만 아니라 실제로 자동차에 포팅을 해서 실제로 실주행을 통해서 저희 기술을 검증을 하고 문제가 없는지 그런 것들을 충분히 고려를 해서 계속 지속적으로 반영을 했기 때문에 저희 고객 입장에서는 그냥 딥러닝이라는 기술이 가져다주는 그 가치뿐만 아니라 충분히 보장된 안정성 측면에서 저희 기술이 높게 평가를 받았다고 생각하고 있습니다”

-양산 차에 언제 처음 넣었습니까?

“2019년인데요”

-2019년. 2년 전, 3년 전입니까?

“그렇습니다. 물론 이제 중국 시장이기는 합니다만 일단은 실제로 지금 도로 위를 달리고 있고요”

-지금 양산 실적이 9개 자동차 OEM에 50개 이상의 차량에 탑재되어 있는데.

“자동차 모델입니다”

-대부분 중국인가요?

“그렇지는 않습니다. 저희가 독일 OEM도 있고요. 타겟이 독일도 있고”

-독일은 다 고급차들만 만들지 않습니까. 포르쉐 같은.

“아니요. 그정도 급은 아니고. 물론 고급 브랜드이긴 한데요. 약간 좀 더 낮은 엔트리급의 모델에도 들어갈 수 있게”

-그러면 지금 중국과 독일. 국내에는 아직?

“국내에는 아직 없는 것으로 알고 있습니다”

-아직은 없는 거고. 그렇게 이제 실적을 계속 쌓아가다 보면 그게 레퍼런스가 돼서 확대될 수 있는 어떤 기회가 많아지는 거군요.

“그렇습니다”

-지금 직원이 몇 명정도인가요?

“저희가 매주 이제 직원들이 들어와서 정확한 카운팅이 안 되는데요. 제가 조금 전에 그렇지 않아도 인사 담당자한테 물어봤어요. 170명을 넘은 것 같더라고요”

-200명 가까이 됐네요. 매출은 2019년도부터 공급을 하기 시작했으면 매출은 꽤 이제 조금씩 나오고 있겠네요.

“매출은 이제 생기고 있습니다”

-CTO님한테 재무적인 걸 물어보기가.

“다음에 저희 CFO(최고재무관리자)나 COO(최고운영책임자)를 모셔서 한번 좀 매출에 대해서 구체적인 숫자와 관련된 것들은 그분들에게 여쭤보셔야 될 것 같습니다”

-투자는 2019년 12월에 시리즈B 까지 받으시는 거고 누적으로는 한 4,100만 달러 정도 받으셨고 거기에 이제 LG전자 같은 회사 현대자동차그룹 이런 쪽도 이제 많이 들어와 있다. 투자로 들어와 있다라는 거죠. 지금 레벨 2가 회사의 어떤 주된 매출원이지 않습니까? 앞으로 어떻게 갑니까?

“일단은 저희가 항상 시장 분석 리포트를 기준으로 저희 사업을 보통 타겟팅을 합니다. 물론 이제 기술적인 측면에서는 몇 년 내에 자율주행이 어떻게 온다 그렇게 하지만 그거는 기술에 대한 전망이고 실제로 시장의 수요에 대한 전망은 여전히 이제 2027년~2028년까지도 꾸준히 레벨2의 점유율은 높을 것이고요. 물론 이제 레벨3와 레벨4에 대해서도 조금씩 점유율이 생기고 있겠죠. 저희는 언급하신 것처럼 이 레벨2 관련된 ADAS가 아마 가장 큰 매출원이 될 거고요. 그뿐만 아니라 저희가 실제로 양산 프로젝트 중에 내년에 레벨4의 자율주행 셔틀버스입니다만 또 일정 비율이 있기는 합니다. 그런데 이제 대수가 이제 레벨2 ADAS에 비하면 상당히 작은 포션이기는 한데. 저는 이제 점점 그 포션이 늘어날 것이라고 생각을 하고요. 시장에서도 OEM에서도 좀 더 레벨3 이상의 자율주행 기능을 탑재한 차량들의 비중을 높일 것으로 예상을 하고 있습니다”

-레벨2와 레벨3는 가장 큰 차이가 뭡니까?

“일단은 사람이 손을 대느냐 안 대느냐 정도의 차이인 것 같습니다”

-레벨3가 되면 사람이 손을 아예 안 돼도 그냥 알아서 차선을 맞춰서 가는 건가요?

“레벨3부터 이제 그런 거죠. 레벨3부터”

-레벨2는 핸들에 손 안 올리고 있으면 손을 대라고 자꾸 얘기하지 않습니까.

“알람을 주는 거죠”

-그게 레벨2까지는 그렇다. 레벨3는 손을 안 대도 그냥 알아서 가는 겁니까?

“물론 레벨3도 전방 주시의 의무는 가지고 있습니다. 왜냐하면 사고가 났을 때 책임은 여전히 운전자라고 보시면 되고”

-레벨4는요?

“레벨4부터는 이제 그냥 기술의 분류에 의하면 사람이 아예 관여를 하지 않아도 된다. 그렇게 이제 이야기를 하고 있습니다.

-아 그래요? 지금은 어쨌든 한 10초에서 20초 정도 핸들에 손을 안 대고 있으면 그건 제조사마다 조금씩 시간의 차이는 있긴 한데. “핸들에 손을 대”라고 하는데. 레벨3가 되면 손을 안 대고 있어도 전방 주시만 하고 있으면 된다. 그렇게 되면 지금 비전 솔루션은 어떻게 바뀌게 됩니까?

“제가 생각하기에는 인식하는 것 자체는 큰 차이는 없을 것 같아요. 단지 이제 인식을 해야 되는 범위나 최대 검출 거리라고 하죠. 검출 거리가 좀 더 달라져야 될 것 같아요. 예를 들면 이제 ADAS와 관련된 가장 널리 들어가 있는 기능들은 아까 언급하셨던 크루즈를 위해서 오토 브레이킹하는 점도 있겠죠. 그것 같은 경우에는 내가 주행하고 있는 자차선에 바로 앞에 있는 차량 그리고 뛰어드는 사람에 대해서만 사실은 집중을 해서 잘 인식을 하면 되지 않겠습니까. 그런데 이제 레벨3부터는 이제 자율적으로 조향이 이루어지기 때문에 차선 변경이나 또 이제 좌우 회전이 되어야 되겠죠 그리고 고속도로 진·출입이 진행이 돼야 하니까. 일단 아무래도 인식해야 되는 범위가 자차선 옆 차선뿐만 아니라 모든 차선에 걸쳐서 인식을 해야 될 거고 검출하는 거리도 우리가 이제 고속도로 같은 경우에는 시속 100km 이상 달려야 되기 때문에 지금 현재 100m~200m의 인식 거리였다면 그게 최대 인식거리였다면 200m~300m까지 인식을 해야 하는 그런 요청 사항들이 추가가 될 것 같습니다”

-지금 비전 솔루션은요. 왜 우리가 자동차에 레이더 달리고 카메라 달리고 센서 달리고 하는데. 라이다 이런 것도 나오고 이러면 뭔가 융합해서 이렇게 좀 쓸 수도 있는 겁니까?

“그렇습니다. 그래서 ‘센서 퓨전(Sensor Fusion)’이라고 이야기를 하죠. 센서 퓨전에 부정적인 반응을 보이는 대표적인 회사가 테슬라이고요”

-거기는 카메라 위주로 하니까요.

“그렇죠. 카메라만 하자. “라이다는 멍청한 짓이다” 그런 식으로 이야기를 하는데요. 제 관점에서는 센서 퓨전이 필요한 가장 큰 이유 중의 하나가 물론 이제 레이더, 라이다, 카메라 각자 센서별로 앞으로 더 발전을 하겠죠. 더 인식을 다 할 수 있고 카메라도 라이다가 인식할 수 있는 거리를 인식할 수 있고 라이다도 최근에 나오는 라이다 같은 경우에는 차선을 인식할 수 있게 개선이 되고 있거든요. 다 발전하고 있습니다. 이렇게 개별적인 센서로도 확장이 될 수 있겠지만. 우리가 이제 항상 저희가 안전이라는 측면에서 생각한다면 이 기술에서는 ‘리던던시(Redundancy)’라고 하거든요. 혹시나 이제 카메라가 잘못 판단했거나 카메라가 고장 났을 때 레이더나 라이더가 커버를 해줘야 된다. 이런 관점에서는 저는 센서 퓨전은 앞으로도 계속 이루어져야 된다고 생각을 하고 있습니다”

-카메라는 지금 전방은 하나만 달려 있습니까?

“지금 현재 전방 카메라 하나가 있는 모델도 있고요. 모빌아이 같은 경우에는 최근에 ‘EyeQ4’ 이상에서는 3개가 달려 있어서 이게 거리와 검출된 거리와 또 옆으로도 범위가 포함되어야 되기 때문에 3개를 활용하는 겁니다”

-렌즈의 구성을 다르게 해서 멀리도 볼 수 있고 이런 식에.

“화각을 좀 다르게”

-화각을 다르게 하기도 해서 그렇게 되는군요. 지금 스트라드비젼은 장기 로드맵이 있습니까? 회사의 기술 로드맵이라든지 재무 로드맵이라든지. 5년 뒤 혹은 10년 뒤에는 어떤 그림을 그리고 있습니까?

“일단은 사실은 그런 비슷한 질문들을 투자사들로부터 IR을 할 때 많이 이제 받고 있는 것으로 제가 알고 있습니다. 일단은 저희가 당장 이제 캐시카우로는 오토모티브 시장에 저희가 집중을 할 예정입니다. 물론 저희가 처음 창업할 때도 그랬고. 세상에 카메라로 인식하는 모든 것을 인식할 수 있다고 생각했기 때문에. 초창기에 로드맵들에는 “우리가 드론에도 넣겠다 그리고 CCTV에도 넣겠다. 서빌리언스도 하겠다” 그런 식으로 출발을 했었는데. 최근에 비즈니스 로드맵은 좀 더 현실적으로 일단 오토모티브에 집중을 해서 아까 질문 주셨던 레벨2와 레벨3의 합장이 첫 번째 과정이고요. 최근에 이제 자동차 업체에서는 또 큰 다른 사업적인 변화가 이게 그냥 단순하게 움직이는 자동차뿐만 아니라 모빌리티와 또 연관이 많이 되지 않습니까 그래서 모빌리티에는 자동차뿐만 아니라 배달용 로봇이 될 수도 있고 또 개인화 이동 장치에도 다 들어가게 될 텐데. 그 모든 것에 저희 인식 기술이 저는 들어갈 수 있을 것으로 생각을 합니다. 그래서 지금은 오토모티브에서 이 한 섹터를 우리가 바라보고 있지만 이게 나중에 스마트 모빌리티 좀 더 나아가서는 우리가 창업 초기에 생각했던 세상의 모든 사물을 인식할 수 있는 인식 기술로 발전하게 될 것 같습니다”

-한편으로는 말씀 들어보니까 무섭네요. 다 인식을 한다고 하니까. 혹시 뭐 이렇게 R&D 하시다가. 뭐랄까요 장벽에 막히거나 이런 것도 있어요?

“기술적으로 보면 항상 이제 우리가 하나를 넘었으면 장벽 하나를 넘었으면 또 새로운 챌린지가 있고 그런 것들은 당연히 계속 있고요. 그런 것들은 계속 이제 연구 개발을 통해서 헤쳐나가야 될 것 같고. 일단 저희같이 작은 스타트업이 회사 규모가 작다 보니까 생기는 그런 제안들을 예를 들자면 일단 데이터 확보 같은 것들이 좀 약간”

-데이터 확보.

“그렇죠. 왜냐하면 이제 테슬라나 모빌아이 같은 경우에는 800만 명의 드라이버가 하루에 몇십만 마일씩 한다고 하는데 저희는 이제 그렇게 할 수 없는 상황이고요.

-제가 궁금한 건 지금 도로에 돌아다니는 데이터들 있잖아요. 다 어디 중앙으로 모입니까?

“테슬라는 그렇게 할 수 있는 구조입니다”

-아 그래요? 지금 예를 들어서 스트라드비젼은?

“저희 같은 경우에는 일단 양산을 하기 전에 일단 고객사와 그리고 저희 자체적으로 이렇게 데이터 수집 차량을 꾸며서 돌아다니면서 수집을 하고 있는 상황입니다”

-그렇게 수집하고 있고 뭔가 원격으로 여기서 업그레이드가 된다거나.

“아직까지는 저희가 적용되지는 않고 있습니다”

-지금 회사의 직원들 170명 정도 중에 개발 인력은 한 어느 정도나 됩니까?

“저희가 90% 이상이 거의 개발자, 엔지니어입니다”

-90% 이상. 스타트업이라고 말씀하셨는데 사실은 그 정도 규모라고 하면 스타트업이라고 얘기하기에는, 스타트업이긴 하지만 상당히 큰 규모의 스타트업이라고 얘기해야 됩니까?

“그렇죠. 분류상으로는 이미 저희는 중소기업이긴 하죠”

-CTO님 한 번씩 나와주셔서 자율주행과 관련된 트렌드나 회사의 기술에 대한 소개나 이렇게 종종 해주셨으면 좋겠습니다.

“감사합니다”

-고맙습니다.

Leave a Reply