"독일·중국 자동차회사 9곳에 자율주행 센서퓨전 공급…레벨4 기술도 구현"

제홍모 스트라드비젼 최고기술책임자(CTO) 인터뷰 "AI 기반 센서퓨전 솔루션 'SVNet'으로 레벨4 성능 구현" "테슬라는 '멍청한 짓'이라지만, 안전 위해 센서퓨전은 필수"

2021-08-26     양태훈 기자
제홍모
센서퓨전 분야 강소기업인 스트라드비젼 제홍모 최고기술책임자(CTO)는 <디일렉>과의 인터뷰를 통해 "스트라드비젼의 기술은 고객사로부터 모발아이와 유사한 수준이거나 특정 환경에서는 더 낫다고 평가받는다"며 "앞으로 자동차 뿐 아니라 배달용 로봇, 개인이동장치 등에도 우리의 인식기술이 모두 들어갈 수 있을 것"이라고 26일 밝혔다. 그는 "스트라드비젼의 센서퓨전 솔루션 'SVNet'은 현재 중국, 독일 9개 자동차OEM의 50여개 모델에 쓰이고 있다"며 "향후 국내 자동차 OEM에도 공급할 수 있을 것"이라고 자신했다. 스트라드비젼은 2014년 창업한 스타트업이다. 제 CTO를 비롯한 김준환 최고경영자(CEO), 전봉진 연구소장 등 국내 증강현실 벤처 신화를 만든 '올라웍스' 출신이 의기투합해 창업했다. 이 회사는 첨단운전자보조시스템(ADAS)과 자율주행차의 핵심 솔루션인 인공지능 기반의 객체인식 소프트웨어 'SVNet'을 개발했다. 이는 카메라로 주변 상황을 인식하는 기술로, 스트라드비젼은 최대 레벨 4 수준의 완전 자율주행까지 지원할 수 있는 높은 수준의 카메라 인식 기술을 보유하고 있다. 제 CTO는 "스트라드비젼의 SVNet은 모든 종류의 칩셋에서 최적의 성능을 낼 수 있는 딥뉴럴네트워크(DNN)를 제공한다"며 "크기는 기존 네트워크보다 100분의 1 수준으로 작지만, 성능은 100~200배 빠르다"고 설명했다.  다음은 제홍모 CTO와의 인터뷰 일문일답.

(▶인터뷰 진행 : 한주엽 디일렉 대표 / 정리 : 양태훈 기자)

Q. 스트라드비젼의 주요 경영진이 올라웍스 출신으로 알고 있습니다. 인텔에 피인수되고 2년 정도 인텔에 있다가 2014년에 창업을 했는데 스트라드비젼은 뭘 하는 회사입니까? "(올라웍스의 기술은) 구글 포토 서비스처럼 사람 얼굴에 따라서 분류를 하고, 자동으로 인식하는 기술이었습니다. 처음에는 얼굴 인식 외에 각종 이미지 인식 기술의 강점이 있었기 때문에 스마트폰 혹은 구글 글라스를 활용한 물체 인식 기술회사로 창업을 했습니다. 그런데 구글 글래스 시장이 생각보다 활황이 되지 못하고, 배터리 라이프 사이클의 한계로 널리 확산이 되지 못해 자동차 쪽으로 방향을 전환했습니다."  Q. 본격적으로 스트라드비젼의 공략 시장을 자동차로 바꿔야 하겠다고 생각한 시점은 언제입니까? "(창업 이후) 1~2년 시점에 글래스 쪽으로 시장이 열릴 가능성이 보이지 않는 상황에서, 시리즈 A 투자를 했던 고객사 중 자동차 관련된 회사들에서 차에도 카메라가 들어가는 추세이고, 자율주행으로 넘어가면 인식 기술들이 더 많이 들어가게 될 것이라는 이야기를 듣고 시작하게 되었습니다. 본격적인 개발은 2016년도부터라고 생각하시면 될 것 같습니다." Q. 반자율주행 기능이 들어간 차량은 이미 출시가 되었는데요. 어떤 과정을 거쳐 구현되는 겁니까? "일단 기본적으로 사람이 운전하는 그 과정을 차 혹은 기계가 할 수 있게 만들어준다고 생각을 하시면 됩니다. 사람도 시각 정보를 통해서 앞차와의 거리가 대충 어느 정도 거리냐, 끼어드는 차선은 없냐, 내가 지금 차선을 제대로 유지하고 있느냐를 바탕으로 판단을 합니다. 시각 정보를 판단하고 그 이후에 이제 브레이크를 밟는다든지 핸들링을 움직인다든지 그런 액션을 취하게 되겠죠. 이 과정 중에서 가장 선행돼야 하는 게 눈으로부터 시각 정보를 인식하는 부분들입니다. 그러니까 이 부분을 저희가 담당하는 거고요. 그 이후에 사람 손으로 핸들링한다든지 브레이킹을 받는 기술은 제어라고 해서 그런 부분은 여전히 자동차 회사에서 담당하고 있는 부분입니다." Q. 카메라가 인식하는 사물의 인식 정도는 어느 정도입니까. 차선 정도만 인식하는 걸까요? "회사마다 좀 다른데요. 모빌아이라는 회사의 예를 들자면 차선뿐만 아니라 앞에 가는 차량 그리고 보행자까지 인식이 가능합니다. 옵션에 따라서 다르긴 한데 표지판과 교통 신호등도 인식할 수 있습니다." Q. 스트라드비젼 기술과 모빌아이 기술은 뭐가 다릅니까? "모빌아이는 기본적으로 일반적인 소프트웨어의 SDK처럼 그렇게 공개하는 소프트웨어가 아니라 완전히 카메라부터 모든 SoC까지 하나의 박스처럼 제공을 하기 때문에 모빌아이의 세부적인 기술 자체를 확인할 수 있는 방법은 없습니다. 그러나 저희 고객사들로부터 간접적으로 들었을 때 물체를 인식하는 카메라 영상을 받아서 물체를 인식하고 이 물체가 영상 내에서 어디 있는지 알아야 되지 않습니까. 그 기술은 유사하거나 또 특정 환경에서는 우리가 좀 낫다고 합니다. 그러나 모빌아이 같은 경우에는 업력이 상당히 길기도 하고, 단순하게 영상에서 인식하는 기술 플러스 실제로 첨단운전자보조시스템(ADAS)의 기능을 구현하기 위해서는 후처리로 해야 하는 여러 가지 처리들이 있지 않겠습니까. 그런 부분들은 아무래도 업력이 긴 모빌아이가 좀 우세한 것 같다는 평가를 받고 있습니다." Q. 스트라드비젼의 기술은 초당 30장의 사진이 들어오는 것들을 다 분석해서 전부 인식할 수 있다는데요. 어떤 원리입니까? "저희가 이제 기본적으로 쓰는 알고리즘은 널리 알려진 딥러닝이라고 불리는 인공지능(AI) 기술의 한 가지를 사용하고 있습니다. 그런데 예전에 딥러닝 기술이 도입되기 전에는 차량을 인식하기 위해서 차량 디텍터, 사람을 인식하기 위해는 보행자 디텍터 그렇게 개별적으로 여러 개의 인식 모듈들이 개별적으로 만들어졌었습니다. 근데 저희는 딥러닝 기술을 채용하면서 하나의 단일 네트워크 내에서 사람을 인식하기 위한 부분, 그리고 차량을 인식하는 부분 그리고 차선을 인식하는 부분을 끝단에 추가해 사물 인식을 하나의 네트워크에서 구현할 수 있게 만들었습니다. 딥러닝 기술이 원래 계산량이 엄청나게 많이 있기 때문에 차량용 반도체에서는 들어가기 힘듭니다. 저희는 그것을 경량화하는 시도를 좀 많이 했습니다." Q. 알파고나 이런 걸 보면 엄청나게 큰 서버가 막대한 전기를 소비하는데 그걸 경량화했다는 얘기인가요? "그걸 수치적으로 말씀드리는 게 도움이 될 것 같습니다. 이미 딥러닝 기술들은 구글이든 페이스북이든 퍼블릭을 통해서 널리 공개된 딥러닝 네트워크 구조들이 많이 있습니다. 그런 네트워크 대비 일단 네트워크 사이즈로는 100분의 1 이상 정도에, 그러니까 100배 더 작은 사이즈입니다. 실행 속도 기준으로 봤을 때는 100배에서 200배 정도 빠르게 저희가 구현을 했다고 이해하시면 될 것 같습니다." Q. 알고리즘은 전부 다 처음부터 개발한 겁니까? "그렇습니다. 기존에 있는 퍼블릭 네트워크를 활용하지 않고 처음부터 저희가 프롬 더 스크래치로 한 땀 한 땀 만들었다고 생각하시면 될 것 같습니다. 저희도 처음 출발은 공개된 것에서 출발했죠. 그런데 저희가 판단하기에 도저히 그냥 SoC가 더 좋아지는 걸 기다릴 수밖에 없었습니다. 저희는 학교나 연구소처럼 마냥 기다리는 게 아니라 빨리 사업화를 해야 하는 조직이기 때문에 우리가 그냥 더 경량화를 하자라고 결정을 해서 기술 개발에 투입한 것이죠." Q. 스트라드비젼의 기술은 누구에게 제공됩니까? "일단은 가장 많은 고객은, 자동차 회사의 1차 협력사 티어1입니다. 그리고 올해 5월에 저희가 계약한 경우에는 처음으로 독일 자동차OEM 중 한 곳과도 계약을 맺었습니다." Q. ADAS를 구현하기 위해서는 ADAS용 SoC가 필요하지 않습니까? 그러면 스트라드비젼의 소프트웨어는 저장 장치에 들어가서 SoC랑 맞물려 움직이는 겁니까? "그렇죠. 기본적으로 자동차에 들어가게 되는 SoC는 저희 같은 인식 소프트웨어 말고도 제동이나 아니면 조향 같은 그런 소프트웨어들이 실행 파일 형태로 들어가야 하지 않겠습니까? 저희 이제 소프트웨어도 그와 같이 실행 파일 형태이고 또 저희가 딥뉴럴네트워크 기반이기 때문에 그런 네트워크를 설명할 수 있는, 네트워크 구조를 포함하는 그런 이제 파라미터라고 하는데 그 파라미터가 같이 하나의 실행 파일 형태로 제공되게 되어 있습니다” Q. 반도체 회사들이 공급하는 칩셋들과의 호환성을 생각해서 개발을 해야 할 것 같은데요. "저희 회사의 큰 장점은 저희 SVNet이 특정한 SoC에만 이렇게 특화되게 설계된 게 아니라는 것입니다. 상당히 유연하게 모든 종류의 SoC에 무관하게 포팅이 되는 거 구조로 되어 있습니다. 포팅을 할 때 가장 핵심은 각 SoC마다 딥뉴럴네트워크 계산을 위해서 여러 형태의 가속기가 있지 않습니까. 이게 회사마다 다르고, SoC마다 방식들이 조금씩 다른데 저희는 거기에 맞게 적용할 수 있게 네트워크 구조가 설계되어 있습니다. 저희는 SoC와 무관하게 어떤 SoC와 무관하게 최적의 성능을 낼 수 있는 딥뉴럴네트워크 기반의 인식 소프트웨어를 제공할 수 있다고 정리할 수 있을 것 같습니다." Q. 텍사스인스트루먼트, 르네사스 등의 회사들과 협업을 많이 하는 것 같습니다. "SoC 회사들 같은 경우, 자사의 딥뉴럴네트워크 가속기가 충분히 ADAS나 자율주행의 가치가 있다는 것을 보이기 위해서는 저희 같은 소프트웨어 회사에 일반인들에게는 좀 잘 공개되지 않는 그런 기능들을 소개할 때가 있습니다. 그러니까 바로 이 특정한 API, 컴퓨터 프로그래밍에서 API(응용 프로그램 프로그래밍 인터페이스)라고 표현을 하는데요. API를 소개한다든지 아니면 기능을 저희한테 이야기를 해주고 또 필요한 어떤 기능들이 있다면 저희한테 물어봐서 반영을 할 수 있게 하는 형태로 협업이 진행되는 것이 일반적이라고 생각하시면 될 것 같습니다." Q. 반도체 회사들과 협업하는 데 어려움은 없으십니까? "개인적인 생각이지만, SoC 회사들이 오토모티브 회사, 오토모티브 산업 그리고 ADAS 혹은 자율주행에 대해서 얼마나 많은 관심을 가지고 투자를 하느냐에 따라서 좀 다른 것 같습니다. 좀 적극적으로 나오는 회사들은 우리한테 더 많은 정보를 좀 줄 수 있고, 아직 좀 준비가 충분하지 않을 때는 협업이 원활하지 않은 부분들이 있습니다. 가장 대표적인 예를 들자면 최근 자동차 업계에서는 당연히 자율주행으로 넘어가면 안전이 가장 크게 부각되지 않습니까. 그러면 이제 이것과 관련된 국제 표준들이 있습니다. 예컨대 'Functional Safety(기능 안전)'이나 소프트웨어를 개발하면서 'ASPICE(Automotive SPICE)' 등이 있습니다. SoC 회사 자체들이 이제 그런 부분들에 대해서 좀 준비가 미흡하거나 혹은 방향성을 제대로 찾지 못한다면, 협업하는 데 좀 어려운 문제들이 있는 것 같습니다." Q. 스트라드비젼이 성과를 올릴 수 있었던 것은 성능이 다 뛰어나기 때문으로 보면 됩니까? "기본적으로 하나를 더 굳이 추가하자면 일단은 단순하게 성능만 올리기 위해서라면 지금 나와 있는 딥러닝 기술로 데이터를 막 모아서 성능을 올릴 수가 있겠죠. 그런데 이제 한 가지 굳이 더 추가하자면 진짜 자동차에 실제로 포팅을 해, 그리고 필드 상에서 검증하는 그런 과정, 진짜 필드에서 검증하는 과정이 추가가 되어야 된다고 생각합니다. 저희는 이제 실험실 레벨에서 딥러닝 인식을 개발했을 뿐만 아니라 실제로 자동차에 포팅을 해서 실제로 실주행을 통해서 저희 기술을 검증하고 문제가 없는지 그런 것들을 충분히 고려해서 계속 지속해서 반영했기 때문에 저희 고객 입장에서는 그냥 딥러닝이라는 기술이 가져다주는 그 가치뿐만 아니라 충분히 보장된 안정성 측면에서 저희 기술이 높게 평가를 받았다고 생각하고 있습니다." Q. 2019년 12월에  시리즈B 투자까지 받았습니다. 누적 투자액이 4100억원이고, 투자자 중에는 LG전자와 현대차그룹도 있는 것으로 알고 있습니다. 지금까지는 레벨2가 회사의 주된 매출원이었는데요. 앞으로는 어떻게 됩니까? "일단 시장의 수요에 대한 전망은 여전히 2027년~2028년까지도 꾸준히 레벨2의 점유율은 높을 것이고요. 물론 레벨3와 레벨4에 대해서도 조금씩 점유율이 생길 것입니다. 저희는 레벨2 관련된 ADAS가 가장 큰 매출원이지만, 양산 프로젝트 중에 내년에 레벨4의 자율주행 셔틀버스도 있습니다. 대수로 보면 레벨2 ADAS에 비하면 상당히 작은 포션이기는 한지만, 앞으로 점점 그 포션이 늘어나리라 생각을 합니다. 시장에서도 OEM에서도 좀 더 레벨3 이상의 자율주행 기능을 탑재한 차량들의 비중을 높일 것으로 예상을 하고 있습니다." Q. 레벨3가 되면 손을 안 대고 있어도 전방 주시만 하고 있으면 된다고 합니다. 그렇게 되면 지금 비전 솔루션은 어떻게 바뀌게 됩니까? "제가 생각하기에는 인식하는 것 자체는 큰 차이는 없을 것 같습니다. 단지 인식을 해야 하는 범위나 최대 검출 거리라고 하죠. 검출 거리가 좀 더 달라져야 할 것 같아요. 예를 들면 ADAS와 관련된 가장 널리 들어가 있는 기능들은 크루즈를 위해서 오토 브레이킹하는 점도 있겠죠. 그것 같은 경우에는 내가 주행하고 있는 자차선에 바로 앞에 있는 차량 그리고 뛰어드는 사람에 대해서만 사실은 집중해서 잘 인식을 하면 되지 않겠습니까. 그런데 레벨3부터는 이제 자율적으로 조향이 이루어지기 때문에 차선 변경이나 또 이제 좌우 회전이 되어야 되겠죠 그리고 고속도로 진·출입이 진행이 돼야 하니까. 아무래도 인식해야 하는 범위가 자차선 옆 차선뿐만 아니라 모든 차선에 걸쳐서 인식해야 할 거고, 검출하는 거리도 우리가 이제 고속도로 같은 경우에는 시속 100km 이상 달려야 하므로 지금 현재 100m~200m의 인식 거리였다면 그게 최대 인식거리였다면 200m~300m까지 인식을 해야 하는 그런 요청 사항들이 추가될 것 같습니다." Q. 비전 솔루션이라는 게 카메라와 레이더, 라이다 등을 뭔가 융합해서 사용하는 겁니까? "그렇습니다. 그래서 '센서 퓨전(Sensor Fusion)'이라고 이야기를 하죠. 센서 퓨전에 부정적인 반응을 보이는 대표적인 회사가 테슬라이고요. '카메라만 하자. 라이다는 멍청한 짓이다'는 식으로 이야기를 하는데요. 제 관점에서는 센서 퓨전이 필요한 가장 큰 이유 중의 하나가 물론 레이더, 라이다, 카메라 각자 센서별로 앞으로 더 발전하겠죠. 더 인식을 다 할 수 있고 카메라도 라이다가 인식할 수 있는 거리를 인식할 수 있고 라이다도 최근에 나오는 라이다 같은 경우에는 차선을 인식할 수 있게 개선이 되고 있거든요. 다 발전하고 있습니다. 이렇게 개별적인 센서로도 확장이 될 수 있겠지만, 우리가 이제 항상 저희가 안전이라는 측면에서 생각한다면 혹시나 이제 카메라가 잘못 판단했거나 카메라가 고장 났을 때 레이더나 라이더가 커버를 해줘야 된다. 이런 관점에서는 저는 센서 퓨전은 앞으로도 계속 이루어져야 된다고 생각을 하고 있습니다." Q. 스트라드비젼은 장기 로드맵이 있습니까? 회사의 기술 로드맵이라든지 재무 로드맵이나 5년 뒤 혹은 10년 뒤에는 어떤 그림을 그리고 있습니까? "일단은 저희가 당장 캐시카우로는 오토모티브 시장에 저희가 집중을 할 예정입니다. 물론 저희가 처음 창업할 때부터 세상에 카메라로 인식하는 모든 것을 인식할 수 있다고 생각했지만, 최근에는 비즈니스 로드맵을 좀 더 현실적으로 일단 오토모티브에 집중할 생각입니다. 최근 자동차 업체에서는 또 큰 다른 사업적인 변화가 있습니다. 단순하게 움직이는 자동차뿐만 아니라 모빌리티와 또 연관이 많이 되지 않습니까. 그래서 모빌리티에는 자동차뿐만 아니라 배달용 로봇이 될 수도 있고, 또 개인화 이동 장치에도 다 들어가게 될 텐데요. 그 모든 것에 저희 인식 기술이 저는 들어갈 수 있을 것으로 생각합니다. 지금은 오토모티브에서 한 섹터를 우리가 바라보고 있지만, 나중에는 스마트 모빌리티, 좀 더 나아가서는 우리가 창업 초기에 생각했던 세상의 모든 사물을 인식할 수 있는 인식 기술로 발전하게 될 것 같습니다." Q. 연구·개발 등에 있어 장벽은 없습니까? "기술적으로 항상 우리가 하나를 넘었으면, 또 새로운 챌린지가 나타나는 그런 것들은 당연히 계속 있고요. 회사 규모가 작다 보니까 생기는 그런 것들, 예를 들면 일단 데이터 확보 같은 것들이 좀 약간 어렸습니다. 왜냐하면, 테슬라나 모빌아이 같은 경우에는 800만 명의 드라이버가 하루에 몇십만 마일씩 한다고 하는데 저희는 이제 그렇게 할 수 없는 상황입니다."