<인터뷰 원문>
- 진행 : 디일렉 한주엽 대표
- 출연 : 디일렉 장경윤 기자
-챗GPT와 관련된 여러 가지 얘기를 해보도록 하겠습니다. 장경윤 기자님, 챗GPT가 대화형 AI의 대명사처럼 보입니다.
“맞습니다. 챗GPT가 지금 서비스의 대표 격이 됐는데, 쉽게 말씀드리면 AI 챗봇이라고 하면 조금 더 친숙한 용어로 들릴 수가 있을 것 같고요. 일단은 이 챗GPT는 미국의 인공지능 연구소 오픈AI가 개발한 실시간 대화형 인공지능 서비스입니다.”
-거기 마이크로소프트가 투자를 했죠.
“마이크로소프트가 2019년쯤에 투자를 했었습니다. 최근 어마어마한 성공을 지켜본 뒤에는 한 번 더 대규모의 투자를 하겠다고 천명한 상태입니다.”
-얼마나 더 하겠다고는 얘기 안 했습니까?
“대놓고 얼마라고 얘기하지는 않았는데요. 시장에서는 추정치로 얘기하기에는 2019년 10억달러를 했다면 이번에는 100억달러, 10배인 100억달러를 할 것이다는 예상을 하고 있습니다.”
-써봤어요?
“저도 써보기는 했습니다. ‘반도체 어려운 기술을 저 대신 써줄 수 있지 않을까’ 하는 기대감으로 써봤는데, 개인적으로는 조금 실망을 많이 했습니다.”
-왜요?
“제대로 된 설명을 하지 못했고요. 틀린 내용의 설명을 하기 때문에 아직 전적으로 믿기에는 조금 경계해야 될 필요가 있고 참고용으로만 볼 필요가 있다고 그렇게 느꼈습니다.”
-너무 당당하게 틀린 내용을.. 당연하듯이, 당연하게 얘기해서 조금 당황하는 경우도 있는 것 같고요. 아는 사람이 보면 ‘이거 틀린 내용인데 왜 이렇게 얘기하지?’라는 부분들이 있는데요. 그래도 일반론적인 것에 대해서 물어봤을 때는 상당한 수준이에요. 특히 제가 놀란 것은 한국어도 지원하잖아요. 제가 생각할 때는 신입 기자들보다 문장력이 좋은 것 같아요. 비문도 거의 없고 굉장히 그런 면에서는 놀랐습니다.
“정보를 검증할 필요는 있지만 생성 AI라고 저희가 부르는데, 기존의 딱딱한 답이 아니라 자기가 정말 마치 생각한 것처럼, 실시간으로 이렇게 말을 해주는 생성 AI 서비스라는 관점에서는 확실히 메리트도 있는 것 같습니다.”
-출시가 작년 정도에 됐죠?
“작년 11월이죠.”
-언론 보도에 조금씩 나오기 시작하더니 지금 완전히 이슈가 됐단 말이죠. 지금 얼마나 씁니까?
“지난해 11월 출시해서 두 달 정도 지났을 때 조사 기관에서 조사를 했을 때는 월간 활성 이용자 수가 1억 명을 넘어섰다고 얘기를 했습니다. 기존까지는 어떠한 서비스도 이러한 기록은 달성을 하지 못했었는데. 가장 빨랐던 게 중국에서 영상 플랫폼으로 하는 틱톡이 9개월 만에 1억명을 모았었는데, 이걸 두 달 만에 모았다는 것은 굉장히 큰 의미가 있는 것 같습니다.”
-지금 챗GPT가 굉장히 화제를 모으면서, 물론 아까 말씀하신 대로 오류도 있고 문제가 많이 제기되고 있어요. 그렇지만 너무 이슈가 되고 있기 때문에 마이크로소프트는 검색 엔진에 적용하려고 한다면서요.
“검색 엔진, 자기들이 개발하고 있는 Bing이라는 곳이 있으니까. 그곳에 이 GPT를 적용하겠다고 해서 투자를 했었는데요. 최근에 아까 말씀드렸듯이 더 많은 투자 예고를 하고 있습니다.”
-100억달러 정도 투자를 더 하겠다고 했다는 건데요. 검색 엔진에 이렇게 접목하기 시작하면 구글도 굉장히 위협을 느끼고 있다는 게 보이는데요. 최근에 급하게 이것저것 발표하지 않았습니까?
“구글도 챗GPT하고 라이벌 격인 AI 챗봇 스타트업한테 투자도 많이 했었습니다. 몇억달러 정도로 마이크로소프트하고 비교하면 좀 적긴 하지만, 또 자체적으로도 람다(LaMDA)라는 대규모 언어 모델을 기반으로 해서 바드(Bard)라는 서비스를 준비를 해왔었는데요. 대대적으로 홍보한 내용은 챗GPT가 2021년까지의 정보만을 학습했다고 한다면, 람다는 최신 정보까지 다 학습한 걸로, 이렇게 대대적으로 홍보를 했었는데요. 망한 얘기는 뒤에서 할 수 있을 것 같고요. 이 외에도 중국에서 바이두 쪽에서도 어니봇이라는 비슷한 서비스를 3월에 출시하겠다고 했었습니다. 당연히 국내에서는 보도가 엄청 쏟아지고 있는 것처럼 글로벌 ICT 쪽이라고 할 수 있는 네이버, 카카오나 통신사들도 다 비슷한 이름의 서비스들을 준비하고 있습니다.”
-이런 챗봇 시장 규모에 대해서 조사한 자료들이 있습니까?
“챗봇 시장 규모를 조사한 게 많지는 않지만 마켓앤마켓(MarketsandMarkets)이라는 시장조사업체 자료로 보자면, 챗봇 시장이 2020년에는 29억달러 정도에서 2026년까지는 105억달러로 연평균 23%씩 성장할 것이다는 식으로 본 시각이 있습니다.”
-숫자에 대해서 구체성을 우리가 따지기는 어려울 것 같은데 어쨌든 많이 성장할 것으로 보이네요. 지금 나와 있는 건 오픈AI도 마찬가지고, 구글도 그렇고 메타도 잠깐 공개했다가, 이상한 비속어 나오고 해서 잠깐 닫긴 했는데 메타도 준비하고 있고요. 바이두, 네이버, 카카오, K-GPT라고...
“이름은 다 GPT가 많이 들어갑니다.”
-제가 외신 보니까, 메타 쪽에 있던 기술 책임자가 인터뷰를 한 걸 보니까 없는 기술은 아니었고 다 준비했던 것인데요. 어쨌든 오픈AI 쪽에서 성공적으로 서비스를 론칭했기 때문에, 앞다퉈 많은 인터넷 서비스 기업들 검색 엔진에 붙이려고 하는 움직임을 보이고 있으니까, 투자가 많이 일어날 것이라고 추정할 수 있고요. 반도체 쪽에도 최근에 영향이 있을 거라는 보도라든지 추정들이 있는데, 이거는 뭐 때문에 그런 얘기들이 나오는 겁니까?
“아까 말씀드렸다시피 챗GPT는 GPT 정확히 말하면 3.5버전 쪽의 대규모 언어 모델을 기반으로 합니다. 대규모 언어 모델을 구현하려면 방대한 양의 데이터를 처리해야 되기 때문에 이것은 저희가 산업 쪽 애플리케이션에서 엣지, 데이터센터 이렇게 크게 나누면 무거운 데이터센터 쪽에서 처리를 해야 되는 사업입니다. 그렇다 보니까 굉장히 성능이 뛰어난 GPU 아니면 또 AI 연산에 특화됐다고 얘기를 하는 NPU 이런 반도체들이 필수적으로 쓰일 수밖에 없습니다. 그래서 이쪽 시장도 같이 성장을 할 수 있지 않을까 라는 관측이 나오는 것 같습니다.”
-오픈AI가 구축한 챗GPT에 들어가는 게 엔비디아 A100인가요?
“A100 맞습니다.”
-그거 엄청 많이 쓰였다면서요?
“거의 1만개를 활용했다고 합니다.”
-그게 카드 형태로 나와서 중간에 GPU가 박혀 있고, 사이드로 HBM이 주르륵 달린 모양이죠?
“주변에서 HBM이 서포트를 해주는 구조입니다.”
-가격이 2만~3만불 한다고 하니까욧. 1만개면 몇천억 수준의 비용이 들어간 것 같은데요. 지금 1억 명씩 이렇게 몰리고 그러니까 느려져서 투자를 더 해야 된다 이런 얘기도 있는 것 같고요.
“맞습니다. 이게 저도 쓰려고 들어갔을 때, 지금은 과부화가 걸리는 상황입니다. ”
-이상한 질문을 한 거 아닙니까?
“유료 서비스라면 바로 이용은 가능한 걸로 알고 있습니다. 아무튼 서버는 이렇게 계속, 활용도가 늘어나기도 하면 계속 늘어나야 되는 겁니다. 아까 말씀드렸다시피 다른 ICT 업체들이나 글로벌 빅테크들이 다 각자 서비스를 준비하고 있기 때문에, 이에 맞는 데이터센터 또 그에 맞는 고성능 반도체를 준비를 해야 되기 때문에 계속 반도체를 활용하려는 수요는 많을 것 같습니다.”
-근래 챗GPT 서비스 론칭 이후로 엔비디아 주가도 엄청나게 많이 올랐어요. 거의 50% 가까이 올랐던 것 같은데, 시총 기준으로는 반도체 업체 중에서는 가장 높습니다.
“TSMC를 앞섰습니다.”
-한 10년 전에는 그렇게 예측을 전혀 못 했던 것 같은데요. 역시 엔비디아는 꿈을 파는 기업인 것 같다는 생각도 듭니다. 그런 얘기를 국내 메모리 업체들도 알고 있는지, 오늘 촬영 날짜에 2월 16일인데, 2월 15일 어제 SK하이닉스도 박정호 부회장 명의로 GPT, 이런 대화형 봇이 메모리 시장에도 엄청난 수요가 예상된다고 했어요.
“킬러 애플리케이션이 될 것이라고 했습니다.”
-HBM 메모리가 있다는 것이었겠죠. 국내 AI 스타트업들도 NPU로, 기존에 GPU가 하고 있던 시장을 우리가 먹고 들어가겠다, 이런 전략을 세우고 있다면서요?
“맞습니다. 아까 말씀 주셨다시피 챗GPT가 기존에 없던 기술은 아닙니다. GPT도 3.5버전이라고 했으니까 그전부터 계속 관련된 시장이 커가려는 움직임은 있었습니다. 국내 AI 반도체 스타트업들도 이러한 흐름을 지켜봤을 거고 당연히 이러한 흐름에 맞춰서 대규모 언어 모델을 지원하는 반도체를 계속 구상을 해왔을 겁니다. 그렇기 때문에 지금 마치 챗GPT가 나오니 우리들도 하겠다는 것처럼 나오지만 실제적으로는 이전부터 반도체 칩을 계속 준비해 왔습니다. 국내 쪽에서는 저희가 AI 반도체 데이터센터 쪽을 한다고 하면 리벨리온·퓨리오사AI·사피온..이 세 기업을 가장 대표적인 기업으로 들 수 있을 것 같은데요.”
-세 기업은 공통적으로 펀딩을 엄청 많이 받은 기업들 아닙니까?
“맞습니다.”
-최근에 리벨리온, 퓨리오사의 칩 개발 동향이나 이런 것들은 어때요?
“일단 리벨리온 같은 경우에는 5나노 기반으로 칩을 발표하겠다고 했습니다.”
-로이터인가, AP였나요? 외신에 어디 나왔던 거 같은데요.
“외신 쪽에 나와서 대대적으로 얘기했었습니다.”
-해외에서 펀딩을 좀 받으려고 그러는 건가요.
“아무래도 공략하는 타깃이 해외 시장이다 보니까 글로벌을 목표로 한 것 같고요. 퓨리오사도 마찬가지로 5나노 공정 기반의 칩을 이미 개발은 완료했고 내년 1분기부터 양산을 할 것이라고 얘기를 했습니다.”
-양사가 공히 얘기하는 것은 엔비디아가 내놓은 A100 GPU 보다 전력 소모량이 더 작다, 이거 아닙니까?
“정확히 말씀을 드리면 엔비디아 A100도 있지만 H100이라고 하는 엔비디아에서 최고 성능의 칩도 있습니다. 성능 자체만으로 보자면, 사실 가격적인 측면도 있고 하다 보니 H100이 더 높을 수는 있지만 이 기업들이 강조하는 부분은 아무래도 전력 대비 성능인 것 같습니다. 데이터센터 돌리고 하는 열도 있을 거고. 지금 같은 상황에서 에너지 사용량이 굉장히 큰 이슈이기 때문에 리벨리온 같은 경우에는 엔비디아 A100하고 비교하면 전력이 20% 수준이라고 얘기했었고요. 퓨리오사AI 같은 경우에는 고성능 칩 A100도 그렇고 H100도, 비교하자면 전력 대비 성능은 우리가 2~3배 정도는 높을 것이라고 합니다.”
-칩은 그렇게 잘 만들어 놓았다고 쳐도 뭔가 그 위에서 올라가는 애플리케이션을 만들려면 소프트웨어 개발 도구라든지 생태계 이런 것도 되게 중요한 것 같은데요. 사실 제가 여러 많은 기사를 살펴봐도 그런 거에 대해서 언급을 한 보도는 별로 없더라고요. 그런 거는 어떻게 되고 있어요? 사실 소프트웨어가 되게 중요한 거 아닙니까?
“눈에 잘 보이지 않기 때문에 또 가장 중요한 요소임에도 불구하고 부각이 안 되는 것 같습니다. 칩처럼 8배 정도 우리가 뛰어나다, 이렇게 말할 수 있는 부분이 적다 보니까 어떻게 보면 중요성에 비해서 가려지는 것 같은데요. 실제로 시스템 반도체 쪽을 오랫동안 개발해 오신 분이 말씀하시기로는 ‘하드웨어 칩 개발이 2년이면 소프트웨어 개발은 8년이 걸린다’라고 하실 정도로 그랬습니다. 엔비디아가 AI 반도체 시장에서 점유율이 80% 왔다 갔다 한다는 얘기가 나올 수 있는 것도 GPU 같은 경우에 병렬 처리를 효율적으로 할 수 있는 소프트웨어 프로그램 플랫폼이라고 하는 CUDA(쿠다)가 생태계를 굉장히 오랜 시간 공고히 해왔기 때문에 이런 막강한 시장 점유율을 차지할 수 있는 걸로 보고 있어서 소프트웨어 스택이라고 하는 건 말씀해 주신 것처럼 정말 중요하고요. 다만 국내 AI 스타트업들도 이걸 모르진 않기 때문에, 굉장히 만전을 기해서 준비하지 않았을까 생각하고 있습니다.”
-준비를 안 하고 있지는 않겠죠.
“맞습니다.”
-근데 부각은 잘 안되고 있고요.
“실제로 쌓아 올린 시간이 엔비디아가 크다보니까요.”
-거의 한 10~15년 전부터 엔비디아는 CUDA 생태계 구축하려고 했어요. 각국의 이공계 계열의 이런 것도 많이, 비용도 많이 쓰고 교육도 많이 하고 했던 것 같은데요. 리벨리온, 퓨리오사, 사피온에서 그런 소프트웨어 경쟁력에 대해서는 정확하게 얘기된 게 없기 때문에 한번 그런 거에 대해서도 추가로 취재해보면 좋을 것 같네요.
“어느 정도 하고 있는데, 더 열심히 한번 해보겠습니다.”
-왜냐하면 돈을 벌어야 되는 시기가 조금씩 다가오고 있거든요. 스타트업들이 ‘돈 먹는 하마’라고 얘기하는 분들도 있어요.
“칩 개발이 아까 말씀드린 것처럼 공정이 5나노, 10나노 이 정도 왔다 갔다 하기 때문에 칩 개발에 필요한 투자금, 인력은 정말 어마어마한 걸로 알려져 있습니다.”
-그런데 이게 실제로 양산해서 고객사에 공급해서 매출을 내려면 아까 얘기한 대로 소프트웨어에 대한 부분이라든지 이런 것들이 잘 짜여져 있어야 실제로 매출을 할 수 있을 텐데요. 그게 조금 아직은 요원해 보인다는 느낌도 들고 물론 상대적으로 기간이 얼마 안 됐기 때문에요. 어떤지는 모르겠지만, 이 회사들 재무 상태는 어때요? 돈은 좀 있습니까? 아직 남아 있습니까?
“재무 상태는 아직까지는 스타트업이다 보니까, 정확한 자료 기반이 나와 있지는 않은데요. 저희가 추정적으로만 해볼 수 있는 것은 확실히 지금 시리즈B·시리즈C 단계 펀딩을 했을 때 몇천억원 규모, 이렇게 끌어오는 것도 사실은 저희가 일반적으로 이 칩 개발에 필요한 자금 자체도 몇 천억원이다를 비교해 봤으면 일단 재무제표로 볼 수 있는 그 수치 자체는 그렇게 건전한 모습은 아닐 것 같습니다.”
-그러니까 지금 돈을 계속 쓰고 있는 거죠. 올해 벤처 자금 조달하는 것이 금리도 오르고 이러면서 환경이 안 좋아졌기 때문에 자금 조달하기가 어렵다고 하는데, 어렵다기보다는 과거처럼, 작년 재작년 그 전년도처럼 굉장히 오버밸류로 높은 밸류로 투자받는 시기는 비교적 아니다고 보여집니다. 전년도, 전전년도 대비 조금 어렵지 않나 싶습니다. 자금 조달에 대해서, 과거 대비 어려워져서 조금 더 강력하게 언론에 나와서 얘기도 하고 이러는 것 같은데 자금 조달을 어떻게 하는지도 저희가 봐야 될 것 같아요. 레퍼런스를 만드는 것에 대해서 정부에서도 이런 기업들을 대상으로 도와주기 위해서 과제 같은 것도 내고 그러지 않았습니까?
“투자 부분이 얼어붙을수록 정부의 투자나 지원책이 탄탄하다면 그 부분을 보완을 할 수 있을 것 같은데요. 마침 챗GPT 시장이 떠오르면서 관련된 사업 같은 것도 많이 논의가 되고 있는 것으로 알려져 있습니다. 예를 들어서 K-Cloud 프로젝트가 최근에 본격적으로 착수가 됐는데 2030년까지 8000억원 정도 투자해서 AI 반도체 쪽 관련된 스타트업들이나 아니면 실제적으로 데이터센터 운영하고 클라우드하는 사업자까지 포괄적으로 해서 다양한 방면에서 이 사업을 키울 수 있게 지원하겠다는 계획을 다 세우고 있습니다.”
-얼마라고요?
“8000억원 정도 됩니다.”
-8000억원... 2030년까지 6~7년 정도 남았네요.
“다만 이거는 대표적으로 막 떠오르는 사업입니다. 각각 지자체별에서 AI 반도체와 함께 탑재하는 데이터센터를 구축 한다든지 이런 사업들은 다 조금씩 구상이 있는 걸로 알고 있습니다.”
-말하자면 국내 NPU 만드는 스타트업들, 밸류 높게 투자도 많이 받았던 기업들의 레퍼런스 모델을 만들어주기 위해서 하는 거네요. 그래서 소프트웨어도 거기서 한번 올려보고 이런 거를 정부 돈으로 해주겠다는 거죠?
“맞습니다.”
-이거 약간 잡음도 있는 것 같아요? 옆에 있는 기업들이 ‘이렇게 공고 낼 거면 수의계약을 하지’ ‘딱 그 몇 개 기업들 대상으로 RFP를 만들어놓고 냈는데 그럴 거면 왜 그렇게 했느냐’라는 얘기도 있는 것 같아요. 약간의 회의적인 시선, 아까 오류에 대해서 얘기도 하셨는데요. 챗GPT라는 것에 대해서, 회의적인 시선도 있죠?
“사고나 사건도 많은 것 같고요. 아까 말씀드렸듯이 구글 같은 경우에 바드라는 서비스 출시해서 대대적으로 선보였는데 ‘제임스 웹 우주 망원경’(JWST)에 대한 질문을 물었을 때, 잘못된 답을 한다든지 마이크로소프트도 ‘Bing’ 쪽에다가 챗GPT 탑재해서 시연했다가, 어느 한 업체의 재무제표를 요약해서 알려달라고 했는데요. 알고 봤더니 또 그 내용의 수치가 틀린 걸로 나와 있었습니다. 이거 외에도 사고는 정말 많습니다. 대학교 과제를 챗GPT로 해서 냈다가 걸리기도 했죠.”
-그건 약간 윤리적인 부분이죠.
“윤리적인 부분이 굉장히 중요하게 거론이 되고 있기 때문에 어떻게 보면 활성화 속도가 조금 늦춰질 수도 있는 회의적인 시선도 있는 것 같습니다.”
-명함 인식기 써봤어요?
“R사 거를 많이 쓰고 있습니다.”
-그건 인식기가 아니고, 그건 지금은 사람이 수작업하는 거잖아요. 옛날에 기계가 있었거든요. 명함을 딱 넣으면, 인식해서 이름하고 전화번호하고 이렇게 했는데요. 인식률이 99.8~99.9% 이랬거든요. 근데 확산이 안 된 게, 0.1~0.2%의 오답률 때문에 입력하고 나면 다시 찾아봐야 되니까 차라리 그냥 손으로 입력하지, 라고 했는데요. 말씀하신 R사는 0.1%를 사람이 직접 입력하게 해서 서비스가 성공적으로 됐죠. 지금은 AI 매칭 모델로 내부에서 똑같은 명함이 또 올라오면 매칭해서 그대로 텍스트 하는 식으로 고도화를 한 것 같은데 약간 이런 식으로 오답을 태연하게, 아주 맞는 것처럼 당당하게 내놓는 것도 조금은 보정이 되어야겠네요. 잠깐만 쉬다 오겠습니다.
저작권자 © 전자부품 전문 미디어 디일렉 무단전재 및 재배포 금지