네이버, AI 반도체 솔루션 통해 하이퍼클로바X 상용화 준비한다

권세중 네이버클라우드 리더 인터뷰 삼성전자와 지난해 12월부터 AI 반도체 솔루션 개발 협력

2023-06-29     노태민 기자
네이버가 자체 AI 서비스 '하이퍼클로바X' 론칭을 앞두고 있다. 네이버는 하이퍼클로바X 상용화를 위해 지난 2년간 다양한 노력을 해왔다. 삼성전자와 AI 반도체 솔루션 개발, AI모델 경량화 등이다. 네이버는 두 축을 통해 AI 서비스 성능 효율화에 나선다는 방침이다.  권세중 네이버클라우드 리더는 최근 《디일렉》과 인터뷰를 갖고 네이버의 AI 반도체 솔루션과 AI 모델 경량화에 대해 소개했다. 권세중 리더는 "네이버는 몇 년 전부터 대규모 언어모델(LLM) 시대가 온다고 믿었고, 에너지·공간 효율을 높이기 위해 노력하고 있다"며 "(이러한 솔루션 개발을 위해선) AI모델 회사와 시스템 회사가 같이 고민하는 것이 필요하다"고 말했다.  네이버는 현재 삼성전자와 초거대 AI모델을 위한 경량화 솔루션 기술검증과 개발에 착수한 상태다.  두 회사는 지난해 12월부터 AI 반도체 솔루션 개발 협력을 시작했다. 삼성전자는 스마트 SSD와 고성능 메모리 연산 기능을 내장한 HBM-프로세싱인메모리(PIM), 프로세싱니어메모리(PNM), 컴퓨트익스프레스링크(CXL) 등 기술을 보유하고 있다. 
네이버는 '하이퍼클로바'를 운용하면서 학습이 완료된 초거대 AI 모델에서 불필요한 파라미터를 제거하거나, 파라미터 간 가중치를 단순하게 조정하는 경량화 알고리즘을 차세대 반도체 솔루션에 최적화해 초거대 AI의 성능과 효율을 극대화한다. 권세중 리더는 "엔비디아의 AI 반도체 A100 연산 속도가 300테라플롭스(TFlops/s가) 넘는데, 메모리 병목현상 등의 문제로 효율성 극대화에 어려움을 겪고 있다"며 "(AI 기업들은) HBM 탑재를 통해 메모리 병목현상을 해결할지 초거대 AI의 모델 사이즈를 줄일지 고민하고 있는 상황이다"고 설명했다. 이러한 한계를 극복하기 위해 네이버는 AI 모델 사이즈를 줄이는 방법을 선택했다. 네이버가 AI 모델 경량화를 택한 이유는 크게 두 가지다. 첫 번째는 경제적 이유다. AI 모델 경량화를 통해 에너지와 공간 효율을 개선할 수 있다. 또, 모델 사이즈를 줄이는 것만으로도 서비스 속도 개선도 가능하다. 두 번째는 HBM의 스케일업 한계다. HBM의 수율 및 파워 문제 등이 있어 데이터센터 기업 입장에서는 대체재를 물색할 필요가 있다는 이유에서다.  권세중 리더는 "AI 서비스 효율화를 위해 다양한 노력을 기울이고 있다"며 "크게 AI 반도체 솔루션 개발과 경량화 기술이 네이버 AI 서비스의 양 날개"라고 강조했다. 한편, 네이버와 삼성전자가 개발하고 있는 AI 반도체 솔루션은 올해 하반기 중 공개될 것으로 보인다. 솔루션은 초거대 언어모델의 연산·학습·추론 기능을 모두 갖추고, GPU 대비 10분의 1 크기 모델 사이즈, 4배 이상의 전력효율성을 목표하고 있는 것으로 알려졌다. 

디일렉=노태민 기자 tmnoh@bestwatersport.com
《반도체·디스플레이·배터리·자동차전장·ICT부품 분야 전문미디어 디일렉》