[컨콜] 엔비디아 "미국의 중국 수출규제, 단기 영향은 없지만, 장기적으론 악재"
2024 2분기 실적 컨퍼런스콜 주요 질의응답
2023-08-24 이민조 기자
Q. 소형 추론모델과 대형 추론모델 등 규모별 인공지능 학습 모델 시장에 대한 전망.
A. 대규모 학습 모델은 구조화되지 않은 언어도 이해하는 능력을 가졌다. 스스로 인간 언어의 구조를 학습해서 암호화하거나 압축했다. 소규모 모델은 교수-학생 모델이라고 부르는데, 이는 대규모 모델로부터 파생되거나 분류된 것이다. 앞으로는 대규모 학습 모델들이 특별히 학습시키지 않은 부분에서도 응용하고 질문하는 능력을 가질 것이다.Q. 3분기 데이터센터 부문에 대한 전망을 120억 달러 이상으로 확신하는 이유는.
A. 전세계적으로 약 1조 달러 규모의 데이터센터가 있다. 전세계 데이터 센터들이 지금 가속 컴퓨팅과 생성형 AI에 관심을 두고 있다. 그래서 이것이 장기적인 산업 전환의 출발점이라고 생각한다.Q. 데이터센터 매출 비중 가운데 HGX시스템과 H100 비중이 각각 얼마안가.
A. 일단 이번 분기에 HGX는 데이터 센터 성장 및 매출에 중요한 부분을 차지했다. DGX도 중요하다. 이 시스템들이 모두 성장하고 있으며 수익 증가의 원동력이 되고 있다. GPU에서는 L40S가 새로 출시될 것이다. 또한 H100을 단순히 칩이라고 볼 수 있겠지만, H100은 3만5000개의 부품과 거의 1조개의 트랜지스터를 합친 것이다. 이것을 만들기 위해서는 슈퍼컴퓨터가 필요하고 매우 집약적으로 제조해야 한다. 마치 팹에서 나오는 칩처럼 부르지만, 매우 중요한 시스템 구성요소다. ※ HGX, DGX = 엔비디아의 기업용 AI 컴퓨팅 구동 시스템. ※ L40S = 엔비디아가 최근 선보인 새 GPU.Q. 엔비디아의 플랫폼이 성장하게 된 이유는 뭐라 보는가.
A.엔비디아가 여기까지 오는데 20년이 걸렸다. 회사의 몇 가지 요소 덕인 것 같다. 첫번째는 우리의 컴퓨터 시스템의 구성이다. 데이터 처리에서부터 훈련, 전처리, 추론, 후처리 등이 유연하고 다양하다. 두번째는 설치 기반이 탄탄하다. 많은 소프트웨어 개발자들이 우리 플랫폼에 오는 이유는 그들이 와서 비즈니스를 구축하거나 투자에 대한 수익을 얻을 수도 있도록 대규모 설치 기반을 추구하기 때문이다. 세번째는 도달 범위다. 오늘날 우리는 공공 클라우드에 있고 많은 고객과 개발자가 우리 플랫폼을 사용해서 그들에게 다가갈 수 있다. 그래서 플랫폼을 잘 지키기 위해 추천 시스템이나 검색 또는 데이터 처리 엔진 등을 개발 훈련, 운영 등 추론까지 이르기 위해 모든 과정을 수행하고 있다. 마지막으로는 우리 기업의 규모와 속도 덕분이다. 소프웨어와 하드웨어, 컴퓨팅, 다양한 사용 모델, 환경 등 복잡한데 엔지니어링 속도를 가속화하며 지냈다. 우리는 약 6개월마다 새로운 구성과 제품을 출시하고 있어서 이런 것들이 우리 회사를 특별하게 만드는 것 같다.Q. L40S에 대해 자세히 설명해달라.
A. H100은 대규모 언어모델을 위해 설계됐고 큰 모델과 많은 데이터 처리에 적합하다. L40S는 그런 포지션이 아니다. 이것은 모델을 미세 조정할 수 있다게 장점이다. 사전에 훈련된 모델을 미세 조정하면 작업 수행에 있어서 좋은 결과를 얻을 수 있다. 또한 전세계 하이퍼스케일 데이터센터에 쉽게 설치가 가능하다.Q. 내년 수요에 대해 어떻게 생각하는지. 언제쯤 수요-공급이 충족될 것으로 보는가.
A. 내년에도 수요가 많을 것이다. 이미 선도적인 CSP(클라우드 서비스 업체) 및 데이터 센터 구축업체와 함께 차세대 인프라를 계획하고 있다. 수요에 있어서, 전 세계가 가속 컴퓨팅으로 전환되고 있다는 점을 봐야 한다. 기업이 효율성을 향상시키는 좋은 방법은 상황을 인식하고 예산을 가속 컴퓨팅과 AI에 투자하는 것이다. 아마 CPU의 작업 부하가 줄어들어 데이터 센터의 성능이 향상될 것이고 새로운 컴퓨팅 플랫폼으로 예상한다.Q. 향후 데이터센터 비즈니스의 지속 성장이 가능한가.
A. 앞으로 데이터 센터에 투자하는 좋은 방법은 자본을 생성형 AI 및 가속 컴퓨팅에 투자하는 것이다. 생성형 AI는 고객에게 제공할 서비스를 생성하는 방법을 제공하며 가속화된 컴퓨터는 비용과 전력 절약에 도움이 된다. 또한, 우리는 개발자, 애플리케이션 등과 배포할 준비가 되었다. 제 생각엔 세계의 데이터 센터들은 이것이 자본을 효율적으로 쓰는 좋은 방법이라고 인지하고 있다. 우리는 VM웨어와 CPU의 가상화 GPU 분산 컴퓨팅 기능을 위해 협력해왔다. 함께 작업한 생성형 AI는 이제 VM웨어에서 제공할 예정이다. 새로운 상품코드는 ‘VMware Private AI Foundation’이라고 부를 것이다. 분기별로 무슨 일이 일어날지 정확히 예측하긴 어렵지만 추세는 좋다고 생각한다.Q. GPU의 할당분배와 우선순위 처리가 가능한지.
A. GPU의 할당분배와 우선순위는 가능하지 않다. 고객이 어떤 네트워킹을 사용할지 직접 결정할 수 있도록 했고, 그 이유는 InfiniBand(큰 규모의 처리기와 입출력 장치 간의 구조)의 효율성이 중요하기 때문이다. 알다시피 대규모 언어 모델 또는 AI 시스템 전용에 Infiniband는 좋은 선택이지만 다른 데이터 센터 관리 방식이 필요하다면 새로운 방법이 있다. Spectrum X라는 것이 발표되었는데 Infiniband의 일부 기능이 있고, BlueField 3가 필요하며 스펙트럼 2,3의 이더넷 스위치를 지원하고 잇다. BlueField 3는 네트워크 내 컴퓨팅 개념이며 우리의 소중한 프로젝트다.Q. 소프트웨어 사업: 현재 가동률과 중요성에 대해
A. 소프트웨어라는 것은 데이터센터 제품, GPU, 시스템, 게임, 자동차 등 거의 모든 제품의 일부다. 독립형 실행형 소프트웨어도 존재하고 이는 계속 성장하고 있다. 우리는 소프트웨어, 서비스, 업그레이드를 모두 제공하며 있으며 연간 수억 달러의 수익을 얻는다. 앞으로 DGX와 같이 우리가 판매하는 제품에 NVIDIA AI Enterprise가 포함될 것으로 기대하고, CSP 마켓에서도 많은 가용성을 보게 될 것으로 성장이 기대된다.디일렉=이민조 기자 lmj2@bestwatersport.com
《반도체·디스플레이·배터리·자동차전장·ICT부품 분야 전문미디어 디일렉》