AMD, 신규 AI 칩 통해 엔비디아 아성 도전한다
리사 수 CEO 'DCAITP'에서 신규 AI 반도체 발표
MI300X CNDA3 GPU 기반에 HBM3 192GB 탑재
대형 AI 모델을 위한 AMD 인스팅드 플랫폼 지원
2023-06-16 노태민 기자
미국 반도체 기업 AMD가 AI용 반도체 신제품을 공개했다. AMD 측은 올해 4분기부터 AI 전용 반도체 생산을 늘려 AI 반도체 1위 엔비디아에 도전하겠다는 포부도 밝혔다.
외신 보도를 종합하면, AMD는 지난 13일(현지시간)미국 샌프란시스코에서 열린 'AMD 데이터센터&AI 테크놀로지 프리미어(DCAITP)'에서 AI 반도체 'MI300X'를 공개했다. MI300X는 대형언어모델(LLM)과 타 AI 모델을 위해 설계된 반도체다.
MI300X는 연산에 특화된 CDNA3 GPU 기반에 24GB HBM3 모듈 8개를 탑재해 192GB 메모리를 갖췄다. 해당 제품 생산에는 TSMC 5나노미터(nm)급 공정에서 생상된 칩렛 12개가 결합됐다. 칩렛간 연결에 사용되는 '인피티니 패브릭' 대역폭은 896GB/s 수준이다. 메모리 대역폭은 5.2TB/s를 지원한다.
리사 수 AMD CEO는 'MI300X'가 챗 GPT 등 LLM을 위해 설계됐다고 설명했다. 그는 "LLM의 중심에는 GPU가 있고, GPU는 생성형 AI를 가능하게 한다"며 "AI는 회사의 가장 크고, 가장 전략적인 장기 성장의 기회"라고 말했다.
현재 AI반도체 시장은 엔비디아가 80% 이상의 높은 점유율을 보이며 사실상 점령하고 있다. 마이크로소프트, 구글, 메타 등 빅테크 기업과 여러 스타트업들이 AI반도체 개발에 나섰지만 개발 초기단계인 만큼 뚜렷한 점유율 변화는 없는 상황이다. 업계에서는 추후, 각 응용처에 적합한 ASIC(주문형 반도체) 산업의 폭발적 성장을 예상하고 있지만, 해당 시장은 제품 개발 등의 문제로 3~4년 후 개화될 것으로 예상된다.
이러한 상황에서 AMD는 신제품 출시를 통해 엔비디아의 아성에 도전한다. 리사 수 CEO는 "MI300X가 엔비디아 H100보다 2.4배 높은 메모리 밀도와 1.6배 높은 대역폭을 제공한다"고 강조했다. MI300X는 최대 192GB의 메모리를 탑재하고, 경쟁제품인 엔비디아 H100의 메모리는 120GB다.
AMD는 MI300X 성능 비교를 위해 400억개의 매개변수를 가진 모델(팔콘)을 시연하는 모습도 보였다. 오픈 AI 'GPT-3'모델의 매개변수 수는 1750억개다. 리사 수 CEO는 "현재 LLM이 점점 더 커지는 추세를 보이고 있으며, 이를 실행하기 위해서는 여러 개의 GPU가 필요하다"며 "하지만 AMD 칩은 (높은 메모리 밀도와 대역폭을 지원해) 많은 GPU가 필요하지 않다"고 설명했다.
AMD는 대형 AI 모델을 위한 AMD 인스팅드 플랫폼도 지원한다. 이 플랫폼은 8개의 MI300X를 산업 표준 기반 디자인으로 결합해 향상된 AI 추론 및 훈련을 위한 솔루션을 제공한다.
MI300X 샘플은 3분기부터 주요 고객들에게 공급될 예정이다. 업계에서는 아마존웹서비스(AWS), 메타, 마이크로소프트 등에 샘플 공급될 것으로 추측하고 있다. 본격적인 양산은 4분기 시작될 것으로 보인다. 이날 AMD는 MI300X의 구체적인 가격도 공개하지 않았다. 다만, 엔비디아 견제를 위해 H100 제품보다 낮은 가격을 책정될 것으로 보인다. CNBC는 "AMD의 AI 반도체 출시가 엔비디아 H100 가격 인하에 압박을 가할 수 있을 것"이라고 전망했다.
이날 AMD는 MI300X 외에도 'MI300A'을 공개했다. MI300A는 CDNA3 기반 GPU 3개와 GEN 4 기반 CPU 3개, 128GB HBM3가 결합된 'APU'제품이다. AMD 측은 CPU와 GPU과 같은 메모리 영역을 사용하면서 메모리 구조가 단순해져 효율을 높일 수 있었다고 설명했다. 해당 제품은 현재 주요 고객들에게 샘플을 공급하고 있다.
디일렉=노태민 기자 tmnoh@bestwatersport.com
《반도체·디스플레이·배터리·자동차전장·ICT부품 분야 전문미디어 디일렉》