초당 2TB 메모리 대역폭 지원
엔비디아가 HGX 인공지능(AI) 슈퍼컴퓨팅 플랫폼 지원 'A100 80기가바이트(GB) 그래픽처리장치(GPU)'를 17일 공개했다.
고대역폭메모리(HBM)2e 기술이 적용됐다. 초당 2테라바이트(TB) 이상의 메모리 대역폭을 제공한다. 단일 HGX 탑재 서버에서 방대한 양의 GPT-2 자연어처리 모델을 훈련시킬 수 있다. 여러 노드에서 느리게 실행될 수 있는 데이터를 줄여줘, 병렬처리 아키텍처가 필요없다. 모델 훈련 소요 시간을 절약할 수 있다.
A100은 멀티 인스턴스 GPU(MIG) 기술을 통해 최대 7개의 GPU 인스턴스로 분할한다. 각각의 인스턴스는 10GB 메모리를 갖는다. 해당 기술은 안전한 하드웨어 격리를 제공한다. 다양한 소규모 워크로드를 위해 GPU를 다양하게 활용할 수 있다.
함께 발표된 엔비디아 DGX A100과 DGX 스테이션 A100(DGX Station A100) 시스템에서 사용된다. 4분기 중에 출하될 예정이다.
브라이언 카탄자로 엔비디아 딥러닝 리서치 부문 부사장은 "A100 80GB GPU는 6개월 전에 출시된 이전 모델 보다 2배 높은 메모리를 제공한다"며 "초당 2TB의 속도로 과학, 빅데이터 과제를 해결해준다"고 말했다.
저작권자 © 전자부품 전문 미디어 디일렉 무단전재 및 재배포 금지