NVIDIA 최신 아키텍쳐인 블랙웰 (Blackwell)이 사용 되었으며, 기존에 많이 사용 되었던 #L40S GPU 대비 LLM 추론 처리량은 최대 5대, 유전체 염기서열 분석 약 7배, 텍스트-비디오 생성은 3.3배, 랜더링 속도 2배 이상이 각각 향상 되었다고 엔비디아는 밝히고 있습니다.
기존에 A100의 수급 문제로 인하여 가성비 좋은 L40S가 시장에서 큰 인기를 얻었고, 현재도 많은 고객사에서 찾고 있는 상황 입니다.
L40S도 이제 출시된지 좀 된 모델이어서 더욱 가격대 성능비가 좋은 뛰어난 모델로서 새롭게 출시된 RTX PRO 6000이 바톤을 넘겨 받을 수 있을지 본 포스팅을 통해 알아 보도록 하겠습니다.
NVIDIA RTX PRO 시리즈 라인업
참고용으로 이번에 출시된 RTX PRO 시리즈의 라인업을 안내해 드리오니 참고 하시기 바랍니다.
RTX PRO 6000은 블랙웰 서버 에디션 / 블랙웰 워크스테이션 에디션 / 맥스큐 워크스테이션 이렇게 총 3가지 버젼으로 출시 되었습니다.
* NVIDIA RTX Pro 시리즈 라인업
- 데이터 센터용 GPU : RTX PRO 6000 블랙웰 서버 에디션
- 데스크탑(워크스테이션)용 GPU : RTX PRO 6000 블랙웰 워크스테이션 에디션,
NVIDIA RTX PRO™ Blackwell 제품군을 공개합니다! 해당 제품군은 획기적인 가속 컴퓨팅, AI 추론, 레이 트레이싱, 뉴럴 렌더링 기술을 통해 AI, 기술, 창작, 엔지니어링, 디자인 분야의 전문가를 위한 워크플로우를 새롭게 정의합니다.
RTX PRO Blackwell 제품군은 에이전틱 AI, 시뮬레이션, 확장 현실, 3D 디자인, 복잡한 시각 효과부터 자율 로봇, 차량, 스마트 공간을 구동하는 물리 AI 개발까지의 영역을 아우릅니다. 또한, 업계 전반의 전문가들에게 데스크톱, 모바일 워크스테이션, 데이터센터 GPU를 통해 최고급 최신 컴퓨팅 성능, 메모리 용량, 데이터 처리량을 제공하죠.
새로운 라인업은 다음과 같습니다.
데이터센터 GPU: NVIDIA RTX PRO 6000 Blackwell Server Edition
데스크톱 GPU: NVIDIA RTX PRO 6000 Blackwell Workstation Edition, NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition, NVIDIA RTX PRO 5000 Blackwell, NVIDIA RTX PRO 4500 Blackwell, NVIDIA RTX PRO 4000 Blackwell
랩톱 GPU: NVIDIA RTX PRO 5000 Blackwell, NVIDIA RTX PRO 4000 Blackwell, NVIDIA RTX PRO 3000 Blackwell, NVIDIA RTX PRO 2000 Blackwell, NVIDIA RTX PRO 1000 Blackwell, NVIDIA RTX PRO 500 Blackwell
NVIDIA 엔터프라이즈 플랫폼 담당 부사장 밥 피트(Bob Pette)는 “비주얼 컴퓨팅과 시뮬레이션의 한계를 뛰어넘고 업계의 어려운 과제를 해결하기 위해 소프트웨어 개발자, 데이터 사이언티스트, 아티스트, 디자이너, 엔지니어는 강력한 AI와 그래픽 성능이 필요합니다. NVIDIA Blackwell을 워크스테이션과 서버에 도입하면 생산성, 성능, 속도를 새로운 차원으로 끌어올릴 수 있으며, AI 추론 제공, 데이터 사이언스, 시각화, 콘텐츠 제작을 가속화할 수 있습니다”고 말했습니다.
워크스테이션과 데이터센터에 NVIDIA Blackwell 기술 도입
RTX PRO Blackwell GPU는 탁월한 성능과 효율성, 확장성을 제공해 생성형 AI, 에이전틱 AI(Agentic AI), 물리 AI의 잠재력을 끌어냅니다.
NVIDIA RTX PRO Blackwell GPU의 특징은 다음과 같습니다.
NVIDIA Streaming Multiprocessor: 최대5배 빠른 처리량과 프로그래밍 가능한 셰이더 내부에 AI를 통합하는 새로운 뉴럴 셰이더를 제공해 향후 10년간의 AI 증강 그래픽 혁신을 주도합니다.
4세대 RT 코어: 이전 세대 대비 최대 2배 향상된 성능을 제공합니다. NVIDIA RTX™ Mega Geometry에 최적화돼 있습니다.
5세대 Tensor 코어: 최대 4,000개의 AI 초당 조 단위 연산(TOPS)을 제공합니다. FP4 정밀도와 NVIDIA DLSS 4 멀티 프레임 생성(Multi Frame Generation, MFG)에 대한 지원을 추가해 AI 기반 그래픽의 새로운 시대를 엽니다. 이를 통해 더 큰 AI 모델을 빠르게 실행하고 프로토타입을 제작할 수 있습니다.
더 크고 빠른 GDDR7 메모리: 워크스테이션과 서버의 경우 최대 96GB, 랩톱의 경우 최대 24GB까지 대역폭과 용량이 향상됩니다. 이에 대규모 3D, AI 프로젝트 처리부터 대규모 가상 현실 환경 탐색에 이르기까지 모든 애플리케이션을 더 빠르게 실행할 수 있습니다. 더 크고 복잡한 데이터 세트로도 작업할 수 있죠.
9세대 NVIDIA NVENC: 4:2:2 인코딩을 추가로 지원해 전문가용 비디오 애플리케이션의 비디오 인코딩 속도를 가속화하고 품질을 개선합니다.
6세대 NVIDIA NVDEC: 최대 2배의264 디코딩 처리량을 제공하며, 4:2:2 H.264와 HEVC 디코딩을 지원합니다. 전문가는 고품질 비디오 재생의 이점을 누리고, 비디오 데이터 수집을 가속화하며, 고급 AI 기반 비디오 편집 기능을 사용할 수 있습니다.
5세대 PCIe: 5세대 PCI 익스프레스(Express) 지원으로 대역폭이 이전 세대 대비 2배로 향상됐습니다. 이에 따라 CPU 메모리의 데이터 전송 속도를 높이고 데이터 집약적인 작업에서 더 빠른 성능을 제공합니다.
DisplayPort 2.1: 490Hz에서 최대 4K, 165Hz에서 8K의 고해상도 디스플레이를 구현합니다. 대역폭 증가로 원활한 멀티 모니터 설정이 가능하고, 높은 동적 범위와 더 높아진 색상 심도 지원은 비디오 편집, 3D 디자인, 생방송과 같은 작업에 보다 정밀한 색상 정확도를 제공합니다.
Multi-Instance GPU(MIG): RTX PRO 6000 데이터센터, 데스크톱 GPU와 5000 시리즈 데스크톱 GPU는 MIG 기술을 탑재했습니다. 단일 GPU를 6000 제품군의 경우 최대 4개의 인스턴스로, 5000 제품군의 경우 2개의 인스턴스로 안전하게 분할할 수 있죠. 오류 격리는 다양한 워크로드에 대한 안전하고 효율적인 리소스 할당을 위해 워크로드 간섭을 방지하고 성능과 유연성을 극대화하도록 설계됐습니다.
새로운 랩톱 GPU는 AI를 통해 랩톱 성능과 전력 효율성을 지능적이고 지속적으로 최적화하는 최신 NVIDIA Blackwell Max-Q 기술을 지원합니다.
NVIDIA RTX PRO Blackwell GPU는 뉴럴 렌더링과 AI 증강 도구를 통해 놀라운 시각적 효과와 실제 환경의 디지털 트윈을 만들 수 있고, 전례 없는 속도와 효율성으로 몰입형 경험을 생성할 수 있습니다. NVIDIA RTX PRO Blackwell GPU는 3D 컴퓨터 지원 설계(computer-aided design, CAD)와 건물 정보 모델(building information model, BIM) 워크플로우를 향상시키도록 설계됐습니다. 따라서 디자이너와 엔지니어에게 복합 모델링, 렌더링, 시각화 작업을 위한 탁월한 성능을 제공합니다.
기업 데이터센터 배포를 위해 설계된 RTX PRO 6000 Blackwell 서버 에디션은 수동 냉각 방식의 열 설계를 특징으로 하며, 서버당 최대 8개의 GPU로 구성될 수 있습니다. 데이터센터의 컴퓨팅 밀도와 규모가 필요한 워크로드의 경우, RTX PRO 6000 Blackwell 서버 에디션은 헬스케어, 제조, 유통, 미디어, 엔터테인먼트 등 산업 전반에서 차세대 AI, 과학, 비주얼 컴퓨팅 애플리케이션을 위한 강력한 성능을 제공합니다.
또한, 이 강력한 데이터센터 GPU는 NVIDIA vGPU™ 소프트웨어와 결합해 가상화된 환경 전반에서 AI 워크로드를 구동하고 원격 사용자에게 고성능 가상 워크스테이션 인스턴스를 제공할 수 있습니다. NVIDIA RTX PRO 6000 Blackwell Server Edition GPU에 대한 NVIDIA vGPU 지원은 올해 하반기에 예정돼 있습니다.
RTX PRO GPU는 NVIDIA AI 플랫폼에서 실행되며, 더 큰 메모리 용량과 최신 Tensor 코어를 갖추고 있습니다. 따라서 NVIDIA CUDA®와 RTX 기술을 기반으로 구축된 AI 가속 애플리케이션의 심층적인 생태계를 가속화할 수 있죠. 이번에 발표된 NVIDIA Llama Nemotron Reason 모델 제품군, NIM™ 마이크로서비스와 같은 최신 AI 기반 콘텐츠 제작 도구와 추론 모델의 모든 것들을 통해 그 어느 때보다 빠른 추론이 가능합니다. 또한, 개발자는 400개 이상의 NVIDIA CUDA-X™ 라이브러리를 사용해 워크스테이션에서 데이터센터, 클라우드에 이르기까지 새로운 AI 애플리케이션을 쉽게 구축, 최적화, 배포, 확장할 수 있습니다.
기업은 NVIDIA RTX PRO GPU와 NVIDIA Omniverse™, NVIDIA AI Enterprise 플랫폼, NVIDIA Blueprints, NVIDIA NIM을 사용해 로컬에서 프로토타입을 제작하고 AI 개발과 배포를 빠르게 추진할 수 있습니다. 이로써 엔터프라이즈급의 지원으로 사용하기 쉬운 추론 마이크로서비스를 이용할 수 있습니다. 또한, RTX PRO 6000 Blackwell Server Editoin을 사용하면 AI와 비주얼 컴퓨팅을 위한 최고의 범용 데이터센터 GPU에서 이들 애플리케이션을 대규모로 실행할 수 있죠. 따라서 가장 까다로운 컴퓨팅 집약적 엔터프라이즈 워크로드를 획기적으로 가속화할 수 있습니다.
NVIDIA GPU 및 AI/DL/ML GPU 서버 전문 기업 아인시스 아이엔씨
저희 아인시스 아이엔씨는 NVIDIA의 GPU 및 DELL,HPE,ASUS,SUPERMICRO 등 다양한 제조사의 GPU 서버들을 취급 하는 전문 IT 기업 입니다.
제품에 관한 문의 또는 구매 견적이 필요 하시면 언제든지 연락 부탁 드립니다. ^^
감사 합니다.
◆ GPU서버 / 서버(DELL,HPE,ASUS 신품 및 중고) / 워크스테이션 / 스토리지 / 네트워크 하드웨어 견적 문의 ◆ 담당자 : 정지훈 부장 (영업부) / 010-9500-3099 / hoon@einsis.com
◆ GPU서버 / 서버(DELL,HPE,ASUS 신품 및 중고) / 워크스테이션 / 스토리지 / 네트워크 하드웨어 견적 문의 ◆ 담당자 : 정지훈 부장 (영업부) / 010-9500-3099 / hoon@einsis.com
안녕하세요. ^^
주식회사 아인시스 아이엔씨 정지훈 부장 입니다.
금일은 작년에 출시 되었지만 아직까지도 많은 기업과 연구기관에서 찾고 있는 NVIDIA L40S GPU에 대해서 언급해 보려고 합니다.
작년에 A100의 수급 이슈로 인하여 시장에 새롭게 출시된 GPU가 L40S 인데, 해당 GPU는 PCI 방식 뿐만 아니라 SXM 방식까지 지원하는 A100 에 비해 PCI 방식만을 지원하며, A100같이 NVLink를 지원하지도 않음에도 불구하고 일부 성능이 A100에 비해서 뛰어나며 가성비도 우수해서 꽤 많은 곳에서 사용되고 있는 GPU 입니다.
특히, LLM (Large Language Model) 에서는 매우 뛰어난 가성비를 자랑하는 GPU로서 최근에는 연세대, 서울대 등 다양한 연구기관에서 도입해서 연구용으로도 많이 사용 하고 있습니다.
하기의 출고기에서와 같이 저희 아인시스는 수많은 고객사 납품이력이 있는 검증된 기업 입니다.