고성능 데이터 사이언스

GPU의 성능을 활용하여 데이터 사이언스, 머신 러닝 및 AI 워크플로우를 쉽게 가속화하세요.

고속 GPU 컴퓨팅으로 데이터 사이언스 워크플로우 전체를 실행하고 데이터 로딩, 데이터 조작 및 머신 러닝을 병렬화하여 50배 빠른 엔드 투 엔드 데이터 사이언스 파이프라인을 실현하세요.

왜 RAPIDS를 사용해야 하나요?

nvidia-data-science-process-1cn-d

고성능 에코시스템 구축

RAPIDS는 데이터 사이언스 파이프라인을 완전히 GPU에서 실행하기 위한 일체의 오픈 소스 소프트웨어 라이브러리 및 API로, 트레이닝 시간을 며칠에서 몇 분으로 줄일 수 있습니다. NVIDIA® CUDA-X AI를 기반으로 구축된 RAPIDS에는 수년에 걸쳐 개발된 그래픽, 머신 러닝, 딥 러닝, 고성능 컴퓨팅(HPC) 등의 기능이 통합되어 있습니다.

더욱 빨라진 실행 시간

더욱 빨라진 실행 시간

데이터 사이언스를 사용하면 더 많은 컴퓨팅을 통해 인사이트를 더 빨리 얻을 수 있습니다. RAPIDS는 NVIDIA CUDA®를 활용하여 전체 데이터 사이언스 트레이닝 파이프라인 전체를 GPU에서 실행함으로써 워크플로우를 가속화합니다. 이를 통해 모델 트레이닝 시간을 며칠에서 몇 분으로 줄일 수 있습니다.

같은 도구를 사용

같은 도구를 사용

GPU 사용의 복잡성과 데이터센터 아키텍처 이면의 통신 프로토콜까지 숨김으로써, RAPIDS는 데이터 사이언스를 간단하게 해낼 수 있는 방법을 만들어줍니다. Python 및 높은 수준의 다른 언어를 사용하는 데이터 사이언티스트가 많아짐에 따라, 코드 변경 없이 가속화를 제공하는 것은 빠르게 발전하는 개발 과정에 필수적인 요소가 되었습니다.

다양한 규모로 어디서든지 실행

다양한 규모로 어디서든지 실행

RAPIDS는 클라우드나 온프레미스 중 어디서도 실행할 수 있습니다. 워크스테이션에서 멀티 GPU 서버, 멀티 노드 클러스터에 이르기까지 쉽게 확장할 수 있으며, Dask, Spark, MLFlow, 및 쿠버네티스를 통한 제작에도 배포할 수 있습니다.

엔터프라이즈급 데이터 사이언스

엔터프라이즈급 데이터 사이언스

핵심적인 인사이트를 얻기 위해 데이터 사이언스를 사용하는 조직에는 신뢰할 수 있는 지원에 대한 액세스가 필수적인 경우가 많습니다. 글로벌 NVIDIA 엔터프라이즈 지원은 엔드투엔드 AI 소프트웨어 제품군인 *NVIDIA AI 엔터프라이즈*와 함께 제공되며, 응답 시간 보장, 우선 보안 알림, 정기 업데이트 및 NVIDIA AI 전문가에 대한 액세스를 포함합니다.

 

빅데이터에서 빛처럼 빠른 성능

결과에 따르면 GPU는 소규모 및 대규모 빅데이터 분석 문제의 비용 및 시간을 매우 크게 절감해 줍니다. RAPIDS는 Pandas 및 Dask 등의 익숙한 API를 사용하여, 10테라바이트 규모에서 최고 CPU 기준선보다 GPU에서 최대 20배 더 빠른 성능을 제공합니다. CPU 기반 서버 350대의 성능을 달성하는 데 단 16대의 NVIDIA DGX A100을 사용하는 NVIDIA의 솔루션은 HPC 수준의 성능을 제공하는 동시에 7배 더 비용 효율적입니다.

nvidia-16-dgx-a100-2c50-d

더 빠른 데이터 액세스, 더 적은 데이터 이동

일반적인 데이터 처리 작업에는 Hadoop에서 효율적으로 처리할 수 없는 여러 단계(데이터 파이프라인)가 있습니다. Apache Spark는 모든 데이터를 시스템 메모리에 두어 더 유연하고 복잡한 데이터 파이프라인을 가능하게 만듦으로써 이 문제를 해결했지만, 새로운 병목 현상이 생겨났습니다. 수백 개의 CPU 노드가 있는 Spark 클러스터에서는 몇 백 기가바이트(GB)의 데이터를 분석하는 것만으로도 몇 시간, 심하게는 며칠이 걸릴 수도 있었습니다. 데이터 사이언스의 진정한 잠재력을 실현하려면 GPU는 데이터센터 설계의 중심에 위치하여 컴퓨팅, 네트워킹, 스토리지, 배포 및 소프트웨어라는 5가지 요소로 이루어져 있어야 합니다. 일반적으로, GPU의 엔드 투 엔드 데이터 사이언스 워크플로우는 CPU에서보다 10배 더 빠릅니다.

게시물 읽기 ›

데이터 처리의 진화

Faster Data Access, Less Data Movement

어디서든 사용하는 RAPIDS

RAPIDS 는 새 고성능 데이터 사이언스 에코시스템을 위한 기반을 제공하며 상호 운용성을 통해 새 라이브러리에 대한 진입 장벽을 낮춥니다. Apache Spark, cuPY, Dask 및 Numba 등의 선두적인 데이터 사이언스 프레임워크와 PyTorch, TensorFlow 및 Apache MxNet 등의 수많은 딥 러닝 프레임워크와의 통합은 채택의 폭을 넓히도록 돕고 다른 프레임워크와의 통합을 장려합니다.RAPIDS와 상관 프레임워크는 NGC 카탈로그에서 찾을 수 있습니다.

  • 추천 프로젝트
  • 기여자
  • 채택자
  • 오픈 소스
dask-logo

dask-sql은 Python의 분산 SQL 엔진으로, GPU 가속을 위해 RAPIDS로 규모에 맞게 ETL을 수행합니다.

nvtabular-logo

RAPIDS에 구축된 NVTabular 는 GPU에서 추천 시스템을 위한 기능 엔지니어링 및 사전 처리를 가속화합니다.

custreamz-logo

Streamz 를 기반으로 하고, Python으로 작성되었으며, RAPIDS에 구축된 cuStreamz는 GPU에서 스트리밍 데이터 처리를 가속화합니다.

plotly-dash-logo

RAPIDS와 통합된 Plotly Dash 는 단일 GPU에서도 멀티기가바이트 데이터세트의 실시간 인터랙티브 비주얼 분석을 가능하게 만듭니다.

apache-spark-logo

Apache Spark용 RAPIDS Accelerator 는 GPU를 활용하여 RAPIDS 및 UCX 소프트웨어를 통해 처리를 가속화하는 Apache Spark용 플러그인 모음을 제공합니다.

anaconda-logo
Blazing SQL
capital-one-logo
cupy-logo
chainer-logo
deepwave-digital-logo
gunrock-logo
quansight-logo
walmart-logo
booz-allen-hamilton-logo
capital-one-logo
cloudera-logo
databricks-logo
graphistry-logo
h2oai-logo
hpe-ezmeral-logo-215x121
ibm-logo
iguazio-logo
inria-logo
kinetica-logo
omnisci-logo
preferred-networks-logo
pytorch-logo
uber-logo
ursa-labs-logo
walmart-logo
apache-arrow-logo
Blazing SQL
cupy-logo
dask-logo
gpu-open-analytics-initiative-goai-logo
nuclio-logo
numba-logo
scikit-learn-logo
dmlc-xgboost-logo

핵심 기술

RAPIDS는 낮은 수준의 컴퓨팅 최적화를 위해 CUDA 기초 요소에 의존하지만 사용자 친화적인 Python 인터페이스를 통해 그러한 GPU 병렬 처리와 높은 메모리 대역폭을 제공합니다. RAPIDS는 데이터 로딩 및 사전 처리부터 머신 러닝, 그래프 분석 및 비주얼라이제이션에 이르는 엔드 투 엔드 데이터 사이언스 워크플로우를 지원합니다. 엔터프라이즈 빅데이터 사용 사례로 확장되는 완전한 기능의 Python 스택입니다.

데이터 로딩 및 사전 처리

데이터 로딩 및 사전 처리

RAPIDS의 데이터 로딩, 사전 처리 및 ETL 기능은 데이터 사이언티스트에게 익숙한 Pandas와 비슷한 API에서 데이터 로딩, 결합, 에그리게이션, 필터링 및 기타 조작 전부를 수행하기 위해 Apache Arrow를 기반으로 구축되었습니다. 사용자는 일반적으로 10배 이상의 속도 증가를 기대할 수 있습니다.

머신 러닝

머신 러닝

RAPIDS의 머신 러닝 알고리즘 및 수학적 기초 요소는 익숙한 Scikit-learn과 비슷한 API를 따릅니다. XGBoost, Random Forest 등의 여러 인기 있는 도구는 단일 GPU 및 대규모 데이터센터 배포 둘 다에서 지원됩니다. 대규모 데이터세트의 경우, 이러한 GPU 기반의 구현은 비슷한 CPU보다 10~50배 빠르게 완료될 수 있습니다.

그래프 분석

그래프 분석

RAPIDS의 PageRank 등의 그래프 알고리즘 및 NetworkX 등의 기능은 GPU의 대규모 병렬 처리를 효율적으로 활용하여 대규모 그래프의 분석을 1,000배 이상 가속화합니다. 단일 NVIDIA A100 Tensor 코어 GPU에서 최대 2억 개의 엣지를 탐색하고 NVIDIA DGX™ A100 클러스터에서 수십억 개의 엣지로 확장하세요.

비주얼라이제이션

비주얼라이제이션

RAPIDS의 비주얼라이제이션 기능은 GPU 가속 교차 필터링을 지원합니다. 원본의 JavaScript 버전에서 영감을 얻어, 1억 개 이상의 행 테이블 형식 데이터세트의 매우 빠른 인터랙티브 다차원 필터링을 지원합니다.

Machine Learning to Deep Learning: All on GPU

딥 러닝 통합

딥 러닝은 컴퓨터 비전, 자연어 처리 및 추천과 같은 영역에서 효과적이지만, 딥 러닝이 주류가 아닌 영역도 있습니다. 범주형 및 연속형 변수의 열로 이루어진 테이블 형식 데이터 문제는 일반적으로 XGBoost, 그라데이션 부스트 또는 선형 모델 등의 기술을 활용합니다. RAPIDS는 GPU에서 테이블 형식 데이터의 사전 처리를 간소화하며 PyTorch, TensorFlow 및 MxNet 등의 DLPack을 지원하는 모든 프레임워크에 데이터를 직접 원활하게 핸드오프합니다. 이러한 통합은 풍부한 워크플로우를 생성하는 새 기회를 열어주어, 이전에는 이치에 맞지 않던 딥 러닝 프레임워크에서 만든 새 기능을 다시 머신 러닝 알고리즘에 피드하는 워크플로우까지 만들 수 있게 해 줍니다.

데이터 사이언스를 위한 최신 데이터센터

엔터프라이즈에서 AI 최적화 데이터센터를 구축하는 데에는 5가지 핵심 요소가 있습니다. 설계의 핵심은 GPU를 중심에 두는 것입니다.

컴퓨팅

컴퓨팅

NVIDIA GPU가 있는 시스템은 엄청난 컴퓨팅 성능으로 인해 AI 데이터센터의 핵심 컴퓨팅 구성 요소가 됩니다. NVIDIA DGX 시스템은 혁신적인 AI 성능을 제공하며 평균적으로 50개의 듀얼 소켓 CPU 서버를 대체할 수 있습니다. 이렇게 데이터 사이언티스트에게 데이터 탐색을 위한 업계에서 가장 강력한 도구를 제공하는 것이 첫 단계입니다.

소프트웨어

소프트웨어

데이터센터 아키텍처 내의 이면 커뮤니케이션 프로토콜과 GPU 사용의 복잡성을 숨김으로써, RAPIDS는 데이터 사이언스를 간단하게 해낼 수 있는 방법을 만들어줍니다. Python 및 높은 수준의 다른 언어를 사용하는 데이터 사이언티스트가 많아짐에 따라, 코드 변경 없이 가속화를 제공하는 것은 빠르게 발전하는 개발 과정에 필수적인 요소가 되었습니다.

네트워킹

네트워킹

NVIDIA Mellanox® NIC(Network Interface Controller), NCCL2 (NVIDIA collective communication library) 및 OpenUCX(오픈 소스 포인트 투 포인트 커뮤니케이션 프레임워크)의 RDMA(Remote Direct Memory Access)는 트레이닝 속도의 엄청난 발전을 가져왔습니다. RDMA를 통해 GPU가 노드 간에 초당 최대 100기가비트(Gb/s)의 속도로 서로 직접 통신할 수 있어, 여러 노드에 걸쳐 있으면서 하나의 거대한 서버에 있는 것처럼 작동할 수 있습니다.

배포

배포

엔터프라이즈는 대규모 파이프라인을 배포하기 위해 쿠버네티스 및 Docker 컨테이너로 이동하고 있습니다. 컨테이너화된 애플리케이션을 쿠버네티스와 결합하면 비즈니스는 어떤 작업이 가장 중요한지에 대한 우선 순위를 변경하고 AI 데이터센터에 복원력, 안정성 및 확장성을 더할 수 있습니다.

스토리지

스토리지

GPUDirect® 스토리지는 NVMe 및 NVMe-oF(NVMe over Fabric) 둘 다 CPU 및 시스템 메모리를 우회하여 GPU에서 직접 데이터를 읽고 쓰도록 허용합니다. 이렇게 하면 각 GPU에서 최대 50% 더 높은 대역폭으로 몇 배나 많은 데이터에 액세스할 수 있는 동시에 다른 작업을 위한 CPU 및 시스템 메모리를 확보하게 됩니다.

오픈 소스에 대한 NVIDIA의 노력 데이터 사이언스

NVIDIA는 오픈 소스 커뮤니티를 위해 데이터 사이언스를 단순화, 통합 및 가속화하기 위해 노력합니다. 하드웨어에서 소프트웨어에 이르는 모든 스택을 최적화하고 반복적 데이터 사이언스에 대한 병목 현상을 제거함으로써, NVIDIA는 모든 곳의 데이터 사이언티스트가 더 적은 노력으로 그 어느 때보다도 많은 일을 하도록 돕습니다. 이를 통해 엔터프라이즈는 엔터프라이즈의 가장 귀중한 리소스, 즉 데이터 및 데이터 사이언티스트로부터 더 많은 가치를 얻게 됩니다. RAPIDS는 Apache 2.0 오픈 소스 소프트웨어로서 GPU에서 에코시스템을 한곳으로 모이게 합니다.

컴퓨팅 성능이 없는 경우 데이터 사이언티스트는 충분히 빠르게 실행되도록 알고리즘의 '지능을 낮춰'야 했습니다. 이제 더 이상 그럴 필요가 없습니다. GPU를 통해 이전에는 불가능했던 일들을 실현할 수 있습니다.

- Bill Groves, Walmart 최고 데이터 책임자

NASA의 글로벌 모델은 수 테라바이트의 데이터를 생성합니다. RAPIDS 이전에는 버튼을 누르고 결과를 얻기까지 6~7시간을 기다려야 했습니다. 트레이닝 주기를 가속화한 것은 모델 개발에 있어 완전히 획기적인 일이었습니다.

- John Keller 박사, NASA 고다드 우주 비행 센터

모델 트레이닝 시간을 100배 개선하고 비용을 98% 절감한 Capital One에서는 RAPIDS.ai 및 Dask가 데이터 사이언스 및 머신 러닝의 다음 대세가 될 것이라고 보고 있습니다.

- Mike McCarty, Capital One 머신 러닝 센터의 소프트웨어 엔지니어링 디렉터

지금 시작하기