NVIDIA에서 최적화 및 가속화한 API를 통해 커뮤니티에서 구축한 최신 AI 모델을 살펴보고 NVIDIA NIM 추론 마이크로 서비스를 통해 어디에나 배포하세요.
통합
익숙한 API로 빠르게 시작하고 실행하세요.
단 3줄의 코드로 기존 도구 및 애플리케이션에서 NVIDIA API를 사용하세요.
Langchain 및 LlamaIndex 등 선호하는 LLM 프로그래밍 프레임워크로 작업하고 애플리케이션을 쉽게 배포할 수 있습니다.
어디에서나 실행
NVIDIA AI Enterprise의 일부인 NVIDIA NIM은 모든 클라우드 또는 데이터센터에서 기반 모델의 배포를 가속화하고 데이터를 안전하게 유지하는 데 도움이 되는 사용이 간편한 마이크로 서비스 세트입니다.
단일 명령으로 모델에 맞는 NIM을 배포하세요. 또한 파인 튜닝된 모델로 NIM을 쉽게 실행할 수 있습니다.
NVIDIA 가속 인프라를 기반으로 최적의 런타임 엔진을 사용하여 NIM을 가동하고 실행하세요.
개발자는 단 몇 줄의 코드로 자체 호스팅 NIM 엔드포인트를 통합할 수 있습니다.
NVIDIA NIM을 통해 컨테이너화된 마이크로 서비스를 사용하여 단일 명령어로 로컬 개발 환경에 AI 모델을 배포할 수 있습니다. 또한 Helm 차트를 가져와 Kubernetes로 오케스트레이션하고 자동 확장할 수도 있습니다.
NVIDIA 가속 인프라에서 짧은 레이턴시와 높은 처리량을 위해 지속적으로 최적화되는 AI 런타임으로 프로덕션 단계에서 모델을 실행하는 운영 비용을 절감할 수 있습니다.
지속적인 보안 업데이트를 포함하여 프로덕션급 런타임을 활용하고 NVIDIA NIM을 사용하여 엔터프라이즈급 지원을 기반으로 하는 안정적인 API로 비즈니스 애플리케이션을 실행할 수 있습니다.
구입 방법
사용 사례
NVIDIA API가 업계 사용 사례를 지원하는 방법을 알아보고 선별된 예시를 통해 AI 개발을 시작하세요.
에코시스템
선도적인 파트너와 함께 NVIDIA 에코시스템의 모델, 툴킷, 벡터 데이터베이스,
프레임워크 및 인프라를 통해 AI 애플리케이션을 개발하세요.
리소스
기술 문서를 살펴보고 NVIDIA API를 통해 엔터프라이즈 AI 애플리케이션의 프로토타입 제작 및 구축을 시작하세요.