
무어의 법칙이 끝나면서, CPU 성능 향상과 함께 전력 소비량 증가가 동반되었습니다. 그리고 탄소 배출량 감축 의무는 기본적으로 데이터센터 증가에 대한 필요성과 상충됩니다. 클라우드 컴퓨팅의 성장에는 전력 제한이 있습니다. 무엇보다 데이터센터는 모든 워크로드를 가속화해야 합니다. 가속화는 전력을 개선합니다. 이렇게 절약된 에너지는 새로운 성장을 촉진할 수 있습니다. 가속화되지 않은 것은 CPU에서 처리됩니다. 가속 클라우드 데이터센터의 CPU 설계 지점은 과거와는 근본적으로 다릅니다. AI와 클라우드 서비스에서는 가속 컴퓨팅이 병렬화 가능한 워크로드를 떠안고 CPU는 웹 RPC 및 데이터베이스 쿼리와 같은 다른 워크로드를 처리합니다.
NVIDIA는 AI 워크로드가 GPU 가속화되는 AI 및 클라우드 퍼스트를 위한 Grace CPU를 설계했으며 Grace는 단일 스레드 실행 및 메모리 처리에서 뛰어난 성능을 보였습니다.
CPU 칩뿐만이 아닙니다. 데이터센터 운영자는 전체 데이터센터의 처리량과 TCO를 최적화합니다. 클라우드 데이터센터 규모의 높은 에너지 효율성을 위해 Grace를 설계했습니다. Grace는 3.2TB/s의 횡단면 대역폭을 제공하는 초고속 온-칩(on-chip) 확장 가능 응집성 패브릭으로 연결된 72개의 Arm 코어로 구성됩니다. Grace Superchip은 900GB/s의 저전력 칩 간 응집성 인터페이스를 통해 두 개의 CPU 다이 사이에서 144개의 코어를 연결합니다. 메모리 시스템은 휴대폰에서 사용되는 것과 같은 LPDDR 저전력 메모리로, 데이터센터에서 사용할 수 있게 특별히 개선하였습니다. 이는 1/8의 전력으로 오늘날의 시스템 대역폭 대비 2.5배, 1TB/s를 제공합니다. 1TB 메모리를 갖춘 144코어 Grace Superchip 모듈 전체는 불과 5x8인치에 불과합니다. 전력이 낮아 공기 냉각이 가능합니다. 이것은 수동 냉각 기능을 갖춘 컴퓨팅 모듈입니다. 2대의 Grace Superchip 컴퓨터는 단일 1U 공기 냉각식 서버에 들어갈 수 있습니다. Grace의 성능과 전력 효율성은 클라우드 및 과학 컴퓨팅 애플리케이션에 탁월합니다.
NVIDIA는 클라우드 마이크로서비스 통신 속도를 테스트하는 인기 있는 Google 벤치마크와 Apache Spark 메모리 집약 데이터 처리를 테스트하는 Hi-Bench 제품군에서 Grace를 테스트했습니다. 이러한 종류의 워크로드는 클라우드 데이터센터의 기본입니다. 마이크로서비스에서 Grace는 최신 세대의 x86 CPU 평균보다 1.3배 빠르며 데이터 처리 속도에서 1.2배 더 빠릅니다. 전체 서버 노드에서 측정된 전력의 60%만 사용하여 더 높은 성능을 달성할 수 있습니다. CSP는 전력이 제한된 데이터센터에 1.7배 더 많은 Grace 서버를 장착할 수 있으며 각각 25% 더 많은 처리량을 제공합니다.
Iso 전력에서, Grace는 CSP에 2배 더 많은 성장 기회를 제공합니다. Grace는 샘플링 중입니다. 그리고 Asus, Atos, Gigabyte, HPE, QCT, Supermicro, Wistron 및 ZT는 현재 시스템을 구축하고 있습니다. 최신 소프트웨어 정의 데이터센터에서 가상화, 네트워크, 스토리지 및 보안을 수행하는 운영 체제는 데이터센터의 CPU 코어 및 관련 전력의 거의 절반을 소비할 수 있습니다. 데이터센터는 전력을 개선하고 수익을 창출하는 워크로드에 CPU를 할당할 수 있도록 모든 워크로드를 가속화해야 합니다. NVIDIA BlueField는 데이터센터 운영 체제 및 인프라 소프트웨어를 떠맡아 가속화합니다.
Check Point, Cisco, DDN, Dell EMC, Juniper, Palo Alto Networks, Red Hat 및 VMWare를 포함한 24곳 이상의 에코시스템 파트너는 BlueField의 데이터센터 가속 기술을 사용하여 소프트웨어 플랫폼을 보다 효율적으로 실행합니다. BlueField-3는 생산 단계이며 선도적인 클라우드 서비스 제공업체인 Baidu, CoreWeave, JD.com, Microsoft Azure, Oracle OCI 및 Tencent Games에서 클라우드 가속을 위해 채택하고 있습니다. NVIDIA 가속 컴퓨팅은 세계 AI 슈퍼컴퓨터 DGX로 시작됩니다.
이는 대규모 언어 모델의 혁신을 뒷받침하는 엔진입니다. 저는 세계 최초로 OpenAI에 DGX를 직접 제공했는데요. 그 이후로 Fortune 100대 기업 중 절반이 DGX AI 슈퍼컴퓨터를 설치했습니다. DGX는 AI의 필수적인 기기가 되었습니다. DGX의 GPU는 8개의 H100 모듈입니다. H100에는 생성형 사전 훈련 트랜스포머인 놀라운 ChatGPT와 같은 모델을 처리하도록 설계된 트랜스포머 엔진이 있습니다. 8개의 H100 모듈은 NVLINK 스위치에서 서로 NVLINK 되어 완전히 비차단 트랜잭션을 허용합니다. 8개의 H100은 하나의 거대한 GPU로써 작동합니다.
컴퓨팅 패브릭은 AI 슈퍼컴퓨터에서 가장 중요한 시스템 중 하나입니다. 망내 처리를 갖추었으며 지연 시간이 400Gbps로 매우 낮은 NVIDIA Quantum InfiniBand는 수백, 수천 개의 DGX 노드를 AI 슈퍼컴퓨터에 연결합니다. NVIDIA DGX H100은 전 세계 AI 인프라를 구축하는 고객의 청사진입니다. 이는 현재 생산 중입니다. Microsoft에서 Azure가 H100 AI 슈퍼컴퓨터에 프라이빗 프리뷰를 공개한다는 사실을 발표하게 되어 정말 기쁩니다. 다른 시스템 및 클라우드 서비스도 곧 Atos, AWS, Cirrascale, CoreWeave, Dell, Gigabyte, Google, HPE, Lambda Labs, Lenovo, Oracle, Quanta 및 SuperMicro에서 제공될 예정입니다.
DGX AI 슈퍼컴퓨터 시장은 크게 성장했습니다. 원래 AI 연구 기기로 사용되었던 DGX AI 슈퍼컴퓨터는 운영의 영역으로 확장되어 365일 쉬지 않고 실행되어 데이터를 개선하고 AI를 처리합니다. DGX 슈퍼컴퓨터는 최신 AI 공장입니다. 우리는 AI의 아이폰 시대에 살고 있습니다. 스타트업은 혁신적인 제품과 비즈니스 모델을 구축하기 위해 경쟁하고 있으며, 기존 기업들은 이에 대한 대응책을 모색하고 있습니다. 생성형 AI는 전 세계 기업들에 긴박감을 불러일으켜 AI 전략을 개발하게 만들었습니다. 고객은 NVIDIA AI에 더 쉽고 빠르게 액세스해야 합니다.
NVIDIA는 모든 기업이 브라우저에서 즉시 NVIDIA DGX AI 슈퍼컴퓨터를 제공받을 수 있게 Microsoft Azure, Google GCP 그리고 Oracle OCI와의 파트너십을 통한 NVIDIA DGX 클라우드를 발표합니다. DGX 클라우드는 AI의 엔드 투 엔드 개발 및 배포를 위한 세계 최고의 가속화 라이브러리 제품군인 NVIDIA AI Enterprise를 실행하는 데 최적화되어 있습니다. DGX 클라우드는 고객에게 최고의 NVIDIA AI와 세계 최고의 클라우드 서비스 제공업체를 제공합니다. 이 파트너십을 통해 NVIDIA의 에코시스템을 CSP에 제공하는 동시에 NVIDIA의 규모와 도달 범위가 확장됩니다.
이 윈-윈 파트너십은 전 세계 규모의 클라우드에서 NVIDIA에 대한 생성형 AI 인스턴트 액세스에 참여하기 위해 경쟁하고 있는 고객에게 제공됩니다. NVIDIA는 속도, 규모 및 우리의 비즈니스 모델의 클라우드 확장에 매우 기쁘게 생각하고 있습니다. Oracle Cloud Infrastructure(OCI)가 최초의 NVIDIA DGX 클라우드가 될 것입니다. OCI는 뛰어난 성능을 가지고 있습니다. 여기에는 2계층 컴퓨팅 패브릭과 관리 네트워크가 있습니다. 업계 최고의 RDMA를 갖춘 NVIDIA의 CX-7은 컴퓨팅 패브릭입니다. 또한 BlueField-3는 관리 네트워크를 위한 인프라 프로세서가 될 것입니다.
이 조합은 멀티 테넌트 클라우드 서비스로 제공될 수 있는 최첨단 DGX AI 슈퍼컴퓨터입니다. NVIDIA에는 Consumer Internet 및 소프트웨어, 헬스케어, 미디어 및 엔터테인먼트, 금융 서비스를 아우르는 엔터프라이즈 고객 50곳이 있습니다. ChatGPT, Stable Diffusion, DALL-E, Midjourney는 생성형 AI로 세상을 각성시키고 있습니다. 이 애플리케이션의 사용 편의성과 인상적인 기능은 단 몇 개월 만에 1억 명 이상의 사용자를 사로잡았습니다.
ChatGPT는 역사상 가장 빠르게 성장하는 애플리케이션입니다.
교육은 필요하지 않습니다. 그저 이 모델에게 뭔가를 부탁하기만 하면 됩니다. 프롬프트가 정확하거나 모호할 수 있습니다. 프롬프트가 명확하지 않은 경우, ChatGPT는 대화를 통해 사용자의 의도를 알아봅니다. 생성된 텍스트는 기대를 뛰어넘습니다.
ChatGPT는 메모와 시를 작성하고, 연구 논문을 의역하고, 수학 문제를 풀고, 계약의 핵심 사항을 강조하며, 심지어 소프트웨어 프로그램도 코딩할 수 있습니다. ChatGPT는 소프트웨어를 실행할 뿐만 아니라 소프트웨어를 작성하는 컴퓨터입니다. 많은 혁신이 생성형 AI로 이어졌습니다.
트랜스포머는 데이터의 관계와 종속성에서 동시적 및 대규모로 문맥과 의미를 배웁니다.
이로 인해 대규모 언어 모델은 수많은 데이터로 학습하여 명확한 훈련 없이 다운스트림 작업을 수행할 수 있습니다. 그리고 물리학에서 영감을 받은 확산 모델은 감독 없이 학습하여 이미지를 생성합니다. NVIDIA는 불과 10년 만에 고양이를 인식하려는 시도에서 우주복을 입은 고양이가 달 위를 걷는 사실적인 이미지를 생성하는 데까지 발전했습니다.
생성형 AI는 인간 언어로 프로그래밍하는 새로운 종류의 컴퓨터 기술입니다. 이 능력은 중대한 의미를 지니고 있습니다. 누구나 컴퓨터가 문제를 해결하도록 지시할 수 있습니다. 하지만 이것은 컴퓨터 프로그래머만의 영역이었습니다.
하지만 이제 모두가 프로그래머입니다.
생성형 AI는 PC, 인터넷, 모바일 및 클라우드와 같은 새로운 컴퓨팅 플랫폼입니다. 그리고 이전 컴퓨팅 시대와 마찬가지로 퍼스트무버들은 새로운 애플리케이션을 개발하고 새로운 회사를 설립하여 생성형 AI의 자동화 및 공동 생성 기능을 활용하고 있습니다. Debuild를 사용하면 사용자가 원하는 것을 설명하는 것만으로 웹 애플리케이션을 설계하고 배포할 수 있습니다. 문법은 맥락을 고려하는 작성 어시스턴트입니다. Tabnine은 개발자가 코드를 작성하는 데 도움을 줍니다. Omnekey는 맞춤형 광고 및 문구를 생성합니다.
Kore.ai는 가상 고객 서비스 상담원입니다. Jasper는 마케팅 자료를 생성합니다. 또한 Jasper는 약 50억 개의 단어를 작성하여 첫 번째 초안을 생성하는 시간을 80%까지 줄여 줍니다. Insilico는 AI를 사용하여 신약 설계를 가속화합니다. Absci는 AI를 사용하여 치료 항체를 예측합니다. 생성형 AI는 거의 모든 산업을 재창조할 것입니다. 많은 기업에서 시장에 출시될 우수한 생성형 AI API 중 하나를 사용할 수 있습니다. 일부 기업은 자신들의 고유 데이터, 즉 해당 분야의 전문가 맞춤형 모델을 구축해야 합니다. 회사의 안전, 개인정보 보호 및 보안 요구 사항에 맞게 사용 가이드라인을 설정하고 모델을 개선해야 합니다.
업계는 맞춤형 대규모 언어 모델을 위한 TSMC와 같은 파운드리가 필요합니다. 오늘 NVIDIA는 고객의 고유 데이터로 그들의 영역별 작업을 위해 훈련된 맞춤형 LLM 및 생성형 AI를 구축, 개선 및 운영해야 하는 고객을 위한 클라우드 서비스인 NVIDIA AI Foundations를 발표합니다.
NVIDIA AI Foundation은 언어, 시각 및 생물학 모델 제작 서비스로 구성됩니다. NVIDIA Nemo는 맞춤형 언어 텍스트- 텍스트 생성 모델 구축을 위한 제품입니다. 고객은 모델을 가져오거나 GPT-8, GPT-43에서 GPT-5300억 매개변수에 이르는 Nemo 사전 훈련된 언어 모델을 시작할 수 있습니다.
NVIDIA AI 전문가는 고유 모델을 만드는 것부터 운영에 이르기까지 전체 과정 전반에 걸쳐 사용자와 협력할 것입니다. 함께 보시죠. NVIDIA의 430억 기본 모델과 같은 생성적 모델은 수십억 개의 문장, 수조 개의 단어를 학습합니다. 모델이 수렴됨에 따라 모델의 임베딩 공간 속 가중치에 포착된 단어와 기본 개념 간의 관계를 이해하기 시작합니다. 트랜스포머 모델은 단어 시퀀스 내에서 종속성과 관계를 학습하도록 설계된 셀프 어텐션 메커니즘을 활용합니다. 그 결과 모델은 ChatGPT와 같은 경험을 위한 기반, 이러한 생성적 모델에는 방대한 양의 데이터가 필요합니다.
데이터 처리 및 분산 학습을 위한 심층적인 AI 전문 지식, 학습, 배포 및 혁신 속도 유지를 위한 대규모 컴퓨팅을 제공합니다. 엔터프라이즈는 NVIDIA DGX 클라우드에서 실행되는 NVIDIA NeMo 서비스를 통해 생성적 AI 채택을 빠르게 실현할 수 있습니다. 가장 빠른 길은 NVIDIA의 최첨단 사전 학습 기초 모델로 시작하는 것입니다. NeMo 서비스를 사용하면 조직에서 쉽게 모델을 맞춤화하고 P-튜닝을 통해 전문 기술을 학습시킬 수 있습니다. 재무 문서 요약, 브랜드 콘텐츠 제작, 맞춤형 쓰기 스타일로 이메일 작성 등이 가능합니다. 모델을 독점 지식 기반에 연결하여 정확하고 비즈니스에 맞는 최신 응답을 받을 수 있습니다.
다음으로 안전망을 제공하기 위해 로직을 추가하고 입력, 출력, 유해성 및 편향 임계값을 모니터링함으로써 지정된 도메인 내에서 작동하게 하고 원치 않는 응답을 방지합니다. 모델을 작동시킨 뒤 사용자 상호 작용을 바탕으로 강화 학습을 통해 지속적으로 개선합니다.
NeMo의 플레이그라운드에서는 클라우드 API로 넘어가기 전에 빠른 프로토타입 작업을 통해 더 큰 규모의 평가 및 애플리케이션 통합이 가능합니다. 지금 NVIDIA NeMo 서비스에 등록하여 제어 가능한 맞춤형 AI 모델로 엔터프라이즈 지식을 코드화하세요.
Picasso는 라이선스 또는 독점 콘텐츠로 학습된 맞춤형 모델을 구축하려는 고객을 위한 시각 언어 모델 제작 서비스입니다. 함께 보시죠. 생성형 AI는 시각적 콘텐츠 생성 방식을 바꾸고 있습니다. 하지만 잠재력을 완전히 실현하려면 막대한 저작권 해소 데이터, AI 전문가, AI 슈퍼컴퓨터가 필요합니다. NVIDIA Picasso는 생성형 AI 기반 이미지, 영상 및 3D 애플리케이션을 구축 및 배포하기 위한 클라우드 서비스입니다. 이를 통해 엔터프라이즈, ISV 및 서비스 제공업체는 자체 모델을 배포할 수 있습니다. NVIDIA는 최고의 파트너와 협력하여 모든 산업에 생성적 AI 기능을 제공하고 있습니다. 조직에서는 NVIDIA Edify 모델부터 시작하여 자사 데이터로 학습시키고 제품이나 서비스를 만들 수 있습니다. 이러한 모델은 이미지, 비디오 및 3D 에셋을 생성합니다.
생성적 AI 모델에 액세스하기 위해 애플리케이션이 텍스트 프롬프트와 메타데이터가 있는 API 호출을 Picasso로 전송합니다. Picasso는 NVIDIA DGX 클라우드에서 실행되는 적절한 모델을 사용하여 생성된 자산을 애플리케이션에 다시 보낼 수 있습니다. 이는 사실적인 이미지, 고해상도 영상 또는 상세한 3D 지오메트리일 수 있습니다. 생성된 자산을 편집 도구 또는 NVIDIA Omniverse로 가져와서 사실적인 가상 세계, 메타버스 애플리케이션, 디지털 트윈 시뮬레이션을 구축할 수 있습니다.
NVIDIA DGX 클라우드에서 실행되는 NVIDIA Picasso 서비스를 통해 생성형 AI 애플리케이션 구축에 필요한 학습, 최적화, 추론을 간소화할 수 있습니다. NVIDIA Picasso 가 어떻게 여러분의 애플리케이션에 혁신적인 생성적 AI 기능을 제공할 수 있는지 알아보세요. NVIDIA는 Getty Images가 Picasso 서비스를 사용하여 신뢰할 수 있는 라이선스가 부여된 풍부한 전문 이미지 및 비디오 에셋 라이브러리를 기반으로 학습된 Edify- 이미지 및 Edify- 비디오 생성 모델을 제작하게 되어 기쁩니다. 기업은 간단한 텍스트 또는 이미지 프롬프트로 맞춤형 이미지 및 영상을 만들 수 있습니다.
Shutterstock은 전문 이미지, 3D 및 영상 자산 라이브러리에서 훈련된 Edify-3D 생성 모델을 개발하고 있습니다. Shutterstock은 크리에이티브 제작, 디지털 트윈 및 가상 협업을 위한 3D 자산의 생성을 간소화하여 기업이 이러한 워크플로우를 더 빠르고 쉽게 구현할 수 있도록 합니다. 또한 크리에이티브의 미래를 위한 차세대 AI 기능을 구축하고 마케터와 크리에이티브 전문가의 일상적인 워크플로우에 생성형 AI를 통합하기 위해 Adobe와의 오랜 파트너십을 대폭 확장하게 되어 기쁩니다. 새로운 생성형 AI 모델은 이미지 생성, 영상, 3D 및 애니메이션에 최적화될 것입니다.
아티스트의 권리를 보호하기 위해 Adobe는 상업적 실행 가능성과 Adobe의 콘텐츠 정품 인증 이니셔티브에 기반한 적절한 콘텐츠 저작자 표시에 중점을 두고 개발하고 있습니다. NVIDIA가 세 번째로 중요하게 여기는 분야는 생물학입니다. 신약 개발은 R&D에만 2,500억 달러를 투자하는 거의 2조 달러 규모의 산업입니다. NVIDIA Clara는 이미징, 기기, 유전체학 및 약물 개발용 헬스케어 애플리케이션 프레임워크입니다. 현재 업계에서는 생성형 AI를 통해 질병 대상을 발견하고, 새로운 분자 또는 단백질 기반 약물을 설계하며, 신체의 약품의 행동을 예측하고 있습니다.
Insilico Medicine, Exscientia, Absci 및 Evozyme은 수백 곳의 새로운 AI 신약 개발 스타트업 중 하나입니다. 이들 중 몇몇 스타트업은 새로운 표적 또는 약물 후보를 발견하고 인간 임상시험을 시작했습니다. BioNeMo는 연구원들이 고유한 데이터로 맞춤형 모델을 만들고 미세 조정하고 서비스를 제공하도록 돕습니다. 함께 보시죠. 신약 개발에는 3가지 핵심 단계가 있습니다. 질병을 일으키는 생물학적 원인을 파악하고 저분자, 단백질, 항체 등 새 분자를 설계하고 마지막으로 분자가 서로 상호 작용하는 방식을 선별합니다. 현재 생성적 AI는 신약 개발 프로세스의 모든 단계를 혁신하고 있습니다.
NVIDIA BioNeMo 서비스는 신약 개발을 위한 최첨단 생성적 AI 모델을 제공합니다. 클라우드 서비스로 사용할 수 있어 가속화된 신약 개발 워크플로우에 쉽게 즉시 액세스할 수 있습니다. BioNeMo에는 3D 단백질 구조 예측을 위한 AlphaFold, ESMFold 및 OpenFold와 등의 모델이 포함되어 있습니다. ProtGPT는 단백질 생성을 예측하며, ESM1 및 ESM2는 단백질 특성을 예측하고 MegaMolBART 및 MoFlow는 분자 생성을, DiffDock은 분자 도킹을 지원합니다.
신약 개발팀은 BioNeMo의 웹 인터페이스나 클라우드 API를 통해 신약 개발 가상 선별을 위한 다음은 NVIDIA BioNeMo를 사용하는 예시입니다. 모델을 사용할 수 있습니다. 생성적 모델은 이제 단백질 아미노산 서열을 읽고 몇 초 만에 정확하게 대상 단백질의 구조를 예측할 수 있습니다. 또한 약물의 체내 작용을 최적화하는 바람직한 ADME 특성을 가진 분자를 생성할 수 있습니다. 생성적 모델은 단백질과 분자의 3D 상호 작용도 예측하여 최적의 신약 후보 발견을 앞당길 수 있습니다. 또한 NVIDIA DGX Cloud BioNeMo는 모델 추가 최적화와 학습을 위한 온디맨드 슈퍼 컴퓨팅 인프라도 제공하므로 팀은 귀중한 시간과 비용을 절감하고 생명을 구하는 약품을 발견하는 데 집중할 수 있습니다.
여기 새로운 AI 신약 개발 파이프라인이 있습니다. NVIDIA BioNeMo 서비스 액세스를 신청하세요. NVIDIA는 신약 개발 및 가상 스크리닝의 엔드 투 엔드 워크플로우를 포괄하는 BioNeMo에 모델을 포함시키기 위해 업계와 계속 협력할 것입니다. Amgen, AstraZeneca, Insilico Medicine, Evozyne, Innophore 및 Alchemab Therapeutics는 BioNeMo의 얼리 액세스 사용자입니다. NVIDIA AI Foundations는 맞춤형 언어 모델 및 생성형 AI를 구축하기 위한 클라우드 서비스이자 파운드리입니다.
딥 러닝은 10년 전 AlexNet 이래로 자율주행, 로보틱스, 스마트 스피커 등 거대한 새로운 시장을 개척해 왔으며, 우리가 쇼핑하고, 뉴스를 소비하고, 음악을 즐기는 방식을 재창조했습니다. 이것은 사실 빙산의 일각일 뿐이죠. 생성형 AI가 새로운 기회의 물결을 일으키며 추론 워크로드의 단계적 증가를 주도하면서 AI는 변곡점을 맞이하고 있습니다. AI는 이제 음성, 텍스트, 이미지, 영상 및 3D 그래픽을 넘어 단백질 및 화학 물질에 이르기까지 다양한 데이터를 생성할 수 있습니다. 생성형 AI를 처리하기 위해 클라우드 데이터센터를 설계하는 것은 엄청난 과제입니다.
한편으로는, 단일 유형의 가속기는 데이터센터를 탄력적으로 작동시키고 예측 불가능한 트래픽의 고점과 저점을 처리할 수 있기 때문에 이상적입니다. 반면, 어느 가속기도 알고리즘, 모델, 데이터 유형 및 크기의 다양성을 최적으로 처리할 수 없습니다. NVIDIA의 One Architecture 플랫폼은 가속화와 탄력성을 모두 제공합니다. 오늘, 네 가지 컨피규레이션 - 하나의 아키텍처 - 하나의 소프트웨어 스택으로 구성된 새로운 추론 플랫폼을 발표합니다. 각 구성은 워크로드 분류에 맞게 최적화되어 있습니다. AI 영상 워크로드의 경우, 영상 디코딩 및 트랜스코딩, 영상 콘텐츠 조정, 배경 교체, 조명 켜기, 아이 콘택트, 전사, 실시간 언어 번역과 같은 화상 통화 기능에 최적화된 L4를 제공합니다.
현재 대부분의 클라우드 영상은 CPU에서 처리됩니다. 1대의 8GPU L4 서버가 AI 영상 처리를 위해 100대 이상의 듀얼 소켓 CPU 서버를 대체할 것입니다. Snap은 컴퓨터 비전 및 추천 시스템을 위한 NVIDIA AI의 선도적인 사용자입니다. Snap은 AV1 영상 처리, 생성형 AI 및 증강 현실을 위해 L4를 사용합니다. Snapchat 사용자는 매일 수억 개의 영상을 업로드합니다. Google에서는 오늘 GCP에서 NVIDIA L4를 발표했습니다. NVIDIA와 Google Cloud는 L4에 주요 워크로드를 배포하기 위해 노력하고 있습니다.
다섯 가지 하이라이트를 소개해드리겠습니다.
첫째, NVIDIA는 Wombo 및 Descript와 같은 클라우드 서비스를 위한 생성형 AI 모델의 추론을 가속화하고 있습니다.
둘째, Triton 추론 서버를 Google Kubernetes Engine 및 VertexAI와 통합하고 있습니다.
셋째, NVIDIA Spark-RAPIDS를 통해 Google Dataproc을 가속화하고 있습니다.
넷째, AlphaFold와 UL2 및 T5 대규모 언어 모델을 가속화하고 있습니다.
다섯째, 3D 및 AR 경험을 렌더링하는 Google Cloud의 몰입형 스트림을 가속화하고 있습니다.
이번 협력을 통해 Google GCP는 프리미어 NVIDIA AI 클라우드가 되었습니다. NVIDIA의 협업에 관한 더 많은 내용을 곧 전해드리기를 기대합니다. 그래픽 렌더링 및 텍스트-이미지와 텍스트-영상 같은 생성형 AI, Omniverse를 위한 L40을 발표합니다. L40은 가장 인기 있는 클라우드 추론 GPU인 NVIDIA T4보다 성능이 최대 10배 뛰어납니다. Runway는 생성형 AI의 선구자입니다. 이들 연구 팀은 Stable Diffusion과 이전 버전인 Latent Diffusion의 핵심 크리에이터였습니다. Runway는 콘텐츠 제작 및 편집을 위한 생성형 AI 모델을 발명하고 있습니다.
30개 이상의 AI Magic Tools를 갖춘 이 기업들의 서비스는 클라우드에서 모두 창의적인 프로세스를 혁신하고 있습니다. 한번 살펴보죠. Runway를 통해 누구나 놀라운 AI 기반 비디오 편집 및 이미지 제작 도구를 이용할 수 있습니다. 로컬 또는 클라우드에서 실행되는 최신 세대의 NVIDIA GPU를 기반으로 Runway는 몇 번의 브러시질 만으로도 영상에서 개체를 제거할 수 있습니다. 아니면 입력 이미지만 사용하여 비디오에 다른 스타일을 적용하거나 영상의 배경 또는 전경을 변경할 수 있습니다. 기존 도구로 몇 시간이 걸리던 작업을 이제는 전문 방송과 같은 품질로 불과 몇 분 만에 완료할 수 있습니다.
Runway는 오픈 소스 프로젝트인 CV-CUDA를 활용하여 이를 수행하는데, 이 프로젝트는 개발자가 컴퓨터 비전 워크로드를 위해 아주 효율적인 GPU 가속 전처리 및 후처리 파이프라인을 구축하고 클라우드로 확장하도록 지원합니다. NVIDIA 기술을 통해 Runway는 불가능을 가능케 하여 콘텐츠 크리에이터에게 최고의 경험을 제공합니다. 이전에는 전문가들만 할 수 있던 것을 이제 여러분도 할 수 있습니다. 실제로 Runway는 아카데미상 후보에 오른 할리우드 영화에서도 사용되며 NVIDIA는 이 기술을 전 세계 크리에이터에게 제공하고 있습니다.
ChatGPT와 같은 대규모 언어 모델은 상당히 새로운 추론 워크로드입니다. GPT 모델은 메모리 및 계산 집약적입니다. 또한 추론은 대량의 스케일아웃 워크로드이며 표준 범용 서버가 필요합니다. ChatGPT와 같은 대규모 언어 모델 추론을 위해 새로운 Hopper GPU, 즉 듀얼 GPU NVLINK가 탑재된 PCIE H100을 발표합니다. 새로운 H100에는 94GB의 HBM3 메모리가 있습니다. H100은 1,750억 개 매개변수의 GPT-3을 처리할 수 있습니다 또한 범용 PCIE 서버를 지원하여 쉽게 확장할 수 있습니다. 현재 클라우드에서 ChatGPT를 실질적으로 처리할 수 있는 유일한 GPU는 HGX A100입니다.
GPT-3 처리용 HGX A100과 비교했을 때, 듀얼 GPU NVLINK를 사용하는 H100 4쌍의 표준 서버는 최대 10배 빠릅니다. H100은 대규모 언어 모델 처리 비용을 대폭 절감할 수 있습니다. Grace Hopper는 Grace CPU와 Hopper GPU를 초당 900GB/s의 응집적인 칩 간 인터페이스로 연결하는 새로운 슈퍼칩입니다. Grace Hopper는 추천 시스템 및 대규모 언어 모델에 대한 AI 데이터베이스와 같은 거대한 데이터 세트를 처리하는 데 이상적입니다. 현재 CPU는 대용량 메모리, 저장 및 대형 쿼리 임베딩 테이블을 가지고 추론을 위해 결과를 GPU로 전송합니다.
Grace-Hopper를 통해 Grace는 임베딩 테이블을 쿼리하고 결과를 PCIE보다 7배 빠른 고속 인터페이스를 통해 Hopper로 직접 전송합니다. 고객은 몇 배 더 큰 규모의 AI 데이터베이스를 구축하기를 원합니다. 이때 Grace-Hopper는 이상적인 엔진입니다. 다양한 AI 워크로드를 위한 하나의 아키텍처이자 최대의 데이터센터 가속과 탄력성을 겸비한 NVIDIA의 추론 플랫폼입니다. 세계 최대 규모의 산업은 물리적 제품을 만들지만 디지털 방식으로 구축하기를 원합니다. Omniverse는 디지털과 물리적 환경을 연결하는 산업 디지털화를 위한 플랫폼입니다.
이는 물리적 복제본을 만들기 전에 산업이 물리적 제품 및 공장을 디지털식으로 설계, 구축, 운영 및 최적화할 수 있도록 지원합니다. 디지털화는 효율성과 속도를 높이고 비용을 절감합니다. Omniverse의 한 가지 활용 사례는 실제 공장을 건설하기 전에 모든 기계가 디지털 방식으로 통합된 공장을 가상으로 불러오는 것입니다. 이를 통해 급조, 주문 변경, 공장 개장 지연이 줄어듭니다. 가상 공장 통합을 통해 전 세계 공장의 비용을 수십억 달러 절감할 수 있습니다. 반도체 업계는 5,000억 달러를 투자하여 84개의 새로운 팹(fab)을 구축하고 있습니다.
2030년까지 자동차 제조업체는 300개 공장을 건설하여 2억 대의 전기 자동차를 생산할 것입니다. 또한 배터리 제조업체는 100개 이상의 메가 공장을 구축하고 있습니다. 디지털화는 물류에도 변화를 가져와 전 세계 수십억 평방피트의 창고에서 상품을 운송하고 있습니다. Amazon이 Omniverse를 사용하여 자율 창고를 자동화, 최적화 및 계획하는 방법을 살펴보겠습니다. Amazon Robotics는 세계 최대 규모의 모바일 산업용 로봇 군단을 제조 및 배포했습니다. 이 로봇 군단의 최신 구성원은 Amazon 최초의 완전 자율 물류창고 로봇인 Proteus입니다.
Proteus는 고급 안전, 인지 및 내비게이션 기술을 사용하여 시설 내부를 이동하도록 제작되었습니다. Omniverse에 구축된 NVIDIA Isaac Sim이 물리적으로 정확한 포토리얼 시뮬레이션을 제작하여 Proteus 배포 가속화를 지원하는 방법을 살펴보겠습니다. Proteus는 카메라, 라이더 및 초음파 센서 등 자율 주행 소프트웨어 시스템을 위한 여러 센서들을 탑재하고 있습니다. Proteus 팀은 신경망의 성능을 향상해야 했는데, 이 뉴럴 네트워크는 로봇이 기준 마커를 읽고 지도에서 자신의 위치를 판정하는 데 도움이 됩니다. 로봇 센서 입력에 의해 구동되는 ML 모델을 학습시키려면 올바른 데이터가 대량으로 필요합니다. Amazon Robotics는 Isaac Sim의 Omniverse Replicator를 사용하여 대규모의 사실적인 합성 데이터 세트를 생성함으로써 마커 감지 성공률을 88.6%에서 98%로 높였습니다.
Omniverse Replicator에서 생성한 합성 데이터 덕분에 개발 시간도 수개월에서 며칠로 줄었습니다. 실제 데이터만 사용할 때보다 모델을 훨씬 빠르게 반복 테스트하고 학습시킬 수 있었기 때문입니다. 확장되는 Proteus 로봇의 새로운 자율 기능을 지원하기 위해 Amazon Robotics는 대규모 다중 센서, 다중 로봇 시뮬레이션을 구축하여 시뮬레이션과 현실 사이의 간극을 좁히기 위해 노력하고 있습니다. Amazon Robotics는 Omniverse를 통해 완전한 충실도의 창고 디지털 트윈으로 운영을 최적화할 것입니다.
합성 데이터를 생성하든 새로운 수준의 자율성을 개발하든, Omniverse의 Isaac Sim은 Amazon Robotics 팀이 시설 전체에 Proteus를 배포할 때 시간과 비용을 절약하는 데 도움이 됩니다. Omniverse에는 디지털화를 위한 고유한 기술이 있습니다. 또한 Omniverse는 팀이 협업하여 가상 세계와 디지털 트윈을 만들 수 있는 공통 언어 역할을 하는 최고의 USD 개발 플랫폼입니다. Omniverse는 물리 법칙을 반영하는 물리 기반입니다. 이는 로보틱 시스템에 연결하고 하드웨어 인 더 루프로 작동할 수 있습니다. 생성형 AI를 탑재하여 가상 세계의 창조를 가속화합니다. 또한 Omniverse는 방대한 규모의 데이터 세트를 관리할 수 있습니다. NVIDIA는 모든 분야에서 Omniverse를 상당히 업데이트했습니다. 함께 보시죠. 약 30만 명의 크리에이터와 디자이너가 Omniverse를 다운로드했습니다.
Omniverse는 툴이 아니라 USD 네트워크이자 공유 데이터베이스이며, 산업 전반에서 사용되는 디자인 툴들에 연결되는 패브릭입니다. 업계 최고의 툴들로 만든 에셋을 연결하고 구성하고 시뮬레이션합니다. 저희는 Omniverse 연결이 성장하게 되어 기쁘게 생각하고 있습니다. 각 연결은 한 플랫폼의 에코시스템과 다른 모든 플랫폼의 에코시스템을 연결합니다.
Omniverse 네트워크의 네트워킹은 기하급수적으로 증가하고 있습니다. 현재 Bentley Systems LumenRT가 연결되어 있습니다. Siemens Teamcenter, NX 및 Process Simulate, Rockwell Automation Emulate 3D, Cesium, Unity 등도 마찬가지입니다.
이제 3조 달러 규모의 자동차 산업의 디지털화를 살펴보고 자동차 기업들이 워크플로우에서 Omniverse를 어떻게 평가하는지 살펴보겠습니다. Volvo Cars와 GM은 Omniverse USD Composer를 사용하여 에셋 파이프라인을 연결하고 통합합니다.
GM은 Alias, Siemens NX, Unreal, Maya 및 3ds Max를 사용하여 디자이너, 조각가 및 아티스트를 연결하고 구성 요소를 가상으로 자동차의 디지털 트윈에 조합합니다. 엔지니어링 및 시뮬레이션 측면에서는, Omniverse에서 Powerflow 공기 역학을 시각화합니다.
차세대 Mercedes-Benz와 Jaguar Land Rover 자동차를 위해, 엔지니어들은 Omniverse의 Drive Sim을 사용하여 AI 모델을 훈련하고 가상 NCAP 주행 테스트에 대한 활성 안전 시스템을 검증하며 실제 주행 시나리오를 시뮬레이션하기 위해 합성 데이터를 생성합니다.
Omniverse의 생성형 AI는 이전의 주행 경로를 3D로 재구성하여 과거의 경험을 재연하거나 수정할 수 있도록 합니다. Idealworks와 협력하고 있는 BMW는 Omniverse의 Isaac Sim을 사용하여 공장 로봇을 훈련시키는 합성 데이터와 시나리오를 생성하고 있습니다.
Lotus는 Omniverse를 사용하여 용접 스테이션을 가상으로 조립하고 있습니다. Toyota는 Omniverse를 사용하여 공장의 디지털 트윈을 구축하고 있습니다.
Mercedes-Benz는 Omniverse를 사용하여 새로운 모델을 위한 조립 라인을 구축, 최적화 및 계획합니다. Rimac과 Lucid Motors는 자동차를 충실도 높게 표현하는 실제 디자인 데이터로 디지털 스토어를 구축하기 위해 Omniverse를 사용하고 있습니다. BMW는 Omniverse를 사용하여 전 세계 약 36개 공장에서 운영을 계획하고 있습니다. 그리고 실제 공장이 개장하기 2년 전인 현재, Omniverse에서 완전히 새로운 EV 공장을 구축하고 있습니다. 확인해 보시죠. 전 세계 산업이 향후 3년 동안 3.4조 달러 이상을 투자하면서 디지털화를 가속할 전망입니다.
BMW는 자동차 디지털화 분야에서 우위를 점하기 위해 노력하고 있습니다. NVIDIA Omniverse 및 AI를 통해 BMW는 새로운 공장을 그 어느 때보다 빠르게 구축하고 더 효율적으로 생산합니다. 그 결과 상당한 절감이 이뤄집니다. 모든 것은 계획에서 시작됩니다. 많은 도구와 데이터 세트, 전문가를 연결해야 하는 복잡한 프로세스입니다. 지금까지 BMW는 데이터가 다양한 시스템과 도구에서 별도로 관리되기 때문에 한계를 겪었습니다. 이제는 그 모든 것을 바꿨습니다. BMW는 기존 도구, 노하우 및 팀을 통합된 뷰로 연결하는 맞춤형 Omniverse 애플리케이션을 개발하고 있습니다.
Omniverse는 클라우드 네이티브이며 클라우드에 구애받지 않기 때문에 팀은 어디서든 가상 공장을 통해 협업할 수 있습니다. 저는 2025년에 개장하는 헝가리 데브레첸의 새 전기차 공장을 위한 가상 계획 세션에 참여하려고 하는데요. 함께 참여해 보시죠.
계획 담당자 1: 아, Milan이 왔네요.
Milan: 안녕하세요, 여러분!
계획 담당자 1: 안녕하세요,
Milan. 바디 샵을 위한 최적화 루프를 작업하던 중입니다. 보시겠어요?
Milan: 감사합니다. 꼭 보고 싶네요. 그리고 친구를 초대하고 싶습니다.
계획 담당자 1: 그러세요.
Jensen: 안녕하세요, Milan! 만나서 반가워요.
Milan: Jensen, 가상 계획 세션에 오신 것을 환영해요.
Jensen: 초대해 주셔서 고마워요. 지금 뭘 보고 있는 거죠?
Milan: 이 팀은 데브레첸의 디지털 트윈에서 로봇 셀 작업을 하고 있는
글로벌 계획 팀입니다. Matthias, 현황을 설명해 주세요...
Matthias: 방금 생산 컨셉에 변경이 필요하다는 사실을 알게 됐습니다.
이제 새로운 로봇을 셀에 추가할 레이아웃을 재구성하고 있습니다.
계획 담당자 2: 좋아요. 하지만 물류 측면에서 새로운 로봇을 추가하면
스토리지 컨테이너를 옮겨야 합니다.
계획 담당자 3: 알겠습니다. 새 로봇을 넣어 보죠.
Matthias: 완벽합니다. 하지만 한 번 더 확인해 보죠.
셀을 실행할 수 있나요? 아주 좋습니다.
Jensen: Milan, 정말 놀랍네요! 가상 공장 통합은 모든 산업에 필수적입니다.
우리 팀이 함께 해 낸 일을 보니 정말 자랑스럽네요. 축하드립니다!
Milan: 저희는 현지에서 최적화하기 위해 전 세계적으로 노력하고 있습니다. 계획 후에는 운영이 매우 중요한데, 저희는 이미 시작했죠! 가상 공장의 출시를 기념하기 위해 최초의 디지털 공장 오픈에 여러분을 초대합니다.
Jenson: 영광입니다. 해 보자고요! 자동차 회사는 거의 1,400만 명의 직원을 고용하고 있습니다. 디지털화는 업계의 효율성, 생산성 및 속도를 향상시킵니다. Omniverse는 산업 디지털화를 실현하는 디지털-물리적 운영 체제입니다.
오늘 NVIDIA는 Omniverse를 실행하도록 설계된 세 가지 시스템을 발표합니다.
우선 NVIDIA Ada RTX GPU 및 Intel의 최신 CPU 기반의 차세대 워크스테이션을 출시합니다. 이 새로운 워크스테이션은 레이 트레이싱, 물리 시뮬레이션, 뉴럴 그래픽 및 생성형 AI를 수행하는 데 이상적입니다. 이는 3월부터 Boxx, Dell, HP 및 Lenovo에서 구매할 수 있습니다.
두 번째는 Omniverse에 최적화된 새로운 NVIDIA OVX 서버입니다.
OVX는 L40 Ada RTX 서버 GPU와 새로운 BlueField-3로 구성됩니다. OVX 서버는 Dell, HPE, Quanta, Gigabyte, Lenovo 및 Supermicro에서 구매할 수 있습니다. 칩, 시스템, 네트워킹 및 소프트웨어를 포함한 Omniverse 스택의 각 계층은 새로운 발명품입니다. Omniverse 컴퓨터를 구축 및 운영하려면 정교한 IT 팀이 필요합니다. 저희는 Omniverse를 빠르고 쉽게 확장하고 참여할 수 있게 만들 것입니다.
함께 보시죠. 세계 최대 산업들이 물리적 프로세스를 디지털화하기 위해 경쟁하고 있습니다. 오늘날 그것은 복잡한 사업입니다. NVIDIA Omniverse Cloud는 관리형 Omniverse Cloud API, 워크플로, NVIDIA OVX에서 실행되는 맞춤형 애플리케이션에 즉각적이고 안전한 액세스를 제공하는 플랫폼형 서비스형 클라우드입니다. 엔터프라이즈 팀은 웹 브라우저 Omniverse Launcher 또는 맞춤 구축된 통합을 통해 관리형 서비스 제품군에 액세스합니다. Omniverse Cloud에 들어가면 엔터프라이즈 팀은 즉시 기초 애플리케이션과 워크플로우에 액세스, 확장 및 게시하여 가상 월드를 조합 및 구성하거나 인지 AI의 학습을 위한 데이터를 생성하거나 자율주행 자동차를 테스트 및 검증하거나 자율 로봇을 시뮬레이션할 수 있습니다.
이는 공유 데이터에 액세스하고 데이터를 Omniverse Nucleus에 게시합니다. RTX 워크스테이션에서 선호하는 서드 파티 디자인 도구로 작업하는 디자이너와 엔지니어들은 편집을 Nuclues로 병렬 게시할 수 있습니다. 그런 다음 Omniverse에서 통합 모델을 반복하거나 볼 준비가 되면 웹 브라우저를 열고 로그인하기만 하면 됩니다. 프로젝트와 팀이 확장되면 Omniverse Cloud는 컴퓨팅 리소스 및 라이선스를 필요에 따라 프로비저닝함으로써 비용을 최적화하는 데 도움을 줍니다. 그리고 새로운 서비스와 업그레이드는 실시간 업데이트를 통해 자동으로 제공됩니다.
Omniverse Cloud를 사용하면 엔터프라이즈는 주요 산업 워크플로 전반에서 효율을 높이고, 비용과 낭비를 줄이고, 혁신으로 향하는 길을 가속하여 통합된 디지털화 및 협업을 빠르게 실현할 수 있습니다. Omniverse에서 만납시다! 완전 관리형 클라우드 서비스인 NVIDIA Omniverse Cloud를 발표합니다.
NVIDIA는 Microsoft와 협력하여 Omniverse Cloud를 전 세계 산업에 제공합니다. Azure에서 호스팅하며 Microsoft의 풍부한 스토리지, 보안, 애플리케이션 및 서비스 포트폴리오의 혜택을 누릴 것입니다.
NVIDIA는 Omniverse Cloud를 Teams, OneDrive, SharePoint 및 Azure IoT 디지털 트윈 서비스를 포함한 Microsoft 365 생산성 제품군과 연결하고 있습니다. 또한, Microsoft와 NVIDIA는 수억 명의 Microsoft 365 및 Azure 사용자에게 Omniverse를 제공하고 있습니다. 가속 컴퓨팅과 AI가 등장했습니다. 개발자는 NVIDIA를 사용하여 이전에 불가능했던 문제를 해결하기 위해 가속 및 확장 작업을 하고 있습니다. 어려운 과제는 Net Zero입니다. 모든 기업은 모든 워크로드를 가속화하여 전력을 개선해야 합니다.
가속 컴퓨팅은 풀스택, 데이터센터 규모의 계산 과제입니다. Grace, Grace-Hopper 및 BlueField-3는 에너지 효율이 매우 높은 가속 데이터센터를 위한 새로운 칩입니다. 가속화 라이브러리는 새로운 과제를 해결하고 새로운 시장을 엽니다. NVIDIA는 양자 컴퓨팅을 위한 cuQuantum, 조합 최적화를 위한 cuOpt, 컴퓨팅 리소그래피를 위한 cuLitho를 포함한 100개의 가속화 라이브러리를 업데이트했습니다. NVIDIA는 2nm 이상으로 넘어갈 수 있도록 TSMC, ASML 및 Synopsys와 파트너십을 맺게 되어 매우 기쁩니다.
NVIDIA DGX AI 슈퍼컴퓨터는 생성형 대규모 언어 모델의 혁신을 뒷받침하는 엔진입니다. DGX H100 AI 슈퍼컴퓨터는 생산 중이며 전 세계 OEM 및 클라우드 파트너의 확장 네트워크에서 곧 구매할 수 있습니다. DGX 슈퍼컴퓨터는 연구를 넘어 현대적인 AI 공장으로 거듭나고 있습니다. 모든 기업은 인텔리전스를 생산할 것입니다.
NVIDIA는 Microsoft Azure, Google GCP 및 Oracle OCI와 협력하여 브라우저에서 NVIDIA AI를 모든 기업에 즉시 도입함으로써 NVIDIA DGX 클라우드와의 비즈니스 모델을 확장하고 있습니다.
DGX 클라우드는 고객에게 NVIDIA의 최고 기술과 세계 최고의 CSP를 제공합니다. 우리는 지금 AI의 아이폰 시대를 맞이하고 있습니다. 생성형 AI 추론 워크로드가 급증하고 있습니다. NVIDIA는 네 개의 구성과 한 개의 아키텍처로 구성된 새로운 추론 플랫폼을 출시했습니다. AI 영상용 L4. Omniverse 및 그래픽 렌더링용 L40. 대규모 언어 모델 추론 확장을 위한 H100 PCIE. 추천 시스템 및 벡터 데이터베이스를 위한 Grace-Hopper. NVIDIA의 추론 플랫폼은 최대한의 데이터센터 가속화와 탄력성을 지원합니다. NVIDIA와 Google Cloud가 협력하여 광범위한 추론 워크로드를 배포하고 있습니다.
이번 협력을 통해 Google GCP는 프리미어 NVIDIA AI 클라우드가 되었습니다. NVIDIA AI Foundations는 맞춤형 언어 모델 및 생성형 AI를 구축하기 위한 클라우드 서비스이자 파운드리입니다. NVIDIA AI Foundation은 언어, 시각 및 생물학 모델 제작 서비스로 구성됩니다. Getty Images와 Shutterstock은 맞춤형 비주얼 언어 모델을 구축하고 있습니다. 그리고 NVIDIA는 Adobe와 협력하여 크리에이티브의 미래를 위한 일련의 차세대 AI 기능을 구축하고 있습니다. Omniverse는 산업 디지털화를 실현하는 디지털-물리적 운영 체제입니다.
Omniverse는 엔드 투 엔드 워크플로우를 통합하여 3조 달러 규모의 1,400만 명이 종사하는 자동차 산업을 디지털화할 수 있습니다. Omniverse가 클라우드로 도약합니다. Azure에서 호스팅되는 NVIDIA는 Microsoft와 협력하여 Omniverse Cloud를 전 세계 산업에 제공합니다. 시스템, 클라우드, 소프트웨어 파트너, 연구원, 과학자, 특히 NVIDIA 가속 컴퓨팅 에코시스템을 구축해준 훌륭한 직원 여러분께 감사드립니다. 우리는 다 함께 전 세계가 불가능한 일을 해내도록 돕고 있습니다.
즐거운 GTC 되시길 바랍니다!