Erleben Sie KI mit NVIDIA H100 auf Dell Servern

NVIDIA H100 Tensor Core-GPUs auf Dell PowerEdge-Servern ermöglichen das KI-fähige Unternehmen – testen Sie sie noch heute auf NVIDIA LaunchPad, das kostenlose, praktische Labors bietet, die Unternehmen Zugriff auf die neueste Hardware und NVIDIA-KI-Software bieten.

Was treibt den dramatischen Wechsel zu KI als Mainstream-Business-Enabler an? Daten und Rechenleistung. Heutige Unternehmen verfügen über eine beispiellose Menge an Daten und Zugang zu High Performance Computing (HPC), was wiederum Data Scientists in die Lage versetzen kann, außergewöhnliche Herausforderungen zu lösen. Der Schlüssel zum Erfolg für innovative moderne Unternehmen? Eine KI-fähige End-to-End-Unternehmensplattform, die Leistungsherausforderungen der nächsten Generation meistern kann.

Starten Sie schnell KI-Initiativen mit neuen Leistungslösungen

Die NVIDIA-zertifizierten PowerEdge-Systeme von Dell mit NVIDIA H100 Tensor Core-GPUs und NVIDIA AI Enterprise, einer durchgängigen, Cloud-nativen Suite von KI- und Datenanalysesoftware, stellen sich der Herausforderung – und jetzt können Sie NVIDIA H100-GPUs auf NVIDIA Launchpad ausprobieren, gebaut auf Dell Technologies PowerEdge-Server. Sehen Sie selbst, wie wir KI und ihre bahnbrechenden Möglichkeiten für fast jede Organisation zugänglich machen, mit der höchsten Leistung in Training, Inferenz und Data Science.

Jetzt können Kunden die neue Technologie sofort ausprobieren und erfahren, wie die NVIDIA-zertifizierten Systeme von Dell mit H100 und NVIDIA AI Enterprise die Entwicklung und Bereitstellung von KI-Workflows optimieren, um KI-Chatbots, Empfehlungs-Engines, Vision-KI und mehr zu erstellen.

Durch die Ermöglichung eines Größenordnungssprungs für groß angelegte KI und HPC bietet die in Dell PowerEdge-Servern bereitgestellte H100-GPU beispiellose Leistung, Skalierbarkeit und Sicherheit für jedes Rechenzentrum. Und da NVIDIA AI Enterprise zusammen mit NVIDIA H100 den Aufbau einer KI-fähigen Plattform vereinfacht, können Unternehmen schneller Erkenntnisse gewinnen und früher geschäftlichen Nutzen erzielen.

Die neue H100-GPU ist optimal geeignet, um die schnellsten Geschäftsergebnisse mit den neuesten beschleunigten Servern der Welt zu liefern Dell EMC PowerEdge-Portfolio, beginnend mit dem R750xa. Der PowerEdge R750xa steigert Workloads auf neue Leistungshöhen mit GPU- und Beschleunigerunterstützung für anspruchsvolle Workloads, einschließlich Unternehmens-KI. Mit seinem verbesserten, luftgekühlten Design und der Unterstützung von bis zu vier NVIDIA-GPUs doppelter Breite ist der PowerEdge R750xa-Server speziell für optimale Leistung für das gesamte Spektrum von HPC-, AI-ML/DL-Trainings- und Inferenz-Workloads konzipiert.

Optimieren Sie die beschleunigte KI-Bereitstellung mit neuen Ressourcen

NVIDIA AI Enterprise umfasst bewährte Open-Source-Container und Frameworks, die die Einführung von Unternehmens-KI erleichtern, einschließlich Sprach-KI, die häufig für automatisierten Kundensupport und digitale Vertriebsmitarbeiter verwendet wird, und Computer Vision, die für Segmentierung, Klassifizierung und Erkennung verwendet wird.

Die NVIDIA-zertifizierten PowerEdge-Server von Dell, die alle Funktionen von H100-GPUs in nur 350 Watt thermischer Designleistung bieten und zusammen mit der NVIDIA AI Enterprise-Softwaresuite arbeiten, ermöglichen es jedem Unternehmen, mit KI zu glänzen.

NVIDIA AI Enterprise umfasst auch Enterprise-Support, der Unternehmen die Transparenz von Open Source und das Vertrauen gibt, das mit einer Lösung einhergeht, die sich bewährt hat und von Dell und NVIDIA sowie unserem weltweiten Servicepartnernetzwerk unterstützt wird. In Kombination ermöglicht die Fähigkeit, den KI-Workflow von den Anfangsphasen der Datenvorbereitung bis hin zu Modelltraining, Inferenz und Bereitstellung in großem Maßstab zu rationalisieren, sowohl KI-Praktiker als auch IT-Administratoren, KI-Projekte auf Kurs zu halten.

Die NVIDIA-zertifizierten Systeme von Dell mit H100 und NVIDIA AI Enterprise sind leistungsfähig, vielseitig und effizient und bieten mit der NVIDIA H100 Transformer Engine das schnellste KI-Training auf großen Modellen; höchste Effizienz und Sicherheit mit NVIDIA Multi-Instance GPU (MIG)-Technologie der zweiten Generation und Confidential Computing; und optimierte, marktführende Inferenzleistung mit der NVIDIA Triton Inference Server-Software. Mit der Fähigkeit, eine Vielzahl von Anwendungsfällen zu beschleunigen, und der Flexibilität, die gesamte KI-Pipeline auf einer Infrastruktur zu bedienen, bietet die Plattform eine effektive gemeinsame Nutzung von Ressourcen und die Möglichkeit, für maximale Agilität auf Multi-GPU- und Multi-Node-Konfigurationen zu skalieren.

Jetzt können Unternehmen die KI-Pipeline auf einer einzigen Infrastruktur warten und sich im Laufe der Zeit an den Umfang der Geschäftsanforderungen anpassen.

H100 beschleunigt Exascale-Workloads mit einer dedizierten Transformer Engine für große Sprachmodelle mit Billionen Parametern. Für kleine Jobs kann H100 in MIG-Partitionen mit der richtigen Größe partitioniert werden. Mit den Confidential Computing-Funktionen von Hopper kann diese skalierbare Rechenleistung sensible Anwendungen in gemeinsam genutzten Rechenzentrumsinfrastrukturen sichern. Diese Infrastrukturfortschritte, die zusammen mit der NVIDIA AI Enterprise-Softwaresuite arbeiten, machen das H100 zur leistungsstärksten End-to-End-KI- und HPC-Rechenzentrumsplattform.

Sind Sie bereit, die KI-fähige Unternehmensplattform für moderne Innovationen zu erleben?

Erfahren Sie mehr über alle KI-Workloads, die Sie auf H100 mit NVIDIA AI Enterprise über LaunchPad Hands-on Labs ausführen können hier.

Laden Sie die NVIDIA AI Enterprise-Software-Suite für H100 herunter und registrieren Sie sich hier für den NVIDIA-Support.

Author: admin

Leave a Reply

Your email address will not be published.