Erfüllung moderner Anwendungsanforderungen mit Datenverarbeitungseinheiten

Dieser Blog ist ein Gastautor von Brad Casemore, Research Vice President, Datacenter and Multicloud Networks bei IDC.

IDC stellt fest, dass die meisten Unternehmen heute verstehen, dass die IT-Infrastruktur modernisiert und digitalisiert werden muss, um den Anforderungen und Erfordernissen der digitalen Transformation gerecht zu werden. Schließlich muss die Struktur – und sicherlich die Infrastruktur – der Strategie folgen und sie ermöglichen.

Das Streben nach Modernisierung der Infrastruktur ist jedoch eine Sache, und dies tatsächlich erfolgreich umzusetzen, ist eine ganz andere Sache. IDC sieht diese Herausforderung eindeutig im Zusammenhang damit, wie Unternehmen die komplementären, aber manchmal konkurrierenden Ressourcenanforderungen von Geschäfts-Workloads sowie Netzwerk- und Sicherheitsfunktionen angehen.

Während das Einfügen und Verketten von Netzwerk- und Sicherheitsfunktionen an sich schon eine Herausforderung darstellt, besteht eine zusätzliche Komplikation darin, dass die Verarbeitung von Netzwerk- und Sicherheitsfunktionen und -diensten wertvolle CPU-Zyklen und Ressourcen beansprucht, die für geschäftliche Workloads reserviert werden sollten. Netzwerk- und Sicherheitsfunktionen sind zwar wichtig für die Leistung und den Schutz von Geschäfts-Workloads, aber sekundäre unterstützende Elemente, die den Zwecken von Geschäfts-Workloads dienen sollten, anstatt ihre Effektivität zu beeinträchtigen. Darüber hinaus haben Netzwerk- und Sicherheitsdienste ihre besonderen Ressourcenanforderungen, die in verteilten Infrastrukturumgebungen elastisch skaliert werden müssen, um die Höhen und Tiefen des digitalen Geschäfts zu unterstützen.

Die Lösung dieser Herausforderung kann natürlich nicht darin bestehen, Netzwerk- und Sicherheitsfunktionen zu vermeiden oder anderweitig zu eliminieren, die notwendig sind, aber einzeln und insgesamt einen wachsenden Prozentsatz der CPU-Ressourcen verbrauchen können. Virtualisierte und containerisierte Netzwerk- und Sicherheitsdienste sind für die digitale Infrastruktur unerlässlich und müssen mit den Ressourcen ausgestattet werden, die sie benötigen, um dem Unternehmen eine robuste und robuste Konnektivität und starke Sicherheit zu bieten. Was ist also die richtige architektonische Antwort, um die Herausforderung zu meistern, geschäftliche Workloads für eine bessere Leistung und Optimierung zu priorisieren und gleichzeitig sicherzustellen, dass diese Workloads angemessene Unterstützung durch integrierte Netzwerk- und Sicherheitsdienste erhalten?

Ein integriertes, optimiertes und elastisch skalierbares Offload-Element ist erforderlich, um überlastete CPUs zu entlasten und Prozessor- und Speicherressourcen für Anwendungsworkloads freizugeben. Beim Hinzufügen einer Offload-Ergänzung zu dieser modernen IT-Architektur müssen wir sicherstellen, dass sie bestimmte Fähigkeiten und Merkmale bietet, darunter:

    • Hardwarebasierte Abwehrfunktionen zur Minimierung der Auswirkungen von Sicherheitslücken auf niedriger Ebene in der zentralen Ausführungsumgebung.
    • Bereitstellungsfähigkeit für ein konsistentes Betriebsmodell über die verteilte Verarbeitung hinweg, um Servicequalitätsprobleme anzugehen, die schwierig zu beheben und schnell zu beheben sind.
    • Eingebaute hardwarebasierte Isolierung zur Trennung von Netzwerk- und Sicherheitsfunktionen sowie für Verwaltungs- und Kontrollfunktionen zum Schutz vor Angriffen, die das Betriebssystem oder die Workload-Ausführungsumgebung gefährden könnten.

Eine Technologie, die all diese Kästchen ankreuzt, ist die Datenverarbeitungseinheit (DPU), auch SmartNIC genannt, die entwickelt wurde, um die Herausforderungen der sicheren Skalierung verteilter IT-Architekturen zu meistern. Im Wesentlichen ist eine DPU ein programmierbares System auf einem Chip (SoC) mit Hardwarebeschleunigung und einem CPU-Komplex, der Daten verarbeiten kann.

Da DPUs so ausgelegt sind, dass sie unabhängig von der CPU arbeiten, ist das architektonische Ergebnis, dass CPUs das Vorhandensein von DPUs erkennen, sie aber nicht steuern. Folglich steuert die DPU den Zugriff auf physische Ressourcen wie Netzwerkschnittstellen, über die auf sensible Daten zugegriffen werden kann. Jede auf der CPU ausgeführte Nutzlast, einschließlich des Kernels selbst, die Zugriff auf diese Ressourcen erhalten muss, muss Funktions-Offload-Schnittstellen durchlaufen, die in virtualisierter Form der Betriebssystemumgebung präsentiert werden, die auf der CPU läuft. Dieser architektonische Dualismus ermöglicht es der DPU, die direkte Ausführung von Netzwerk- und Sicherheitsfunktionen zu übernehmen.

Die Herausforderung, die Anforderungen von Geschäftslasten und damit verbundenen Netzwerk- und Sicherheitsfunktionen zu erfüllen, ist somit gelöst. Daraus ergeben sich mehrere überzeugende Vorteile, darunter die folgenden:

    • Verbesserte und einheitliche Ressourcennutzung für geschäftliche Workloads. Durch die Auslagerung von Netzwerk- und Sicherheitsdiensten auf die DPU wird sichergestellt, dass die CPU-Verarbeitungsressourcen vollständig verfügbar sind, um die Leistung von Geschäfts-Workloads zu verbessern. Durch die Auslagerung des rechenintensiven Netzwerks und der Sicherheit sowie der Funktionen der Verwaltungs- und Steuerungsebene auf die DPU und von der Host-CPU erhalten Geschäfts-Workloads optimale Verarbeitungsressourcen.
    • Geschützte architektonische Umgebung. Die Sicherheit wird durch die Fähigkeit verbessert, Netzwerk- und Sicherheitsdienste auf der DPU auszuführen, wodurch sichergestellt wird, dass der Nutzdatencode von anderen Komponenten isoliert ist, die auf dem Host-Prozessor ausgeführt werden.
    • Fähigkeit zur Unterstützung des Offloads zusätzlicher Funktionen und Payloads. Ein langfristiger Vorteil der Verwendung von DPUs besteht darin, dass sie eine grundlegende Verwaltungsstruktur bereitstellen, die physische, virtuelle und containerisierte Rechenarchitekturen umfasst und einen CPU-agnostischen Ansatz für die Plattformentlastung ermöglicht. DPUs können besonders in gemeinsam genutzten Cloud-Infrastrukturumgebungen von Vorteil sein, in denen Mandantenfähigkeit und Workload-Isolierung erforderlich sind, um eine heterogene Mischung aus traditionellen und Cloud-nativen Workloads zu hosten.
    • Automatisierte Erweiterung der Netzwerkrichtlinie. Die DPU ist eine natürliche Erweiterung für SDN-Architekturen und Netzwerkvirtualisierungs-Overlays, die Richtlinien für die Erstellung und Erweiterung bestimmter Netzwerk- und Sicherheitsdienste definieren können, die eine dynamische Auslagerung für eine elastische Skalierung erfordern. Dies ist besonders nützlich bei Spitzen der Netzwerknachfrage und des Datenverkehrs und zur Minderung oder zum Schutz vor Netzwerksicherheitsvorfällen.
    • Verbesserte Netzwerkleistung und Beobachtbarkeit. Das Auslagern von Netzwerk- und Sicherheitsdiensten auf die DPU ermöglicht die Verwendung von Hardwarebeschleunigung, um die Leistung von virtuellen Netzwerk- und Sicherheitsfunktionen wie Overlay-Netzwerken, Lastausgleich und Firewall zu verbessern. Darüber hinaus bieten auf der DPU implementierte Netzwerksichtbarkeits- und Analysefunktionen eine umfassende Sichtbarkeit aller Verkehrsströme direkt auf der SmartNIC.

Um mehr darüber zu erfahren, wie die DPU den Ressourcenbedarf von Anwendungen mit den Anforderungen skalierbarer Netzwerk- und Sicherheitsdienste in Einklang bringt und wie das SmartDPU-Angebotsportfolio von Dell entwickelt wurde, um diesen Anforderungen gerecht zu werden, lesen Sie bitte das IDC-Whitepaper Der Aufstieg der DPU: Ressourcenbedarf von Anwendungen mit Anforderungen für skalierbare Netzwerkfunktionen in Einklang bringen.

Brad Casemore ist Research Vice President, Datacenter and Multicloud Networks von IDC. Er befasst sich mit Netzwerkhardware, -software, IaaS-Cloud-gelieferten Netzwerkdiensten und verwandten Technologien, einschließlich Hybrid- und Multicloud-Netzwerksoftware, -diensten und -transitnetzwerken für Rechenzentrumsnetzwerke. Herr. Casemore arbeitet außerdem eng mit den Research-Analysten von IDC für Enterprise Networking, Server, Storage, Cloud und Security zusammen, um die Auswirkungen der neu entstehenden IT und der konvergenten und hyperkonvergenten Infrastruktur zu bewerten. Er forscht zu Technologiebereichen wie Ethernet-Switching im Rechenzentrum, Application Delivery Controllers (ADCs) und Application-Delivery-Infrastruktur, SD-WAN, Software-Defined Networks, Hybrid- und Multicloud-Networking, Netzwerkvirtualisierung, Netzwerkautomatisierung, Software Defined Networks (SDN) , Multicloud Networking und Cloud-native Networking (wie Ingress Controller, Service Mesh und eBPF/Cilium). In dieser Funktion ist Hr. Casemore bietet fortlaufende Forschung für IDCs Continuous Information Service (CIS), Marktprognosen, kundenspezifische Beratung und Go-To-Market-Services.

Author: admin

Leave a Reply

Your email address will not be published.