Zum Inhalt springen

NEWSDETAIL

Spannende Business-Chancen für ADN-Partner: Cloudian revolutioniert Objektspeicher mit NVIDIA

ADN-Hersteller Cloudian vereinfacht durch NVIDIA GPUDirect die KI-Datenspeicherung mit einer kostengünstigen, skalierbaren und leistungsstarken Objektspeicherlösung. Erfahren Sie, was die wichtigsten Vorteile für Partner sind und wie Sie von dem Schulterschluss der beiden Hersteller profitieren.

Cloudian, weltweit führend im Bereich sicherer S3-kompatibler KI-Datenlake-Plattformen, gab kürzlich die Integration seiner Speicherlösung mit der NVIDIA Magnum IO GPUDirect Storage technology bekannt. Cloudian HyperStore mit GPUDirect-Zugriff vereinfacht das Management von KI-Trainings- und Inferenzdatensätzen (im Petabyte- und Exabyte-Bereich) und reduziert gleichzeitig die Kosten, indem komplexe Datenmigrationen und veraltete Dateispeicherebenen vermieden werden.

Zafer Akay, Business Development Manager für Storage Solutions, bewertet den Schulterschluss zwischen Cloudian und NVIDIA als spannende Chance für Partner und deren Kunden. Die wichtigsten Vorteile ergeben sich dabei aus seiner Sicht aus der vereinfachten Datenverwaltung ohne Datenmigrationen , der direkten Kommunikation zwischen NVIDIA-GPUs und mehreren Cloudian-Speicherknoten ohne dabei die CPU anzusprechen und den Kosten sowie dem Sicherheitsfaktor, da eine separate Dateispeicherebene entfällt. „Für Unternehmen, die KI einführen, gilt Datensicherheit als höchste Priorität“, weiß Zafer Akay.

ADN-Partner profitieren davon, dass sie Know-how für beide Lösungen aus einer Hand bekommen. Als Value-Add-Distributor unterstützt ADN sie auf allen Etappen der erfolgreichen Implementierung bei ihren Kunden. Zafer Akay betont: „Von der Projektmeldung über Lieferung und Koordination der Installation bis zur Konzeptionierung des Projekts und Angebotserstellung stehen wir an der Seite unserer Partner.“ Außerdem ist die Kooperation zwischen Cloudian und NVIDIA ein weiterer Mosaikstein im neuen KI-Excellence-Center der ADN, das zum Ziel hat, KI greifbarer zu machen und Partnern näherzubringen, damit sie die Erfordernisse der Endkunden erfüllen können. ADN soll bundesweit die erste Adresse zum KI-Markteinstieg werden.

Wesentliche Vorteile von NVIDIA GPUDirect Storage für Objektspeicher in KI-Trainings- und Inferenz-Workflows im Überblick:

  • Unbegrenzte Skalierbarkeit: Erweitern Sie mühelos auf Exabyte-Skala ohne Unterbrechung und unterstützen Sie wachsende KI-Datensätze ohne zusätzliche Verwaltungsaufwände.
  • Keine Datenmigrationen: Betreiben Sie einen einzigen, einheitlichen Data Lake, ohne ständig Daten zwischen Ebenen verschieben zu müssen.
  • Hohe Leistung: Liefert über 200 GB/s von einem einzelnen System mit einer Leistung, die über einen Zeitraum von 30 Minuten ohne Daten-Caching aufrechterhalten wird.
  • Reduzierte Kosten: Entfernt die Notwendigkeit für veraltete Dateispeicherebenen und senkt so die Infrastrukturkosten.
  • Keine Kernel-Modifikationen: Beseitigt die Sicherheitslücken von anbietergetriebenen Kernel-Modifikationen und reduziert potenzielle Schwachstellen.
  • Maximierte CPU für KI-Workloads: Reduziert die CPU-Last während der Datenübertragung um 45 %, wodurch Rechenressourcen für die KI-Verarbeitung freigesetzt werden.
  • Integrierte Metadaten: Reichhaltige Metadaten ermöglichen schnelle Suchvorgänge ohne externe Datenbanken.

„Cloudian ist stolz darauf, an der Spitze der Transformation zu stehen, wie Unternehmen und KI-Hyperscaler Daten nutzen, um die Kraft der KI zu realisieren“, sagt Michael Tso, CEO von Cloudian. „Zu lange waren KI-Nutzer mit der unnötigen Komplexität und den Leistungsengpässen veralteter Speicherlösungen belastet. Mit der Integration von GPUDirect Storage ermöglichen wir es KI-Workflows, direkt auf eine einfach skalierbare Speicherarchitektur zuzugreifen, sodass Organisationen das volle Potenzial ihrer Daten ausschöpfen können.“

Michael McNerney, SVP Marketing und Netzwerksicherheit, ergänzt: „Bei Supermicro setzen wir uns dafür ein, die fortschrittlichsten und effizientesten Lösungen für KI und Deep Learning bereitzustellen.“ Cloudians Integration von NVIDIA GPUDirect Storage in die HyperStore-Reihe von Objektspeicher-Appliances, die auf Supermicro-Systemen basieren, einschließlich der Hyper 2U- und 1U-Server, der hochdichten SuperStorage-90-Bay-Speicherserver und der Simply Double 2U-24-Bay-Speicherserver, stelle eine bedeutende Innovation in der Nutzung von Objektspeicher für KI-Workloads dar. „Dies wird unseren gemeinsamen Kunden ermöglichen, leistungsfähigere und kosteneffizientere KI-Infrastrukturen im großen Maßstab einzusetzen“, betont Michael McNerney.

„Schnelle, konsistente und skalierbare Leistung in Objektspeichersystemen ist entscheidend für KI-Workflows“, weiß auch Rob Davis, Vice President für Speichertechnologie bei NVIDIA. „Sie ermöglicht Echtzeitverarbeitung und Entscheidungsfindung, die für Anwendungen wie Betrugserkennung und personalisierte Empfehlungen unerlässlich sind.“

 

Sie haben Fragen zur Lösung?
Wenden Sie sich gerne an:

Zafer Akay
Business Development Manager Storage Solutions
+49 2327 9912-362
zafer.akayadnde

Service & Support