MosaicML erreicht mit Oracle ein schnelleres Training von generativen KI-Modellen

MosaicML erreicht mit Oracle ein schnelleres Training von generativen KI-Modellen

Austin, Texas – MosaicML, ein Provider im Bereich Softwareentwicklung, der Infrastrukur und Tools zum Erstellen gross angelegter ML-Modelle bietet, wählt Oracle Cloud Infrastructure (OCI) als bevorzugte Cloud-Infrastruktur, um Unternehmen dabei zu helfen, noch mehr von ihren Daten zu profitieren. Mit der hochleistungsfähigen KI-Infrastruktur von OCI gibt MosaicML an, im Vergleich zu anderen Cloud-Providern eine bis zu 50 Prozent schnellere Performance und Kosteneinsparungen von bis zu 80 Prozent erzielt zu haben.

«Hunderte von Unternehmen verlassen sich auf die Plattform von MosaicML, um gross angelegte, komplexe generative KI-Modelle zu entwickeln und zu trainieren. Und wir stellen die komplexen Systeme und Hardware zur Verfügung, damit sich unsere Kunden auf die Entwicklung und Bereitstellung ihrer eigenen leistungsstarken benutzerdefinierten Modelle konzentrieren können», so Naveen Rao, CEO und Mitbegründer von MosaicML. «Wir haben uns für OCI entschieden, da wir glauben, dass es die beste Grundlage für MosaicML ist. Beim Training von Modellen mit riesigen Datenmengen in der Cloud zählt jede Minute – und mit OCI zahlen wir weniger als bei anderen Cloud-Providern. Ausserdem können wir aufgrund der Art und Weise, wie Oracle seine Verbindungen konfiguriert hat, nahezu linear skalieren.»

Mit seinen Modell-Trainingsfunktionen unterstützt MosaicML Unternehmen dabei, das Training und die Inferenz von KI-Modellen effizienter und zugänglicher zu gestalten. Um sein Geschäft zu skalieren und der wachsenden Nachfrage nach KI-Services gerecht zu werden, entschied sich MosaicML für OCI. Dank OCI konnte MosaicML auf die neuesten NVIDIA-GPUs, eine Verbindung zwischen Knoten mit grosser Bandbreite, und grosse Compute-Blockgrössen für die Skalierung auf Tausende von GPUs zugreifen, und dadurch Unternehmen und Startups bei der Operationalisierung von KI-Modellen, einschliesslich Twelve Labs, unterstützen.

Twelve Labs ist ein KI-Startup, das Grundlagenmodelle für das multimodale Videoverständnis entwickelt. Durch die Nutzung der auf OCI laufenden Plattform von MosaicML und der KI-Infrastruktur von OCI war Twelve Labs in der Lage, seine KI-Modelle effizient zu skalieren und einzusetzen, um Benutzern dabei zu helfen, ihre Videodaten mühelos zu durchsuchen, zu klassifizieren und effektiver für verschiedene Anwendungen zu nutzen.

«Die Kombination von MosaicML und Oracle hat uns die perfekte Zusammenarbeit ermöglicht, durch die wir grosse Kapazitäten mit hoher Geschwindigkeit bewältigen und mit unserem Wachstum langfristig Schritt halten konnten», sagt Jae Lee, Gründer und CEO, Twelve Labs. «Mit MosaicML sind wir in der Lage unsere grossen KI-Cluster effizient zu verwalten, während die KI-Infrastruktur von OCI sicherstellt, dass wir bei der Geschwindigkeit keine Kompromisse eingehen müssen. So können wir Tausende Stunden und Zehntausende von Dollar einsparen.»

OCI bietet mehrere Funktionen für KI, einschliesslich der KI-Infrastruktur. Virtuelle OCI Compute-Maschinen und Bare-Metal-GPU-Instanzen können Anwendungen für Computer Vision, Natural Language Processing, Empfehlungssysteme und mehr unterstützen. Für das gross angelegte Training umfangreicher, komplexer Modelle, wie etwa Large Language Models (LLMs), bietet OCI Supercluster Cluster-Netzwerke mit extrem geringer Latenz, HPC-Speicher und OCI Compute-Bare-Metal-Instanzen mit NVIDIA-GPUs. Darüber hinaus sind OCI Compute-Instanzen über ein Hochleistungs-Ethernet-Netzwerk mit RoCE v2 (RDMA over Converged Ethernet v2) verbunden. Die von OCI bereitgestellte Bandbreite auf NVIDIA A100 Tensor Core GPUs übertrifft die von Alternativen um das 4- bis 16-fache, was wiederum den Zeit- und Kostenaufwand für das Training von maschinellem Lernen reduziert.

«Wir sehen einen Zustrom von KI-Unternehmen, die zu OCI kommen, um generative KI-Modelle auszuführen, weil wir dies schneller und wirtschaftlicher als andere Cloud-Provider tun können. Es ist nicht ungewöhnlich, ein 10-Milliarden-Parameter-Modell innerhalb weniger Stunden auf OCI zu trainieren, anstelle von mehreren Tagen, wie es bei anderen Plattformen der Fall ist», sagte Greg Pavlik, Senior Vice President, Oracle. «Die Architektur von OCI und das blockierungsfreie Netzwerkdesign mit geringer Latenz unterscheiden sich grundlegend von allem auf dem Markt.» MosaicML hat sich in Q3 FY2022 für Oracle entschieden. (Oracle/mc/ps)

Weitere Ressourcen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert