Microsoft setzt für Bing Conversational Search auf Oracle Cloud Infrastructure

Microsoft setzt für Bing Conversational Search auf Oracle Cloud Infrastructure
Karan Batta, Senior Vice President, Oracle Cloud Infrastructure.

Austin TX – Oracle verkündet eine mehrjährige Vereinbarung mit Microsoft, um das sprunghafte Wachstum von Services basierend auf Künstlicher Intelligenz (KI) zu unterstützen. Microsoft nutzt Oracle Cloud Infrastructure (OCI) AI Infrastructure zusammen mit Microsoft Azure AI Infrastructure für das Inferencing von KI-Modellen, die für die tägliche Konversationssuche auf Microsoft Bing (Bing Conversational Search) optimiert werden. Der Einsatz von Oracle Interconnect für Microsoft Azure erlaubt Microsoft dabei die Nutzung von Managed Services wie Azure Kubernetes Service (AKS), um OCI Compute in grossem Massstab zu orchestrieren und so der steigenden Nachfrage nach Bing Conversational Search nachzukommen.

Bing Conversational Search erfordert leistungsstarke Cluster für Compute-Infrastrukturen, die bei der Auswertung und Analyse von Suchergebnissen helfen, welche durch das Bing Inferenzmodell durchgeführt werden.

«Generative KI ist ein enormer technologischer Sprung und Oracle ermöglicht es Microsoft und Tausenden von anderen Unternehmen, mit den KI-Kapazitäten von OCI neue Produkte zu entwickeln und zu betreiben», erklärt Karan Batta, Senior Vice President, Oracle Cloud Infrastructure. «Durch den Ausbau unserer Zusammenarbeit mit Microsoft können wir dazu beitragen, mehr Menschen auf der ganzen Welt neue Erfahrungen bereitzustellen.»

«Microsoft Bing nutzt die neuesten Fortschritte der Künstlichen Intelligenz, um Menschen auf der ganzen Welt ein deutlich besseres Sucherlebnis zu bieten», sagt Divya Kumar, Global Head of Marketing für Search & AI bei Microsoft. «Unsere Zusammenarbeit mit Oracle und die Nutzung der Oracle Cloud Infrastructure zusammen mit unserer Microsoft Azure AI Infrastructure wird den Zugang für Kunden erweitern und die Geschwindigkeit vieler unserer Suchergebnisse verbessern.»

Inferenzmodelle erfordern Tausende von Compute- und Storage-Instanzen sowie Zehntausende von GPUs, die wie ein einziger Supercomputer über ein Multi-Terabit-Netzwerk parallel zusammenarbeiten können. (Oracle/mc/ps)

Weitere Informationen:

Oracle Cloud Infrastructure
OCI Compute
OCI AI Infrastructure

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert