NetApp: Smartes Datenmanagement für die Hybrid Cloud

NetApp: Smartes Datenmanagement für die Hybrid Cloud
Von Remo Rossi, Leiter NetApp-Geschäft in der Schweiz. (Foto. NetApp)

Wallisellen – Der hybriden Cloud gehört die Zukunft. Doch wie können die unterschiedlichen Ressourcen zu einem Ganzen vereint werden, sodass es nicht beim Patchwork bleibt? Mit dem Data-Fabric-Konzept hat NetApp eine Antwort auf diese Herausforderung.

Die Cloud ist längst eine feste Grösse in der Unternehmens-IT, und dies aus gutem Grund: Nur Cloud-Architekturen bieten jenen Grad an Flexibilität, mit der der digitale Wandel gemeistert werden kann.

Sowohl die öffentliche („Public“) Cloud als auch die private Cloud haben ihre Berechtigung im Unternehmen. Ohne eine intelligente Verknüpfung stehen die beiden Architekturen jedoch als getrennte Silos da. Hybride Cloud-Infrastrukturen, die Kernanwendungen in einer Private Cloud mit Services aus der Public Cloud verbinden, haben sich daher zu einem wichtigen Element einer agilen IT-Landschaft entwickelt, mit der sich viele Businessanforderungen effizient lösen lassen. Mit Hilfe der Hybrid Clouds können neue Produkte, Dienstleistungen und Geschäftsmodelle realisiert und so der Anschluss an die digitale Transformation gewährleistet werden.

Doch hybride Cloud-Architekturen stellen die IT-Verantwortlichen vor eine Reihe neuer Probleme. Um die Erwartungen des Business an eine agile Geschäftsprozessunterstützung zu erfüllen, gilt es, den Sourcing-Mix zu einer einheitlichen Umgebung zu verbinden. In der Realität verfügt allerdings eine Vielzahl von Unternehmen noch über keine übergreifende Datenmanagementinfrastruktur oder durchgängige IT-Service-Prozesse. Ihre unternehmenskritischen Daten sind in Silos gefangen – seien es nun eigene oder externe Rechenzentren oder die Cloud.

Ein Ressourcen-Patchwork droht
Um eine hybride Cloud-Umgebung betreiben zu können, benötigen Unternehmen eine zentrale Management-Applikation, die es ermöglicht, bestehende Storage- und Datenmanagement-Architekturen mit einheitlichem Monitoring auf hybride Cloud-Architekturen auszuweiten. Stattdessen droht ein Patchwork von Services verschiedener Anbieter und eigenen Systemen. Wie können Unternehmen in einer solchen Umgebung die Kontrolle über ihre Daten behalten? Wie lassen sich die Daten von einem System zum anderen verschieben? Wie gelangen sie in die Cloud – und ebenso wichtig: Wie gelangen sie wieder zurück? Denn was, wenn sich der gewählte Cloud-Dienst nach einiger Zeit doch als ungeeignet entpuppt? Oder wenn der Anbieter Konkurs geht oder aus einem anderen Grund seinen Dienst einstellt? In manchen Ländern müssen Unternehmen der Finanzbranche ihrer Finanzmarktaufsicht aufzeigen, dass sie ihre ausgelagerten Daten auch wieder zurückholen können.

Erschwerend kommt das Phänomen der sogenannten „Data Gravity“ dazu: Unternehmensdaten besitzen eine gewisse Trägheit, die dazu führt, dass Datenbestände an der bestehenden Infrastruktur „kleben“. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird sich schwertun, diese Datenmengen auf eine neue Plattform zu migrieren. Aber auch die Forderung nach schnelleren Zugriffszeiten und rechtliche Rahmenbedingungen können die Migration von Daten auf andere Systemplattformen verunmöglichen. In vielen IT-Umgebungen erschwert die Data Gravity so den effizienten Einsatz von Cloud-Ressourcen.

Smartes Datenmanagement ist der Schlüssel
Wenn es gilt, den Aufbau von Datensilos zu vermeiden und die Datenmobilität zwischen den einzelnen Architekturkomponenten zu gewährleisten, ist ein smartes Datenmanagement der Schlüssel zum Erfolg. Ein wirklich smartes Datenmanagement ermöglicht die volle Portabilität, Sichtbarkeit und Sicherheit aller Daten über die gesamte IT-Umgebung hinweg – egal, ob im eigenen Rechenzentrum, beim Outsourcer oder in der Cloud. Eine umfangreiche Datenhaltung in der Cloud kann jedoch teuer werden. Ganz oben auf der Wunschliste ist deshalb die Nutzung von Technologien wie Deduplizierung, Kompression und Klonen in der Cloud, um den grossen Ressourcenaufwand zu minimieren und Kosten zu sparen.

Storage- und Datenmanagement sollten sich zudem nahtlos per API in branchenübliche Cloud-Technologien von Unternehmen wie Amazon, Microsoft, OpenStack, SoftLayer oder VMware integrieren lassen. So können IT-Mitarbeiter den Speicher direkt aus dem gerade verwendeten System heraus managen. Außerdem können IT-Teams dann frei zwischen verschiedenen Service-Anbietern wählen, problemlos wechseln und rasch auf geschäftliche Anforderungen reagieren.

Die Data Fabric – eine Investition in die Zukunft
Mit dem Konzept der Data Fabric bietet NetApp den fortschrittlichsten Ansatz im Markt zur Lösung dieser Problematik. Die Data Fabric betrachtet Storage und Datenmanagement ganzheitlich und beschreibt das grenzenlose zentrale Management von Daten über alle Ressourcen hinweg – inklusive der Cloud. Innerhalb der Data Fabric können Datenbestände sicher über alle Infrastrukturen transferiert werden, unabhängig davon, wo sie stehen.

Eine Data-Fabric-Strategie basiert auf den drei Säulen einheitliches Datenmanagement, einheitliche Datenübertragung und einheitliches Datenformat. Das einheitliche Datenmanagement stellt sicher, dass dieselben Prozesse und Tools greifen, egal auf welchem System Administratoren Daten klonen, sichern oder wiederherstellen. Das reduziert den Managementaufwand erheblich. Die einheitliche Datenübertragung ermöglicht es, Daten zwischen Clouds zu verschieben, sodass diese zur richtigen Zeit am richtigen Ort für die jeweiligen Applikationen zur Verfügung stehen. IT-Teams haben so die Möglichkeit, innovative Cloud-Lösungen zu entwickeln, ohne sich auf einen bestimmten Service-Anbieter festlegen zu müssen. Das einheitliche Datenformat schließlich sorgt dafür, dass IT-Abteilungen Applikationen schneller in der Cloud oder auf verschiedenen Cloud-Plattformen bereitstellen können. Denn sie müssen Anwendungen nicht erst aufwändig an die Cloud anpassen. Für Unternehmen bietet das entscheidende Vorteile: Sie können schnell und flexibel hochmoderne und leistungsfähige IT-Ressourcen aus der Cloud nutzen, ohne die volle Kontrolle über ihre Daten zu verlieren.

Ziel der Data Fabric ist, dass Unternehmen die leistungsfähigen IT-Ressourcen von Hyperscale-Providern wie Amazon AWS, Microsoft Azure oder Google Cloud nutzen können, ohne die Kontrolle über ihre Daten abzugeben. Mit einer Data-Fabric-Strategie machen Unternehmen ihre Daten unabhängig von der darunterliegenden Infrastruktur. IT-Administratoren können ihre Daten und Applikationen mit der Maus oder per API verschieben und haben Daten jederzeit dort verfügbar, wo sie benötigt werden – egal ob sie in der Cloud oder On-Premises liegen. So gewinnen Unternehmen die Flexibilität und Skalierbarkeit, die sie heute benötigen, um im Wettbewerb zu bestehen.

Mit Cloud Data Services zur Data Fabric
Im herkömmlichen System stehen auf der einen Seite die Lösungen im eigenen Datacenter, auf der anderen Seite die lokalen Outsourcer und Hyperscaler. Jeder dieser Services und jede Plattform hat ihr eigenes Datamanagement. NetApps Data Fabric zielt darauf ab, diese Grenzen zu überwinden, sodass Daten von jedem beliebigen Silo zu jeder beliebigen Plattform transferiert werden können.

Diese Vision ist durch gezielte Produktentwicklung Schritt für Schritt zur Realität geworden. Im Zentrum steht dabei das Betriebssystem ONTAP. Weitere wichtige Bausteine im Data-Fabric-Konzept sind NetApps Cloud Data Services. Unter diesem Begriff werden alle Produkte und Dienstleistungen zusammengefasst, die helfen, die Cloud-Dienste der Hyperscaler in die eigene Infrastruktur einzubinden. Dazu zählen unter anderem Dienstleistungen wie komplette Speicherumgebungen im IaaS-Modell und fixfertige Storage-Volumes im PaaS-Modell für AWS, Azure und Google Cloud, des Weiteren SaaS-Dienste für dynamisches Monitoring hybrider Cloud-infrastrukturen, für Datensynchronisation und für das Backup von Microsoft Office 365 und Salesforce.

Eine Investition in die Zukunft
Die Digitalisierung hat gerade erst begonnen. Noch ist kaum abzusehen, wie sich bestehende Geschäftsmodelle unter ihr verändern und welche neuen entstehen werden. Sicher ist jedoch, dass kaum eine Branche davon verschont bleiben wird. Ein kluges Datenmanagement, das alle Datenquellen im Unternehmen und ausserhalb vereint, ist daher eine Investition in die Zukunft. Mit den unter Cloud Data Services zusammengefassten Angeboten unterstützt NetApp Unternehmen dabei, das Potenzial der Cloud, aber auch das Potenzial ihrer selbstbetriebenen Installationen optimal zu nutzen – und ermöglicht ihnen damit einen flexiblen Umgang mit hybriden Cloud-Infrastrukturen, wie es sonst derzeit niemand im Markt vermag. (NetApp/mc/ps)

Zum Autor
Remo Rossi ist seit 1986 in der IT-Branche. Vor 19 Jahren begann er als Account Manager bei NetApp. Nach mehreren Beförderungen zeichnete er als Vice President verantwortlich für EMEA Emerging Markets. Heute leitet er das NetApp Geschäft in der Schweiz.

Zum Anlass:
NetApp führt seine jährliche Endkundenveranstaltung, das NetApp Technology Forum, am 12. September in Zürich (im Hotel Thessoni classic in Regensdorf ZH) und am 26. September in Lausanne durch. Die IT-Entscheider der schweizerischen mittelständischen Industrie sowie Grossunternehmen sind herzlich eingeladen! Im Zentrum der Veranstaltung steht die Hybrid Cloud. Kunden berichten von ihren Erfahrungen und wie mit der NetApp Data Fabric die hybride Multicloud im Unternehmen Realität wird. Für weitere Informationen und Anmeldungen siehe: https://www.technology-forum.ch/programm/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert