EMCs IT-Trends für 2016: Container, Clouds und „Fast Big Data“

EMCs IT-Trends für 2016: Container, Clouds und „Fast Big Data“
Sascha Meier, Field CTO Dell EMC Schweiz.

Sascha Meier, CTO bei EMC Schweiz.

Zürich – Das Technologieunternehmen EMC veröffentlicht eine Übersicht über die aus Sicht des Unternehmens wichtigsten IT-Trends für 2016. Sascha Meier, CTO bei EMC Schweiz, geht davon aus, dass Schlüsseltechnologien wie Betriebssystem-Virtualisierung, Big Data und Cloud-Computing sich im neuen Jahr weiter entwickeln werden. Dadurch erreichen Sie neue Reifegrade, die Unternehmen und IT-Verantwortlichen wiederum neue Möglichkeiten etwa zur Umsetzung von digitalen Businessstrategien eröffnen, aber auch zusätzliche Investitionen erforderlich machen.

Trend #1: Container erreichen „Enterprise-grade“
„Container-Technologien“ zur Isolierung von mehreren Applikationen auf einem physischen Server wurden ursprünglich für grosse Internetdienste wie Facebook oder Netflix entwickelt. Doch inzwischen haben sie sich auch als Werkzeuge für das Entwickeln neuer Mobile-Apps, Web- oder Big Data-Anwendungen bewährt. 2016 könnte das Jahr werden, in dem die Container endlich auch in die Unternehmens-IT Einzug halten – mit neuen Features, die ihren Einsatz mit Geschäftsanwendungen erlauben.

Doch noch ist diese Entwicklung mit zwei Hürden konfrontiert: Erstens unterstützen Container – mit Ausnahme von Speziallösungen – in der Regel bisher keine Laufzeit-Persistenz: Die „stateless applications“, für die Container-Verfahren ursprünglich entwickelt wurden, kommen ohne dieses Feature aus. Fällt in der Umgebung eines Social Media-Dienstes zum Beispiel ein einzelner Container aus, wird dieser einfach neu aufgesetzt. Doch für traditionelle Geschäftsanwendungen ist es von wesentlicher Bedeutung, da es gewährleistet, dass Daten im Bedarfsfall umgehend wiederhergestellt werden können.

Um dieses erste Hindernis zu überwinden, könnten Entwickler Container-Spezifikationen künftig um Enterprise-Grade-Storage-Einheiten erweitern – und diese entweder über bestehende Protokolle oder über neue, Container-spezifische Abstraktionen ansteuern. Das würde Anwendungen in die Lage versetzen, Informationen zwischenzeitlich oder dauerhaft speichern zu können.

Zweitens werden viele Container-Entwickler während der nächsten Monate fortschrittliche Steuerungs- und Sicherheitskonzepte implementieren. Und die werden den Containern eben jene „Enterprise-IT-Features“ bescheren, die ihnen bisher fehlten: Möglichkeiten zur Validierung, Prüfung oder Sicherheits-Zertifizierung beispielsweise, oder interne Firewalls.

Trend #2: Big Data beschleunigt auf Echtzeit
Auch Big Data-Analytics-Technologien werden 2016 weiter reifen und ein neues „Zwei-Schichten“-Betriebsmodell hervorbringen. Dessen erste Schicht wird aus „herkömmlichen“ Big Data-Analytics-Verfahren bestehen, die sehr grosse Datenmengen zeitverzögert auswerten. In der zweiten Schicht werden dagegen neue Analytics-Verfahren eingesetzt werden, die verhältnismässig grosse Datenmengen mittels In-Memory-Technologie in Echtzeit auswerten. Dabei werden Technologien wie Apache Spark oder GemFire eine Rolle spielen, die der von Hadoop in nichts nachstehen, diese zudem ergänzen und eine neue Generation von Speichersystemen mit niedrigster Latenz wie DSSD unverzichtbar machen werden.

Diese „zweite Schicht“ könnte Unternehmen und Behörden neue Möglichkeiten beim Nutzen von „Data Lakes“ erschliessen – und beispielsweise Ad-hoc-Auswertungen möglich machen, mit denen die Organisationen schon auf Veränderungen reagieren können, während diese noch passieren. So könnte sie ein neues, bisher nicht dagewesenes Höchstmass an Agilität und Reaktionsvermögen ermöglichen.

Bevor die In-Memory-Analytics-Schicht diese Versprechen wirklich einlösen kann, müssen IT-Verantwortliche jedoch noch zwei Hürden überwinden:

  • Erstens brauchen sie Infrastruktur-Technologien, die genügend Raum und Speicherplatz für grosse Big Data-Bestände bieten, sowie einen Plan dafür, wie Daten effizient zwischen Speicher- und In-Memory-Maschinen verschoben werden. Schliesslich unterscheidet sich die Arbeitsgeschwindigkeit der beiden Geräte-Arten erheblich, und die zuständigen Systemadministratoren werden den Demarkationspunkt im Auge behalten müssen, damit Daten schnell und transparent hin und her wandern können. Viele Hersteller entwickeln deshalb bereits neue Objektspeicher, Rack-Scale Flash-Storage oder Technologien, mit denen Anwender beides zu einheitlichen Systemen zusammenzufassen können. Und auch Open-Source-Initiativen arbeiten daran, die Herausforderung der verschiedenen Datenhaltungstechnologien zu meistern.
  • Zweitens sollten die Betreiber grosser In-Memory-Infrastrukturen diese mit Daten bespielen, die sowohl persistent als auch dynamisch sind. Die Schwierigkeit dabei besteht darin, dass beim „Persistieren“ von Daten auch alle Fehler mitgespeichert werden, die diese Daten gegebenenfalls haben könnten. Deshalb dürften 2016 jede Menge Datendienste im „Storage-Stil“ Einzug in In-Memory-Umgebungen halten: Deduplikation, Tiering und Replikation sowie die Fähigkeit, den letzten bekannten Status zu speichern, an dem Daten valide waren respektive eine Umgebung fehlerfrei.

Trend 3: Enterprise-Clouds werden Workload-spezifisch
Im kommenden Jahr werden viele Unternehmen Cloud-Dienste besser verstehen und einsetzen als bisher. Und einige dürften so weit gehen, einen neuen Cloud-Computing-Ansatz zu verfolgen: Dafür werden sie Cloud-Service-Portfolios nutzen, die jeweils mehrere, für verschiedene Anwendungs-Workloads optimierte Dienste bereitstellen. Also etwa einen Dienst für SAP-Workloads und einen anderen für Mobile Apps.

Momentan suchen IT-Verantwortliche meist noch nach einzelnen Cloud-Services, die alle oder zumindest mehrere Geschäftsanforderungen erfüllen. Doch dieser Ansatz war schon immer zu simpel. Und je weiter sich Cloud-Computing verbreitet, desto deutlicher zeichnen sich vier Arten von Cloud-Diensten ab, zwischen denen IT-Verantwortliche wählen können und sollten:

Zwei ermöglichen es, bereits bestehende Investitionen in die zweite Plattform der IT in die Cloud zu verlagern. Die zwei anderen zielen dagegen auf den Aufbau völlig neuer Cloud-Services und Infrastrukturen der dritten Plattform der IT. (Der Begriff „Plattform“ bezeichnet hier Computing-Varianten. Die „First Plattform“ besteht aus Mainframes, die „Second Plattform“ aus Servern und Clients, die „Third Plattform“ aus Cloud, Mobile- und Internet-of-Things-Technologien):

Die vier Formen der Cloud sind:

  1. On-Premise Cloud für die zweite Plattform der IT
  2. Hybrid Cloud (teils on-, teils off-premise) für die zweite Plattform der IT
  3. On-Premise Cloud für die dritte Plattform der IT
  4. Off-Premise Cloud für die dritte Plattform der IT

Organisationen werden Cloud-Strategien benötigen, die alle vier dieser Cloud-Formen berücksichtigen. Wer keinen Plan für alle vier hat, nimmt in Kauf, Workloads auf dafür ungeeigneten Clouds zu betreiben, und entsprechende wirtschaftliche oder regulatorisch-rechtliche Risiken einzugehen.

Derart umfassende Cloud-Strategien werden natürlich nicht ohne die Möglichkeit auskommen, Daten und Workloads sicher und nachvollziehbar zwischen den verschiedenen Clouds hin und her zu bewegen. Zudem sollten IT-Verantwortliche Off-Premise-Ressourcen natürlich genauso verwalten können wie solche aus dem eigenen Rechenzentrum. Beides ist keineswegs einfach, aber möglich: Technologien wie Cloud Gateways, Cloud-Abstraktionen wie CloudFoundry und Virtustream xStream, Software-definierte Datenreplikation oder Verschlüsselungsdienste machen „Cloud Interworking“ realisierbar.

Trend #4: Unternehmen suchen Cloud-Native-Entwickler
Je mehr Unternehmen dazu übergehen, Clouds nicht mehr nur zu bauen, sondern auch zu nutzen, desto klarer wird: Beim Cloud Computing geht es überwiegend darum, das Entwickeln und Bereitstellen verschiedenster Geschäftsanwendungen zu vereinfachen. Doch das Entwickeln in der Cloud verlangt nach grundsätzlich anderen Fähigkeiten als denen, die bisher für die Anwendungsentwicklung erforderlich waren. Deshalb entsteht in vielen Unternehmen eine „Kompetenzlücke“ – und die kann die Umsetzung von Cloud-Strategien erheblich erschweren.

Das können sich die Unternehmen nicht leisten. Die Fähigkeit, „Cloud-native“-Anwendungen zu entwickeln, dürfte in diesem Jahr zu einem Wettbewerbsvorteil werden, vielleicht sogar zu dem Wettbewerbsvorteil. Deshalb werden Unternehmen ihre Softwareentwicklung im kommenden Jahr entsprechend verändern – entweder durch das Schulen eigener Mitarbeiter oder das Beauftragen externer Entwickler.

Trend #5: Flash setzt sich durch für Transactional Workloads – in Zukunft sogar auch für Archive
Der fünfte Trend für 2016 ist weniger eine Vorhersage als eine Tatsache. Die Entwicklung von Flash-Speichermedien hat eine nicht voraussehbare Geschwindigkeit angenommen. Die Grösse der einzelnen Drives wächst unglaublich schnell: 400GB, 800GB, 1.9TB und 3.84TB Drives im 2.5 Zoll-Format sind bereits in Speichersystemen verfügbar, und so schnell ist kein Ende in Sicht. 2016 werden wir sicher die Markteinführung von 7.68TB Drives erleben – und es ist nicht ausgeschlossen, dass wir Ende Jahr sogar 15.36 TB Drives in Enterprise Speichersystemen sehen werden. All-Flash-Speichersysteme wie XtremIO von EMC werden dadurch noch häufiger eingesetzt als 2015 oder anders gesagt: 2016 wird das Jahr der All-Flash-Speichersysteme.

Kurzprofil EMC:
EMC unterstützt mit seinen Technologien und Lösungen Firmen dabei, den maximalen Nutzen aus ihrem Informationsbestand zu ziehen. Dabei hilft EMC Organisationen von der Entwicklung über den Aufbau bis hin zur Verwaltung von flexiblen, skalierbaren und sicheren Informationsinfrastrukturen – die zukünftig vollständig virtualisiert sein werden. EMC ist in der Schweiz in Zürich (Hauptsitz), Bern und Gland/VD vertreten.

EMC

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.