Storage Lösungen im Vergleich
0Modern Storage: Skalierbar, agil und zentral administriert
Unternehmen betreiben heute oft verteilte Infrastrukturen, nutzen Cloud-Dienste oder Internet-of-Things-Lösungen (IoT). Die zugehörige Storage-Umgebung muss dabei so schnell, anpassungsfähig und skalierbar sein wie die IT-Infrastruktur selbst. Nur so kann sie die Daten jeweils zugeschnitten auf die einzelnen Geschäftsprozesse und Dienste abspeichern. In diesem Artikel gehen wir daher genauer darauf ein, für welche Einsatzwecke welche Storage-Lösungen sinnvoll sind.
Zum Einstieg ein Beispiel: Industrial IoT erzeugt unzählige Sensordaten, die oft in Echtzeit vor Ort am Edge des Unternehmensnetzes verarbeitet werden müssen, um eine exakte Positionierung zum richtigen Zeitpunkt zu ermöglichen. Danach sind die soeben ermittelten Daten erst einmal nicht mehr relevant. Für Analysezwecke oder im Rahmen von Machine Learning können sie aber noch einmal herangezogen werden, um beispielsweise Modelle zu trainieren. Die Speicherlösung am Edge benötigt also einen schnellen Flash-Speicher, für das zentrale Storage reichen in diesem Fall Festplatten.
High-Performance-SANs
Im eigenen Rechenzentrum lassen sich die Anwendungsdaten am besten über ein zentral administriertes Storage Area Network (SAN) speichern. Es verbindet die Server des Rechenzentrums über einen managebaren Switch als SAN-Controller mit einem Pool aus Speichersystemen, auf denen die Daten blockbasiert liegen. Das gesamte Speichernetz sollte redundant und mindestens für 10 GBE ausgelegt sein. Die zugehörigen Controller sind zum Beispiel Switches wie der Huawei Fully Managed S6720 oder für hochperformante Anwendungen ein dedizierter SAN-Controller wie die E-Serie von NetApp. Dieser integriert sich nahtlos in VMware-, Exchange-, SQL- und Oracle-Systeme. Auch die FS-Serie von NetApp eignet sich für SANs und zudem für filebasiertes Network Attached Storage (NAS). Damit kann ein Unternehmen bestehende Systeme in eine hybride Speicherumgebung einbinden.
Einfachere und flexiblere Handhabung mit Storage-Virtualisierung
Bei SAN-Lösungen hat sich die Storage-Virtualisierung (Virtual SAN) durchgesetzt, um die Administration zu vereinfachen und das System skalierbarer zu gestalten. Durch die virtuelle Zusammenfassung von Speichersystemen entsteht ein Speicherpool, aus dem die benötigten Kapazitäten für die Fachanwendungen bereitgestellt werden, ohne dass sich der Administrator mit der SAN-Infrastruktur dahinter befassen muss. StorMagic eignet sich beispielsweise für kleine Firmen oder Filialen und virtualisiert mit VMware vSphere und Microsoft Hyper-V. VMware vSAN ist ein Beispiel für Appliances mit zertifizierter Hardware und Virtual-SAN-Software.
SDS: Storage-Software meets Standard-Hardware
Software Defined Storage (SDS) gilt als Storage-Virtualisierung mit Standard-Hardware. Die Speicherkapazität lässt sich erweitern, ein Up- oder Downgrade der Hardware ist möglich. Eine typische SDS-Lösung ist zum Beispiel JovianDSS von Open-E. Sie basiert auf Linux und ZFS, einem unbegrenzt skalierbaren, verteilten Dateisystem. Hier kann der User alle Standardfestplatten und SSDs einsetzen. Sollen damit zum Beispiel Video- oder Multimediadaten gespeichert werden, sollte der Anwender nicht nur auf schnelle Netzwerkkarten achten. Bei SDS hängt die Performance auch von der Leistungsfähigkeit der CPU und der RAM-Kapazität ab.
Storage im Cloud-Umfeld
Spätestens seit 2020 ist Storage in der Cloud ein High-Performance-Thema – immer häufiger werden in der Cloud geschäftskritische Daten und Echtzeitanalysen verarbeitet. Schnelle Zugriffszeiten sind hier entscheidend und sprechen für schnelle NVMe-SSDs. Zudem sollten sich die zugehörigen Speichersysteme ebenfalls in der Cloud befinden, um Übertragungszeit zu sparen.
Speichersysteme für die Cloud müssen zudem so skalierbar sein wie die Cloud selbst. Erfolgt die Datenspeicherung virtualisiert und blockbasiert in Containern, lassen sich die für eine App benötigten Daten nah an dieser Anwendung speichern. Das vermeidet unnötige Datenbewegungen.
Im Trend: Objektspeicher für Cloud-Apps und Big Data
Darüber hinaus setzen sich vor allem bei der Entwicklung von cloudnativen Anwendungen Microservices durch. Diese stellen jeweils unabhängige Prozesse einer komplexen Anwendung dar. Bei diesem modularen Prinzip werden die Daten klein portioniert verarbeitet und übertragen. Microservices lassen sich am besten als Objekte speichern, sie bestehen aus den Services sowie Metadaten mit Informationen dazu. Objekte sind äußerst skalierbar und folgen keiner hierarchischen Datenstruktur. Somit eignen sie sich ideal für hochskalierbare Anwendungen in der Cloud sowie für schnell wachsende Datenmengen im IoT- und Big-Data-Umfeld.
Storage als Teil einer Hyperconverged Infrastructure
Soll ein Rechenzentrum Big-Data- oder IoT-Anwendungen beherrschen, setzen immer mehr Unternehmen auf eine Hyperconverged Infrastructure (HCI). Sie vereint Software Defined Storage, Server, Netzwerkanbindung und Virtualisierung in einer Appliance, bei der alle Funktionen miteinander verzahnt sind. Die Administration erfolgt über eine gemeinsame Management-Plattform.
HCI für Big Data
Für die Speicherung von Videos, Images von virtuellen Maschinen oder maschinell erstellten IoT-Daten im Petabyte-Bereich sind besonders leistungsfähige, skalierbare und flexible Speicherplattformen notwendig. Sie fassen die Datenträger von mehreren Computern zusammen und bilden ein intelligentes System, das parallel Daten auf den angebundenen Cluster-Knoten schreiben und lesen kann. Der Objektspeicher CEPH unterstützt diese Cluster-Bildung. Dafür benötigen sowohl die angeschlossenen Datenträger als auch die Cluster-Knoten schnelle Schnittstellen. Beispiel für so eine HCI ist die auf NVMe basierende Proxmox Ceph HCI für das Open-Source-Virtualisierungssystem Proxmox VE.
HCIs für Windows und Azure
Für windowsbasierte Edge-Infrastrukturen und Zweigstellen bieten sich auch Azure Stack HCI Micro-Cluster an. Diese hochverfügbaren 2-Node-Systeme für Windows Server 2019 und Azure Stack HCI fassen mit Hyper-V lokale Datenträger mehrerer Server zu einem gemeinsamen virtuellen Datenspeicher zusammen. Die HCI besteht aus zwei Servern und einem Switch. Die Lösung ist zudem zertifiziert für Azure Stack HCI. Sie eignet sich als Büroserver oder für Filialen und Edge-Rechenzentren.
Auch für hybride Cloud-Umgebungen
Für hybride Cloud-Umgebungen, bei denen Daten sowohl im eigenen Rechenzentrum als auch in der Cloud gespeichert werden sollen, bietet sich für Microsoft Windows Server und Azure die Azure Stack HCI an. Sie basiert ebenfalls auf S2D. Mit dieser HCI kann ein Administrator zum Beispiel Kubernetes-Cluster betreiben, etwa für Container-Anwendungen am Edge. Geschäftskritische Anwendungen stellt er über virtuelle Maschinen zur Verfügung. Das zentrale Management erfolgt über Azure Monitor.
Fazit: Server-Lösungen je nach Einsatzzweck und Prozessen
Storage-Umgebungen werden heterogener mit klassischen und neuen Datentypen, schnellen Flash- und ad hoc verfügbaren Langzeitspeichersystemen, mit Lösungen für die Cloud, das Edge und das eigene Rechenzentrum. Selbst hybride Cloud-Umgebungen lassen sich mit einem Storage-System abdecken. Entscheidend für die Auswahl und Konfiguration des Systems sind die Prozesse, die damit abgebildet werden sollen. Dafür müssen Speicherlösungen heute agiler, flexibler und skalierbarer sein als bisher. Die Systeme sollten sich dabei möglichst nahtlos in die vorhandene Infrastruktur integrieren lassen – bei einfacher und zentraler Administration.
Weitere Informationen zu Storage Lösungen
- Storage-Grundlagen: DAS, SAN und NAS im Überblick
- Storage-Lösungen für den Mittelstand – Kostenloses E-Book
- Webinar: Vorstellung der neuen Generation der Azure Stack HCI Micro-Cluster