Etwa 50 % der Geschäftsdaten werden heute in der Cloud gespeichert, und diese Zahl steigt noch weiter an, wenn man private und hybride Clouds betrachtet. Cloud-Storage bietet viel Flexibilität und ist recht wirtschaftlich. Unternehmen können sich für überlegene Webdienste wie Amazon Web Services, Google Cloud Platform und Microsoft Azure oder für lokale Cloud-Anbieter entscheiden, die oft spezialisierter sind. Aber wie misst man die Effektivität von Cloud-Speicherdiensten? Wenn die Lagerhaltung vor Ort erfolgt, gibt es tausend etablierte Möglichkeiten, die Leistung zu verfolgen. In der Cloud beginnt das Dimmen.
Es liegt zum Teil an der Vielzahl von Auswahlmöglichkeiten, die die Dinge kompliziert machen. Tatsächlich gibt es Cloud-Speicher in einer Vielzahl von Formaten, Kapazitäten und Leistungen. Dies können Datei-, Cluster- oder Objektspeicher, festplattenbasierte Systeme, an virtuelle Maschinen angeschlossener Speicher, NVMe, Solid-State-Laufwerke und sogar Bänder oder Technologien sein, die vor Ort „wie die Cloud“ funktionieren.
Daher ist es schwieriger, Speicherinstanzen in der Cloud zu vergleichen und zu überwachen als lokal. Zusätzlich zu herkömmlichen Speicherleistungsmetriken wie IOPS und Durchsatz müssen IT-Experten bei der Bewertung von Cloud-Systemen andere Kriterien wie Kosten, Serviceverfügbarkeit und sogar Sicherheit berücksichtigen.
Klassische Speichermetriken
Typische Metriken gelten offensichtlich für Cloud-Speicher, aber es ist schwer zu interpretieren. Professionelle Speichersysteme werden nach zwei Hauptmaßstäben der „Geschwindigkeit“ bewertet. Die Übertragungsrate ist die Rate, mit der Daten zu und von den Speichermedien übertragen werden, ausgedrückt in Bytes pro Sekunde. IOPS misst die Anzahl der Lese- und Schreibvorgänge (Eingabe-/Ausgabeoperationen), die pro Sekunde ausgeführt werden.
Bei diesen Messungen unterscheiden Hardwarehersteller zwischen Schreib- und Lesegeschwindigkeiten: Schreibgeschwindigkeiten sind im Allgemeinen schneller, da Daten zuerst in einen Cache auf der Platine des Volumes geschrieben werden; Dieser Speicher, DRAM, ist viel schneller als das Speichermedium selbst (eine magnetische Platte, die an einem Header oder NAND flattert).
Auch die Hersteller von Festplatten, SSDs und Disk-Arrays unterscheiden zwischen sequentiellem und zufälligem Lesen/Schreiben. Diese Messungen hängen insbesondere von der Bewegung der Lese-/Schreibköpfe auf den Platten der mechanischen Festplatte und von der Notwendigkeit ab, bereits vorhandene Daten vor dem Schreiben zu löschen. Die zufällige Lese-/Schreibleistung ist normalerweise der beste Indikator für die tatsächliche Leistung.
Hersteller von Festplattenlaufwerken sprechen bei mechanischen Laufwerken auch von Umdrehungen pro Minute (rpm oder RPM). Bei Consumer-Festplatten sind es in der Regel 5.400 oder 7.200 U/min, bei professionellen Modellen manchmal 10.000 oder 12.000 U/min. Diese Drehzahlen beeinflussen die Strömung nicht; Darüber hinaus gilt: Je schneller sich die Festplatte bei konstanter Geschwindigkeit dreht, desto geringer ist ihre Kapazität, aber ihre Daten, die über eine größere Fläche verteilt sind, werden wahrscheinlich zuverlässiger geschrieben. Andererseits geht die Drehzahl mit der Zugriffsgeschwindigkeit (IOPS, also) einher, weil sich der Header dadurch schneller dort positionieren kann, wo sich die Spule befindet.
Je höher die Anzahl der IOPS, desto effizienter ist das System beim Zugriff auf Daten. Mechanische Festplatten liegen in der Regel zwischen 50 und 200 IOPS. SSD-Medien sind deutlich schneller, bis zu 25.000 IOPS oder mehr.
Tatsächlich nehmen die Leistungsunterschiede ab, wenn wir die funktionalen Operationen rund um die Festplatten berücksichtigen: Verarbeitung durch den Speichercontroller, Datenübertragung im Netzwerk, Verwendung in einer RAID-Konfiguration oder sogar Cache-Nutzung.
Latenz ist die Zeit, die benötigt wird, um jede E/A-Anforderung abzuschließen. Bei einer mechanischen Festplatte dauert es zwischen 10 und 20 Millisekunden. Bei Festplatten sinkt die Zahl auf wenige Tausendstelsekunden. Die Reaktionszeit ist oft die wichtigste Kennzahl bei der Bestimmung des besten Speichers für eine Anwendung.
Cloud-Metriken
Die Übertragung traditioneller Speichermetriken in die Cloud ist selten einfach. Käufer von Cloud-Speicher sind sich in der Regel nicht sicher, wie sie ihre Kapazität sparen können. Die genaue Mischung aus SSDs, mechanischen Laufwerken, Bändern oder optischen Geräten hängt allein vom Anbieter und seinen Service-Levels ab.
Große Anbieter von Cloud-Diensten kombinieren in der Regel mehrere Speichertypen und verwenden Caching und Lastenausgleich, wodurch Leistungsdaten für das Gerät selbst weniger wichtig werden.
Cloud-Anbieter bieten auch unterschiedliche Speicherformate an: hauptsächlich Block, Datei und Objekt, was Vergleiche zwischen Metriken erschwert.
Die Messungen variieren auch in Abhängigkeit von der Speicherqualität, die das Unternehmen kauft. Tatsächlich bieten Highballs jetzt je nach Leistung und Preis mehrere Speicherebenen.
Vergessen wir nicht die serviceorientierten Angebote wie Datensicherung, -wiederherstellung und -archivierung, die mit eigenen Metriken ausgestattet sind, darunter Recovery Time Objective (RTO) und Aktualität. Wiederhergestellte Daten (RPO, Recovery Point Target), die durch die Häufigkeit von Backups bedingt sind.
Block Storage, die Basis, ist zumindest bei den großen Cloud-Anbietern immer noch der einfachste Standard. Beispielsweise bewirbt Google für seine GCP-Cloud-Plattform die maximale Anzahl kontinuierlicher IOPS und den maximal tragfähigen Durchsatz (in MB/s), der für die Speicherung im Blockmodus unterstützt wird. Dies gliedert sich in Lese- und Schreib-IOPS und Durchsatz pro Gigabyte Daten pro Instanz. Aber wie Google betont: “Die Festplattenleistung (IOPS und Durchsatz) hängt unter anderem von der Festplattengröße, der Anzahl der vCPU-Instanzen und der I/O-Blockgröße ab. Google bietet auch einen nützlichen Vergleich seiner Infrastruktur mit 7200 U/min physische Festplatte.
Microsoft veröffentlicht einen Leitfaden für Kunden, die ihre Nutzung seines Objektspeicherdienstes namens Blob überwachen möchten. Dieser Leitfaden bietet eine erste Vorstellung von Speicherleistungsmetriken in der Azure-Welt.
AWS bietet ähnliche Richtlinien für sein Angebot Elastic Block Store (EBS). Käufer können sich über verschiedene Speicherebenen informieren, von Hochleistungs-SSDs bis hin zur Datenspeicherung auf kalten Festplatten.
Kosten, Verfügbarkeit und andere nützliche Kennzahlen
Da Cloud-Speicher nutzungsbasiert ist, spielen die Kosten immer eine große Rolle. Auch hier bieten die großen Cloud-Anbieter je nach erforderlicher Leistung und Budget unterschiedliche Tiers an.
AWS bietet beispielsweise Allzweck-SSD-Speicher für gp2 und gp3, leistungsoptimierten io1- und io2-Speicher und st1-Festplattenvolumes mit Schwerpunkt auf Produktivität, die für „große serielle Anwendungen“ gedacht sind (Verständnis der Grundlagen von Big Data).
Cloud-Storage-Metriken sind nicht auf Kosten und Leistung beschränkt. Hinzu kommen die Kosten pro Gigabyte bzw. pro Instanz, die Kosten der Input-Daten und vor allem der Output (Recovery). So können einige sehr günstige Langzeitspeicherangebote ziemlich teuer werden, wenn es um die Wiederherstellung Ihrer Daten geht.
Eine weitere zu berücksichtigende Metrik ist die nutzbare Kapazität. Es geht darum zu wissen, wie viel gekaufter Speicherplatz tatsächlich für die App verfügbar ist, die ihn verwendet, und wann sich diese Speichernutzung auf die tatsächliche Leistung der App auswirkt. Die Zahlen können wiederum von denen der inländischen Technologien abweichen.
IT-Manager kümmern sich auch um die Serviceverfügbarkeit. Die Zuverlässigkeit von Speicherkomponenten und -subsystemen wurde traditionell auf der Grundlage der mittleren Zeit bis zum Ausfall (MTBF-Index) oder neuerdings für SSDs auf der Grundlage des TBW-Index (Total Terabytes Writed Through Life) bewertet.
Für die Cloud-Bereitstellung in großem Maßstab bleibt die Verfügbarkeit die gebräuchlichste und nützlichste Metrik. Cloud-Service-Provider geben Kennzahlen zur Verfügbarkeit oder Betriebszeit zunehmend als „fünf Neunen“ („99,999 % der Zeit verfügbar“) aus, genau wie Rechenzentren oder Netzbetreiber. Dies ist oft das beste Servicelevel (SLA) und das teuerste.
Das ist noch nicht alles. Käufer von Cloud-Speicher müssen auch den geografischen Standort, Redundanz, Datenschutz, Compliance, Sicherheit und sogar die Finanzkraft des Anbieters berücksichtigen. Diese Standards sind per se keine Leistungsmaßstäbe, aber wenn ein Dienstanbieter ausfällt, riskieren Sie, seinen Dienst überhaupt nicht nutzen zu können.