Erfolgreich in der Kombination von Cloud und Rechenzentrum

Wenn sich die Rechenzentrumsinfrastruktur von Unternehmen in den letzten 10 oder 20 Jahren ein wenig weiterentwickelt hat, gilt dies nicht für die Nutzung. Cloud-Dienste haben die Erwartungen erschüttert: Einfache Bereitstellung, Ressourcenverwaltung und nutzungsbasierte Bezahlung sind heute die Norm. Mit den richtigen Tools sollten Rechenzentren in Zukunft flüssiger und fließender werden, da Unternehmen die Nutzung von On-Premises-Infrastruktur und Cloud-Ressourcen zu Optimierungszwecken ausbalancieren wollen.

Neue, flexiblere Verwaltungstools machen Cloud- und On-Premises-Computing-Ressourcen teilweise austauschbar. „On-Premises-Computing hat sich genauso schnell entwickelt wie Cloud-Services“, sagt Tony Locke, Analyst bei Freeform Dynamics. Zuvor war es ziemlich statisch und verfügte über eine Infrastruktur, die spezialisierten Anwendungen gewidmet war.

„Die IT hat den Arbeitsplatz in 10 Jahren verändert: Es ist jetzt viel einfacher, die meisten IT-Plattformen zu erweitern.“

Toni LockeAnalysator, Freiformdynamik

“Es hat sich in 10 Jahren verändert: Es ist jetzt sehr einfach, die meisten IT-Plattformen zu skalieren. Wir müssen nicht mehr alles für das Wochenende unterbrechen, um die neue Ausrüstung tatsächlich zu installieren. Sie müssen nur diese neue Hardware zu den Daten bringen zentrieren und anschließen, damit es funktioniert.“ »

Eine weitere Veränderung, die im Rechenzentrum zu beobachten ist: Virtualisierung. Benutzer können Anwendungen problemlos von einem physischen Server auf einen anderen verschieben, was die Portabilität erheblich verbessert, insbesondere angesichts der in den letzten fünf bis zehn Jahren beobachteten Erweiterung virtueller Netzwerke oder SDNs (Software Defined Network), sagt Tony Locke.

Die rasante Entwicklung von Automatisierungstools, die On-Premises- und Cloud-Ressourcen verwalten, konkretisiert die Idee, die beiden Arten von Ressourcen in einer Gruppe zusammenzuführen.

Im Juni kündigte HashiCorp Terraform Version 1.0 an, was zeigt, dass seine Infrastrukturverwaltungsplattform ausgereift und stabil genug für den Produktionseinsatz ist, obwohl viele Kunden sie bereits bereitgestellt haben, ohne auf einen weiteren Grind zu warten.

Mit dem Programmable Infrastructure Tool oder IaC (Infrastructure as Code) erstellt der Benutzer seine Infrastruktur mithilfe von deklarativen Konfigurationsdateien, die den Zielzustand der Infrastruktur beschreiben. Dies sind Richtlinien, die die effiziente und wiederkehrende Bereitstellung von Infrastruktur durch Terraform für eine bestimmte Anwendung oder einen bestimmten Dienst ermöglichen.

Es ist auch möglich, komplexe Änderungen an der Infrastruktur zu automatisieren, indem menschliche Interaktionen reduziert werden, indem einfach Konfigurationsdateien aktualisiert werden. Das Tolle an Terraform ist, dass es neben der lokalen Infrastruktur auch Ressourcen verwalten kann, die über mehrere Cloud-Anbieter verteilt sind, darunter AWS, Azure und Google Cloud Platform.

Da Terraform-Konfigurationen nicht an eine bestimmte Cloud gebunden sind, definieren sie überall dieselbe Anwendungsumgebung. Sie können die Anwendung ganz einfach verschieben oder kopieren.

„Die Idee einer programmierbaren Infrastruktur ist nicht ohne Reiz“, sagt Tony Locke. Es entwickelt sich, aber es ist noch ein langer Weg bis zur Reife. Es ist Teil des universellsten Automatisierungs-Frameworks. Die Informationstechnologie wird zunehmend automatisiert. Befreit von repetitiven und redundanten Aufgaben, die nun durch Software gut unterstützt werden, können sich IT-Teams anderen Aspekten mit größerem Mehrwert für das Unternehmen widmen. »

Nativer Cloud-Speicher

Speicher ist flexibler geworden, zumindest wenn es um virtuelle Speichersysteme (SDS) geht, die dafür ausgelegt sind, auf einer Gruppe von Servern statt auf proprietärer Hardware ausgeführt zu werden. In der Vergangenheit wurden Apps oft mit persistenten Speichernetzwerken in Verbindung gebracht.

Der SDS-Speicher ist einfach zu erweitern. In der Regel reicht es aus, dem Speicherblock Knoten hinzuzufügen.

Da diese Art von System programmierbar ist, ist es einfach, sie über APIs oder die Verwendung von Infrastrukturtools wie Terraform bereitzustellen und zu verwalten.

Die Raffinesse und Flexibilität der SDS-Speicherung zeigt sich in der Limitless-Datenplattform von WekaIO, die in mehreren Supercomputer-Projekten eingesetzt wurde. Die WekaIO-Plattform standardisiert den für Anwendungen bereitgestellten Namespace und sie werden auf dedizierten Speicherservern oder in der Cloud bereitgestellt.

Bei Bedarf können Organisationen Daten aus ihrer On-Premises-Gruppe in die Public Cloud verschieben und dort eine Weka-Gruppe bereitstellen. Laut WekaIO kann jede dateibasierte Anwendung ohne weitere Modifikation in der Cloud ausgeführt werden.

Eine der Hauptfunktionen von WekaIO besteht darin, einen Snapshot der gesamten Umgebung zu erstellen, einschließlich aller mit dem Dateisystem verbundenen Daten und Metadaten, die dann in einen Objektspeicher wie Amazon S3 Cloud Storage übertragen werden können.

So kann das Unternehmen ein Speichersystem für ein bestimmtes Projekt erstellen und verwenden und dann einen Snapshot erstellen, der am Ende des Projekts in der Cloud gespeichert wird, um die Hosting-Infrastruktur für andere Zwecke freizugeben. Geht das Projekt weiter, reiche es aus, das Dateisystem analog aus dem Snapshot neu zu erstellen, erklärt WekaIO.

„Den sehr niedrigen Preisen einiger Cloud-Plattformen allein für die Speicherkosten stehen oft sogar recht hohe Ausstiegsgebühren gegenüber.“

Toni LockeAnalysator, Freiformdynamik

Dieses Szenario hat jedoch einen großen Nachteil: die potenziellen Kosten, nicht für die Speicherung von Cloud-Daten, sondern für den Zugriff. Denn große Cloud-Anbieter wie AWS verlangen beim Abrufen von Daten eine Gebühr.

Laut T. Lock “werden die sehr niedrigen Preise einiger Cloud-Plattformen allein für die Speicherkosten oft durch ziemlich hohe Austrittsgebühren ausgeglichen. Es wird sehr teuer sein, Daten zur Überprüfung und Verwendung zu extrahieren. Gespeicherte Daten kosten Sie nicht viel, aber.” Das Scannen und Verwenden wird schnell teuer. Einige Pläne beinhalten ein aktives Archiv ohne Ausstiegsgebühr, aber zu einem höheren Preis.“

Wasabi Technologies ist von dieser Vereinbarung abgerückt und bietet verschiedene Berechnungsmethoden an, darunter eine monatliche Gebühr pro Terabyte.

Integriertes Management

Wenn die IT-Infrastruktur weiter belastbarer, belastbarer und anpassungsfähiger wird, müssen Unternehmen die Kapazität ihrer Rechenzentren so schnell nicht erweitern. Mit den richtigen Verwaltungs- und Automatisierungstools können sie ihre Infrastruktur effektiv und dynamisch verwalten, einschließlich der Umverteilung der lokalen IT für andere Zwecke und der Nutzung von Cloud-Diensten zur Erweiterung ihrer Ressourcen.

Um an diesen Punkt zu gelangen, muss noch ein Punkt verbessert werden: die Fähigkeit, das Problem zu lokalisieren, wenn eine Anwendung langsamer wird oder abstürzt, eine Aufgabe, die in einem komplexen verteilten System manchmal schwierig ist. Organisationen mit einer Microservices-Architektur werden nicht überrascht sein. T-Lock glaubt, dass neue Technologien, die auf maschinellem Lernen basieren, nützlich sein könnten.

„Wenn Sie ständig alles bewegen können, wie können Sie dann ein gutes Datenmanagement und nur die richtigen Dinge am richtigen Ort mit der richtigen Sicherheit am Laufen halten?“

Toni LockeAnalysator, Freiformdynamik

Er fährt fort: “Die Überwachung hat sich stark verbessert, und jetzt stellt sich die Frage, wie man das Wichtige in der Telemetrie zum Vorschein bringt. Hier beginnt sich das maschinelle Lernen auszuzahlen. Die Ursachenanalyse ist eine der großen IT-Herausforderungen, die das maschinelle Lernen erheblich vereinfacht. ”

Eine weitere Schwierigkeit betrifft das Datenmanagement: Wie stellen Sie sicher, dass datenbezogene Governance- und Sicherheitsrichtlinien die häufigen Bewegungen von Workloads verfolgen und bestehen bleiben? „Wenn Sie ständig alles verschieben können, wie sorgen Sie dann für ein gutes Datenmanagement und dafür, dass nur die richtigen Dinge an den richtigen Stellen mit der richtigen Sicherheit ausgeführt werden?“, fragt T-Lock.

Die Tools sind da, darunter das Open-Source-Apache-Atlas-Projekt, das als One-Stop-Lösung für alle Phasen des Datenmanagements und des Metadatenmanagements angeboten wird. Atlas wurde ursprünglich für Hadoop-Datenökosysteme entwickelt, lässt sich aber in andere Umgebungen integrieren. Für Unternehmen scheint der Traum, On-Premises- und Cloud-Assets mischen zu können, um sie dann ohne Einschränkungen einzuzahlen und einzulösen, endlich Wirklichkeit zu werden.

Leave a Comment