Wie würden Sie das Thema Wirtschaftlichkeit bei der Nutzung der Cloud heute zusammenfassen?
Heute hat die Entwicklung der Wolke ein Stadium erreicht, das mit der Elektrizität in der Zeit von Nikola Tesla vergleichbar ist (zwischen Ende des 19. und Anfang des 20. Jahrhunderts), das heißt, angenommen, wir haben das Hauptelement und wir identifiziert haben begonnen, die ersten Infrastrukturen zu schaffen (um die Analogie mit Elektrizität fortzusetzen, sie entspricht den ersten Leitungen und den ersten elektrifizierten Häusern). Auch nach Hause gelangt die Cloud beispielsweise über Photo Sharing oder Public Clouds, wie sie von Webgiganten wie Google, Apple, Facebook (Meta), Amazon, Microsoft oder dem chinesischen Unternehmen Baïdu angeboten werden. Heute, mehr als ein Jahrhundert später, ist Strom weit verbreitet und überall und jederzeit auf Abruf verfügbar.
Für die Cloud wird es dasselbe sein: Sie ist zu einem On-Demand-Computing- und Speichertool geworden – eine „Commodity“, um den neuen angelsächsischen Begriff zu verwenden. Dann stellt sich die Frage: Wie können wir es vermeiden, diese Ressource zu übertreiben und zu verschwenden, insbesondere angesichts dessen, was wir über den Energieverbrauch in der Cloud zu erkennen beginnen?
© Fotolia
Welche Aspekte können wir spielen, um zu einer wirtschaftlicheren Cloud zu gelangen?
Die erste Hauptzutat ist
Implementierung von Hard- und Softwarekomponenten. Dank der Erfahrung in der Entwicklung von Prozessoren und Speichern für eingebettete Berechnungen (kleine Größe und geringer Stromverbrauch) können wir sehr wirtschaftliche und effiziente Komponenten erstellen. Der seit 1983 von ARM Ltd. entwickelte ARM-Prozessor, der eine einfachere Architektur und daher einen geringeren Stromverbrauch als herkömmliche Prozessorfamilien aufweist, begann damit, Telefone zu erobern, um ihnen eine gute Energieautonomie zu verleihen. Es wird jetzt zunehmend in Cloud Computing und Speichermedien integriert, verbunden mit Hardwarebeschleunigern, die einige Teile des hochverbrauchenden Computing verbessern (z. B. Kalray Circuits, ein Zweig von CEA). CEA ist in diesem Bereich sehr aktiv, mit Vorschlägen für neue Architekturen und Beschleuniger, die darauf abzielen, die für das Rechnen mit Big Data erforderliche Leistung drastisch zu reduzieren, insbesondere durch In-Memory-Computing-Lösungen, die die Datenübertragung und damit die Energiekosten reduzieren.
© Adobe Stock
Neben der Optimierung von Prozessoren und Speicher,
Es ist auch notwendig, die Anwendung, dh das Programm, zu verbessern. Bei CEA haben wir langjährige Erfahrung im Software Engineering. In der Nähe industrieller Anwendungen haben unsere Teams beispielsweise Tools entwickelt, die in der Lage sind, kritische Prozesse zu programmieren – die reaktionsschnell und speziell für ihre Umgebung optimiert sein müssen. Sie mobilisieren heute, um diese Tools an die Einschränkungen der Datenverarbeitung und Speicherung in der Cloud anzupassen, um beispielsweise die Integrationen zwischen Algorithmen und den elektronischen Komponenten, auf denen sie ausgeführt werden, besser zu nutzen.
All diese Arbeiten sind sehr kritisch, aber wir können auch am System als Ganzes arbeiten.

© Fotolia
das mit sagen?
Das musst du im Hinterkopf behaltenDie Wolke besteht eigentlich aus mehreren Wolken. Wenn die Cloud eine Gruppe von Geräten ist, die in einem Netzwerk in einem Rechenzentrum verbunden sind, dann ist die Cloud in ihrer Gesamtheit tatsächlich eine Gruppe von Rechenzentren, die „miteinander sprechen“. Letztere befinden sich jedoch oft in großer Entfernung von den Anwendungen, die sie verarbeiten – beispielsweise laufen die Daten bei einer Videokonferenz zu zweit wenige Kilometer entfernt durch mehrere hundert Kilometer entfernte Rechenzentren. Wir sehen also die Entstehung eines Konzepts
“Wolke am Rande” oder Field Cloud: kleinere Clouds näher an Anwendungen, d. h. dort, wo wir Daten produzieren oder berechnen. Es ist gerade eine Revolution im Gange. Wenn wir einen Schritt zurücktreten, ist es wie eine Wolkengalaxie, die erscheint.
Ist es wirklich wirtschaftlicher, eine Wolkengalaxie statt ein paar großer Rechenzentren zu haben?
Dezentralisierung und Edge-Clouds bieten Funktionen, die besser auf lokale Bedürfnisse zugeschnitten sind, und viele Unternehmen versuchen, diese lokale Nutzung zu verbessern. Darüber hinaus verarbeiten sie Näherungsdaten, die daher nicht Tausende von Kilometern zurücklegen müssen, was den Energieverbrauch senkt. Obwohl globale Clouds öffentlich sein sollten, lokale Wolken Dank der Kenntnis des zu verarbeitenden Datentyps kann es sich spezialisieren, wodurch seine Effizienz gesteigert und der mit der Übertragung über große Entfernungen verbundene Verbrauch vermieden wird. Klar ist, dass der Effekt dieser Einsparung je nach Anwendungsfall wissenschaftlich analysiert werden muss. Doch nicht alles lässt sich lokal erledigen, insbesondere wenn Daten zwischen Nutzern geteilt werden müssen, etwa bei Videokonferenzen, oder wenn die Datenmenge sehr hohe Rechenleistung erfordert, wie bei einer digitalen Flugzeugsimulation.
Daher stellt sich die Frage nach der Verteilung der Berechnungen zwischen solchen, die auf diesen Clouds am Rand durchgeführt werden können, und solchen, in denen wir große Rechenzentren mit unterschiedlichen Rechenkapazitäten benötigen. L’Diese Verteilung der Konten zu organisieren, ist eine echte Frage der Ökonomie : Wenn wir falsch liegen, werden wir Clouds am Rand überverbrauchen, weil wir sie nach Accounts fragen, die nicht ihrer Größe entsprechen, oder umgekehrt Rechenzentren bauen, die im Leerlauf laufen, weil ihnen nicht die entsprechenden Aufgaben zugewiesen wurden. Daher sind Regelungsalgorithmen grundlegende Themen in dezentralen Clouds.
Abschließend erscheint diese Kontierungsfrage
Es sind Garantien zu geben, damit die Berechnung korrekt durchgeführt wird : Denn wenn es Fehler gibt, wiederholen wir die Berechnungen, wiederholen die Bemühungen und verbrauchen mehr Energie.
© Pixabay
Gibt es andere mögliche Maßnahmen, um zu einer wirtschaftlicheren Cloud zu gelangen?
Der letzte Kran, der arbeitet, ist
menschliches Bewusstsein. Das heißt, wie können wir sicher sein, dass sowohl der Betreiber als auch der Benutzer dieser Systeme wissen, wie Ressourcen gespart werden können? passieren kann
Visualisieren Sie unsere Anwendungen in der Cloud, die es uns ermöglicht, heiße oder kalte Orte in unserem digitalen Bereich zu sehen. Von dort aus wird die Energiebilanz angezeigt. So können wir den Nutzern Lösungen anbieten, um ihren Verbrauch und damit ihren CO2-Fußabdruck zu reduzieren – wie es bereits für Strom existiert. Gleichzeitig wird es notwendig sein, sobald wir eine bessere Visualisierung unseres Verbrauchs in der Cloud erhalten
Tools zur Überwachung und Anpassung dieses Verbrauchs „unterwegs“, um die Energieeffizienz zu verbessern. Dies sind echte „digitale Zwillinge“ der zu errichtenden Cloud-Infrastrukturen, und ihr Aufbau wird eine Herausforderung für umfangreiche Forschung in Modellierung, Simulation und Optimierung sein.
Energieverbrauch in der Cloud und Rechenzentren in geringen Zahlen
- Weltweit verbrauchen Rechenzentren heute 3 % des erzeugten Stroms und es wird erwartet, dass dieser Anteil in den kommenden Jahren erheblich zunehmen wird. Für 2020 wurde dieser auf 650 TWh geschätzt, was einen höheren Verbrauch als Frankreich darstellt.
- Ein mittelgroßes Rechenzentrum verbraucht jährlich 600.000 Kubikmeter Wasser zur Kühlung
- Laut einem Ende 2020 veröffentlichten Bericht der Europäischen Kommission ist der Verbrauch europäischer Rechenzentren von 53,9 TWh/Jahr im Jahr 2010 auf 76,8 im Jahr 2018 gesunken.