Zurück zu ML-Tools in der Google Cloud Platform

Während des Cloud Next-Events stellte Google spezielle Tools für maschinelles Lernen vor, die auf seiner Cloud-Plattform verfügbar sind. Werfen Sie einen Blick auf diese verschiedenen Dienste, die die Entwicklung fortschrittlicher Rechenmodelle erleichtern.

Alle Cloud-Anbieter wollen Datenwissenschaftler anziehen, indem sie Dienste anbieten, die bei der Entwicklung von Modellen für maschinelles Lernen helfen. Google durch GCP ist keine Ausnahme von der Regel und hat während der nächsten Veranstaltung mehrere Dienste angekündigt. Es ist an der Zeit, auf diese Anzeigen im Detail zurückzukommen. Das Unternehmen stellt zunächst fest, dass Unternehmen das Problem der systemischen Datenineffizienz haben. Laut einer Studie von Accenture gaben nur 32 % der befragten Unternehmen an, den greifbaren Wert von Daten wahrnehmen und messen zu können.

Dieser niedrige Prozentsatz wird durch mehrere Faktoren verursacht, wie z. B. mangelnde Führung, langsamer Datenverkehr und Fragmentierung von Data Warehouses. Um die Zeit zu verkürzen, die für die Entwicklung fortschrittlicher Modelle für maschinelles Lernen für komplexe Data-Science-Anwendungen erforderlich ist, hat GCP innerhalb seiner einheitlichen ML-Betriebsplattform Vertex AI, die seit Mai dieses Jahres verfügbar ist, einen Dienst namens Vertex AI Workbench eingeführt, der sich derzeit in der Beta-Phase befindet.

Greifen Sie auf Daten von mehreren Diensten zu

Nach Angaben des Anbieters kann die integrierte Entwicklungsumgebung, die als von Google verwalteter Laptop-Dienst fungiert, auf Daten mehrerer Dienste wie Dataproc, BigQuery, Dataplex und Looker zugreifen und Wissenschaftlern das Trainieren von Algorithmusmodellen ermöglichen. Fünfmal schneller als aktuelle Umgebungen. AI Workbench und andere Datentools wurden auf der Cloud Next-Konferenz vorgestellt. „Mit Vertex AI und Workbench bringt Google bestehende, aber zuvor getrennte Dienste zusammen, und Workbench bietet einen umfassenden und klar definierten Prozess für die Arbeit in der Datenwissenschaft“, sagte Doug Henschen, Vice President und Principal Analyst bei Constellation Research.

Eines der Hauptargumente der GCP für AI Workbench ist die Unterstützung der Zusammenarbeit. “Vertex AI Workbench bietet eine kollaborative Entwicklungsumgebung für einen gesamten ML-Workflow und verbindet Datendienste wie BigQuery und Spark in Google Cloud mit Vertex AI-Diensten und MLOps. Datenwissenschaftler werden in der Lage sein, mehr Formulare einfacher und schneller von einem einzigen aus bereitzustellen und zu verwalten Schnittstelle.“ Während Workbench eine Innovation für GCP ist, haben konkurrierende Cloud-Anbieter wie AWS und Microsoft bereits ähnliche ML-as-a-Service-Plattformen, die auf der einen Seite AWS SageMaker und auf der anderen Seite Azure Machine Learning heißen“, betont Henschen .

Optimierung von Analysen in der Cloud

Im Mai 2010 führte Google BigQuery für serverlose Multicloud-Data Warehouses mit maschinellen Lernfunktionen ein. Da sich jedoch immer mehr Unternehmen für Hybrid- und Multi-Cloud-Umgebungen entscheiden, schien das Hinzufügen von Analysen in der gesamten Cloud notwendig. Daher hat die Google Cloud Platform den Vorschaudienst BigQuery Omni zur Verfügung gestellt. Mit diesem Service können Benutzer Dateneinblicke in AWS und Azure Cloud Storage erhalten. Laut Google laufen BigQuery-Instanzen auf diesen Cloud-Repositories und geben die Ergebnisse dann an das GCP-Dashboard zurück. Laut Doug Henschen ist dieser Dienst einzigartig für die GCP.

Darüber hinaus wird Google die Open-Source-Analytics-Engine Apache Spark unterstützen. Als Vorschau können Data Scientists Spark von ihren bevorzugten Schnittstellen aus verwenden, ohne Datenduplizierung oder benutzerdefinierte Integration. Darüber hinaus gibt der automatische Skalierungsdienst Entwicklern die Möglichkeit, Anwendungen und Pipelines zu schreiben, ohne die Infrastruktur manuell bereitstellen oder optimieren zu müssen. An der Wettbewerbsfront glaubt der Vice President und Principal Analyst von Constellation Research, dass „wenn große Clouds Apache Spark-Dienste bereitstellen, die GCP einen Vorsprung gegenüber ihren Konkurrenten gewinnen kann, da sich die serverlose Versorgung an die Nachfrage anpasst und sie besonders teuer macht – effizient und einfach zu handhaben verwalten in Spitzenzustand oder schwere Lasten der zu verarbeitenden Datenwissenschaft.“

Integrationen zur Vereinfachung der Data Governance

Unter den angekündigten Funktionen hat GCP auch die Integration zwischen der Business Intelligence (BI)-Plattform von Looker und der Dataviz-Software Tableau von Salesforce implementiert. „Tableau-Kunden können das semantische Looker-Modell nutzen, um zusätzliche Ebenen der Datenverwaltung zu erreichen und gleichzeitig den Datenzugriff zu demokratisieren“, sagte Google. Laut Henschen basiert die Integration auf einer strategischen Partnerschaft, bei der Google möchte, dass seine Unternehmenskunden Looker als zuverlässige Datenquelle für ihre Analyseanforderungen und Tableau als Engine für die Visualisierung und Analyse dieser Daten wählen.

Weitere Ankündigungen umfassen die Integration von Looker mit Google Contact Center AI und eine private Beta-Version von Looker, die auf der NLP Healthcare API ausgeführt wird. Diese API ist eine Komponente der Cloud Healthcare API, die natürliche Sprachmodelle verwendet, um mithilfe von JSON-Anforderungen und -Antworten Gesundheitsinformationen aus medizinischem Text zu extrahieren.

Leave a Comment