Skip to main content
September 5, 2023

Google Cloud Next 23 | Zusammenfassung

Einen Tag, nachdem OpenAI die Unternehmensversion seines ChatGPT-Modells vorgestellt hatte, begann die Google Cloud Next 2023, auf der die neuesten Produktversionen des Unternehmens vorgestellt wurden und die das Rennen um die dominierende Position im Bereich der KI verdeutlichte.

Wir von Plain Concepts wollten uns die Veranstaltung nicht entgehen lassen, die nach drei Jahren wieder zu ihrem persönlichen Format in der Stadt San Francisco zurückkehrte. Hier eine Zusammenfassung einiger der wichtigsten Neuigkeiten.

KI-Plattformen und -Tools

Duet AI

Duet AI, die innovative Plattform für künstliche Intelligenz von Google Cloud, die die Art und Weise, wie Nutzer mit der Cloud arbeiten, revolutionieren soll, zielt darauf ab, die Produktivität zu verbessern, Wettbewerbsvorteile zu schaffen und die betriebliche Effizienz zu steigern. Durch seine Expansion wurde Duet AI in eine Vielzahl von Google Cloud-Diensten und -Anwendungen integriert.

Einer der Hauptschwerpunkte von Duet AI ist die Anwendungsentwicklung. Die Plattform bietet fachkundige Unterstützung während des gesamten Lebenszyklus der Softwareentwicklung, einschließlich Codegenerierung, Quellcode-Zitierung, Tests und API-Design. Entwickler können natürliche Sprache verwenden, um den Code zu verstehen und zu verbessern sowie um Unit-Tests zu erstellen. Diese Unterstützung ist in einer Vielzahl von Entwicklungsumgebungen verfügbar und trägt dazu bei, den Arbeitsablauf aufrechtzuerhalten und Unterbrechungen zu minimieren.

Duet AI beschleunigt auch die Anwendungsmodernisierung, indem es beim Code-Refactoring hilft. So kann es beispielsweise die Migration von Legacy-Anwendungen in die Google Cloud beschleunigen und Aufgaben wie die Konvertierung von Code von einer Sprache in eine andere vereinfachen. Diese Funktion ist besonders wertvoll für Unternehmen, die ihre Technologiesysteme effizienter aktualisieren wollen.

Die Plattform ist in die API-Verwaltung integriert und ermöglicht das Entwerfen und Veröffentlichen von APIs unter Verwendung natürlichsprachlicher Anfragen. Dies vereinfacht die Orchestrierung der Kommunikation zwischen Services und erleichtert die Integration von Anwendungen in einer Unternehmensumgebung.

Duet AI wird auch zur Vereinfachung des Betriebs und der Verwaltung von Infrastruktur und Anwendungen eingesetzt. Sie hilft, Bereitstellungen zu automatisieren, Anwendungen korrekt zu konfigurieren und Probleme effizient zu lösen. Im Cloud Monitoring kann sie beispielsweise natürlichsprachliche Anfragen in PromQL-Abfragen übersetzen, um Zeitreihenmetriken zu analysieren und so Probleme leichter zu erkennen und zu beheben.

Im Bereich der Datenanalyse ist Duet AI ein wertvolles Werkzeug für Analysten. In BigQuery bietet es kontextbezogene Unterstützung beim Schreiben von SQL und Python und ermöglicht so schnellere und effektivere Analysen. Es kann vollständige Funktionen generieren, Codevervollständigungen vorschlagen und detaillierte Erklärungen zu SQL-Abfragen liefern, was das Verständnis der Daten und ihrer Muster erleichtert. Duet AI lässt sich auch mit Vertex AI integrieren, was eine weitere Optimierung von Datenabfragen und Textanalysen ermöglicht. Dies erleichtert semantische Such- und Empfehlungsabfragen auf Basis von BigQuery-Daten.

Duet AI wird auch in Looker eingeführt, um Geschäftsanwendern zu helfen, Daten effizienter zu analysieren. Es bietet konversationelle Datenanalyse, automatische Präsentationserstellung und berichtbasierte Textzusammenfassungen, die ein schnelleres Verständnis von Daten und die Erstellung von LookML-Modellen ermöglichen.

Schließlich spielt Duet AI eine wichtige Rolle in der Cybersecurity, indem es Bedrohungsinformationen schnell zusammenfasst und klassifiziert, die Arbeitslast von Sicherheitsexperten reduziert und die Erkennung von und Reaktion auf Vorfälle verbessert. Es lässt sich mit Sicherheitsprodukten wie Chronicle Security Operations, Mandiant Threat Intelligence und Security Command Center integrieren.

Kurz gesagt, Duet AI ist eine Plattform für künstliche Intelligenz, die einen weitreichenden Einfluss auf die Anwendungsentwicklung, den Infrastrukturbetrieb, die Datenanalyse und die Cybersicherheit hat. Ihre Fähigkeit, natürliche Sprache zu verstehen und kontextbezogene Unterstützung zu bieten, verspricht, die Effizienz und Produktivität in einer Vielzahl von Bereichen innerhalb der Google Cloud zu verbessern.

Vertex AI

Vertex AI, die Cloud-basierte Plattform für maschinelles Lernen, die von Google Cloud entwickelt wurde, bietet einen vollständigen Arbeitsablauf für die Erstellung, das Training und den Einsatz von Modellen für maschinelles Lernen. Sie unterstützt verschiedene Arten von Machine-Learning-Aufgaben, bietet Tools für die Datenverarbeitung und -analyse und umfasst vortrainierte Modelle für gängige Anwendungsfälle. Vertex AI erleichtert die Verwaltung der Infrastruktur und ermöglicht es Entwicklern, Datenwissenschaftlern und Forschern, sich auf ihre Aufgaben im Bereich maschinelles Lernen zu konzentrieren. Mit Vertex AI können Nutzer Modelle auf der Google Cloud-Infrastruktur trainieren und bereitstellen, die AI Platform, Kubernetes und AutoML umfasst.

Vertex Platform

In Google Cloud Next wurden Erweiterungen der Vertex AI-Funktionen angekündigt, darunter neue Modelle in Model Garden, Aktualisierungen proprietärer Modelle und Tools zur Anpassung und Verbesserung von Modellen. Hervorgehoben werden neue Modelle wie Llama 2 und Claude 2 sowie Erweiterungen von Modellen wie PaLM 2, Codey und Imagen.

Darüber hinaus wird für Imagen eine Funktion für digitale Wasserzeichen eingeführt. Es wurden Vertex AI Extensions eingeführt, die die Verbindung von Modellen mit APIs für Echtzeitdaten und Aktionen in der realen Welt ermöglichen. All dies soll das Experimentieren und die Erstellung von Anwendungen mit Basismodellen, die Anpassung mit Unternehmensdaten und die Bereitstellung von Anwendungen mit integrierten Datenschutz-, Sicherheits- und verantwortungsvollen KI-Funktionen erleichtern. Diese Updates richten sich sowohl an Entwickler als auch an Datenwissenschaftler, unabhängig von deren KI-Kenntnissen, und beschleunigen die Einführung von generativer KI in Unternehmen aus verschiedenen Branchen.

Vertex AI Suche und Konversation

Vertex AI Search und Conversation von Google Cloud ermöglichen die Erstellung von generativen Such- und Chat-Anwendungen. Diese Produkte ermöglichen es Entwicklern mit wenig KI-Erfahrung, Suchmaschinen und Chatbots zu erstellen, die mit Kunden interagieren und Fragen effektiv beantworten können. Zusätzlich zur allgemeinen Verfügbarkeit wurden Funktionen wie die Multischicht-Suche und Erweiterungen zur Durchführung von Echtzeitaktionen hinzugefügt.

Vertex AI Search ermöglicht eine hochwertige multimodale Suche, und Vertex AI Conversation erleichtert die Erstellung von natürlich klingenden Chatbots und Voicebots. Diese Tools sind entscheidend, um die Einführung von generativer KI zu beschleunigen und die Benutzererfahrung in einer Vielzahl von Unternehmensanwendungen zu verbessern.

Vertex Colab

Vor drei Jahren startete Google Vertex AI mit dem Ziel, die beste KI/ML-Plattform zur Beschleunigung von KI-Workloads anzubieten. Seitdem hat Vertex AI seine Fähigkeiten erweitert, einschließlich Unterstützung für generative KI und entwicklerfreundliche Produkte für gängige generative KI-Anwendungsfälle. Darüber hinaus wurden mehr als 100 große Modelle von Google, Open-Source-Anbietern und Drittanbietern hinzugefügt. Trotz dieser Erweiterung bleibt der Fokus auf Data Science und Machine Learning Engineering bestehen.

Colab Enterprise wurde in einer öffentlichen Vorschau veröffentlicht und kombiniert die Benutzerfreundlichkeit der Colab-Notebooks von Google mit Unternehmensfunktionen für Sicherheit und Compliance. Die Unterstützung von Ray für Vertex AI zur effizienten Skalierung von KI-Workloads wurde ebenfalls angekündigt. Darüber hinaus werden die MLOps-Funktionen für generative KI mit Modell-Tuning, Modell-Evaluierung und einer neuen Version des Vertex AI Feature Store mit Unterstützung für Einbettungen erweitert.

Colab Enterprise ermöglicht Datenwissenschaftlern die Zusammenarbeit und Beschleunigung von KI-Workflows mit Zugriff auf Vertex AI-Funktionen, BigQuery-Integration und Codegenerierung. Ray on Vertex AI bietet Effizienz und Skalierbarkeit und ist ideal für das Training generativer KI-Modelle. Darüber hinaus wurden im Vertex AI Feature Store Funktionen wie Modellbewertung und Einbettungsunterstützung angekündigt, um die Verwaltung von generativen KI-Modellen in der Produktion zu verbessern.

Diese neuen Funktionen und Produkte sollen Unternehmen dabei helfen, ihre KI-Praxis voranzutreiben, insbesondere im Zusammenhang mit generativer KI, und konzentrieren sich auf Zusammenarbeit, Skalierbarkeit und effizientes Modellmanagement.

Vertex AI mit Colab Enterprise und MLOps für generative KI

Wie bereits erwähnt, gibt es eine bedeutende Weiterentwicklung von MLOps für generative KI mit Modelltuning und -evaluierung sowie eine neue Version des Vertex AI Feature Store mit Unterstützung für Einbettung. Mit diesen Funktionen können Kunden die Funktionen nutzen, die sie für den gesamten KI/ML-Workflow benötigen, vom Prototyping und Experimentieren bis hin zur Bereitstellung und Verwaltung von Modellen in der Produktion.

Für MLOps werden Schlüsselbereiche wie die Verwaltung der KI-Infrastruktur, die Anpassung mit neuen Techniken, die Verwaltung neuer Artefakttypen, die Überwachung des generierten Outputs und die Verbindung mit Unternehmensdaten hervorgehoben. Ein neues MLOps Framework für prädiktive und generative KI wird vorgestellt, um diese Herausforderungen zu bewältigen.

Sicherheit

Auf der Google Cloud Next-Veranstaltung konnte ein weiteres großes Szenario, das alle Arten von Unternehmen betrifft, nicht außer Acht gelassen werden: die Sicherheit. Das Unternehmen erläuterte seinen Sicherheitsansatz und wie es die dringendsten IT-Herausforderungen angeht. Google Cloud nutzt künstliche Intelligenz (KI), insbesondere Duet AI, um seine Sicherheitslösungen zu stärken und vor den wachsenden Cyber-Bedrohungen zu schützen.

Der Ansatz ist ganzheitlich und reicht von der Verwaltung und Überwachung der Sicherheit in KI-Workloads bis zur Integration von KI in ihre Sicherheitsprodukte, um diese effektiver zu machen. Darüber hinaus stellt das Unternehmen Tools und Plattformen wie die Google Cloud Security AI Workbench bereit, mit denen seine Kunden KI nutzen können, um die Sicherheit ihrer eigenen Anwendungen und Abläufe zu verbessern.

Duet AI in Mandiant Threat Intelligence

Hilft bei der Identifizierung von Taktiken, Techniken und Verfahren (TTPs), die von Bedrohungsakteuren gegen Unternehmen eingesetzt werden, und fasst die Google-Bedrohungsdaten umfassend zusammen. Es bietet Informationen über die neuesten Bedrohungen und darüber, wie Bedrohungsdaten im gesamten Unternehmen nutzbar gemacht werden können.

Duet AI in Chronicle Security Operations

Vereinfacht die Erkennung, Untersuchung und Reaktion auf Cyber-Bedrohungen. Sie liefert klare Fallzusammenfassungen, Kontext und Hinweise zu wichtigen Bedrohungen sowie Empfehlungen, wie darauf zu reagieren ist. Es ermöglicht auch die Suche in natürlicher Sprache, um die Ergebnisse zu beschleunigen.

Duet AI im Security Command Center

Erleichtert die Analyse von Sicherheitserkenntnissen und potenziellen Angriffswegen durch eine nahezu sofortige Analyse von Sicherheitsschlussfolgerungen. Dies vereinfacht komplexe Sachverhalte, so dass auch Nicht-Spezialisten ihre Organisationen verteidigen können.

Google Cloud

Google Cloud führt außerdem zusätzliche Funktionen ein, um die Cybersicherheit in Google-Cloud-Umgebungen zu verbessern, wie etwa agentenloses Schwachstellen-Scanning, Cloud Firewall Plus mit Firewall-Funktionen der nächsten Generation und Network Service Integration Manager.

Datensicherheit

Confidential Computing Private Preview wurde auf Intel Xeon Scalable CPUs der vierten Generation mit TDX-Technologie angekündigt, zusammen mit verbesserten Integrationen zum Schutz sensibler Daten in Diensten wie Dataplex und Dialogflow.

Modernisierung von Cloud-Infrastrukturen

Schließlich hat Google erkannt, dass wir uns an einem Wendepunkt im Computing befinden, an dem die Anforderungen von Workloads wie generativer KI und großen Sprachmodellen (LLMs) exponentiell ansteigen und die traditionelle Infrastruktur nicht mehr ausreicht. Vor diesem Hintergrund sind die folgenden neuen Entwicklungen zu sehen:

Für KI optimierte Infrastruktur

Google Cloud ist seit zwei Jahrzehnten führend im Bereich KI und hat KI-optimierte Infrastrukturlösungen entwickelt. Es werden komplette KI-Lösungen angeboten, von der Compute-Infrastruktur bis hin zu Software und Services zum Trainieren, Abstimmen und Bereitstellen von Modellen im globalen Maßstab.

Neue Infrastrukturverbesserungen:

  • Cloud TPU v5e: Google kündigte Cloud TPU v5e an, eine äußerst kosteneffiziente und vielseitige Lösung für Training und Inferenz in großem Maßstab. Sie bietet eine bis zu zweimal höhere Trainingsleistung pro Dollar und eine bis zu 2,5-mal höhere Inferenzleistung pro Dollar für LLMs und AI-Gen-Modelle im Vergleich zu TPU v4. Sie ist kostengünstiger als ihr Vorgänger und ermöglicht es mehr Unternehmen, größere und komplexere AI-Modelle zu trainieren und einzusetzen. Sie bietet große Flexibilität mit Unterstützung für acht verschiedene Konfigurationen virtueller Maschinen.
  • A3 VMs: Diese virtuellen Maschinen, die auf NVIDIA H100 GPUs basieren, werden bald verfügbar sein. Sie sind ideal für das Training und die Bereitstellung anspruchsvoller KI-Workloads. Sie bieten die dreifache Leistung und die zehnfache Netzwerkbandbreite im Vergleich zur vorherigen Generation. A3-VMs können in großem Maßstab ausgeführt werden, so dass Benutzer Modelle auf Zehntausende von NVIDIA H100-GPUs skalieren können.

Bedienbarkeit von TPUs

Google Cloud erleichtert den Betrieb von TPUs mit der allgemeinen Verfügbarkeit von Cloud TPUs auf Google Kubernetes Engine (GKE). Kunden können die Produktivität bei der KI-Entwicklung verbessern, indem sie GKE für die Orchestrierung umfangreicher KI-Workloads auf Cloud TPU v5e nutzen.

Erweiterte Unterstützung für KI-Frameworks

Google Cloud bietet Unterstützung für mehrere KI-Frameworks wie JAX, PyTorch und TensorFlow, zusätzlich zu beliebten Open-Source-Tools. Außerdem wurde angekündigt, dass die Unterstützung für PyTorch mit der kommenden Version PyTorch/XLA 2.1 verstärkt wird.

Skalierbarkeit der Ausbildung

In der Vorschauversion wurde die „Multislice“-Technologie eingeführt, die eine einfache Skalierung von KI-Modellen über die Grenzen der physischen TPU-Pods hinaus ermöglicht.

Zusammenfassend lässt sich sagen, dass Google Cloud eine kosteneffizientere und skalierbare KI-optimierte Infrastruktur bereitstellt, die es Unternehmen ermöglicht, die ständig steigenden Anforderungen von generativer KI und LLMs zu erfüllen und damit den Fortschritt im Bereich KI und Deep Learning zu beschleunigen.

Docking-Infrastruktur

Es wurden einige Fortschritte bei der Container-Infrastruktur und der künstlichen Intelligenz (KI) angekündigt, wobei der Schwerpunkt auf GKE Enterprise, TPU auf GKE und Duet AI auf GKE und Cloud Run lag.

GKE Enterprise

Google Cloud stellte GKE Enterprise vor, eine integrierte und intuitive Container-Plattform, die das Beste von GKE und Anthos vereint. Diese Edition enthält eine neue Funktion namens „Fleets“, die es Plattformingenieuren ermöglicht, ähnliche Arbeitslasten in dedizierten Clustern zu gruppieren, benutzerdefinierte Konfigurationen und gruppenspezifische Richtlinien anzuwenden, sensible Arbeitslasten zu isolieren und die Clusterverwaltung an andere Teams zu delegieren. GKE Enterprise bietet auch verwaltete Sicherheitsfunktionen wie erweiterte Workload-Schwachstellenerkennung, Governance- und Richtlinienkontrollen sowie einen verwalteten Service-Mesh-Dienst. Darüber hinaus unterstützt es hybride und Multi-Cloud-Umgebungen, um containerisierte Workloads in GKE, anderen öffentlichen Clouds oder lokal mit Google Distributed Cloud auszuführen.

TPU auf GKE

Google hat Cloud TPU v5e vorgestellt, einen kosteneffizienteren und skalierbaren KI-Beschleuniger, der auf Zehntausende von Chips skalieren kann. Er bietet im Vergleich zu Cloud TPU v4 eine bis zu 2-mal höhere Trainingsleistung und eine bis zu 2,5-mal höhere Inferenzleistung pro Dollar und ermöglicht die Nutzung von Funktionen wie automatische Skalierung und Workload-Orchestrierung. A3 VM-Unterstützung mit NVIDIA H100 GPU wurde ebenfalls angekündigt.

Duet AI auf GKE und Cloud Run

.
Duet AI, der KI-Partner von Google, ist jetzt auf GKE und Cloud Run verfügbar. Es hilft Plattform-Teams, manuelle und sich wiederholende Arbeiten zu reduzieren, wenn sie Container auf Google Cloud ausführen.

Insgesamt zeigen diese Ankündigungen das Engagement von Google Cloud für die Bereitstellung einer hochmodernen Container-Infrastruktur und von KI-Funktionen, die Unternehmen helfen, ihre Produktivität, Effizienz und Skalierbarkeit zu steigern. Kunden wie Equifax haben mit GKE Enterprise bereits erhebliche Verbesserungen in Bezug auf Sicherheit und Effizienz erfahren, die es ihnen ermöglichen, Hunderte von Clustern effizient zu verwalten. Darüber hinaus versprechen die Fortschritte bei TPU und Duet AI, die Einführung von AI in einer Vielzahl von Unternehmensanwendungen zu beschleunigen.