Generative KI und Data Governance

Google war der ersten Anbieter in der Branche, der eine KI-/ML-Datenschutzverpflichtung veröffentlicht hat. Diese legt fest, dass Kunden die höchste Sicherheit und Kontrolle über ihre Daten haben sollten, die in der Cloud gespeichert werden. Diese Zusicherung gilt für Generative AI-Produkte von Google Cloud. Google sorgt dafür, dass seine Teams diese Verpflichtungen durch robuste Data-Governance-Praktiken einhalten. Dazu gehören auch Prüfungen der Daten, die Google Cloud bei der Entwicklung seiner Produkte verwendet. Weitere Informationen dazu, wie Google Daten verarbeitet, finden Sie auch im Zusatz zur Verarbeitung von Cloud-Daten von Google (CDPA).

Definitionen

Begriff Beschreibung
Basismodelle Umfangreiche Modelle für maschinelles Lernen (ML), die mit einer großen Datenmenge trainiert werden und für eine Vielzahl von Aufgaben verwendet werden können.
Adaptermodelle Sie werden auch als Adapterebenen oder Adaptergewichtungen bezeichnet. Sie sind ML-Modelle, die in Verbindung mit einem Foundation Model die Leistung spezieller Aufgaben verbessern.
Kundendaten Eine Definition finden Sie in den Nutzungsbedingungen der Google Cloud Platform.
Training Verwendung von Daten zum Trainieren eines ML-Modells
Vorhersage Auch als Inferenz bezeichnet. Dies bezieht sich auf die Verarbeitung von Eingaben mit ML-Modellen, um Ausgaben zu generieren.
Sicherheitsklassifikatoren Wird verwendet, um während des Vorhersagevorgangs bestimmte Kategorien von Inhalten zu identifizieren, z. B. für potenziell Gewalt verherrlichendes Material.

Foundation Model-Training

Standardmäßig verwendet Google Cloud keine Kundendaten zum Trainieren seiner Foundation Models. Kunden können die Foundation Models von Google Cloud verwenden, da sie sicher sein können, dass ihre Prompts, Antworten und alle Trainingsdaten für Adaptermodelle nicht zum Trainieren von Foundation Models verwendet werden.

Adaptermodell trainieren

Vertex AI bietet einen Dienst, mit dem Kunden Adaptermodelle trainieren können. Trainingsdaten des Adaptermodells sind Kundendaten und werden nicht gespeichert. Außerdem werden Kundendaten nicht zur Verbesserung der Foundation Models von Google Cloud verwendet. Das Adaptermodell steht nur dem Kunden zur Verfügung, der das Adaptermodell trainiert hat. Google erhebt keinen Anspruch auf die Eigentumsrechte an den Adaptermodellen, es sei denn, die Adaptermodelle nutzen bereits vorhandenes geistiges Eigentum von Google. Kundendaten werden standardmäßig verschlüsselt gespeichert und bei der Übertragung verschlüsselt. Der Kunde kann auch die Verschlüsselung seiner Adaptermodelle mithilfe von vom Kunden verwalteten Verschlüsselungsschlüsseln (CMEK) steuern und die Adaptermodelle jederzeit löschen.

Vorhersage

Ein- und Ausgaben, die von Basismodellen, Adaptermodellen und Sicherheitsklassifikatoren während der Vorhersage verarbeitet werden, sind Kundendaten. Kundendaten werden von Google niemals ohne ausdrückliche Genehmigung des Kunden protokolliert, indem er ihm erlaubt, Ein- und Ausgaben im Cache zu speichern.

Während der Vorhersage protokollieren wir keine Kundendaten, um die Ausgabe- oder Trainings-Foundation Models eines Kunden zu generieren. Standardmäßig speichert Google die Eingaben und Ausgaben eines Kunden für Gemini-Modelle im Cache, um Antworten auf nachfolgende Prompts des Kunden zu beschleunigen. Im Cache gespeicherte Inhalte werden bis zu 24 Stunden gespeichert. Für im Cache gespeicherte Daten wird der Datenschutz auf Projektebene erzwungen. Informationen dazu, wie Sie die API verwenden, um den Caching-Status abzurufen, das Caching zu deaktivieren oder das Caching für ein Google Cloud-Projekt wieder zu aktivieren, finden Sie unter Wie aktiviere oder deaktiviere ich das Caching? Wenn Sie das Caching deaktivieren, kann es zu einer höheren Latenz kommen.

Vom Trusted Tester-Programm abmelden

Wenn Sie Google ausdrücklich erlaubt haben, Ihre Daten im Rahmen der Nutzungsbedingungen des Trusted Tester-Programms zur Verbesserung Ihrer KI-/ML-Dienste zu verwenden, können Sie das Formular Trusted Tester-Programm – Deaktivierungsanfrage zum Deaktivieren verwenden.

Nächste Schritte