Best practice per la sicurezza

I modelli linguistici di grandi dimensioni (LLM) possono tradurre la lingua, riassumere il testo, generare scrittura creativa, generare codice, supportare chatbot e assistenti virtuali e integrare motori di ricerca e sistemi di consigli. Allo stesso tempo, come un tecnologia allo stadio iniziale, le sue capacità e i suoi usi in evoluzione creano un potenziale applicazioni errate, usi impropri e conseguenze indesiderate o impreviste. Grande linguistici di grandi dimensioni possono generare output che non ti aspetti, tra cui testo offensivo, insensibile o di fatto errato.

Inoltre, l'incredibile versatilità degli LLM è anche ciò che rende difficile per prevedere esattamente quali tipi di output potrebbero produrre. Dati questi rischi e complessità, le API di IA generativa di Vertex AI sono progettate con i principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testare i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Studio ha un filtro dei contenuti integrato, mentre le nostre API di IA generativa hanno il punteggio dell'attributo di sicurezza per aiutare i clienti a testare i filtri di sicurezza e e definiscono soglie di affidabilità adatte al caso d'uso e all'attività di appartenenza. Consulta la sezione Filtri e attributi di sicurezza. per saperne di più.

Quando le nostre API generative sono integrate nel tuo caso d'uso unico e nel tuo contesto, altre considerazioni sull'AI responsabile limitazioni potrebbe essere necessario prendere in considerazione. Incoraggiamo i clienti a promuovere la correttezza, interpretabilità, privacy e sicurezza best practice consigliate.

Filtri e attributi di sicurezza

Per scoprire come utilizzare i filtri e gli attributi di sicurezza per un'API, consulta quanto segue pagine:

Limitazioni del modello

Le limitazioni che potresti riscontrare quando utilizzi i modelli di IA generativa includono, a titolo esemplificativo:

  • Casi limite: si riferiscono a situazioni insolite, rare o eccezionali. che non sono ben rappresentati nei dati di addestramento. Questi casi possono Limitazioni delle prestazioni del modello, come l'eccessiva affidabilità del modello interpretazione errata del contesto o output inappropriati.

  • Allucinazioni dei modelli, grounding e oggettività: modelli di IA generativa possono mancare di oggettività nella conoscenza del mondo reale, nelle proprietà fisiche o una migliore comprensione. Questa limitazione può portare a allucinazioni del modello, che si riferiscono a istanze in cui può generare output plausibile, ma di fatto errata, irrilevante, inappropriata o senza senso. Per ridurre questa possibilità, puoi basare i modelli sul tuo dati specifici. Per saperne di più sul grounding in Vertex AI, consulta la Panoramica del grounding.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e i bias del prompt. o l'input di dati in un modello può avere un impatto significativo le prestazioni dei dispositivi. Se gli utenti inseriscono dati o richieste inesatti o errati, il può avere prestazioni non ottimali o output del modello falsi.

  • Amplificazione dei bias: i modelli di IA generativa possono amplificare inavvertitamente pregiudizi esistenti nei dati di addestramento, che portano a risultati che possono rafforzano i pregiudizi sociali e la disparità di trattamento di alcuni gruppi.

  • Qualità linguistica: sebbene i modelli offrano un'esperienza multilingue straordinaria in base ai benchmark considerati, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) sono in inglese lingua. Per ulteriori informazioni, consulta Blog di Google Research.

    • I modelli di IA generativa possono fornire una qualità del servizio incoerente a diversi utenti. Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace per alcuni dialetti o varietà linguistiche a causa della sottorappresentazione nei dati di addestramento. Il rendimento può essere peggiore per le lingue diverse dall'inglese o Varietà di lingua inglese con meno rappresentazione.
  • Benchmark e sottogruppi di equità: le analisi di equità di Google Research dei nostri modelli di IA generativa non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, etnia, razza e religione, ma eseguiamo l'analisi solo sui dati in lingua inglese e sugli output del modello. Per ulteriori informazioni, consulta Blog di Google Research.

  • Esperienza limitata nel dominio: i modelli di IA generativa possono non avere la profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, il che porta a informazioni superficiali o errate. Per casi d'uso specializzati e complessi, i modelli dovrebbero essere ottimizzati specifici del dominio ed è necessaria una significativa supervisione umana contesti che possono avere un impatto concreto sui singoli diritti.

  • Lunghezza e struttura di input e output: i modelli di IA generativa hanno un limite massimo di token di input e output. Se l'input o l'output supera questo valore di sicurezza, i nostri classificatori di sicurezza non vengono applicati e ciò potrebbe a scarse prestazioni del modello. Sebbene i nostri modelli siano progettati per gestire di formati di testo diversi, il loro rendimento può risentirne se i dati di input ha una struttura insolita o complessa.

Per utilizzare questa tecnologia in modo sicuro e responsabile, è importante anche considerare altri rischi specifici per il caso d'uso, gli utenti e il contesto aziendale, oltre alle salvaguardie tecniche integrate.

Ti consigliamo di procedere nel seguente modo:

  1. Valuta i rischi per la sicurezza della tua applicazione.
  2. Valuta la possibilità di apportare modifiche per mitigare i rischi per la sicurezza.
  3. Esegui test di sicurezza appropriati per il tuo caso d'uso.
  4. Sollecitare il feedback degli utenti e monitorare i contenuti.

Segnala abuso

Puoi segnalare presunti abusi del Servizio o qualsiasi output generato che contiene materiale inappropriato o informazioni imprecise utilizzando: modulo: Segnalare i presunti abusi su Google Cloud.

Risorse aggiuntive