Questa pagina descrive come utilizzare Vertex AI per esportare immagini e video modelli AutoML Edge in Cloud Storage.
Per informazioni sull'esportazione dei modelli tabulari, consulta Esportazione di un modello tabulare AutoML.
Introduzione
Dopo aver addestrato un modello di dispositivo periferico AutoML, in alcuni casi puoi esportarlo in diversi formati, a seconda di come vuoi utilizzarlo. I file del modello esportati vengono salvati in nel bucket Cloud Storage e possono essere utilizzati per la previsione nell'ambiente di tua scelta.
Non puoi utilizzare un modello Edge in Vertex AI per fornire previsioni. devi eseguire il deployment del modello Edge su un dispositivo esterno per ottenere previsioni.
Esportazione di un modello
Usa gli esempi di codice seguenti per identificare un modello AutoML Edge: specificare una posizione di archiviazione dei file di output e inviare la richiesta del modello di esportazione.
Immagine
Seleziona la scheda di seguito per il tuo scopo:
Classificazione
I modelli di classificazione delle immagini AutoML Edge addestrati possono essere esportati formati:
- TF Lite: esporta il modello come pacchetto TF Lite per eseguirlo a livello perimetrale o dispositivi mobili.
- Edge TPU TF Lite: esporta il modello come pacchetto TF Lite per eseguirlo su Edge Dispositivi TPU.
- Container: esporta il modello come modello salvato TF per eseguirlo su un container Docker.
- Core ML: esporta un file .mlmodel per eseguire il tuo modello su dispositivi iOS e macOS.
- Tensorflow.js: esporta il modello come pacchetto TensorFlow.js per eseguirlo nel nel browser web e in Node.js.
Seleziona di seguito la scheda per la tua lingua o il tuo ambiente:
Console
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
- Fai clic sul numero di versione del modello AutoML Edge in cui vuoi esportare apri la relativa pagina dei dettagli.
- Fai clic su Esporta.
- Nella finestra laterale Esporta modello, specifica la posizione in Cloud Storage in cui archiviare l'output dell'esportazione del modello Edge.
- Fai clic su Esporta.
- Fai clic su Fine per chiudere la finestra laterale Esporta modello.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la posizione del progetto.
- PROJECT: il tuo ID progetto.
- MODEL_ID: il numero ID del modello AutoML Edge addestrato che stai esportando.
- EXPORT_FORMAT: il tipo di modello Edge che stai esporti. A questo scopo,
sono:
tflite
(TF Lite): esporta il modello come pacchetto TF Lite per eseguirlo su dispositivi periferici o mobili.edgetpu-tflite
(Edge TPU TF Lite): esporta il modello come pacchetto TF Lite per eseguire il tuo modello sui dispositivi Edge TPU.tf-saved-model
(container): esporta il modello come modello salvato TF su cui eseguirlo un container Docker.core-ml
(Core ML): esporta un file .mlmodel per eseguire il modello su iOS e sui dispositivi macOS.tf-js
(TensorFlow.js) - Esporta il modello come pacchetto TensorFlow.js per eseguirlo nel browser e in Node.js.
- OUTPUT_BUCKET: il percorso della directory del bucket Cloud Storage in cui vuoi per archiviare i file del modello Edge.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON della richiesta:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla OPERATION_ID.
Puoi ottenere lo stato dell'operazione di esportazione per vedere una volta finito.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Node.js Vertex AI documentazione di riferimento.
Per autenticarti in Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Classificazione
I modelli di classificazione delle immagini AutoML Edge addestrati possono essere esportati formati:
- TF Lite: esporta il modello come pacchetto TF Lite per eseguirlo a livello perimetrale o dispositivi mobili.
- Edge TPU TF Lite: esporta il modello come pacchetto TF Lite per eseguirlo su Edge Dispositivi TPU.
- Container: esporta il modello come modello salvato TF per eseguirlo su un container Docker.
- Core ML: esporta un file .mlmodel per eseguire il tuo modello su dispositivi iOS e macOS.
- Tensorflow.js: esporta il modello come pacchetto TensorFlow.js per eseguirlo nel nel browser web e in Node.js.
Seleziona di seguito la scheda per la tua lingua o il tuo ambiente:
Console
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
- Fai clic sul numero di versione del modello AutoML Edge in cui vuoi esportare apri la relativa pagina dei dettagli.
- Fai clic su Esporta.
- Nella finestra laterale Esporta modello, specifica la posizione in Cloud Storage in cui archiviare l'output dell'esportazione del modello Edge.
- Fai clic su Esporta.
- Fai clic su Fine per chiudere la finestra laterale Esporta modello.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la località del progetto.
- PROJECT: il tuo ID progetto.
- MODEL_ID: il numero ID del modello AutoML Edge addestrato che stai esportando.
- EXPORT_FORMAT: il tipo di modello Edge che stai esporti. A questo scopo,
sono:
tflite
(TF Lite): esporta il modello come pacchetto TF Lite per eseguirlo su dispositivi periferici o mobili.edgetpu-tflite
(Edge TPU TF Lite): esporta il modello come pacchetto TF Lite per eseguire il tuo modello sui dispositivi Edge TPU.tf-saved-model
(container): esporta il modello come modello salvato TF su cui eseguirlo un container Docker.core-ml
(Core ML): esporta un file .mlmodel per eseguire il modello su iOS e sui dispositivi macOS.tf-js
(TensorFlow.js) - Esporta il modello come pacchetto TensorFlow.js per eseguirlo nel browser e in Node.js.
- OUTPUT_BUCKET: il percorso della directory del bucket Cloud Storage in cui vuoi per archiviare i file del modello Edge.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON della richiesta:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla OPERATION_ID.
Puoi ottenere lo stato dell'operazione di esportazione per vedere quando è completata.
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Rilevamento di oggetti
I modelli di rilevamento degli oggetti immagine AutoML Edge addestrati possono essere esportati nei seguenti modi: formati:
- TF Lite: esporta il modello come pacchetto TF Lite per eseguirlo a livello perimetrale o dispositivi mobili.
- Container: esporta il modello come modello salvato TF per eseguirlo su un container Docker.
- TensorFlow.js: esporta il modello come pacchetto TensorFlow.js per eseguirlo nel browser e in Node.js.
Seleziona di seguito la scheda per la tua lingua o il tuo ambiente:
Console
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
- Fai clic sul numero di versione del modello AutoML Edge da esportare per aprire la relativa pagina dei dettagli.
- Seleziona la casella di controllo Deploy & Testa per visualizzare l'esportazione disponibile formati.
- Seleziona il formato del modello di esportazione che preferisci dalla sezione Utilizza il modello ottimizzato per l'edge.
- Nella finestra laterale Esporta modello, specifica la posizione Cloud Storage per archiviare l'output dell'esportazione dei modelli Edge.
- Fai clic su Esporta.
- Fai clic su Fine per chiudere la finestra laterale Esporta modello.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la località del progetto.
- PROJECT: il tuo ID progetto.
- MODEL_ID: il numero ID del modello AutoML Edge addestrato che stai esportando.
- EXPORT_FORMAT: il tipo di modello Edge che stai esporti. A questo scopo,
sono:
tflite
(TF Lite): esporta il modello come pacchetto TF Lite per eseguirlo su dispositivi periferici o mobili.tf-saved-model
(container): esporta il modello come modello salvato TF su cui eseguirlo un container Docker.tf-js
(TensorFlow.js) - Esporta il modello come pacchetto TensorFlow.js per eseguirlo nel browser e in Node.js.
- OUTPUT_BUCKET: il percorso della directory del bucket Cloud Storage in cui vuoi per archiviare i file del modello Edge.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corpo JSON della richiesta:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla OPERATION_ID.
Puoi ottenere lo stato dell'operazione di esportazione per vedere una volta finito.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Video
Seleziona la scheda di seguito per il tuo scopo:
Riconoscimento delle azioni
I modelli addestrati per il riconoscimento delle azioni video di AutoML Edge possono essere esportati formato del modello.
Seleziona di seguito la scheda per la tua lingua o il tuo ambiente:
Console
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
- Fai clic sul numero di versione del modello AutoML Edge da esportare per aprire la relativa pagina dei dettagli.
- Fai clic su Esporta.
- Nella finestra laterale Esporta modello, specifica la posizione in Cloud Storage in cui archiviare l'output dell'esportazione del modello Edge.
- Fai clic su Esporta.
- Fai clic su Fine per chiudere la finestra laterale Esporta modello.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui è archiviato il modello. Ad esempio,
us-central1
. - MODEL_ID: il numero ID del modello AutoML Edge addestrato che stai esportando.
- EXPORT_FORMAT: il tipo di modello Edge che stai esporti. Per il riconoscimento di azioni video, l'opzione del modello è:
tf-saved-model
(container): esporta il modello come modello salvato TF su cui eseguirlo un container Docker.
- OUTPUT_BUCKET: il percorso della directory del bucket Cloud Storage in cui vuoi per archiviare i file del modello Edge.
- PROJECT_NUMBER: il numero di progetto generato automaticamente per il tuo progetto.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON della richiesta:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla OPERATION_ID.
Puoi ottenere lo stato dell'operazione di esportazione per vedere una volta finito.
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per autenticarti in Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Classificazione
I modelli di classificazione dei video AutoML Edge addestrati possono essere esportati solo nel formato del modello salvato.
Seleziona la scheda di seguito per la tua lingua o il tuo ambiente:
Console
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
- Fai clic sul numero di versione del modello AutoML Edge da esportare per aprire la relativa pagina dei dettagli.
- Fai clic su Esporta.
- Nella finestra laterale Esporta modello, specifica la posizione in Cloud Storage in cui archiviare l'output dell'esportazione del modello Edge.
- Fai clic su Esporta.
- Fai clic su Fine per chiudere la finestra laterale Esporta modello.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui è archiviato il modello. Ad esempio,
us-central1
. - MODEL_ID: il numero ID del modello AutoML Edge addestrato che stai esportando.
- EXPORT_FORMAT: il tipo di modello Edge che stai esporti. Per la classificazione dei video,
l'opzione di modello è:
tf-saved-model
(Container) - Esporta il modello come modello salvato TF per eseguirlo su un container Docker.
- OUTPUT_BUCKET: il percorso della directory del bucket Cloud Storage in cui vuoi per archiviare i file del modello Edge.
- PROJECT_NUMBER: il numero di progetto generato automaticamente per il tuo progetto.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON della richiesta:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
Puoi ottenere lo stato dell'operazione di esportazione per vedere una volta finito.
Monitoraggio oggetti
I modelli di monitoraggio degli oggetti video AutoML Edge addestrati possono essere esportati nei seguenti modi: formati:
- TF Lite: esporta il modello come pacchetto TensorFlow Lite per eseguirlo su dispositivi perimetrali o mobili.
- Contenitore: esporta il modello come modello salvato di TensorFlow per eseguirlo su un container Docker.
Seleziona di seguito la scheda per la tua lingua o il tuo ambiente:
Console
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
- Fai clic sul numero di versione del modello AutoML Edge in cui vuoi esportare apri la relativa pagina dei dettagli.
- Fai clic su Esporta.
- Nella finestra laterale Esporta modello, specifica la posizione in Cloud Storage in cui archiviare l'output dell'esportazione del modello Edge.
- Fai clic su Esporta.
- Fai clic su Fine per chiudere la finestra laterale Esporta modello.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui è archiviato il modello. Ad esempio,
us-central1
. - MODEL_ID: il numero ID del modello AutoML Edge addestrato che stai esportando.
- EXPORT_FORMAT: il tipo di modello Edge che stai esporti. Per il monitoraggio di oggetti video
le opzioni sono:
tflite
(TF Lite) - Esporta il modello come pacchetto TF Lite per eseguirlo su dispositivi edge o mobili.edgetpu-tflite
(Edge TPU TF Lite): esporta il modello come pacchetto TF Lite per eseguire il tuo modello sui dispositivi Edge TPU.tf-saved-model
(container): esporta il modello come modello salvato TF su cui eseguirlo un container Docker.
- OUTPUT_BUCKET: il percorso della directory del bucket Cloud Storage in cui vuoi per archiviare i file del modello Edge.
- PROJECT_NUMBER: il numero di progetto generato automaticamente per il tuo progetto.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export
Corpo JSON della richiesta:
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sulla OPERATION_ID.
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.130785Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } } }
Puoi ottenere lo stato dell'operazione di esportazione per vedere una volta finito.
Ottieni stato dell'operazione
Immagine
Utilizza il seguente codice per ottenere lo stato dell'operazione di esportazione. Questo è lo stesso per tutti gli scopi:
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la località del progetto.
- PROJECT: il tuo ID progetto.
- OPERATION_ID: l'ID dell'operazione di destinazione. Questo ID è generalmente incluso alla richiesta originale.
Metodo HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Esegui questo comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
Video
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_NUMBER: il numero di progetto generato automaticamente per il tuo progetto.
- LOCATION: regione in cui è archiviato il modello. Ad esempio,
us-central1
. - OPERATION_ID: ID delle tue operazioni.
Metodo HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Esegui questo comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente:
File di output
Immagine
Seleziona la scheda qui sotto per il formato del tuo modello:
TF Lite
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
File:
model.tflite
: un file contenente una versione del modello che è pronti per essere utilizzati con TensorFlow Lite.
Edge TPU
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
File:
edgetpu_model.tflite
: un file contenente una versione del modello per TensorFlow Lite, passata attraverso il compilatore Edge TPU per essere compatibile con Edge TPU.
Container
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
File:
saved_model.pb
: un file del buffer di protocollo contenente la definizione del grafico e i pesi del modello.
Core ML
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
File:
dict.txt
: un file delle etichette. Ogni riga nel file delle etichettedict.txt
rappresenta un'etichetta delle previsioni restituite dal modello, nello stesso ordine in cui sono state richiesto.Esempio
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
: un file che specifica un modello Core ML.
Tensorflow.js
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
File:
dict.txt
: un file delle etichette. Ogni riga nel file delle etichettedict.txt
rappresenta un'etichetta delle previsioni restituite dal modello, nello stesso ordine in cui sono state richiesto.Esempio
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
: un file binario.group1-shard2of3.bin
: un file binario.group1-shard3of3.bin
: un file binario.model.json
: una rappresentazione in file JSON di un modello.Esempio
model.json
(breve per chiarezza){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }
Video
Seleziona la scheda qui sotto per il formato del tuo modello:
TF Lite
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
File:
model.tflite
: un file contenente una versione del modello che è pronti per essere utilizzati con TensorFlow Lite.frozen_inference_graph.pb
: un file del buffer di protocollo serializzato contenente la definizione del grafico e i pesi del modello.label_map.pbtxt
: un file di mappa delle etichette che mappa ogni etichetta utilizzata a un valore intero.
Edge TPU
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
File:
edgetpu_model.tflite
: un file contenente una versione del modello per TensorFlow Lite, passato attraverso il compilatore Edge TPU per essere compatibile con Edge TPU.label_map.pbtxt
: un file di mappa delle etichette che mappa ciascuna delle etichette utilizzate a una valore intero.
Container
Il OUTPUT_BUCKET
specificato nella richiesta determina dove l'output
in cui vengono archiviati i file. Il formato della directory in cui sono archiviati i file di output è il seguente:
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
File:
frozen_inference_graph.pb
: un file buffer del protocollo serializzato contenente la definizione del grafo e i pesi del modello.label_map.pbtxt
: un file di mappa delle etichette che mappa ciascuna delle etichette utilizzate a una valore intero.saved_model/saved_model.pb
: il file archivia l'effettivo programma TensorFlow, o modello e un insieme di firme con nome, ognuna delle quali identifica una funzione che accetta e produce output tensoriali.saved_model/variables/
: la directory delle variabili contiene un parametro per l'addestramento standard.