Interoperabilidade com outros provedores de armazenamento

O Cloud Storage é compatível com algumas outras plataformas de armazenamento de objetos para que você possa integrar perfeitamente dados de diferentes fontes. Nesta página, você verá as ferramentas do Cloud Storage para gerenciar os dados de objetos multiplataforma.

API XML

A API XML do Cloud Storage é interoperável com algumas ferramentas e bibliotecas que funcionam com serviços como o Amazon Simple Storage Service (Amazon S3). Para usar essas ferramentas e bibliotecas com o Cloud Storage, altere o endpoint de solicitação que a ferramenta ou biblioteca usa para o URI do Cloud Storage https://storage.googleapis.com e configure a ferramenta ou biblioteca para usar as chaves HMAC do Cloud Storage. Consulte Migração simples do Amazon Simple Storage Service (Amazon S3) para instruções detalhadas sobre como começar.

Autenticar com o processo de assinatura V4

O processo de assinatura V4 permite fazer solicitações de cabeçalho assinadas à API XML do Cloud Storage. Depois de criar uma assinatura usando o processo V4, inclua a assinatura no cabeçalho Authorization de uma solicitação subsequente, que fornece autenticação. É possível criar uma assinatura usando uma assinatura RSA ou seu fluxo de trabalho do Amazon S3 e credenciais HMAC. Para mais detalhes sobre a autenticação de solicitações, consulte Assinaturas.

Google Cloud CLI

A CLI gcloud é a ferramenta de linha de comando preferencial para acessar o Cloud Storage. Ela também permite acessar e trabalhar com outros serviços de armazenamento em nuvem que usam a autenticação HMAC, como o Amazon S3. Depois de adicionar suas credenciais do Amazon S3 a ~/.aws/credentials, comece a usar comandos gcloud storage para gerenciar objetos nos buckets do Amazon S3. Exemplo:

  • O comando a seguir lista os objetos no bucket my-aws-bucket do Amazon S3:

    gcloud storage ls s3://my-aws-bucket
  • O comando a seguir sincroniza dados entre um bucket do Amazon S3 e um do Cloud Storage:

    gcloud storage rsync s3://my-aws-bucket gs://example-bucket --delete-unmatched-destination-objects --recursive

Para mais informações, incluindo detalhes sobre como otimizar essa sincronização, consulte a documentação de gcloud storage rsync.

Certificado inválido de nomes de buckets do Amazon S3 que contêm pontos

Se você tentar usar a CLI gcloud para acessar um bucket do Amazon S3 que contém um ponto no nome, poderá receber um erro invalid certificate. Isso ocorre porque o Amazon S3 não é compatível com URLs de buckets hospedados localmente com pontos no nome. Ao trabalhar com recursos do Amazon S3, configure a CLI gcloud para tentar usar URLs de bucket no estilo de caminho. Para isso, defina a propriedade storage/s3_endpoint_url da seguinte maneira:

storage/s3_endpoint_url https://s3.REGION_CODE.amazonaws.com

Em que REGION_CODE é a região que contém o bucket que você está solicitando. Por exemplo, us-east-2.

É possível modificar a propriedade storage/s3_endpoint_url de uma das seguintes maneiras:

Linha de comando gsutil

A gsutil é uma ferramenta legada para acessar o Cloud Storage por meio da linha de comando. Ela também permite acessar e trabalhar com outros serviços de armazenamento em nuvem que usam a autenticação HMAC, como o Amazon S3. Depois de adicionar suas credenciais do Amazon S3 a ~/.aws/credentials, comece a usar a gsutil para gerenciar objetos nos buckets do Amazon S3. Por exemplo:

  • O comando a seguir lista os objetos no bucket my-aws-bucket do Amazon S3:

    gsutil ls s3://my-aws-bucket
  • O comando a seguir sincroniza dados entre um bucket do Amazon S3 e um do Cloud Storage:

    gsutil rsync -d -r s3://my-aws-bucket gs://example-bucket

Para mais informações, incluindo detalhes sobre como configurar a gsutil para otimizar sincronização, leia o tópico de ajuda executando gsutil help rsync.

Certificado inválido de nomes de buckets do Amazon S3 que contêm pontos

Se você tentar usar a gsutil para acessar um bucket do Amazon S3 que tem um ponto no nome, talvez receba um erro invalid certificate. Isso ocorre porque o Amazon S3 não é compatível com URLs de buckets hospedados localmente com pontos no nome. Ao trabalhar com recursos do Amazon S3, é possível configurar a gsutil para tentar usar URLs de bucket de estilo de caminho adicionando a seguinte entrada ao seu arquivo de configuração.boto para gsutil:

[s3]
calling_format = boto.s3.connection.OrdinaryCallingFormat

Como importar dados com o Serviço de transferência do Cloud Storage

O Serviço de transferência do Cloud Storage permite importar grandes quantidades de dados on-line para o Cloud Storage de buckets do Amazon S3, contêineres do Armazenamento de Blobs do Microsoft Azure e locais gerais HTTP/HTTPS. O Serviço de transferência do Cloud Storage pode ser usado para programar transferências recorrentes, excluir objetos de origem e selecionar quais objetos serão transferidos.

Além disso, se você usar as notificações de eventos do Amazon S3, poderá configurar as transferências orientadas por eventos do Serviço de transferência do Cloud Storage para ouvir essas notificações e manter automaticamente um bucket do Cloud Storage em sincronia com uma fonte do Amazon S3.

A seguir

Amazon Simple Storage Service™ e Amazon S3™ são marcas registradas da Amazon.com, Inc. ou de afiliadas nos Estados Unidos e/ou em outros países.