샘플 애플리케이션

이 페이지에서는 Vision API 샘플 모음을 제공합니다. 샘플이 더 만들어지면 이 페이지에 추가할 예정입니다. 언어 및 모바일 플랫폼별로 샘플이 정리되어 있습니다. 또한 샘플은 Vision API의 특성 세트를 최대한 포괄하고 있습니다.

제품 검색 예시

Cloud Vision 제품 검색을 사용하면 선택한 제품 카테고리에 해당하는 참조 이미지로 제품 세트(카탈로그)를 만들 수 있습니다. 그런 다음 이 서비스를 사용하여 제품의 새 이미지를 만들고 제품 세트에서 일치하는 제품을 검색할 수 있습니다. 자세한 내용은 공식 문서가이드를 참조하세요.

언어 예시

Kubernetes로 라벨 태그하기

Awwvision은 Vision API를 사용하여 Reddit의 /r/aww 서브레딧에 있는 이미지를 분류(라벨링)하고 웹 애플리케이션에 라벨링 결과를 표시하는 KubernetesCloud Vision API 샘플입니다.

문서 및 Python 코드

이미지에 포함된 텍스트를 검색 가능하도록 설정

이 샘플에서는 TEXT_DETECTION Vision API 요청을 사용하여 이미지에서 찾은 단어의 어간으로 반전 색인을 생성한 후 Redis 데이터베이스에 색인을 저장합니다. 이 과정에서 nltk(자연어 도구) 라이브러리를 사용하여 검색 제외 단어를 찾고 어간을 추출합니다. 결과 인덱스를 쿼리하면 특정 단어 집합과 일치하는 이미지를 찾고 각 일치 이미지에서 발견된 텍스트를 나열할 수 있습니다.

문서 및 Python 코드

문서 및 Node.js 코드

모바일 플랫폼 예시

Firebase용 ML Kit에서 제공하는 Vision 및 기타 기능

이러한 샘플 앱에서는 Firebase용 ML 키트를 통해 모바일 앱에서 Cloud Vision 라벨 감지, 랜드마크 감지, 텍스트 인식 API를 손쉽게 사용하는 방법을 보여줍니다. ML 키트는 얼굴 감지, 바코드 스캐닝, 커스텀 머신러닝 모델을 사용하는 추론 등을 네트워크 호출 없이 모두 기기에서 수행할 수 있는 API를 제공합니다.

Android

iOS

Android 기기의 사진으로 이미지 인식

기기의 갤러리에서 선택한 이미지로 Vision API를 호출하는 방법을 보여주는 간단한 단일 작업 샘플입니다.

문서

Android 코드

iOS 기기의 사진으로 이미지 인식

Vision API를 사용하여 기기의 사진 라이브러리에 있는 이미지로 라벨 인식 및 얼굴 인식을 실행하는 Swift 및 Objective-C 버전의 앱입니다. API 응답의 결과 라벨 및 얼굴 메타데이터가 UI에 표시됩니다.

구체적인 시작하기 안내는 Swift 또는 Objective-C의 README 파일을 참조하세요.

문서(Objective-C)

문서(Swift)

iOS 샘플 코드