sitelink1 | https://cloud.google.com/vision/docs |
---|---|
sitelink2 | https://www.cloudskillsboost.google/focu...rce=vision |
sitelink3 | https://cloud.google.com/vision/docs/lib...stall-java |
sitelink4 | https://www.omnibuscode.com/board/board_...loud/61092 |
sitelink5 | |
sitelink6 |
이미지에서 텍스트를 추출하기 위한 방법을 찾던중 구글의 AI 서비스인 ML Kit 을 알게되었다
그리고 ML Kit 은 모바일 디바이스(Android, iOS) 전용이어서 Android 샘플을 구해서 실행까지 해봤는데
-> ML Kit 분석
안드로이드와 코틀린에 대한 배경지식이 필요해서 학습에 시간이 걸렸다
그렇게 지지부진해지다가 최근에 'javascript for ML Kit' 으로 구글에서 검색해보니 node.js 로 Cloud Vision API 를 사용할 수 있다는 것을 알게 되었다
-> Google Cloud Vision API: Node.js Client
위와 같이 발견해낸 레퍼런스로 backend 에서 ML Kit 을 이용하면 안드로이드와 코틀린의 심화학습을 비껴 갈 수 있겠다 생각했는데
혹시나 싶어서 java 지원에 대해서도 검색해보니 이미 Cloud API는 java를 포함한 여러 언어들을 지원하고 있었다
그래서 현재 진행중인 프로젝트에서 pure java 를 이용한 서비스 지원을 계획하였다
≫ Curl 을 이용한 Text Recognition 구글 학습 문서이다 -> Extract, Analyze, and Translate Text from Images with the Cloud ML APIs
≫ Cloud ML API 에 대한 자세한 내용은 다음의 링크를 참고하자 -> Cloud ML API를 사용하여 이미지에서 텍스트 추출 및 번역
≫ java를 이용하여 google ai 의 text recognition 실습에 성공한 학생의 포스트 링크이다
-> Google Cloud Vision API - [yls7577]OCR 테스트
-> Google Cloud Vision API - [davelogs]OCR 사용하기 (1)
-> Google Cloud Vision API - [davelogs]OCR 사용하기 (2)
≫ 추가적으로 stackoverflow 에서 발견한 내용인데
nativescript 라는 모바일 앱 개발 프레임워크에서도 ML Kit 을 지원한다는 것을 알게 되었다 -> Nativescript Js OCR with Firebase ML kit
≫ nativescript 의 언어가 javascript 라고 하니 추후 살펴봐야겠다 -> NativeScript Firebase plugin