KR102026475B1 - 시각적 입력의 처리 - Google Patents

시각적 입력의 처리 Download PDF

Info

Publication number
KR102026475B1
KR102026475B1 KR1020180035734A KR20180035734A KR102026475B1 KR 102026475 B1 KR102026475 B1 KR 102026475B1 KR 1020180035734 A KR1020180035734 A KR 1020180035734A KR 20180035734 A KR20180035734 A KR 20180035734A KR 102026475 B1 KR102026475 B1 KR 102026475B1
Authority
KR
South Korea
Prior art keywords
image
text
electronic device
screen
recognized
Prior art date
Application number
KR1020180035734A
Other languages
English (en)
Other versions
KR20190020281A (ko
Inventor
강유훈
김종택
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to PCT/KR2018/009470 priority Critical patent/WO2019039799A1/ko
Priority to JP2020509490A priority patent/JP7027524B2/ja
Publication of KR20190020281A publication Critical patent/KR20190020281A/ko
Application granted granted Critical
Publication of KR102026475B1 publication Critical patent/KR102026475B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

시각적 입력의 처리를 위한 기술을 제공한다. 일실시예에 따른 이미지 처리 방법은 카메라를 통해 연속적으로 캡쳐되는 영상 스트림의 적어도 하나의 프레임과 관련된 유의미한 정보 및/또는 유의미한 정보와 연관된 사용자 인터페이스를 제공할 수 있다.

Description

시각적 입력의 처리{PROCESSING VISUAL INPUT}
아래의 설명은 시각적 입력의 처리를 위한 기술에 관한 것으로 보다 자세하게는, 카메라를 통해 연속적으로 캡쳐되는 영상 스트림의 적어도 하나의 프레임과 관련된 유의미한 정보 및/또는 유의미한 정보와 연관된 사용자 인터페이스를 제공할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 본 발명의 실시예들에 따른 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체에 관한 것이다.
이미지와 같은 시각적 입력을 처리하기 위한 다양한 종래기술들이 존재한다. 예를 들어, 한국공개특허 제10-2003-0024786호는 디지털 카메라로 찍은 전체의 이미지를 텍스트 정보와 관련하여 분석하고, 상기 정보를 OCR(Optical Character Reader) 기술 등에 의해 인식하고 해석하여 추가의 처리 및/또는 전송을 위해 압축된 텍스트 코드로 저장하는 기술을 개시하고 있다.
카메라를 통해 연속적으로 캡쳐되는 영상 스트림의 적어도 하나의 프레임과 관련된 유의미한 정보 및/또는 유의미한 정보와 연관된 사용자 인터페이스를 제공한다.
카메라를 통해 연속적으로 캡쳐되는 영상 스트림의 적어도 하나의 프레임과 관련된 유의미한 정보 및/또는 유의미한 정보와 연관된 사용자 인터페이스를 제공할 수 있는 이미지 처리 방법 및 시스템, 그리고 컴퓨터와 결합되어 본 발명의 실시예들에 따른 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.
이미지 처리 방법에 있어서, 이미지 처리 모드로 진입함에 응답하여 카메라 모듈을 구동하는 단계; 상기 구동된 카메라 모듈을 통해 연속적으로 이미지들의 스트림을 입력받아 순차적으로 화면에 표시하는 단계; 상기 입력받은 이미지들의 스트림을 인식 엔진으로 전달하는 단계; 및 상기 입력받은 이미지들의 스트림에 대해 상기 인식 엔진에 의해 인식된 인식 결과가 존재하는 경우, 상기 인식 결과를 상기 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법을 제공한다.
이미지 처리 방법에 있어서, 전자 기기의 카메라 모듈을 통해 캡쳐된 이미지를 네트워크를 통해 수신하는 단계; 상기 수신된 이미지가 포함하는 객체에 대한 디텍팅 애니메이션을 생성하는 단계; 상기 생성된 디텍팅 애니메이션을 상기 전자 기기로 전송하는 단계; 상기 수신된 이미지에 대한 이미지 검색 결과를 생성하는 단계; 및 상기 생성된 이미지 검색 결과를 상기 전자 기기로 전송하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법을 제공한다.
컴퓨터와 결합되어 상기 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
상기 이미지 처리 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록매체를 제공한다.
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 이미지 처리 모드로 진입함에 응답하여 카메라 모듈을 구동하고, 상기 구동된 카메라 모듈을 통해 연속적으로 이미지들의 스트림을 입력받아 순차적으로 화면에 표시하고, 상기 입력받은 이미지들의 스트림을 인식 엔진으로 전달하고, 상기 입력받은 이미지들의 스트림에 대해 상기 인식 엔진에 의해 인식된 인식 결과가 존재하는 경우, 상기 인식 결과를 상기 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시하는 동작들을 수행하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 전자 기기의 카메라 모듈을 통해 캡쳐된 이미지를 네트워크를 통해 수신하고, 상기 수신된 이미지가 포함하는 객체에 대한 디텍팅 애니메이션을 생성하고, 상기 생성된 디텍팅 애니메이션을 상기 전자 기기로 전송하고, 상기 수신된 이미지에 대한 이미지 검색 결과를 생성하고, 상기 생성된 이미지 검색 결과를 상기 전자 기기로 전송하는 동작들을 수행하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.
카메라를 통해 연속적으로 캡쳐되는 영상 스트림의 적어도 하나의 프레임과 관련된 유의미한 정보 및/또는 유의미한 정보와 연관된 사용자 인터페이스를 제공할 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 따른 이미지 처리 시스템의 실행 환경의 예를 도시한 도면이다.
도 4 및 도 5는 본 발명의 일실시예에 있어서, OCR 인식에 따라 추가 정보 또는 추가 기능을 제공하는 예를 도시한 도면이다.
도 6 내지 도 8은 본 발명의 일실시예에 있어서, 인식된 글자수에 따라 글자 크기를 조절하는 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 있어서, 바코드 인식에 따라 추가 기능을 제공하는 예를 도시한 도면이다.
도 10은 본 발명의 일실시예에 있어서, QR 코드 인식에 따라 추가 기능을 제공하는 예를 도시한 도면이다.
도 11 내지 도 15는 본 발명의 일실시예에 있어서, 이미지 검색 결과를 제공하는 예들을 도시한 도면들이다.
도 16은 본 발명의 일실시예에 있어서, 이미지 검색 결과를 제공하는 예들을 나타낸 도면이고, 도 17은 본 발명의 일실시예에 있어서, 주요 컬러를 추출하여 채도를 제한하는 예를 도시한 도면이다.
도 18 내지 도 20은 본 발명의 일실시예에 있어서, 이미지 검색 결과를 유형에 따라 디자인된 템플릿을 통해 제공하는 예들을 나타낸 도면들이다.
도 21 내지 도 24는 본 발명의 일실시예에 있어서, 디텍팅 애니메이션을 표시하는 예들을 도시한 도면들이다.
도 25는 본 발명의 일실시예에 있어서, 디텍팅 애니메이션의 예를 도시한 도면이다.
도 26은 본 발명의 일실시예에 따른 이미지 처리 방법의 예를 도시한 도면이다.
도 27은 본 발명의 일실시예에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다.
도 28은 본 발명의 일실시예에 따른 이미지 처리 방법의 또 다른 예를 도시한 도면이다.
도 29는 본 발명의 일실시예에 있어서, 디텍팅 애니메이션을 생성하는 방법의 예를 도시한 흐름도이다.
도 30은 본 발명의 일실시예에 있어서, 플레이스 인식에 따라 추가 정보를 제공하는 예를 도시한 도면이다.
도 31은 본 발명의 일실시예에 있어서, 이미지 코드의 인식에 따라 추가 정보를 제공하는 예를 도시한 도면이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
본 발명의 실시예들에 따른 이미지 처리 방법은 이후 설명될 전자 기기 및/또는 서버와 같은 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 이미지 처리 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 이미지 처리 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 1에서는 전자 기기 1(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 기기 1(110)은 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 컴퓨터 장치들 중 하나를 의미할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(160) 역시 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(150)는 복수의 전자 기기들(110, 120, 130, 140)에 설치되어 구동되는 컴퓨터 프로그램으로서의 어플리케이션을 통해, 해당 어플리케이션이 목적하는 서비스(일례로, 본 실시예에 따른 이미지 처리를 위한 서비스 외에도, 정보 제공 서비스, 메시징 서비스, 메일 서비스, 컨텐츠 전송 서비스 등)를 제1 서비스로서 복수의 전자 기기들(110, 120, 130, 140)로 제공할 수 있다. 다른 예로, 서버(160)는 상술한 어플리케이션의 설치 및 구동을 위한 파일을 복수의 전자 기기들(110, 120, 130, 140)로 배포하는 서비스를 제2 서비스로서 제공할 수 있다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 2에서는 전자 기기에 대한 예로서 전자 기기 1(110), 그리고 서버(150)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(120, 130, 140)이나 서버(160) 역시 상술한 전자 기기 1(110) 또는 서버(150)와 동일한 또는 유사한 내부 구성을 가질 수 있다.
전자 기기 1(110)과 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(211, 221)와는 구분되는 별도의 영구 저장 장치로서 전자 기기 1(110)나 서버(150)에 포함될 수도 있다. 또한, 메모리(211, 221)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기 1(110)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기 1(110)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.
프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(213, 223)은 네트워크(170)를 통해 전자 기기 1(110)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기 1(110) 및/또는 서버(150)가 다른 전자 기기(일례로 전자 기기 2(120)) 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 전자 기기 1(110)의 통신 모듈(213)을 통해 전자 기기 1(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(110)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(214)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(215)는 전자 기기 1(110)과 하나의 장치로 구성될 수도 있다. 또한, 서버(150)의 입출력 인터페이스(224)는 서버(150)와 연결되거나 서버(150)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 전자 기기 2(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 전자 기기 1(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(110)은 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(110)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(110)에 더 포함되도록 구현될 수 있다.
도 3은 본 발명의 일실시예에 따른 이미지 처리 시스템의 실행 환경의 예를 도시한 도면이다. 도 3은 전자 기기 1(110)이 카메라 모듈(310), OCR 인식 엔진(320), 바코드 인식 엔진(330) 및 QR 코드 인식 엔진(340)을 포함하고, 서버(150)가 이미지 검색 엔진(350) 및 디텍팅 애니메이션 생성 엔진(360)을 포함하는 예를 나타내고 있다. 실시예에 따라 디텍팅 애니메이션 생성 엔진(360)은 전자 기기 1(110)에 포함될 수도 있다.
각 엔진들(320 내지 360)은 소프트웨어 모듈의 형태로 구현될 수 있다. 예를 들어, 전자 기기 1(110)이 포함하는 OCR 인식 엔진(320), 바코드 인식 엔진(330) 및 QR 코드 인식 엔진(340)은 전자 기기 1(110)에 설치 및 구동되는 어플리케이션이 제공하는 기능적 표현일 수 있다. 이 경우 전자 기기 1(110)의 프로세서(212)는 어플리케이션의 코드에 따라 OCR 인식 엔진(320), 바코드 인식 엔진(330) 및 QR 코드 인식 엔진(340)에 따른 동작들을 수행할 수 있다. 유사하게 서버(150)가 포함하는 이미지 검색 엔진(350) 및 디텍팅 애니메이션 생성 엔진(360) 역시 소프트웨어 모듈의 형태로 구현될 수 있으며, 서버(150)에서 구동되는 컴퓨터 프로그램이 제공하는 기능적 표현일 수 있다. 이 경우 서버(150)의 프로세서(222)는 컴퓨터 프로그램의 코드에 따라 이미지 검색 엔진(350) 및 디텍팅 애니메이션 생성 엔진(360)에 따른 동작들을 수행할 수 있다.
OCR 인식 엔진(320)은 이미지 내에서 하나 이상의 문자 및/또는 숫자를 인식할 수 있다.
바코드 인식 엔진(330)은 이미지 내에서 바코드를 인식할 수 있다.
QR 코드 인식 엔진(340)은 이미지 내에서 QR 코드를 인식할 수 있다.
이미지 검색 엔진(350)은 이미지를 입력으로 받아, 해당 이미지와 연관된 다양한 검색 결과(이미지, 텍스트 등)를 반환할 수 있다.
디텍팅 애니메이션 생성 엔진(360)은 이미지 내에서 객체를 탐색하는 과정을 시각적으로 표현하기 위한 디텍팅 애니메이션을 생성하여 제공할 수 있다. 이러한 디텍팅 애니메이션은 사용자가 검색 결과를 기다리는 동안 사용자에게 흥미를 유발하고, 검색 결과가 지연되지 않는 느낌을 주기 위한 효과로서 활용될 수 있다.
전자 기기 1(110)이 본 실시예에 따른 이미지 처리 모드로 진입하는 경우, 전자 기기 1(110)은 카메라 모듈(310)을 구동할 수 있으며, 사용자로부터의 별도의 입력 없이도 카메라 모듈(310)에 의해 연속적으로 캡쳐되는 이미지 스트림을 OCR 인식 엔진(320), 바코드 인식 엔진(330) 및 QR 코드 인식 엔진(340)의 입력으로 전달할 수 있다. 이때, OCR 인식 엔진(320), 바코드 인식 엔진(330) 및 QR 코드 인식 엔진(340) 각각은 입력되는 이미지 스트림의 이미지들(프레임들)을 순차적으로 분석하여 이미지 내에서 각자 해당하는 객체(문자, 숫자, 바코드, QR 코드 등)를 인식할 수 있다.
앞서 설명한 바와 같이, OCR 인식 엔진(320)은 이미지 스트림이 포함하는 이미지들을 순차적으로 분석하여 이미지내에 포함된 문자 및/또는 숫자의 인식을 시도할 수 있으며, 인식되는 문자 및/또는 숫자를 반환할 수 있다. 이 경우, 전자 기기 1(110)은 반환된 문자 및/또는 숫자를 화면에 표시할 수 있으며, 표시된 문자 및/또는 숫자와 연관된 추가 정보나 추가 기능을 제공할 수 있다. 예를 들어, 제1 언어의 문자가 인식되는 경우, 전자 기기 1(110)은 인식된 제1 언어의 문자를 다른 언어의 문자로 번역할 수 있는 번역 기능으로의 접근을 위한 사용자 인터페이스를 제공할 수 있다. 다른 예로, 전자 기기 1(110)은 반환된 문자 및/또는 숫자를 키워드로 이용하는 검색 기능으로의 접근을 위한 사용자 인터페이스를 제공할 수 있다. 또 다른 예로, 전자 기기 1(110)은 자동으로 반환된 문자 및/또는 숫자를 키워드를 이용하는 검색을 진행하여 그 검색 결과를 제공할 수도 있다.
바코드 인식 엔진(330)은 이미지 스트림이 포함하는 이미지들을 순차적으로 분석하여 이미지내에 포함된 바코드의 인식을 시도할 수 있으며, 인식되는 바코드에 대한 정보를 반환할 수 있다. 이 경우, 전자 기기 1(110)은 반환된 정보와 연관된 추가 정보나 추가 기능을 제공할 수 있다. 예를 들어, 전자 기기 1(110)은 반환된 바코드에 대한 정보를 통해 해당 바코드에 대응하는 정보(일례로, 바코드에 대응하는 책이나 와인 등에 대한 정보)를 검색하여 그 검색 결과를 추가 정보로서 제공할 수 있다. 다른 예로, 전자 기기 1(110)은 바코드에 대응하는 정보로의 접근을 위한 사용자 인터페이스를 제공할 수도 있다.
QR 코드 인식 엔진(340)은 이미지 스트림이 포함하는 이미지들을 순차적으로 분석하여 이미지내에 포함된 QR 코드의 인식을 시도할 수 있으며, 인식되는 QR 코드에 대한 정보를 반환할 수 있다. 이 경우, 전자 기기 1(110)은 반환된 정보와 연관된 추가 정보나 추가 기능을 제공할 수 있다. 바코드의 경우와 유사하게 전자 기기 1(110)은 인식된 QR 코드에 대응하는 정보(일례로, QR 코드가 포함하는 URL에 대응하는 정보)를 추가 정보로서 제공하거나 또는 인식된 QR 코드에 대응하는 정보로의 접근을 위한 사용자 인터페이스를 제공할 수도 있다.
이처럼, 전자 기기 1(110)이 이미지 처리 모드로 진입하는 경우, 전자 기기 1(110)은 사용자로부터의 별도의 입력 없이도 카메라 모듈(310)를 구동하고, 카메라 모듈(310)을 통해 제공되는 이미지 스트림의 이미지들 각각에 대해 문자, 숫자, 바코드, QR 코드 등과 같은 객체들의 탐색이 자동으로 이루어질 수 있으며, 탐색된 객체와 관련된 추가 정보나 추가 기능이 자동적으로 제공될 수 있다.
한편, 전자 기기 1(110)은 사용자의 촬영 버튼의 선택(일례로, 터치스크린 환경에서 터치스크린에 표시된 촬영 버튼의 영역을 사용자가 손가락으로 터치)과 같이 기설정된 사용자 인터페이스를 통한 사용자 입력의 발생 여부를 모니터링할 수 있다. 도 3에서 과정(370)은 사용자 입력의 발생 여부를 모니터링하여 사용자 입력이 발생하는 경우에 사용자 입력에 따라 캡쳐된 이미지가 서버(150)로 전달되는 예를 나타내고 있다. 보다 구체적인 예로, 도 2를 통해 설명한 바와 같이, 전자 기기 1(110)은 통신 모듈(213)을 이용하여 네트워크(170)를 통해 캡쳐된 이미지를 서버(150)로 전송할 수 있으며, 서버(150)는 네트워크(170)를 통해 전송된 캡쳐된 이미지를 통신 모듈(223)을 통해 수신할 수 있다.
서버(150)는 전달된 이미지를 이미지 검색 엔진(350)과 디텍팅 애니메이션 생성 엔진(360)에 각각 제공할 수 있다.
이미 설명한 바와 같이, 이미지 검색 엔진(350)은 전자 기기 1(110)에서 캡쳐되어 전달된 이미지를 입력으로 받아서 해당 이미지와 연관된 다양한 검색 결과를 반환할 수 있다. 예를 들어, 이미지 검색 엔진(350)은 해당 이미지가 포함하는 객체를 인식하여, 인식된 객체와 관련된 이미지나 문서, 텍스트 등을 검색하여 반환할 수 있다. 보다 구체적인 예로, 이미지에 포함된 강아지를 인식하여 인식된 강아지의 종이 '리트리버'로 분석된 경우, '리트리버'와 관련된 이미지나 문서 등의 검색 결과를 생성 및 반환할 수 있다. 서버(150)는 반환된 검색 결과를 네트워크(170)를 통해 전자 기기 1(110)로 전송할 수 있으며, 전자 기기 1(110)에서는 해당 검색 결과를 사용자에게 제공할 수 있다. 실시예에 따라 전자 기기 1(110)은 이미지뿐만 아니라, 이미지를 캡쳐할 때의 시간과 전자 기기 1(110)의 현재 위치, 전자 기기 1(110)의 사용자의 정보 등을 서버(150)로 추가로 전송할 수도 있다. 이 경우, 서버(150)는 위치, 시간, 사용자의 정보 중 적어도 하나에 더 기반하여 검색 결과를 제공할 수 있다. 예를 들어, 이미지 연관된 다양한 검색 결과들 중 사용자의 현재 위치와 관련된 검색 결과나 시간과 관련된 검색 결과가 검색 결과의 노출에 대한 우선순위를 얻을 수 있다.
디텍팅 애니메이션 생성 엔진(360)은 전자 기기 1(110)에서 캡쳐되어 전달된 이미지를 입력으로 받아서 해당 이미지 내에서 객체를 탐색하는 과정을 시각적으로 표현하기 위한 디텍팅 애니메이션을 생성할 수 있다. 이 경우에도 서버(150)는 생성된 디텍팅 애니메이션을 네트워크(170)를 통해 전자 기기 1(110)로 전송할 수 있으며, 전자 기기 1(110)에서 디텍팅 애니메이션을 기설정된 시간 동안 해당 이미지와 연관하여 표시함으로써, 전자 기기 1(110)의 사용자가 검색 결과(앞서 설명한 이미지 검색 엔진(350)을 통해 반환되어 서버(150)에서 전자 기기 1(110)로 제공되는 검색 결과)를 기다리는 동안 해당 사용자에게 흥미를 유발하고, 검색 결과가 지연되지 않는 느낌을 주기 위한 효과로서 활용될 수 있다. 이러한 디텍팅 애니메이션은 기본적으로 이미지에서 탐색하고자 하는 객체와 관련된 위치의 복수의 점들과 이러한 점들을 연결하는 선으로 구성될 수 있으며, 점들의 표현과 점들을 연결하는 선들의 표현이 애니메이션 효과로서 표시될 수 있다. 또한, 실시예에 따라 점들과 선의 굵기나 크기, 밝기, 색상 등을 변화하여 추가적인 애니메이션 효과를 줄 수도 있다. 이에 더해, 점들과 점들을 연결하는 선들에 의해 이루어지는 면들에 대해 서로 다른 색을 표시하여 입체감을 주거나 또는 점들을 연결하는 선들을 곡선으로 처리하는 실시예들도 고려될 수 있다. 이러한 디텍팅 애니메이션에 대해서는 이후 더욱 자세히 설명한다.
도 4 및 도 5는 본 발명의 일실시예에 있어서, OCR 인식에 따라 추가 정보 또는 추가 기능을 제공하는 예를 도시한 도면이다.
도 4는 전자 기기 1(110)의 화면 예들(410 내지 440)을 도시하고 있다. 제1 화면 예(410)는 도 3을 통해 설명한 바와 같이, 카메라 모듈(310)을 통해 캡쳐된 이미지 스트림이 OCR 인식 엔진(320)으로 자동으로 전달되고, OCR 인식 엔진(320)에서 실시간으로 문자를 인식한 예를 나타내고 있다.
이때, 제2 화면 예(420)에서는 인식이 완료됨에 따라, 인식된 문자에 대한 색상이 변경되어 이미지상에 표시되고, T(TEXT) 문자인식 버튼이 노출된 예를 나타내고 있다.
또한, 제3 화면 예(430)는 T 문자인식 버튼이 선택됨에 따라 인식된 문자에 대한 복사, 번역, 읽기 등과 같이 인식된 문자와 관련된 기능들이 제공되는 예를 나타내고 있다. 예를 들어, 복사 기능은 인식된 문자를 클립보드에 복사하기 위한 기능일 수 있다. 또한, 번역 기능은 인식된 제1 언어의 문자를 제2 언어의 문자로 번역하기 위한 기능일 수 있다. 또한, 읽기 기능은 인식된 제1 문자를 읽어주는 기능일 수 있으며, 제1 문자에 해당하는 오디오를 생성하여 출력하는 기능일 수 있다.
제4 화면 예(440)는 사용자가 번역 기능을 선택함에 따라 인식된 제1 언어의 문자가 제2 언어의 문자로 번역되어 표시된 예를 나타내고 있다. 이때, 제4 화면 예(440)에 표시된 자세히보기 기능은 인식된 제1 언어의 문자에 대한 언어 사전 검색 결과나 인식된 제1 언어의 문자를 키워드로 이용한 검색 결과 등과 같이 추가 콘텐츠를 제공하거나 또는 별도의 번역결과 페이지로의 랜딩을 위한 기능일 수 있다. 또한, 인식이 정확히 이루어지지 않았거나 또는 번역 결과가 원하는 결과가 아닌 경우, 필기인식 기능 버튼을 이용하여 직접 글씨를 써서 검색을 진행하기 위한 필기 검색 기능이 더 제공될 수도 있다.
도 4의 실시예에서는 인식된 문자들 전체에 대한 추가 기능을 제공하는 예를 설명하였으나, 실시예에 따라 인식된 문자들 중 일부를 선택하고, 선택된 일부의 문자에 대해서 해당 추가 기능이 제공될 수도 있다.
도 5는 전자 기기 1(110)의 화면 예들(510 내지 530)을 도시하고 있다. 이때, 제1 화면 예(510)는 텍스트(문자 및/또는 숫자)의 인식 이전에 이미지가 화면에 표시된 예를 나타내고 있다.
또한, 제2 화면 예(520)는 텍스트가 인식됨에 따라 해당 텍스트의 이미지 내에서의 위치와 유사한 위치에 인식된 텍스트들을 표시하는 예를 나타내고 있다.
또한, 제3 화면 예(530)는 인식된 텍스트를 사용자가 알아보기 편하도록 재구성하여 표시한 예를 나타내고 있다. 이때, 제3 화면 예(530)에서는 인식된 텍스트가 보다 잘 표현될 수 있도록 이미지가 어둡게 처리된 예를 나타내고 있다. 또한, 제3 화면 예(530)에서는 인식된 텍스트와 관련하여 복사 기능, 번역 기능 및 읽기 기능과 같은 추가 기능들을 제공하는 예를 설명하고 있다.
이때, 제2 화면 예(520)와 제3 화면 예(530)에서 표시되는 텍스트들은 색의 변화와 같은 애니메이션 효과나 텍스트들이 표시되는 테두리의 2차원에서의 3차원으로의 변화 등과 같은 애니메이션 효과와 함께 표시될 수도 있다.
도 6 내지 도 8은 본 발명의 일실시예에 있어서, 인식된 글자수에 따라 글자 크기를 조절하는 예를 도시한 도면이다.
도 6은 인식된 글자수가 1~6 글자인 경우에는 80px 크기로 인식된 텍스트를 표시하는 예를 나타내고 있다.
또한, 도 7은 인식된 글자수가 7~40 글자인 경우에는 60px 크기로 인식된 텍스트를 표시하는 예를 나타내고 있다.
또한, 도 8은 인식된 글자수가 41 글자 이상인 경우에 40px 크기로 인식된 텍스트를 표시하는 예를 나타내고 있다.
이처럼, 전자 기기 1(110)은 이미지에서 인식된 텍스트의 글자 수에 따라 인식된 텍스트를 표시함에 있어서, 글자 크기를 자동으로 조절하여 표시할 수 있다.
도 9는 본 발명의 일실시예에 있어서, 바코드 인식에 따라 추가 기능을 제공하는 예를 도시한 도면이다.
도 9는 전자 기기 1(110)의 화면 예들(910 및 920)을 도시하고 있다. 제1 화면 예(910)는 바코드가 포함된 이미지가 표시된 예를 나타내고 있으며, 제2 화면 예(920)는 바코드 인식 엔진(330)에 의해 바코드가 인식됨에 따라 바코드 버튼이 노출된 예를 나타내고 있다. 사용자가 노출된 바코드 버튼을 선택하는 경우, 해당 바코드에 해당하는 제품 정보(일례로, 책 정보나 와인 정보 등)가 제공될 수 있다.
도 10은 본 발명의 일실시예에 있어서, QR 코드 인식에 따라 추가 기능을 제공하는 예를 도시한 도면이다.
도 10은 전자 기기 1(110)의 화면 예들(1010 및 1020)을 도시하고 있다. 제1 화면 예(1010)는 QR 코드가 포함된 이미지가 표시된 예를 나타내고 있으며, 제2 화면 예(1020)는 QR 코드 인식 엔진(340)에 의해 QR 코드가 인식됨에 따라 QR 코드 버튼이 노출된 예를 나타내고 있다. 사용자가 노출된 QR 코드 버튼을 선택하는 경우, 해당 QR 코드가 포함하는 URL의 페이지가 랜딩될 수 있다.
도 11 내지 도 15는 본 발명의 일실시예에 있어서, 이미지 검색 결과를 제공하는 예들을 도시한 도면들이다.
도 11은 전자 기기 1(110)의 화면 예들(1110 내지 1130)을 도시하고 있다. 제1 화면 예(1110)는 이미지가 표시된 예를 나타내고 있으며, 제2 화면 예(1120)는 이미지 내에서 객체를 탐색하는 예를 나타내고 있다. 이때, 사용자가 촬영 버튼을 누름에 따라 이미지가 서버(150)로 전송될 수 있으며, 서버(150)에서는 이미지 검색 엔진(350) 및 디텍팅 애니메이션 생성 엔진(360)을 통해 이미지 검색과 디텍팅 애니메이션의 생성이 진행될 수 있다. 제2 화면 예(1120)는 복수의 점들과 점들을 연결하는 선들로 구성되는 디텍팅 애니메이션을 서버(150)로부터 제공받아 화면에 표시함으로써, 개(dog)의 얼굴을 탐색하고 있음을 시각적으로 사용자에게 알리는 예를 나타내고 있다. 또한, 제3 화면 예(1130)는 탐색된 객체와 관련된 텍스트 정보(연관 키워드)로서 "강아지"와 "래브라도리트리버"가 표시되고, 이미지에 대한 이미지 검색 결과가 더 표시된 예를 나타내고 있다. 이러한 텍스트 정보와 이미지 검색 결과는 서버(150)를 통해 제공받을 수 있다. 이때, 탐색된 객체와 관련된 텍스트 정보로서 표시된 "강아지" 또는 "래브라도리트리버"가 표시된 영역이 사용자에게 선택되는 경우, 해당 텍스트 정보를 키워드로 이용한 텍스트 검색 결과가 사용자에게 제공될 수 있다. 또한, 이미지 검색 결과 각각은 사용자에게 선택되는 경우, 해당 검색 결과에 상응하는 페이지가 랜딩될 수 있다.
도 12는 전자 기기 1(110)의 화면 예들(1210 내지 1240)을 도시하고 있다. 제1 화면 예(1210)는 이미지가 표시된 예를 나타내고 있으며, 제2 화면 예(1220)와 제3 화면 예(1230)는 복수의 점들과 점들을 연결하는 선들로 구성되는 디텍팅 애니메이션이 표시되면서 물고기를 탐색하고 있음을 시각적으로 사용자에게 알리는 과정의 예를 나타내고 있다. 또한, 제3 화면 예(1240)는 탐색된 객체와 관련된 텍스트 정보(연관 키워드)로서 "관상어"와 "아시아아로와나"가 표시되고, 이미지에 대한 이미지 검색 결과가 더 표시된 예를 나타내고 있다. 이 경우에도 탐색된 객체와 관련된 텍스트 정보로서 표시된 "관상어" 또는 "아시아아로와나"가 표시된 영역이 사용자에게 선택되는 경우, 해당 텍스트 정보를 키워드로 이용한 텍스트 검색 결과가 사용자에게 제공될 수 있다. 또한, 이미지 검색 결과 각각은 사용자에게 선택되는 경우, 해당 검색 결과에 상응하는 페이지가 랜딩될 수 있다.
도 13 내지 도 15 역시 도 11 및 도 12에서와 같이 이미지 검색 결과를 제공하는 과정들의 예를 나타내고 있다. 도 13은 꽃의 외곽라인을 따라 디텍팅하여 객체를 인식하고, 디텍팅 애니메이션과 이미지 검색 결과를 제공하는 과정을, 도 14는 고양이 얼굴을 외곽라인을 따라 디텍팅하여 객체를 인식하고, 디텍팅 애니메이션과 이미지 검색 결과를 제공하는 과정을, 도 15는 에펠탑을 외곽라인을 따라 디텍팅하여 객체를 인식하고, 디텍팅 애니메이션과 이미지 검색 결과를 제공하는 과정을 각각 나타내고 있다.
도 16은 본 발명의 일실시예에 있어서, 이미지 검색 결과를 제공하는 예들을 나타낸 도면이고, 도 17은 본 발명의 일실시예에 있어서, 주요 컬러를 추출하여 채도를 제한하는 예를 도시한 도면이다. 도 16은 이미지의 주요 컬러를 오토픽 기술을 이용하여 추출하고, 추출된 주요 컬러를 연관 키워드나 이미지 검색 결과의 노출에 활용하는 예를 도시하고 있다. 이때, 텍스트의 시인성을 고려하여 HSB(Hue-Saturation-Brightness)값에서 채도(S)나 명도(B)의 수치를 50~70% 범위로 제한하여 활용할 수 있다. 도 17은 컬러 픽커(color picker)를 이용하여 주요 컬러를 추출하여 채도의 수치를 50%로 제한한 예를 나타내고 있다.
도 18 내지 도 20은 본 발명의 일실시예에 있어서, 이미지 검색 결과를 제공하는 예들을 나타낸 도면들이다. 도 18 내지 도 20은 "인물_국내", "인물_그룹", "인물_국외", "백과_동물", "백과_명화", "백과_와인", "명소", "지역", "국내_플레이스" 등과 같이 다양한 유형에 따라 미리 디자인된 템플릿을 통해 이미지 검색 결과 중 특정 검색 결과를 정답형 카드의 형태로 구현하여 제공하는 예들을 나타내고 있다. 이 경우에도 텍스트의 시인성을 고려하여 HSB(Hue-Saturation-Brightness)값에서 채도나 명도의 수치를 50~70% 범위로 제한하여 활용할 수 있다.
도 21 내지 도 24는 본 발명의 일실시예에 있어서, 디텍팅 애니메이션을 표시하는 예들을 도시한 도면들이다.
디텍팅 애니메이션 생성 방법은 아래와 같다. 예를 들어, 앞서 설명한 디텍팅 애니메이션 생성 엔진(360)에 의해 디텍팅 애니메이션 생성 방법이 수행될 수 있다.
(1) 전처리 과정: 그레이 스케일, 블러링, 엣지 디텍션 등 이미지 탐색에 요구되는 전처리를 수행하는 과정.
(2) 객체 탐색(Object Detection): 입력된 영상 내에서 객체를 검색하여, 해당 객체를 포함하는 바운딩 박스(bounding box)를 생성하는 과정. 객체의 검색은 일반적으로 잘 알려진 객체 탐색 기술이 활용될 수 있으며, 생성된 바운딩 박스의 영역에 대하여 다음 과정이 수행될 수 있다.
(3) 객체의 윤곽선 중에서 의미가 있는 특징점을 추출하는 과정. 일례로, FAST 알고리즘을 사용하여 기설정된 수(일례로, 수백 개 정도)의 특징점들이 추출될 수 있다.
(4) 추출된 특징점에 대한 컨벡스 홀(convex hull)을 생성하는 과정. 일례로, 해당 특징점들을 모두 포함하는 볼록 다각형이 컨벡스 홀로서 생성될 수 있으며, 이러한 컨벡스 홀의 생성은 이미 알려진 알고리즘을 통해 생성될 수 있다.
(5) 만일 컨벡스 홀을 구성하는 점이 미리 정해진 수(일례로, 6개)에 미치지 못하는 경우 추가 단계를 진행하여 필요한 개수가 될 때까지 점을 추가하는 과정. 일례로, 컨벡스 홀을 이루는 두 점 사이의 중간에서 가장 가까운 특징점을 선택하여 컨벡스 홀을 구성하기 위한 점으로 활용할 수 있다.
(6) 상술한 (4), (5)에서 선택한 점들로 외곽선을 이루는 점들(외곽점)을 구성하고, 외곽점들의 중심 좌표(중심점)를 계산하는 과정. 일례로, 각 좌표들의 (X값의 평균, Y값의 평균)의 점을 중심점으로서 계산할 수 있다.
(7) 각 외곽점들에 대하여, 외곽점과 중심점과의 사이의 중간값과 가장 가까운 특징점을 선택하는 과정
(8) 내부에 선을 추가하고자 하는 경우에 (6), (7) 단계 반복하는 과정. 한 단계의 선들만 연결하는 경우에는 생략될 수 있다.
(9) 점의 좌표와 애니메이션 순서를 반환하거나 또는 생성된 애니메이션을 반환하는 과정.
이러한 (1) 내지 (9)의 과정들에 따른 디텍팅 애니메이션의 생성 과정은 하나의 실시예로서 디자인에 따라 다양한 형태로 변형하여 생성할 수도 있다.
예를 들어, 도 21에서는 5개의 점들로 구성되는 컨벡스 홀과 뎁스(depth) 3의 점들을 연결하여 삼각형 구조를 갖는 디텍팅 애니메이션을 나타내고 있다. 보다 자세하게, 도 21은 컨벡스 홀인 객체 윤곽에 5각형 도트를 형성하여 연결하고, 뎁스 2 도트를 형성하여 5각형 도트와 연결하며, 뎁스 2 도트의 좌우를 연결하고, 뎁스 3 도트인 중심점을 형성하여 뎁스 2 도트와 뎁스 3 도트를 상하 연결함으로서 디텍팅 애니메이션의 형태를 생성하는 예를 나타내고 있다. 이때, 뎁스 2 도트가 5각형 도트들간의 연결선의 중심과 중심점(뎁스 3 도트)를 연결한 선의 1/3 지점에 형성되는 예를 나타내고 있다.
또한, 도 22에서는 9개의 점들로 구성되는 컨벡스 홀과 뎁스 3의 점들을 연결하여 삼각형과 사각형 구조를 갖는 디텍팅 애니메이션을 나타내고 있다. 이러한 도 22에서는 윤곽 도트(컨벡스 홀을 구성하는 9개의 점들)에서 중심도트(중심점)까지의 직선상에서 색상차이가 기설정된 차이 이상인 좌표(일례로, 윤곽도트의 시작점 RGB 값 중 B값에서 20 이상의 차이가 나는 위치)에 도트를 표시하고, 동일한 뎁스의 도트끼리는 좌우를 연결하고, 상하 뎁스의 도트들간에는 제일 가까운 거리의 도트를 연결하여 디텍팅 애니메이션의 형태를 생성하는 예를 나타내고 있다.
또한, 도 23과 도 24에서는 삼각형 구조의 색을 달리함으로써 입체감을 주고, 동시에 투명도를 조절하는 예들을 나타내고 있다. 다시 말해, 도 23보다 도 24에서 삼각형 구조에서의 투명도가 더 높아진 예를 나타내고 있다.
도 25는 본 발명의 일실시예에 있어서, 디텍팅 애니메이션의 예를 도시한 도면이다. 도 25는 도 15를 통해 설명한 에펠탑에 대한 디텍팅 애니메이션이 단순히 이미지의 형태가 아니라 도 25에 순차적으로 나타난 그림들과 같이 점들과 점들을 연결하는 선들의 표시를 반복함에 따라 이러한 디텍팅 애니메이션이 사용자가 검색 결과를 기다리는 동안 사용자에게 흥미를 유발하고, 검색 결과가 지연되지 않는 느낌을 주기 위한 효과로서 활용될 수 있음을 나타내고 있다. 이때, 디텍팅 애니메이션은 이미 설명한 바와 같이 점들과 선의 굵기나 크기, 밝기, 색상 등을 변화하여 추가적인 애니메이션 효과를 줄 수도 있으며, 도 23과 도 24에서 설명한 바와 같이 삼각형 구조나 사각형 구조에 색을 서로 다르게 적용함으로써 입체감을 주거나 또는 색의 투명도를 조절하여 이미지가 표시되는 정도를 결정할 수도 있다.
도 26은 본 발명의 일실시예에 따른 이미지 처리 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 이미지 처리 방법은 앞서 설명한 전자 기기 1(110)과 같은 컴퓨터 장치에 의해 수행될 수 있다. 예를 들어, 전자 기기 1(110)의 프로세서(212)는 메모리(211)가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(212)는 전자 기기 1(110)에 저장된 코드가 제공하는 제어 명령에 따라 전자 기기 1(110)이 도 26의 이미지 처리 방법이 포함하는 단계들(2610 내지 2640)을 수행하도록 전자 기기 1(110)을 제어할 수 있다.
단계(2610)에서 컴퓨터 장치는 이미지 처리 모드로 진입함에 응답하여 카메라 모듈을 구동할 수 있다. 일례로, 컴퓨터 장치에 설치된 어플리케이션은 이미지 처리 모드로의 진입을 위한 사용자 인터페이스를 사용자에게 제공할 수 있다. 사용자의 사용자 인터페이스에 대한 입력이 발생하는 경우, 컴퓨터 장치는 발생되는 입력에 따라 진입하는 이미지 처리 모드에 따라 카메라 모듈을 구동할 수 있다.
단계(2620)에서 컴퓨터 장치는 구동된 카메라 모듈을 통해 연속적으로 이미지들의 스트림을 입력받아 순차적으로 화면에 표시할 수 있다. 예를 들어, 스마트폰에서 카메라가 구동되는 경우, 카메라를 통해 입력되어 스마트폰의 화면에 실시간으로 표시되는 영상이 이러한 이미지들의 스트림에 대응될 수 있다.
단계(2630)에서 컴퓨터 장치는 입력받은 이미지들의 스트림을 인식 엔진으로 전달할 수 있다. 카메라 모듈은 지속적으로, 그리고 실시간적으로 입력되는 이미지들의 스트림을 인식 엔진으로 전달할 수 있으며, 인식 엔진은 이미지들의 스트림을 분석하여 인식 엔진이 목적하는 인식 결과를 생성할 수 있다. 예를 들어, 도 3의 실시예에서는 전자 기기 1(110)이 OCR 인식 엔진(320)과 같은 텍스트 인식 엔진과 바코드 인식 엔진(330) 및 QR 코드 인식 엔진(340)과 같은 이미지 코드 인식 엔진들을 포함하는 예를 설명한 바 있다.
단계(2640)에서 컴퓨터 장치는 입력받은 이미지들의 스트림에 대해 인식 엔진에 의해 인식된 인식 결과가 존재하는 경우, 인식 결과를 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시할 수 있다. 예를 들어, 인식 엔진은 인식 결과로서 입력받은 이미지들이 포함하는 텍스트를 인식하는 텍스트 인식 엔진을 포함할 수 있다.
이때, 텍스트 인식 엔진에 의해 인식된 인식 결과가 존재하는 경우, 단계(2640)에서 컴퓨터 장치는, 입력받은 이미지들에서 인식되는 텍스트 영역의 위치에 기반하여 인식된 텍스트의 표시 위치를 동적으로 조절할 수 있다. 예를 들어, 도 4의 제1 화면 예(410)는 이미지에서 텍스트가 포함된 영역의 위치에 인식된 텍스트가 표시되는 예를 나타내고 있다. 다른 예로, 도 5의 제2 화면 예(520)에서도 텍스트가 인식됨에 따라 해당 텍스트의 이미지 내에서의 위치와 유사한 위치에 인식된 텍스트들을 표시하는 예를 설명하고 있다. 예를 들어, 스마트폰과 같은 컴퓨터 장치가 사용자의 손에서 흔들림에 따라 입력받은 이미지들에서 동일한 텍스트 영역의 위치가 지속적으로 변경될 수도 있다. 이 경우, 컴퓨터 장치는 텍스트 영역의 위치가 변경됨에 따라 텍스트 영역의 위치를 추적하여 추적되는 위치에 인식된 텍스트가 표시될 수 있도록 텍스트의 표시 위치를 동적으로 조절할 수 있다.
또한, 단계(2640)에서 컴퓨터 장치는, 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 상기 인식된 텍스트를 표시하되, 입력받은 이미지들 중 텍스트가 인식된 이미지에서의 텍스트 영역의 위치에 기반하여 인식된 텍스트의 표시 위치를 결정할 수 있다. 예를 들어, 컴퓨터 장치는 앞서 설명한 바와 같이 텍스트 영역의 위치가 변경됨에 따라 인식된 텍스트의 표시 위치를 동적으로 조절하다가, 텍스트의 인식이 최종적으로 완료되면, 최종적으로 텍스트가 인식된 위치에 인식된 텍스트를 표시할 수 있다. 이 경우에는 입력받은 이미지들에서 텍스트 영역의 위치가 지속적으로 변경되거나 또는 텍스트가 없는 다른 이미지들이 지속적으로 입력되는 경우에도 인식된 텍스트의 표시 위치가 고정될 수 있다.
또한, 컴퓨터 장치는 입력받은 이미지들의 스트림에 대해 인식된 텍스트에 대한 사용자 확인을 위한 사용자 인터페이스를 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시할 수도 있다. 예를 들어, 텍스트 인식 엔진에 의해 텍스트의 인식이 최종적으로 완료된 후, 컴퓨터 장치는 최종적으로 인식된 텍스트에 대해 사용자의 확인을 받는 과정을 처리할 수 있다. 예를 들어, 도 4의 제2 화면(420)은 문자인식 버튼과 같이 인식된 텍스트를 사용자에게 확인받기 위한 사용자 인터페이스를 표시한 예를 도시하고 있다. 이때, 컴퓨터 장치의 화면에는 여전히 이미지들의 스트림이 실시간으로 표시 중일 수 있다.
이때, 인식된 텍스트를 사용자에게 확인받기 위한 사용자 인터페이스를 통해 사용자 확인의 발생 시, 컴퓨터 장치는 입력받은 이미지들 중 텍스트가 표시된 이미지를 화면에 표시할 수 있다. 예를 들어, 컴퓨터 장치는 입력받은 이미지들 중 제1 이미지를 통해 사용자에게 확인받은 텍스트가 인식되었다면, 이미지들의 스트림을 화면에 표시하는 대신, 이미 표시되었던 제1 이미지를 화면에 표시할 수 있다. 또한, 컴퓨터 장치는 화면에 표시된 이미지상에 인식된 텍스트의 복사를 위한 사용자 인터페이스 및 인식된 텍스트의 번역을 위한 사용자 인터페이스 중 적어도 하나를 더 표시할 수 있다. 예를 들어, 도 4 및 도 5는 '복사' 버튼 및 '번역' 버튼과 같이 인식된 텍스트의 복사와 번역을 위한 사용자 인터페이스들이 표시된 예를 나타내고 있다.
또한, 컴퓨터 장치는 인식된 텍스트의 글자수에 따라 인식된 텍스트의 크기를 동적으로 변경하여 화면에 표시할 수도 있다. 예를 들어, 도 6 내지 도 8에서는 인식된 텍스트에서 글자 수가 증가함에 따라 인식된 텍스트의 크기를 동적으로 줄여가면서 화면에 표시하는 예를 설명한 바 있다.
또한, 다른 예로, 인식 엔진은 입력받은 이미지들이 포함하는 이미지 코드를 인식하기 위한 이미지 코드 인식 엔진을 포함할 수도 있다. 이 경우, 컴퓨터 장치는 단계(2640)에서 화면에 순차적으로 표시되는 이미지들에서 인식된 이미지 코드에 대응하는 페이지로의 링크를 인식 결과로서 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시할 수 있다. 예를 들어, 도 9에서는 인식된 바코드에 대응하는 페이지로의 링크를 '바코드' 버튼을 통해 표시한 예를 나타내고 있으며, 도 10에서는 인식된 QR 코드에 대응하는 페이지로의 링크를 'QR코드' 버튼을 통해 표시한 예를 나타내고 있다.
실시예에 따라 인식 엔진은 텍스트 인식 엔진과 이미지 코드 인식 엔진과 같이 복수의 인식 엔진들을 포함할 수도 있으며, 이 경우 카메라 모듈을 통해 입력되는 이미지들의 스트림은 복수의 인식 엔진들 각각으로 입력될 수 있다.
이상에서 설명한 단계들(2610 내지 2640)은 카메라를 통한 사용자의 촬영이 이루어지기 이전에 카메라를 통해 입력되는 이미지들의 스트림을 통해 컴퓨터 장치가 자동으로 텍스트, 이미지 코드 등을 인식하여 관련 정보를 표시하는 실시예를 설명하고 있다. 다시 말해, 이미지 처리 모드로 진입함에 응답하여 사용자가 촬영 버튼을 눌러 특정 시점의 이미지를 선택하지 않더라도 입력되는 이미지들의 스트림 전체에 대한 분석을 통해 자동으로 텍스트나 이미지 코드에 대한 인식 결과를 제공할 수 있다.
한편, 사용자가 촬영 버튼을 눌러 특정 이미지가 선택되는 경우 컴퓨터 장치는 앞의 실시예와는 다른 기능을 사용자에게 제공할 수 있다.
도 27은 본 발명의 일실시예에 따른 이미지 처리 방법의 다른 예를 도시한 도면이다. 본 실시예에 따른 이미지 처리 방법 역시 앞서 설명한 전자 기기 1(110)과 같은 컴퓨터 장치에 의해 수행될 수 있다. 이때, 도 27의 단계들(2710 내지 2750)은 도 26의 단계(2620) 이후, 촬영 입력이 발생하는 경우에 수행될 수 있으며, 도 27의 단계들이 수행되는 경우 단계(2630) 및 단계(2640)은 생략될 수도 있다.
단계(2710)에서 컴퓨터 장치는 입력받은 이미지들의 스트림을 순차적으로 표시하는 도중에 촬영 입력이 발생하는 경우, 촬영 입력의 발생 시점과 연관된 이미지를 캡쳐하여 화면에 표시할 수 있다. 이러한 단계(2710)은 사용자에 의한 촬영 입력의 발생에 따라 사진을 찍는 과정을 의미할 수 있다.
단계(2720)에서 컴퓨터 장치는 캡쳐된 이미지를 서버로 전송할 수 있다. 일례로, 서버는 앞서 설명한 서버(150)와 같은 컴퓨터 장치에 대응할 수 있으며, 캡쳐된 이미지는 네트워크(170)를 통해 서버로 전송될 수 있다.
단계(2730)에서 컴퓨터 장치는 서버로부터 전송된 이미지가 포함하는 객체에 대한 디텍팅 애니메이션을 수신할 수 있다. 일례로, 디텍팅 애니메이션은 객체의 윤곽선 중에서 추출되는 복수의 특징점들을 복수의 특징점들이 추출된 이미지상의 위치에 표시하고, 표시되는 특징점들 중 적어도 일부의 특징점들을 선으로 연결하는 애니메이션을 포함할 수 있다.
단계(2740)에서 컴퓨터 장치는 디텍팅 애니메이션을 객체와 연관하여 화면에 표시할 수 있다. 디텍팅 애니메이션을 객체와 연관하여 화면에 표시하는 예는 도 11 내지 도 15, 그리고 도 21 내지 도 25를 통해 설명한 바 있다.
단계(2750)에서 컴퓨터 장치는 서버로부터 전송된 이미지에 대한 이미지 분석 결과를 수신하여 화면에 표시된 이미지와 연계하여 표시할 수 있다. 이미지 분석 결과는 이미지가 포함하는 객체의 종류 및/또는 이름을 포함할 수 있으며, 객체와 관련하여 서버에서 검색된 이미지, 문서, 텍스트 중 적어도 하나를 더 포함할 수 있다.
도 28은 본 발명의 일실시예에 따른 이미지 처리 방법의 또 다른 예를 도시한 도면이다. 본 실시예에 따른 이미지 처리 방법은 앞서 설명한 서버(150)와 같은 컴퓨터 장치에 의해 수행될 수 있다. 예를 들어, 서버(150)의 프로세서(222)는 메모리(221)가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(222)는 서버(150)에 저장된 코드가 제공하는 제어 명령에 따라 서버(150)가 도 28의 이미지 처리 방법이 포함하는 단계들(2810 내지 2850)을 수행하도록 서버(150)를 제어할 수 있다.
단계(2810)에서 컴퓨터 장치는 전자 기기의 카메라 모듈을 통해 캡쳐된 이미지를 네트워크를 통해 수신할 수 있다. 여기서, 전자 기기는 앞서 설명한 전자 기기 1(110)에 대응할 수 있으며, 수신되는 이미지는 도 27의 단계(2720)에서 전송된 이미지에 대응될 수 있다. 다시 말해, 전자 기기 1(110)이 사용자의 촬영 입력의 발생에 따라 캡쳐된 이미지를 네트워크(170)를 통해 전송하면, 서버(150)가 단계(2810)에서 해당 이미지를 수신할 수 있다.
단계(2820)에서 컴퓨터 장치는 수신된 이미지가 포함하는 객체에 대한 디텍팅 애니메이션을 생성할 수 있다. 이미 설명한 바와 같이 디텍팅 애니메이션은 객체의 윤곽선 중에서 추출되는 복수의 특징점들을 복수의 특징점들이 추출된 이미지상의 위치에 표시하고, 표시되는 특징점들 중 적어도 일부의 특징점들을 선으로 연결하는 애니메이션을 포함할 수 있다.
단계(2830)에서 컴퓨터 장치는 생성된 디텍팅 애니메이션을 전자 기기로 전송할 수 있다. 이 경우, 도 27의 단계(2730)를 통해 설명한 바와 같이 전자 기기는 디텍팅 애니메이션을 수신하여 단계(2740)에서와 같이 수신된 디텍팅 애니메이션을 객체와 연관하여 화면에 표시할 수 있다.
단계(2840)에서 컴퓨터 장치는 수신된 이미지에 대한 이미지 검색 결과를 생성할 수 있다. 이미지 검색 결과는 이미지에 포함된 객체의 종류 및/또는 이름을 포함할 수 있으며, 객체와 관련하여 검색된 이미지, 문서 및/또는 텍스트를 더 포함할 수 있다.
단계(2850)에서 컴퓨터 장치는 생성된 이미지 검색 결과를 전자 기기로 전송할 수 있다. 이때, 객체의 종류 및/또는 이름은 전자 기기의 카메라를 통해 입력된 이미지와 오버랩되어 전자 기기의 화면에 표시될 수 있다. 또한, 검색된 이미지, 문서 및/또는 텍스트는 대응하는 페이지로의 링크를 포함하여 전자 기기의 카메라 모듈을 통해 입력된 이미지와 연계되어 전자 기기의 화면에 더 표시될 수 있다. 예를 들어, 도 12는 '관상어', '아시아아로와나'와 같이, 인식된 객체의 종류나 이름을 표시하고, 추가적으로 이미지를 통한 인터넷 검색의 결과로서 이미지, 문서 및/또는 텍스트를 이미지와 연계하여 표시하는 예를 나타내고 있다.
또한, 컴퓨터 장치는 수신된 이미지가 포함하는 객체와 관련하여 검색된 정보의 유형에 따라 유형별로 미리 디자인된 템플릿을 통해 검색된 정보를 카드의 형태로 구현하여 전자 기기로 제공할 수도 있다. 예를 들어, 도 18 내지 도 20은 정보의 유형(인물_국내, 인물_그룹, 인물_국외, 백과_동물, 백과_명화, 백과_와인, 명소, 지역, 국내_플레이스 등) 각각에 대해 미리 디자인된 템플릿이 존재하며, 검색된 정보의 유형에 따라 해당 유형의 템플릿을 통해 검색된 정보가 카드의 형태로 구현되어 제공되는 예를 설명하고 있다.
이때, 전자 기기에서 표시된 객체의 종류 및/또는 이름이 선택(일례로, 터치스크린 환경에서 사용자가 객체의 종류 및/또는 이름이 표시된 영역을 손가락으로 터치)하는 경우, 이러한 선택에 따라 전자 기기에서 발생하는 신호가 네트워크를 통해 서버로 전달될 수 있다. 이 경우, 컴퓨터 장치는 해당 신호를 수신할 수 있으며, 신호를 수신함에 응답하여 객체의 종류 또는 이름을 키워드로 이용하여 텍스트 검색 결과를 생성할 수 있다. 또한, 컴퓨터 장치는 생성된 텍스트 검색 결과를 전자 기기로 제공할 수 있다. 다시 말해, 전자 기기의 사용자는 이미지에 대한 이미지 검색 결과에 더해 이미지를 통해 얻어진 텍스트에 대한 텍스트 검색 결과를 순차적으로 제공받을 수 있게 된다.
도 29는 본 발명의 일실시예에 있어서, 디텍팅 애니메이션을 생성하는 방법의 예를 도시한 흐름도이다. 본 실시예의 방법이 포함하는 단계들(2910 내지 2950)은 도 28의 단계(2820)에 포함되어 수행될 수 있다.
단계(2910)에서 컴퓨터 장치는 수신된 이미지가 포함하는 객체를 탐색할 수 있다. 예를 들어, 컴퓨터 장치는 수신된 이미지에 그레이 스케일, 블러링, 엣지 디텍션 등 이미지 탐색에 요구되는 전처리를 수행한 후, 이미지 내에서 객체를 검색하여 해당 객체를 포함하는 바운딩 박스(bounding box)를 생성할 수 있다. 이러한 객체의 검색은 일반적으로 잘 알려진 객체 탐색 기술이 활용될 수 있다.
단계(2920)에서 컴퓨터 장치는 객체의 윤곽선에서 복수의 특징점들을 추출할 수 있다. 일례로, FAST(Feature from Accelerated Segment Test) 알고리즘을 사용하여 기설정된 수(일례로, 수백 개 정도)의 특징점들이 추출될 수 있다.
단계(2930)에서 컴퓨터 장치는 추출된 특징점들에 대한 컨벡스 홀(convex hull)을 생성할 수 있다. 일례로, 컨벡스 홀 알고리즘을 통해 추출된 특징점들로부터 컨벡스 홀이 생성될 수 있다. 만약, 컨벡스 홀을 구성하기 위한 점이 미리 정의된 수에 미치지 못하는 경우, 특징점을 추가로 더 추출할 수도 있다.
단계(2940)에서 컴퓨터 장치는 추출된 특징점들 중 상기 컨벡스 홀을 구성하는 미리 정해진 수의 외곽점들의 중심 좌표에 기반하여 중심점을 계산할 수 있다. 예를 들어, 컨벡스 홀을 구성하는 외곽점들의 좌표들에 대해 (X 좌표 값의 평균, Y 좌표 값의 평균)의 점을 중심적으로서 계산할 수 있다.
단계(2950)에서 컴퓨터 장치는 객체의 특징점들 중 외곽점들 각각과 중심점 사이의 중간값에 가장 가까운 특징점들을 선택할 수 있다. 선택된 특징점들을 다시 외곽점들로 이용하여 중심점을 구하고 다시 외곽점들과 중심점 사이의 특징점들을 선택함으로써 내부의 선들을 추가할 수도 있다. 예를 들어 도 21에서는 5개의 점들로 구성되는 컨벡스 홀과 뎁스 3의 점들을 연결하여 삼각형 구조를 갖는 디텍팅 애니메이션이 형성되는 예를 나타내고 있다.
생성된 디텍팅 애니메이션은 도 28의 단계(2830)에서와 같이 전자 기기로 전송될 수 있으며, 도 27의 단계(2740)에서와 같이 전자 기기에서 객체와 연관하여 전자 기기의 화면에 표시될 수 있다. 이때, 컴퓨터 장치는 외곽점들, 중심점 및 가장 가까운 특징점들을 포함하는 선택점들의 좌표에 대한 정보와 선택점들을 선으로 연결하는 순서에 대한 정보를 디텍팅 애니메이션으로서 전자 기기로 전송할 수 있다. 이 경우, 전자 기기에서는 선택점들의 좌표에 대한 정보를 통해 선을 표시하고, 상기 순서에 대한 정보에 따라 선택점들을 선으로 연결하는 애니메이션을 화면에 표시할 수 있다. 또한 컴퓨터 장치는 선택점들을 상기 순서에 따라 연결하는 애니메이션 자체를 디텍팅 애니메이션으로서 전자 기기로 전송할 수도 있다. 이 경우 전자 기기는 객체와 연관하여 해당 애니메이션을 재생함으로써 디텍팅 애니메이션을 표시할 수 있다.
이러한 디텍팅 애니메이션은 사용자에게 이미지 처리 결과를 제공하는 과정에서 사용자가 검색을 요구하는 이미지의 객체에 대해 분석이 이루어지고 있음을 보여줌으로써, 사용자가 이미지 검색 결과를 기다리는 동안 사용자에게 흥미를 유발하고 검색 결과가 지연되지 않는 느낌을 줄 수 있다.
도 30은 본 발명의 일실시예에 있어서, 플레이스 인식에 따라 추가 정보를 제공하는 예를 도시한 도면이다. 도 30은 전자 기기 1(110)의 화면 예들(3010 및 3020)을 도시하고 있다. 제1 화면 예(3010)는 상점의 간판과 같이 특정 플레이스(place)를 식별할 수 있는 정보(일례로, 상호와 같은 텍스트나 특정 상호에 대응하는 그림 등)가 이미지에 표시된 예를 나타내고 있다. 예를 들어, 카메라 모듈(310)을 통해 캡쳐된 이미지 스트림이 OCR 인식 엔진(320)으로 자동으로 전달되고, OCR 인식 엔진(320)에서 실시간으로 문자를 인식할 수 있다. 이때, 전자 기기 1(110)은 어플리케이션의 제어에 따라 인식된 문자가 특정한 플레이스를 식별하기 위한 정보인지 여부를 결정할 수 있다. 만약, 인식된 문자가 특정한 플레이스를 식별하기 위한 정보인 것으로 판단되는 경우, 전자 기기 1(110)은 인식된 문자 또는 제1 화면 예(3010)에 나타난 이미지를 서버(150)로 전송할 수 있다. 이때, 서버(150)는 보다 정확한 플레이스 식별자를 알아내고, 플레이스의 메타데이터(일례로, 상점의 경우 상호, 업종, 설명 등)를 추출하여 전자 기기 1(110)로 전송할 수 있다. 이때, 제2 화면 예(3020)는 서버(150)로부터 제공되는 플레이스의 메타데이터가 화면에 상단 알림바(3021)의 형태로 표시된 예를 나타내고 있다. 이때, 상단 알림바(3021)에는 해당 플레이스와 관련된 URL로의 링크가 설정될 수 있다. 한편, 전자 기기 1(110)은 어플리케이션의 제어에 따라 제1 화면 예(3010)에 나타난 이미지를 분석하여 해당 이미지가 특정한 플레이스에 대한 이미지인지 여부를 결정할 수도 있다. 다시 말해, 전자 기기 1(110)은 이미지를 대략적으로 분석하여 특정한 플레이스에 대한 이미지 여부만을 판단한 뒤, 보다 정확한 플레이스의 식별자가 서버(150)를 통해 추출될 수 있도록 해당 이미지를 서버(150)로 전송할 수 있다.
도 31은 본 발명의 일실시예에 있어서, 이미지 코드의 인식에 따라 추가 정보를 제공하는 예를 도시한 도면이다. 앞서 도 10에서는 전자 기기 1(110)에서 QR 코드를 인식함에 따라 QR 코드 버튼이 노출되고, 사용자가 노출된 QR 코드 버튼을 선택하는 경우, 해당 QR 코드가 포함하는 URL의 페이지가 랜딩되는 예를 설명하였다. 도 31의 실시예에서 제1 화면 예(3110)는 QR 코드가 포함된 이미지가 표시된 예를 나타내고 있다. 이때, 제2 화면 예(3120)는 QR 코드 인식 엔진(340)에 의해 QR 코드가 인식됨에 따라 인식된 QR 코드가 포함하는 URL의 메타데이터를 서버(150)로부터 획득하여 상단 알림바(3121)의 형태로 표시하는 예를 나타내고 있다. 이때, 상단 알림바(3121)에는 QR 코드가 포함하는 URL로의 링크가 설정될 수 있다. QR 코드뿐만 아니라, 바코드에 대해서도 관련된 상품의 메타데이터를 서버(150)로부터 획득하여 상단 알림바의 형태로 표시할 수 있다. 이때, 해당 상단 알림바에 설정되는 링크는 관련된 상품의 구매와 연관된 페이지일 수 있다.
한편, 상단 알림바에 표시되는 메타데이터는 이미지 코드에 포함된 URL을 통해 제공되는 페이지에 포함되는 정보로서, URL, 동영상, 이미지, 설명 등과 같이 다양한 정보를 포함할 수 있다.
이처럼 본 발명의 실시예들에 따르면, 카메라를 통해 연속적으로 캡쳐되는 영상 스트림의 적어도 하나의 프레임과 관련된 유의미한 정보 및/또는 유의미한 정보와 연관된 사용자 인터페이스를 제공할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 이미지 처리 방법에 있어서,
    이미지 처리 모드로 진입함에 응답하여 카메라 모듈을 구동하는 단계;
    상기 구동된 카메라 모듈을 통해 연속적으로 이미지들의 스트림을 입력받아 순차적으로 화면에 표시하는 단계;
    상기 입력받은 이미지들의 스트림을 인식 엔진으로 전달하는 단계;
    상기 입력받은 이미지들의 스트림에 대해 상기 인식 엔진에 의해 인식된 인식 결과가 존재하는 경우, 상기 인식 결과를 상기 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시하는 단계;
    상기 입력받은 이미지들의 스트림을 순차적으로 표시하는 도중에 촬영 입력이 발생하는 경우, 상기 촬영 입력의 발생 시점과 연관된 이미지를 캡쳐하여 상기 화면에 표시하는 단계;
    상기 캡쳐된 이미지를 서버로 전송하는 단계;
    상기 서버로부터 상기 전송된 이미지가 포함하는 객체에 대한 디텍팅 애니메이션을 수신하는 단계;
    상기 디텍팅 애니메이션을 상기 객체와 연관하여 상기 화면에 표시하는 단계; 및
    상기 서버로부터 상기 전송된 이미지에 대한 이미지 분석 결과를 수신하여 상기 화면에 표시된 이미지와 연계하여 표시하는 단계
    를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  2. 제1항에 있어서,
    상기 인식 엔진은 상기 인식 결과로서 상기 입력받은 이미지들이 포함하는 텍스트를 인식하는 텍스트 인식 엔진을 포함하고,
    상기 더 표시하는 단계는,
    상기 입력받은 이미지들에서 인식되는 텍스트 영역의 위치에 기반하여 상기 인식된 텍스트의 표시 위치를 동적으로 조절하는 것을 특징으로 하는 이미지 처리 방법.
  3. 제1항에 있어서,
    상기 인식 엔진은 상기 인식 결과로서 상기 입력받은 이미지들이 포함하는 텍스트를 인식하는 텍스트 인식 엔진을 포함하고,
    상기 더 표시하는 단계는,
    상기 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 상기 인식된 텍스트를 표시하되, 상기 입력받은 이미지들 중 텍스트가 인식된 이미지에서의 텍스트 영역의 위치에 기반하여 상기 인식된 텍스트의 표시 위치를 결정하는 것을 특징으로 하는 이미지 처리 방법.
  4. 제1항에 있어서,
    상기 인식 엔진은 상기 인식 결과로서 상기 입력받은 이미지들이 포함하는 텍스트를 인식하는 텍스트 인식 엔진을 포함하고,
    상기 입력받은 이미지들의 스트림에 대해 인식된 텍스트에 대한 사용자 확인을 위한 사용자 인터페이스를 상기 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시하는 단계
    를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
  5. 제4항에 있어서,
    상기 사용자 인터페이스를 통한 사용자 확인의 발생 시, 상기 입력받은 이미지들 중 텍스트가 인식된 이미지를 화면에 표시하는 단계; 및
    상기 화면에 표시된 이미지상에 상기 인식된 텍스트의 복사를 위한 사용자 인터페이스 및 상기 인식된 텍스트의 번역을 위한 사용자 인터페이스 중 적어도 하나를 더 표시하는 단계
    를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
  6. 제1항에 있어서,
    상기 인식 엔진은 상기 인식 결과로서 상기 입력받은 이미지들이 포함하는 텍스트를 인식하는 텍스트 인식 엔진을 포함하고,
    상기 더 표시하는 단계는,
    상기 인식된 텍스트의 글자수에 따라 상기 인식된 텍스트의 크기를 동적으로 변경하여 상기 화면에 표시하는 것을 특징으로 하는 이미지 처리 방법.
  7. 제1항에 있어서,
    상기 인식 엔진은 상기 입력받은 이미지들이 포함하는 이미지 코드를 인식하기 위한 이미지 코드 인식 엔진을 포함하고,
    상기 더 표시하는 단계는,
    상기 화면에 순차적으로 표시되는 이미지들에서 인식된 이미지 코드에 대응하는 페이지로의 링크를 상기 인식 결과로서 상기 입력받은 이미지들의 스트림을 순차적으로 표시 중인 화면 상에 더 표시하는 것을 특징으로 하는 이미지 처리 방법.
  8. 삭제
  9. 삭제
  10. 제1항에 있어서,
    상기 디텍팅 애니메이션은 상기 객체의 윤곽선 중에서 추출되는 복수의 특징점들을 상기 복수의 특징점들이 추출된 상기 이미지상의 위치에 표시하고, 상기 표시되는 특징점들 중 적어도 일부의 특징점들을 선으로 연결하는 애니메이션을 포함하는 것을 특징으로 하는 이미지 처리 방법.
  11. 이미지 처리 방법에 있어서,
    전자 기기의 카메라 모듈을 통해 캡쳐된 이미지를 네트워크를 통해 수신하는 단계;
    상기 수신된 이미지가 포함하는 객체에 대한 디텍팅 애니메이션을 생성하는 단계;
    상기 생성된 디텍팅 애니메이션을 상기 전자 기기로 전송하는 단계;
    상기 수신된 이미지에 대한 이미지 검색 결과를 생성하는 단계; 및
    상기 생성된 이미지 검색 결과를 상기 전자 기기로 전송하는 단계
    를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  12. 제11항에 있어서,
    상기 디텍팅 애니메이션은 상기 객체의 윤곽선 중에서 추출되는 복수의 특징점들을 상기 복수의 특징점들이 추출된 상기 이미지상의 위치에 표시하고, 상기 표시되는 특징점들 중 적어도 일부의 특징점들을 선으로 연결하는 애니메이션을 포함하는 것을 특징으로 하는 이미지 처리 방법.
  13. 제11항에 있어서,
    상기 디텍팅 애니메이션을 생성하는 단계는,
    상기 수신된 이미지가 포함하는 객체를 탐색하는 단계;
    상기 객체의 윤곽선에서 복수의 특징점들을 추출하는 단계;
    상기 추출된 특징점들에 대한 컨벡스 홀(convex hull)을 생성하는 단계;
    상기 추출된 특징점들 중 상기 컨벡스 홀을 구성하는 미리 정해진 수의 외곽점들의 중심 좌표에 기반하여 중심점을 계산하는 단계; 및
    상기 객체의 특징점들 중 상기 외곽점들 각각과 상기 중심점 사이의 중간값에 가장 가까운 특징점들을 선택하는 단계
    를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  14. 제13항에 있어서,
    상기 생성된 디텍팅 애니메이션을 상기 전자 기기로 전송하는 단계는,
    상기 외곽점들, 상기 중심점 및 상기 가장 가까운 특징점들을 포함하는 선택점들의 좌표에 대한 정보와 상기 선택점들을 선으로 연결하는 순서에 대한 정보를 상기 디텍팅 애니메이션으로서 상기 전자 기기로 전송하거나 또는 상기 선택점들을 상기 순서에 따라 연결하는 애니메이션을 상기 디텍팅 애니메이션으로서 상기 전자 기기로 전송하는 것을 특징으로 하는 이미지 처리 방법.
  15. 제11항에 있어서,
    상기 이미지 검색 결과는, 상기 객체의 종류 및 이름 중 적어도 하나를 포함하고, 상기 객체와 관련하여 검색된 이미지, 문서, 텍스트 중 적어도 하나를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
  16. 제15항에 있어서,
    상기 객체의 종류 및 이름 중 적어도 하나가 상기 전자 기기의 카메라 모듈을 통해 입력된 이미지와 오버랩되어 상기 전자 기기의 화면에 표시되고,
    상기 검색된 이미지, 문서, 텍스트 중 적어도 하나가 대응하는 페이지로의 링크를 포함하여 상기 전자 기기의 카메라 모듈을 통해 입력된 이미지와 연계되어 상기 전자 기기의 화면에 더 표시되는 것을 특징으로 하는 이미지 처리 방법.
  17. 제16항에 있어서,
    상기 전자 기기의 화면에 표시된 상기 객체의 종류 또는 이름이 상기 전자 기기의 사용자에 의해 선택됨에 따라 발생하는 신호를 네트워크를 통해 수신하는 단계;
    상기 신호를 수신함에 응답하여 상기 객체의 종류 또는 이름을 키워드로 이용하여 텍스트 검색 결과를 생성하는 단계; 및
    상기 생성된 텍스트 검색 결과를 상기 전자 기기로 제공하는 단계
    를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
  18. 제11항에 있어서,
    상기 수신된 이미지에 대한 이미지 검색 결과를 생성하는 단계는,
    상기 수신된 이미지가 포함하는 객체와 관련하여 검색된 정보의 유형에 따라 유형별로 미리 디자인된 템플릿을 통해 검색된 정보를 카드의 형태로 구현하는 것을 특징으로 하는 이미지 처리 방법.
  19. 컴퓨터와 결합하여 제1항 내지 제7항 또는 제10항 내지 제18항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  20. 제1항 내지 제7항 또는 제10항 내지 제18항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.
KR1020180035734A 2017-08-20 2018-03-28 시각적 입력의 처리 KR102026475B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2018/009470 WO2019039799A1 (ko) 2017-08-20 2018-08-17 시각적 입력의 처리
JP2020509490A JP7027524B2 (ja) 2017-08-20 2018-08-17 視覚的入力の処理

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170105156 2017-08-20
KR1020170105156 2017-08-20

Publications (2)

Publication Number Publication Date
KR20190020281A KR20190020281A (ko) 2019-02-28
KR102026475B1 true KR102026475B1 (ko) 2019-09-30

Family

ID=65584456

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180035734A KR102026475B1 (ko) 2017-08-20 2018-03-28 시각적 입력의 처리

Country Status (2)

Country Link
JP (1) JP7027524B2 (ko)
KR (1) KR102026475B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022373A1 (en) * 2021-08-19 2023-02-23 Samsung Electronics Co., Ltd. Method and system for generating an animation from a static image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010103694A (ja) * 2008-10-22 2010-05-06 Seiko Precision Inc 翻訳機能付きカメラ、及びテキストの表示方法
US20150370321A1 (en) * 2013-02-19 2015-12-24 Brilliantservice Co., Ltd. Shape recognition device, shape recognition program, and shape recognition method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295781A (ja) 2003-03-28 2004-10-21 Ocean Network Entertainment:Kk 画像認識方法、及び画像認識装置
JP2009282876A (ja) 2008-05-26 2009-12-03 Sanpoen:Kk イベント演出システム
US9195898B2 (en) 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
JP5982844B2 (ja) 2012-02-06 2016-08-31 オムロン株式会社 文字読取用のプログラムおよび文字読取装置
JP2017084289A (ja) 2015-10-30 2017-05-18 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6115673B2 (ja) 2016-04-14 2017-04-19 株式会社リコー 装置、及びプログラム
KR101784287B1 (ko) * 2016-12-20 2017-10-11 에스케이플래닛 주식회사 통합 영상 검색 시스템 및 그 서비스 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010103694A (ja) * 2008-10-22 2010-05-06 Seiko Precision Inc 翻訳機能付きカメラ、及びテキストの表示方法
US20150370321A1 (en) * 2013-02-19 2015-12-24 Brilliantservice Co., Ltd. Shape recognition device, shape recognition program, and shape recognition method

Also Published As

Publication number Publication date
JP2020534590A (ja) 2020-11-26
JP7027524B2 (ja) 2022-03-01
KR20190020281A (ko) 2019-02-28

Similar Documents

Publication Publication Date Title
US10032072B1 (en) Text recognition and localization with deep learning
US9721156B2 (en) Gift card recognition using a camera
US9349076B1 (en) Template-based target object detection in an image
KR101691903B1 (ko) 광학 캐릭터 인식을 사용하여 증강 현실을 제공하기 위한 방법 및 장치
JP6526105B2 (ja) イメージの内容に基づく地図イメージ検索方法、地図イメージ検索システム及びコンピュータプログラム
US10762678B2 (en) Representing an immersive content feed using extended reality based on relevancy
US11704357B2 (en) Shape-based graphics search
WO2023020005A1 (zh) 神经网络模型的训练方法、图像检索方法、设备和介质
WO2020029466A1 (zh) 图像处理方法和装置
CN109155076B (zh) 自动识别和显示图形小说中的感兴趣对象
KR20190122860A (ko) 스토리영상 제작 방법 및 시스템
US20210126806A1 (en) Method for recognizing and utilizing user face based on profile picture in chatroom created using group album
CN113939791A (zh) 图像标注方法、装置、设备及介质
US20210303905A1 (en) Method, system, and non-transitory computer readable record medium for extracting and providing text color and background color in image
US10621237B1 (en) Contextual overlay for documents
WO2021237227A1 (en) Method and system for multi-language text recognition model with autonomous language classification
CN110363190A (zh) 一种文字识别方法、装置及设备
US11810177B2 (en) Clothing collocation
KR102026475B1 (ko) 시각적 입력의 처리
CN113867875A (zh) 标记对象的编辑及显示方法、装置、设备、存储介质
KR102316216B1 (ko) 블라인드 워터마킹 기술을 이용한 카메라 기반 측위 방법 및 시스템
KR20210120203A (ko) 웹 페이지에 기반한 메타데이터 생성방법
CN111476090B (zh) 水印识别方法和装置
KR102575743B1 (ko) 이미지 번역 방법 및 시스템
KR102167588B1 (ko) 복수의 사용자 장치를 기반으로 동영상을 생성하는 컨텐츠 생성 서비스 장치, 복수의 사용자 장치를 기반으로 동영상을 생성하는 방법 및 컴퓨터 프로그램이 기록된 기록매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant