KR20160090938A - Method for searching information using text in taken picture - Google Patents

Method for searching information using text in taken picture Download PDF

Info

Publication number
KR20160090938A
KR20160090938A KR1020150010504A KR20150010504A KR20160090938A KR 20160090938 A KR20160090938 A KR 20160090938A KR 1020150010504 A KR1020150010504 A KR 1020150010504A KR 20150010504 A KR20150010504 A KR 20150010504A KR 20160090938 A KR20160090938 A KR 20160090938A
Authority
KR
South Korea
Prior art keywords
search
text
camera
input
present
Prior art date
Application number
KR1020150010504A
Other languages
Korean (ko)
Inventor
김지환
Original Assignee
주식회사 퓨처플레이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 퓨처플레이 filed Critical 주식회사 퓨처플레이
Priority to KR1020150010504A priority Critical patent/KR20160090938A/en
Publication of KR20160090938A publication Critical patent/KR20160090938A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • G06F17/30253
    • G06K9/344
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words

Abstract

The present invention relates to a search method using text in a photographed photo. According to an embodiment of the present invention, disclosed is a search method using text in a photographed photo, the search method comprising the steps of: invoking, by a user, a search window; operating a camera by referring to a region, set by the user, in response to the invocation; increasing visibility by adjusting transparency of a region exclusive of the search window, and inputting, by the user, a search word to the search window; and reading text inside an image visible in a camera region, selecting a search word among a plurality of generated search words based on the text, and performing search based on the selected search word. Additionally, another configuration can be provided according to technical spirit of the present invention.

Description

촬영된 사진 내 텍스트를 이용한 검색 방법{METHOD FOR SEARCHING INFORMATION USING TEXT IN TAKEN PICTURE}METHOD FOR SEARCHING INFORMATION USING TEXT IN TAKEN PICTURE [0002]

본 발명은 촬영된 사진 내 텍스트를 이용한 검색 방법에 관한 것으로 특히 인풋 박스에서 카메라를 이용하여 주변의 다양한 키워드들과 텍스트, 이미지를 기존의 검색과 조합하여 입력하거나 선택할 수 있게 해 주는 방법 및 인터페이스에 관한 것이다. In particular, the present invention relates to a method and an interface for inputting or selecting various keywords, texts, and images in the vicinity of an input box using a camera in combination with an existing search, .

근래에 들어, 스마트폰, 스마트 패드 등과 같이 다양한 통신 및 센싱 기능과Recently, various communication and sensing functions such as smart phone and smart pad have been developed.

강력한 연산 기능을 갖춘 이동식 스마트 디바이스를 이용한 인터넷 사용이 점점 늘어나는 추세이다. 그러나 사용자가 필요한 정보를 얻기 위한 정보 검색의 방법에 있어서는 기존의 텍스트를 기반으로 하여 검색엔진을 이용하는 방법에 국한되어 있는 사실이다. 이미지를 이용한 검색 또한 일부 알려져 있으나, 사용의 불편함과 낮은 정확도로 충분히 보급되지 않은 상황이다.The use of the Internet using mobile smart devices with powerful computing functions is increasing. However, the information retrieval method for obtaining the necessary information by the user is limited to the method of using the search engine based on the existing text. Although some image-based searches are known, they have not been widely used due to inconvenience and low accuracy.

이러한 상황에서 사용자가 일상에서 접하는 문자, 텍스트, 숫자를 눈으로 확인하고 따로 입력창에 입력하는 번거로움을 줄이고 보다 빠르고 손쉬운 검색 방법이 필요하다. 그러나, 종래의 기술에 따르면, 이러한 사용자의 (잠재적인) 의도가 적절하게 서포팅될 수 없었다.In such a situation, it is necessary to search for characters, texts and numbers in daily life, to reduce the hassle of inputting them into the input window separately, and to search for faster and easier. However, according to the prior art, the (potential) intention of such a user could not be adequately supported.

본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve all the problems of the prior art described above.

본 발명은 주변의 다양한 키워드들과 텍스트, 이미지를 기존의 검색과 조합하여 입력하거나 선택하는 것을 그 목적으로 한다.An object of the present invention is to input or select various keywords, texts, and images in combination with an existing search.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.In order to accomplish the above object, a representative structure of the present invention is as follows.

본 발명의 일 태양에 따르면, 촬영된 사진 내 텍스트를 이용한 검색 방법에 있어서, 사용자에 의해 검색창이 호출되는 단계; 상기 호출에 대한 응답으로, 상기 사용자가 설정한 영역을 참고하여 카메라가 작동되는 단계; 상기 검색창 이외의 영역은 투명도를 조절하여 식별성을 높임. 상기 검색창에 사용자에 의해 검색어가 입력되는 단계; 카메라 영역에서 보이는 이미지 내부의 텍스트를 판독하고 이를 기반으로 생성된 복수 개의 상기 검색어 중에서 검색어를 선택. 상기 선택된 검색어에 기초하여 검색을 수행하는 단계; 를 포함하는 것을 특징으로 하는 촬영된 사진 내 텍스트를 이용한 검색 방법을 개시한다.According to an aspect of the present invention, there is provided a search method using text in photographed photographs, the search method comprising: calling a search window by a user; In response to the call, operating the camera with reference to the area set by the user; The area other than the search window is increased in transparency to improve the discrimination. Inputting a search word by a user into the search window; The text in the image displayed in the camera area is read and a search word is selected from a plurality of the search words generated based on the text. Performing a search based on the selected search term; The method of searching using text in a photographed photo is disclosed.

이 외에도, 본 발명의 기술적 사상에 따라 다른 구성이 더 제공될 수도 있다.Other configurations may be further provided in accordance with the technical idea of the present invention.

본 발명에 의하면, 다양한 스마트 기기에서 보다 직관적이고 편리한 입력 방식을 제공 할 수 있다.According to the present invention, it is possible to provide an intuitive and convenient input method in various smart devices.

도 1은 본 발명의 일 실시예에 따라 촬영된 사진 내 텍스트를 이용한 검색을 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따라 스마트폰을 이용하여 명함을 촬영하는 것을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따라 스마트폰의 카메라를 이용하여 명함 내의 텍스트를 불러오는 것을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따라 이미지 인식을 이용하여 촬영 된 사진 내의 인물사진을 불러오는 것을 나타내는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a schematic configuration of an entire system for searching using photographed text according to an embodiment of the present invention; FIG.
2 is a view showing shooting a business card using a smartphone according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating the import of text in a business card using a camera of a smartphone according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating loading a portrait in a photographed image using image recognition in accordance with an embodiment of the present invention. FIG.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

전체 시스템의 구성Configuration of the entire system

도 1은 본 발명의 일 실시예에 따라 촬영된 사진 내 텍스트를 이용한 검색을 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a schematic configuration of an entire system for searching using photographed text according to an embodiment of the present invention; FIG.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 문자 및 이미지 해석 시스템(200), 및 스마트 디바이스(310)를 포함하여 구성될 수 있다.1, an overall system according to an embodiment of the present invention may be configured to include a communication network 100, a character and image interpretation system 200, and a smart device 310. As shown in FIG.

먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW;World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the communication network 100 according to an embodiment of the present invention can be configured without regard to communication modes such as wired communication and wireless communication. The communication network 100 can be a local area network (LAN), a metropolitan area network ), A wide area network (WAN), and the like. Preferably, the communication network 100 referred to herein may be the well-known Internet or World Wide Web (WWW). However, the communication network 100 may include, at least in part, a known wire / wireless data communication network, a known telephone network, or a known wire / wireless television communication network, without being limited thereto.

다음으로, 본 발명의 일 실시예에 따른 문자 및 이미지 해석 시스템(200)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다. 이러한 문자 및 이미지 해석 시스템(200)은 서버 시스템일 수 있다. 문자 및 이미지 해석 시스템(200)은 는 통신망(100)을 통하여 디바이스(300) 중 하나가 다른 하나로 소정의 정보나 제어 명령을 제공하거나, 하나가 다른 하나로부터 소정의 정보나 제어 명령을 제공 받도록 매개하는 기능을 수행할 수 있다.Next, the character and image analysis system 200 according to an exemplary embodiment of the present invention may be a digital device having memory means and equipped with a microprocessor and having computational capability. The character and image interpretation system 200 may be a server system. The character and image interpretation system 200 may be configured to provide the predetermined information or control command to one of the devices 300 through the communication network 100 or to provide the predetermined information or control command Can be performed.

이를 위하여, 문자 및 이미지 해석 시스템(200)은, 아래에서 자세하게 설명되는 바와 같이, 이동식 스마트 디바이스(310)를 통해 입력 된 문자 혹은 이미지를 해석한 결과값을 통신망(100)혹은 스마트 디바이스(310)로 전송할 수 있다.For this purpose, the character and image analyzing system 200 analyzes the character or image input through the mobile smart device 310, as described in detail below, to the communication network 100 or the smart device 310, Lt; / RTI >

이를 위해 사람이 쓰거나 기계로 인쇄한 문자의 영상을 이미지 스캐너로 획득하여 기계가 읽을 수 있는 문자로 변환하는 광학 문자 인식(Optical character recognition; OCR) 혹은 이미지 파일을 분석해서 동일한 또는 유사한 이미지를 찾아내는 방식이 이용될 수 있다.For this purpose, optical character recognition (OCR), which is a method of acquiring images of human-written or machine-printed characters with image scanners and converting them into machine-readable characters, or analyzing image files to find identical or similar images Can be used.

이와 같은 사용자 인터페이스 제공은 문자 및 이미지 해석 시스템 (200)에 의하여 포함되는 제어부(미도시됨)에 의하여 수행될 수 있다. 이러한 제어부는 컨텐츠(200) 내에서 프로그램 모듈의 형태로 존재할 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태를 가질 수 있다. 또한, 프로그램 모듈은 문자 및 이미지 해석 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다.Such a user interface may be provided by a control unit (not shown) included in the character and image analysis system 200. Such control may be in the form of a program module within the content 200. Such program modules may take the form of an operating system, application program modules or other program modules. The program modules may also be stored in a remote storage device that is capable of communicating with the text and image interpretation system 200.

한편, 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정Meanwhile, the program module may perform a specific task, which will be described later,

추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.But are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that execute abstract data types.

또한, 문자 및 이미지 해석 시스템(200)은 스마트 디바이스(300) 중 적어도 하나로부터 제공 받은 자세 또는 움직임에 관한 정보를 저장하고, 이것이 스마트 디바이스(300) 중 적어도 하나에 의하여 이용되도록 하는 기능을 더 수행할 수 있다. 상술한 저장은 문자 및 이미지 해석 시스템(200)에 의하여 포함되는 저장소(미도시됨)에 의하여 수행될 수 있다. 이러한 저장소는 컴퓨터 판독 가능한 기록 매체를 포함하는 개념으로서, 협의의 데이터베이스뿐만 아니라 파일 시스템에 기반을 둔 데이터 기록 등을 포함하는 광의의 데이터베이스일 수도 있다.In addition, the character and image interpretation system 200 further stores the information about the attitude or movement provided from at least one of the smart devices 300, and further makes it available for use by at least one of the smart devices 300 can do. The storage described above may be performed by a repository (not shown) included by the character and image interpretation system 200. Such a repository is a concept including a computer-readable recording medium, and may be a broad database including a data base based on a file system as well as a consultation database.

문자 및 이미지 해석 시스템(200)의 세부 사항에 관하여는 아래에서 더 자세하게 알아보기로 한다. 한편, 문자 및 이미지 해석 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 문자 및 이미지 해석 시스템(200)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 조작의 대상이 되는 스마트 디바이스(310) 중 적어도 하나에서 실현되거나 포함될 수도 있음은 당업자에게 자명하다.Details of the character and image interpretation system 200 will be described in more detail below. Although the above description has been made with respect to the character and image interpretation system 200, this description is exemplary and at least some of the functions or components required by the character and image interpretation system 200 may be subject to manipulation It will be apparent to those skilled in the art that the present invention may be realized or embodied in at least one of the smart devices 310. [

마지막으로, 본 발명의 일 실시예에 따른 스마트 디바이스(310)는 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 스마트 디바이스(310)로서 채택될 수 있다. 스마트 디바이스(310)는 스마트폰, 스마트패드, 스마트 글래스, 스마트 워치, 스마트 밴드, 스마트 링 등과 같은 소위 스마트 디바이스이거나 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기, 버튼, 마우스, 키보드, 전자 펜 등과 같은 다소 전통적인 디바이스일 수 있다.Lastly, the smart device 310 according to an embodiment of the present invention is a digital device including a function of communicating after the connection, and a digital device equipped with a memory means and equipped with a microprocessor for computation May be employed as the smart device 310 according to the present invention. The smart device 310 may be a so-called smart device such as a smart phone, a smart pad, a smart glass, a smart watch, a smart band, smart ring or the like or a desktop computer, a notebook computer, a workstation, a PDA, a web pad, A keyboard, an electronic pen, and the like.

특히, 본 발명의 일 실시예에 따르면, 스마트 디바이스(310)에는 사용자로부터의 조작을 입력 받을 수 있는 기술 수단이 적어도 하나 포함될 수 있다. 이러한 기술 수단의 예로서, 공지의 구성요소인, 터치 패널, 포인팅 도구(예를 들면, 마우스, 스타일러스, 전자 펜 등), 사용자 조작이 가능한 그래픽 객체, 키보드, 토글 스위치, 생채 정보(지문 등) 인식 센서, 거리 센서 등을 들 수 있다.In particular, according to an embodiment of the present invention, the smart device 310 may include at least one technical means capable of receiving an operation from the user. Examples of such technical means include a touch panel, a pointing tool (e.g., a mouse, a stylus, an electronic pen, etc.), a graphical object that can be operated by a user, a keyboard, a toggle switch, A recognition sensor, a distance sensor, and the like.

또한, 본 발명의 일 실시예에 따르면, 스마트 디바이스(310)는 그 스마트 디바이스(310)의 자세나 움직임에 관한 물리적인 정보를 획득할 수 있는 기술 수단이 적어도 하나 포함될 수 있다. 이러한 기술 수단의 예로서, 공지의 구성요소인, 카메라, 스캐너, 움직임 센서, 가속도 센서, 자이로, 자기 센서, 위치 결정 모듈(GPS 모듈, 비콘 기반의 위치 결정(확인) 모듈 등), 기압계, 거리 센서 등을 들 수 있다.In addition, according to an embodiment of the present invention, the smart device 310 may include at least one technical means for acquiring physical information about the posture or movement of the smart device 310. [ Gyro, magnetic sensor, positioning module (GPS module, beacon-based positioning module, etc.), a barometer, a distance sensor, Sensors and the like.

또한, 스마트 디바이스(310)에는 위와 같은 물리적인 정보를 처리하여 다른 스마트 디바이스(310)에 대하여 정보나 제어 명령을 제공하거나 다른 스마트 디바이스(310)로부터 정보나 제어 명령을 제공 받거나 이러한 정보나 제어 명령을 생성하기 위한 애플리케이션 프로그램이 더 포함되어 있을 수 있다. 이러한 애플리케이션은 해당 스마트 디바이스(310) 내에서 프로그램 모듈의 형태로 존재할 수 있다. 이러한 프로그램 모듈의 성격은 전술한 바와 같은 문자 및 이미지 해석 시스템(200)의 제어부와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.Also, the smart device 310 may process the above physical information to provide information or control commands to other smart devices 310, receive information or control commands from other smart devices 310, May further include an application program for generating the application program. Such an application may reside in the form of a program module within the smart device 310. The nature of such a program module may be generally similar to the control of the character and image interpretation system 200 as described above. Here, the application may be replaced with a hardware device or a firmware device, at least some of which can perform substantially the same or equivalent functions as necessary.

이를 위한 예시는 다음과 같다.An example for this is as follows.

1.카메라 입력이 가능한 인풋 박스. 1. Input box with camera input.

-Swipe, Gesture를 Trigger로 이용한 인풋 박스로, 한정된 영역에서 카메라를 켜는 동작 실행. (카메라 영역은 사용자가 설정가능)-Swipe, input box using Gesture as Trigger, execute the operation to turn on the camera in the limited area. (Camera area can be set by user)

-인풋 박스 이외의 영역은 카메라로 비추는 위치확인을 위해 투명도를 조절하여 표시 가능. - The area other than the input box can be displayed by adjusting the transparency to check the position of the camera.

-인풋 박스의 사이즈가 기존 텍스트 입력 때 보다 좌우로 넓어 질 수 있음.- The size of the input box can be wider than the existing text input.

2.인풋 박스에 보이는 키워드를 입력. 2. Enter the keyword shown in the input box.

-인풋 박스로 한정된 카메라 영역에서 보이는 이미지 속 텍스트를 멀티터치, 터치, Swipe등을 이용하여 선택 입력 가능. 편집하여 선택취합 가능. - You can select the text in the image displayed in the camera area limited by the input box using multi touch, touch, swipe, etc. Editable and selectable.

-카메라로 보이는 텍스트들이 의미단위로 버튼화 될 수 있음. - The texts displayed by the camera can be buttoned in semantic units.

-인풋 박스로 한정된 카메라 영역에 보이는 텍스트가 키보드에 추가적으로 추천 단어로 표시되고 터치하여 입력할 수 있음. - The text displayed in the camera area defined by the input box is displayed as an additional word on the keyboard and can be touched.

-카메라로 보이는 영역을 터치를 이용하여 네비게이션 할 수 있음. (디바이스 자체를 움직이지 않아도 됨) - You can use the touch to navigate the area visible by the camera. (You do not have to move the device itself)

3.입력 키워드 조합 생성. 3. Create input keyword combinations.

-Trigger 실행 시 타이핑으로 입력된 텍스트가 있는 경우, 카메라로 보이는 키워드와 조합으로 입력 실시. -Trigger If there is text entered by typing at the time of execution, input by combination with keyword which is seen by camera.

-Trigger 실행 후 타이핑으로 텍스트 입력이 있을 시, 카메라로 인식된 키워드와 조합으로 입력 실행. -Trigger Execute input in combination with keywords recognized by camera when there is text input by typing after execution.

-타이핑된 텍스트를 카메라로 인식된 텍스트 사이나 앞, 뒤에 배치하도록 사용자가 편집, 구성할 수 있음. (이미지 합성 및 처리)- The user can edit and organize the typed text to be placed before or after the text recognized by the camera. (Image synthesis and processing)

4.주위 키워드 검색 및 자동완성 추천 기능. 4. Nearby keyword search and auto-completion feature.

-타이핑으로 키워드를 입력한 후, Trigger 실행 또는 Trigger 실행 후, 타이핑으로 키워드 입력 시, - After inputting keyword by typing, after executing Trigger or Trigger, when typing keyword by typing,

-카메라로 인식 가능한 전체 영역에서 입력된 키워드가 들어간 영역을 찾아 Cropping 하여 자동완성 및 추천해 줄 수 있음. - It can auto-complete and recommend by cropping the area containing the input keyword in the entire area that can be recognized by the camera.

5.카메라의 구성은 다양한 종류의 카메라 사용가능. 카메라에 따라 360도로 서치도 가능. 5. Various types of cameras can be used for camera configuration. You can search 360 degrees according to the camera.

6.검색 입력식, 키워드를 통한 Trigger 가능. (예, “카메라”+ 친구들 등) 6. Trigger through search input type and keyword. (Eg, "camera" + friends, etc.)

7.입력창의 종류와 사용자의 히스토리에 따른 카메라 인풋내용 결정 및 자동완성.7. Determine and auto-complete camera input based on the type of input window and user's history.

-입력창의 종류를 파악하고 카메라로 인풋되는 이미지에서 해당 콘텐츠를 추출해냄.- Identify the type of input window and extract the content from the image input by the camera.

-추출한 내용은 자동완성 기능으로 사용자에게 인풋창에서 제공함- The extracted contents are provided to the user in the input window by the auto completion function.

-자동완성과 함께 해당 콘텐츠의 방향을 함께 표시하는 인디케이터 가능- Indicators that indicate the direction of the content along with autocomplete

-사용자가 해당 입력창에 자주 입력하는 히스토리를 분석하여 관련된 콘텐츠를 카메라에서 들어온 이미지에서 분석하여 자동완성으로 제공 - Analyzes the history that the user frequently input in the input window, analyzes the related contents from the image received from the camera, and provides it with auto completion

8.입력창에서 카메라 붙여 넣기의 유저 인터페이스를 사용할 수 있음.8. You can use the camera paste user interface in the input window.

-롱터치로 입력차에 Copy & paste를 할 때 카메라 붙여넣기 기능도 함께 UI로 제공- When you copy & paste to the input car with long touch, the camera paste function is also provided in UI

-카메라 붙여넣기 기능 실행시 주변에 카메라로 인식되는 이미지 중 해당 입력창의 적합한 내용을 자동완성으로 제공함. - When the camera paste function is executed, it automatically provides the appropriate contents of the corresponding input window among the images recognized by the camera in the vicinity.

-가장 유사한 콘텐츠는 입력창에 입력하여 대기. - Enter the most similar content into the input window and wait.

도 2는 본 발명의 일 실시예에 있어서, 스마트폰을 이용하여 명함을 촬영하는 것을 나타내는 도면이다.Fig. 2 is a diagram showing shooting of a business card using a smartphone, according to an embodiment of the present invention. Fig.

먼저 도 2를 참조하면, 스마트 디바이스(310)는 후면에 카메라(311)을 포함하고, 입력창(312)을 전면에 출력할 수 있다. 이때 입력창(312)은 문자 입력이 가능하거나 카메라(311)를 이용하여 문자 및 이미지 해석 시스템(200)를 통해 도출 된 결과값을 입력하거나 혹은 상기 두 가지를 동시에 수행할 수 있다. 명함(400)은 이미지 혹은 문자의 추출이 가능한 다양한 사물 중 하나의 예시로서, 이미지나 문자 중 적어도 하나 이상을 포함할 수 있다.Referring first to FIG. 2, the smart device 310 includes a camera 311 on its rear surface, and can output an input window 312 to the front side. At this time, the input window 312 can input characters or input result values derived through the character and image analysis system 200 using the camera 311, or can simultaneously perform the above two operations. The business card 400 is an example of one of various objects from which an image or characters can be extracted, and may include at least one of an image and a character.

도 3은 본 발명의 일 실시예에 있어서, 스마트폰의 카메라를 이용하여 명함 내의 텍스트를 불러오는 것을 나타내는 도면이다.FIG. 3 is a diagram illustrating the loading of text in a business card using a camera of a smartphone, according to an embodiment of the present invention. FIG.

후면의 카메라(311)를 통해 전방이 스마트 디바이스(310)의 스크린에 표시되고 이 때, 입력창(312) 내부로 명함 내의 문자 혹은 인물사진이 입력되는 순간 스마트 디바이스(310) 내부 혹은 외부의 문자 및 이미지 해석 시스템(200)을 통해 해석된 결과값이 다시 입력창(312)에 키워드 형태로 입력된다. 이 때, 간편한 이해를 위해 입력창(312)은 긴 직사각형의 형태로 도시되었으나, 필요에 의해 여러 형태와 크기의 설정이 가능하다.The front side is displayed on the screen of the smart device 310 through the camera 311 on the rear side and at this time when characters or a portrait in the business card are input into the input window 312, And the image interpretation system 200 are input into the input window 312 again in the form of a keyword. In this case, although the input window 312 is shown as a long rectangle for easy understanding, various shapes and sizes can be set as necessary.

도 4는 본 발명의 일 실시예에 있어서, 이미지 인식을 이용하여 촬영 된 사진 내의 인물사진을 불러오는 것을 나타내는 도면이다.Fig. 4 is a diagram showing the loading of a portrait in a photographed image using image recognition in an embodiment of the present invention; Fig.

명함(400)이 적어도 두 개 이상 나열하여 카메라로 촬영 후, 내부 혹은 외부의 문자 및 이미지 해석 시스템(200)의 결과값이 출력된다. 이때 입력창(312)에 이에 상응하는 'Photo'라는 단어를 입력할 경우 자동완성 기능을 통해 상기 결과값 중 인물사진들이 선택되어 나열되고, 'name 이라는 단어를 입력할 경우 자동완성 기능을 통해 상기 결과값 중 이름들이 선택되어 나열되며, 'number'라는 단어를 입력할 경우 자동완성 기능을 통해 상기 결과값 중 핸드폰 번호 혹은 집 번호들이 선택되어 나열된다.At least two business cards 400 are arranged and captured by the camera, and the result of the character or image interpretation system 200 is output. At this time, when the word 'Photo' corresponding to the word 'Photo' is inputted into the input window 312, the character photographs among the result values are selected and listed through the automatic completion function. When the word 'name' is inputted, When the word 'number' is input, the mobile phone number or the home number among the result values are selected and listed through the automatic completion function.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

100: 통신망
200: 문자 및 이미지 해석 시스템
310: 스마트 디바이스
100: Network
200: Character and image interpretation system
310: Smart Device

Claims (3)

광학 데이터를 이용한 검색 방법에 있어서,
광학 데이터가 입력되는 단계; 상기 광학 데이터로부터 검색데이터를 추출하는 단계; 상기 추출된 검색데이터가 인풋박스에 입력되는 단계; 상기 입력된 검색 데이터에 기초하여 검색을 수행하는 단계;
를 포함하는 것을 특징으로 하는 촬영된 사진 내 텍스트를 이용한 검색 방법.
A method of searching using optical data,
Inputting optical data; Extracting search data from the optical data; Inputting the extracted search data into an input box; Performing a search based on the input search data;
The method of claim 1, further comprising:
제 1항에 있어서,
상기 추출단계에서 광학 데이터의 범위를 선택하는 방법.
The method according to claim 1,
And selecting a range of optical data in the extracting step.
제 1항에 있어서,
상기 입력단계에서 텍스트 데이터를 버튼형태로 생성시켜 인풋 결정과 편집을 수행하는 방법.
The method according to claim 1,
Wherein the text data is generated in the form of a button in the input step to perform input determination and editing.
KR1020150010504A 2015-01-22 2015-01-22 Method for searching information using text in taken picture KR20160090938A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150010504A KR20160090938A (en) 2015-01-22 2015-01-22 Method for searching information using text in taken picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150010504A KR20160090938A (en) 2015-01-22 2015-01-22 Method for searching information using text in taken picture

Publications (1)

Publication Number Publication Date
KR20160090938A true KR20160090938A (en) 2016-08-02

Family

ID=56708113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150010504A KR20160090938A (en) 2015-01-22 2015-01-22 Method for searching information using text in taken picture

Country Status (1)

Country Link
KR (1) KR20160090938A (en)

Similar Documents

Publication Publication Date Title
US9792708B1 (en) Approaches to text editing
US9916514B2 (en) Text recognition driven functionality
KR102314274B1 (en) Method for processing contents and electronics device thereof
US20180107359A1 (en) Text processing method and device
US9274704B2 (en) Electronic apparatus, method and storage medium
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
US9134833B2 (en) Electronic apparatus, method, and non-transitory computer-readable storage medium
US20130300675A1 (en) Electronic device and handwritten document processing method
US9207808B2 (en) Image processing apparatus, image processing method and storage medium
US20150123988A1 (en) Electronic device, method and storage medium
US20150220778A1 (en) Smart optical input/output (i/o) extension for context-dependent workflows
US20150169948A1 (en) Electronic apparatus and method
EP2871571A1 (en) Electronic apparatus and method for inputting strings by handwriting
JP2014052914A (en) Information processor and handwritten document retrieval method
EP2806336A1 (en) Text prediction in a text input associated with an image
US20160117548A1 (en) Electronic apparatus, method and storage medium
CN103529933A (en) Method and system for controlling eye tracking
US20140105503A1 (en) Electronic apparatus and handwritten document processing method
US10127478B2 (en) Electronic apparatus and method
JP5735126B2 (en) System and handwriting search method
KR20150097250A (en) Sketch retrieval system using tag information, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor
KR20160090938A (en) Method for searching information using text in taken picture
US20170177557A1 (en) Relational database for assigning orphan fillable fields of electronic fillable forms with associated captions
JP2017514225A (en) Smart optical input / output (I / O) extension for context-sensitive workflows
KR20150100332A (en) Sketch retrieval system, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor

Legal Events

Date Code Title Description
SUBM Surrender of laid-open application requested