KR20200127928A - Method and apparatus for recognizing object of image in electronic device - Google Patents

Method and apparatus for recognizing object of image in electronic device Download PDF

Info

Publication number
KR20200127928A
KR20200127928A KR1020200140483A KR20200140483A KR20200127928A KR 20200127928 A KR20200127928 A KR 20200127928A KR 1020200140483 A KR1020200140483 A KR 1020200140483A KR 20200140483 A KR20200140483 A KR 20200140483A KR 20200127928 A KR20200127928 A KR 20200127928A
Authority
KR
South Korea
Prior art keywords
image
display
information
recognition
processor
Prior art date
Application number
KR1020200140483A
Other languages
Korean (ko)
Other versions
KR102303206B1 (en
Inventor
손동일
정철호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130143096A external-priority patent/KR102173123B1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200140483A priority Critical patent/KR102303206B1/en
Publication of KR20200127928A publication Critical patent/KR20200127928A/en
Application granted granted Critical
Publication of KR102303206B1 publication Critical patent/KR102303206B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • H04M1/72583
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

The present invention relates to a method and a device for recognizing a specific object in an image in an electronic device. The method for recognizing a specific object in an image in an electronic device can comprise the following steps of: displaying at least one image; detecting at least one gesture; selecting a recognition function associated with at least one object in the at least one image according to the gesture; recognizing the at least one object by using the selected recognition function. Various other embodiments are possible.

Description

전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치{METHOD AND APPARATUS FOR RECOGNIZING OBJECT OF IMAGE IN ELECTRONIC DEVICE}A method and apparatus for recognizing a specific object in an image in an electronic device {METHOD AND APPARATUS FOR RECOGNIZING OBJECT OF IMAGE IN ELECTRONIC DEVICE}

본 발명의 다양한 실시예는 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치에 관한 것이다.Various embodiments of the present invention relate to a method and apparatus for recognizing a specific object in an image in an electronic device.

종래에 터치 스크린 인터페이스는 그래픽 사용자 인터페이스(Graphical User Interface: GUI)를 통해 카메라의 이미지 촬영과 연관된 기본적인 기능을 제공하기 위한 용도로 사용되고 있다. 예를 들어, 사진 촬영 모드, 동영상 촬영 모드, 파노라마 사진 촬영 모드 등을 이용하기 위해, 촬영 모드를 나타내는 하나 이상의 아이콘이나 리스트에서 특정 아이콘 혹은 특정 아이템을 탭(tap)하거나 터치(touch)하여 촬영 모드를 선택하여 구동시킬 수 있다. 이러한 방식은 카메라의 촬영 모드나 촬영을 위한 기본 기능을 선택하기 위한 것으로, 위의 사용 예 외에 터치스크린 인터페이스를 통해 다른 기능을 구동시킬 수도 있다. 예컨대, 사용자는 휴대용단말기 및 스마트폰 같은 전자장치에 장착된 이미지 센서를 통해 사진을 촬영하는 목적이 외에, 프리뷰 상태에서 피사체에 있는 특정 정보를 읽어들이는 용도로 사용되고 있다.Conventionally, a touch screen interface is used for providing basic functions related to image capture by a camera through a graphical user interface (GUI). For example, in order to use a photo shooting mode, a video shooting mode, a panoramic photo shooting mode, etc., a shooting mode by tapping or touching a specific icon or specific item from one or more icons or lists representing the shooting mode. You can select and run it. This method is for selecting a shooting mode of the camera or a basic function for shooting, and other functions may be driven through a touch screen interface in addition to the above example. For example, in addition to the purpose of taking a picture through an image sensor mounted on an electronic device such as a portable terminal and a smart phone, the user is used for reading specific information on a subject in a preview state.

특히, 최근에 카메라를 이용하는 다양한 인식기술, 예를 들어 바코드, 2차원 코드, 컬러기반 코드, 명함 인식, 얼굴인식 등과 같은 애플리케이션들이 보급되고 있다. 일반적으로 인식할 객체의 종류에 따라 별도의 애플리케이션을 구동하거나, 동일 애플리케이션에서 특정 인식모듈의 종류를 선택하기 위해 터치스크린 인터페이스가 이용될 수 있다.In particular, applications such as barcode recognition, two-dimensional code, color-based code, business card recognition, face recognition, etc., have been widely used in recent years. In general, a touch screen interface may be used to drive a separate application according to the type of object to be recognized, or to select a type of a specific recognition module in the same application.

전자장치에서 명함, 바코드 혹은 QR(Quick Response) 코드를 인식하기 위한 애플리케이션은 이미지 센서를 통해 특정 명함, 바코드 및 QR코드에 대응하는 이미지를 획득한 후, 해당 이미지 내에서 바코드 및 QR코드를 추출하여 추출된 코드에 포함된 정보를 디스플레이할 수 있다.An application for recognizing a business card, barcode or QR (Quick Response) code in an electronic device acquires an image corresponding to a specific business card, barcode and QR code through an image sensor, and then extracts the barcode and QR code from the image. Information included in the extracted code can be displayed.

이미지 센서를 통해 획득된 이미지 전체에서 인식할 객체의 영역을 추출하는 방식은 연산량과 시간이 많이 소요되고 잘못된 영역을 추출할 가능성이 커질 수 있다. 따라서, 인식률과 영상 처리 효율을 높이기 위하여 이미지의 소정의 제한된 영역 안에서만 인식이 이루어지도록 인식 영역을 생성하고 해당 인식 영역의 범위를 디스플레이에 표시할 수 있다. 이러한 방법의 예로 해당 애플리케이션에서 카메라 센서를 통해 실시간으로 획득되는 프리뷰 영상을 디스플레이하고, 인식할 소정의 고정된 영역의 범위를 직사각형이나 정사각형 형태의 사용자 인터페이스로 표시하는 경우가 있다.The method of extracting the area of the object to be recognized from the entire image acquired through the image sensor takes a lot of computation and time, and may increase the possibility of extracting the wrong area. Accordingly, in order to increase the recognition rate and image processing efficiency, a recognition area can be created so that recognition is performed only within a predetermined limited area of an image, and the range of the corresponding recognition area can be displayed on the display. As an example of such a method, a preview image acquired in real time through a camera sensor is displayed in a corresponding application, and a range of a predetermined fixed area to be recognized is displayed in a rectangular or square user interface.

또 다른 예로는 촬영된 사진 이미지에서 터치 스크린 인터페이스를 통해 인식할 특정 영역의 크기와 위치를 조절하는 방식이 있을 수 있다. 일반적으로 이러한 방법은 명함, 바코드 및 QR 코드를 인식하기 위한 전용 애플리케이션에서 이용되므로, 일반적인 카메라 촬영 애플리케이션과는 별도로 존재하는 경우가 많다. 하지만, 이러한 경우 별도의 애플리케이션을 사용자가 직접 구동해야 하며, 메뉴나 아이콘 등이 각각 별개로 존재하므로 사용자가 해당 애플리케이션을 찾아 실행해야하는 불편함이 있을 수 있다.As another example, there may be a method of adjusting the size and position of a specific area to be recognized through a touch screen interface in a captured photo image. In general, since this method is used in a dedicated application for recognizing business cards, barcodes and QR codes, it is often present separately from general camera shooting applications. However, in this case, a user must directly drive a separate application, and since menus or icons exist separately, there may be inconvenience in that the user must find and execute the application.

또 다른 방법으로는 카메라 앱 내부에 해당 인식모듈을 선택하도록 별도의 메뉴나 아이콘 등을 추가하는 형태로 구현할 수도 있다. 이러한 경우에도 해당 메뉴나 아이콘을 선택하기 위해 여러 서브 메뉴 경로를 거쳐야하므로, 사용자가 불편함을 느낄 수 있다.Alternatively, it can be implemented in the form of adding a separate menu or icon to select the corresponding recognition module inside the camera app. Even in this case, since several sub-menu paths must be passed to select a corresponding menu or icon, the user may feel uncomfortable.

또한, 획득된 이미지에서 복수 개의 인식대상 객체가 존재하거나 복수 종류의 객체들이 존재하는 경우에 발생한다. 이러한 경우, 사용자가 인식할 객체에 대해 각각 카메라 포즈나 줌 등을 조절하여 촬영한 이미지에서 인식 영역을 지정해야하는 불편함이 있다. 특히 복수 인식모듈 종류로 구성된 복수 개의 인식대상 객체들을 인식하는 경우 이를 처리하기 위해 복수 개의 인식모듈을 순차적으로 구동하거나 사용자 인터페이스를 통해 인식모듈 종류를 지정해야 하므로 연산량이 증대하거나 실시간 인식이 어려워질 수 있다.In addition, it occurs when a plurality of objects to be recognized exist or a plurality of types of objects exist in the acquired image. In this case, it is inconvenient to designate a recognition area in an image captured by adjusting a camera pose or zoom for an object to be recognized by the user. In particular, in the case of recognizing a plurality of objects to be recognized consisting of a plurality of recognition module types, it is necessary to sequentially drive a plurality of recognition modules or designate the type of recognition module through a user interface to process them. have.

본 발명의 다양한 실시 예들은 위에 기술한 문제점을 해소하기 위해 전자장치에서 내의 특정 객체를 인식하기 위한 방법 및 장치를 제공할 수 있다.Various embodiments of the present disclosure may provide a method and apparatus for recognizing a specific object within an electronic device in order to solve the above-described problem.

본 발명의 다양한 실시 예들은 전자장치에서 이미지 센서의 기본적인 기능에 더하여 정보의 획득을 위하여 이미지 센서로 획득되는 이미지를 해석하고, 정보에 맞는 객체 인식모듈을 실행시키는 방법 및 방법을 제공할 수 있다.Various embodiments of the present disclosure may provide a method and method for analyzing an image acquired by an image sensor to acquire information in addition to a basic function of an image sensor in an electronic device, and executing an object recognition module suitable for information.

본 발명의 다양한 실시 예들은 전자장치에서 이미지 센서를 통해 획득된 이미지가 디스플레이될 때, 사용자 손가락, 스타일러스펜, 또는 포인팅 장치를 이용한 사용자 제스처를 통해 인식할 객체의 영역과 종류를 판단하고 객체를 인식함으로써, 사용자가 원하는 객체를 빠르고 편리하게 인식하는 방법 및 장치를 제공할 수 있다.Various embodiments of the present disclosure determine an area and type of an object to be recognized through a user gesture using a user finger, a stylus pen, or a pointing device when an image acquired through an image sensor is displayed on an electronic device, and recognize the object. By doing so, it is possible to provide a method and apparatus for quickly and conveniently recognizing an object desired by a user.

상기한 목적들을 달성하기 위한 본 발명의 다양한 실시 예에 따르면, 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법에 있어서, 적어도 하나 이상의 이미지를 디스플레이하는 동작, 적어도 하나의 제스처를 검출하는 동작, 상기 제스처에 따라, 상기 적어도 하나 이상의 이미지에 있는 적어도 하나 이상의 객체와 연관된 인식기능을 선택하는 동작, 상기 선택된 인식기능을 인용하여, 상기 적어도 하나 이상의 객체를 인식하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure for achieving the above objects, in a method for recognizing a specific object in an image in an electronic device, displaying at least one image, detecting at least one gesture, the According to a gesture, an operation of selecting a recognition function associated with at least one or more objects in the at least one or more images, and an operation of recognizing the at least one or more objects by quoting the selected recognition function.

상기한 목적들을 달성하기 위한 본 발명의 다양한 실시 예에 따르면, 적어도 하나의 프로세서, 적어도 하나의 메모리 및 상기 메모리에 저장되며, 상기 적어도 하나의 프로세서에 의해 실행 가능하도록 구성되는 적어도 하나의 프로그램(program)을 포함하며, 상기 프로그램은, 적어도 하나 이상의 이미지를 디스플레이하고, 적어도 하나의 제스처를 검출하고, 상기 제스처에 따라, 상기 적어도 하나 이상의 이미지에 있는 적어도 하나 이상의 객체와 연관된 인식기능을 선택하고, 상기 선택된 인식기능을 인용하여, 상기 적어도 하나 이상의 객체를 인식하는 명령어들을 포함할 수 있다.According to various embodiments of the present invention for achieving the above objects, at least one processor, at least one memory, and at least one program stored in the memory and configured to be executable by the at least one processor. ), wherein the program displays at least one image, detects at least one gesture, selects a recognition function associated with at least one object in the at least one image, according to the gesture, and the By referring to the selected recognition function, commands for recognizing the at least one object may be included.

상술한 바와 같이, 이미지 센서로부터 획득된 이미지를 처리하는 비슷한 여러 애플리케이션이 수행하는 관련 기능들을 하나의 카메라 애플리케이션에 통합함으로써, 사용자가 촬영기능 이외에 명암, 바코드 또는 QR 코드 인식 같은 다른 기능에 쉽게 접근할 수 있도록 할 수 있다.As described above, by integrating related functions performed by several similar applications that process images acquired from image sensors into one camera application, users can easily access other functions such as contrast, barcode or QR code recognition in addition to the shooting function. You can do it.

또한, 프리뷰 상태에서 터치스크린을 통한 사용자 제스처를 통해 이미지의 특정 영역과 초점을 정의하고 또한 상기 이미지의 특정 영역의 영상 정보를 해석할 인식모듈을 선택하는 방법을 제공함으로써, 사용자 편의를 증대시킬 수 있다.In addition, user convenience can be increased by providing a method of defining a specific area and focus of an image through a user gesture through a touch screen in the preview state and selecting a recognition module to analyze image information of the specific area of the image. have.

다양한 실시 예들은 바코드, 2차원 이미지 코드, 얼굴인식, 문자인식뿐만 아니라 인물인식이나 객체인식과 같은 다양한 분야에 적용될 수 있다. 한 예로 카메라 영상의 프리뷰나 촬영된 이미지뿐만 아니라 비디오 파일의 재생 혹은 중지(pause) 등의 상태에서 디스플레이된 이미지를 대상으로 등장인물이나 건물 인식과 같은 서비스를 제공할 수 있다.Various embodiments may be applied not only to barcodes, 2D image codes, face recognition, and character recognition, but also to various fields such as person recognition or object recognition. For example, a service such as character or building recognition may be provided for not only a preview of a camera image or a captured image, but also an image displayed in a state such as playback or pause of a video file.

본 발명의 다양한 실시 예들은 잡지나 신문 등과 같은 인쇄매체에 여러 상품과 상품명이나 관련 정보에 대한 바코드, 2차원 코드, 텍스트 이미지 등이 있을 때, 원하는 코드나 텍스트, 이미지를 선택하고 이에 대해 정보를 제공하는데 편리함을 제공할 수도 있다.Various embodiments of the present invention, when there are barcodes, two-dimensional codes, text images, etc. for various products and product names or related information in a print medium such as magazines or newspapers, select a desired code, text, or image, and provide information about this. It may also provide convenience to provide.

종래 방법은 화면 중앙부의 가이드와 같은 특정한 인식 위치가 필요하며, 화면에서 특정한 이미지나 인식모듈 종류를 지정하거나 선택하는 것이 어려웠고, 일부의 경우 2개 이상의 인식모듈을 번갈아가면서 구동하는 방법을 사용하므로 연산량이 많아질 수 있다.Conventional methods require a specific recognition location such as a guide at the center of the screen, and it was difficult to designate or select a specific image or recognition module type on the screen, and in some cases, a method of alternately driving two or more recognition modules is used. This can be a lot.

본 발명의 다양한 실시 예들은 사용자 제스처 혹은 이에 관련한 지정 영역의 선택 및 패턴 판별에 따라 구동할 인식모듈 종류가 지정되거나 제한되므로 편리하고 빠른 인식 방법을 제공할 수 있다.Various embodiments of the present invention can provide a convenient and fast recognition method because the type of recognition module to be driven is designated or limited according to a user gesture or a selection of a designated area related thereto and a pattern discrimination.

도 1은 본 발명의 다양한 실시 예에 따른 이미지에서 인식영역을 선택하는 사용자 인터페이스를 도시하고 있다.
도 2는 본 발명의 다양한 실시 예에 따른 선택된 인식영역 내의 이미지 내용을 해석하기 위한 인식모듈을 구동하는 사용자 인터페이스를 도시하고 있다.
도 3은 본 발명의 다양한 실시 예에 따른 프리뷰 상태에서 인식영역을 선택하여 상기 선택된 인식영역 내의 이미지 내용을 해석하기 위한 인식모듈을 구동하는 사용자 인터페이스를 도시하고 있다.
도 4는 본 발명의 다양한 실시 예에 따른 명암 내의 QR 코드를 인식하여 상기 QR 코드에 대응하는 정보를 제공하는 예를 도시하고 있다.
도 5는 본 발명의 다양한 실시 예에 따른 전자장치에서 이미지 내용을 인식하기 위한 흐름도를 도시하고 있다.
도 6은 본 발명의 다양한 실시 예에 따른 전자장치에서 이미지 내용을 인식하기 위한 흐름도를 도시하고 있다.
도 7은 본 발명의 다양한 실시 예에 따른 뉴스 기사 내의 특정 URL(Uniform Resource Locator) 주소를 인식하여 웹 브라우저를 통해 상기 URL주소에 대응하는 사이트로 진입하는 예를 도시하고 있다.
도 8은 본 발명의 다양한 실시 예에 따른 이미지로 내의 특정 문자를 인식하여, 상기 인식 결과와 관련된 다수의 애플리케이션을 디스플레이하는 예를 도시하고 있다.
도 9는 본 발명의 다양한 실시 예에 따른 바코드 또는 QR 코드를 인식하여, 상기 인식 결과와 관련된 다수의 애플리케이션을 디스플레이하는 예를 도시하고 있다.
도 10은 본 발명의 다양한 실시 예에 따른 전자장치에서 이미지 내용을 인식하여 관련 애플리케이션을 실행하기 위한 흐름도를 도시하고 있다.
도 11은 본 발명의 다양한 실시 예에 따른 이미지 내에서 복수의 객체를 선택하여 해당 인식모듈을 구동하는 사용자 인터페이스를 도시하고 있다.
도 12는 본 발명의 다양한 실시 예에 따른 이미지 내에서 복수의 객체를 선택하여 해당 인식모듈을 구동하기 위한 흐름도를 도시하고 있다.
도 13은 본 발명의 다양한 실시 예에 따른 카메라의 프리뷰 상태에서 이미지 내용을 인식하기 위한 흐름도를 도시하고 있다.
도 14는 본 발명의 다양한 실시 예에 따른 정보를 포함하는 코드의 종류를 도시하고 있다,
도 15는 본 발명의 다양한 실시 예에 따른 사용자 제스처에 기반하여 QR코드를 인식하는 예를 도시하고 있다.
도 16은 본 발명의 다양한 실시 예에 따른 사용자 제스처에 기반하여 데이터 매트릭스(data matrix) 을 인식하는 예를 도시하고 있다.
도 17은 본 발명의 다양한 실시 예에 따른 사용자 제스처에 기반하여 PDF 417 혹은 바코드를 인식하는 예를 도시하고 있다.
도 18은 본 발명의 다양한 실시 예에 따른 전자 장치에 대한 블록도를 도시하고 있다.
도 19는 본 발명의 다양한 실시 예에 따른 하드웨어 블록도를 도시하고 있다.
도 20은 본 발명의 다양한 실시 예에 따른 프로그래밍 모듈의 블록도를 도시하고 있다.
1 illustrates a user interface for selecting a recognition area from an image according to various embodiments of the present disclosure.
FIG. 2 is a diagram illustrating a user interface for driving a recognition module for analyzing image contents in a selected recognition area according to various embodiments of the present disclosure.
3 is a diagram illustrating a user interface for driving a recognition module for analyzing image contents in the selected recognition area by selecting a recognition area in a preview state according to various embodiments of the present disclosure.
4 is a diagram illustrating an example in which information corresponding to the QR code is provided by recognizing a QR code in light and dark according to various embodiments of the present disclosure.
5 is a flowchart for recognizing image content in an electronic device according to various embodiments of the present disclosure.
6 is a flowchart for recognizing image content in an electronic device according to various embodiments of the present disclosure.
7 illustrates an example of recognizing a specific URL (Uniform Resource Locator) address in a news article and entering a site corresponding to the URL address through a web browser according to various embodiments of the present disclosure.
8 illustrates an example of recognizing a specific character in an image path and displaying a plurality of applications related to the recognition result according to various embodiments of the present disclosure.
9 illustrates an example of recognizing a barcode or a QR code according to various embodiments of the present disclosure and displaying a plurality of applications related to the recognition result.
10 is a flowchart illustrating an example of executing an application by recognizing image content in an electronic device according to various embodiments of the present disclosure.
11 illustrates a user interface for selecting a plurality of objects in an image and driving a corresponding recognition module according to various embodiments of the present disclosure.
12 is a flowchart illustrating a flowchart for selecting a plurality of objects in an image and driving a corresponding recognition module according to various embodiments of the present disclosure.
13 is a flowchart for recognizing image content in a preview state of a camera according to various embodiments of the present disclosure.
14 illustrates types of codes including information according to various embodiments of the present invention.
15 illustrates an example of recognizing a QR code based on a user gesture according to various embodiments of the present disclosure.
16 illustrates an example of recognizing a data matrix based on a user gesture according to various embodiments of the present disclosure.
17 illustrates an example of recognizing a PDF 417 or a barcode based on a user gesture according to various embodiments of the present disclosure.
18 is a block diagram of an electronic device according to various embodiments of the present disclosure.
19 is a block diagram of hardware according to various embodiments of the present disclosure.
20 is a block diagram of a programming module according to various embodiments of the present disclosure.

이하 본 발명의 다양한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings. Further, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary depending on the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

이하, 본 발명의 다양한 실시 예는 전자장치에서 이미지 내용을 인식하기 위한 방법 및 장치에 관해 설명하기로 한다.Hereinafter, various embodiments of the present disclosure will be described with respect to a method and an apparatus for recognizing image content in an electronic device.

도 1은 본 발명의 다양한 실시 예에 따른 이미지에서 인식영역을 선택하는 사용자 인터페이스를 도시하고 있다.1 illustrates a user interface for selecting a recognition area from an image according to various embodiments of the present disclosure.

상기 도 1을 참조하면, 이미지에서 바코드 영역(a) 또는 QR코드 영역(b)이 사용자에 의해 터치되어 선택될 수 있다. 예를 들어, 터치된 위치와 가장 인접한 객체 또는 적어도 터치된 위치의 일부분을 포함하는 객체가 선택될 수 있다. 다양할 실시 예에서, 선택된 객체주변으로 사각형 박스(110)가 활성화되어 표시될 수 있고, 상기 사각형 박스는 사용자에 의해 크기가 더 조절될 수 있다. 객체가 선택되었음을 지시하는 사각형 박스(110)는 하나의 예로써, 본 다양한 실시 예에서 사각형 박스로 제한되지 않으며 다양한 모양의 도형으로 나타날 수도 있다. 상기 이미지는 이미지 센서를 통해 획득된 프리뷰 화면이거나 메모리에 기저장된 이미지(혹은 동영상, 사진)일 수 있다.Referring to FIG. 1, a barcode area (a) or a QR code area (b) in the image may be touched and selected by a user. For example, an object closest to the touched position or an object including at least a portion of the touched position may be selected. In various embodiments, the rectangular box 110 may be activated and displayed around the selected object, and the size of the rectangular box may be further adjusted by the user. The rectangular box 110 indicating that an object has been selected is an example, and is not limited to a rectangular box in the present various embodiments, and may be displayed in various shapes. The image may be a preview screen acquired through an image sensor or an image (or video, photo) previously stored in a memory.

다양한 실시 예에서, 터치 혹은 탭 입력 대신에 호버링(hovering), 드래그, 스위핑 등의 입력으로 객체영역이 선택될 수 있다.In various embodiments, an object region may be selected through input such as hovering, dragging, or sweeping instead of a touch or tap input.

미도시된 또 다른 실시 예에서, 카메라가 장착된 HMD(Head Mounted Display)나 속이 비치는(see-through)형 아이글래스와 같은 경우에는 촬상장치를 통해 입력된 영상이 눈 앞에 장착된 디스플레이를 통해 표시되므로 객체의 선택은 터치장치가 아닌 손이나 손가락의 제스처나 움직임을 이용하여 판별할 수도 있다. 이를 위해 상기 혹은 별도 카메라나 손에 장착된 자이로 센서, 가속도 센서 등에서 손가락 혹은 손의 제스처를 감지하고, 해당 제스처에 따라 대응하는 객체 영역이 선택될 수 있다. 예를 들어 해당 물체와 HMD 사이에 위치하는 손가락의 제스처가 특정 물체 위에서 발생하면 카메라를 통해 손가락 제스처와 위치를 판별할 수 있으며, 또한 해당 위치에 존재하는 특정 물체의 영역을 인식할 수 있다. 어떠한 물체를 손가락이 가리킨 후 동그라미 제스처를 취하거나 손가락을 위아래로 흔들어 표시한다면, 해당 영역에 최소 일부가 위치한 객체의 영역를 지정할 수 있다. 혹은 특정 물체를 손가락 끝으로 가리키며 일정 시간 이상 유지시에, 손가락 끝 방향에 위치하거나 손가락과 인접하거나 혹은 최소한 일부 영역이 오버랩된 객체를 인식하고 이 객체의 영역을 선택하는 동작을 수행할 수도 있다. 이때, 특정 객체와 손가락은 반드시 물리적으로 접촉할 필요가 없으며, 손가락 끝 이미지가 가리키는 가장 인접한 객체 이미지 혹은 손가락 이미지가 해당 객체 이미지의 최소한 일부 영역과 접촉하거나 가림으로써 해당 객체가 무엇인지를 판별할 수도 있다. 다만, 객체 이미지를 가린 경우에는 가리기 이전의 입력된 이미지를 사전에 저장하고, 이에서 해당 객체 이미지를 메모리 상에서 복원함으로써 해당 객체 이미지의 영역을 확인할 수도 있다. 또 다른 예로는 해당 제스처 발생시 객체 선택 동작임을 인식하고, 제스처가 종료되고 해당 객체 영역에서 손가락이나 손의 이미지가 벗어나면, 객체 영역을 판별할 수도 있다.In another embodiment not shown, in the case of an HMD (Head Mounted Display) equipped with a camera or a see-through type eyeglass, an image input through an imaging device is displayed through a display mounted in front of the eye. Therefore, the selection of an object may be determined using a gesture or movement of a hand or finger, not a touch device. To this end, a gesture of a finger or a hand may be detected by the above or a separate camera or a gyro sensor or an acceleration sensor mounted on the hand, and a corresponding object region may be selected according to the gesture. For example, when a gesture of a finger positioned between a corresponding object and an HMD occurs on a specific object, the finger gesture and position may be determined through a camera, and an area of a specific object existing at the corresponding position may be recognized. When a finger points to an object and then a circle gesture is made or the finger is shaken up and down to display, the area of the object at least partially located in the corresponding area can be designated. Alternatively, when a specific object is pointed with a fingertip and held for a predetermined period of time or longer, an operation of recognizing an object positioned in the direction of the fingertip, adjacent to the finger, or at least partially overlapping with the fingertip and selecting a region of the object may be performed. At this time, the specific object and the finger do not necessarily have to physically contact the object, and the closest object image or finger image pointed to by the fingertip image may contact or cover at least a partial area of the object image to determine what the object is. have. However, when the object image is covered, the input image prior to the hiding is stored in advance, and the corresponding object image is restored in memory to check the area of the object image. As another example, when a corresponding gesture occurs, it is recognized that it is an object selection operation, and when the gesture ends and an image of a finger or hand deviates from the object area, the object area may be determined.

이러한 객체영역이 선택되면, 해당 객체영역이 선택되었음을 그래픽, 사운드, 음성, 햅틱 피드백을 통해 사용자에게 알릴 수도 있다.When such an object area is selected, the user may be notified that the corresponding object area is selected through graphic, sound, voice, and haptic feedback.

도 2는 본 발명의 다양한 실시 예에 따른 선택된 인식영역 내의 객체를 해석하기 위한 인식모듈을 구동하는 사용자 인터페이스를 도시하고 있다. 여기서, 인식모듈은 바코드, QR 코드, 문자 같은 객체를 인식하기 위한 모듈로써, 소프트웨어 혹은 하드웨어로 구현될 수 있다. 이하 객체 인식모듈이라 칭하기로 한다.2 is a diagram illustrating a user interface for driving a recognition module for analyzing an object in a selected recognition region according to various embodiments of the present disclosure. Here, the recognition module is a module for recognizing objects such as barcodes, QR codes, and characters, and may be implemented as software or hardware. Hereinafter, it will be referred to as an object recognition module.

상기 도 2를 참조하면, 상기 도 1에서 선택되는 바코드 영역 혹은 QR 코드 영역을 해석하기 위한 객체 인식모듈을 구동하는 예를 도시하고 있다.Referring to FIG. 2, an example of driving an object recognition module for analyzing a barcode area or a QR code area selected in FIG. 1 is shown.

예를 들어, 상기 도 1의 (a)에서 사용자 터치 입력에 의해 바코드 영역이 선택된 후, 터치 후 좌측에서 우측으로 드래그하는 사용자 제스처(이하 스와이프 동작이라 칭함)가 검출되면, 해당 객체 인식모듈(또는 바코드 인식모듈)이 구동되어 바코드가 인식될 수 있다.For example, in Fig. 1(a), when a barcode area is selected by a user touch input and a user gesture (hereinafter referred to as a swipe operation) of dragging from left to right after touching is detected, the object recognition module ( Alternatively, a barcode recognition module) may be driven to recognize a barcode.

이때, 스와이프 동작 같은 사용자 제스처는 하나의 실시 예로 본 다양한 실시 예에서 제안되지 않으며 환경 설정을 통해 사용자에 의해 다양하게 정의될 수 있다.In this case, a user gesture such as a swipe operation is not suggested in the various embodiments as an example, and may be variously defined by the user through environment setting.

또한, 다수 사용자 제스처와 다수 객체 인식모듈은 매핑되어, 사용자 제스처에 대응하는 객체 인식모듈이 바로 실행될 수 있다.In addition, a plurality of user gestures and a plurality of object recognition modules are mapped, so that an object recognition module corresponding to the user gesture may be executed immediately.

다른 다양한 실시 예에서, 사용자 제스처는 객체 인식모듈 구동을 위한 명령으로 사용되고, 어떤 객체 인식모듈을 이용할지는 자동으로 객체 종류를 분석하여 해당 객체 인식모듈을 선택한 후에 구동시킬 수 있다. 하기 도 15 내지 하기 도 17에서 객체 종류를 판단하는 예를 참고하기로 한다.In other various embodiments, the user gesture is used as a command for driving an object recognition module, and which object recognition module is used may be driven after automatically analyzing an object type and selecting a corresponding object recognition module. Reference will be made to an example of determining an object type in FIGS. 15 to 17 below.

일반적으로, 바코드, 명함, 2차원 코드 인식 등의 경우 이미지의 선명도에 따라 인식성능이 영향을 받을 수 있기 때문에, 선택된 객체 영역을 중심으로 초점을 맞추어 사용자 제스처를 인식하면 더 좋은 인식률을 기대할 수 있다. 이를 위해, 객체 영역이 선택될 때 동시에 선택된 객체를 중심으로 초점이 맞추어져 객체 인식이 수행될 수 있다. 다양한 실시 예로, 자동 혹은 수동으로 특정 영역에 초점이 맞추어지는 경우 초점이 맞춰진 부분에서 일정 영역 안에 사용자 제스처를 위한 입력 가능한 영역이 생성되며, 최소한 해당 영역의 일부분을 포함하는 영역에서 바코드를 인식하기 위한 소정의 사용자 제스처가 입력될 경우, 바코드 혹은 QR 코드를 인식하고 소정의 연관 기능을 수행할 수 있다.In general, in the case of barcode, business card, 2D code recognition, etc., recognition performance may be affected by the sharpness of the image. Therefore, a better recognition rate can be expected by recognizing user gestures by focusing on the selected object area. . To this end, when an object area is selected, focus is simultaneously focused on the selected object, and object recognition may be performed. In various embodiments, when focus is automatically or manually focused on a specific area, an input area for user gestures is created in a certain area in the focused area, and for recognizing a barcode in an area including at least a portion of the area. When a predetermined user gesture is input, a barcode or a QR code may be recognized and a predetermined related function may be performed.

도 3은 본 발명의 다양한 실시 예에 따른 프리뷰 상태에서 인식영역을 선택하여 상기 선택된 인식영역 내의 이미지 내용을 해석하기 위한 인식모듈을 구동하는 사용자 인터페이스를 도시하고 있다.FIG. 3 is a diagram illustrating a user interface for driving a recognition module for analyzing image contents in the selected recognition area by selecting a recognition area in a preview state according to various embodiments of the present disclosure.

도 3의 (a)을 참조하면, 이미지 센서로부터 획득된 이미지에서 QR 코드 영역이 사용자 터치에 의해 선택될 수 있다. 이때, QR 코드 영역을 중심으로 초점이 맞추어질 수 있다.Referring to FIG. 3A, a QR code area may be selected by a user's touch in an image acquired from an image sensor. At this time, the focus may be focused on the QR code area.

다양한 실시 예에 따라, 이미지 센서로부터 획득된 이미지에서 QR 코드가 자동으로 선택되어 초점이 맞추어질 수 있다. 다시 말해, 사용자 터치 입력 없이, 프리뷰 상태에서 QR 코드를 포함한 객체영역이 설정될 수 도 있다.According to various embodiments, a QR code may be automatically selected and focused from an image acquired from an image sensor. In other words, the object area including the QR code may be set in the preview state without a user touch input.

도 3의 (b)을 참조하면, 이미지 내의 선택된 QR 코드 영역에서 터치가 L형태로 드래그되는 사용자 제스처에 따라, QR 코드를 인식하기 위한 인식모듈이 구동될 수 있다. 즉, 상기 L형태의 사용자 제스처는 QR 코드 인식모듈로 구동할 필요가 있음을 암시하고 있다.Referring to FIG. 3B, a recognition module for recognizing a QR code may be driven according to a user gesture in which a touch is dragged in an L shape in a selected QR code area in the image. That is, it implies that the L-shaped user gesture needs to be driven by the QR code recognition module.

여기서, QR코드 인식모듈은 상기 사용자 제스처에 매핑되어 있어서, 사용자 제스처 입력시 바로 QR코드 인식모듈이 구동될 수 있다.Here, since the QR code recognition module is mapped to the user gesture, the QR code recognition module may be immediately driven when a user gesture is input.

다양한 실시 예에 따라, 선택된 객체영역 내의 객체 종류가 판단되고 사용자 제스처에 의해 판단된 객체 인식모듈이 구동될 수 있다.According to various embodiments of the present disclosure, the type of an object in the selected object area may be determined, and an object recognition module determined by a user gesture may be driven.

도 4는 본 발명의 다양한 실시 예에 따른 명암 내의 QR 코드를 인식하여 상기 QR 코드에 대응하는 정보를 제공하는 예를 도시하고 있다.4 is a diagram illustrating an example in which information corresponding to the QR code is provided by recognizing a QR code in light and dark according to various embodiments of the present disclosure.

상기 도 4의 (a)를 참조하면, 이미지 센서를 통해 디스플레이에 명함이 프리뷰되어, 상기 도 1 내지 상기 도 3에서 설명한 바와 같이, 객체영역이 지정되어 QR 코드가 인식될 수 있다.Referring to FIG. 4A, a business card is previewed on a display through an image sensor, and as described in FIGS. 1 to 3, an object area is designated and a QR code can be recognized.

상기 도 4의 (b)를 참조하면, 상기 도 4의 (a)에서 명함에 있는 QR 코드가 인식될 때, QR 코드에 포함된 정보가 추출되어 디스플레이에 제공될 수 있다. 예를 들어, 이름, 회사명, 연락처, 이메일, 주소, 홈페이지 등의 정보가 디스플레이될 수 있다. Referring to (b) of FIG. 4, when the QR code on the business card is recognized in (a) of FIG. 4, information included in the QR code may be extracted and provided to the display. For example, information such as name, company name, contact information, email address, address, and home page may be displayed.

도 5는 본 발명의 다양한 실시 예에 따른 전자장치에서 이미지 내용을 인식하기 위한 흐름도를 도시하고 있다.5 is a flowchart for recognizing image content in an electronic device according to various embodiments of the present disclosure.

상기 도 5를 참조하면, 전자장치는 500동작에서 이미지를 디스플레이를 통해 표시할 수 있다. 상기 이미지는 이미지 센서를 통해 획득되어 프리뷰되어 제공되는 영상이거나, 메모리에 기저장되어 있는 사진 혹은 동영상일 수 있다.Referring to FIG. 5, the electronic device may display an image through a display in operation 500. The image may be an image obtained through an image sensor and previewed and provided, or may be a photo or video previously stored in a memory.

전자장치는 502동작에서 적어도 하나 이상의 사용자 제스처를 검출할 수 있다.In operation 502, the electronic device may detect at least one user gesture.

*예컨대, 제1 사용자 제스처를 통해, 상기 이미지에서 일부 영역이 객체영역으로 지정되고, 제2 사용자 제스처를 통해, 상기 지정된 객체영역을 분석하기 위한 객체 인식모듈이 선택될 수 있다. 예를 들어, 상기 제1 사용자 제스처는 상기 객체영역에 인접한 혹은 상기 객체영역 내에서 검출되는 터치이고, 상기 제2 사용자 제스처는 해당 객체 인식모듈과 매핑되며 사용자 터치 패턴 입력에 의해 정의될 수 있다.* For example, a partial area in the image may be designated as an object area through a first user gesture, and an object recognition module for analyzing the designated object area may be selected through a second user gesture. For example, the first user gesture is a touch adjacent to the object area or detected within the object area, and the second user gesture is mapped to a corresponding object recognition module and may be defined by a user touch pattern input.

다양한 실시 예에서, 상기 제1 사용자 제스처 없이 자동으로 객체영역이 지정될 수 있다. 예컨대, 객체의 형상, 크기, 위치, 색상, 패턴밀도 등을 기준으로 객체영역이 자동으로 지정될 수 있다.In various embodiments, the object area may be automatically designated without the first user gesture. For example, the object area may be automatically designated based on the shape, size, position, color, pattern density, etc. of the object.

다양한 실시 예에서, 상기 제2 사용자 제스처는 단순히 객체 인식모듈 구동을 지시하는 명령어로 사용될 수 있으며, 이러한 경우 전자장치는 소정 기준으로 상기 지정된 객체영역의 객체에 대한 종류를 판단할 수 있다.In various embodiments, the second user gesture may simply be used as a command instructing to drive an object recognition module, and in this case, the electronic device may determine the type of the object in the designated object area based on a predetermined reference.

다양한 실시 예에서, 하나의 사용자 제스처를 통해 객체영역 지정 및 객체 인식모듈이 결정될 수도 있다. 예컨대, 객체영역을 중심을 사각형 모양으로 사용자 제스처가 입력되면, 사각형 크기가 객체영역이 되며 사각형은 제1 객체 인식모듈임을 나타낼 수 있다. 만약 객체영역을 중심을 원 모양으로 사용자 제스처가 입력되면, 원 크기가 객체영역이 되며 원은 제2 객체 인식모듈임을 나타낼 수 있다.In various embodiments, an object area designation and an object recognition module may be determined through one user gesture. For example, when a user gesture is input in a rectangular shape centered on the object area, the size of the rectangle becomes the object area, and the rectangle may indicate that the first object recognition module is used. If a user gesture is input in the shape of a circle around the object area, the size of the circle becomes the object area, and the circle may indicate that the second object recognition module is used.

다양한 실시 예에서, 전자장치는 추가로 상기 지정된 객체영역을 기준으로 영상을 개선시키는 동작을 수행할 수 있다. 예컨대, 상기 이미지가 프리뷰 이미지인 경우, 상기 지정된 객체 영역을 기준으로 초점을 맞추고 이에 따라 화질이 개선된 신규 이미지를 획득할 수 있다. 또는 이미지의 밝기, 선명도, 대비(contrast), 또는 노출 기준으로 화질을 개선할 수도 있다.In various embodiments, the electronic device may additionally perform an operation of improving an image based on the designated object area. For example, when the image is a preview image, a new image with improved image quality may be obtained by focusing based on the designated object area. Alternatively, image quality may be improved based on the brightness, sharpness, contrast, or exposure of the image.

전자장치는 504동작에서 적어도 하나 이상의 사용자 제스처에 따라 객체 인식모듈을 선택하고, 506동작에서 선택된 객체 인식모듈을 이용하여 상기 이미지 내의 지정된 객체영역을 분석하고, 508동작에서 분석결과를 디스플레이할 수 있다.The electronic device may select an object recognition module in operation 504 according to at least one user gesture, analyze a designated object area in the image using the object recognition module selected in operation 506, and display the analysis result in operation 508. .

다양한 실시 예에서, 전자장치는 상기 이미지 내의 지정된 객체영역을 분석하기 전에, 적어도 하나의 추천 객체 인식모듈 모듈을 디스플레이할 수도 있다.In various embodiments, the electronic device may display at least one recommended object recognition module module before analyzing a designated object area in the image.

또 다른 다양한 실시 예에서, HMD나 아이글래스 등의 웨어러블 디스플레이 장치에서는 카메라 혹은 손이나 손가락에 장착한 제스처 감지 장치에 의해 사용자의 입력을 인식함으로써 상기 실시 예들을 구현할 수도 있다.In still other various embodiments, in a wearable display device such as an HMD or eyeglass, the above embodiments may be implemented by recognizing a user's input by a camera or a gesture sensing device mounted on a hand or finger.

도 6은 본 발명의 다양한 실시 예에 따른 전자장치에서 이미지 내용을 인식하기 위한 흐름도를 도시하고 있다.6 is a flowchart for recognizing image content in an electronic device according to various embodiments of the present disclosure.

상기 도 6을 참조하면, 전자장치는 600동작에서 이미지를 디스플레이를 통해 표시할 수 있다. 상기 이미지는 이미지 센서를 통해 획득되어 프리뷰되어 제공되는 영상이거나, 메모리에 기저장되어 있는 사진 혹은 동영상일 수 있다.Referring to FIG. 6, the electronic device may display an image through a display in operation 600. The image may be an image obtained through an image sensor and previewed and provided, or may be a photo or video previously stored in a memory.

전자장치는 602동작에서 상기 이미지에서 적어도 하나 이상의 객체 영역을 지정할 수 있다.In operation 602, the electronic device may designate at least one object area in the image.

예를 들어, 상기 이미지에서 소정의 기준에 의하여 상기 객체 영역의 경계 혹은 범위가 자동으로 지정될 수 있다. 여기서, 상기 소정의 기준은 상기 이미지에 배치된 하나 이상의 객체의 크기, 위치, 패턴 밀도 중 하나 이상에 기반할 수 있다. 또한, 상기 소정의 기준은 촬상장치와 가장 근접한 전경의 객체이거나 가장 큰 객체인 것을 인식하여 객체 영역을 중심으로 초점이 맞추어질 수 있다.For example, in the image, a boundary or a range of the object area may be automatically designated according to a predetermined criterion. Here, the predetermined criterion may be based on one or more of a size, a position, and a pattern density of one or more objects arranged in the image. In addition, the predetermined criterion may be focused on the object area by recognizing that the object in the foreground closest to the imaging device or the largest object is recognized.

만약, 이미지에서 복수의 객체 영역들을 인식하는 경우에 일정 시간 간격으로 순차적으로 초점을 맞추어 처리할 수도 있다.If a plurality of object regions are recognized in an image, the focus may be sequentially processed at predetermined time intervals.

다양한 실시 예에서, 이미지에서 객체 영역은 사용자 입력(또는 제1 사용자 제스처)에 의해 지정될 수 있다. 예컨대, 상기 객체 영역은 터치된 위치와 가장 인접한 객체 혹은 최소한 터치된 위치를 포함하는 객체의 영역으로 지정될 수 있다.In various embodiments, the object area in the image may be designated by a user input (or a first user gesture). For example, the object region may be designated as an object closest to the touched position or an object region including at least the touched position.

다양한 실시 예에서, 전자장치는 추가로 상기 지정된 객체 영역을 기준으로 영상을 개선시키는 동작을 수행할 수 있다. 예컨대, 상기 이미지가 프리뷰 이미지인 경우, 상기 지정된 객체 영역을 기준으로 초점을 맞추고 이에 따라 화질이 개선된 신규 이미지를 획득할 수 있다. 또는 이미지의 밝기, 선명도, 대비(contrast), 또는 노출 기준으로 화질을 개선시킬 수도 있다.In various embodiments, the electronic device may additionally perform an operation of improving an image based on the designated object area. For example, when the image is a preview image, a new image with improved image quality may be obtained by focusing based on the designated object area. Alternatively, image quality may be improved based on brightness, sharpness, contrast, or exposure of the image.

전자장치는 604동작에서 상기 이미지의 선택된 객체영역 내에서 제2 사용자 제스처 입력신호를 검출하여, 적어도 하나 이상의 관련 객체 인식모듈 모듈을 디스플레이할 수 있다.In operation 604, the electronic device may detect a second user gesture input signal within the selected object area of the image and display at least one related object recognition module module.

예컨대, 사용자 제스처 패턴(예: 스와이프 동작, L형태의 터치입력 등등)을 검출하여, 검출된 사용자 제스처의 패턴에 매핑된 적어도 하나의 객체 인식모듈 목록을 디스플레이할 수 있다.For example, by detecting a user gesture pattern (eg, a swipe operation, an L-type touch input, etc.), a list of at least one object recognition module mapped to the detected user gesture pattern may be displayed.

이를 위해, 전자장치는 입력된 사용자 제스처의 패턴정보와 기저장된 사용자 제스처 패턴 정보와 일치율을 계산하고, 일치율이 일정 이상인 하나 이상의 후보 패턴에 연관된 하나 이상의 객체 인식모듈(예: 문자 인식모듈, 바코드 인식모듈, 얼굴 인식모듈)을 결정할 수 있다.To this end, the electronic device calculates the pattern information of the input user gesture and the pre-stored user gesture pattern information and a matching rate, and one or more object recognition modules (e.g., character recognition module, barcode recognition) related to one or more candidate patterns having a matching rate of a certain or more. Module, face recognition module).

다른 다양한 실시 예에서, 상기 제2 사용자 제스처 입력신호에 따라, 상기 객체영역의 종류를 판단하여, 객체 종류에 따라 객체 인식모듈이 결정될 수도 있다.In other various embodiments, the object recognition module may be determined according to the object type by determining the type of the object area according to the second user gesture input signal.

전자장치는 606동작에서 사용자 입력에 따라 적어도 하나 이상의 인식모듈 중 하나를 선택할 수 있다.In operation 606, the electronic device may select one of at least one or more recognition modules according to a user input.

전자장치는 608동작에서 선택된 객체 인식모듈을 이용하여 상기 이미지의 객체영역을 분석하고, 610동작에서 분석결과를 디스플레이할 수 있다.The electronic device may analyze the object region of the image by using the object recognition module selected in operation 608 and display the analysis result in operation 610.

다양한 실시 예에서, 검출된 객체 영역이 다수인 경우, 하나의 제2 사용자 제스처에 의해 해당 객체 영역들의 객체들에 대해 동일한 동작(602동작 내지 610동작)이 각각 수행될 수 있다.In various embodiments, when there are a plurality of detected object regions, the same operations (operations 602 to 610) may be respectively performed on the objects of the corresponding object regions by one second user gesture.

상기 다양한 실시 예에서, 제2 사용자 제스처는 상기 검출된 객체 영역 이외에서 검출될 수도 있다. 예를 들어, 상기 검출된 객체 영역이 하나 이상 있고, 해당 다른 객체 영역들이 모두 바코드인 경우, 상기 검출된 객체 영역 이외의 다른 영역에서 사용자 제스처 입력이 바코드 인식 명령임을 의미하면, 검출된 객체 영역들의 바코드들에 대한 디코딩 명령이 수행되고, 그 결과가 디스플레이에 표시될 수 있다.In the various embodiments, the second user gesture may be detected outside the detected object area. For example, if there is one or more detected object areas, and all other object areas are barcodes, if a user gesture input is a barcode recognition command in an area other than the detected object area, the detected object areas are A decoding command for the barcodes is performed, and the result can be displayed on the display.

또 다른 다양한 실시 예에서, 관련된 적어도 하나의 객체 인식모듈 목록을 디스플레이하여 객체 인식모듈 목록 중 하나를 선택하는 동작 없이, 상기 제2 사용자 제스처에 따라 바로 관련 객체 인식모듈이 구동되어 상기 검출된 객체 영역이 분석될 수 있다.In still other various embodiments, without an operation of displaying a list of at least one related object recognition module to select one of the list of object recognition modules, the related object recognition module is immediately driven according to the second user gesture and the detected object area This can be analyzed.

상기 도 6은 제1 사용자 제스처에 의해 객체영역이 지정되고 제2 사용자 제스처에 의해 상기 객체영역을 인식할 객체 인식모듈이 선택되어 구동되었으나 하나의 사용자 제스처를 통해 객체영역 지정과 객체 인식모듈 선택이 수행될 수도 있다. 즉, 사용자 제스처 입력신호가 입력되면, 사용자 제스처 입력 신호가 발생한 이미지의 위치를 기반으로 상기 객체영역이 지정되며 상기 객체영역의 종류가 판단되어 그 결과에 대응하는 객체 인식모듈이 선택되어 구동될 수 있다.6, an object region is designated by a first user gesture, and an object recognition module to recognize the object region is selected and driven by a second user gesture, but object region designation and object recognition module selection are performed through one user gesture. It can also be done. That is, when a user gesture input signal is input, the object area is designated based on the location of the image where the user gesture input signal is generated, the type of the object area is determined, and the object recognition module corresponding to the result is selected and driven. have.

또 다른 다양한 실시 예로는 지정된 객체 인식모듈과 관련한 다양한 사용자 인터페이스를 제공할 수 있다. 즉, 사용자 제스처에 의해 지정된 객체가 인식되었을 때, 혹은 사용자 제스처의 패턴이 인식되었을 때, 분석결과와 관련해서 다양한 서비스가 제공될 수 있다.Still another variety of embodiments may provide various user interfaces related to a designated object recognition module. That is, when an object designated by a user gesture is recognized, or when a pattern of a user gesture is recognized, various services may be provided in relation to the analysis result.

예를 들어, 하기 도 7에서처럼, 신문, 잡지와 같은 지면에 광고가 있는 경우, 광고 내용중에 URL(Uniform Resource Locator) 주소 정보가 있다면, 이는 다양한 방법으로 표시될 수 있다. 해당 URL이 간단한 텍스트로 표시될 수도 있고 복잡한 URL인 경우 QR코드나 바코드 형태로 제공될 수도 있다. 문자, 바코드, 2차원 이미지 코드 등으로 표시된 객체를 이미지 센서를 통해 획득되어 사용자 제스처를 통해 객체 인식모듈이 지정된 경우, 단순히 객체를 인식만 하는 것이 아니라 다양한 연관된 애플리케이션을 제공할 수도 있다. For example, as shown in FIG. 7 below, when there is an advertisement on a page such as a newspaper or a magazine, if there is URL (Uniform Resource Locator) address information in the advertisement content, it may be displayed in various ways. The URL may be displayed in simple text, or in the case of a complex URL, it may be provided in the form of a QR code or barcode. When an object displayed as a text, a barcode, a two-dimensional image code, etc. is acquired through an image sensor and an object recognition module is designated through a user gesture, it is possible to provide various related applications instead of simply recognizing the object.

예컨대, 해당 객체를 디코딩했을 때 정보가 URL의 형태를 가진 경우에는 브라우저, 전화번호 및 주소 등의 정보가 포함된 것으로 판단된 경우에는 전화 애플리케이션이나 메일 작성 애플리케이션과 같은 관련 애플리케이션을 구동하거나 사용자 인터페이스에 의해 선택하도록 할 수도 있다. 지정되거나 인식된 객체에는 하나 이상의 정보 종류가 포함될 수 있으며, 하나 이상의 관련 애플리케이션이 지정되거나 구동될 수도 있다.For example, when the object is decoded and the information is in the form of a URL, if it is determined that information such as a browser, a phone number, and an address is included, a related application such as a phone application or a mail writing application is started, or the user interface is displayed. You can also choose by. One or more types of information may be included in the designated or recognized object, and one or more related applications may be designated or run.

일반적으로 객체 인식모듈이 구동되어 정보를 인식한 후, 관련 애플리케이션이 구동되거나 선택할 수 있도록 사용자 인터페이스 형태로 디스플레이에 표시될 수 있으나, 반드시 객체 인식모듈이 수행되지 않을 수 있다. 사용자 제스처에 의해 객체 인식모듈이 지정된 경우에도 객체 인식모듈을 수행하지 않고도, 하나 이상의 관련 애플리케이션들이 제공될 수 있다. 예컨대, URL 정보는 문자 정보에 해당하며, 웹 브라우저를 통해 사이트에 접속할 때 이용될 수 있지만, 단순히 메모리에 복사해 둔 후 다른 애플리케이션에 붙여넣기를 위한 정보로 사용될 수도 있다. 따라서, 인식할 객체가 문자라고 판별되면, 문자 인식모듈을 구동하는 동작은 관련 애플리케이션 실행이나 애플리케이션 목록 디스플레이 한 후에 수행될 수도 있다.In general, after the object recognition module is driven to recognize information, the related application may be driven or displayed on the display in the form of a user interface so that the related application can be selected, but the object recognition module may not necessarily be executed. Even when the object recognition module is designated by a user gesture, one or more related applications may be provided without performing the object recognition module. For example, the URL information corresponds to text information, and may be used when accessing a site through a web browser, but may be simply copied to memory and then used as information for pasting into another application. Accordingly, when it is determined that the object to be recognized is a character, the operation of driving the character recognition module may be performed after executing a related application or displaying an application list.

다양한 실시 예에서, 하기 도 8과 같이 바코드 또는 QR 코드 인식모듈을 통해 바코드 또는 QR 코드를 분석한 후 관련 애플리케이션을 디스플레이할 수도 있다.In various embodiments, after analyzing the barcode or QR code through the barcode or QR code recognition module as shown in FIG. 8 below, related applications may be displayed.

도 7은 본 발명의 다양한 실시 예에 따른 뉴스 기사 내의 특정 URL 주소를 인식하여 웹 브라우저를 통해 상기 URL주소에 대응하는 사이트로 진입하는 예를 도시하고 있다.7 illustrates an example of recognizing a specific URL address in a news article and entering a site corresponding to the URL address through a web browser according to various embodiments of the present disclosure.

상기 도 7의 (a)를 참조하면, 상기 도 5 혹은 상기 도 6의 이미지 내용을 인식하기 위한 방법에 기반하여, 이미지에서 문자 객체(예컨대, URL 주소 정보)가 지정되어 문자 인식모듈(예: Optical Character Reader(OCR)이 선택된 후 상기 문자 인식모듈을 통해 상기 객체영역의 내용이 분석되는 예를 나타내고 있다.Referring to FIG. 7A, based on the method for recognizing the image content of FIG. 5 or 6, a character object (eg, URL address information) is designated in an image, and a character recognition module (eg: It shows an example in which the content of the object area is analyzed through the character recognition module after the Optical Character Reader (OCR) is selected.

상기 도 7의 (b)를 참조하면, 상기 도 7의 (a)의 분석결과에 대응하는 출력을 나타내고 있다. 예컨대, 상기 도 7의 (a)에서 "www.samsung.com" URL 주소가 인식될 때, 웹 브라우저를 통해 www.samsung.com에 대응하는 사이트를 접속할 수 있다.Referring to (b) of FIG. 7, an output corresponding to the analysis result of (a) of FIG. 7 is shown. For example, when the "www.samsung.com" URL address is recognized in (a) of FIG. 7, a site corresponding to www.samsung.com may be accessed through a web browser.

도 8은 본 발명의 다양한 실시 예에 따른 이미지 내의 특정 문자를 인식하여, 상기 인식 결과와 관련된 다수의 애플리케이션을 디스플레이하는 예를 도시하고 있다.8 illustrates an example of recognizing a specific character in an image and displaying a plurality of applications related to the recognition result according to various embodiments of the present disclosure.

상기 도 8을 참조하면, 복수 영화 포스터들의 이미지 센서를 통해 프리뷰될 때, 객체영역이 지정되고 문자 인식모듈이 선택된 후, 문자 인식모듈의 분석결과에 기반하여 관련 애플리케이션 목록(820)이 디스플레이될 수 있다. 이때, 사용자는 애플리케이션 목록에 어느 하나의 애플리케이션을 실행할 수 있다.Referring to FIG. 8, when previewing through image sensors of a plurality of movie posters, after an object area is designated and a character recognition module is selected, a related application list 820 may be displayed based on the analysis result of the character recognition module. have. In this case, the user can run any one application in the application list.

예를 들어, 문자인식을 위한 사용자 제스처가 터치스크린 위에 원을 그리는 동작으로 정의된 경우, 사용자는 프리뷰 상태에서 해당 객체영역('New York' 단어)에 원(810)을 그릴 수 있다. 이때, 전자장치는 터치 패널로 인가된 사용자 제스처를 검출한 후, 상기 사용자 제스처가 이미지에서 문자를 추출하라는 제스처임을 인지할 수 있고, 상기 사용자 제스처로 지정된 객체영역(810)의 이미지를 잘라내어(CROP) 잘라진 이미지에서 문자('New York')를 추출할 수 있다. 일반적으로, 이미지 센서로 피사체를 촬영하는 경우 초점을 맞추는 과정이 포함될 수 있는데, 특정 사용자 제스처가 특정 객체 영역에서 입력된 경우 전자장치는 초점 영역을 상기 사용자 제스처가 입력된 지점으로 할 수 있다. 이때, 상기 사용자 제스처에 따른 객체영역의 넓이는 상기 사용자 제스처에 따라 다를 수 있으며, 사진 셔터 키가 인가되지 않더라도 피사체의 초점이 맞는 경우 객체영역에서 문자 정보가 추출되어 사용자에게 제공될 수 있다. 또한, 객체영역에서 문자가 추출된 경우, 해당 문자를 처리할 수 있는 애플리케이션들의 목록이 나타날 수 있다. 다양한 실시 예에서, 특정 애플리케이션이 선택될 때 해당 문자를 처리할 수 있는 애플리케이션이 실행될 수 있다. 예를 들면 "New York" 이라는 문자가 지정되고 초점이 맞추어지면 문자 인식모듈(예: OCR)이 동작하며, 애플리케이션 목록 중 메모 애플리케이션이 선택되면 'New York' 단어가 메모 애플리케이션을 통해 저장될 수 있다.For example, when a user gesture for character recognition is defined as an operation of drawing a circle on the touch screen, the user may draw a circle 810 in the object area (the word'New York') in the preview state. In this case, after detecting the user gesture applied to the touch panel, the electronic device may recognize that the user gesture is a gesture to extract a character from an image, and cut the image of the object area 810 designated as the user gesture (CROP). ) Text ('New York') can be extracted from the cropped image. In general, when a subject is photographed with an image sensor, a process of focusing may be included. When a specific user gesture is input in a specific object area, the electronic device may use the focus area as a point where the user gesture is input. In this case, the width of the object area according to the user gesture may vary according to the user gesture, and text information may be extracted from the object area and provided to the user when the focus of the subject is correct even if the photographic shutter key is not applied. In addition, when a character is extracted from the object area, a list of applications that can process the character may appear. In various embodiments, when a specific application is selected, an application capable of processing a corresponding character may be executed. For example, when the character “New York” is designated and the focus is focused, the character recognition module (eg OCR) operates, and when a memo application is selected from the application list, the word “New York” can be saved through the memo application. .

다양한 실시 예에서, 이미지의 내용이 처리가 완료된 경우 카메라 앱은 일반 촬영 모드로 돌아갈 수도 있다.In various embodiments, when the content of the image is processed, the camera app may return to the normal shooting mode.

도 9는 본 발명의 다양한 실시 예에 따른 바코드 또는 QR 코드를 인식하여, 상기 인식 결과와 관련된 다수의 애플리케이션을 디스플레이하는 예를 도시하고 있다.9 illustrates an example of recognizing a barcode or a QR code according to various embodiments of the present disclosure and displaying a plurality of applications related to the recognition result.

상기 도 9의 (a)를 참조하면, 프리뷰 상태에서 이미지의 특정 영역에 있는 바코드 혹은 QR 코드를 인식하는 예를 도시하고 있다. 상기 도 9의 (a)에서 바코드 또는 QR 코드가 선택될 수 있다.Referring to FIG. 9A, an example of recognizing a barcode or a QR code in a specific area of an image in a preview state is shown. In (a) of FIG. 9, a barcode or a QR code may be selected.

상기 도 9의 (b)를 참조하면, 상기 도 9의 (a)에서 인식된 바코드에 관련 애플리케이션들의 목록을 디스플레이하는 예를 도시하고 있다. 예를 들어, 인식된 바코드 혹은 QR 코드에 포함된 정보에 이메일, 전화번호, 홈페이지 정보 등이 있을 때, 그와 관련된 애플리케이션들(예: 바코드, 인터넷, 메시지, 이메일, 메모, 전화 애플리케이션)이 디스플레이될 수 있다.Referring to (b) of FIG. 9, an example of displaying a list of related applications on the barcode recognized in (a) of FIG. 9 is shown. For example, when the recognized barcode or information included in the QR code includes email, phone number, homepage information, etc., related applications (e.g., barcode, internet, message, email, memo, phone application) are displayed. Can be.

상기 도 9의 (c)를 참조하면, 상기 도 9의 (a)에서 인식된 QR 코드에 관련 애플리케이션들의 목록을 디스플레이하는 예를 도시하고 있다. 예를 들어, 인식된 QR 코드에 대응하는 인터넷 및 전화 애플리케이션들이 디스플레이될 수 있다.Referring to (c) of FIG. 9, an example of displaying a list of related applications on the QR code recognized in (a) of FIG. 9 is shown. For example, Internet and phone applications corresponding to the recognized QR code may be displayed.

도 10은 본 발명의 다양한 실시 예에 따른 전자장치에서 이미지 내용을 인식하여 관련 애플리케이션을 실행하기 위한 흐름도를 도시하고 있다.10 is a flowchart illustrating an example of executing an application by recognizing image content in an electronic device according to various embodiments of the present disclosure.

상기 도 10을 참조하면, 전자장치는 1000동작에서 이미지를 디스플레이를 통해 표시할 수 있다. 상기 이미지는 이미지 센서를 통해 획득되어 프리뷰되어 제공되는 영상이거나, 메모리에 기저장되어 있는 사진 혹은 동영상일 수 있다.Referring to FIG. 10, the electronic device may display an image through a display in operation 1000. The image may be an image obtained through an image sensor and previewed and provided, or may be a photo or video previously stored in a memory.

전자장치는 1002동작에서 적어도 하나 이상의 사용자 제스처를 검출할 수 있다. 예컨대, 제1 사용자 제스처를 통해, 상기 이미지에서 일부 영역이 객체영역으로 지정되고, 제2 사용자 제스처를 통해, 상기 지정된 객체영역을 분석하기 위한 객체 인식모듈이 선택될 수 있다. 예를 들어, 상기 제1 사용자 제스처는 상기 객체영역에 인접한 혹은 상기객체영역 내에서 검출되는 터치이고, 상기 제2 사용자 제스처는 해당 객체 인식모듈과 매핑되며 사용자 터치 패턴 입력에 의해 정의될 수 있다.In operation 1002, the electronic device may detect at least one user gesture. For example, a partial area in the image may be designated as an object area through a first user gesture, and an object recognition module for analyzing the designated object area may be selected through a second user gesture. For example, the first user gesture is a touch adjacent to the object area or detected within the object area, and the second user gesture is mapped to a corresponding object recognition module and may be defined by a user touch pattern input.

다양한 실시 예에서, 상기 제2 사용자 제스처는 객체 인식모듈 구동을 지시하는 명령어로 사용될 수 있으며, 이러한 경우 전자장치는 소정기준으로 객체영역의 종류를 판단할 수 있다. 예컨대, 하기 도 15 내지 하기 도 17과 같이, 해당 코드의 특성을 이용하여 코드 종류를 판단할 수 있다.In various embodiments, the second user gesture may be used as a command for instructing driving the object recognition module, and in this case, the electronic device may determine the type of the object region based on a predetermined criterion. For example, as shown in FIGS. 15 to 17 below, a code type may be determined using the characteristics of the code.

다양한 실시 예에서, 하나의 사용자 제스처를 통해 객체영역 지정 및 객체 인식모듈이 결정될 수도 있다. 예컨대, 객체영역을 중심을 사각형 모양으로 사용자 제스처가 입력되면, 사각형 크기가 객체영역이 되며 사각형은 제1 객체 인식모듈임을 나타낼 수 있다. 만약 객체영역을 중심을 원 모양으로 사용자 제스처가 입력되면, 원 크기가 객체영역이 되며 원은 제2 객체 인식모듈임을 나타낼 수 있다.In various embodiments, an object area designation and an object recognition module may be determined through one user gesture. For example, when a user gesture is input in a rectangular shape centered on the object area, the size of the rectangle becomes the object area, and the rectangle may indicate that the first object recognition module is used. If a user gesture is input in the shape of a circle around the object area, the size of the circle becomes the object area, and the circle may indicate that the second object recognition module is used.

다양한 실시 예에서, 전자장치는 추가로 상기 지정된 객체 영역을 기준으로 영상을 개선시키는 동작을 수행할 수 있다. 예컨대, 상기 이미지가 프리뷰 이미지인 경우, 상기 지정된 객체 영역을 기준으로 초점을 맞추고 이에 따라 화질이 개선된 신규 이미지를 획득할 수 있다. 또는 이미지의 밝기, 선명도, 대비(contrast), 또는 노출 기준으로 화질을 개선할 수도 있다.In various embodiments, the electronic device may additionally perform an operation of improving an image based on the designated object area. For example, when the image is a preview image, a new image with improved image quality may be obtained by focusing based on the designated object area. Alternatively, image quality may be improved based on the brightness, sharpness, contrast, or exposure of the image.

전자장치는 1004동작에서 적어도 하나 이상의 사용자 제스처에 따라 객체 인식모듈을 선택하고, 1006동작에서 선택된 객체 인식모듈을 이용하여 상기 이미지 내의 적어도 일부 객체영역을 분석하고, 1008단계에서 분석결과에 기반하여 관련 애플리케이션들을 디스플레이할 수 있다.In operation 1004, the electronic device selects an object recognition module according to at least one user gesture, analyzes at least some object areas in the image using the object recognition module selected in operation 1006, and relates it based on the analysis result in step 1008. Applications can be displayed.

전자장치는 1010동작에서 관련 애플리케이션들 중 하나가 선택될 시, 1012동작으로 진행하여 선택된 관련 애플리케이션을 실행할 수 있다.When one of the related applications is selected in operation 1010, the electronic device may proceed to operation 1012 and execute the selected related application.

도 11은 본 발명의 다양한 실시 예에 따른 이미지 내에서 복수의 객체를 선택하여 해당 인식모듈을 구동하는 사용자 인터페이스를 도시하고 있다.11 illustrates a user interface for selecting a plurality of objects in an image and driving a corresponding recognition module according to various embodiments of the present disclosure.

상기 도 11을 참조하면, 하나의 이미지에 서로 다른 다양한 종류의 객체(명함(1102), 제품1(1000), 제품2(1004))가 위치할 때, 동일한 사용자 제스처, 즉, 객체영역의 좌측 위에서 우측 아래로 터치를 드래그하여 각각의 객체에 대응하는 객체 인식모듈이 구동될 수 있다. 이미지 영역에서 각각의 객체를 인식하기 위한 객체 영역의 범위를 제한함으로써 영상처리를 위한 연산량과 메모리 사용량을 줄일 수 있다.Referring to FIG. 11, when different types of objects (business card 1102, product 1 (1000), product 2 (1004)) are positioned in one image, the same user gesture, that is, the left side of the object area An object recognition module corresponding to each object may be driven by dragging a touch from top to bottom right. By limiting the range of the object area for recognizing each object in the image area, it is possible to reduce the amount of computation and memory usage for image processing.

여기서, 각각의 객체영역에 대응하는 객체 인식모듈은 이미지 처리 또는 패턴분석을 통해 판단될 수 있다.Here, the object recognition module corresponding to each object region may be determined through image processing or pattern analysis.

예를 들어, 상기 도 11과 같이 사용자 제스처가 사선인 경우, 사선의 시작지점은 지정할 객체영역의 좌측 상단이 되고, 사선의 종료 지점은 상기 객체영역의 우측 하단으로 인식할 수 있다. 또 다른 다양한 실시 예로 인식할 객체영역에 해당 객체가 포함되도록 하는 사용자 제스처(예: 사각형 모양, 원 모양)가 이용될 수도 있다. 또는 상기 사용자 제스처는 터치가 될 수 있으며 상기 터치는 객체 주변 혹은 안쪽일 수 있다. 터치가 객체 안쪽에 존재할 경우에는 패턴의 밀집도, 패턴의 모양, 패턴의 경계선, 패턴의 잉여여백, 색상 분포 등을 확인하여 객체를 포함하는 영역을 지정할 수 있다.For example, as shown in FIG. 11, when the user gesture is a diagonal line, the start point of the diagonal line may be the upper left corner of the object area to be designated, and the end point of the diagonal line may be recognized as the lower right side of the object area. As still another various embodiments, a user gesture (eg, a square shape or a circle shape) for including a corresponding object in an object region to be recognized may be used. Alternatively, the user gesture may be a touch, and the touch may be around or inside an object. When the touch exists inside the object, the area including the object can be designated by checking the density of the pattern, the shape of the pattern, the boundary line of the pattern, the excess margin of the pattern, and color distribution.

객체영역 지정시, 지정된 영역에서 객체를 구성하는 패턴 분포나 패턴의 모양 및 빈도, 색상, 밝기 정보 등을 이용함으로써 해당 객체의 종류가 무엇인지 판별할 수 있다. 또는 객체 인식모듈이나 혹은 다른 기능 지정을 위해 사용자 제스처가 입력될 때, 입력 좌표들에 대응하는 이미지 패턴을 조사함으로써 인식모듈을 지정할 수도 있다. 즉, 사용자 제스처 입력을 일종의 이미지의 픽셀정보를 분석하기 위한 스캔 라인으로서 이용하는 방법이다. 예를 들면, 바코드나 2차원 이미지 코드에 포함된 패턴 정보(예: finer pattern, 시작과 종료 패턴, 정렬(alignment) 패턴)는 코드의 위치, 방향, 기울임 등의 정보를 나타내는 식별기호로서 사용되며, 이러한 패턴은 소정의 기준에 따라 정의므로 패턴 정보를 통해 해당 코드의 종류를 판단할 수 있다. 상기 도 11과 같이 사용자 제스처가 사선으로 드래그될 때 바코드의 패턴의 경우 시작 패턴과 종료 패턴을, 즉 흑색 막대와 흰색 막대의 너비들의 비율을 인식할 수 있으므로 쉽게 바코드 형태의 객체임을 판별할 수 있다. 명함의 QR 코드의 경우에도 사용자 제스처의 사선이 QR 코드 이미지의 여러 패턴들을 경유하는데, 해당 패턴 중 Finger 패턴을 경유하는 경우에는 흑색과 흰색, 혹은 명도차가 1:1:3:1:1의 비율로 입력되므로 쉽게 QR 코드임을 인식할 수 있다. When designating an object area, it is possible to determine what the type of the corresponding object is by using the pattern distribution constituting the object in the designated area, the shape and frequency of the pattern, color, and brightness information. Alternatively, when a user gesture is input to designate an object recognition module or other function, the recognition module may be designated by examining an image pattern corresponding to the input coordinates. That is, this is a method of using a user gesture input as a scan line for analyzing pixel information of an image. For example, pattern information (e.g., finer pattern, start and end pattern, alignment pattern) included in barcodes or two-dimensional image codes is used as an identification symbol representing information such as the position, direction, and tilt of the code. , Since such a pattern is defined according to a predetermined criterion, the type of the corresponding code can be determined through the pattern information. As shown in FIG. 11, in the case of a barcode pattern when the user's gesture is dragged diagonally, the start pattern and the end pattern, that is, the ratio of the widths of the black bar and the white bar can be recognized, so that it is possible to easily determine the object in the form of a barcode. . Even in the case of the QR code of the business card, the diagonal line of the user's gesture goes through the various patterns of the QR code image. Among the patterns, when passing through the finger pattern, the ratio of black and white, or the difference in brightness is 1:1:3:1:1 Since it is entered as a QR code, it can be easily recognized.

도 12는 본 발명의 다양한 실시 예에 따른 이미지 내에서 복수의 객체를 선택하여 해당 인식모듈을 구동하기 위한 흐름도를 도시하고 있다.12 is a flowchart illustrating a flowchart for selecting a plurality of objects in an image and driving a corresponding recognition module according to various embodiments of the present disclosure.

상기 도 12를 참조하면, 전자장치는 1200동작에서 이미지를 디스플레이를 통해 표시할 수 있다. 상기 이미지는 이미지 센서를 통해 획득되어 프리뷰되어 제공되는 영상이거나, 메모리에 기저장되어 있는 사진 혹은 동영상일 수 있다.Referring to FIG. 12, in operation 1200, the electronic device may display an image through a display. The image may be an image obtained through an image sensor and previewed and provided, or may be a photo or video previously stored in a memory.

전자장치는 1202동작에서 사용자 제스처에 따라 상기 이미지에서 객체영역을 선택하고 1204동작에서 상기 객체영역에 대응하는 객체 인식모듈을 결정하고, 1206단계에서 결정된 객체 인식모듈을 이용하여 상기 이미지 내의 객체영역을 분석하고, 1208동작에서 분석결과를 디스플레이할 수 있다.The electronic device selects an object region from the image according to a user gesture in operation 1202, determines an object recognition module corresponding to the object region in operation 1204, and identifies the object region in the image using the object recognition module determined in step 1206. Analyze and display the analysis result in operation 1208.

전자장치는 1210동작에서 사용자 제스처에 의해 이미지에서 다른 객체영역을 검출될 시, 1202동작 내지 1208동작을 반복적으로 수행될 수 있다.In operation 1210, when another object area is detected in the image by a user gesture, the electronic device may repeatedly perform operations 1202 to 1208.

다양한 실시 예에서, 다수의 객체영역이 지정된 후에 다수의 객체영역에 대응하는 객체인식모듈이 선택되어 병렬로 분석처리될 수 있다.In various embodiments, after a plurality of object regions are designated, an object recognition module corresponding to the plurality of object regions may be selected and analyzed in parallel.

도 13은 본 발명의 다양한 실시 예에 따른 카메라의 프리뷰 상태에서 이미지 내용을 인식하기 위한 흐름도를 도시하고 있다.13 is a flowchart for recognizing image content in a preview state of a camera according to various embodiments of the present disclosure.

상기 도 13을 참조하면, 전자장치는 1300동작에서 카메라 앱을 구동하고 1302동작에서 프리뷰 화면을 디스플레이하고 1304동작에서 자동초점을 맞출 수 있다.Referring to FIG. 13, the electronic device may drive a camera app in operation 1300, display a preview screen in operation 1302, and autofocus in operation 1304.

전자장치는 1306동작에서 프리뷰 화면에 터치입력을 수신하고, 1308동작에서 터치입력이 사용자 제스처인지를 판단할 수 있다.The electronic device may receive a touch input on the preview screen in operation 1306 and determine whether the touch input is a user gesture in operation 1308.

1308동작에서 터치입력이 상기 사용자 제스처인 경우, 1310동작에서 상기 사용자 제스처를 분석하고, 1312동작에서 사용자 제스처에 일치하는 인식모듈을 선택하고 해당 객체영역에 초점에 맞출 수 있다.If the touch input is the user gesture in operation 1308, the user gesture is analyzed in operation 1310, and in operation 1312, a recognition module that matches the user gesture may be selected and focus on the object region.

여기서, 사용자 제스처 분석을 통해, 인식할 객체영역 및 객체인식모듈이 선택될 수 있다.Here, an object region to be recognized and an object recognition module may be selected through user gesture analysis.

상기 사용자 제스처를 통해, 최소한 객체가 포함되는 영역이 지정되면 이를 기반으로 객체의 패턴 또는 패턴 배열 상태 등을 분석하여, 객체를 인식하는데 필요한 범위를 인식할 수 있다. 예를 들어, 자동으로 객체영역이 지정되는 경우 객체의 형상, 크기, 위치, 색상, 패턴의 밀도 등을 기준으로 이미지 내에서 인식할 객체영역을 찾을 수 있다. 대표적인 경우가 사진이나 프리뷰 이미지에서 얼굴 영역을 인식하는 것으로서 주로 색상을 이용하여 얼굴 영역 후보들을 찾고, 이 영역에서 눈썹, 눈, 입 등의 위치 정보를 기반으로 얼굴인지 여부를 판별할 수 있다. 바코드 혹은 QR코드 영역의 경우, 이미지에서 스캔라인(scan line)을 통해서 바코드나 2차원 이미지 코드 등의 특정한 패턴을 찾은 후 이를 이용하여 코드의 위치와 영역을 알 수 있다. 문자 영역의 경우에는 문자들이 일정 거리 이하의 군집을 이루고 있으며, 라인 단위로 구분되는 특성을 이용하여 글자나 숫자, 기호 영역 후보들을 인식할 수 있다. 이러한 후보들은 하나 이상일 수도 있으므로 경우에 따라 소정의 기준, 예를 들어 크기, 형상, 위치 등에 따라 후보들을 여러 개 추출한 후 이를 디스플레이에 표시하고 사용자 입력장치에 의해 후보들 중 하나 이상을 선택하는 동작도 추가로 포함할 수 있다.When a region including at least an object is designated through the user gesture, a pattern or a pattern arrangement state of the object is analyzed based on this, and a range necessary for recognizing the object may be recognized. For example, when an object region is automatically designated, an object region to be recognized within an image can be found based on the shape, size, position, color, and pattern density of the object. A typical case is recognizing a face region in a photo or preview image, and it is possible to find facial region candidates mainly using color, and determine whether a face is a face based on location information such as eyebrows, eyes, and mouth in this region. In the case of a barcode or QR code area, after searching for a specific pattern such as a barcode or a two-dimensional image code through a scan line in the image, it is possible to know the location and area of the code using this. In the case of a character area, characters form a cluster of less than a certain distance, and character, number, and symbol area candidates can be recognized using a characteristic that is divided by line. Since there may be more than one such candidate, an operation of extracting several candidates according to a predetermined criterion, for example, size, shape, position, etc., is displayed on the display and selecting one or more of the candidates by a user input device is also added. Can be included as.

다양한 실시 예에서 사용자 제스처에 의해 지정된 위치를 기반으로 객체영역이 지정될 수도 있다. 예를 들어, 프리뷰 이미지에서 디스플레이에 표시된 이미지의 특정 위치가 지정되면, 해당 위치와 관련한 영역을 지정하기 위한 동작이 수행된다. 이를 위해 터치나 탭(tap), 호버링(hovering), 드래깅. 스위핑 등이 발생한 위치를 인지하고, 해당 위치가 포함되거나 가장 인접한 하나 이상의 객체의 영역을 지정하거나 사용자 인터페이스에 의해 지정된 영역의 최소 일부가 포함된 객체영역을 지정할 수도 있다. 이를 위해, 사용자 인터페이스에 의해 지정된 위치들을 이용하여 패턴의 밀집도, 색상, 객체의 경계선 등을 판별함으로써 객체의 크기, 색상, 밝기, 형태 등을 인식하고 지정할 영역으로서의 적합성을 판별할 수 있다. 예컨대, 상기 지정위치를 중심으로 주변의 색상을 판별하고, 동일한 색상 영역에 대해 얼굴영역 후보로 판단할 수 있다. 바코드의 경우 코드 패턴 주위에 정적구간(Quiet zone: QZ)이라고 하는 잉여여백 부분이 있다. 대부분 바코드 주위에 보이는 흰색 여백이 이러한 부분으로서, 코드 패턴을 배경 이미지로부터 용이하게 분리하기 위한 것이다. 좀 더 상세히 기술하자면 코드 패턴 간의 간격보다 충분히 큰 영역이기 때문에 QZ 패턴의 밀집도 차이를 이용하여 쉽게 코드 패턴 영역과 이외 영역을 구분할 수 있다. 문자/숫자 영역의 경우에도 입력된 위치정보에 의해 인접한 객체들의 밀집도를 이용하여 라인과 글자 영역들을 판별할 수 있다. 컬러코드 등의 경우에는 여러 개의 셀(cell)이 인접하여 코드를 나타내는 사각형, 원형 등의 형태일 수 있는데, 이러한 객체는 경계선을 추적함으로써 객체의 형태와 경계를 인지할 수 있다.In various embodiments, an object area may be designated based on a location designated by a user gesture. For example, when a specific location of an image displayed on the display is designated in the preview image, an operation for designating an area related to the location is performed. To do this, touch or tap, hover, or drag. It is also possible to recognize a location where sweeping has occurred, designate an area of one or more objects that include the location or the nearest one, or designate an object area that includes at least a part of the area designated by the user interface. To this end, it is possible to recognize the size, color, brightness, shape, etc. of the object and determine suitability as a designated area by discriminating the density, color, and boundary of the object using positions designated by the user interface. For example, the surrounding color may be determined based on the designated location, and the same color area may be determined as a face area candidate. In the case of barcodes, there is an extra white space called the Quiet Zone (QZ) around the code pattern. Most of the time, the white space around the barcode is this part, to easily separate the code pattern from the background image. In more detail, since the area is sufficiently larger than the interval between code patterns, it is possible to easily distinguish the code pattern area from the other areas by using the difference in density of the QZ pattern. Even in the case of an alphanumeric region, it is possible to determine the line and text regions by using the density of adjacent objects based on the input location information. In the case of a color code, a plurality of cells may be adjacent to each other to represent a code, such as a rectangle or a circle. Such an object can recognize the shape and boundary of the object by tracking the boundary line.

다양한 실시 예에서, 프리뷰 영상, 동영상, 애니메이션 GIF와 같은 연속된 이미지인 경우, 상기 선택된 객체영역의 위치를 지속적으로 유지하면서 해당 객체영역을 알리는 사용자 인터페이스를 디스플레이할 수도 있다. 예를 들어, 바코드 영역으로 인식된 영역을 반투명, 색상, 밝기 등으로 표시하거나 테두리선, 마크, 도형 등을 이용하여 표시하고 매번 새로 입력되는 이미지에서 대해서도 상기 사용자 인터페이스를 유지할 수도 있다. 이는 상기 후보 객체영역이나 상기 선택된 객체영역인 경우에, 변화된 위치를 지속적으로 추적(tracking)함으로써 사용자에게 선택이나 제스처 입력 등 사용자 입력장치에 의한 기능을 제공하기 용이하게 하기 위함이다. 변화된 위치의 추적은 이전에 입력된 이미지와 이후 입력된 연속된 이미지(매 프레임 단위 혹은 일정 시간 주기)에 대해 차분 영상을 계산함으로써 변화된 움직임 벡터 등을 구하여 구할 수 있다. 또는 필요한 이미지마다 상기 영역 추출 방식을 이용하여 매번 구할 수도 있다. 일반적으로는 매번 구하는 방식은 프로세스 시간과 메모리 사용량을 증대시키므로 차분 영상 분석을 통해 상기 이미지들 간의 차이가 매우 크거나 새로운 객체가 입력되는 등과 같이 상기 객체영역 선택 동작을 수행할 필요가 있는지 판단과정을 거친 후 수행할 수 있다. 혹은 이전에 수행했던 상기 객체영역 선택 동작의 발생 시간으로부터 소정의 시간이 경과 할 때, 이를 상기 판단과정에서 수행하는 조건으로 인식하고, 가장 최근의 정확한 상황 판단을 상기 영역지정 과정을 새로 입력된 이미지에 대해 수행할 수 있다. In various embodiments, in the case of a continuous image such as a preview image, a moving image, and an animated GIF, a user interface indicating the object region may be displayed while maintaining the position of the selected object region. For example, an area recognized as a barcode area may be displayed as translucent, color, brightness, etc., or may be displayed using a border line, mark, or figure, and the user interface may be maintained even in an image newly inputted each time. This is to facilitate providing functions by a user input device, such as selection or gesture input, to a user by continuously tracking a changed position in the case of the candidate object area or the selected object area. Tracking of a changed position can be obtained by calculating a difference image for a previously input image and a subsequent input continuous image (each frame unit or a predetermined time period) to obtain a changed motion vector. Alternatively, each required image may be obtained each time using the above region extraction method. In general, since the method of obtaining each time increases the process time and memory usage, the process of determining whether the object region selection operation needs to be performed, such as when the difference between the images is very large or a new object is input through differential image analysis. It can be done after going through. Or, when a predetermined time elapses from the occurrence time of the previously performed object region selection operation, this is recognized as a condition to be performed in the determination process, and the region designating process is newly inputted to determine the most recent accurate situation. Can be done for

다양한 실시 예에서, 코드 인식모듈은 UPS(Universe Product Code), EAN(International Article Number), ISBN(International Standard Book Number) 등과 같은 1차원 바코드, QR(Quick Response) 코드, 데이터 매트릭스(Data matrix), 맥시코드(Maxi code), 컬러코드(ColorCode) 등과 같은 매트릭스형 2차원 코드, PDF-417 등과 같이 바코드가 여러 층 겹쳐진 형태의 계층형 코드(Layered code)와 같이 다양한 이미지 코드 종류들 중 한 가지 이상을 포함할 수 있으며, 사용자 제스처에 의해 선택될 수 있다. 또는 코드 인식모듈이 구동될 시, 이러한 코드 종류가 판단하여 해당하는 코드 인식모듈을 구동할 수도 있다.In various embodiments, the code recognition module includes a one-dimensional barcode such as a Universal Product Code (UPS), an International Article Number (EAN), an International Standard Book Number (ISBN), a Quick Response (QR) code, a data matrix, One or more of a variety of image code types, such as a matrix-type two-dimensional code such as Maxi code and ColorCode, and a layered code in the form of multiple layers of barcodes such as PDF-417 May include, and may be selected by a user gesture. Alternatively, when the code recognition module is driven, the code type may be determined and a corresponding code recognition module may be driven.

객체영역을 지정하는 동작과 객체인식모듈을 선택하는 동작은 별도 동작할 수 있으나, 하나의 사용자 제스처에서 동시에 수행될 수도 있다. 예를 들어 사용자 제스처가 입력될 때, 사용자 제스처가 발생한 영역의 일부를 포함하는 영역을 상기 객체영역으로 인식할 수 있다. 상기 객체영역은 제스처의 시작을 위해 터치가 발생한 위치, 제스처의 종료가 발생한 위치, 혹은 제스처가 발생한 경로에 있는 하나 이상의 객체들의 위치를 포함할 수 있다.The operation of designating the object area and the operation of selecting the object recognition module may be operated separately, but may be performed simultaneously in one user gesture. For example, when a user gesture is input, an area including a part of an area in which the user gesture has occurred may be recognized as the object area. The object area may include a location where a touch occurs to start a gesture, a location where the gesture ends, or a location of one or more objects in a path where the gesture occurs.

제스처가 발생하는 위치는 지정된 객체영역 이외일 수도 있다. 예를 들어, 상기 지정된 객체영역이 하나 이상 있고, 해당 객체영역들이 모두 바코드인 경우이라면, 지정된 객체영역 이외 다른 영역에서 발생한 제스처 입력이 바코드 인식 명령을 의미하면, 지정된 객체영역들의 바코드들에 대한 디코딩 명령이 수행되고, 그 결과가 사용자 선택에 의해 각각 디스플레이에 표시될 수 있다.The location where the gesture occurs may be outside the designated object area. For example, if there is one or more designated object areas and all of the corresponding object areas are barcodes, if a gesture input generated in an area other than the designated object area means a barcode recognition command, decoding of barcodes of the designated object areas The command is executed, and the result can be displayed on the respective display by user selection.

또 다른 실시 예로서, 제스처가 발생한 경로에 포함된 이미지의 패턴 정보를 이용하여 동작할 디코더나 모듈의 종류를 지정할 수도 있다. 한 예로 EAN, ISBN과 같은 1차원 바코드를 인식하기 위해 바코드 패턴의 시작 패턴 부분의 이미지를 포함하는 제스처를 취한 경우 이를 1차원 바코드로 인식하기 용이하다. 따라서 1차원 바코드의 특징을 나타내는 시작패턴, 종료패턴, 데이터 패턴 중 최소한 하나 이상을 포함하는 영역에서 제스처 입력이 발생한다면, 제스처 입력시 스트로크 정보가 발생한 이미지 영역의 패턴 정보를 분석함으로써 종류를 판단할 수 있다. 유사한 방식의 또 다른 실시 예로는 제스처가 지나는 이미지 영역에서 2차원 바코드가 가진 고유의 패턴 정보(Eye bull mark, Code alignment 패턴, finder pattern 등)를 분석함으로써 판별할 수도 있다. 예를 들어 QR 코드의 경우에는 세 개의 finding 패턴이 있는 사각형 형태의 이미지 코드이므로 상기 지정된 객체영역에서 스트로크상의 경로를 추적하여 finder pattern의 특징인 1:1:3:1:1의 비율의 패턴 정보가 발견되면 QR 코드로 인식될 수 있다. As another embodiment, a type of a decoder or module to be operated may be designated by using pattern information of an image included in a path in which a gesture occurs. For example, in order to recognize a one-dimensional barcode such as EAN or ISBN, when a gesture including an image of the start pattern portion of a barcode pattern is taken, it is easy to recognize it as a one-dimensional barcode. Therefore, if a gesture input occurs in an area including at least one of a start pattern, an end pattern, and a data pattern representing the characteristics of a one-dimensional barcode, the type can be determined by analyzing the pattern information of the image area in which the stroke information occurs when the gesture is input I can. Another example of a similar method may be determined by analyzing unique pattern information (Eye bull mark, code alignment pattern, finder pattern, etc.) of the 2D barcode in the image area through which the gesture passes. For example, in the case of a QR code, since it is a square image code with three finding patterns, the path on the stroke is tracked in the specified object area, and pattern information in the ratio of 1:1:3:1:1, a characteristic of the finder pattern If found, it can be recognized as a QR code.

전자장치는 1314단계에서 선택된 객체 인식모듈을 이용하여 해당 객체영역을 분석하고 1316단계에서 분석결과를 제공할 수 있다.The electronic device may analyze the object region using the object recognition module selected in step 1314 and provide the analysis result in step 1316.

반면, 1308단계에서 터치입력이 상기 사용자 제스처가 아닌 경우, 1318단계로 진행하여 선택영역 포커싱 또는 줌인/줌아웃 같은 카메라 촬영을 위한 기능을 수행할 수 있다.On the other hand, in step 1308, if the touch input is not the user gesture, the process proceeds to step 1318 to perform a function for camera photographing such as focusing a selected area or zooming in/zooming out.

도 14는 본 발명의 다양한 실시 예에 따른 정보를 포함하는 코드의 종류를 도시하고 있다.14 illustrates types of codes including information according to various embodiments of the present disclosure.

상기 도 14의 (a)는 데이터 매트릭스(data matrix)이고, 상기 도 14의 (b)는 QR 코드이고, 상기 도 14의 (c)는 PDF417이고, 상기 도 14의 (d)는 Code 49이다.14(a) is a data matrix, FIG. 14(b) is a QR code, FIG. 14(c) is PDF417, and FIG. 14(d) is Code 49 .

상기 데이터 매트릭스는 전체 256 바이트 ASCII 문자 세트에서 3110 문자까지 인코딩할 수 있는 높은 밀도의 2차원 바코드이고, 상기 QR 코드는 흑백 격자 무늬 패턴으로 정보를 나타내는 매트릭스 형식의 이차원 바코드이고, 상기 PDF417는 가변적인 심볼 길이와 가변적인 심볼 높이를 갖는 이차원 심볼 코드이고, Code 49는 다층형이고 작은 데이터 길이는 가변인 연속형 심볼로지로서 128개의 모든 ASCII문자로 표현될 수 있다.The data matrix is a high-density two-dimensional barcode capable of encoding up to 3110 characters in a total 256-byte ASCII character set, the QR code is a two-dimensional barcode in a matrix format representing information in a black and white grid pattern, and the PDF417 is a variable It is a two-dimensional symbol code having a symbol length and variable symbol height, and Code 49 is a multi-layered and small data length variable continuous symbology, which can be expressed as all 128 ASCII characters.

도 15는 본 발명의 다양한 실시 예에 따른 사용자 제스처에 기반하여 QR코드를 인식하는 예를 도시하고 있다.15 illustrates an example of recognizing a QR code based on a user gesture according to various embodiments of the present disclosure.

상기 도 15를 참조하면, QR코드는 Finder pattern, alignment pattern, 데이터영역으로 구성될 수 있다. Finder pattern은 사각형 모서리에 각각 흑백패턴 1:1:3:1:1 비율로 존재하며, 디코더 애플리케이션에서 QR코드의 위치를 검출하는데 사용될 수 있다. alignment pattern은 Finder pattern들 사이에 흑백패턴 1:1:1:1:1 비율로 존재하며, 디코더 애플리케이션에서 심볼의 좌표를 결정하는데 사용될 수 있다.Referring to FIG. 15, the QR code may be composed of a Finder pattern, an alignment pattern, and a data area. The Finder pattern exists in the ratio of a 1:1:3:1:1 black-and-white pattern at each corner of the square, and can be used to detect the location of a QR code in a decoder application. The alignment pattern exists between Finder patterns in a ratio of 1:1:1:1:1 to black and white, and can be used to determine the coordinates of a symbol in a decoder application.

상기 도 15의 (a)는 제1 Finder pattern에서 제3 Finder pattern으로 대각선으로 사용자 제스처가 검출되는 경우이고, 상기 도 15의 (b)는 제1 Finder pattern에서 제2 Finder pattern으로 좌측에서 우측으로 사용자 제스처가 검출되는 경우이고, 상기 도 15의 (c)는 제1 Finder pattern 영역에서 사용자 제스처가 검출되는 경우이고, 상기 도 15의 (d)는 제1 Finder pattern-제2 Finder pattern-제3 Finder pattern 방향으로 사용자 제스처가 검출되는 경우이고, 상기 도 15의 (e)는 제1 Finder pattern-제2 Finder pattern-제3 Finder pattern-제4 Finder pattern 방향으로 사용자 제스처가 검출되는 경우이고, 도 15의 (f)는 QR 코드 내에 Q라는 문자가 사용자 제스처를 통해 입력되는 경우이다.FIG. 15(a) shows a case where a user gesture is detected diagonally from the first Finder pattern to the third Finder pattern, and FIG. 15(b) is from the left to the right from the first Finder pattern to the second Finder pattern. When a user gesture is detected, FIG. 15(c) is a case where a user gesture is detected in a first Finder pattern area, and FIG. 15(d) shows a first Finder pattern-second Finder pattern-third A user gesture is detected in the direction of the Finder pattern, and (e) of FIG. 15 is a case where a user gesture is detected in the direction of the first Finder pattern-the second Finder pattern-the third Finder pattern-the fourth Finder pattern. (F) of 15 is a case in which the character Q in the QR code is input through a user gesture.

상술한 바와 같이, QR코드의 Finder pattern 정보에 기반한 사용자 제스처 패턴을 인식하여 QR 코드임을 인지하거나 또는 QR코드임을 지시하는 Q 문자입력의 사용자 제스처를 통해 QR 코드임을 인지할 수 있다.As described above, it is possible to recognize the QR code by recognizing the user gesture pattern based on the Finder pattern information of the QR code or through a user gesture of Q character input indicating the QR code.

도 16은 본 발명의 다양한 실시 예에 따른 사용자 제스처에 기반하여 데이터 매트릭스(data matrix) 을 인식하는 예를 도시하고 있다.16 illustrates an example of recognizing a data matrix based on a user gesture according to various embodiments of the present disclosure.

상기 도 16을 참조하면, QR코드와 마찬가지로, 데이터 매트릭스는 Finder pattern, alignment pattern, 데이터영역으로 구성될 수 있다. 다만 데이터 매트릭스의 Finder pattern은 상기 도 16의 (b)와이 같이 좌측 경계와 아래 경계부분에 위치하고 데이터 매트릭스의 상기 도 16의 (a)와이 같이 우측 경계와 위쪽 경계부분 각각에 흑백패턴 1:1:1:1:1 비율로 존재할 수 있다.Referring to FIG. 16, like a QR code, a data matrix may be composed of a Finder pattern, an alignment pattern, and a data area. However, the Finder pattern of the data matrix is located at the left boundary and the lower boundary as shown in Fig. 16(b), and a black and white pattern at each of the right boundary and upper boundary as shown in Fig. 16(a) of the data matrix: It can exist in a 1:1:1 ratio.

상기 도 16의 (a)는 우측 경계와 위쪽 경계부분에 각각 흑백패턴 1:1:1:1:1 비율로 존재하는 alignment pattern을 기반으로 사용자 제스처가 검출되는 경우이고, 상기 도 16의 (b)는 좌측 경계와 아래 경계부분에 존재하는 Finder pattern을 기반으로 사용자 제스처가 검출되는 경우이고, 상기 도 16의 (c)는 우측 경계와 위쪽 경계부분에 각각 흑백패턴 1:1:1:1:1 비율로 존재하는 alignment pattern 및 좌측 경계와 아래 경계부분에 존재하는 Finder pattern을 기반으로 사용자 제스처가 검출되는 경우이고, 도 16의 (d)는 데이터 매트릭스 내에 "D"라는 문자가 사용자 제스처를 통해 입력되는 경우이다.FIG. 16(a) is a case where a user gesture is detected based on an alignment pattern existing in a ratio of 1:1:1:1:1 to a black-and-white pattern on a right border and an upper border, and FIG. 16(b) ) Is a case where a user gesture is detected based on a Finder pattern existing at the left and lower borders, and FIG. 16C shows a black and white pattern at the right and upper borders, respectively, 1:1:1:1: A user gesture is detected based on the alignment pattern present at a ratio of 1 and the Finder pattern present at the left and lower boundaries, and FIG. 16D shows the character "D" in the data matrix through the user gesture. This is the case when it is entered.

상술한 바와 같이, 데이터 매트릭스의 Finder pattern 및 alignment pattern 정보에 기반한 사용자 제스처 패턴을 인식하여 데이터 매트릭스임을 인지하거나 또는 데이터 매트릭스임을 지시하는 D 문자입력의 사용자 제스처를 통해 데이터 매트릭스임을 인지할 수 있다.As described above, the data matrix may be recognized by recognizing the user gesture pattern based on the Finder pattern and alignment pattern information of the data matrix, or the data matrix may be recognized through a user gesture of D character input indicating the data matrix.

도 17은 본 발명의 다양한 실시 예에 따른 사용자 제스처에 기반하여 PDF 417 혹은 바코드를 인식하는 예를 도시하고 있다.17 illustrates an example of recognizing a PDF 417 or a barcode based on a user gesture according to various embodiments of the present disclosure.

상기 도 17을 참조하면, PDF417은 start pattern, end pattern, 데이터영역으로 구성될 수 있다. start pattern은 코드의 시작을 알리는 것이고, end pattern은 코드의 종료를 알리는 것이다. 도시하지 않았지만, start pattern 다음에 왼쪽임을 알리는 left row indicator가 있고 end pattern 바로 옆에 오른쪽임을 알리는 Right Row indicator가 위치할 수 있다. 또한, PDF417은 도 17의 (c)와 같이 중간 중간에 alignment pattern이 포함될 수 있다.Referring to FIG. 17, PDF417 may be composed of a start pattern, an end pattern, and a data area. The start pattern signals the beginning of the code, and the end pattern signals the end of the code. Although not shown, there may be a left row indicator indicating that it is left after the start pattern, and a Right Row indicator indicating that it is right next to the end pattern may be located. In addition, PDF417 may include an alignment pattern in the middle as shown in (c) of FIG. 17.

도 17의 (a)는 start pattern이 있는 지점에서 end pattern이 있는 지점으로 사용자 제스처가 일직선으로 검출되는 경우이고, 도 17의 (b) 및 (c)는 start pattern이 있는 지점에서 end pattern이 있는 지점으로 사용자 제스처가 대각선방향으로 검출되는 경우이고, 도 17의 (d)는 데이터 매트릭스 내에 "P"라는 문자가 사용자 제스처를 통해 입력되는 경우이다.Figure 17 (a) is a case where the user gesture is detected in a straight line from the point where the start pattern is present to the point where the end pattern is, and Figures 17 (b) and (c) show the end pattern at the point where the start pattern is present. A user gesture to a point is detected in a diagonal direction, and FIG. 17D shows a case in which the character “P” is input in the data matrix through the user gesture.

상술한 바와 같이, PDF417은 start pattern, end pattern 및 alignment pattern 정보에 기반한 사용자 제스처 패턴을 인식하여 PDF417임을 인지하거나 또는 PDF417임을 지시하는 P 문자입력의 사용자 제스처를 통해 PDF417임을 인지할 수 있다.As described above, the PDF417 may recognize the user's gesture pattern based on the start pattern, end pattern, and alignment pattern information to recognize the PDF417 or recognize the PDF417 through a user gesture of the P character input indicating the PDF417.

본 개시에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 카메라(camera), 웨어러블 장치(wearable device), 전자 시계(electronic clock), 손목 시계(wrist watch), 스마트 가전(smart white appliance)(예: 냉장고, 에어컨, 청소기, 인공 지능 로봇, TV, DVD(digital video disk) 플레이어, 오디오, 오븐, 전자레인지, 세탁기, 공기 청정기, 전자 액자 등), 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 전자 사전, 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(electronic equipment for ship, 예를 들면, 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 전자 의복, 전자 키, 캠코더(camcorder), 게임 콘솔(game consoles), HMD(head-mounted display), 평판표시장치(flat panel display device), 전자 앨범, 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device) 또는 프로젝터(projector) 등의 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. . 본 개시에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. The electronic device according to the present disclosure may be a device including a communication function. For example, a smart phone (smartphone), a tablet PC (tablet personal computer), a mobile phone (mobile phone), a videophone, an e-book reader (e-book reader), a desktop PC (desktop personal computer), a laptop PC (laptop PC) personal computer), netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical device, electronic bracelet, electronic necklace, electronic appcessory, camera, Wearable devices, electronic clocks, wrist watches, smart white appliances (e.g. refrigerators, air conditioners, vacuum cleaners, artificial intelligence robots, TVs, digital video disk (DVD) players) , Audio, oven, microwave oven, washing machine, air purifier, electronic frame, etc.), various medical devices (e.g. MRA (magnetic resonance angiography), MRI (magnetic resonance imaging), CT (computed tomography), camera, ultrasound, etc.), Navigation device, global positioning system receiver (GPS), event data recorder (EDR), flight data recorder (FDR), set-top box, TV box (e.g., Samsung HomeSyncTM, Apple TVTM) , Or Google TVTM), electronic dictionaries, automotive infotainment devices, electronic equipment for ships (e.g., navigation devices for ships, gyro compasses, etc.), avionics, security devices, electronic clothing , Electronic key, cam Coders, game consoles, head-mounted displays (HMD), flat panel display devices, electronic albums, furniture or parts of buildings/structures including communication functions, electronic boards It may be a combination of one or more of various devices such as an electronic board, an electronic signature receiving device, or a projector. . It is obvious to those skilled in the art that the electronic device according to the present disclosure is not limited to the above-described devices.

도 18은 다양한 실시 예에 따른 전자 장치에 대한 블록도를 도시한다. 도 18을 참조하면, 상기 전자장치(1800)는 버스(1810), 프로세서(1820), 메모리 (1830), 사용자 입력 모듈(1840), 디스플레이 모듈(1850), 또는 통신 모듈(1860)을 포함할 수 있다. 18 is a block diagram of an electronic device according to various embodiments of the present disclosure. Referring to FIG. 18, the electronic device 1800 may include a bus 1810, a processor 1820, a memory 1830, a user input module 1840, a display module 1850, or a communication module 1860. I can.

*상기 버스(1810)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.* The bus 1810 may be a circuit that connects the above-described components to each other and transmits communication (eg, a control message) between the above-described components.

상기 프로세서(1820)는, 예를 들면, 상기 버스(1810)를 통해 전술한 다른 구성요소들(예: 상기 메모리(1830), 상기 사용자 입력 모듈(1840), 상기 디스플레이 모듈(1850), 상기 통신 모듈(1860) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.The processor 1820, for example, through the bus 1810, other components described above (for example, the memory 1830, the user input module 1840, the display module 1850), the communication The module 1860 or the like) may receive an instruction, decrypt the received instruction, and perform an operation or data processing according to the decrypted instruction.

상기 메모리(1830)는, 상기 프로세서(1820) 또는 다른 구성요소들(예: 상기 사용자 입력 모듈(1840), 상기 디스플레이 모듈(1850), 상기 통신 모듈(1860)등)로부터 수신되거나 상기 프로세서(1820) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리(1830)는, 예를 들면, 커널(1831), 미들웨어(1832), 애플리케이션 프로그래밍 인터페이스(API: application programming interface)(1833) 또는 애플리케이션(1834) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. The memory 1830 may be received from the processor 1820 or other components (eg, the user input module 1840, the display module 1850, the communication module 1860, etc.) or the processor 1820 ) Or commands or data generated by other components. The memory 1830 may include programming modules such as, for example, a kernel 1831, middleware 1832, an application programming interface (API) 1833 or an application 1834. Each of the above-described programming modules may be composed of software, firmware, hardware, or a combination of at least two or more of them.

상기 커널(1831)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(1832), 상기 API(1833) 또는 상기 애플리케이션(1834)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스(1810), 상기 프로세서(1820) 또는 상기 메모리(1830) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(1831)은 상기 미들웨어(1832), 상기 API(1833) 또는 상기 애플리케이션(1834)에서 상기 전자 장치(1800)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. The kernel 1831 is the system resources used to execute the other programming modules, for example, the middleware 1832, the API 1833, or an operation or function implemented in the application 1834 (e.g. : The bus 1810, the processor 1820, the memory 1830, etc.) can be controlled or managed. In addition, the kernel 1831 may provide an interface that allows the middleware 1832, the API 1833, or the application 1834 to access and control or manage individual components of the electronic device 1800. have.

상기 미들웨어(1832)는 상기 API(1833) 또는 상기 애플리케이션(1834)이 상기 커널(1831)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어(1832)는 상기 (다수의) 애플리케이션들(1834)로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 (다수의) 애플리케이션들(1834)들 중 적어도 하나의 애플리케이션에 상기 전자 장치(1800)의 시스템 리소스(예: 상기 버스(1810), 상기 프로세서(1820) 또는 상기 메모리(1830) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.The middleware 1832 may serve as an intermediary so that the API 1833 or the application 1834 communicates with the kernel 1831 to exchange data. In addition, the middleware 1832 is, for example, in relation to the work requests received from the (multiple) applications 1834, to at least one of the (multiple) applications 1834 Load on a work request using a method such as assigning priority to use system resources of the electronic device 1800 (for example, the bus 1810, the processor 1820, or the memory 1830) You can perform balancing.

상기 API(1833)는 상기 애플리케이션(1834)이 상기 커널(1831) 또는 상기 미들웨어(1832)에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다. The API 1833 is an interface that allows the application 1834 to control functions provided by the kernel 1831 or the middleware 1832, for example, file control, window control, image processing, or text control. It may include at least one interface or function for the like.

상기 사용자 입력 모듈(1840)은, 예를 들면, 사용자로부터 명령 또는 데이터를 입력받아 상기 버스(1810)를 통해 상기 프로세서(1820) 또는 상기 메모리(1830)에 전달할 수 있다. 상기 디스플레이 모듈(1850)은 사용자에게 화상, 영상 또는 데이터 등을 표시할 수 있다. The user input module 1840 may receive, for example, a command or data from a user and transmit it to the processor 1820 or the memory 1830 through the bus 1810. The display module 1850 may display an image, an image, or data to a user.

상기 통신 모듈(1860)은 다른 전자 장치(1802)와 상기 전자 장치(1800) 간의 통신을 연결할 수 있다. 상기 통신 모듈(1860)은 소정의 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 소정의 네트워크 통신(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)(1862)을 지원할 수 있다. 상기 전자 장치 102, 104 각각은 상기 전자 장치(1800)와 동일한 (예: 같은 타입의) 장치이거나 또는 다른 (예: 다른 타입의) 장치일 수 있다.The communication module 1860 may connect communication between another electronic device 1802 and the electronic device 1800. The communication module 1860 includes a predetermined short-range communication protocol (e.g., Wifi (wireless fidelity), BT (Bluetooth), NFC (near field communication)) or a predetermined network communication (e.g. Internet, LAN (local area network), WAN). (wire area network), telecommunication network, cellular network, satellite network, or POTS (plain old telephone service), etc.) 1862. Each of the electronic devices 102 and 104 is the same as the electronic device 1800 (eg It may be a device of the same type or a different device (eg, a different type).

또한, 상기 통신 모듈(1860)은 또 다른 전자 장치(1804) 및 서버(1864)와 상기 전자 장치(1800) 간 네트워크(1862)를 통해 연결할 수 있다.In addition, the communication module 1860 may be connected to another electronic device 1804 and a server 1864 through a network 1862 between the electronic device 1800.

도 19는 다양한 실시 예들에 따른 하드웨어(1900)의 블록도를 도시한다. 상기 하드웨어(1900)는, 예를 들면, 도 18에 도시된 전자 장치(1800)일 수 있다. 도 19를 참조하면, 상기 하드웨어(1900)는 하나 이상의 프로세서(1910), SIM(subscriber identification module) 카드(1914), 메모리(1920), 통신 모듈(1930), 센서 모듈(1940), 사용자 입력 모듈(1950), 디스플레이 모듈(1960), 인터페이스(270), 오디오 코덱(1980), 카메라 모듈(1991), 전력관리 모듈(1995), 배터리(1996), 인디케이터(1997)또는 모터(1998) 를 포함할 수 있다. 19 is a block diagram of hardware 1900 according to various embodiments. The hardware 1900 may be, for example, the electronic device 1800 illustrated in FIG. 18. Referring to FIG. 19, the hardware 1900 includes one or more processors 1910, a subscriber identification module (SIM) card 1914, a memory 1920, a communication module 1930, a sensor module 1940, and a user input module. (1950), a display module (1960), an interface 270, an audio codec (1980), a camera module (1991), a power management module (1995), a battery (1996), an indicator (1997) or a motor (1998). can do.

상기 프로세서(1910)(예: 상기 프로세서(1820))는 하나 이상의 애플리케이션 프로세서(AP: application processor)(1911) 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor)(1913)를 포함할 수 있다. 상기 프로세서(1910)는, 예를 들면, 도 18에 도시된 프로세서(1820)일 수 있다. 도 19에서는 상기 AP(1911) 및 상기 CP(1913)가 프로세서(1910) 내에 포함된 것으로 도시되었으나, 상기 AP(1911)와 상기 CP(1913)는 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 한 실시 예에서는 상기 AP(1911) 및 상기 CP(1913)는 하나의 IC 패키지 내에 포함될 수 있다.The processor 1910 (for example, the processor 1820) may include one or more application processors (AP) 1911 or one or more communication processors (CP) 1913. The processor 1910 may be, for example, the processor 1820 shown in FIG. 18. 19 shows that the AP 1911 and the CP 1913 are included in the processor 1910, the AP 1911 and the CP 1913 may be included in different IC packages, respectively. In one embodiment, the AP 1911 and the CP 1913 may be included in one IC package.

상기 AP(1911)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(1911)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(1911)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 프로세서(1910)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.The AP 1911 may drive an operating system or an application program to control a plurality of hardware or software components connected to the AP 1911, and perform various data processing and operations including multimedia data. The AP 1911 may be implemented with, for example, a system on chip (SoC). According to an embodiment, the processor 1910 may further include a Graphic Processing Unit (GPU) (not shown).

상기 CP(1913)는 상기 하드웨어(1900)를 포함하는 전자 장치(예: 상기 전자 장치(1800))와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. 상기 CP (1913)는, 예를 들면, SoC로 구현될 수 있다. 한 실시 예에 따르면, 상기 CP(1913)는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. 상기 CP(1913)는, 예를 들면, 가입자 식별 모듈(예: SIM 카드(1914))을 이용하여 통신 네트워크 내에서 단말의 구별 및 인증을 수행할 수 있다. 또한, 상기 CP(1913)는 사용자에게 음성 통화, 영상 통화, 문자 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다. The CP 1913 manages a data link and converts a communication protocol in communication between an electronic device (eg, the electronic device 1800) including the hardware 1900 and other electronic devices connected through a network. can do. The CP 1913 may be implemented as an SoC, for example. According to an embodiment, the CP 1913 may perform at least a part of a multimedia control function. The CP 1913 may distinguish and authenticate a terminal within a communication network using, for example, a subscriber identification module (eg, a SIM card 1914). In addition, the CP 1913 may provide services such as a voice call, a video call, a text message, or packet data to the user.

또한, 상기 CP(1913)는 상기 통신 모듈(1930)의 데이터 송수신을 제어할 수 있다. 도 19에서는, 상기 CP(1913), 상기 전력관리 모듈(1995) 또는 상기 메모리(1920) 등의 구성요소들이 상기 AP(1911)와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, 상기 AP(1911)가 전술한 구성요소들의 적어도 일부(예: 상기 CP(1913))를 포함하도록 구현될 수 있다. In addition, the CP 1913 may control data transmission/reception of the communication module 1930. In FIG. 19, components such as the CP 1913, the power management module 1995, or the memory 1920 are shown as separate components from the AP 1911, but according to an embodiment, the The AP 1911 may be implemented to include at least some of the aforementioned components (eg, the CP 1913).

한 실시 예에 따르면, 상기 AP(1911) 또는 상기 CP(1913)는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP(1911) 또는 상기 CP(1913)는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.According to an embodiment, the AP 1911 or the CP 1913 may load commands or data received from at least one of a nonvolatile memory or other components connected to each of the volatile memory to be processed. . Further, the AP 1911 or the CP 1913 may store data received from at least one of the other components or generated by at least one of the other components in a nonvolatile memory.

상기 SIM 카드(1914)는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드(1914)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.The SIM card 1914 may be a card implementing a subscriber identification module, and may be inserted into a slot formed at a specific location of an electronic device. The SIM card 1914 may include unique identification information (eg, integrated circuit card identifier (ICCID)) or subscriber information (eg, international mobile subscriber identity (IMSI)).

상기 메모리(1920)는 내장 메모리(1922) 또는 외장 메모리(1924)를 포함할 수 있다. 상기 메모리(1920)는, 예를 들면, 도 18에 도시된 메모리(1830)일 수 있다. 상기 내장 메모리(1922)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 내장 메모리 222는 Solid State Drive (SSD)의 형태를 취할 수도 있다. 상기 외장 메모리(1924)는, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 memorystick 등을 더 포함할 수 있다.The memory 1920 may include an internal memory 1922 or an external memory 1924. The memory 1920 may be, for example, the memory 1830 shown in FIG. 18. The internal memory 1922 may be, for example, a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.)) or a non-volatile memory, for example. For example, OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory, etc.) It may include at least one. According to an embodiment, the internal memory 222 may take the form of a solid state drive (SSD). The external memory 1924 is, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), extreme digital (xD), or a memorystick. It may further include.

상기 통신 모듈(1930)은 무선 통신 모듈(1931) 또는 RF 모듈(1934)을 포함할 수 있다. 상기 통신 모듈(1930)은, 예를 들면, 도 18에 도시된 통신 모듈(1860)일 수 있다. 상기 무선 통신 모듈(1931)은, 예를 들면, WiFi 233, BT(bluetooth)(1935), GPS(1937) 또는 NFC(near field communication)(1939)를 포함할 수 있다. 예를 들면, 상기 무선 통신 모듈(1931)은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가로 또는 대체적으로, 상기 무선 통신 모듈(1931)은 상기 하드웨어(1900)를 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.The communication module 1930 may include a wireless communication module 1931 or an RF module 1934. The communication module 1930 may be, for example, the communication module 1860 shown in FIG. 18. The wireless communication module 1931 may include, for example, WiFi 233, BT (bluetooth) 1935, GPS 1937, or NFC (near field communication) 1939. For example, the wireless communication module 1931 may provide a wireless communication function using a radio frequency. Additionally or alternatively, the wireless communication module 1931 connects the hardware 1900 to a network (eg, Internet, a local area network (LAN), a wire area network (WAN), a telecommunication network, a cellular network, a satellite network, or a POTS). (plain old telephone service), etc.) may include a network interface (eg, LAN card) or a modem to connect.

상기 RF 모듈(1934)은 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자 신호의 송수신을 담당할 수 있다. 상기RF 모듈(1934)은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈(1934)은 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.The RF module 1934 may be responsible for transmitting and receiving data, for example, transmitting and receiving an RF signal or a called electronic signal. Although not shown, the RF module 1934 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, or a low noise amplifier (LNA). In addition, the RF module 1934 may further include a component for transmitting and receiving an electromagnetic wave in a free space in wireless communication, for example, a conductor or a conducting wire.

상기 센서 모듈(1940)은, 예를 들면, 제스처 센서(1940A), 자이로 센서(1940B), 기압 센서(1940C), 마그네틱 센서(1940D), 가속도 센서(1940E), 그립 센서(1940F), 근접 센서(1940G), RGB(red, green, blue) 센서(1940H), 생체 센서(1940I), 온/습도 센서(1940J), 조도 센서(1940K) 또는 UV(ultra violet) 센서(1940M) 중의 적어도 하나를 포함할 수 있다. 상기 센서 모듈(1940)은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로/대체적으로, 상기 센서 모듈(1940)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 상기 센서 모듈(1940)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.The sensor module 1940 is, for example, a gesture sensor 1940A, a gyro sensor 1940B, an atmospheric pressure sensor 1940C, a magnetic sensor 1940D, an acceleration sensor 1940E, a grip sensor 1940F, and a proximity sensor. (1940G), RGB (red, green, blue) sensor (1940H), biometric sensor (1940I), temperature/humidity sensor (1940J), illuminance sensor (1940K), or UV (ultra violet) sensor (1940M) Can include. The sensor module 1940 may measure a physical quantity or detect an operating state of an electronic device, and convert the measured or detected information into an electric signal. Additionally/alternatively, the sensor module 1940 may include, for example, an olfactory sensor (E-nose sensor, not shown), an EMG sensor (electromyography sensor, not shown), an EEG sensor (electroencephalogram sensor, not shown), and ECG. A sensor (electrocardiogram sensor, not shown) or a fingerprint sensor may be included. The sensor module 1940 may further include a control circuit for controlling at least one or more sensors included therein.

상기 사용자 입력 모듈(1950)은 터치 패널(touch panel)(1952), (디지털) 펜 센서(pen sensor)(1954), 키(key)(1956) 또는 초음파 입력 장치(1958)를 포함할 수 있다. 상기 사용자 입력 모듈(1950)은, 예를 들면, 도 18에 도시된 사용자 입력 모듈(1840)일 수 있다. 상기 터치 패널1(952)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널(1952)은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 직접 터치뿐만 아니라 근접 인식도 가능하다. 상기 터치 패널(1952)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널(1952)은 사용자에게 촉각 반응을 제공할 수 있다. The user input module 1950 may include a touch panel 1952, a (digital) pen sensor 1954, a key 1956, or an ultrasonic input device 1958. . The user input module 1950 may be, for example, the user input module 1840 shown in FIG. 18. The touch panel 1 952 may recognize a touch input using at least one of, for example, a capacitive type, a pressure sensitive type, an infrared type, or an ultrasonic type. In addition, the touch panel 1952 may further include a controller (not shown). In the case of capacitive type, not only direct touch but also proximity recognition is possible. The touch panel 1952 may further include a tactile layer. In this case, the touch panel 1952 may provide a tactile reaction to a user.

상기 (디지털) 펜 센서(1954)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키(1956)로서, 예를 들면, 키패드 또는 터치 키가 이용될 수 있다. 상기 초음파 입력 장치(1958)는 초음파 신호를 발생하는 펜을 통해, 단말에서 마이크(예: 마이크(1988))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 상기 하드웨어(1900)는 상기 통신 모듈(1930)을 이용하여 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다. The (digital) pen sensor 1954 may be implemented using, for example, a method identical or similar to that of receiving a user's touch input or a separate recognition sheet. As the key 1956, a keypad or a touch key may be used, for example. The ultrasonic input device 1958 is a device capable of checking data by detecting sound waves with a microphone (eg, a microphone 1988) in a terminal through a pen generating an ultrasonic signal, and wireless recognition is possible. According to an embodiment, the hardware 1900 may use the communication module 1930 to receive a user input from an external device (eg, a network, a computer, or a server) connected thereto.

상기 디스플레이 모듈(1960)은 패널(1962) 또는 홀로그램 264을 포함할 수 있다. 상기 디스플레이 모듈(1960)은, 예를 들면, 도 18에 도시된 디스플레이 모듈(1950)일 수 있다. 상기 패널(1962)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널(1962)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널262은 상기 터치 패널(1952)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램(1964)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 한 실시 예에 따르면, 상기 디스플레이 모듈(1960)은 상기 패널(1962) 또는 상기 홀로그램(1964)을 제어하기 위한 제어회로를 더 포함할 수 있다. The display module 1960 may include a panel 1962 or a hologram 264. The display module 1960 may be, for example, the display module 1950 illustrated in FIG. 18. The panel 1962 may be, for example, a liquid-crystal display (LCD) or an active-matrix organic light-emitting diode (AM-OLED). The panel 1962 may be implemented, for example, to be flexible, transparent, or wearable. The panel 262 may be configured with the touch panel 1952 as a single module. The hologram 1964 may show a three-dimensional image in the air using interference of light. According to an embodiment, the display module 1960 may further include a control circuit for controlling the panel 1962 or the hologram 1964.

상기 인터페이스(1970)는, 예를 들면, HDMI(high-definition multimedia interface)(1972), USB(universal serial bus)(1974), 프로젝터(1976) 또는 D-sub(D-subminiature)(1978)를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스(1970)는, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다. The interface 1970 includes, for example, a high-definition multimedia interface (HDMI) 1972, a universal serial bus (USB) 1974, a projector 1976, or a D-sub miniature (1978). Can include. Additionally or alternatively, the interface 1970 may include, for example, a secure digital (SD)/multi-media card (MMC) (not shown) or an infrared data association (IrDA) (not shown).

상기 오디오 코덱(1980)은 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 코덱(1980)은, 예를 들면, 스피커(1982), 리시버(1984), 이어폰(1986) 또는 마이크(1988) 등을 통해 입력 또는 출력되는 음성 정보를 변환시킬 수 있다. The audio codec 1980 may convert voice and electric signals bidirectionally. The audio codec 1980 may convert voice information input or output through, for example, a speaker 1982, a receiver 1984, an earphone 1986, or a microphone 1988.

상기 카메라 모듈(1991)은 화상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.The camera module 1991 is a device capable of capturing images and video, and according to an embodiment, one or more image sensors (eg, front lens or rear lens), image signal processor (ISP), or flash LED ( Flash LED, not shown) may be included.

상기 전력관리 모듈(1995)은 상기 하드웨어(1900)의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력관리 모듈(1995)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다. The power management module 1995 may manage power of the hardware 1900. Although not shown, the power management module 1995 may include, for example, a power management integrated circuit (PMIC), a charger integrated circuit (IC), or a battery fuel gauge.

상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다. The PMIC may be mounted in an integrated circuit or an SoC semiconductor, for example. Charging methods can be divided into wired and wireless. The charger IC may charge a battery and prevent overvoltage or overcurrent from flowing from a charger. According to an embodiment, the charger IC may include a charger IC for at least one of a wired charging method or a wireless charging method. The wireless charging method includes, for example, a magnetic resonance method, a magnetic induction method, or an electromagnetic wave method, and additional circuits for wireless charging, such as a coil loop, a resonance circuit, and a rectifier, may be added. have.

상기 배터리 게이지는, 예를 들면, 상기 배터리(1996)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(1996)는 전기를 생성하여 전원을 공급할 수 있고, 예를 들면, 충전식 전지(rechargeable battery)일 수 있다. The battery gauge may measure, for example, the remaining amount of the battery 1996 and a voltage, current, or temperature during charging. The battery 1996 may generate electricity to supply power, and may be, for example, a rechargeable battery.

상기 인디케이터(1997)는 상기 하드웨어(1900) 혹은 그 일부(예: 상기 AP 1911)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1998)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 상기 MCU(1999)은, 상기 센서 모듈(1940)을 제어할 수 있다. The indicator 1997 may display a specific state of the hardware 1900 or a part thereof (for example, the AP 1911), for example, a boot state, a message state, or a charging state. The motor 1998 may convert an electrical signal into mechanical vibration. The MCU 1999 may control the sensor module 1940.

도시되지는 않았으나, 상기 하드웨어(1900)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.Although not shown, the hardware 1900 may include a processing device (eg, a GPU) for supporting mobile TV. The processing device for supporting mobile TV may process media data according to standards such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or media flow.

본 개시에 따른 하드웨어의 전술한 구성요소들의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 하드웨어는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 하드웨어의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.Names of the above-described components of the hardware according to the present disclosure may vary according to the type of electronic device. The hardware according to the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or additional other components may be further included. In addition, some of the components of the hardware according to the present disclosure are combined to form a single entity, so that functions of the corresponding components before the combination can be performed in the same manner.

도 20은 한 실시 예에 따른 프로그래밍 모듈(2000)의 블록도를 도시한다. 상기 프로그래밍 모듈(2000)은 도 18에 도시된 전자 장치(1800)(예: 상기 메모리(1830))에 포함(예: 저장)될 수 있다. 상기 프로그래밍 모듈(2000)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. 상기 프로그래밍 모듈(2000)은 하드웨어(예: 상기 하드웨어(1900))에 구현되어 전자 장치(예: 상기 전자 장치(1800))에 관련된 자원을 제어하는 운영체제(OS: operation system) 또는 운영체제 상에서 구동되는 다양한 어플리케이션(예: 상기 애플리케이션(2070)을 포함할 수 있다. 예를 들면, 상기 운영체제는 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 등이 될 수 있다. 도 20을 참조하면, 상기 프로그래밍 모듈(2000)은 커널(2010), 미들웨어(2030), API(application programming interface)(2060) 또는 어플리케이션(2070)을 포함할 수 있다.20 is a block diagram of a programming module 2000 according to an embodiment. The programming module 2000 may be included (eg, stored) in the electronic device 1800 (eg, the memory 1830) illustrated in FIG. 18. At least a part of the programming module 2000 may be composed of software, firmware, hardware, or a combination of at least two or more of them. The programming module 2000 is implemented in hardware (e.g., the hardware 1900) and is an operating system (OS) that controls resources related to an electronic device (e.g., the electronic device 1800) or is driven on the operating system. Various applications (eg, the application 2070) may be included. For example, the operating system is Android, iOS, Windows, Symbian, Tizen, or Bada. 20, the programming module 2000 may include a kernel 2010, middleware 2030, an application programming interface (API) 2060, or an application 2070.

상기 커널(2010)(예: 상기 커널 131)은 시스템 리소스 매니저(2011) 또는 디바이스 드라이버 312를 포함할 수 있다. 상기 시스템 리소스 매니저(2011)는, 예를 들면, 프로세스관리부(2013), 메모리관리부(2015) 또는 파일시스템관리부 (2017) 등을 포함할 수 있다. 상기 시스템 리소스 매니저(2011)는 시스템 리소스의 제어, 할당 또는 회수 등을 수행할 수 있다. 상기 디바이스 드라이버(2012)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버 또는 오디오 드라이버를 포함할 수 있다. 또한, 한 실시 예에 따르면, 상기 디바이스 드라이버(2012)는 IPC (inter-process communication, 미도시) 드라이버를 포함할 수 있다.The kernel 2010 (for example, the kernel 131) may include a system resource manager 2011 or a device driver 312. The system resource manager 2011 may include, for example, a process management unit 2013, a memory management unit 2015, or a file system management unit 2017. The system resource manager 2011 may control, allocate, or retrieve system resources. The device driver 2012 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, or an audio driver. In addition, according to an embodiment, the device driver 2012 may include an IPC (inter-process communication, not shown) driver.

상기 미들웨어(2030)는 상기 애플리케이션(2070)이 공통적으로 필요로 하는 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함할 수 있다. 또한, 상기 미들웨어(2030)는 상기 어플리케이션(2070)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 상기 API(2060)를 통해 기능을 제공할 수 있다. 예를 들면, 도 20에 도시된 바와 같이, 상기 미들웨어(2030)(예: 상기 미들웨어 1832)는 런타임 라이브러리(2035), 이미지 인식 매니저(3136), 어플리케이션 매니저(application manager)(2041), 윈도우 매니저(window manager)(2042), 멀티미디어 매니저(multimedia manager)(2043), 리소스 매니저(resource manager) (2044), 파워 매니저(power manager)(2045), 데이터베이스 매니저(database manager)(2046), 패키지 매니저(2047), 연결 매니저(connectivity manager) (2048), 통지 매니저(notification manager)(2049), 위치 매니저(location manager)(2050), 그래픽 매니저(graphic manager)(2051) 또는 보안 매니저(security manager)(2052) 중 적어도 하나를 포함할 수 있다.The middleware 2030 may include a plurality of modules previously implemented in order to provide functions commonly required by the application 2070. In addition, the middleware 2030 may provide a function through the API 2060 so that the application 2070 can efficiently use limited system resources inside the electronic device. For example, as shown in FIG. 20, the middleware 2030 (eg, the middleware 1832) is a runtime library 2035, an image recognition manager 3136, an application manager 2041, and a window manager. (window manager) (2042), multimedia manager (2043), resource manager (2044), power manager (2045), database manager (2046), package manager (2047), connectivity manager (2048), notification manager (2049), location manager (2050), graphic manager (2051) or security manager It may include at least one of (2052).

상기 런타임 라이브러리(2035)는, 예를 들면, 상기 어플리케이션(2070)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 한 실시 예에 따르면, 상기 런타임 라이브러리(2035)는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다.The runtime library 2035 may include, for example, a library module used by a compiler to add a new function through a programming language while the application 2070 is being executed. According to an embodiment, the runtime library 2035 may perform input/output, memory management, or functions for arithmetic functions.

상기 어플리케이션 매니저(2041)는, 예를 들면, 상기 어플리케이션(2070) 중 적어도 하나의 어플리케이션의 생명주기(life cycle)를 관리할 수 있다. 상기 윈도우 매니저(2042)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 상기 멀티미디어 매니저(2043)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 상기 리소스 매니저 (2044)는 상기 어플리케이션(2070) 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다. The application manager 2041 may manage a life cycle of at least one application among the applications 2070, for example. The window manager 2042 may manage GUI resources used on a screen. The multimedia manager 2043 may grasp a format required for reproduction of various media files, and may perform encoding or decoding of a media file using a codec suitable for a corresponding format. The resource manager 2044 may manage resources such as source code, memory, or storage space of at least one application among the applications 2070.

상기 파워 매니저(2045)는 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 동작에 필요한 전력 정보 등을 제공할 수 있다. 상기 데이터베이스 매니저(2046)는 상기 어플리케이션(2070) 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색 또는 변경할 수 있도록 관리할 수 있다. 상기 패키지 매니저(2047)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.The power manager 2045 may operate together with a basic input/output system (BIOS) to manage a battery or power and provide power information necessary for operation. The database manager 2046 may manage to create, search, or change a database to be used by at least one application among the applications 2070. The package manager 2047 may manage installation or update of an application distributed in the form of a package file.

상기 연결 매니저(2048)는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 상기 통지 매니저(2049)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 상기 위치 매니저(2050)는 전자 장치의 위치 정보를 관리할 수 있다. 상기 그래픽 매니저(2051)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 상기 보안 매니저(2052)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치(예: 상기 전자 장치(1800))가 전화 기능을 구비한 경우에는, 상기 미들웨어(2030)는 상기 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager, 미도시)를 더 포함할 수 있다. The connection manager 2048 may manage a wireless connection such as WiFi or Bluetooth. The notification manager 2049 may display or notify an event such as an arrival message, an appointment, and a proximity notification in a manner that does not interfere with the user. The location manager 2050 may manage location information of an electronic device. The graphic manager 2051 may manage a graphic effect to be provided to a user or a user interface related thereto. The security manager 2052 may provide all security functions required for system security or user authentication. According to an embodiment, when an electronic device (for example, the electronic device 1800) has a phone function, the middleware 2030 is a call manager for managing the voice or video call function of the electronic device. manager, not shown).

상기 이미지 인식 매니저(2136)는, 본 개시의 이미지 내의 객체영역 선택 및 객체인식모듈 선택과 관련한 사용자 인터페이스를 관리할 수 있다.The image recognition manager 2136 may manage a user interface related to selection of an object area and selection of an object recognition module in an image of the present disclosure.

한 실시 예에 따르면, 촬영된 이미지에서 인물, 사물, 얼굴, 배경 등과 같은 개체나 영역들을 추출, 분리하고 각각의 객체나 각각의 영역에 해당하는 주요 속성(이미지 내 객체 위치, 객체/영역간 상대 위치 혹은 위상, 형상, 색상, 화자관련 정보, 메타데이터 등)을 하나 이상 식별하는 기능을 수행하는 모듈임. 식별된 객체나 영역의 주요 속성을 메모리에 전달하여 저장함으로써, 상기 이미지에 포함된 개체나 영역에 대하여 정보 질의가 발생하였을 때, 프로세스가 메모리에서 이에 대응하는 하나 이상의 속성 정보를 수신하고 처리할 수 있다. 상기 정보 질의는 이미지, 오디오, 사용자 입력 인터페이스에 의한 좌표나 영역 지정, 키워드에 의한 질의 등이 가능함According to an embodiment, objects or areas such as people, objects, faces, backgrounds, etc. are extracted and separated from a photographed image, and key attributes corresponding to each object or each area (object position in the image, relative position between objects/areas) Or, it is a module that identifies one or more of the phase, shape, color, speaker-related information, metadata, etc.). By transferring and storing the main attributes of the identified object or region to memory, when an information query occurs for the object or region included in the image, the process can receive and process one or more attribute information corresponding thereto from the memory. have. The information query can be image, audio, coordinates or area designation by user input interface, query by keyword, etc.

상기 이미지 인식 매니저(2136)는, 전처리, 영상분할(segmentation), 특징 추출(feature extraction), 인식(recognition), 인식(recognition) 같은 다양한 영상처리를 관리할 수 있다.The image recognition manager 2136 may manage various image processing such as pre-processing, image segmentation, feature extraction, recognition, and recognition.

예컨대, 아래 기술된 이미지 처리 기법들이 이용될 수 있다.For example, the image processing techniques described below may be used.

이진화(binarization), 회색조 변환(gray-level scaling), 컬러 변환(color conversion) 등과 같은 속성 변환 기법을 이용함으로써 불필요한 정보를 제거하거나 프로세싱 속도를 빠르게 할 수 있다. 한 예로 영상에서 특정 객체의 형상을 추출하기 위해서 컬러 이미지를 사용하는 것보다는 이진화된 흑백이미지를 사용하는 것이 처리 속도 측면에서 이득을 얻을 수 있다. 예를 들어 문자, 숫자, 1차원 바코드, 2차원 흑백 바코드, 얼굴 영역 등은 우선 이진화를 통해 흑백화를 하여 패턴 정보나 경계선 추출 연산시 연산량을 줄일 수 있다.By using attribute conversion techniques such as binarization, gray-level scaling, and color conversion, unnecessary information can be removed or processing speed can be accelerated. For example, to extract the shape of a specific object from an image, rather than using a color image, using a binarized black and white image can gain a gain in terms of processing speed. For example, characters, numbers, one-dimensional barcodes, two-dimensional monochrome barcodes, and face regions may be first converted into black-and-white through binarization, thereby reducing the amount of computation when calculating pattern information or boundary line extraction.

다음 푸리에 변환(Fourier Transformation), 이산 코사인 변환(Discrete Cosine Transformation), 웨이블릿 변환(Wavelet Transformation) 등과 같은 디지털 영상변환 기법을 사용할 시, high-pass filtering, Low-pass filtering 등의 기법을 적용하기 용이하므로 영상 개선 및 관심 영역 추출 등을 처리할 수 있다.When using digital image transformation techniques such as Fourier Transformation, Discrete Cosine Transformation, and Wavelet Transformation, it is easy to apply techniques such as high-pass filtering and low-pass filtering. Image enhancement and region of interest extraction can be processed.

영상을 구성하는 픽셀들의 정보를 분석하여 블러링(Blurring), 샤프닝(sharpening), 확장, 감축, 잡영제거(noise reduction), 평활화(smoothing), 밝기 조정 등의 영상 개선 기법 (Digital Image Enhancement)을 이용함으로써 영상에서 객체의 형상, 위치, 색상 등과 같은 주요 속성들의 손실을 줄이거나 복원함으로써 특징 추출과 인식에 이용할 수 있다.Image enhancement techniques such as blurring, sharpening, expansion, reduction, noise reduction, smoothing, and brightness adjustment are performed by analyzing the information of the pixels constituting an image. By using it, it can be used for feature extraction and recognition by reducing or restoring the loss of major attributes such as the shape, position, and color of the object in the image.

경계선 추출(edge detection), 외곽선 추적(boundary following), 특징점(feature point) 추출, 실루엣 추출, 색상 분리, 영역 컬러링 알고리즘 등을 통해 디지털 영상의 크기나 특정 영역의 크기와 객체의 형태를 파악하는 과정이 필요하다. 이 밖에 디지털 영상의 윤곽선을 찾고, 색상 및 무늬를 구별하며, 질감을 알아내는 작업 등을 통해 영상의 추출 및 구분, 인식에 이용할 수 있다.The process of determining the size of a digital image, the size of a specific area, and the shape of an object through edge detection, boundary following, feature point extraction, silhouette extraction, color separation, area coloring algorithm, etc. I need this. In addition, it can be used for image extraction, classification, and recognition by finding the outline of a digital image, distinguishing colors and patterns, and finding textures.

모션, 제스처 인식을 위해 두 개 이상의 이미지를 분석하여 두 이미지간 차분 영상을 구하고 이를 통해 객체의 움직임 패턴이나 변화량을 조사하여 움직임, 모션, 제스처 등을 판별할 수 있다.For motion and gesture recognition, two or more images are analyzed to obtain a difference image between the two images, and through this, the movement pattern or amount of change of the object is investigated to determine movement, motion, gesture, etc.

상기 이미지 인식 매니저(2136)는, 이미지 영역 추출 및 사용자 입력을 위한 이미지 영역을 설정할 수 있다. 상기 이미지 처리 기법들을 하나 이상 적용하여 얼굴영역, 인물이나 사물의 실루엣, 객체의 움직임(모션)과 같은 객체의 영역을 추출할 수 있다. 그리고, 해당 영역의 범위, 좌표, 경계선 데이터, 실루엣 데이터 등의 정보를 메모리에 저장되도록 관리할 수 있다.The image recognition manager 2136 may extract an image area and set an image area for user input. By applying one or more of the above image processing techniques, an object region such as a face region, a silhouette of a person or object, and a motion (motion) of the object may be extracted. In addition, information such as a range, coordinates, border data, and silhouette data of the corresponding region can be managed to be stored in a memory.

상기 이미지 인식 매니저(2136)는, 증강현실(augmented reality), VR(Virtual Reality), MR(Mixed Reality) 기법을 이용하여 처리된 인식 결과 표시할 수 있다. 예를 들어, 2차원 이미지 코드의 경우, finder pattern, alignment pattern, 혹은 코드의 패턴의 분포에 따라 카메라나 객체의 pitch, yaw, roll 정보를 얻을 수 있다.The image recognition manager 2136 may display a recognition result processed using an augmented reality, virtual reality (VR), and mixed reality (MR) technique. For example, in the case of a 2D image code, pitch, yaw, and roll information of a camera or object can be obtained according to a finder pattern, an alignment pattern, or a distribution of the code pattern.

한 예로 QR 코드의 경우, finder pattern이 코드 이미지의 네 귀퉁이 중 좌상, 우상, 좌하에 존재하고, 우하에는 존재하지 않으므로 코드 이미지가 회전되더라도 쉽게 코드의 회전된 각도를 판별할 수 있다. 또 다른 예로 데이터 매트릭스의 경우 코드 이미지의 경계부들 중 좌와 하는 굵은 실선이고, 상과 하는 1:1의 흑백 패턴으로 구성되므로 코드의 회전 각도를 판별할 수 있다. 1차원 바코드나 PDF-417 등의 경우도 시작 패턴, 종료 패턴의 형태, 그리고 패턴의 스캔 방향에 따라서 패리티 정보를 이용하면 방향 탐지가 가능하다. For example, in the case of a QR code, the finder pattern exists in the upper left, upper right, and lower left of the four corners of the code image, and does not exist at the lower right, so even if the code image is rotated, the rotated angle of the code can be easily determined. As another example, in the case of a data matrix, the left and right sides are thick solid lines among the boundary portions of the code image and are composed of a 1:1 monochrome pattern, so that the rotation angle of the code can be determined. In the case of a 1-D barcode or PDF-417, direction detection is possible by using parity information according to the start pattern, the shape of the end pattern, and the scan direction of the pattern.

이와 함께 이러한 코드 이미지의 (x, y) 평면에 배치된 모양에 따라서 코드 이미지의 수직방향 법선 벡터를 추정할 수 있으므로 증강현실이나 가상현실의 가상 객체의 3차원 공간상의 위치와 모양 등을 쉽게 계산할 수 있다. 따라서 이러한 포즈 정보를 이용하여 3D나 2D의 가상적인 객체(리스트 메뉴, 사진, 아바타, 3D 캐릭터 등의 GUI 정보)를 상기 이미지의 패턴에 부합하여 정합(match)하여 표시할 수도 있다.In addition, since the vertical normal vector of the code image can be estimated according to the shape of the code image placed on the (x, y) plane, it is easy to calculate the position and shape of a virtual object in augmented reality or virtual reality in 3D space. I can. Accordingly, 3D or 2D virtual objects (GUI information such as list menus, photos, avatars, and 3D characters) may be displayed by matching according to the pattern of the image using the pose information.

상기 미들웨어(2030)는 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수 있다. 상기 미들웨어(2030)는 차별화된 기능을 제공하기 위해 운영체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 상기 미들웨어(2030)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 따라서, 본 개시의 실시예에 기재된 구성요소를 일부 생략하거나 다른 구성요소를 더 구비하거나 또는 유사한 기능을 수행하는 다른 명칭을 갖는 구성요소로 대체할 수 있다.The middleware 2030 may create and use a new middleware module through a combination of various functions of the aforementioned internal component modules. The middleware 2030 may provide modules specialized for each type of operating system in order to provide differentiated functions. In addition, the middleware 2030 may dynamically delete some of the existing components or add new components. Accordingly, some of the components described in the embodiments of the present disclosure may be omitted, other components may be further provided, or components having different names performing similar functions may be substituted.

상기 API 360(예: 상기 API(1833))는 API 프로그래밍 함수들의 집합으로, 운영체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 예를 들면, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다.The API 360 (for example, the API 1833) is a set of API programming functions, and may be provided in different configurations according to an operating system. For example, in the case of Android or iOS, for example, one API set may be provided for each platform, and in the case of Tizen, for example, two or more API sets may be provided.

상기 어플리케이션(2070)(예: 상기 어플리케이션(1834))은, 예를 들면, 프리로드 어플리케이션(preloaded Application) 또는 제 삼자 어플리케이션(third party application)을 포함할 수 있다. 예를 들어, 상기 어플리케이션(2070)은 홈(2071), 다이얼러(2072), SMS/MMS(2073), IM(2074), 브러우저(2075), 카메라(2076), 알람(2077), 컨택트(2078), 음성다이얼(2079), 이메일(2080), 달력(2081), 미디어 플레이어(2082), 앨범(2083), 시계(2084) 등을 포함할 수 있다.The application 2070 (for example, the application 1834) may include, for example, a preloaded application or a third party application. For example, the application 2070 is home (2071), dialer (2072), SMS/MMS (2073), IM (2074), browser (2075), camera (2076), alarm (2077), contact ( 2078), voice dial 2079, email 2080, calendar 2081, media player 2082, album 2083, clock 2084, and the like.

상기 프로그래밍 모듈(2000)의 적어도 일부는 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서(1910))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(1920)가 될 수 있다. 상기 프로그래밍 모듈(2000)의 적어도 일부는, 예를 들면, 상기 프로세서(1910)에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈(2000)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.At least a part of the programming module 2000 may be implemented as a command stored in a computer-readable storage media. When the command is executed by one or more processors (eg, the processor 1910), the one or more processors may perform a function corresponding to the command. The computer-readable storage medium may be, for example, the memory 1920. At least a part of the programming module 2000 may be implemented (for example, executed) by the processor 1910. At least a portion of the programming module 2000 may include, for example, a module, a program, a routine, a set of instructions or a process for performing one or more functions.

본 개시에 따른 프로그래밍 모듈(예: 상기 프로그래밍 모듈(2000))의 구성요소들의 명칭은 운영체제의 종류에 따라서 달라질 수 있다. 또한, 본 개시에 따른 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다.Names of components of a programming module (eg, the programming module 2000) according to the present disclosure may vary depending on the type of operating system. In addition, the programming module according to the present disclosure may include at least one or more of the above-described components, some of the above-described components may be omitted, or additional other components may be further included.

본 발명의 청구항 및/또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다. The methods according to the embodiments described in the claims and/or the specification of the present invention may be implemented in the form of hardware, software, or a combination of hardware and software.

소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금, 본 발명의 청구항 및/또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다. When implemented in software, a computer-readable storage medium storing one or more programs (software modules) may be provided. One or more programs stored in a computer-readable storage medium are configured to be executable by one or more processors in an electronic device (device). The one or more programs include instructions that cause the electronic device to execute methods according to the embodiments described in the claims and/or specification of the present invention.

이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다. These programs (software modules, software) include random access memory, non-volatile memory including flash memory, ROM (Read Only Memory), and electrically erasable programmable ROM. (EEPROM, Electrically Erasable Programmable Read Only Memory), magnetic disc storage device, Compact Disc-ROM (CD-ROM), Digital Versatile Discs (DVDs), or other types of It may be stored in an optical storage device or a magnetic cassette. Alternatively, it may be stored in a memory composed of a combination of some or all of them. In addition, a plurality of configuration memories may be included.

또한, 전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다. In addition, through a communication network composed of a communication network such as the Internet, an intranet, a local area network (LAN), a wide LAN (WLAN), or a storage area network (SAN), or a combination thereof It may be stored in an attachable storage device that can be accessed. Such a storage device can access the electronic device through an external port.

또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다.In addition, a separate storage device on the communication network may access the portable electronic device.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, although specific embodiments have been described in the detailed description of the present invention, various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should be determined by the scope of the claims and equivalents as well as the scope of the claims to be described later.

1800: 전자장치,
1801: 버스,
1820: 프로세서,
1830: 메모리,
1840: 사용자 입력 모듈,
1850: 디스플레이 모듈,
1860: 통신 모듈.
1800: electronics,
1801: bus,
1820: processor,
1830: memory,
1840: user input module,
1850: display module,
1860: communication module.

Claims (30)

휴대 통신 장치에 있어서,
디스플레이; 및
프로세서를 포함하되, 상기 프로세서는
제1 정보 타입을 포함하는 제1 정보 및 제2 정보 타입에 대응하는 제2 정보를 포함하는 객체를 포함하는 포토그래픽(photographic) 이미지를 상기 디스플레이를 통해 표시하고,
상기 표시된 객체와 관련된 사용자 입력을 상기 디스플레이를 통해 수신하고,
상기 사용자 입력이 상기 제1 정보와 관련하여 수신되었다는 결정에 적어도 일부 기초하여, 상기 제1 정보 타입에 대응하는 제1 인식 기능을 이용하여 생성된 제1 인식 결과를 상기 디스플레이를 통해 표시하고, 및
상기 사용자 입력이 상기 제2 정보와 관련하여 수신되었다는 결정에 적어도 일부 기초하여, 상기 제2 정보 타입에 대응하는 제2 인식 기능을 이용하여 생성된 제2 인식 결과를 상기 디스플레이를 통해 표시하도록 하는 휴대 통신 장치.
In a portable communication device,
display; And
Including a processor, wherein the processor
A photographic image including an object including first information including a first information type and second information corresponding to a second information type is displayed through the display,
Receiving a user input related to the displayed object through the display,
Based at least in part on a determination that the user input has been received in relation to the first information, displaying a first recognition result generated using a first recognition function corresponding to the first information type through the display, and
A portable for displaying a second recognition result generated using a second recognition function corresponding to the second information type through the display based at least in part on a determination that the user input has been received in relation to the second information Communication device.
제1 항에 있어서,
상기 프로세서는
텍스트를 상기 제1 정보 타입의 적어도 일부로 식별하고, 및
비-텍스트 객체를 상기 제2 정보 타입의 적어도 일부로 식별하도록 하는 휴대 통신 장치.
The method of claim 1,
The processor is
Identifying text as at least part of the first information type, and
A portable communication device for identifying a non-text object as at least part of the second information type.
제1 항에 있어서,
상기 프로세서는
상기 제1 인식 기능의 적어도 일부로서, OCR(optical character reader)기능을 이용하여 생성된 상기 제1 인식 결과의 표시를 수행하도록 하는 휴대 통신 장치.
The method of claim 1,
The processor is
As at least a part of the first recognition function, a portable communication device configured to display the first recognition result generated using an optical character reader (OCR) function.
제1 항에 있어서,
상기 프로세서는
상기 제2 인식 기능의 적어도 일부로서, 이미지 인식 기능을 이용하여 생성된 상기 제2 인식 결과의 표시를 수행하도록 하는 휴대 통신 장치.
The method of claim 1,
The processor is
As at least part of the second recognition function, a portable communication device configured to display the second recognition result generated using an image recognition function.
제1 항에 있어서,
상기 제2 정보는 QR(quick response) 코드를 포함하고,
상기 프로세서는
상기 제2 인식 기능의 적어도 일부로서, 코드 인식 기능을 이용하여 생성된 상기 제2 인식 결과의 표시를 수행하도록 하는 휴대 통신 장치.
The method of claim 1,
The second information includes a quick response (QR) code,
The processor is
As at least a part of the second recognition function, a portable communication device configured to display the second recognition result generated using a code recognition function.
제1 항에 있어서,
상기 프로세서는
상기 제1 정보 타입 및 상기 제2 정보 타입 중 해당 정보 타입과 관련된 하나 이상의 기능들을 나타내는 메뉴를 상기 제1 인식 결과 및 상기 제2 인식 결과 중 해당 인식 결과와 함께 표시하도록 하는 휴대 통신 장치.
The method of claim 1,
The processor is
A portable communication device configured to display a menu representing one or more functions related to a corresponding information type among the first information type and the second information type together with a corresponding recognition result among the first recognition result and the second recognition result.
제6 항에 있어서,
상기 프로세서는
상기 메뉴의 적어도 일부로서 상기 하나 이상의 메뉴들 중 해당 기능을 나타내는 아이콘을 표시하도록 하는 휴대 통신 장치.
The method of claim 6,
The processor is
A portable communication device configured to display an icon representing a corresponding function among the one or more menus as at least part of the menu.
제1 항에 있어서,
상기 디스플레이는 터치스크린 디스플레이를 포함하고,
상기 프로세서는
상기 사용자 입력이 수신된 상기 터치스크린 디스플레이 상의 위치에 적어도 일부 기초하여, 상기 표시된 객체로부터 상기 제1 정보 및 상기 제2 정보 중 해당 정보를 결정하도록 하는 휴대 통신 장치.
The method of claim 1,
The display includes a touch screen display,
The processor is
A portable communication device configured to determine corresponding information among the first information and the second information from the displayed object based at least in part on a position on the touch screen display where the user input is received.
제1 항에 있어서,
상기 사용자 입력은 사용자 제스처를 포함하고,
상기 프로세서는
상기 사용자 제스처에 적어도 일부 기초하여, 상기 표시된 객체로부터 상기 제1 정보 및 상기 제2 정보 중 해당 정보를 선택하도록 하는 휴대 통신 장치.
The method of claim 1,
The user input includes a user gesture,
The processor is
A portable communication device configured to select corresponding information from among the first information and the second information from the displayed object based at least in part on the user gesture.
제1 항에 있어서,
상기 제1 인식 기능 및 상기 제2 인식 기능 중 해당 인식 기능은 다수의 인식 기능들로부터 선택되는 휴대 통신 장치.
The method of claim 1,
A portable communication device wherein a corresponding recognition function among the first recognition function and the second recognition function is selected from a plurality of recognition functions.
제10 항에 있어서,
상기 다수의 인식 기능들을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 메모리에 저장된 상기 다수의 인식 기능들로부터 상기 제1 인식 기능 및 상기 제2 인식 기능 중 해당 인식 기능을 선택하도록 하는 휴대 통신 장치.
The method of claim 10,
Further comprising a memory for storing the plurality of recognition functions,
The processor is
A portable communication device configured to select a corresponding recognition function from among the first recognition function and the second recognition function from the plurality of recognition functions stored in the memory.
휴대 통신 장치에 있어서,
디스플레이; 및
프로세서를 포함하고, 상기 프로세서는
객체를 포함하는 포토그래픽(photographic) 이미지를 상기 디스플레이를 통해 표시하고,
상기 표시된 객체가 제1 정보 타입에 대응하는 제1 정보를 포함한다는 결정에 적어도 일부 기초하여, 상기 제1 정보 타입에 대응하는 제1 인식 기능을 이용하여 생성된 제1 인식 결과를 상기 디스플레이를 통해 표시하고, 및
상기 표시된 객체가 제2 정보 타입에 대응하는 제2 정보를 포함한다는 결정에 적어도 일부 기초하여, 상기 제2 정보 타입에 대응하는 제2 인식 기능을 이용하여 생성된 제2 인식 결과를 상기 디스플레이를 통해 표시하도록 하는 휴대 통신 장치.
In a portable communication device,
display; And
Comprising a processor, the processor
Displaying a photographic image including an object through the display,
Based at least in part on a determination that the displayed object includes first information corresponding to a first information type, a first recognition result generated using a first recognition function corresponding to the first information type is displayed through the display. Mark, and
Based at least in part on a determination that the displayed object includes second information corresponding to a second information type, a second recognition result generated by using a second recognition function corresponding to the second information type is displayed through the display. A portable communication device to display.
제12 항에 있어서,
상기 프로세서는
텍스트를 상기 제1 정보 타입의 적어도 일부로 식별하고, 및
비-텍스트 객체를 상기 제2 정보 타입의 적어도 일부로 식별하도록 하는 휴대 통신 장치.
The method of claim 12,
The processor is
Identifying text as at least part of the first information type, and
A portable communication device for identifying a non-text object as at least part of the second information type.
제12 항에 있어서,
상기 프로세서는
상기 제1 인식 기능의 적어도 일부로서, OCR(optical character reader)기능을 이용하여 생성된 상기 제1 인식 결과의 표시를 수행하도록 하는 휴대 통신 장치.
The method of claim 12,
The processor is
As at least a part of the first recognition function, a portable communication device configured to display the first recognition result generated using an optical character reader (OCR) function.
제12 항에 있어서,
상기 프로세서는
상기 제2 인식 기능의 적어도 일부로서, 이미지 인식 기능을 이용하여 생성된 상기 제2 인식 결과의 표시를 수행하도록 하는 휴대 통신 장치.
The method of claim 12,
The processor is
As at least part of the second recognition function, a portable communication device configured to display the second recognition result generated using an image recognition function.
제12 항에 있어서,
상기 제2 정보는 QR(quick response) 코드를 포함하고,
상기 프로세서는
상기 제2 인식 기능의 적어도 일부로서, 코드 인식 기능을 이용하여 생성된 상기 제2 인식 결과의 표시를 수행하도록 하는 휴대 통신 장치.
The method of claim 12,
The second information includes a quick response (QR) code,
The processor is
As at least a part of the second recognition function, a portable communication device configured to display the second recognition result generated using a code recognition function.
제12 항에 있어서,
상기 프로세서는
상기 제1 정보 타입 및 상기 제2 정보 타입 중 해당 정보 타입과 관련된 하나 이상의 기능들을 나타내는 메뉴를 상기 제1 인식 결과 및 상기 제2 인식 결과 중 해당 인식 결과와 함께 표시하도록 하는 휴대 통신 장치.
The method of claim 12,
The processor is
A portable communication device configured to display a menu representing one or more functions related to a corresponding information type among the first information type and the second information type together with a corresponding recognition result among the first recognition result and the second recognition result.
제12 항에 있어서,
상기 디스플레이는 터치스크린 디스플레이를 포함하고,
상기 프로세서는
상기 표시된 객체와 관련된 사용자 입력을 상기 디스플레이를 통해 수신하고,
상기 사용자 입력의 수신에 대응하여, 상기 사용자 입력이 수신된 상기 터치스크린 디스플레이 상의 위치에 적어도 일부 기초하여, 상기 표시된 객체를 결정하도록 하는 휴대 통신 장치.
The method of claim 12,
The display includes a touch screen display,
The processor is
Receiving a user input related to the displayed object through the display,
A portable communication device configured to determine the displayed object based at least in part on a position on the touch screen display where the user input is received in response to the reception of the user input.
적어도 하나의 프로세서에 의해 실행되었을 때, 상기 적어도 하나의 프로세서가 설정된 동작들을 수행하도록 하는 인스트럭션들을 저장하는 비-일시적 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 동작들은
제1 정보 타입을 포함하는 제1 정보 및 제2 정보 타입에 대응하는 제2 정보를 포함하는 객체를 포함하는 포토그래픽(photographic) 이미지를 상기 적어도 하나의 프로세서와 작동적으로(operatively) 연결된 디스플레이를 통해 표시하는 동작;
상기 표시된 객체와 관련된 사용자 입력을 상기 디스플레이를 통해 수신하는 동작;
상기 사용자 입력이 상기 제1 정보와 관련하여 수신되었다는 결정에 적어도 일부 기초하여, 상기 제1 정보 타입에 대응하는 제1 인식 기능을 이용하여 생성된 제1 인식 결과를 상기 디스플레이를 통해 표시하는 동작; 및
상기 사용자 입력이 상기 제2 정보와 관련하여 수신되었다는 결정에 적어도 일부 기초하여, 상기 제2 정보 타입에 대응하는 제2 인식 기능을 이용하여 생성된 제2 인식 결과를 상기 디스플레이를 통해 표시하는 동작을 포함하는 기록 매체.
A non-transitory computer-readable recording medium storing instructions for causing the at least one processor to perform set operations when executed by at least one processor, wherein the operations are
Displaying a photographic image including an object including first information including a first information type and second information corresponding to a second information type, and a display operatively connected to the at least one processor Displaying through;
Receiving a user input related to the displayed object through the display;
Displaying, through the display, a first recognition result generated using a first recognition function corresponding to the first information type based at least in part on a determination that the user input has been received in relation to the first information; And
Displaying, through the display, a second recognition result generated using a second recognition function corresponding to the second information type based at least in part on a determination that the user input has been received in relation to the second information. A recording medium containing.
제19 항에 있어서,
상기 동작들은
상기 제1 정보 타입 및 상기 제2 정보 타입 중 해당 정보 타입과 관련된 하나 이상의 기능들을 나타내는 메뉴를 상기 제1 인식 결과 및 상기 제2 인식 결과 중 해당 인식 결과와 함께 표시하는 동작을 더 포함하는 기록 매체.
The method of claim 19,
The above actions are
A recording medium further comprising displaying a menu representing one or more functions related to a corresponding information type among the first information type and the second information type together with a corresponding recognition result among the first recognition result and the second recognition result. .
휴대 통신 장치에 있어서,
카메라;
디스플레이;
프로세서를 포함하고, 상기 프로세서는
이미지를 캡쳐하기 위해 상기 카메라를 제어하고,
제1 이미지 부분 및 제2 이미지 부분을 포함하는 객체를 포함하는 캡쳐된 이미지를 상기 디스플레이를 통해 표시하고,
상기 표시된 객체와 관련된 사용자 입력을 상기 디스플레이를 통해 수신하고,
상기 사용자 입력이 상기 제1 이미지 부분과 관련하여 수신되었다는 결정에 적어도 일부 기초하여, 상기 제1 이미지 부분과 관련된 기능들을 실행하기 위한 사용자 인터페이스 아이템들의 제1 셋을 상기 디스플레이를 통해 표시하고, 및
상기 사용자 입력이 상기 제2 이미지 부분과 관련하여 수신되었다는 결정에 적어도 일부 기초하여, 상기 제2 이미지 부분과 관련된 기능들을 실행하기 위한 사용자 인터페이스 아이템들의 제2 셋을 상기 디스플레이를 통해 표시하고,
상기 사용자 인터페이스 아이템들의 상기 제1 셋은 제1 타입의 이미지 인식 기능이 상기 제1 이미지 부분에 적용 가능한 것에 대응하여 표시되고,
상기 사용자 인터페이스 아이템들의 상기 제2 셋은 제2 타입의 이미지 인식 기능이 상기 제2 이미지 부분에 적용 가능한 것에 대응하여 표시되는 휴대 통신 장치.
In a portable communication device,
camera;
display;
Comprising a processor, the processor
Control the camera to capture an image,
A captured image including an object including a first image part and a second image part is displayed through the display,
Receiving a user input related to the displayed object through the display,
Based at least in part on a determination that the user input has been received in relation to the first image portion, displaying, through the display, a first set of user interface items for executing functions associated with the first image portion, and
Based at least in part on a determination that the user input has been received in relation to the second image portion, displaying, through the display, a second set of user interface items for executing functions related to the second image portion,
The first set of user interface items is displayed corresponding to that a first type of image recognition function is applicable to the first image portion,
The second set of user interface items is displayed in response to a second type of image recognition function applicable to the second image portion.
제21 항에 있어서,
상기 제1 타입의 이미지 인식 기능은 객체 인식 기능에 대응하고,
상기 제2 타입의 이미지 인식 기능은 문자 인식 기능에 대응하는 휴대 통신 장치.
The method of claim 21,
The first type of image recognition function corresponds to an object recognition function,
The second type of image recognition function corresponds to a text recognition function.
제21 항에 있어서,
상기 제1 이미지 부분은 제1 정보에 대응하고, 상기 제2 이미지 부분은 제2 정보에 대응하고,
상기 제1 인식 결과는 상기 제1 정보에 기초하여 생성되고, 상기 제2 인식 결과는 상기 제2 정보에 기초하여 생성되는 휴대 통신 장치.
The method of claim 21,
The first image portion corresponds to first information, the second image portion corresponds to second information,
The first recognition result is generated based on the first information, and the second recognition result is generated based on the second information.
제23 항에 있어서,
상기 제1 인식 결과에 대응하는 제1 아이템은 상기 사용자 인터페이스 아이템들의 상기 제1 셋과 함께 표시되고, 상기 제2 인식 결과에 대응하는 제2 아이템은 상기 사용자 인터페이스 아이템들의 상기 제2 셋과 함께 표시되는 휴대 통신 장치.
The method of claim 23,
A first item corresponding to the first recognition result is displayed together with the first set of user interface items, and a second item corresponding to the second recognition result is displayed together with the second set of user interface items Portable communication device.
제24 항에 있어서,
적어도 하나의 제1 아이템은 상기 제1 정보를 이용한 기능을 나타내는 아이콘을 더 포함하는 휴대 통신 장치.
The method of claim 24,
The at least one first item further includes an icon representing a function using the first information.
제21 항에 있어서,
비-텍스트 객체는 상기 제1 타입의 이미지 인식 기능을 통해 상기 제1 이미지 부분으로부터 식별되고, 하나 이상의 문자는 상기 제2 타입의 이미지 인식 기능을 통해 상기 제2 이미지 부분으로부터 식별되는 휴대 통신 장치.
The method of claim 21,
A portable communication device wherein a non-text object is identified from the first image portion through the first type of image recognition function, and one or more characters are identified from the second image portion through the second type of image recognition function.
제26 항에 있어서,
상기 프로세서는
상기 식별된 비-텍스트 객체에 기초하여 획득된 제1 결과를 표시하기 위해 상기 디스플레이를 제어하고, 및
상기 식별된 하나 이상의 문자에 기초하여 획득된 제2 결과를 표시하기 위해 상기 디스플레이를 제어하는 휴대 통신 장치.
The method of claim 26,
The processor is
Controlling the display to display a first result obtained based on the identified non-text object, and
A portable communication device that controls the display to display a second result obtained based on the identified one or more characters.
제21 항에 있어서,
상기 제2 이미지 부분은 QR(quick response) 코드를 포함하고,
상기 프로세서는
상기 QR 코드에 기초하여 코드 인식 기능을 통해 획득된 제3 결과를 표시하기 위해 상기 디스플레이를 제어하는 휴대 통신 장치.
The method of claim 21,
The second image portion includes a quick response (QR) code,
The processor is
A portable communication device that controls the display to display a third result obtained through a code recognition function based on the QR code.
제21 항에 있어서,
다수의 인식 기능들을 저장하는 메모리를 더 포함하고,
상기 프로세서는
상기 메모리에 저장된 상기 다수의 인식 기능들로부터 상기 제1 타입의 이미지 인식 기능 및 상기 제2 타입의 이미지 인식 기능 중 해당 이미지 인식 기능을 선택하도록 하는 휴대 통신 장치.
The method of claim 21,
Further comprising a memory for storing a plurality of recognition functions,
The processor is
A portable communication device configured to select a corresponding image recognition function from among the first type of image recognition function and the second type of image recognition function from the plurality of recognition functions stored in the memory.
제21 항에 있어서,
상기 디스플레이는 터치스크린 디스플레이를 포함하고,
상기 프로세서는
상기 사용자 입력이 수신된 상기 터치스크린 디스플레이 상의 위치에 적어도 일부 기초하여, 상기 표시된 객체로부터 상기 제1 이미지 부분 및 상기 제2 이미지 부분 중 해당 이미지 부분을 결정하도록 하는 휴대 통신 장치.
The method of claim 21,
The display includes a touch screen display,
The processor is
A portable communication device configured to determine a corresponding image portion of the first image portion and the second image portion from the displayed object based at least in part on a position on the touch screen display where the user input is received.
KR1020200140483A 2013-11-22 2020-10-27 Method and apparatus for recognizing object of image in electronic device KR102303206B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200140483A KR102303206B1 (en) 2013-11-22 2020-10-27 Method and apparatus for recognizing object of image in electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130143096A KR102173123B1 (en) 2013-11-22 2013-11-22 Method and apparatus for recognizing object of image in electronic device
KR1020200140483A KR102303206B1 (en) 2013-11-22 2020-10-27 Method and apparatus for recognizing object of image in electronic device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130143096A Division KR102173123B1 (en) 2013-11-22 2013-11-22 Method and apparatus for recognizing object of image in electronic device

Publications (2)

Publication Number Publication Date
KR20200127928A true KR20200127928A (en) 2020-11-11
KR102303206B1 KR102303206B1 (en) 2021-09-16

Family

ID=73451754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200140483A KR102303206B1 (en) 2013-11-22 2020-10-27 Method and apparatus for recognizing object of image in electronic device

Country Status (1)

Country Link
KR (1) KR102303206B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580383A (en) * 2020-12-29 2021-03-30 科大讯飞(苏州)科技有限公司 Two-dimensional code identification method and device, electronic equipment and storage medium
WO2024034865A1 (en) * 2022-08-09 2024-02-15 삼성전자 주식회사 Electronic device and text-based content operating method by electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002278A (en) * 2007-06-26 2009-01-09 주식회사 더존씨앤티 Method of encoding divided two-dimensional barcodes for mobile communication terminal
KR20120014480A (en) * 2010-08-09 2012-02-17 에스케이플래닛 주식회사 Integrative image searching system and service method of the same
KR20130025498A (en) * 2011-09-02 2013-03-12 엘지전자 주식회사 Mobile terminal and control method therof
KR20130027149A (en) * 2011-09-07 2013-03-15 엔에이치엔(주) Apparatus and method for providing searching service
KR20130095778A (en) * 2010-10-22 2013-08-28 퀄컴 인코포레이티드 System and method for capturing token data with a portable computing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002278A (en) * 2007-06-26 2009-01-09 주식회사 더존씨앤티 Method of encoding divided two-dimensional barcodes for mobile communication terminal
KR20120014480A (en) * 2010-08-09 2012-02-17 에스케이플래닛 주식회사 Integrative image searching system and service method of the same
KR20130095778A (en) * 2010-10-22 2013-08-28 퀄컴 인코포레이티드 System and method for capturing token data with a portable computing device
KR20130025498A (en) * 2011-09-02 2013-03-12 엘지전자 주식회사 Mobile terminal and control method therof
KR20130027149A (en) * 2011-09-07 2013-03-15 엔에이치엔(주) Apparatus and method for providing searching service

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580383A (en) * 2020-12-29 2021-03-30 科大讯飞(苏州)科技有限公司 Two-dimensional code identification method and device, electronic equipment and storage medium
CN112580383B (en) * 2020-12-29 2023-08-29 科大讯飞(苏州)科技有限公司 Two-dimensional code identification method and device, electronic equipment and storage medium
WO2024034865A1 (en) * 2022-08-09 2024-02-15 삼성전자 주식회사 Electronic device and text-based content operating method by electronic device

Also Published As

Publication number Publication date
KR102303206B1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US11113523B2 (en) Method for recognizing a specific object inside an image and electronic device thereof
US10366519B2 (en) Operating method for image and electronic device supporting the same
US10244177B2 (en) Method for processing image to generate relevant data based on user inputs and electronic device supporting the same
KR102240279B1 (en) Content processing method and electronic device thereof
EP3547218B1 (en) File processing device and method, and graphical user interface
US10786196B2 (en) Display apparatus and control method thereof for skin care analysis
CN115097981B (en) Method for processing content and electronic device thereof
EP3510517B1 (en) Method of displaying user interface related to user authentication and electronic device for implementing same
US20150177903A1 (en) Method and apparatus for controlling scale resolution in electronic device
CN108463799B (en) Flexible display of electronic device and operation method thereof
KR20160103398A (en) Method and apparatus for measuring the quality of the image
KR20160027862A (en) Method for processing image data and electronic device supporting thereof
US20140348398A1 (en) Electronic apparatus and display control method
US11523063B2 (en) Systems and methods for placing annotations in an augmented reality environment using a center-locked interface
US10909420B2 (en) Method and apparatus for continuously displaying images on basis of similarity of images
KR102303206B1 (en) Method and apparatus for recognizing object of image in electronic device
KR20180121273A (en) Method for outputting content corresponding to object and electronic device thereof
KR20230011349A (en) Trackpad on the back part of the device
KR20180111242A (en) Electronic device and method for providing colorable content
EP3446240B1 (en) Electronic device and method for outputting thumbnail corresponding to user input
US10091436B2 (en) Electronic device for processing image and method for controlling the same
CN113273167B (en) Data processing apparatus, method and storage medium
KR20230000932A (en) Methods and devices for analyzing images
KR102605451B1 (en) Electronic device and method for providing multiple services respectively corresponding to multiple external objects included in image
CN113835582B (en) Terminal equipment, information display method and storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right