KR20140031105A - Method for extracting three dimensional distance information from recognition object and apparatus therefor - Google Patents

Method for extracting three dimensional distance information from recognition object and apparatus therefor Download PDF

Info

Publication number
KR20140031105A
KR20140031105A KR1020130094951A KR20130094951A KR20140031105A KR 20140031105 A KR20140031105 A KR 20140031105A KR 1020130094951 A KR1020130094951 A KR 1020130094951A KR 20130094951 A KR20130094951 A KR 20130094951A KR 20140031105 A KR20140031105 A KR 20140031105A
Authority
KR
South Korea
Prior art keywords
image
recognition
preset range
camera
recognition object
Prior art date
Application number
KR1020130094951A
Other languages
Korean (ko)
Other versions
KR102158096B1 (en
Inventor
이진경
권동욱
김경일
김민호
이기상
이상보
진영구
최진욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/012,453 priority Critical patent/US20140062864A1/en
Priority to EP13182589.5A priority patent/EP2703954A3/en
Priority to CN201310395021.3A priority patent/CN103677255A/en
Publication of KR20140031105A publication Critical patent/KR20140031105A/en
Application granted granted Critical
Publication of KR102158096B1 publication Critical patent/KR102158096B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Abstract

Provided are a method for extracting information on a three-dimensional distance from a recognition object and an apparatus therefor capable of efficiently saving electric power necessary to detect a gesture input while accurately determining the gesture input which is inputted by a user using information on a distance from a recognition object. The method for extracting information on a three-dimensional distance using the apparatus therefor according to the present invention comprises the steps of: determining whether a recognition object exists within a preset range or not; generating a three-dimensional image of the recognition object in case the recognition object exists within the preset range; and calculating a distance from the recognition object using the three-dimensional image. [Reference numerals] (AA) Start; (BB) No; (CC) Yes; (DD) End; (S202) Generate a two-dimensional image by using a two-dimensional camera; (S204) Is a recognition object included in the two-dimensional image?; (S206) Emit light for measuring a distance from the recognition object; (S208) Generate a three-dimensional image by photographing the recognition object by a three-dimensional camera; (S210) Calculate a distance from the recognition object by using the three-dimensional image

Description

인식 대상으로부터 3차원 거리 정보 추출하는 방법 및 이를 위한 장치{METHOD FOR EXTRACTING THREE DIMENSIONAL DISTANCE INFORMATION FROM RECOGNITION OBJECT AND APPARATUS THEREFOR}A method for extracting three-dimensional distance information from an object to be recognized and an apparatus therefor {METHOD FOR EXTRACTING THREE DIMENSIONAL DISTANCE INFORMATION FROM RECOGNITION OBJECT AND APPARATUS THEREFOR}

본 발명은 3차원 거리 정보를 추출하는 방법에 관한 것으로, 더욱 자세히는 인식 대상과의 거리 정보를 이용하여 사용자로부터 입력되는 제스처 입력을 정확하게 판별하는 동시에 상기 제스처 입력을 검출하기 위하여 필요한 전력을 효율적으로 절약할 수 있는 인식 대상으로부터의 3차원 거리 정보를 추출하는 방법 및 이를 위한 장치에 관한 것이다.The present invention relates to a method for extracting three-dimensional distance information, and more particularly, to accurately determine a gesture input input from a user by using distance information with a recognition target, and to efficiently determine the power required to detect the gesture input. The present invention relates to a method for extracting three-dimensional distance information from a recognition object that can be saved, and an apparatus therefor.

3차원 거리 정보를 추출하는 방법은 크게 능동(active) 방식과 수동(passive) 방식으로 나눌 수 있다. 능동 방식은, 3차원 거리 정보를 추출하고자 하는 장치가 상기 3차원 거리 정보를 추출하기 위한 에너지를 발사함으로써 이루어질 수 있다. 여기서 에너지는, 광파(optical wave), 초음파, 마이크로파 등이 될 수 있다. 3차원 거리 정보를 추출하고자 하는 장치는, 상기 광파를 특정 장면(scene) 또는 물체(object)에 투사하고, 투사된 장면 또는 물체를 촬영함으로써 상기 장치로부터 상기 장면 또는 물체까지의 거리를 추출한다.The method of extracting 3D distance information can be largely divided into an active method and a passive method. The active scheme may be achieved by a device for extracting 3D distance information by firing energy for extracting the 3D distance information. Herein, the energy may be an optical wave, an ultrasonic wave, a microwave, or the like. A device which wants to extract three-dimensional distance information extracts the distance from the device to the scene or object by projecting the light wave onto a specific scene or object and photographing the projected scene or object.

반면에 수동 방식은, 3차원 거리 정보를 추출하고자 하는 장치가 에너지를 발사하지 않고 촬영된 영상만으로 3차원 거리 정보를 추출하는 방식이다. 상기 장치는 3차원 거리 정보를 추출하고자 하는 장면 또는 물체를 영상 촬영 장치를 이용하여 촬영하고, 촬영된 영상을 처리하여 상기 장치로부터 상기 장면 또는 물체까지의 거리를 추출한다.On the other hand, the manual method is a method in which the device to extract the 3D distance information extracts the 3D distance information using only the image captured without emitting energy. The apparatus photographs a scene or an object for which the 3D distance information is to be extracted using an image capturing apparatus, and processes a photographed image to extract a distance from the apparatus to the scene or object.

한편 제스처 제어(Gesture control)는 사용자의 제스처를 인식하여 기기를 제어하는 기술로써 거리 정보를 이용하는 방법과 이용하지 않는 방법이 있다. 거리 정보를 이용하지 않는 방법은 촬영된 2D 영상만을 이용하여 사용자의 제스처를 인식하는 것으로, 인식하고자 하는 대상, 즉 손, 팔, 다리, 얼굴, 물체 등을 배경으로부터 잘 분리해낼 필요가 있다. 반면에 거리 정보를 이용하는 방법은, 인식하고자 하는 대상과 배경을 거리 정보를 이용해서 분리해낼 수 있을 뿐만 아니라 인식하고자 하는 대상이 형태 정보를 좀 더 정확하게 얻어낼 수 있으므로 거리 정보를 이용하지 않는 방법보다 제스처를 정확히 판별할 수 있어 좀 더 우수한 성능의 확보가 가능하다.Gesture control is a technique for controlling a device by recognizing a user's gesture, and there are methods using distance information and methods not using it. The method that does not use the distance information recognizes the user's gesture using only the captured 2D image, and it is necessary to separate the object to be recognized, that is, the hand, the arm, the leg, the face, the object, and the like from the background. On the other hand, the method using distance information not only separates the object to be recognized from the background using the distance information but also obtains the shape information more accurately than the method using the distance information. It is possible to accurately determine the gestures to ensure better performance.

그에 따라 능동 방식, 즉 에너지를 발사하고, 반사된 에너지를 이용하여 거리 정보를 검출하는 방식은, 상기 거리 정보를 검출하기 위하여 지속적으로 에너지를 발사해야만 한다. 사용자의 제스처가 언제 발생할지 알 수 없으므로, 상기 3차원 거리 정보를 추출하고자 하는 장치는 사용자의 제스처 유무와 관계없이 지속적으로 에너지를 발사해야만 한다. 사용자의 제스처가 발생하지 않은 상태에서도 에너지를 지속적으로 발사한다면 불필요한 전력 낭비를 발생시킬 뿐만 아니라 그로 인하여 상기 장치의 사용 시간을 단축시키게 된다.Accordingly, an active method, that is, a method of emitting energy and detecting distance information by using reflected energy, must continuously emit energy in order to detect the distance information. Since the user's gesture may not be known, the device to extract the 3D distance information must continuously emit energy regardless of the user's gesture. Continuous firing of energy even when the user's gesture does not occur not only generates unnecessary power waste, but also shortens the use time of the device.

따라서 본 발명의 목적은 인식 대상과의 거리 정보를 이용하여 사용자로부터 입력되는 제스처 입력을 정확하게 판별하는 동시에 상기 제스처 입력을 검출하기 위하여 필요한 전력을 효율적으로 절약할 수 있는 인식 대상으로부터의 3차원 거리 정보를 추출하는 방법 및 이를 위한 장치를 제공함에 있다.Accordingly, an object of the present invention is to accurately determine the gesture input input from the user by using the distance information with respect to the recognition object and at the same time three-dimensional distance information from the recognition object that can efficiently save the power required to detect the gesture input. To provide a method and apparatus for extracting the same.

본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법은, 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정과, 상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 과정과, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정을 포함한다.The 3D distance information extraction method of the apparatus for extracting 3D distance information according to an embodiment of the present invention may include determining whether a recognition object exists within a preset range, and wherein the recognition object exists within the preset range. In this case, the method may include generating a 3D image of the object to be recognized, and calculating a distance from the object to be recognized using the 3D image.

본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치는, 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 카메라 제어부와, 상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 3D 카메라와, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부를 포함한다.The apparatus for extracting 3D distance information according to an embodiment of the present invention may include a camera controller for determining whether a recognition object exists within a preset range, and when the recognition target exists within the preset range, And a 3D camera for generating a 3D image of the 3D image, and a distance calculator configured to calculate a distance to the object of recognition using the 3D image.

본 발명의 일 실시예에 따른 단말기는, 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 대상 검출부와, 상기 인식 대상에 대응하는 3D 이미지를 생성하는 3D 카메라와, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부와, 상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하고, 상기 제스처 입력에 따른 동작을 수행하는 제어부를 포함한다.According to an embodiment of the present invention, a terminal may include: an object detecting unit detecting a recognition object existing within a preset range, a 3D camera generating a 3D image corresponding to the recognition object, and the recognition object using the 3D image. A distance calculator configured to calculate a distance between the controller and the controller, and a controller configured to determine a gesture input corresponding to a shape of the object to be recognized based on the distance between the 3D image and the object to be recognized, and to perform an operation according to the gesture input. .

단말기가 제스처 입력에 대응하는 동작을 수행하는 방법은, 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정과, 상기 인식 대상에 대응하는 3D 이미지를 생성하는 과정과, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정과, 상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하는 과정과, 상기 제스처 입력에 따른 동작을 수행하는 과정을 포함한다.A method of performing an operation corresponding to a gesture input by the terminal includes detecting a recognition object existing within a preset range, generating a 3D image corresponding to the recognition object, and using the 3D image to recognize the recognition object. Calculating a distance from an object, determining a gesture input corresponding to the shape of the object to be recognized based on the distance between the 3D image and the object to be recognized, and performing an operation according to the gesture input Include.

본 발명에 따르면, 인식 대상과의 거리 정보를 이용하여 사용자로부터 입력되는 제스처 입력을 정확하게 판별하는 동시에 상기 제스처 입력을 검출하기 위하여 필요한 전력을 효율적으로 절약할 수 있는 인식 대상으로부터의 3차원 거리 정보를 추출하는 방법 및 이를 위한 장치를 제공한다.According to the present invention, three-dimensional distance information from an object to be recognized can be efficiently determined by using the distance information with respect to the object to be recognized accurately and at the same time efficiently saving power required for detecting the gesture input. It provides a method of extraction and an apparatus therefor.

도 1은 본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치의 구성을 나타낸 블록도,
도 2는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 일 예를 나타낸 순서도,
도 3은 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 다른 예를 나타낸 순서도,
도 4는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도,
도 5는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도,
도 6은 도 1에 도시된 3차원 거리 정보 추출 장치가 포함된 단말기의 구성을 도시한 블록도,
도 7은 도 1에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 일 예를 도시한 순서도,
도 8은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도,
도 9a는 2D 카메라를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면,
도 9b는 근접 센서를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면,
도 10은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 또 다른 예를 도시한 순서도,
도 11은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도, 그리고
도 12는 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 또 다른 예를 도시한 순서도이다.
1 is a block diagram showing the configuration of a three-dimensional distance information extraction apparatus according to an embodiment of the present invention;
2 is a flowchart illustrating an example of a method of extracting 3D distance information of the apparatus for extracting 3D distance information shown in FIG. 1;
3 is a flowchart illustrating another example of a method of extracting 3D distance information of the apparatus for extracting 3D distance information shown in FIG. 1;
4 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1;
5 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1;
FIG. 6 is a block diagram illustrating a configuration of a terminal including the apparatus for extracting three-dimensional distance information illustrated in FIG. 1;
7 is a flowchart illustrating an example of a method in which a terminal illustrated in FIG. 1 performs an operation corresponding to a gesture input;
8 is a flowchart illustrating another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
9A is a diagram illustrating a terminal for detecting a recognition object using a 2D camera;
9B is a diagram illustrating a terminal for detecting a recognition object using a proximity sensor;
FIG. 10 is a flowchart illustrating still another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
FIG. 11 is a flowchart illustrating another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input. FIG.
FIG. 12 is a flowchart illustrating still another example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. And will be apparent to those of ordinary skill in the art.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. And will be apparent to those of ordinary skill in the art.

도 1은 본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a three-dimensional distance information extraction apparatus according to an embodiment of the present invention.

도 1을 참조하면, 3차원 거리 정보 추출 장치(100)는 대상 검출부(120), 조명부(104), 3D 카메라(106), 거리 연산부(108), 카메라 제어부(110) 및 카메라 메모리(114)를 포함할 수 있다. Referring to FIG. 1, the apparatus for extracting 3D distance information 100 may include a target detector 120, an illumination unit 104, a 3D camera 106, a distance calculator 108, a camera controller 110, and a camera memory 114. It may include.

대상 검출부(120)는 3D 카메라(106)가 인식 대상에 대한 3D 이미지를 인식하기 전에 상기 인식 대상을 검출한다. 대상 검출부(120)는 2D 카메라(102)로 구현될 수 있으며, 실시예에 따라 상기 2D 카메라(102) 대신에 근접 센서(112)로 구현될 수도 있다. 또한 다른 실시예에 따라 대상 검출부는 2D 카메라(102) 및 근접 센서(112)를 모두 포함하여 구현될 수도 있다. 도 1에서는 설명의 편이를 위하여 2D 카메라(102) 및 근접 센서(112)를 모두 포함하는 형태로 구현된 대상 검출부(120)를 도시하였다.The object detector 120 detects the object to be recognized before the 3D camera 106 recognizes the 3D image of the object to be recognized. The object detector 120 may be implemented as a 2D camera 102, or in some embodiments, may be implemented as a proximity sensor 112 instead of the 2D camera 102. In addition, according to another exemplary embodiment, the object detector may include both the 2D camera 102 and the proximity sensor 112. In FIG. 1, for convenience of description, the object detector 120 implemented as a form including both the 2D camera 102 and the proximity sensor 112 is illustrated.

2D 카메라(102)는 미리 구비된 렌즈(미도시)를 통해 입력되는 영상을 2D 이미지로 변환함으로써 촬영 동작을 수행한다. 실시예에 따라 2D 카메라(102)는 렌즈(미도시)를 통해 입력되는 영상을 동영상으로 변환할 수도 있다.The 2D camera 102 performs a photographing operation by converting an image input through a lens (not shown) provided in advance into a 2D image. According to an exemplary embodiment, the 2D camera 102 may convert an image input through a lens (not shown) into a video.

본 실시예에 따른 2D 카메라(102)는 렌즈를 통해 입력되는 영상을 촬영하여 2D 이미지로 변환함으로써 상기 영상에 포함된 인식 대상을 촬영한다. 상기와 같이 2D 카메라(102)는 인식 대상이 포함된 2D 이미지를 생성할 수 있다.The 2D camera 102 according to the present exemplary embodiment captures an image input through a lens and converts the image into a 2D image to capture a recognition target included in the image. As described above, the 2D camera 102 may generate a 2D image including a recognition target.

조명부(104)는 3D 카메라(106)에 의한 촬영 동작이 수행되기 전에 3D 카메라(106)가 상기 3D 이미지를 생성할 수 있도록 하기 위한 광을 발사한다. 본 실시예에 따른 조명부(104)는 카메라 제어부(110)의 제어 하에 인식 대상의 사이즈(size)에 따라 각기 다른 광량을 가지는 광을 상기 인식 대상에 발사할 수 있다. 또한 조명부(104)는, 카메라 제어부(110)의 제어 하에 카메라 메모리(114)에 미리 설정되어 저장된 패턴을 가지는 광을 인식 대상을 향해 발사할 수 있으며, 광을 구획별로 구분하여 인식 대상으로 발사할 수 있다.The lighting unit 104 emits light for allowing the 3D camera 106 to generate the 3D image before the photographing operation by the 3D camera 106 is performed. The lighting unit 104 according to the present exemplary embodiment may emit light having different amounts of light to the recognition target according to the size of the recognition target under the control of the camera controller 110. In addition, the lighting unit 104 may emit light having a pattern, which is preset and stored in the camera memory 114, toward the recognition target under the control of the camera controller 110. Can be.

3D 카메라(106)는 인식 대상에 대한 3D 이미지를 생성한다. 조명부(104)에 의하여 광이 발사되면 3D 카메라(106)는 렌즈(미도시)를 통해 인식 대상으로부터 반사되는 반사광을 수신함으로써 3D 이미지를 생성할 수 있다.The 3D camera 106 generates a 3D image of the object to be recognized. When light is emitted by the lighting unit 104, the 3D camera 106 may generate a 3D image by receiving reflected light reflected from a recognition object through a lens (not shown).

거리 연산부(108)는 3D 카메라(106)를 통해 생성된 3D 이미지를 이용하여 인식 대상과의 거리, 즉 3차원 거리 정보 추출 장치(100) 및 인식 대상 간의 거리를 계산하고, 계산된 거리를 거리 정보로써 카메라 메모리(114)에 저장한다.The distance calculator 108 calculates the distance between the object to be recognized, that is, the distance between the 3D distance information extracting apparatus 100 and the object to be recognized using the 3D image generated by the 3D camera 106, and calculates the distance based on the calculated distance. The information is stored in the camera memory 114 as information.

3D 카메라(106)에 의하여 생성되는 3D 이미지는, 인식 대상 즉 피사체로부터 반사되는 반사광을 수신하여 생성되므로, 인식 대상 및 3D 카메라(106) 간의 거리에 따라 3D 이미지에 포함된 인식 대상의 크기 또는 형태가 달라질 수 있다. 또한 인식 대상으로부터 반사되는 반사광이 3D 카메라(106)에 도달하는 시간은, 상기 인식 대상 및 3D 카메라(106) 간의 거리에 따라 달라질 수 있다. 본 실시예에 따른 3D 이미지에는, 조명부(104)로부터 발사된 광이 인식 대상에 의해 반사되어 3D 카메라(106)까지 돌아오는데 소요되는 시간이 시간 정보로서 포함될 수 있다.Since the 3D image generated by the 3D camera 106 is generated by receiving reflected light reflected from the object, that is, the subject, the size or shape of the object included in the 3D image according to the distance between the object and the 3D camera 106. May vary. In addition, the time at which the reflected light reflected from the recognition object reaches the 3D camera 106 may vary according to the distance between the recognition object and the 3D camera 106. The 3D image according to the present exemplary embodiment may include, as time information, a time required for the light emitted from the illumination unit 104 to be reflected by the object to be recognized and returned to the 3D camera 106.

본 실시예에 따른 거리 연산부(108)는 상기 시간 정보를 이용하여 3D 카메라(106) 및 인식 대상 간의 거리를 계산할 수 있다. 또한 3D 카메라(106)는 3차원 거리 정보 추출 장치(100)에 장착된 것이므로, 거리 연산부(108)에 의하여 계산된 거리는 실질적으로는 3차원 거리 정보 추출 장치(100) 및 인식 대상 간의 거리라 할 수 있다. The distance calculator 108 according to the present exemplary embodiment may calculate the distance between the 3D camera 106 and the object to be recognized using the time information. In addition, since the 3D camera 106 is mounted on the 3D distance information extracting apparatus 100, the distance calculated by the distance calculating unit 108 is substantially referred to as the distance between the 3D distance information extracting apparatus 100 and the recognition object. Can be.

한편 3D 카메라(106)에 의하여 생성되는 3D 이미지는, 3D 카메라(106)가 인식 대상 즉 피사체로부터 반사되는 반사광을 수신하여 생성된다. 그에 따라 하나의 인식 대상이라고 할지라도 상기 인식 대상의 각도, 굴곡 등에 의하여 3D 카메라(106)에 반사광이 도달하는데 걸리는 시간은, 인식 대상의 부분별로 각기 달라지게 된다. 예를 들어, 인식 대상이 손이라고 가정하면 손가락의 첫번째 마디로부터의 반사광이 3D 카메라(106)에 도달하는데 걸리는 시간과, 접힌 상태의 손바닥으로부터의 반사광이 3D 카메라(106)에 도달하는데 걸리는 시간은 각기 다르다.Meanwhile, the 3D image generated by the 3D camera 106 is generated by the 3D camera 106 receiving the reflected light reflected from the object to be recognized, that is, the subject. Therefore, even if it is one recognition object, the time taken for the reflected light to reach the 3D camera 106 by the angle, the bending, etc. of the recognition object is different for each part of the recognition object. For example, assuming that the object to be recognized is a hand, the time taken for the reflected light from the first node of the finger to reach the 3D camera 106 and the time taken for the reflected light from the folded palm to reach the 3D camera 106 are Each one is different.

거리 연산부(108)는 상기와 같이 인식 대상의 어떤 부분에 의해 반사되었느냐에 따라 각기 달라지는 반사광의 도달 시간, 즉 인식 대상의 각 부분별 시간 정보를 기초로 3D 카메라(106)와 인식 대상 각 부분별 거리를 계산할 수도 있다. The distance calculating unit 108 is based on the arrival time of the reflected light, which is different depending on which part of the object is reflected as described above, that is, for each part of the 3D camera 106 and the object to be recognized based on time information of each part of the object to be recognized. You can also calculate the distance.

또한 거리 연산부(108)는, 카메라 제어부(110)의 제어 하에 상기와 같이 계산된 3차원 거리 정보 추출 장치(100) 및 인식 대상의 각 부분별 거리를 거리 정보로서 카메라 메모리(114)에 저장할 수 있다.In addition, the distance calculating unit 108 may store, as the distance information, the three-dimensional distance information extracting apparatus 100 and the distance of each part of the object to be recognized as distance information under the control of the camera controller 110 as the distance information. have.

카메라 제어부(110)는 3차원 거리 정보 추출 장치(100)의 전반적인 동작을 제어한다.The camera controller 110 controls the overall operation of the 3D distance information extraction apparatus 100.

본 실시예에 따른 카메라 제어부(110)는 2D 카메라(102)를 통해 생성된 2D 이미지에 인식 대상이 포함되어 있는지 여부를 판단한다. 2D 이미지에 인식 대상이 포함된 경우, 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 제어하여 상기 인식 대상에 대한 3D 이미지를 생성한다. 반면에 2D 이미지에 인식 대상이 포함되어 있지 않은 경우, 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 구동시키지 않는다. 상기와 같이 본 발명에 따른 3차원 거리 정보 추출 장치(100)는 2D 이미지에 인식 대상이 포함되어 있을 경우에만 조명부(104) 및 3D 카메라(106)를 구동시킬 수 있다. 2D 이미지에 인식 대상이 포함되어 있을 경우에만 조명부(104) 및 3D 카메라(106)를 구동시킴으로써, 본 실시예에 따른 3차원 거리 정보 추출 장치(100)는 조명부(104) 및 3D 카메라(106)를 구동시키기 위해 필요한 전력을 절약할 수 있다.The camera controller 110 according to the present exemplary embodiment determines whether the recognition target is included in the 2D image generated by the 2D camera 102. When the object to be recognized is included in the 2D image, the camera controller 110 controls the lighting unit 104 and the 3D camera 106 to generate a 3D image of the object to be recognized. On the other hand, when the recognition object is not included in the 2D image, the camera controller 110 does not drive the lighting unit 104 and the 3D camera 106. As described above, the 3D distance information extraction apparatus 100 according to the present invention may drive the lighting unit 104 and the 3D camera 106 only when the recognition object is included in the 2D image. By driving the illumination unit 104 and the 3D camera 106 only when the recognition object is included in the 2D image, the three-dimensional distance information extraction apparatus 100 according to the present embodiment is the illumination unit 104 and the 3D camera 106. It is possible to save the power required to drive the.

실시예에 따라 카메라 제어부(110)는 근접 센서(112)를 통해 인식 대상이 검출되는 경우에만 조명부(104) 및 3D 카메라(106)가 구동되도록 상기 조명부(104) 및 3D 카메라(106)를 제어할 수 있다. 근접 센서(112)를 통해 인식 대상이 검출되지 않는 경우, 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 구동시키지 않는다. 상기와 같이 근접 센서(112)를 통해 인식 대상이 검출된 경우에만 조명부(104) 및 3D 카메라(106)를 구동시킴으로써, 본 실시예에 따른 3차원 거리 정보 추출 장치(100)는 조명부(104) 및 3D 카메라(106)를 구동시키기 위해 필요한 전력을 절약할 수 있다.According to an exemplary embodiment, the camera controller 110 controls the illumination unit 104 and the 3D camera 106 such that the illumination unit 104 and the 3D camera 106 are driven only when a recognition object is detected through the proximity sensor 112. can do. When the object to be detected is not detected through the proximity sensor 112, the camera controller 110 does not drive the lighting unit 104 and the 3D camera 106. By driving the illumination unit 104 and the 3D camera 106 only when the recognition object is detected through the proximity sensor 112 as described above, the three-dimensional distance information extraction apparatus 100 according to the present embodiment is the illumination unit 104 And power required to drive the 3D camera 106.

또한 다른 실시예에 따라 카메라 제어부(110)는 근접 센서(112) 및 2D 카메라(102)를 모두 이용하여 인식 대상을 검출하도록 3차원 거리 정보 추출 장치(100)를 제어할 수도 있다. 근접 센서(112)를 통해 특정 객체(object)가 검출되면, 카메라 제어부(110)는 특정 객체를 촬영하여 상기 특정 객체가 포함된 2D 이미지를 생성하도록 2D 카메라(102)를 제어한다. 카메라 제어부(110)는 2D 카메라(102)를 통해 생성된 2D 이미지를 이용하여 근접 센서(112)를 통해 검출된 상기 특정 객체가 인식 대상인지 여부를 판단한다.In addition, according to another exemplary embodiment, the camera controller 110 may control the 3D distance information extraction apparatus 100 to detect a recognition object using both the proximity sensor 112 and the 2D camera 102. When a specific object is detected through the proximity sensor 112, the camera controller 110 controls the 2D camera 102 to photograph the specific object to generate a 2D image including the specific object. The camera controller 110 determines whether the specific object detected by the proximity sensor 112 is an object of recognition using the 2D image generated by the 2D camera 102.

2D 카메라(102)를 통해 촬영된 특정 객체가 인식 대상인 경우, 즉 2D 이미지에 인식 대상이 포함된 경우 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 동작시켜 상기 특정 객체에 대한 3D 이미지를 생성한다. 반면에 2D 카메라(102)를 통해 촬영된 특정 객체가 인식 대상이 아닌 경우, 즉 2D 이미지에 인식 대상이 포함되지 않은 경우 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 동작시키지 않는다. 상기와 같이 본 발명에 따른 3차원 거리 정보 추출 장치(100)는 대상 검출부(120)를 통해 인식 대상을 먼저 검출함으로써, 촬영하고자 하는 피사체가 인식 대상인지 여부를 알지 못하는 상태에서 조명부(104) 및 3D 카메라(106)를 작동시키는 종래에 비하여 소모 전력을 감소시킬 수 있다.When a specific object photographed by the 2D camera 102 is a recognition target, that is, when a recognition target is included in the 2D image, the camera controller 110 operates the lighting unit 104 and the 3D camera 106 to Generate 3D images. On the other hand, when a specific object photographed by the 2D camera 102 is not a recognition target, that is, when the recognition target is not included in the 2D image, the camera controller 110 does not operate the lighting unit 104 and the 3D camera 106. Do not. As described above, the 3D distance information extracting apparatus 100 according to the present invention first detects the recognition target through the target detection unit 120, so that the illumination unit 104 and the lighting unit 104 do not know whether the object to be photographed is the recognition target. The power consumption can be reduced as compared to the conventional operation of operating the 3D camera 106.

카메라 메모리(114)에는 3차원 거리 정보 추출 장치(100)의 동작을 제어하기 위한 각종 데이터가 저장된다.The camera memory 114 stores various data for controlling the operation of the 3D distance information extraction apparatus 100.

본 실시예에 따른 카메라 메모리(114)에는 인식 대상을 식별하기 위한 식별 데이터가 저장될 수 있다. 예를 들어, 인식 대상이 사용자의 손가락(finger)이라고 가정한다. 카메라 메모리(114)에는 식별 데이터, 예를 들어 손가락을 포함하는 각종 이미지 또는 손가락의 특징 판별자(feature descriptor)들이 미리 저장되어 있을 수 있다. 카메라 제어부(110)는 2D 카메라(102)를 통해 생성된 2D 이미지를 상기 식별 데이터와 비교한다. 카메라 제어부(110)는 상기 비교 결과에 따라 사용자의 손가락 이미지가 포함된 경우에 상기 2D 이미지에 인식 대상이 포함되어 있다고 결정한다. 이때 손가락의 특징 판별자는 인식 대상이 손가락인지 여부를 판단하기 위하여 손가락의 모양(예를 들어, 지문의 유무, 손톱의 유무, 손가락의 형태) 등을 판별할 수 있도록 하기 위한 특징자일 수 있다.In the camera memory 114 according to the present embodiment, identification data for identifying a recognition target may be stored. For example, assume that the recognition target is a user's finger. In the camera memory 114, identification data, for example, various images including a finger or feature descriptors of a finger may be stored in advance. The camera controller 110 compares the 2D image generated by the 2D camera 102 with the identification data. The camera controller 110 determines that the recognition object is included in the 2D image when the user's finger image is included according to the comparison result. At this time, the feature discriminator of the finger may be a feature for determining the shape of the finger (for example, the presence of a fingerprint, the presence of a fingernail, the shape of a finger), etc. in order to determine whether the recognition target is a finger.

실시예에 따라 인식 데이터는 사용자에 의해 미리 입력되어 저장된 데이터일 수 있다. 2D 카메라(102)는, 예를 들어 사용자의 손 이미지를 촬영하여 생성한 2D 이미지를 인식 데이터로서 카메라 메모리(114)에 저장할 수 있다.According to an exemplary embodiment, the recognition data may be data previously input and stored by a user. The 2D camera 102 may store, for example, a 2D image generated by photographing a user's hand image in the camera memory 114 as recognition data.

실시예에 따라 카메라 메모리(114)에는 인식 대상의 사이즈에 따른 조명부(104)로부터의 요구 광량이 저장될 수 있다. 예를 들어, 카메라 제어부(110)는 카메라 메모리(114)를 참조하여 2D 이미지에 포함된 인식 대상의 사이즈가 레벨 1~10이면 레벨 1의 광량, 사이즈가 11~20이면 레벨 2의 광량, 사이즈가 21~30이면 레벨 3의 광량을 가지는 광을 발사하도록 조명부(104)를 제어할 수 있다.According to an exemplary embodiment, the amount of light required from the lighting unit 104 according to the size of the recognition target may be stored in the camera memory 114. For example, when the size of the recognition target included in the 2D image is level 1 to 10 with reference to the camera memory 114, the camera controller 110 outputs the amount of light at level 1, and if the size is 11 to 20, the amount of light at level 2 and size. Is 21 to 30, the lighting unit 104 may be controlled to emit light having a light amount of level 3.

도 2는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 일 예를 나타낸 순서도이다.FIG. 2 is a flowchart illustrating an example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.

도 2를 참조하면, 먼저 3차원 거리 정보 추출 장치(100)는 2D 카메라(102)를 이용하여 적어도 하나의 객체(object)를 촬영함으로써 2D 이미지를 생성한다(S202). 2D 이미지가 생성되면, 카메라 제어부(110)는 상기 2D 이미지에 인식 대상(예를 들어, 사용자의 손)이 포함되었는지 여부를 판단한다(S204).Referring to FIG. 2, first, the 3D distance information extraction apparatus 100 generates a 2D image by photographing at least one object using the 2D camera 102 (S202). When the 2D image is generated, the camera controller 110 determines whether a recognition target (for example, a user's hand) is included in the 2D image (S204).

단계 S204의 판단 결과, 2D 이미지에 인식 대상이 포함되어 있지 않으면(S204: 아니오), 2D 카메라(102)는 지속적으로 적어도 하나의 객체를 촬영함으로써 2D 이미지를 생성할 수 있다. 실시예에 따라 카메라 제어부(110)는 인식 대상에 대응하는 이미지, 예를 들어 상기 인식 대상이 포함된 2D 이미지가 생성될 때까지 촬영을 계속하도록 2D 카메라(102)를 제어할 수 있다. 다른 실시예에 따라 카메라 제어부(110)는, 미리 저장된 시간마다(예를 들어, 1분마다) 촬영을 반복하여 2D 이미지를 지속적으로 생성하도록 2D 카메라(102)를 제어할 수도 있다.As a result of the determination in step S204, if the recognition target is not included in the 2D image (S204: NO), the 2D camera 102 may continuously generate the 2D image by photographing at least one object. According to an exemplary embodiment, the camera controller 110 may control the 2D camera 102 to continue shooting until an image corresponding to the recognition target, for example, a 2D image including the recognition target, is generated. According to another exemplary embodiment, the camera controller 110 may control the 2D camera 102 to continuously generate a 2D image by repeating shooting every pre-stored time (for example, every minute).

또한 실시예에 따라 카메라 제어부(110)는 카메라 메모리(114)에 미리 설정되어 저장된 기준 시간(예를 들어, 1초) 동안 촬영된 복수 개의 2D 이미지들에 인식 대상이 모두 포함되어 있는지 여부를 판단할 수 있다. 기준 시간 동안 촬영된 2D 이미지들 모두에 인식 대상이 포함된 것이 아닌 경우, 카메라 제어부(110)는 인식 대상이 2D 카메라(102)에 포함된 렌즈의 화각 범위에 존재하지 않은 것으로 결정하여 상기 2D 카메라(102)의 동작을 종료시킬 수 있다.In addition, according to an exemplary embodiment, the camera controller 110 determines whether all of the recognition targets are included in the plurality of 2D images photographed during the reference time (for example, 1 second) preset and stored in the camera memory 114. can do. If not all of the 2D images photographed during the reference time includes the recognition target, the camera controller 110 determines that the recognition target does not exist in the field of view range of the lens included in the 2D camera 102 and the 2D camera. The operation of 102 can be terminated.

단계 S204의 판단 결과, 2D 이미지에 인식 대상이 포함된 경우(S204: 예), 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다(S206). 상기와 같이 조명부(104)로부터 광이 발사되면, 3D 카메라(106)가 인식 대상을 촬영하여 3D 이미지를 생성한다(S208). 단계 S206에서 발사된 광은 인식 대상에 의해 반사되고, 3D 카메라(106)의 촬영 센서(미도시)는 인식 대상으로부터 반사된 반사광을 수신함으로써 상기 인식 대상을 촬영한다. 본 실시예에서의 단계 S208에서의 3D 카메라(106)의 촬영은, 인식 대상으로부터 반사된 반사광을 수신하고, 수신한 반사광을 3D 이미지로 변환 처리함으로써 이루어질 수 있다. As a result of the determination in step S204, when the recognition target is included in the 2D image (S204: YES), the camera controller 110 controls the lighting unit 104 to extract the distance between the recognition target, that is, the recognition target and the three-dimensional distance information extraction device. The light is emitted to measure the distance between the 100 (S206). When light is emitted from the lighting unit 104 as described above, the 3D camera 106 generates a 3D image by photographing a recognition target (S208). The light emitted in step S206 is reflected by the recognition object, and the photographing sensor (not shown) of the 3D camera 106 captures the recognition object by receiving the reflected light reflected from the recognition object. The imaging of the 3D camera 106 in step S208 in the present embodiment can be performed by receiving the reflected light reflected from the recognition object and converting the received reflected light into a 3D image.

3D 카메라(106)를 통해 인식 대상에 대응하는 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리를 계산한다(S210). 이로써 3차원 거리 정보 추출 장치(100)는, 상기 3차원 거리 정보 장치(100)와 인식 대상 간의 거리를 알 수 있게 된다.When a 3D image corresponding to the object to be recognized is generated through the 3D camera 106, the distance calculator 108 calculates a distance to the object to be recognized using the 3D image (S210). As a result, the 3D distance information extraction apparatus 100 may know the distance between the 3D distance information apparatus 100 and the recognition object.

도 3은 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 다른 예를 나타낸 순서도이다.3 is a flowchart illustrating another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.

도 3을 참조하면, 먼저 근접 센서(112)를 이용하여 인식 대상을 검출한다(S302). 본 실시예에 따른 근접 센서(112)는, 상기 근접 센서(112)로부터 미리 설정된 범위(예를 들어, 반경 10cm 이내)에 인식 대상이 진입하는 것을 검출할 수 있다.Referring to FIG. 3, first, a recognition object is detected using the proximity sensor 112 (S302). The proximity sensor 112 according to the present exemplary embodiment may detect that the recognition target enters a preset range (for example, within a radius of 10 cm) from the proximity sensor 112.

인식 대상이 검출되면, 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다(S304). 상기와 같이 조명부(104)로부터 광이 발사되면, 3D 카메라(106)가 인식 대상을 촬영하여 3D 이미지를 생성한다(S306).When the object to be detected is detected, the camera controller 110 controls the lighting unit 104 to emit light for measuring the distance between the object to be recognized, that is, the distance between the object and the three-dimensional distance information extracting apparatus 100 (S304). ). When light is emitted from the lighting unit 104 as described above, the 3D camera 106 generates a 3D image by photographing a recognition target (S306).

단계 S304에서 조명부(104)로부터 발사된 광은 인식 대상에 의해 반사되고, 3D 카메라(106)의 촬영 센서(미도시)는 인식 대상으로부터 반사된 반사광을 수신한다. 본 실시예에 따른 단계 S306에서 3D 카메라(106)는, 상기 3D 카메라(106)가 인식 대상으로부터 반사된 반사광을 수신하고, 수신한 반사광을 3D 이미지로 변환 처리함으로써 이루어질 수 있다.Light emitted from the illumination unit 104 in step S304 is reflected by the recognition object, and the photographing sensor (not shown) of the 3D camera 106 receives the reflected light reflected from the recognition object. In step S306 according to the present embodiment, the 3D camera 106 may be configured by receiving the reflected light reflected by the 3D camera 106 from the object to be recognized and converting the received reflected light into a 3D image.

3D 카메라(106)를 통해 인식 대상이 포함된 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리, 즉 3차원 거리 정보 추출 장치(100)와 인식 대상 간의 거리를 계산한다(S308).When a 3D image including a recognition object is generated through the 3D camera 106, the distance calculating unit 108 uses the 3D image to determine a distance from the recognition object, that is, between the 3D distance information extracting apparatus 100 and the recognition object. The distance is calculated (S308).

도 4는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도이다.4 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.

도 4를 참조하면, 3차원 거리 정보 추출 장치(100)는 근접 센서(112)를 이용하여 상기 근접 센서(112)의 센싱 범위(예를 들어, 반경 10cm 이내) 내에 진입한 객체(object)를 검출한다(S402). 객체가 검출되면, 카메라 제어부(110)는 2D 카메라(102)를 작동시켜서 상기 객체를 촬영함으로써, 상기 객체가 포함된 2D 이미지를 생성한다(S404).Referring to FIG. 4, the apparatus for extracting 3D distance information 100 detects an object that enters within a sensing range (eg, within a radius of 10 cm) of the proximity sensor 112 using the proximity sensor 112. It is detected (S402). When the object is detected, the camera controller 110 generates a 2D image including the object by photographing the object by operating the 2D camera 102 (S404).

단계 S402에서 근접 센서(112)를 통해 검출된 객체는 인식 대상이 아닐 수도 있다. 인식 대상이 아닌 경우에는 상기 객체가 포함된 3D 이미지를 생성할 필요가 없다. 따라서 상기 객체가 포함된 3D 이미지를 생성하기에 앞서, 본 실시예에 따른 3차원 거리 정보 추출 장치(100)는 근접 센서(112)를 통해 검출된 객체가 인식 대상인지 여부를 먼저 판단한다. 단계 S402에서 검출된 객체가 인식 대상인지 여부를 판단하기 위하여 카메라 제어부(110)는, 단계 S404에서 상기 객체를 촬영하여 상기 객체에 대응하는 2D 이미지, 예를 들어 상기 객체가 포함된 2D 이미지를 생성하도록 2D 카메라(102)를 제어할 수 있다. 단계 S402에서 검출된 객체에 대응하는 2D 이미지가 생성되면, 카메라 제어부(110)는 상기 2D 이미지에 인식 대상(예를 들어, 사용자의 손)이 포함되었는지 여부를 판단한다(S406).The object detected through the proximity sensor 112 in step S402 may not be a recognition target. If the object is not recognized, it is not necessary to generate a 3D image including the object. Therefore, prior to generating the 3D image including the object, the 3D distance information extraction apparatus 100 according to the present embodiment first determines whether the object detected by the proximity sensor 112 is a recognition target. In order to determine whether the object detected in step S402 is a recognition target, the camera controller 110 photographs the object in step S404 to generate a 2D image corresponding to the object, for example, a 2D image including the object. 2D camera 102 can be controlled. When a 2D image corresponding to the object detected in step S402 is generated, the camera controller 110 determines whether a recognition target (for example, a user's hand) is included in the 2D image (S406).

단계 S406의 판단 결과, 2D 이미지에 인식 대상이 포함되어 있지 않으면(S406: 아니오), 카메라 제어부(110)는 근접 센서(112)가 다시 근접 센싱을 수행하여 센싱 범위 내에 진입한 다른 객체를 검출하도록 제어한다(S402).As a result of the determination in step S406, when the recognition target is not included in the 2D image (S406: NO), the camera controller 110 may perform the proximity sensing again to detect another object that has entered the sensing range. Control (S402).

다른 실시예에 따라 카메라 제어부(110)는 카메라 메모리(114)에 미리 설정되어 저장된 기준 시간(예를 들어, 1분) 동안 특정 객체(예를 들어, 사용자의 손)가 검출되지 않는 경우, 인식 대상이 근접 센서(112)의 센싱 범위 내에 진입하지 않는 것으로 결정할 수 있다. 또한 상기 센싱 범위 내에 인식 대상이 진입하지 않은 것으로 결정되면, 카메라 제어부(110)는 근접 센서(112)의 동작을 종료시킬 수 있다.According to another exemplary embodiment, the camera controller 110 recognizes when a specific object (eg, a user's hand) is not detected for a reference time (eg, 1 minute) preset and stored in the camera memory 114. It may be determined that the subject does not enter the sensing range of the proximity sensor 112. In addition, when it is determined that the object of recognition does not enter within the sensing range, the camera controller 110 may terminate the operation of the proximity sensor 112.

단계 S406의 판단 결과, 2D 이미지에 인식 대상이 포함된 경우(S406: 예), 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다(S408). 상기와 같이 조명부(104)로부터 광이 발사되면, 3D 카메라(106)는 인식 대상을 촬영하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S410). 3D 카메라(106)를 통해 인식 대상에 대응하는 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리를 계산한다(S412).As a result of the determination in step S406, when the recognition object is included in the 2D image (S406: Yes), the camera controller 110 controls the lighting unit 104 to extract a distance between the recognition object, that is, the recognition object and the three-dimensional distance information extraction device. The light is emitted to measure the distance between the 100 (S408). When light is emitted from the lighting unit 104 as described above, the 3D camera 106 generates a 3D image corresponding to the recognition target by photographing the recognition target (S410). When a 3D image corresponding to the object to be recognized is generated through the 3D camera 106, the distance calculator 108 calculates a distance to the object to be recognized using the 3D image (S412).

도 5는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도이다.FIG. 5 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.

도 5를 참조하면, 먼저 2D 카메라(102)가 적어도 하나의 객체를 촬영함으로써 상기 객체에 대응하는 2D 이미지, 예를 들어 상기 객체가 포함된 2D 이미지를 생성한다(S502). 2D 이미지가 생성되면, 카메라 제어부(110)는 상기 2D 이미지에 인식 대상(예를 들어, 사용자의 손)이 포함되었는지 여부를 판단한다(S504).Referring to FIG. 5, first, the 2D camera 102 photographs at least one object to generate a 2D image corresponding to the object, for example, a 2D image including the object (S502). When the 2D image is generated, the camera controller 110 determines whether a recognition target (for example, a user's hand) is included in the 2D image (S504).

단계 S504의 판단 결과, 2D 이미지에 인식 대상이 포함되어 있지 않으면(S504: 아니오), 2D 카메라(102)는 지속적으로 적어도 하나의 객체를 촬영함으로써 2D 이미지를 생성할 수 있다. 실시예에 따라 카메라 제어부(110)는 인식 대상이 포함된 2D 이미지가 생성될 때까지 촬영을 계속하도록 2D 카메라(102)를 제어할 수도 있다.As a result of the determination in step S504, when the recognition object is not included in the 2D image (S504: NO), the 2D camera 102 may continuously generate at least one object to generate the 2D image. According to an exemplary embodiment, the camera controller 110 may control the 2D camera 102 to continue shooting until a 2D image including the object of recognition is generated.

단계 S504의 판단 결과, 2D 이미지에 인식 대상이 포함된 경우(S504: 예), 카메라 제어부(110)는 2D 이미지에 포함된 인식 대상의 사이즈를 기초로 조명부(104)에서 발사할 광의 광량을 결정한다(S506).As a result of the determination in step S504, when the recognition target is included in the 2D image (S504: YES), the camera controller 110 determines the amount of light to be emitted from the lighting unit 104 based on the size of the recognition target included in the 2D image. (S506)

본 실시예에서 카메라 제어부(110)는 단계 S502에서 생성된 2D 이미지를 이용하여 3차원 거리 정보 추출 장치(100)와 인식 대상 간의 대략적인 거리를 결정할 수 있다. 예를 들어, 2D 카메라(102)를 통해 생성되는 2D 이미지의 총 화소수가 '800×600' 픽셀, 즉 48만 픽셀이라고 가정한다. 카메라 메모리(114)에는 아래 표 1과 같이, 인식 대상의 사이즈별로 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리, 거리별로 3D 이미지를 생성하기 위해 조명부(104)에 요구되는 요구 광량 등이 저장되어 있을 수 있다.
In the present embodiment, the camera controller 110 may determine an approximate distance between the 3D distance information extraction apparatus 100 and the object to be recognized using the 2D image generated in operation S502. For example, it is assumed that the total number of pixels of the 2D image generated by the 2D camera 102 is '800 × 600' pixels, that is, 480,000 pixels. As shown in Table 1 below, the camera memory 114 has a distance between the object to be recognized and the apparatus for extracting 3D distance information 100 according to the size of the object to be recognized, and the amount of light required by the illumination unit 104 to generate a 3D image for each distance. May be stored.

인식 대상 사이즈(pixel)Recognition target size (pixel) 인식 대상과의 거리Distance to recognition object 요구 광량Required light quantity 10,001 ~ 50,00010,001 to 50,000 1.1 ~ 3.01.1 to 3.0 Level 1Level 1 50,001 ~ 100,00050,001 to 100,000 3.1 ~ 6.03.1 to 6.0 Level 2Level 2 100,001 ~ 150,000100,001-150,000 6.1 ~ 9.06.1 to 9.0 Level 3Level 3 150,001 ~ 200,000150,001 to 200,000 9.1 ~ 12.09.1-12.0 Level 4Level 4 ...... ...... ......

표 1을 예로 들어 설명하면, 단계 S502에서 생성된 2D 이미지에 포함된 인식 대상의 사이즈가 12만 픽셀이라고 가정하면 상기 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리는 6.1~9.0cm가 된다. 또한 상기 6.1~9.0cm 사이에 위치한 인식 대상에 대응하는 3D 이미지를 획득하기 위해 조명부(104)에서 발사될 광의 요구 광량은 Level 3이 된다. 본 실시예에 따른 카메라 제어부(110)는 상기 표 1과 같이 카메라 메모리(114)에 미리 설정되어 저장되어 있는 정보를 이용하여 조명부(104)에서 발사할 광의 광량을 결정할 수 있다.Referring to Table 1 as an example, assuming that the size of the recognition object included in the 2D image generated in step S502 is 120,000 pixels, the distance between the recognition object and the 3D distance information extraction apparatus 100 becomes 6.1 to 9.0 cm. . In addition, the required amount of light to be emitted from the lighting unit 104 is Level 3 to obtain a 3D image corresponding to the recognition target located between 6.1 and 9.0 cm. The camera controller 110 according to the present exemplary embodiment may determine the amount of light to be emitted from the lighting unit 104 by using information previously set and stored in the camera memory 114 as shown in Table 1 above.

조명부(104)에서 발사할 광의 광량이 결정되면, 조명부(104)는 인식 대상과의 거리, 즉 3차원 거리 정보 추출 장치(100)와 인식 대상 간의 거리를 측정하기 위해 상기 단계 S506에서 결정된 광량의 광을 인식 대상을 향해 발사한다(S508). 조명부(104)로부터 광이 발사되면, 3D 카메라(106)는 인식 대상을 촬영하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S510). 단계 S508에서 발사된 광은 인식 대상에 의해 반사되고, 3D 카메라(106)의 촬영 센서(미도시)는 인식 대상으로부터 반사된 반사광을 수신하여 변환함으로써 3D 이미지를 생성할 수 있다.When the amount of light to be emitted from the lighting unit 104 is determined, the lighting unit 104 determines the distance of the light amount determined in step S506 to measure the distance between the object to be recognized, that is, the distance between the 3D distance information extracting apparatus 100 and the object to be recognized. The light is emitted toward the recognition target (S508). When light is emitted from the lighting unit 104, the 3D camera 106 photographs a recognition object to generate a 3D image corresponding to the recognition object (S510). The light emitted in step S508 is reflected by the object to be recognized, and a photographing sensor (not shown) of the 3D camera 106 may generate a 3D image by receiving and converting the reflected light reflected from the object to be recognized.

3D 카메라(106)를 통해 인식 대상에 대응하는 3D 이미지, 예를 들어 인식 대상이 포함된 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리를 계산한다(S512).When a 3D image corresponding to the object to be recognized, for example, a 3D image including the object to be recognized is generated through the 3D camera 106, the distance calculator 108 calculates a distance from the object to be recognized using the 3D image ( S512).

도 6은 도 1에 도시된 3차원 거리 정보 추출 장치가 포함된 단말기의 구성을 도시한 블록도이다.6 is a block diagram illustrating a configuration of a terminal including the apparatus for extracting 3D distance information shown in FIG. 1.

도 6에 도시된 바와 같이, 3차원 거리 정보 추출 장치(100)의 각 구성 요소는 단말기(600)에 내장된 형태로 구현될 수 있다. 도 6을 참조하면, 단말기(600)는 2D 카메라(102) 및 근접 센서(112)를 포함하는 대상 검출부(120), 조명부(104), 3D 카메라(106), 거리 연산부(108), 카메라 제어부(110), 카메라 메모리(114), 사용자 입력부(604), 디스플레이부(606), 메모리(608), 제어부(610)을 포함하며, 통신 인터페이스(602)를 더 포함할 수 있다.As illustrated in FIG. 6, each component of the 3D distance information extracting apparatus 100 may be implemented in a form embedded in the terminal 600. Referring to FIG. 6, the terminal 600 includes a 2D camera 102 and a proximity sensor 112, a target detector 120, an illumination unit 104, a 3D camera 106, a distance calculator 108, and a camera controller. 110, a camera memory 114, a user input unit 604, a display unit 606, a memory 608, a control unit 610, and may further include a communication interface 602.

도 6에서는 설명의 편이를 위하여 대상 검출부(120)가 2D 카메라(102) 및 근접 센서(112)를 모두 포함된 형태로 도시하였으나, 실시예에 따라 대상 검출부(120)는 2D 카메라(102) 및 근접 센서(112) 중 적어도 하나를 포함하여 구현될 수 있다. 또한 카메라 제어부(110)는 제어부(610)에 포함된 형태로 구현될 수 있고, 카메라 메모리(114)는 메모리(608)에 포함된 형태로 구현될 수 있다.In FIG. 6, the object detector 120 includes both the 2D camera 102 and the proximity sensor 112 for convenience of description. However, according to an exemplary embodiment, the object detector 120 may include the 2D camera 102 and the 2D camera 102. It may be implemented by including at least one of the proximity sensors 112. Also, the camera controller 110 may be implemented in a form included in the controller 610, and the camera memory 114 may be implemented in a form included in the memory 608.

통신 인터페이스(602)는 단말기(600)의 유선 또는 무선 통신을 수행한다. 본 실시예에 따른 통신 인터페이스(602)는 예를 들어, 블루투스, 와이파이 등의 근거리 무선 통신을 수행할 수 있다. 또한 통신 인터페이스(602)는 유선 또는 무선 통신을 수행하여 인식 대상을 식별하기 위한 식별 데이터를 수신할 수 있다.The communication interface 602 performs wired or wireless communication of the terminal 600. The communication interface 602 according to the present embodiment may perform short-range wireless communication such as Bluetooth, Wi-Fi, and the like. The communication interface 602 may also receive identification data for identifying a recognition object by performing wired or wireless communication.

실시예에 따라 통신 인터페이스(602)는, 타 단말기로부터 호(call)를 수신하거나 또는 메시지(예를 들어, SMS(Short message service))를 수신할 수 있다.According to an embodiment, the communication interface 602 may receive a call from another terminal or receive a message (eg, a short message service (SMS)).

사용자 입력부(604)는 사용자로부터의 입력을 수신한다. 본 실시예에 따른 사용자 입력부(604)는 단말기(600)와 인식 대상 간의 거리를 측정하기 위한 사용자 입력을 수신할 수 있다. 또한 사용자 입력부(604)는 제스처 입력을 수신하기 위한 사용자 입력을 수신할 수 있다.The user input unit 604 receives an input from a user. The user input unit 604 according to the present exemplary embodiment may receive a user input for measuring the distance between the terminal 600 and the recognition target. In addition, the user input unit 604 may receive a user input for receiving a gesture input.

본 실시예에서 '제스처 입력'은 예를 들어 사용자가 손을 이용하여 단말기(600)를 제어하기 위한 특정 제스처를 취함으로써 입력되는 사용자 입력을 의미한다. 즉, 사용자는 손을 이용하여 메모리(608)에 미리 설정되어 저장되어 있는 제스처 입력들 중 어느 하나에 해당하는 제스처를 취함으로써, 단말기(600)에 제스처 입력을 입력할 수 있다. 실시예에 따라 사용자는 단말기(600)의 3차원 거리 정보 추출 장치(100)를 구동시키고, 3차원 거리 정보 추출 장치(100)에 포함된 2D 카메라(102) 또는 3D 카메라(106)의 렌즈를 향해 제스처를 취함으로써 상기 제스처 입력을 단말기(600)에 입력할 수도 있다. 본 실시예에 따른 단말기(600)는 사용자로부터 제스처 입력을 수신하기 위한 사용자 입력, 즉 3차원 거리 정보 추출 장치(100)를 구동시키기 위한 사용자 입력을 수신하여 상기 3차원 거리 정보 추출 장치(100)를 구동시킬 수 있다.In the present embodiment, 'gesture input' refers to a user input that is input by, for example, a user making a specific gesture for controlling the terminal 600 by using a hand. That is, the user may input a gesture input to the terminal 600 by using a hand to take a gesture corresponding to any one of gesture inputs preset and stored in the memory 608. According to an embodiment, the user drives the 3D distance information extraction apparatus 100 of the terminal 600, and the lens of the 2D camera 102 or the 3D camera 106 included in the 3D distance information extraction apparatus 100. The gesture input may be input to the terminal 600 by taking a gesture toward the terminal 600. The terminal 600 according to the present exemplary embodiment receives a user input for receiving a gesture input from a user, that is, a user input for driving the 3D distance information extracting apparatus 100, and thus the 3D distance information extracting apparatus 100. Can be driven.

디스플레이부(606)는 단말기(600)에 저장된 각종 데이터를 표시한다. 실시예에 따라 디스플레이부(606)는 사용자로부터 입력되는 제스처 입력을 실시간으로 표시할 수 있다. 또한 단말기(600)가 상기 제스처 입력에 대응하는 동작을 수행하기 위한 각종 데이터를 표시할 수 있다. 예를 들어, 제스처 입력이 메모리(608)에 저장된 동영상 파일을 재생하기 위한 것이라면, 디스플레이부(606)는 제어부(610)의 제어 하에 상기 동영상을 재생하여 표시할 수 있다.The display unit 606 displays various data stored in the terminal 600. According to an exemplary embodiment, the display 606 may display a gesture input input from a user in real time. In addition, the terminal 600 may display various data for performing an operation corresponding to the gesture input. For example, if a gesture input is for playing a video file stored in the memory 608, the display 606 may play and display the video under the control of the controller 610.

메모리(608)에는 단말기(600)를 제어하기 위한 각종 데이터가 저장된다. 본 실시예에 따른 메모리(608)에는 복수 개의 제스처 입력들 및 상기 제스처 입력들 각각에 대응하는 명령어 또는 단말기(600)의 동작이 저장될 수 있다.The memory 608 stores various data for controlling the terminal 600. The memory 608 according to the present embodiment may store a plurality of gesture inputs and commands or operations corresponding to each of the gesture inputs.

제어부(610)는 단말기(600)의 전반적인 동작을 제어한다. 본 실시예에 따른 제어부(610)는 3차원 거리 정보 추출 장치(100)의 카메라 제어부(110)를 포함하여 구현됨으로써 카메라 제어부(110)에 의해 실행되는 각종 동작을 수행할 수 있다. 제어부(610)는 3D 카메라(106)를 통해 생성된 3D 이미지 및 거리 연산부(108)를 통해 생성된 거리 정보를 기초로 인식 대상의 형태를 결정하고, 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정할 수 있다. 또한 제스처 입력이 결정되면, 제어부(608)는 해당 제스처 입력에 대응하는 단말기(600)의 동작을 결정하여 수행한다.The controller 610 controls the overall operation of the terminal 600. The controller 610 according to the present exemplary embodiment may be implemented by including the camera controller 110 of the 3D distance information extraction apparatus 100 to perform various operations executed by the camera controller 110. The controller 610 determines the shape of the object to be recognized based on the 3D image generated through the 3D camera 106 and the distance information generated by the distance calculator 108, and inputs a gesture input corresponding to the shape of the object to be recognized. You can decide. In addition, when the gesture input is determined, the controller 608 determines and performs an operation of the terminal 600 corresponding to the gesture input.

다른 실시예에 따라 제어부(610)는 상기 3D 이미지만으로 상기 인식 대상의 형태를 결정할 수도 있다. 3D 카메라(106)를 통해 생성된 3D 이미지만으로 인식 대상의 형태를 결정한 경우에도 제어부(610)는 상기 3D 이미지에 대응하는 제스처 입력을 결정할 수 있다. 또한 상기 제스처 입력에 따른 동작을 수행하도록 단말기(600)를 제어할 수 있다.According to another exemplary embodiment, the controller 610 may determine the shape of the object to be recognized using only the 3D image. Even when the shape of the object to be recognized is determined using only the 3D image generated by the 3D camera 106, the controller 610 may determine a gesture input corresponding to the 3D image. In addition, the terminal 600 may be controlled to perform an operation according to the gesture input.

실시예에 따라 제어부(610)는 단말기(600)의 상태에 따라 3차원 거리 정보 추출 장치(100)의 구동하여 동작 인식 기능을 실행할 것인지 여부를 결정할 수 있다. 단말기(600)가 대기(standby) 상태를 유지하고 있는 경우, 또는 레디(ready) 상태를 유지하고 있는 경우에 제어부(610)는 동작 인식 기능을 실행할 것인지 여부를 결정한다.According to an exemplary embodiment, the controller 610 may determine whether to drive the 3D distance information extraction apparatus 100 to execute a motion recognition function according to the state of the terminal 600. When the terminal 600 maintains a standby state or when the terminal 600 maintains a ready state, the controller 610 determines whether to execute a motion recognition function.

동작 인식 기능은, 단말기(600)가 3차원 거리 정보 추출 장치(100)를 이용하여 단말기(600)로 입력되는 사용자의 제스처를 제스처 입력으로서 인식할 수 있는 기능을 가리킨다. 대기 상태는, 단말기(600)의 전원이 온되어 있기는 하지만, 단말기(600) 내에 별도의 이벤트(예를 들어, 사용자 입력이 입력되지 않은 상태 등)가 발생하지 않은 상태를 가리킨다. 레디 상태는, 단말기(600)가 동작 인식 기능 이외의 다른 기능을 실행하고 있는 상태를 가리킨다. 예를 들어, 단말기(600)가 메시지 송수신, 인터넷 접속, e-book 표시, 음악 재생, 게임 실행 등의 동작을 하고 있다면, 상기 단말기(600)는 레디 상태이다.The gesture recognition function refers to a function of allowing the terminal 600 to recognize a user's gesture input to the terminal 600 as a gesture input using the 3D distance information extracting apparatus 100. The standby state refers to a state in which the terminal 600 is powered on, but no other event (eg, a state in which a user input is not input) does not occur in the terminal 600. The ready state indicates a state in which the terminal 600 executes a function other than the motion recognition function. For example, if the terminal 600 is transmitting or receiving a message, accessing the Internet, displaying an e-book, playing music, playing a game, or the like, the terminal 600 is ready.

실시예에 따라 제어부(610)는 단말기(600)에 웨이크 업 이벤트가 발생하였는지 여부를 판단할 수 있다. 예를 들어, 대기 상태를 유지하고 있던 단말기(600)가 호를 수신하였거나 또는 메시지를 수신한 경우, 제어부(610)는 웨이크 업 이벤트가 발생한 것으로 결정할 수 있다. 또한 대기 상태를 유지하던 단말기(600)가 사용자 입력부(604)를 통해 사용자 입력을 수신한 경우에도, 제어부(610)는 웨이크 업 이벤트가 발생한 것으로 결정할 수 있다. 이때 사용자 입력은, 동작 인식 기능을 실행하기 위한 사용자 입력, 상기 동작 인식 기능 외의 다른 기능을 실행하기 위한 사용자 입력 등이 될 수 있다. 또한 웨이크 업 이벤트가 발생되면, 단말기(600)의 상태는, 제어부(610)의 제어 하에 대기 상태에서 레디 상태로 전환될 수 있다.According to an embodiment, the controller 610 may determine whether a wake up event occurs in the terminal 600. For example, when the terminal 600 which is in the standby state receives a call or receives a message, the controller 610 may determine that a wake up event has occurred. In addition, even when the terminal 600, which has maintained the standby state, receives a user input through the user input unit 604, the controller 610 may determine that a wake up event has occurred. In this case, the user input may be a user input for executing a gesture recognition function or a user input for executing a function other than the gesture recognition function. In addition, when a wake up event occurs, the state of the terminal 600 may be switched from the standby state to the ready state under the control of the controller 610.

상기와 같이 단말기(600)에 웨이크 업 이벤트가 발생되면, 제어부(610)는 3차원 거리 정보 추출 장치(100)를 구동하여 사용자로부터 제스처 입력을 입력받을 수 있도록 단말기(600)를 제어할 수 있다. 제스처 입력이 입력되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 수행하도록 단말기(600)를 제어한다.When the wake-up event occurs in the terminal 600 as described above, the controller 610 may drive the 3D distance information extraction apparatus 100 to control the terminal 600 to receive a gesture input from the user. . When a gesture input is input, the controller 610 controls the terminal 600 to perform an operation corresponding to the gesture input.

단말기(600)가 레디 상태를 유지하고 있는 경우에도 제어부(610)는 동작 인식 기능의 실행 여부를 결정할 수 있다. 실시예에 따라 사용자 입력부(604)로부터 동작 인식 기능을 실행시키기 위한 사용자 입력이 입력된 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 또한 단말기(600)가 대기 상태에서 레디 상태로 전환된 경우에도 제어부(610)는 동작 인식 기능을 실행시킬 수 있다. Even when the terminal 600 maintains the ready state, the controller 610 may determine whether to execute the motion recognition function. According to an embodiment, when a user input for executing a gesture recognition function is input from the user input unit 604, the controller 610 may control the terminal 600 to execute the gesture recognition function. In addition, even when the terminal 600 is switched from the standby state to the ready state, the controller 610 may execute a motion recognition function.

실시예에 따라 단말기(600)가 레디 상태인 경우에, 제어부(610)는 동작 인식 기능을 실행시키기 위한 사용자 입력이 입력되었는지 여부를 판단할 수 있다. 상기 사용자 입력이 입력된 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어한다. 예를 들어, 단말기(600)는 음악 파일을 재생 중인 상태에서, 사용자로부터 동작 인식 기능을 실행시키기 위한 사용자 입력을 수신할 수 있다. 상기와 같은 사용자 입력이 입력되면, 제어부(610)는 사용자로부터 제스처 입력을 입력받기 위하여 3차원 거리 정보 추출 장치(100)를 실행시킬 수 있다.다른 실시예에 따라 단말기(600)가 레디 상태인 경우에, 대상 추출부(120)로부터 미리 설정된 범위 이내(예를 들어, 단말기(600)로부터 전방 10cm 이내)에 인식 대상이 진입하였는지 여부를 판단할 수 있다. 인식 대상이 상기 설정된 범위 이내에 진입한 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다.According to an embodiment, when the terminal 600 is in the ready state, the controller 610 may determine whether a user input for executing a gesture recognition function is input. When the user input is input, the controller 610 controls the terminal 600 to execute a motion recognition function. For example, the terminal 600 may receive a user input for executing a gesture recognition function from a user while playing a music file. When the user input is input as described above, the controller 610 may execute the 3D distance information extraction apparatus 100 to receive a gesture input from the user. According to another exemplary embodiment, the terminal 600 is ready. In this case, it may be determined whether the recognition target enters within a preset range (eg, within 10 cm from the terminal 600) from the target extractor 120. When the recognition target enters within the set range, the controller 610 may control the terminal 600 to execute a motion recognition function.

레디 상태에서, 예를 들어 2D카메라(102)의 렌즈의 화각 범위에 인식 대상(예를 들어, 사용자의 손)이 진입하였거나 또는 근접 센서(112)에 인식 대상이 검출된 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 즉 본 실시예에 따른 단말기(600)는, 예를 들어 음악 파일을 재생하는 동시에 사용자로부터 제스처 입력을 수신할 수 있다. 실시예에 따라 제어부(610)는 2D 카메라(102)의 렌즈의 화각 범위 내에 인식 대상이 메모리(608)에 미리 저장된 시간(예를 들어 1초) 이상 존재하는 경우, 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 또한 제어부(610)는 인식 대상이 근접 센서(112)에 의해 미리 저장된 시간 이상(예를 들어, 1초) 이상 지속적으로 감지되는 경우 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다.In the ready state, for example, when a recognition target (for example, a user's hand) enters an angle of view of the lens of the 2D camera 102 or when a recognition target is detected in the proximity sensor 112, the controller 610. The terminal 600 may control the terminal 600 to execute a gesture recognition function. That is, the terminal 600 according to the present embodiment may, for example, play a music file and receive a gesture input from a user. According to an exemplary embodiment, the controller 610 may execute the gesture recognition function when the object to be recognized exists within the angle of view of the lens of the 2D camera 102 more than a time (for example, 1 second) previously stored in the memory 608. 600 can be controlled. In addition, the controller 610 may control the terminal 600 to execute the motion recognition function when the object to be detected is continuously detected by the proximity sensor 112 for more than a predetermined time (eg, 1 second) or more.

예를 들어, 단말기(600)가 음악 파일을 재생 중인 레디 상태인 것으로 가정한다. 사용자는 2D 카메라(102)의 렌즈의 화각 범위 내에 1초 이상 인식대상, 즉 손이 존재하도록 제스처를 취할 수 있다. 2D 카메라(102)는 인식 대상을 검출하고, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 동작 인식 기능을 실행되면, 단말기(600)는 사용자로부터 제스처 입력을 입력받는다. 단말기(600)가 음악 파일을 재생 중이므로, 사용자는 음악 파일의 재생과 연관된 제스처 입력을 단말기(600)로 입력할 수 있다. 예를 들어, 사용자는 제스처 입력으로서 재생(play), 일시정지(pause), 빨리감기(forward), 되감기(rewind), 멈춤(stop) 등을 단말기(600)로 입력할 수 있다. 또한 사용자는 상기 음악 파일의 재생과 무관한 제스처 입력을 단말기(600)로 입력할 수도 있다. 예를 들어, 음악 파일이 재생되고 있는 레디 상태에서 단말기(600)는 타 어플리케이션(예를 들어, 인터넷 브라우저, 게임, e-book, 호 발신 등)의 실행을 위한 제스처 입력을 사용자로부터 입력받을 수 있다. 이와 같은 경우, 제어부(610)는 음악 파일을 재생하는 동시에 타 어플리케이션을 구동하도록 단말기(600)를 제어한다.For example, it is assumed that the terminal 600 is in a ready state playing a music file. The user may gesture to allow the object to be recognized, that is, the hand, to exist within the angle of view of the lens of the 2D camera 102 for at least 1 second. The 2D camera 102 may detect a recognition object, and the controller 610 may control the terminal 600 to execute a motion recognition function. When the gesture recognition function is executed, the terminal 600 receives a gesture input from the user. Since the terminal 600 is playing the music file, the user may input a gesture input associated with playing the music file to the terminal 600. For example, the user may input play, pause, forward, rewind, stop, and the like into the terminal 600 as a gesture input. In addition, the user may input a gesture input, which is not related to playing the music file, to the terminal 600. For example, in a ready state in which a music file is being played, the terminal 600 may receive a gesture input for executing another application (for example, an internet browser, a game, an e-book, a call origination, etc.) from the user. have. In this case, the controller 610 controls the terminal 600 to play a music file and to drive another application.

대기 상태 또는 레디 상태에서 제어부(610)는 미리 정해진 시간(예를 들어, 2초)마다 인식 대상을 검출하도록 3차원 거리 정보 추출 장치(100)를 제어할 수 있다. 또한 인식 대상이 검출된 경우, 상기 인식 대상이 미리 정해진 시간(예를 들어, 1초) 이상 3차원 거리 정보 추출 장치(100)의 인식 범위 내에 머무르는지 여부를 결정할 수 있다. 인식 대상이 미리 정해진 시간 이상 인식 범위 내에 머무르면, 제어부(610)는 사용자가 제스처 입력을 입력하고자 하는 것으로 간주하여 인식 대상 기능을 실행시킨다. 인식 범위는, 2D 카메라(102)의 렌즈의 화각 또는 근접 센서(112)에 의 인식 대상이 검출될 수 있는 범위를 가리킨다.In the standby state or the ready state, the controller 610 may control the 3D distance information extracting apparatus 100 to detect a recognition object every predetermined time (for example, 2 seconds). In addition, when the recognition object is detected, it may be determined whether the recognition object stays within the recognition range of the 3D distance information extraction apparatus 100 for a predetermined time (for example, 1 second) or more. If the recognition target stays within the recognition range for a predetermined time or more, the controller 610 assumes that the user wants to input a gesture input and executes the recognition target function. The recognition range indicates the range in which the object of view of the lens of the 2D camera 102 or the object of recognition by the proximity sensor 112 can be detected.

실시예에 따라 제어부(610)는 2D 카메라(102)를 이용하여 사용자가 단말기(600)의 디스플레이부(606)를 응시하는지 여부를 판단하여, 응시하는 경우에 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수도 있다. 2D 카메라(102)가 단말기(600)의 사용자와 마주보는 형태로 구현되는 경우, 사용자의 얼굴은 2D 카메라(102)의 화각 범위 내에 위치할 수 있다. 또한 2D 카메라(102)는 상기 렌즈를 통해 사용자의 얼굴을 입력받아 2D 이미지(이하, 얼굴 이미지)로 변환할 수 있다. 제어부(610)는 얼굴 이미지에 포함된 사용자의 얼굴 모양(pose) 또는 눈동자의 움직임 등에 따라 단말기(600)의 동작을 제어할 수 있다. 예를 들어, 얼굴 이미지에 포함된 사용자의 눈이 감겨져 있는 경우 제어부(610)는 단말기(600)의 전원을 오프시킬 수 있고, 얼굴 이미지에 포함된 눈동자가 아래로 움직이는 경우 디스플레이부(606)의 스크롤을 아래로 내릴 수 있다.According to an embodiment, the controller 610 determines whether the user gazes at the display unit 606 of the terminal 600 using the 2D camera 102, and executes the motion recognition function when the gaze is gazed. ) Can also be controlled. When the 2D camera 102 is implemented to face the user of the terminal 600, the user's face may be located within the angle of view of the 2D camera 102. Also, the 2D camera 102 may receive a user's face through the lens and convert the user's face into a 2D image (hereinafter, referred to as a face image). The controller 610 may control the operation of the terminal 600 according to a face pose of the user or movement of the pupil included in the face image. For example, when the eyes of the user included in the face image are closed, the controller 610 may turn off the power of the terminal 600, and when the pupil included in the face image moves downward, the display unit 606 You can scroll down.

도 7은 도 1에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 일 예를 도시한 순서도이다.FIG. 7 is a flowchart illustrating an example of a method in which a terminal illustrated in FIG. 1 performs an operation corresponding to a gesture input.

도 7을 참조하면, 단말기(600)의 제어부(610)는 2D 이미지를 이용하여 인식 대상을 검출한다(S702). 이를 위하여 제어부(610)는 2D 인식 대상을 촬영함으로써 상기 특정 객체에 대응하는 2D 이미지를 생성하도록 2D 카메라(102)를 제어할 수 있다. 제어부(610)는 카메라 제어부(110)를 포함하여 구현될 수 있으므로, 2D 카메라(102)에 의해 생성된 2D 이미지, 즉 특정 객체에 대응하는 2D 이미지가 인식 대상에 대응하는 2D 이미지인지 여부를 판단할 수 있다. 제어부(610)는 상기 2D 이미지에 인식 대상이 포함되어 있는지 여부를 결정함으로써, 상기 2D 이미지가 인식 대상에 대응하는 2D 이미지인지 여부를 결정할 수 있다. 상기 2D 이미지가 인식 대상을 포함하는 경우, 제어부(610)는 조명부(104) 및 3D 카메라(106)를 제어하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S704).Referring to FIG. 7, the controller 610 of the terminal 600 detects a recognition target by using a 2D image (S702). To this end, the controller 610 may control the 2D camera 102 to generate a 2D image corresponding to the specific object by photographing a 2D recognition target. Since the controller 610 may be implemented to include the camera controller 110, it may be determined whether the 2D image generated by the 2D camera 102, that is, the 2D image corresponding to the specific object is a 2D image corresponding to the recognition target. can do. The controller 610 may determine whether the recognition object is included in the 2D image, thereby determining whether the 2D image is a 2D image corresponding to the recognition object. When the 2D image includes an object to be recognized, the controller 610 controls the lighting unit 104 and the 3D camera 106 to generate a 3D image corresponding to the object to be recognized (S704).

제어부(610)는 거리 연산부(108)를 제어하여 상기 3D 이미지를 이용하여 인식 대상과의 거리, 즉 단말기(600)와 인식 대상 간의 거리를 계산한다(S706). 단계 S706에서 거리 연산부(108)를 통해 계산되는 거리는 3D 카메라(106)와 인식 대상 간의 거리로써, 실질적으로는 상기 3D 카메라(106)가 설치된 단말기(600)와 인식 대상 간의 거리가 될 수 있다. 거리 연산부(108)는 3D 카메라(106)와 인식 대상 간의 거리를 계산하고, 계산된 거리값을 포함하는 거리 정보를 생성한다. 또한 거리 연산부(108)는 상기 거리 정보를 카메라 메모리(114)에 저장할 수 있다.The controller 610 controls the distance calculator 108 to calculate a distance between the object to be recognized, that is, a distance between the terminal 600 and the object to be recognized using the 3D image (S706). The distance calculated by the distance calculator 108 in step S706 is a distance between the 3D camera 106 and the object to be recognized, and may be substantially a distance between the terminal 600 on which the 3D camera 106 is installed and the object to be recognized. The distance calculator 108 calculates the distance between the 3D camera 106 and the object to be recognized and generates distance information including the calculated distance value. In addition, the distance calculator 108 may store the distance information in the camera memory 114.

단말기(600)의 제어부(610)는 거리 정보 및 3D 이미지를 기초로 하여 3D 카메라(106)에 의해 촬영된 인식 대상의 형태, 인식 대상의 제스처를 결정할 수 있다. 제어부(610)는 인식 대상의 제스처에 대응하는 제스처 입력을 결정한다(S708).The controller 610 of the terminal 600 may determine a shape of a recognition object photographed by the 3D camera 106 and a gesture of the recognition object based on the distance information and the 3D image. The controller 610 determines a gesture input corresponding to the gesture of recognition (S708).

본 실시예에 따른 제어부(610)는 메모리(608)에 미리 설정되어 저장된 제스처 입력들과 3D 카메라(106)에 의해 촬영된 인식 대상의 형태, 즉 제스처를 비교하여 상기 제스처와 동일한(또는 유사한) 형태를 가지는 제스처 입력이 메모리(608)에 존재하는지 여부를 판단할 수 있다. 메모리(608)에 미리 설정되어 저장되어 있던 제스처 입력들 중 인식 대상의 제스처와 동일한 형태를 가지는 제스처 입력이 저장되어 있으면, 제어부(610)는 상기 인식 대상의 제스처를 제스처 입력으로 결정할 수 있다. 반면에 메모리(608)에 인식 대상의 제스처와 동일한 형태를 가지는 제스처 입력이 저장되어 있지 않다면, 인식 대상의 제스처는 제스처 입력이 아닌 것으로 결정될 수 있다. 인식 대상의 제스처가 제스처 입력이 아닌 것으로 판명되면, 제어부(610)는 별도의 동작을 수행하지 않도록 단말기(600)를 제어할 수도 있다.The controller 610 according to the present exemplary embodiment compares the gesture inputs preset and stored in the memory 608 with the type of the recognition object photographed by the 3D camera 106, that is, the gesture, to be identical to (or similar to) the gesture. It may be determined whether a gesture input having a shape exists in the memory 608. If the gesture input having the same shape as the gesture of the recognition target is stored among the gesture inputs preset and stored in the memory 608, the controller 610 may determine the gesture of the recognition target as the gesture input. On the other hand, if the gesture input having the same shape as the gesture of the recognition target is not stored in the memory 608, it may be determined that the gesture of the recognition target is not a gesture input. If it is determined that the gesture to be recognized is not a gesture input, the controller 610 may control the terminal 600 not to perform a separate operation.

상기와 같이 제어부(610)는 3D 카메라(106)에 의해 촬영된 인식 대상의 형태, 즉 인식 대상의 제스처가 미리 설정되어 있던 제스처 입력 중 하나인지를 여부를 결정한다. 또한 상기 인식 대상의 제스처가 미리 설정되어 있던 제스처 입력 중 하나로 결정되면, 제어부(610)는 메모리(608)를 검색하여 상기 제스처 입력에 대응하는 명령어(command) 또는 단말기(600)의 동작을 결정할 수 있다.As described above, the controller 610 determines whether the shape of the recognition object captured by the 3D camera 106, that is, the gesture of the recognition object is one of preset gesture inputs. In addition, when the gesture to be recognized is determined as one of preset gesture inputs, the controller 610 may search the memory 608 to determine a command or operation of the terminal 600 corresponding to the gesture input. have.

단계 S708에서 인식 대상의 제스처에 대응하는 제스처 입력이 결정되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 결정하여 수행한다(S710).When the gesture input corresponding to the gesture of the recognition target is determined in step S708, the controller 610 determines and performs an operation corresponding to the gesture input (S710).

도 8은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도이다.FIG. 8 is a flowchart illustrating another example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.

도 8을 참조하면, 단말기(600)의 제어부(610)는 근접 센서(112)를 통해 인식 대상을 검출한다(S802). 도 6에 도시되어 있듯이 단말기(600)의 제어부(610)는 카메라 제어부(110)를 포함하여 구현될 수 있으므로, 근접 센서(112)에 의해 검출된 인식 대상을 확인할 수 있다. 상기와 같이 근접 센서(112)에 의해 인식 대상이 검출되면, 제어부(610)는 조명부(104) 및 3D 카메라(106)를 제어하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S804).Referring to FIG. 8, the control unit 610 of the terminal 600 detects a recognition object through the proximity sensor 112 (S802). As illustrated in FIG. 6, the control unit 610 of the terminal 600 may include the camera control unit 110, so that the recognition object detected by the proximity sensor 112 may be confirmed. When the object to be detected is detected by the proximity sensor 112 as described above, the controller 610 controls the lighting unit 104 and the 3D camera 106 to generate a 3D image corresponding to the object to be recognized (S804).

제어부(610)는 거리 연산부(108)를 제어하여 3D 이미지를 이용하여 인식 대상과의 거리, 즉 단말기(600)과 인식 대상 간의 거리를 계산한다(S806). 상기 3D 카메라(106)와 인식 대상 간의 거리는 거리 정보로써 카메라 메모리(114)에 저장될 수 있다. 단말기(600)의 제어부(610)는 거리 정보 및 3D 이미지를 기초로 하여 3D 카메라(106)에 의해 촬영된 인식 대상의 형태를 결정한다. 제어부(610)는 상기 인식 대상의 형태, 즉 인식 대상의 제스처에 대응하는 제스처 입력을 결정한다(S808). 제스처 입력이 결정되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 결정하여 수행한다(S810).The controller 610 controls the distance calculator 108 to calculate a distance between the object to be recognized, that is, a distance between the terminal 600 and the object to be recognized using the 3D image (S806). The distance between the 3D camera 106 and the object to be recognized may be stored in the camera memory 114 as distance information. The controller 610 of the terminal 600 determines the shape of the recognition object photographed by the 3D camera 106 based on the distance information and the 3D image. The controller 610 determines a gesture input corresponding to the type of the recognition target, that is, the gesture of the recognition target (S808). When the gesture input is determined, the controller 610 determines and performs an operation corresponding to the gesture input (S810).

도 9a는 2D 카메라를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면이고, 도 9b는 근접 센서를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면이다. 도 9a 및 도 9b의 조명부(104), 3D 카메라(106), 도 9a의 2D 카메라(102), 도 9b의 근접 센서(112)는 모두 단말기(600)의 정면에 배치되는 것으로 가정한다.9A is a diagram illustrating a terminal for detecting a recognition object using a 2D camera, and FIG. 9B is a diagram for a terminal for detecting a recognition object using a proximity sensor. It is assumed that the lighting unit 104 of FIG. 9A and FIG. 9B, the 3D camera 106, the 2D camera 102 of FIG. 9A, and the proximity sensor 112 of FIG. 9B are all disposed in front of the terminal 600.

도 9a를 참조하면, 인식 대상인 사용자의 손(900)은 2D 카메라(102)에 의해 생성된 2D 이미지를 통하여 먼저 검출될 수 있다. 사용자의 손(900)이 검출되면, 단말기(600)의 조명부(104)는 상기 손(900)에 대응하는 3D 이미지, 예를 들어 상기 손(900)이 포함된 3D 이미지를 생성하기 위하여 광(실선으로 도시함)을 발사한다. 조명부(104)로부터 발사된 광은 인식 대상인 손(900)에 의하여 반사되고, 손(900)에 의하여 반사된 반사광(점선으로 도시함)은 3D 카메라(106)로 입력된다. 3D 카메라(106)는 손(900)에 의하여 반사된 반사광을 수신하여 손(900)에 대한 3D 이미지를 생성한다.Referring to FIG. 9A, a user's hand 900 that is a recognition target may be first detected through a 2D image generated by the 2D camera 102. When the user's hand 900 is detected, the lighting unit 104 of the terminal 600 generates a 3D image corresponding to the hand 900, for example, a 3D image including the hand 900. (Shown in solid line). The light emitted from the illumination unit 104 is reflected by the hand 900 that is the object to be recognized, and the reflected light (shown by the dotted line) reflected by the hand 900 is input to the 3D camera 106. The 3D camera 106 receives the reflected light reflected by the hand 900 to generate a 3D image of the hand 900.

도 9b를 참조하면, 인식 대상인 사용자의 손(900)은 근접 센서(112)에 의해 먼저 검출된다. 사용자의 손(900)이 검출되면, 단말기(600)의 조명부(104)는 상기 손(900)에 대한 3D 이미지를 생성하기 위하여 광(실선으로 도시함)을 발사한다. 조명부(104)로부터 발사된 광은 인식 대상인 손(900)에 의하여 반사되고, 손(900)에 의하여 반사된 반사광(점선으로 도시함)은 3D 카메라(106)로 입력된다. 3D 카메라(106)는 손(900)에 의하여 반사된 반사광을 수신하여 손(900)에 대응하는 3D 이미지를 생성한다.Referring to FIG. 9B, the user's hand 900 that is a recognition target is first detected by the proximity sensor 112. When the user's hand 900 is detected, the illumination unit 104 of the terminal 600 emits light (shown in solid line) to generate a 3D image of the hand 900. The light emitted from the illumination unit 104 is reflected by the hand 900 that is the object to be recognized, and the reflected light (shown by the dotted line) reflected by the hand 900 is input to the 3D camera 106. The 3D camera 106 receives the reflected light reflected by the hand 900 and generates a 3D image corresponding to the hand 900.

도 10은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 일 예를 도시한 순서도이다.FIG. 10 is a flowchart illustrating an example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.

도 10을 참조하면, 단말기(600)는 대기 상태를 유지하고 있다가(S1002) 웨이크 업(wake-up) 이벤트가 발생되면(S1004), 3차원 거리 정보 추출 장치(100)의 대상 검출부(120)를 구동하여 인식 대상을 검출한다(S1006).Referring to FIG. 10, the terminal 600 maintains a standby state (S1002), and when a wake-up event occurs (S1004), the target detector 120 of the 3D distance information extracting apparatus 100 is used. In operation S1006, the recognition target is detected.

본 실시예에서 웨이크 업 이벤트는, 대기 상태를 유지하고 있던 단말기(600)의 상태를 변경시켜주는 이벤트를 가리킨다. 웨이크 업 이벤트는, 예를 들어 사용자로부터의 키 입력 또는 터치 입력을 수신하는 것, 단말기(600)가 호(Call)를 수신하거나 또는 메시지를 수신하는 것 등을 가리킨다. 본 실시예에서 3차원 거리 정보 추출 장치(100)는, 웨이크 업 이벤트가 발생되기 전 즉, 단말기(600)가 대기 상태인 경우에는 거리 검출을 위한 동작(예를 들어, 2D 카메라(102)의 작동, 근접 센서(112)의 작동, 조명부(104)의 광 발사 동작, 3D 카메라(106)의 작동 등)을 수행하지 않을 수 있다.In the present embodiment, the wake up event refers to an event for changing the state of the terminal 600 which has maintained the standby state. The wake up event indicates, for example, receiving a key input or a touch input from a user, the terminal 600 receiving a call, receiving a message, or the like. In the present exemplary embodiment, the 3D distance information extracting apparatus 100 may perform an operation for detecting a distance before the wake-up event occurs, that is, when the terminal 600 is in a standby state (for example, the 2D camera 102 may be operated. Operation, operation of the proximity sensor 112, light emission operation of the lighting unit 104, operation of the 3D camera 106, etc.) may not be performed.

실시예에 따라 단계 S1006에서, 단말기(600)는 대상 검출부(120)의 2D 카메라(102)를 이용하여 인식 대상을 검출할 수 있다. 그에 따라 단말기(600)의 제어부(610)는 2D 카메라(102)를 구동하여 인식 대상을 촬영함으로써, 상기 인식 대상이 포함된 2D 이미지를 생성할 수 있다. 또한 제어부(610)는 상기 2D 이미지에 인식 대상이 포함되어 있는지 여부를 판단한다. 상기 인식 대상이 포함되어 있는 경우 제어부(610)는 상기 인식 대상의 3D 이미지를 생성하기 위하여 조명부(104)가 상기 인식 대상과의 거리를 측정하기 위한 광을 발사하도록 제어한다. 3D 카메라(106)는 인식 대상으로부터 반사되는 광을 수신함으로써 상기 인식 대상을 촬영한다.According to an embodiment, in step S1006, the terminal 600 may detect the recognition object using the 2D camera 102 of the object detector 120. Accordingly, the controller 610 of the terminal 600 may drive the 2D camera 102 to capture a recognition object, thereby generating a 2D image including the recognition object. In addition, the controller 610 determines whether a recognition target is included in the 2D image. When the recognition target is included, the controller 610 controls the illumination unit 104 to emit light for measuring a distance from the recognition target to generate a 3D image of the recognition target. The 3D camera 106 photographs the recognition object by receiving light reflected from the recognition object.

다른 실시예에 따라 단계 S1006에서 단말기(600)는 대상 검출부(120)의 근접 센서(112)를 이용하여 인식 대상을 검출할 수 있다. 그에 따라 근접 센서(112)는, 상기 근접 센서(112)로부터 미리 설정된 범위(예를 들어, 반경 10cm 이내)에 인식 대상이 진입하는 것을 검출할 수 있다. 인식 대상이 검출되면, 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다. 3D 카메라(106)는 인식 대상으로부터 반사되는 광을 수신함으로써 상기 인식 대상을 촬영한다.According to another exemplary embodiment, in operation S1006, the terminal 600 may detect a recognition object using the proximity sensor 112 of the object detection unit 120. Accordingly, the proximity sensor 112 may detect that the object of recognition enters a preset range (for example, within 10 cm of the radius) from the proximity sensor 112. When the object to be detected is detected, the camera controller 110 controls the lighting unit 104 to emit light for measuring the distance between the object to be recognized, that is, the distance between the object and the three-dimensional distance information extraction apparatus 100. The 3D camera 106 photographs the recognition object by receiving light reflected from the recognition object.

상기와 같이 인식 대상이 검출되면, 단말기(600)는 인식 대상에 대응하는 3D 이미지를 생성한다(S1008). 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리, 즉 단말기(600)와 인식 대상 간의 거리를 계산한다(S1010). 상기 3D 카메라(106)와 인식 대상 간의 거리는 거리 정보로써 카메라 메모리(114)에 저장될 수 있다.When the object to be detected is detected as described above, the terminal 600 generates a 3D image corresponding to the object to be recognized (S1008). The distance calculator 108 calculates the distance between the recognition object, that is, the distance between the terminal 600 and the recognition object, using the 3D image (S1010). The distance between the 3D camera 106 and the object to be recognized may be stored in the camera memory 114 as distance information.

단말기(600)의 제어부(610)는 거리 정보 및 3D 이미지를 기초로 하여 3D 카메라(106)에 의해 촬영된 인식 대상의 형태를 결정한다. 제어부(610)는 상기 인식 대상의 형태, 즉 인식 대상의 제스처에 대응하는 제스처 입력을 결정한다(S1012). 제스처 입력이 결정되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 결정하여 수행한다(S1014).The controller 610 of the terminal 600 determines the shape of the recognition object photographed by the 3D camera 106 based on the distance information and the 3D image. The controller 610 determines a gesture input corresponding to the type of the recognition target, that is, the gesture of the recognition target (S1012). When the gesture input is determined, the controller 610 determines and performs an operation corresponding to the gesture input (S1014).

실시예에 따라 단말기(600)는 대기 상태를 유지하고 있다가, 미리 저장된 시간마다 단말기(600) 내에 웨이크 업 이벤트가 발생하였는지 여부를 판단할 수도 있다.According to an embodiment, the terminal 600 may maintain a standby state and determine whether a wake-up event has occurred in the terminal 600 at every pre-stored time.

도 11은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도이다.FIG. 11 is a flowchart illustrating another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.

도 11을 참조하면, 먼저 단말기(600)는 대기 상태를 유지하고 있다(S1102). 본 실시예에서 대기 상태는, 단말기(600)의 전원은 온 되어있지만, 그 외의 별 다른 동작을 수행하지 않은 상태를 가리킨다. 제어부(610)는 단말기(600)에 웨이크 업 이벤트가 발생하였는지 여부를 판단한다(S1104).Referring to FIG. 11, first, the terminal 600 maintains a standby state (S1102). In the present exemplary embodiment, the standby state refers to a state in which the power of the terminal 600 is turned on but no other operation is performed. The controller 610 determines whether a wake up event occurs in the terminal 600 (S1104).

단계 S1104의 판단 결과 웨이크 업 이벤트가 발생된 경우(S1104: 예), 단말기(600)는 레디 상태로 전환된다(S1106). 웨이크 업 이벤트는, 예를 들어 호의 수신, 메시지 수신 또는 레디 상태로 전환하기 위한 사용자 입력의 수신 등이 될 수 있다. 레디 상태가 되면 단말기(600)는 제어부(610)의 제어 하에 동작 인식 기능을 실행한다(S1108). 이때 제어부(610)는 3차원 거리 정보 추출 장치(100)를 이용하여 사용자의 제스처를 인식할 수 있다.When the wakeup event is generated as a result of the determination of step S1104 (S1104: YES), the terminal 600 is switched to the ready state (S1106). The wake up event may be, for example, receiving a call, receiving a message, or receiving a user input to transition to a ready state. In the ready state, the terminal 600 executes a motion recognition function under the control of the controller 610 (S1108). In this case, the controller 610 may recognize the user's gesture by using the 3D distance information extraction apparatus 100.

단말기(600)는 사용자로부터 제스처 입력을 수신하고(S1110), 해당 제스처 입력에 대응하는 동작을 수행한다(S1112).The terminal 600 receives a gesture input from the user (S1110) and performs an operation corresponding to the corresponding gesture input (S1112).

반면에 단계 S1104의 판단 결과 웨이크 업 이벤트가 발생되지 않은 경우(S1104: 아니오), 단말기(600)는 대기 상태를 유지한다(S1102).On the other hand, when the wakeup event is not generated as a result of the determination of step S1104 (S1104: NO), the terminal 600 maintains a standby state (S1102).

도 12는 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 또 다른 예를 도시한 순서도이다.FIG. 12 is a flowchart illustrating still another example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.

도 12를 참조하면, 먼저 단말기(600)는 레디 상태를 유지하고 있다(S1202). 본 실시예에서 레디 상태는, 단말기(600)가 동작 인식 기능 이외의 다른 기능을 실행하고 있는 상태 또는 상기 동작 인식 기능을 포함한 각종 기능을 실행하기 위한 사용자 입력을 수신한 이후의 상태를 가리킨다. 레디 상태에서 제어부(610)는 대상 검출부(120)의 인식 범위 내에 인식 대상이 검출되는지 여부를 판단한다(S1204).Referring to FIG. 12, first, the terminal 600 maintains a ready state (S1202). In this embodiment, the ready state indicates a state in which the terminal 600 executes a function other than the motion recognition function or a state after receiving a user input for executing various functions including the motion recognition function. In the ready state, the controller 610 determines whether an object to be detected is detected within the recognition range of the object detector 120 (S1204).

단계 S1204의 판단 결과 인식 범위 내에 인식 대상이 검출된 경우 (S1204: 예), 단말기(600)는 동작 인식 기능을 실행한다(S1206). 이때 제어부(610)는 3차원 거리 정보 추출 장치(100)를 이용하여 사용자의 제스처를 제스처 입력으로서 인식할 수 있다. 단말기(600)는 사용자로부터 제스처 입력을 수신하고(S1208), 해당 제스처 입력에 대응하는 동작을 수행한다(S1210).When the recognition object is detected within the recognition range in the determination result of step S1204 (S1204: YES), the terminal 600 executes a motion recognition function (S1206). In this case, the controller 610 may recognize the user's gesture as the gesture input by using the 3D distance information extraction apparatus 100. The terminal 600 receives a gesture input from the user (S1208), and performs an operation corresponding to the corresponding gesture input (S1210).

반면에 단계 S1204의 판단 결과 인식 범위 내에서 인식 대상이 검출되지 않은 경우 (S1204: 아니오), 단말기(600)는 레디 상태를 유지한다(S1202)On the other hand, if the recognition object is not detected within the recognition range as a result of the determination in step S1204 (S1204: NO), the terminal 600 maintains the ready state (S1202).

본 발명의 실시 예에 따른 3차원 거리 정보를 추출하는 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 실시 예에 따른 3차원 거리 정보를 추출하는 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that the method of extracting 3D distance information according to an embodiment of the present invention may be realized in the form of hardware, software, or a combination of hardware and software. Such arbitrary software may be stored in a memory such as, for example, a volatile or non-volatile storage device such as a storage device such as ROM or the like, or a memory such as a RAM, a memory chip, a device or an integrated circuit, , Or a storage medium readable by a machine (e.g., a computer), such as a CD, a DVD, a magnetic disk, or a magnetic tape, as well as being optically or magnetically recordable. The method of extracting 3D distance information according to an embodiment of the present invention may be implemented by a computer or a portable terminal including a controller and a memory, wherein the memory includes a program or instructions including implementing the embodiments of the present invention. It will be appreciated that this is an example of a machine-readable storage medium suitable for storing programs. Accordingly, the invention includes a program comprising code for implementing the apparatus or method as claimed in any of the claims, and a storage medium readable by a machine (such as a computer) for storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.

또한 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기가 기설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.In addition, the apparatus for extracting 3D distance information or the terminal including the apparatus may receive and store the program from a program providing apparatus connected by wire or wirelessly. The program providing apparatus includes a memory for storing a program, information necessary for a content protection method, and the like, including instructions for causing the 3D distance information extracting device or a terminal including the device to perform a preset content protection method; A communication unit for performing wired or wireless communication of a 3D distance information extracting device or a terminal including the device, and a request or automatic transmission of a corresponding program or a corresponding program of the 3D distance information extracting device or a terminal including the device It may include a control unit for transmitting to.

이외에도 본 발명의 다양한 실시예 또는 변형예가 있을 수 있으며, 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고, 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.The scope of the present invention should not be limited by the embodiments described, but should be determined by equivalents of the claims and the appended claims.

100: 3차원 거리 정보 추출 장치 102: 2D 카메라
104: 조명부 106: 3D 카메라
108: 거리 연산부 110: 카메라 제어부
112: 카메라 메모리 114: 근접 센서
120: 대상 검출부 600: 단말기
602: 통신 인터페이스 604: 사용자 입력부
606: 디스플레이부 608: 메모리
610: 제어부
100: 3D distance information extraction device 102: 2D camera
104: lighting unit 106: 3D camera
108: distance calculation unit 110: camera control unit
112: camera memory 114: proximity sensor
120: target detection unit 600: terminal
602: communication interface 604: user input unit
606: display unit 608: memory
610: control unit

Claims (24)

미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정과,
상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 과정과,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.
Determining whether a recognition object exists within a preset range,
Generating a 3D image of the recognition object when the recognition object exists within the preset range;
And calculating the distance from the object to be recognized using the 3D image.
제1항에 있어서,
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정은,
렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.
The method of claim 1,
The process of determining whether the recognition object exists within the preset range,
Receiving a video input through the lens to generate a 2D image,
Determining whether the recognition object is included in the 2D image;
And determining that there is the recognition object within the preset range when the recognition object is included in the 2D image. 3D distance information extraction method of the 3D distance information extraction apparatus.
제1항에 있어서,
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정은,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.
The method of claim 1,
The process of determining whether the recognition object exists within the preset range,
Detecting a specific object entered within the preset range;
And determining that there is the object of recognition within the preset range when the specific object is detected. 3D distance information extraction method of a 3D distance information extraction apparatus.
제1항에 있어서,
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정은,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 특정 객체가 포함된 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.
The method of claim 1,
The process of determining whether the recognition object exists within the preset range,
Detecting a specific object entered within the preset range;
Generating a 2D image including the specific object when the specific object is detected;
Determining whether the recognition object is included in the 2D image;
And determining that there is the recognition object within the preset range when the recognition object is included in the 2D image. 3D distance information extraction method of the 3D distance information extraction apparatus.
미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 카메라 제어부와,
상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 3D 카메라와,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부를 포함함을 특징으로 하는 3차원 거리 정보 추출 장치.
A camera controller which determines whether a recognition object exists within a preset range,
A 3D camera generating a 3D image of the recognition object when the recognition object exists within the preset range;
And a distance calculator configured to calculate a distance from the object to be recognized using the 3D image.
제5항에 있어서,
렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 2D 카메라를 더 포함하고,
상기 카메라 제어부는,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 3차원 거리 정보 추출 장치.
6. The method of claim 5,
Further comprising a 2D camera for receiving an image input through the lens to generate a 2D image,
The camera control unit,
It is determined whether the recognition object is included in the 2D image, and when the recognition object is included in the 2D image, the 3D distance information is determined to be within the preset range. Extraction device.
제5항에 있어서,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서를 더 포함하고,
상기 카메라 제어부는,
상기 미리 설정된 범위 이내에 상기 특정 객체가 진입한 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 3차원 거리 정보 추출 장치.
6. The method of claim 5,
Further comprising a proximity sensor for detecting a specific object entered within the predetermined range,
The camera control unit,
And determining that the recognition object is within the preset range when the specific object enters within the preset range.
제5항에 있어서,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서와,
렌즈를 통해 상기 특정 객체를 촬영하여 상기 특정 객체에 대응하는 2D 이미지를 생성하는 2D 카메라를 더 포함하고,
상기 카메라 제어부는,
상기 미리 설정된 범위 이내에 상기 특정 객체가 진입한 경우, 상기 특정 객체에 대응하는 2D 이미지를 생성하도록 상기 2D 카메라를 제어하고,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 3차원 거리 정보 추출 장치.
6. The method of claim 5,
A proximity sensor that detects a specific object entered within the preset range;
And a 2D camera for photographing the specific object through a lens to generate a 2D image corresponding to the specific object.
The camera control unit,
When the specific object enters within the preset range, the 2D camera is controlled to generate a 2D image corresponding to the specific object,
It is determined whether the recognition object is included in the 2D image, and when the recognition object is included in the 2D image, the 3D distance information is determined to be within the preset range. Extraction device.
미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 대상 검출부와,
상기 인식 대상에 대응하는 3D 이미지를 생성하는 3D 카메라와,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부와,
상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하고, 상기 제스처 입력에 따른 동작을 수행하는 제어부를 포함함을 특징으로 하는 단말기.
An object detecting unit which detects a recognition object existing within a preset range,
A 3D camera generating a 3D image corresponding to the recognition object;
A distance calculator configured to calculate a distance from the object to be recognized using the 3D image;
And a controller configured to determine a gesture input corresponding to a shape of the object to be recognized based on the distance between the 3D image and the object to be recognized, and to perform an operation according to the gesture input.
제9항에 있어서, 상기 제어부는,
미리 저장된 제스처 입력들 중 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 검색하고, 상기 검색 결과로써 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 상기 인식 대상의 형태에 대응하는 제스처 입력으로 결정함을 특징으로 하는 단말기.
10. The apparatus according to claim 9,
Search for a gesture input including a gesture that matches the shape of the object to be recognized among prestored gesture inputs, and correspond to a shape of the object to be recognized as a result of the search; The terminal characterized in that determined by the gesture input.
제9항에 있어서,
상기 대상 검출부는,
렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 2D 카메라를 포함하고,
상기 제어부는,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 단말기.
10. The method of claim 9,
The target detection unit,
It includes a 2D camera for receiving an image input through the lens to generate a 2D image,
The control unit,
And determining whether the recognition target is included in the 2D image, and when the recognition target is included in the 2D image, determining that the recognition target is within the preset range.
제9항에 있어서,
상기 대상 검출부는,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서를 포함하고,
상기 카메라 제어부는,
상기 미리 설정된 범위 이내에 상기 특정 객체가 진입한 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 단말기.
10. The method of claim 9,
The target detection unit,
Proximity sensor for detecting a specific object entered within the preset range,
The camera control unit,
And when the specific object enters within the preset range, determining that the recognition target is within the preset range.
제9항에 있어서,
상기 대상 검출부는,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서와,
렌즈를 통해 상기 특정 객체를 촬영하여 상기 특정 객체에 대한 2D 이미지를 생성하는 2D 카메라를 포함하고,
상기 제어부는,
상기 특정 객체가 상기 근접 센서에 의하여 검출된 경우, 상기 특정 객체에 대한 2D 이미지를 생성하도록 상기 2D 카메라를 제어하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 단말기.
10. The method of claim 9,
The target detection unit,
A proximity sensor that detects a specific object entered within the preset range;
And a 2D camera for photographing the specific object through a lens to generate a 2D image of the specific object.
The control unit,
When the specific object is detected by the proximity sensor, the 2D camera is controlled to generate a 2D image of the specific object, it is determined whether the recognition target is included in the 2D image, and the 2D image is And when the recognition target is included, determining that the recognition target is within the preset range.
제9항에 있어서, 상기 제어부는,
대기 상태인 단말기에 웨이크 업 이벤트가 발생하였는지 여부를 판단하고, 상기 웨이크 업 이벤트가 발생한 경우, 상기 인식 대상을 검출하도록 상기 대상 검출부를 제어함을 특징으로 하는 단말기.
10. The apparatus according to claim 9,
And determining whether a wake-up event has occurred in the terminal in a standby state, and if the wake-up event occurs, controlling the target detector to detect the recognition object.
제9항에 있어서, 상기 제어부는,
단말기가 레디 상태인 경우, 상기 인식 대상을 검출하도록 상기 대상 검출부를 제어함을 특징으로 하는 단말기.
10. The apparatus according to claim 9,
And when the terminal is in the ready state, controlling the target detection unit to detect the recognition target.
제15항에 있어서, 상기 제어부는,
미리 설정된 기준 시간 이내에 상기 인식 대상이 검출되지 않는 경우, 상기 인식 대상이 상기 미리 설정된 범위 이내에 존재하지 않는 것으로 결정함을 특징으로 하는 단말기.
16. The apparatus of claim 15,
And if the recognition object is not detected within a preset reference time, determining that the recognition object does not exist within the preset range.
단말기가 제스처 입력에 대응하는 동작을 수행하는 방법에 있어서,
미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정과,
상기 인식 대상에 대응하는 3D 이미지를 생성하는 과정과,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정과,
상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하는 과정과,
상기 제스처 입력에 따른 동작을 수행하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.
In the method for the terminal to perform an operation corresponding to the gesture input,
Detecting a recognition object existing within a preset range;
Generating a 3D image corresponding to the object to be recognized;
Calculating a distance from the object to be recognized using the 3D image;
Determining a gesture input corresponding to a shape of the object to be recognized based on the distance between the 3D image and the object to be recognized;
And a step of performing an operation according to the gesture input.
제17항에 있어서,
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은, 렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.
18. The method of claim 17,
The detecting of the recognition object existing within the preset range may include: receiving a video input through a lens and generating a 2D image;
Determining whether the recognition object is included in the 2D image;
If the recognition object is included in the 2D image, determining that the recognition object is within the preset range.
제17항에 있어서,
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은,상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.
18. The method of claim 17,
The detecting of the recognition object existing within the preset range may include: detecting a specific object that has entered within the preset range;
And when the specific object is detected, determining that the recognition target is within the preset range.
제17항에 있어서,
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 특정 객체가 포함된 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.
18. The method of claim 17,
Detecting a recognition object existing within the preset range,
Detecting a specific object entered within the preset range;
Generating a 2D image including the specific object when the specific object is detected;
Determining whether the recognition object is included in the 2D image;
If the recognition object is included in the 2D image, determining that the recognition object is within the preset range.
제17항에 있어서,
상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하는 과정은,
미리 설정된 제스처 입력들 중 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 검색하는 과정과,
상기 검색 결과로써 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 상기 인식 대상의 형태에 대응하는 제스처 입력으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.
18. The method of claim 17,
The determining of the gesture input corresponding to the shape of the object to be recognized is based on the distance between the 3D image and the object to be recognized.
Searching for a gesture input including a gesture that matches the shape of the object to be recognized among preset gesture inputs;
And determining, as a result of the search, a gesture input including a gesture corresponding to the shape of the object to be recognized as a gesture input corresponding to the shape of the object to be recognized.
제17항에 있어서,
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정 이전에,
대기 상태인 단말기에 웨이크 업 이벤트가 발생하였는지 여부를 판단하는 과정을 더 포함하고,
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은,
상기 웨이크 업 이벤트가 발생한 경우, 2D 카메라 및 근접 센서 중 적어도 하나를 이용하여 상기 미리 설정된 범위 이내에 진입한 상기 인식 대상을 검출하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.
18. The method of claim 17,
Before the process of detecting the recognition object existing within the preset range,
Determining whether a wake-up event has occurred in the terminal in a standby state;
Detecting a recognition object existing within the preset range,
And detecting, by the at least one of the 2D camera and the proximity sensor, the recognition object entering the predetermined range when the wake up event occurs.
제17항에 있어서,
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정 이전에,
단말기가 레디 상태인 경우, 2D 카메라 및 근접 센서 중 적어도 하나를 이용하여 상기 미리 설정된 범위 이내에 진입한 상기 인식 대상을 검출하는 과정을 더 포함함을 특징으로 하는 단말기의 동작 방법.
18. The method of claim 17,
Before the process of determining whether a recognition object exists within the preset range,
If the terminal is in the ready state, using the at least one of the 2D camera and the proximity sensor further comprises the step of detecting the recognition object entered into the preset range.
제23항에 있어서,
상기 미리 설정된 기준 시간 이내에 상기 인식 대상이 검출되지 않는 경우, 상기 인식 대상이 상기 미리 설정된 범위 이내에 존재하지 않는 것으로 결정하는 과정을 더 포함함을 특징으로 하는 단말기의 동작 방법.
24. The method of claim 23,
And if the recognition object is not detected within the preset reference time, determining that the recognition object does not exist within the preset range.
KR1020130094951A 2012-09-03 2013-08-09 Method for extracting three dimensional distance information from recognition object and apparatus therefor KR102158096B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/012,453 US20140062864A1 (en) 2012-09-03 2013-08-28 Method and apparatus for extracting three-dimensional distance information from recognition target
EP13182589.5A EP2703954A3 (en) 2012-09-03 2013-09-02 Method and apparatus for extracting three-dimensional distance information from recognition target
CN201310395021.3A CN103677255A (en) 2012-09-03 2013-09-03 Method and apparatusfor extracting three-dimensional distance information, terminals and gesture operation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120097211 2012-09-03
KR20120097211 2012-09-03

Publications (2)

Publication Number Publication Date
KR20140031105A true KR20140031105A (en) 2014-03-12
KR102158096B1 KR102158096B1 (en) 2020-10-23

Family

ID=50643403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130094951A KR102158096B1 (en) 2012-09-03 2013-08-09 Method for extracting three dimensional distance information from recognition object and apparatus therefor

Country Status (1)

Country Link
KR (1) KR102158096B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150138470A (en) * 2014-05-29 2015-12-10 주식회사 듀얼어퍼처인터네셔널 Display screen controlling apparatus in mobile terminal and method thereof
WO2020246652A1 (en) * 2019-06-07 2020-12-10 (주)씨유박스 Gate control method and system using face authentication

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090183125A1 (en) * 2008-01-14 2009-07-16 Prime Sense Ltd. Three-dimensional user interface
US20110080349A1 (en) * 2009-10-02 2011-04-07 Research In Motion Limited Method of waking up and a portable electronic device configured to perform the same
JP2011209019A (en) * 2010-03-29 2011-10-20 Sony Corp Robot device and method of controlling the same
WO2012011044A1 (en) * 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
KR20120053275A (en) * 2010-11-17 2012-05-25 삼성전자주식회사 Method and apparatus for estimating 3d face position

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090183125A1 (en) * 2008-01-14 2009-07-16 Prime Sense Ltd. Three-dimensional user interface
US20110080349A1 (en) * 2009-10-02 2011-04-07 Research In Motion Limited Method of waking up and a portable electronic device configured to perform the same
JP2011209019A (en) * 2010-03-29 2011-10-20 Sony Corp Robot device and method of controlling the same
WO2012011044A1 (en) * 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
KR20120053275A (en) * 2010-11-17 2012-05-25 삼성전자주식회사 Method and apparatus for estimating 3d face position

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150138470A (en) * 2014-05-29 2015-12-10 주식회사 듀얼어퍼처인터네셔널 Display screen controlling apparatus in mobile terminal and method thereof
WO2020246652A1 (en) * 2019-06-07 2020-12-10 (주)씨유박스 Gate control method and system using face authentication

Also Published As

Publication number Publication date
KR102158096B1 (en) 2020-10-23

Similar Documents

Publication Publication Date Title
CN108900767B (en) Camera device and control method thereof
US9900500B2 (en) Method and apparatus for auto-focusing of an photographing device
KR101879478B1 (en) Method to extend laser depth map range
KR102157313B1 (en) Method and computer readable recording medium for recognizing an object using a captured image
US8537231B2 (en) User interface system based on pointing device
US10175764B2 (en) Method of controlling an operation of a camera apparatus and a camera apparatus
CN102196176A (en) Information processing apparatus, information processing method, and program
KR100918094B1 (en) Guesture recognition system having mobile video camera
US20160041632A1 (en) Contact detection system, information processing method, and information processing apparatus
WO2022110614A1 (en) Gesture recognition method and apparatus, electronic device, and storage medium
WO2008004331A1 (en) Voice outputting method and device linked to images
JP2011239279A (en) Remote control device and remote control method
KR101724108B1 (en) Device control method by hand shape and gesture and control device thereby
TW202013151A (en) Method and apparatus for interaction with virtual and real images
KR102158096B1 (en) Method for extracting three dimensional distance information from recognition object and apparatus therefor
TW201413497A (en) Interaction system and motion detection method
KR20160088719A (en) Electronic device and method for capturing an image
US20140301603A1 (en) System and method for computer vision control based on a combined shape
EP2703954A2 (en) Method and apparatus for extracting three-dimensional distance information from recognition target
KR102070598B1 (en) Camera apparatus and method for controlling thereof
US11106325B2 (en) Electronic apparatus and control method thereof
JP6510134B1 (en) Estimation system and estimation apparatus
KR100843586B1 (en) Device capable of non-contact function selection and method thereof
JP3159906U (en) Image processing module
CN112529770A (en) Image processing method, image processing device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant