KR20140031105A - Method for extracting three dimensional distance information from recognition object and apparatus therefor - Google Patents
Method for extracting three dimensional distance information from recognition object and apparatus therefor Download PDFInfo
- Publication number
- KR20140031105A KR20140031105A KR1020130094951A KR20130094951A KR20140031105A KR 20140031105 A KR20140031105 A KR 20140031105A KR 1020130094951 A KR1020130094951 A KR 1020130094951A KR 20130094951 A KR20130094951 A KR 20130094951A KR 20140031105 A KR20140031105 A KR 20140031105A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- recognition
- preset range
- camera
- recognition object
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
Abstract
Description
본 발명은 3차원 거리 정보를 추출하는 방법에 관한 것으로, 더욱 자세히는 인식 대상과의 거리 정보를 이용하여 사용자로부터 입력되는 제스처 입력을 정확하게 판별하는 동시에 상기 제스처 입력을 검출하기 위하여 필요한 전력을 효율적으로 절약할 수 있는 인식 대상으로부터의 3차원 거리 정보를 추출하는 방법 및 이를 위한 장치에 관한 것이다.The present invention relates to a method for extracting three-dimensional distance information, and more particularly, to accurately determine a gesture input input from a user by using distance information with a recognition target, and to efficiently determine the power required to detect the gesture input. The present invention relates to a method for extracting three-dimensional distance information from a recognition object that can be saved, and an apparatus therefor.
3차원 거리 정보를 추출하는 방법은 크게 능동(active) 방식과 수동(passive) 방식으로 나눌 수 있다. 능동 방식은, 3차원 거리 정보를 추출하고자 하는 장치가 상기 3차원 거리 정보를 추출하기 위한 에너지를 발사함으로써 이루어질 수 있다. 여기서 에너지는, 광파(optical wave), 초음파, 마이크로파 등이 될 수 있다. 3차원 거리 정보를 추출하고자 하는 장치는, 상기 광파를 특정 장면(scene) 또는 물체(object)에 투사하고, 투사된 장면 또는 물체를 촬영함으로써 상기 장치로부터 상기 장면 또는 물체까지의 거리를 추출한다.The method of extracting 3D distance information can be largely divided into an active method and a passive method. The active scheme may be achieved by a device for extracting 3D distance information by firing energy for extracting the 3D distance information. Herein, the energy may be an optical wave, an ultrasonic wave, a microwave, or the like. A device which wants to extract three-dimensional distance information extracts the distance from the device to the scene or object by projecting the light wave onto a specific scene or object and photographing the projected scene or object.
반면에 수동 방식은, 3차원 거리 정보를 추출하고자 하는 장치가 에너지를 발사하지 않고 촬영된 영상만으로 3차원 거리 정보를 추출하는 방식이다. 상기 장치는 3차원 거리 정보를 추출하고자 하는 장면 또는 물체를 영상 촬영 장치를 이용하여 촬영하고, 촬영된 영상을 처리하여 상기 장치로부터 상기 장면 또는 물체까지의 거리를 추출한다.On the other hand, the manual method is a method in which the device to extract the 3D distance information extracts the 3D distance information using only the image captured without emitting energy. The apparatus photographs a scene or an object for which the 3D distance information is to be extracted using an image capturing apparatus, and processes a photographed image to extract a distance from the apparatus to the scene or object.
한편 제스처 제어(Gesture control)는 사용자의 제스처를 인식하여 기기를 제어하는 기술로써 거리 정보를 이용하는 방법과 이용하지 않는 방법이 있다. 거리 정보를 이용하지 않는 방법은 촬영된 2D 영상만을 이용하여 사용자의 제스처를 인식하는 것으로, 인식하고자 하는 대상, 즉 손, 팔, 다리, 얼굴, 물체 등을 배경으로부터 잘 분리해낼 필요가 있다. 반면에 거리 정보를 이용하는 방법은, 인식하고자 하는 대상과 배경을 거리 정보를 이용해서 분리해낼 수 있을 뿐만 아니라 인식하고자 하는 대상이 형태 정보를 좀 더 정확하게 얻어낼 수 있으므로 거리 정보를 이용하지 않는 방법보다 제스처를 정확히 판별할 수 있어 좀 더 우수한 성능의 확보가 가능하다.Gesture control is a technique for controlling a device by recognizing a user's gesture, and there are methods using distance information and methods not using it. The method that does not use the distance information recognizes the user's gesture using only the captured 2D image, and it is necessary to separate the object to be recognized, that is, the hand, the arm, the leg, the face, the object, and the like from the background. On the other hand, the method using distance information not only separates the object to be recognized from the background using the distance information but also obtains the shape information more accurately than the method using the distance information. It is possible to accurately determine the gestures to ensure better performance.
그에 따라 능동 방식, 즉 에너지를 발사하고, 반사된 에너지를 이용하여 거리 정보를 검출하는 방식은, 상기 거리 정보를 검출하기 위하여 지속적으로 에너지를 발사해야만 한다. 사용자의 제스처가 언제 발생할지 알 수 없으므로, 상기 3차원 거리 정보를 추출하고자 하는 장치는 사용자의 제스처 유무와 관계없이 지속적으로 에너지를 발사해야만 한다. 사용자의 제스처가 발생하지 않은 상태에서도 에너지를 지속적으로 발사한다면 불필요한 전력 낭비를 발생시킬 뿐만 아니라 그로 인하여 상기 장치의 사용 시간을 단축시키게 된다.Accordingly, an active method, that is, a method of emitting energy and detecting distance information by using reflected energy, must continuously emit energy in order to detect the distance information. Since the user's gesture may not be known, the device to extract the 3D distance information must continuously emit energy regardless of the user's gesture. Continuous firing of energy even when the user's gesture does not occur not only generates unnecessary power waste, but also shortens the use time of the device.
따라서 본 발명의 목적은 인식 대상과의 거리 정보를 이용하여 사용자로부터 입력되는 제스처 입력을 정확하게 판별하는 동시에 상기 제스처 입력을 검출하기 위하여 필요한 전력을 효율적으로 절약할 수 있는 인식 대상으로부터의 3차원 거리 정보를 추출하는 방법 및 이를 위한 장치를 제공함에 있다.Accordingly, an object of the present invention is to accurately determine the gesture input input from the user by using the distance information with respect to the recognition object and at the same time three-dimensional distance information from the recognition object that can efficiently save the power required to detect the gesture input. To provide a method and apparatus for extracting the same.
본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법은, 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정과, 상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 과정과, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정을 포함한다.The 3D distance information extraction method of the apparatus for extracting 3D distance information according to an embodiment of the present invention may include determining whether a recognition object exists within a preset range, and wherein the recognition object exists within the preset range. In this case, the method may include generating a 3D image of the object to be recognized, and calculating a distance from the object to be recognized using the 3D image.
본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치는, 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 카메라 제어부와, 상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 3D 카메라와, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부를 포함한다.The apparatus for extracting 3D distance information according to an embodiment of the present invention may include a camera controller for determining whether a recognition object exists within a preset range, and when the recognition target exists within the preset range, And a 3D camera for generating a 3D image of the 3D image, and a distance calculator configured to calculate a distance to the object of recognition using the 3D image.
본 발명의 일 실시예에 따른 단말기는, 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 대상 검출부와, 상기 인식 대상에 대응하는 3D 이미지를 생성하는 3D 카메라와, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부와, 상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하고, 상기 제스처 입력에 따른 동작을 수행하는 제어부를 포함한다.According to an embodiment of the present invention, a terminal may include: an object detecting unit detecting a recognition object existing within a preset range, a 3D camera generating a 3D image corresponding to the recognition object, and the recognition object using the 3D image. A distance calculator configured to calculate a distance between the controller and the controller, and a controller configured to determine a gesture input corresponding to a shape of the object to be recognized based on the distance between the 3D image and the object to be recognized, and to perform an operation according to the gesture input. .
단말기가 제스처 입력에 대응하는 동작을 수행하는 방법은, 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정과, 상기 인식 대상에 대응하는 3D 이미지를 생성하는 과정과, 상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정과, 상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하는 과정과, 상기 제스처 입력에 따른 동작을 수행하는 과정을 포함한다.A method of performing an operation corresponding to a gesture input by the terminal includes detecting a recognition object existing within a preset range, generating a 3D image corresponding to the recognition object, and using the 3D image to recognize the recognition object. Calculating a distance from an object, determining a gesture input corresponding to the shape of the object to be recognized based on the distance between the 3D image and the object to be recognized, and performing an operation according to the gesture input Include.
본 발명에 따르면, 인식 대상과의 거리 정보를 이용하여 사용자로부터 입력되는 제스처 입력을 정확하게 판별하는 동시에 상기 제스처 입력을 검출하기 위하여 필요한 전력을 효율적으로 절약할 수 있는 인식 대상으로부터의 3차원 거리 정보를 추출하는 방법 및 이를 위한 장치를 제공한다.According to the present invention, three-dimensional distance information from an object to be recognized can be efficiently determined by using the distance information with respect to the object to be recognized accurately and at the same time efficiently saving power required for detecting the gesture input. It provides a method of extraction and an apparatus therefor.
도 1은 본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치의 구성을 나타낸 블록도,
도 2는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 일 예를 나타낸 순서도,
도 3은 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 다른 예를 나타낸 순서도,
도 4는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도,
도 5는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도,
도 6은 도 1에 도시된 3차원 거리 정보 추출 장치가 포함된 단말기의 구성을 도시한 블록도,
도 7은 도 1에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 일 예를 도시한 순서도,
도 8은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도,
도 9a는 2D 카메라를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면,
도 9b는 근접 센서를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면,
도 10은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 또 다른 예를 도시한 순서도,
도 11은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도, 그리고
도 12는 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 또 다른 예를 도시한 순서도이다.1 is a block diagram showing the configuration of a three-dimensional distance information extraction apparatus according to an embodiment of the present invention;
2 is a flowchart illustrating an example of a method of extracting 3D distance information of the apparatus for extracting 3D distance information shown in FIG. 1;
3 is a flowchart illustrating another example of a method of extracting 3D distance information of the apparatus for extracting 3D distance information shown in FIG. 1;
4 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1;
5 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1;
FIG. 6 is a block diagram illustrating a configuration of a terminal including the apparatus for extracting three-dimensional distance information illustrated in FIG. 1;
7 is a flowchart illustrating an example of a method in which a terminal illustrated in FIG. 1 performs an operation corresponding to a gesture input;
8 is a flowchart illustrating another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
9A is a diagram illustrating a terminal for detecting a recognition object using a 2D camera;
9B is a diagram illustrating a terminal for detecting a recognition object using a proximity sensor;
FIG. 10 is a flowchart illustrating still another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
FIG. 11 is a flowchart illustrating another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input. FIG.
FIG. 12 is a flowchart illustrating still another example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. And will be apparent to those of ordinary skill in the art.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. And will be apparent to those of ordinary skill in the art.
도 1은 본 발명의 일 실시예에 따른 3차원 거리 정보 추출 장치의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a three-dimensional distance information extraction apparatus according to an embodiment of the present invention.
도 1을 참조하면, 3차원 거리 정보 추출 장치(100)는 대상 검출부(120), 조명부(104), 3D 카메라(106), 거리 연산부(108), 카메라 제어부(110) 및 카메라 메모리(114)를 포함할 수 있다. Referring to FIG. 1, the apparatus for extracting
대상 검출부(120)는 3D 카메라(106)가 인식 대상에 대한 3D 이미지를 인식하기 전에 상기 인식 대상을 검출한다. 대상 검출부(120)는 2D 카메라(102)로 구현될 수 있으며, 실시예에 따라 상기 2D 카메라(102) 대신에 근접 센서(112)로 구현될 수도 있다. 또한 다른 실시예에 따라 대상 검출부는 2D 카메라(102) 및 근접 센서(112)를 모두 포함하여 구현될 수도 있다. 도 1에서는 설명의 편이를 위하여 2D 카메라(102) 및 근접 센서(112)를 모두 포함하는 형태로 구현된 대상 검출부(120)를 도시하였다.The
2D 카메라(102)는 미리 구비된 렌즈(미도시)를 통해 입력되는 영상을 2D 이미지로 변환함으로써 촬영 동작을 수행한다. 실시예에 따라 2D 카메라(102)는 렌즈(미도시)를 통해 입력되는 영상을 동영상으로 변환할 수도 있다.The
본 실시예에 따른 2D 카메라(102)는 렌즈를 통해 입력되는 영상을 촬영하여 2D 이미지로 변환함으로써 상기 영상에 포함된 인식 대상을 촬영한다. 상기와 같이 2D 카메라(102)는 인식 대상이 포함된 2D 이미지를 생성할 수 있다.The
조명부(104)는 3D 카메라(106)에 의한 촬영 동작이 수행되기 전에 3D 카메라(106)가 상기 3D 이미지를 생성할 수 있도록 하기 위한 광을 발사한다. 본 실시예에 따른 조명부(104)는 카메라 제어부(110)의 제어 하에 인식 대상의 사이즈(size)에 따라 각기 다른 광량을 가지는 광을 상기 인식 대상에 발사할 수 있다. 또한 조명부(104)는, 카메라 제어부(110)의 제어 하에 카메라 메모리(114)에 미리 설정되어 저장된 패턴을 가지는 광을 인식 대상을 향해 발사할 수 있으며, 광을 구획별로 구분하여 인식 대상으로 발사할 수 있다.The
3D 카메라(106)는 인식 대상에 대한 3D 이미지를 생성한다. 조명부(104)에 의하여 광이 발사되면 3D 카메라(106)는 렌즈(미도시)를 통해 인식 대상으로부터 반사되는 반사광을 수신함으로써 3D 이미지를 생성할 수 있다.The
거리 연산부(108)는 3D 카메라(106)를 통해 생성된 3D 이미지를 이용하여 인식 대상과의 거리, 즉 3차원 거리 정보 추출 장치(100) 및 인식 대상 간의 거리를 계산하고, 계산된 거리를 거리 정보로써 카메라 메모리(114)에 저장한다.The
3D 카메라(106)에 의하여 생성되는 3D 이미지는, 인식 대상 즉 피사체로부터 반사되는 반사광을 수신하여 생성되므로, 인식 대상 및 3D 카메라(106) 간의 거리에 따라 3D 이미지에 포함된 인식 대상의 크기 또는 형태가 달라질 수 있다. 또한 인식 대상으로부터 반사되는 반사광이 3D 카메라(106)에 도달하는 시간은, 상기 인식 대상 및 3D 카메라(106) 간의 거리에 따라 달라질 수 있다. 본 실시예에 따른 3D 이미지에는, 조명부(104)로부터 발사된 광이 인식 대상에 의해 반사되어 3D 카메라(106)까지 돌아오는데 소요되는 시간이 시간 정보로서 포함될 수 있다.Since the 3D image generated by the
본 실시예에 따른 거리 연산부(108)는 상기 시간 정보를 이용하여 3D 카메라(106) 및 인식 대상 간의 거리를 계산할 수 있다. 또한 3D 카메라(106)는 3차원 거리 정보 추출 장치(100)에 장착된 것이므로, 거리 연산부(108)에 의하여 계산된 거리는 실질적으로는 3차원 거리 정보 추출 장치(100) 및 인식 대상 간의 거리라 할 수 있다. The
한편 3D 카메라(106)에 의하여 생성되는 3D 이미지는, 3D 카메라(106)가 인식 대상 즉 피사체로부터 반사되는 반사광을 수신하여 생성된다. 그에 따라 하나의 인식 대상이라고 할지라도 상기 인식 대상의 각도, 굴곡 등에 의하여 3D 카메라(106)에 반사광이 도달하는데 걸리는 시간은, 인식 대상의 부분별로 각기 달라지게 된다. 예를 들어, 인식 대상이 손이라고 가정하면 손가락의 첫번째 마디로부터의 반사광이 3D 카메라(106)에 도달하는데 걸리는 시간과, 접힌 상태의 손바닥으로부터의 반사광이 3D 카메라(106)에 도달하는데 걸리는 시간은 각기 다르다.Meanwhile, the 3D image generated by the
거리 연산부(108)는 상기와 같이 인식 대상의 어떤 부분에 의해 반사되었느냐에 따라 각기 달라지는 반사광의 도달 시간, 즉 인식 대상의 각 부분별 시간 정보를 기초로 3D 카메라(106)와 인식 대상 각 부분별 거리를 계산할 수도 있다. The
또한 거리 연산부(108)는, 카메라 제어부(110)의 제어 하에 상기와 같이 계산된 3차원 거리 정보 추출 장치(100) 및 인식 대상의 각 부분별 거리를 거리 정보로서 카메라 메모리(114)에 저장할 수 있다.In addition, the
카메라 제어부(110)는 3차원 거리 정보 추출 장치(100)의 전반적인 동작을 제어한다.The
본 실시예에 따른 카메라 제어부(110)는 2D 카메라(102)를 통해 생성된 2D 이미지에 인식 대상이 포함되어 있는지 여부를 판단한다. 2D 이미지에 인식 대상이 포함된 경우, 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 제어하여 상기 인식 대상에 대한 3D 이미지를 생성한다. 반면에 2D 이미지에 인식 대상이 포함되어 있지 않은 경우, 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 구동시키지 않는다. 상기와 같이 본 발명에 따른 3차원 거리 정보 추출 장치(100)는 2D 이미지에 인식 대상이 포함되어 있을 경우에만 조명부(104) 및 3D 카메라(106)를 구동시킬 수 있다. 2D 이미지에 인식 대상이 포함되어 있을 경우에만 조명부(104) 및 3D 카메라(106)를 구동시킴으로써, 본 실시예에 따른 3차원 거리 정보 추출 장치(100)는 조명부(104) 및 3D 카메라(106)를 구동시키기 위해 필요한 전력을 절약할 수 있다.The
실시예에 따라 카메라 제어부(110)는 근접 센서(112)를 통해 인식 대상이 검출되는 경우에만 조명부(104) 및 3D 카메라(106)가 구동되도록 상기 조명부(104) 및 3D 카메라(106)를 제어할 수 있다. 근접 센서(112)를 통해 인식 대상이 검출되지 않는 경우, 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 구동시키지 않는다. 상기와 같이 근접 센서(112)를 통해 인식 대상이 검출된 경우에만 조명부(104) 및 3D 카메라(106)를 구동시킴으로써, 본 실시예에 따른 3차원 거리 정보 추출 장치(100)는 조명부(104) 및 3D 카메라(106)를 구동시키기 위해 필요한 전력을 절약할 수 있다.According to an exemplary embodiment, the
또한 다른 실시예에 따라 카메라 제어부(110)는 근접 센서(112) 및 2D 카메라(102)를 모두 이용하여 인식 대상을 검출하도록 3차원 거리 정보 추출 장치(100)를 제어할 수도 있다. 근접 센서(112)를 통해 특정 객체(object)가 검출되면, 카메라 제어부(110)는 특정 객체를 촬영하여 상기 특정 객체가 포함된 2D 이미지를 생성하도록 2D 카메라(102)를 제어한다. 카메라 제어부(110)는 2D 카메라(102)를 통해 생성된 2D 이미지를 이용하여 근접 센서(112)를 통해 검출된 상기 특정 객체가 인식 대상인지 여부를 판단한다.In addition, according to another exemplary embodiment, the
2D 카메라(102)를 통해 촬영된 특정 객체가 인식 대상인 경우, 즉 2D 이미지에 인식 대상이 포함된 경우 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 동작시켜 상기 특정 객체에 대한 3D 이미지를 생성한다. 반면에 2D 카메라(102)를 통해 촬영된 특정 객체가 인식 대상이 아닌 경우, 즉 2D 이미지에 인식 대상이 포함되지 않은 경우 카메라 제어부(110)는 조명부(104) 및 3D 카메라(106)를 동작시키지 않는다. 상기와 같이 본 발명에 따른 3차원 거리 정보 추출 장치(100)는 대상 검출부(120)를 통해 인식 대상을 먼저 검출함으로써, 촬영하고자 하는 피사체가 인식 대상인지 여부를 알지 못하는 상태에서 조명부(104) 및 3D 카메라(106)를 작동시키는 종래에 비하여 소모 전력을 감소시킬 수 있다.When a specific object photographed by the
카메라 메모리(114)에는 3차원 거리 정보 추출 장치(100)의 동작을 제어하기 위한 각종 데이터가 저장된다.The
본 실시예에 따른 카메라 메모리(114)에는 인식 대상을 식별하기 위한 식별 데이터가 저장될 수 있다. 예를 들어, 인식 대상이 사용자의 손가락(finger)이라고 가정한다. 카메라 메모리(114)에는 식별 데이터, 예를 들어 손가락을 포함하는 각종 이미지 또는 손가락의 특징 판별자(feature descriptor)들이 미리 저장되어 있을 수 있다. 카메라 제어부(110)는 2D 카메라(102)를 통해 생성된 2D 이미지를 상기 식별 데이터와 비교한다. 카메라 제어부(110)는 상기 비교 결과에 따라 사용자의 손가락 이미지가 포함된 경우에 상기 2D 이미지에 인식 대상이 포함되어 있다고 결정한다. 이때 손가락의 특징 판별자는 인식 대상이 손가락인지 여부를 판단하기 위하여 손가락의 모양(예를 들어, 지문의 유무, 손톱의 유무, 손가락의 형태) 등을 판별할 수 있도록 하기 위한 특징자일 수 있다.In the
실시예에 따라 인식 데이터는 사용자에 의해 미리 입력되어 저장된 데이터일 수 있다. 2D 카메라(102)는, 예를 들어 사용자의 손 이미지를 촬영하여 생성한 2D 이미지를 인식 데이터로서 카메라 메모리(114)에 저장할 수 있다.According to an exemplary embodiment, the recognition data may be data previously input and stored by a user. The
실시예에 따라 카메라 메모리(114)에는 인식 대상의 사이즈에 따른 조명부(104)로부터의 요구 광량이 저장될 수 있다. 예를 들어, 카메라 제어부(110)는 카메라 메모리(114)를 참조하여 2D 이미지에 포함된 인식 대상의 사이즈가 레벨 1~10이면 레벨 1의 광량, 사이즈가 11~20이면 레벨 2의 광량, 사이즈가 21~30이면 레벨 3의 광량을 가지는 광을 발사하도록 조명부(104)를 제어할 수 있다.According to an exemplary embodiment, the amount of light required from the
도 2는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 일 예를 나타낸 순서도이다.FIG. 2 is a flowchart illustrating an example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.
도 2를 참조하면, 먼저 3차원 거리 정보 추출 장치(100)는 2D 카메라(102)를 이용하여 적어도 하나의 객체(object)를 촬영함으로써 2D 이미지를 생성한다(S202). 2D 이미지가 생성되면, 카메라 제어부(110)는 상기 2D 이미지에 인식 대상(예를 들어, 사용자의 손)이 포함되었는지 여부를 판단한다(S204).Referring to FIG. 2, first, the 3D distance
단계 S204의 판단 결과, 2D 이미지에 인식 대상이 포함되어 있지 않으면(S204: 아니오), 2D 카메라(102)는 지속적으로 적어도 하나의 객체를 촬영함으로써 2D 이미지를 생성할 수 있다. 실시예에 따라 카메라 제어부(110)는 인식 대상에 대응하는 이미지, 예를 들어 상기 인식 대상이 포함된 2D 이미지가 생성될 때까지 촬영을 계속하도록 2D 카메라(102)를 제어할 수 있다. 다른 실시예에 따라 카메라 제어부(110)는, 미리 저장된 시간마다(예를 들어, 1분마다) 촬영을 반복하여 2D 이미지를 지속적으로 생성하도록 2D 카메라(102)를 제어할 수도 있다.As a result of the determination in step S204, if the recognition target is not included in the 2D image (S204: NO), the
또한 실시예에 따라 카메라 제어부(110)는 카메라 메모리(114)에 미리 설정되어 저장된 기준 시간(예를 들어, 1초) 동안 촬영된 복수 개의 2D 이미지들에 인식 대상이 모두 포함되어 있는지 여부를 판단할 수 있다. 기준 시간 동안 촬영된 2D 이미지들 모두에 인식 대상이 포함된 것이 아닌 경우, 카메라 제어부(110)는 인식 대상이 2D 카메라(102)에 포함된 렌즈의 화각 범위에 존재하지 않은 것으로 결정하여 상기 2D 카메라(102)의 동작을 종료시킬 수 있다.In addition, according to an exemplary embodiment, the
단계 S204의 판단 결과, 2D 이미지에 인식 대상이 포함된 경우(S204: 예), 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다(S206). 상기와 같이 조명부(104)로부터 광이 발사되면, 3D 카메라(106)가 인식 대상을 촬영하여 3D 이미지를 생성한다(S208). 단계 S206에서 발사된 광은 인식 대상에 의해 반사되고, 3D 카메라(106)의 촬영 센서(미도시)는 인식 대상으로부터 반사된 반사광을 수신함으로써 상기 인식 대상을 촬영한다. 본 실시예에서의 단계 S208에서의 3D 카메라(106)의 촬영은, 인식 대상으로부터 반사된 반사광을 수신하고, 수신한 반사광을 3D 이미지로 변환 처리함으로써 이루어질 수 있다. As a result of the determination in step S204, when the recognition target is included in the 2D image (S204: YES), the
3D 카메라(106)를 통해 인식 대상에 대응하는 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리를 계산한다(S210). 이로써 3차원 거리 정보 추출 장치(100)는, 상기 3차원 거리 정보 장치(100)와 인식 대상 간의 거리를 알 수 있게 된다.When a 3D image corresponding to the object to be recognized is generated through the
도 3은 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 다른 예를 나타낸 순서도이다.3 is a flowchart illustrating another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.
도 3을 참조하면, 먼저 근접 센서(112)를 이용하여 인식 대상을 검출한다(S302). 본 실시예에 따른 근접 센서(112)는, 상기 근접 센서(112)로부터 미리 설정된 범위(예를 들어, 반경 10cm 이내)에 인식 대상이 진입하는 것을 검출할 수 있다.Referring to FIG. 3, first, a recognition object is detected using the proximity sensor 112 (S302). The
인식 대상이 검출되면, 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다(S304). 상기와 같이 조명부(104)로부터 광이 발사되면, 3D 카메라(106)가 인식 대상을 촬영하여 3D 이미지를 생성한다(S306).When the object to be detected is detected, the
단계 S304에서 조명부(104)로부터 발사된 광은 인식 대상에 의해 반사되고, 3D 카메라(106)의 촬영 센서(미도시)는 인식 대상으로부터 반사된 반사광을 수신한다. 본 실시예에 따른 단계 S306에서 3D 카메라(106)는, 상기 3D 카메라(106)가 인식 대상으로부터 반사된 반사광을 수신하고, 수신한 반사광을 3D 이미지로 변환 처리함으로써 이루어질 수 있다.Light emitted from the
3D 카메라(106)를 통해 인식 대상이 포함된 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리, 즉 3차원 거리 정보 추출 장치(100)와 인식 대상 간의 거리를 계산한다(S308).When a 3D image including a recognition object is generated through the
도 4는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도이다.4 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.
도 4를 참조하면, 3차원 거리 정보 추출 장치(100)는 근접 센서(112)를 이용하여 상기 근접 센서(112)의 센싱 범위(예를 들어, 반경 10cm 이내) 내에 진입한 객체(object)를 검출한다(S402). 객체가 검출되면, 카메라 제어부(110)는 2D 카메라(102)를 작동시켜서 상기 객체를 촬영함으로써, 상기 객체가 포함된 2D 이미지를 생성한다(S404).Referring to FIG. 4, the apparatus for extracting
단계 S402에서 근접 센서(112)를 통해 검출된 객체는 인식 대상이 아닐 수도 있다. 인식 대상이 아닌 경우에는 상기 객체가 포함된 3D 이미지를 생성할 필요가 없다. 따라서 상기 객체가 포함된 3D 이미지를 생성하기에 앞서, 본 실시예에 따른 3차원 거리 정보 추출 장치(100)는 근접 센서(112)를 통해 검출된 객체가 인식 대상인지 여부를 먼저 판단한다. 단계 S402에서 검출된 객체가 인식 대상인지 여부를 판단하기 위하여 카메라 제어부(110)는, 단계 S404에서 상기 객체를 촬영하여 상기 객체에 대응하는 2D 이미지, 예를 들어 상기 객체가 포함된 2D 이미지를 생성하도록 2D 카메라(102)를 제어할 수 있다. 단계 S402에서 검출된 객체에 대응하는 2D 이미지가 생성되면, 카메라 제어부(110)는 상기 2D 이미지에 인식 대상(예를 들어, 사용자의 손)이 포함되었는지 여부를 판단한다(S406).The object detected through the
단계 S406의 판단 결과, 2D 이미지에 인식 대상이 포함되어 있지 않으면(S406: 아니오), 카메라 제어부(110)는 근접 센서(112)가 다시 근접 센싱을 수행하여 센싱 범위 내에 진입한 다른 객체를 검출하도록 제어한다(S402).As a result of the determination in step S406, when the recognition target is not included in the 2D image (S406: NO), the
다른 실시예에 따라 카메라 제어부(110)는 카메라 메모리(114)에 미리 설정되어 저장된 기준 시간(예를 들어, 1분) 동안 특정 객체(예를 들어, 사용자의 손)가 검출되지 않는 경우, 인식 대상이 근접 센서(112)의 센싱 범위 내에 진입하지 않는 것으로 결정할 수 있다. 또한 상기 센싱 범위 내에 인식 대상이 진입하지 않은 것으로 결정되면, 카메라 제어부(110)는 근접 센서(112)의 동작을 종료시킬 수 있다.According to another exemplary embodiment, the
단계 S406의 판단 결과, 2D 이미지에 인식 대상이 포함된 경우(S406: 예), 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다(S408). 상기와 같이 조명부(104)로부터 광이 발사되면, 3D 카메라(106)는 인식 대상을 촬영하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S410). 3D 카메라(106)를 통해 인식 대상에 대응하는 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리를 계산한다(S412).As a result of the determination in step S406, when the recognition object is included in the 2D image (S406: Yes), the
도 5는 도 1에 도시된 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법의 또 다른 예를 나타낸 순서도이다.FIG. 5 is a flowchart illustrating still another example of a 3D distance information extraction method of the apparatus for extracting 3D distance information shown in FIG. 1.
도 5를 참조하면, 먼저 2D 카메라(102)가 적어도 하나의 객체를 촬영함으로써 상기 객체에 대응하는 2D 이미지, 예를 들어 상기 객체가 포함된 2D 이미지를 생성한다(S502). 2D 이미지가 생성되면, 카메라 제어부(110)는 상기 2D 이미지에 인식 대상(예를 들어, 사용자의 손)이 포함되었는지 여부를 판단한다(S504).Referring to FIG. 5, first, the
단계 S504의 판단 결과, 2D 이미지에 인식 대상이 포함되어 있지 않으면(S504: 아니오), 2D 카메라(102)는 지속적으로 적어도 하나의 객체를 촬영함으로써 2D 이미지를 생성할 수 있다. 실시예에 따라 카메라 제어부(110)는 인식 대상이 포함된 2D 이미지가 생성될 때까지 촬영을 계속하도록 2D 카메라(102)를 제어할 수도 있다.As a result of the determination in step S504, when the recognition object is not included in the 2D image (S504: NO), the
단계 S504의 판단 결과, 2D 이미지에 인식 대상이 포함된 경우(S504: 예), 카메라 제어부(110)는 2D 이미지에 포함된 인식 대상의 사이즈를 기초로 조명부(104)에서 발사할 광의 광량을 결정한다(S506).As a result of the determination in step S504, when the recognition target is included in the 2D image (S504: YES), the
본 실시예에서 카메라 제어부(110)는 단계 S502에서 생성된 2D 이미지를 이용하여 3차원 거리 정보 추출 장치(100)와 인식 대상 간의 대략적인 거리를 결정할 수 있다. 예를 들어, 2D 카메라(102)를 통해 생성되는 2D 이미지의 총 화소수가 '800×600' 픽셀, 즉 48만 픽셀이라고 가정한다. 카메라 메모리(114)에는 아래 표 1과 같이, 인식 대상의 사이즈별로 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리, 거리별로 3D 이미지를 생성하기 위해 조명부(104)에 요구되는 요구 광량 등이 저장되어 있을 수 있다.
In the present embodiment, the
표 1을 예로 들어 설명하면, 단계 S502에서 생성된 2D 이미지에 포함된 인식 대상의 사이즈가 12만 픽셀이라고 가정하면 상기 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리는 6.1~9.0cm가 된다. 또한 상기 6.1~9.0cm 사이에 위치한 인식 대상에 대응하는 3D 이미지를 획득하기 위해 조명부(104)에서 발사될 광의 요구 광량은 Level 3이 된다. 본 실시예에 따른 카메라 제어부(110)는 상기 표 1과 같이 카메라 메모리(114)에 미리 설정되어 저장되어 있는 정보를 이용하여 조명부(104)에서 발사할 광의 광량을 결정할 수 있다.Referring to Table 1 as an example, assuming that the size of the recognition object included in the 2D image generated in step S502 is 120,000 pixels, the distance between the recognition object and the 3D distance
조명부(104)에서 발사할 광의 광량이 결정되면, 조명부(104)는 인식 대상과의 거리, 즉 3차원 거리 정보 추출 장치(100)와 인식 대상 간의 거리를 측정하기 위해 상기 단계 S506에서 결정된 광량의 광을 인식 대상을 향해 발사한다(S508). 조명부(104)로부터 광이 발사되면, 3D 카메라(106)는 인식 대상을 촬영하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S510). 단계 S508에서 발사된 광은 인식 대상에 의해 반사되고, 3D 카메라(106)의 촬영 센서(미도시)는 인식 대상으로부터 반사된 반사광을 수신하여 변환함으로써 3D 이미지를 생성할 수 있다.When the amount of light to be emitted from the
3D 카메라(106)를 통해 인식 대상에 대응하는 3D 이미지, 예를 들어 인식 대상이 포함된 3D 이미지가 생성되면, 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리를 계산한다(S512).When a 3D image corresponding to the object to be recognized, for example, a 3D image including the object to be recognized is generated through the
도 6은 도 1에 도시된 3차원 거리 정보 추출 장치가 포함된 단말기의 구성을 도시한 블록도이다.6 is a block diagram illustrating a configuration of a terminal including the apparatus for extracting 3D distance information shown in FIG. 1.
도 6에 도시된 바와 같이, 3차원 거리 정보 추출 장치(100)의 각 구성 요소는 단말기(600)에 내장된 형태로 구현될 수 있다. 도 6을 참조하면, 단말기(600)는 2D 카메라(102) 및 근접 센서(112)를 포함하는 대상 검출부(120), 조명부(104), 3D 카메라(106), 거리 연산부(108), 카메라 제어부(110), 카메라 메모리(114), 사용자 입력부(604), 디스플레이부(606), 메모리(608), 제어부(610)을 포함하며, 통신 인터페이스(602)를 더 포함할 수 있다.As illustrated in FIG. 6, each component of the 3D distance
도 6에서는 설명의 편이를 위하여 대상 검출부(120)가 2D 카메라(102) 및 근접 센서(112)를 모두 포함된 형태로 도시하였으나, 실시예에 따라 대상 검출부(120)는 2D 카메라(102) 및 근접 센서(112) 중 적어도 하나를 포함하여 구현될 수 있다. 또한 카메라 제어부(110)는 제어부(610)에 포함된 형태로 구현될 수 있고, 카메라 메모리(114)는 메모리(608)에 포함된 형태로 구현될 수 있다.In FIG. 6, the
통신 인터페이스(602)는 단말기(600)의 유선 또는 무선 통신을 수행한다. 본 실시예에 따른 통신 인터페이스(602)는 예를 들어, 블루투스, 와이파이 등의 근거리 무선 통신을 수행할 수 있다. 또한 통신 인터페이스(602)는 유선 또는 무선 통신을 수행하여 인식 대상을 식별하기 위한 식별 데이터를 수신할 수 있다.The
실시예에 따라 통신 인터페이스(602)는, 타 단말기로부터 호(call)를 수신하거나 또는 메시지(예를 들어, SMS(Short message service))를 수신할 수 있다.According to an embodiment, the
사용자 입력부(604)는 사용자로부터의 입력을 수신한다. 본 실시예에 따른 사용자 입력부(604)는 단말기(600)와 인식 대상 간의 거리를 측정하기 위한 사용자 입력을 수신할 수 있다. 또한 사용자 입력부(604)는 제스처 입력을 수신하기 위한 사용자 입력을 수신할 수 있다.The
본 실시예에서 '제스처 입력'은 예를 들어 사용자가 손을 이용하여 단말기(600)를 제어하기 위한 특정 제스처를 취함으로써 입력되는 사용자 입력을 의미한다. 즉, 사용자는 손을 이용하여 메모리(608)에 미리 설정되어 저장되어 있는 제스처 입력들 중 어느 하나에 해당하는 제스처를 취함으로써, 단말기(600)에 제스처 입력을 입력할 수 있다. 실시예에 따라 사용자는 단말기(600)의 3차원 거리 정보 추출 장치(100)를 구동시키고, 3차원 거리 정보 추출 장치(100)에 포함된 2D 카메라(102) 또는 3D 카메라(106)의 렌즈를 향해 제스처를 취함으로써 상기 제스처 입력을 단말기(600)에 입력할 수도 있다. 본 실시예에 따른 단말기(600)는 사용자로부터 제스처 입력을 수신하기 위한 사용자 입력, 즉 3차원 거리 정보 추출 장치(100)를 구동시키기 위한 사용자 입력을 수신하여 상기 3차원 거리 정보 추출 장치(100)를 구동시킬 수 있다.In the present embodiment, 'gesture input' refers to a user input that is input by, for example, a user making a specific gesture for controlling the terminal 600 by using a hand. That is, the user may input a gesture input to the terminal 600 by using a hand to take a gesture corresponding to any one of gesture inputs preset and stored in the
디스플레이부(606)는 단말기(600)에 저장된 각종 데이터를 표시한다. 실시예에 따라 디스플레이부(606)는 사용자로부터 입력되는 제스처 입력을 실시간으로 표시할 수 있다. 또한 단말기(600)가 상기 제스처 입력에 대응하는 동작을 수행하기 위한 각종 데이터를 표시할 수 있다. 예를 들어, 제스처 입력이 메모리(608)에 저장된 동영상 파일을 재생하기 위한 것이라면, 디스플레이부(606)는 제어부(610)의 제어 하에 상기 동영상을 재생하여 표시할 수 있다.The display unit 606 displays various data stored in the
메모리(608)에는 단말기(600)를 제어하기 위한 각종 데이터가 저장된다. 본 실시예에 따른 메모리(608)에는 복수 개의 제스처 입력들 및 상기 제스처 입력들 각각에 대응하는 명령어 또는 단말기(600)의 동작이 저장될 수 있다.The
제어부(610)는 단말기(600)의 전반적인 동작을 제어한다. 본 실시예에 따른 제어부(610)는 3차원 거리 정보 추출 장치(100)의 카메라 제어부(110)를 포함하여 구현됨으로써 카메라 제어부(110)에 의해 실행되는 각종 동작을 수행할 수 있다. 제어부(610)는 3D 카메라(106)를 통해 생성된 3D 이미지 및 거리 연산부(108)를 통해 생성된 거리 정보를 기초로 인식 대상의 형태를 결정하고, 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정할 수 있다. 또한 제스처 입력이 결정되면, 제어부(608)는 해당 제스처 입력에 대응하는 단말기(600)의 동작을 결정하여 수행한다.The
다른 실시예에 따라 제어부(610)는 상기 3D 이미지만으로 상기 인식 대상의 형태를 결정할 수도 있다. 3D 카메라(106)를 통해 생성된 3D 이미지만으로 인식 대상의 형태를 결정한 경우에도 제어부(610)는 상기 3D 이미지에 대응하는 제스처 입력을 결정할 수 있다. 또한 상기 제스처 입력에 따른 동작을 수행하도록 단말기(600)를 제어할 수 있다.According to another exemplary embodiment, the
실시예에 따라 제어부(610)는 단말기(600)의 상태에 따라 3차원 거리 정보 추출 장치(100)의 구동하여 동작 인식 기능을 실행할 것인지 여부를 결정할 수 있다. 단말기(600)가 대기(standby) 상태를 유지하고 있는 경우, 또는 레디(ready) 상태를 유지하고 있는 경우에 제어부(610)는 동작 인식 기능을 실행할 것인지 여부를 결정한다.According to an exemplary embodiment, the
동작 인식 기능은, 단말기(600)가 3차원 거리 정보 추출 장치(100)를 이용하여 단말기(600)로 입력되는 사용자의 제스처를 제스처 입력으로서 인식할 수 있는 기능을 가리킨다. 대기 상태는, 단말기(600)의 전원이 온되어 있기는 하지만, 단말기(600) 내에 별도의 이벤트(예를 들어, 사용자 입력이 입력되지 않은 상태 등)가 발생하지 않은 상태를 가리킨다. 레디 상태는, 단말기(600)가 동작 인식 기능 이외의 다른 기능을 실행하고 있는 상태를 가리킨다. 예를 들어, 단말기(600)가 메시지 송수신, 인터넷 접속, e-book 표시, 음악 재생, 게임 실행 등의 동작을 하고 있다면, 상기 단말기(600)는 레디 상태이다.The gesture recognition function refers to a function of allowing the terminal 600 to recognize a user's gesture input to the terminal 600 as a gesture input using the 3D distance
실시예에 따라 제어부(610)는 단말기(600)에 웨이크 업 이벤트가 발생하였는지 여부를 판단할 수 있다. 예를 들어, 대기 상태를 유지하고 있던 단말기(600)가 호를 수신하였거나 또는 메시지를 수신한 경우, 제어부(610)는 웨이크 업 이벤트가 발생한 것으로 결정할 수 있다. 또한 대기 상태를 유지하던 단말기(600)가 사용자 입력부(604)를 통해 사용자 입력을 수신한 경우에도, 제어부(610)는 웨이크 업 이벤트가 발생한 것으로 결정할 수 있다. 이때 사용자 입력은, 동작 인식 기능을 실행하기 위한 사용자 입력, 상기 동작 인식 기능 외의 다른 기능을 실행하기 위한 사용자 입력 등이 될 수 있다. 또한 웨이크 업 이벤트가 발생되면, 단말기(600)의 상태는, 제어부(610)의 제어 하에 대기 상태에서 레디 상태로 전환될 수 있다.According to an embodiment, the
상기와 같이 단말기(600)에 웨이크 업 이벤트가 발생되면, 제어부(610)는 3차원 거리 정보 추출 장치(100)를 구동하여 사용자로부터 제스처 입력을 입력받을 수 있도록 단말기(600)를 제어할 수 있다. 제스처 입력이 입력되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 수행하도록 단말기(600)를 제어한다.When the wake-up event occurs in the terminal 600 as described above, the
단말기(600)가 레디 상태를 유지하고 있는 경우에도 제어부(610)는 동작 인식 기능의 실행 여부를 결정할 수 있다. 실시예에 따라 사용자 입력부(604)로부터 동작 인식 기능을 실행시키기 위한 사용자 입력이 입력된 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 또한 단말기(600)가 대기 상태에서 레디 상태로 전환된 경우에도 제어부(610)는 동작 인식 기능을 실행시킬 수 있다. Even when the terminal 600 maintains the ready state, the
실시예에 따라 단말기(600)가 레디 상태인 경우에, 제어부(610)는 동작 인식 기능을 실행시키기 위한 사용자 입력이 입력되었는지 여부를 판단할 수 있다. 상기 사용자 입력이 입력된 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어한다. 예를 들어, 단말기(600)는 음악 파일을 재생 중인 상태에서, 사용자로부터 동작 인식 기능을 실행시키기 위한 사용자 입력을 수신할 수 있다. 상기와 같은 사용자 입력이 입력되면, 제어부(610)는 사용자로부터 제스처 입력을 입력받기 위하여 3차원 거리 정보 추출 장치(100)를 실행시킬 수 있다.다른 실시예에 따라 단말기(600)가 레디 상태인 경우에, 대상 추출부(120)로부터 미리 설정된 범위 이내(예를 들어, 단말기(600)로부터 전방 10cm 이내)에 인식 대상이 진입하였는지 여부를 판단할 수 있다. 인식 대상이 상기 설정된 범위 이내에 진입한 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다.According to an embodiment, when the terminal 600 is in the ready state, the
레디 상태에서, 예를 들어 2D카메라(102)의 렌즈의 화각 범위에 인식 대상(예를 들어, 사용자의 손)이 진입하였거나 또는 근접 센서(112)에 인식 대상이 검출된 경우, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 즉 본 실시예에 따른 단말기(600)는, 예를 들어 음악 파일을 재생하는 동시에 사용자로부터 제스처 입력을 수신할 수 있다. 실시예에 따라 제어부(610)는 2D 카메라(102)의 렌즈의 화각 범위 내에 인식 대상이 메모리(608)에 미리 저장된 시간(예를 들어 1초) 이상 존재하는 경우, 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 또한 제어부(610)는 인식 대상이 근접 센서(112)에 의해 미리 저장된 시간 이상(예를 들어, 1초) 이상 지속적으로 감지되는 경우 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다.In the ready state, for example, when a recognition target (for example, a user's hand) enters an angle of view of the lens of the
예를 들어, 단말기(600)가 음악 파일을 재생 중인 레디 상태인 것으로 가정한다. 사용자는 2D 카메라(102)의 렌즈의 화각 범위 내에 1초 이상 인식대상, 즉 손이 존재하도록 제스처를 취할 수 있다. 2D 카메라(102)는 인식 대상을 검출하고, 제어부(610)는 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수 있다. 동작 인식 기능을 실행되면, 단말기(600)는 사용자로부터 제스처 입력을 입력받는다. 단말기(600)가 음악 파일을 재생 중이므로, 사용자는 음악 파일의 재생과 연관된 제스처 입력을 단말기(600)로 입력할 수 있다. 예를 들어, 사용자는 제스처 입력으로서 재생(play), 일시정지(pause), 빨리감기(forward), 되감기(rewind), 멈춤(stop) 등을 단말기(600)로 입력할 수 있다. 또한 사용자는 상기 음악 파일의 재생과 무관한 제스처 입력을 단말기(600)로 입력할 수도 있다. 예를 들어, 음악 파일이 재생되고 있는 레디 상태에서 단말기(600)는 타 어플리케이션(예를 들어, 인터넷 브라우저, 게임, e-book, 호 발신 등)의 실행을 위한 제스처 입력을 사용자로부터 입력받을 수 있다. 이와 같은 경우, 제어부(610)는 음악 파일을 재생하는 동시에 타 어플리케이션을 구동하도록 단말기(600)를 제어한다.For example, it is assumed that the terminal 600 is in a ready state playing a music file. The user may gesture to allow the object to be recognized, that is, the hand, to exist within the angle of view of the lens of the
대기 상태 또는 레디 상태에서 제어부(610)는 미리 정해진 시간(예를 들어, 2초)마다 인식 대상을 검출하도록 3차원 거리 정보 추출 장치(100)를 제어할 수 있다. 또한 인식 대상이 검출된 경우, 상기 인식 대상이 미리 정해진 시간(예를 들어, 1초) 이상 3차원 거리 정보 추출 장치(100)의 인식 범위 내에 머무르는지 여부를 결정할 수 있다. 인식 대상이 미리 정해진 시간 이상 인식 범위 내에 머무르면, 제어부(610)는 사용자가 제스처 입력을 입력하고자 하는 것으로 간주하여 인식 대상 기능을 실행시킨다. 인식 범위는, 2D 카메라(102)의 렌즈의 화각 또는 근접 센서(112)에 의 인식 대상이 검출될 수 있는 범위를 가리킨다.In the standby state or the ready state, the
실시예에 따라 제어부(610)는 2D 카메라(102)를 이용하여 사용자가 단말기(600)의 디스플레이부(606)를 응시하는지 여부를 판단하여, 응시하는 경우에 동작 인식 기능을 실행하도록 단말기(600)를 제어할 수도 있다. 2D 카메라(102)가 단말기(600)의 사용자와 마주보는 형태로 구현되는 경우, 사용자의 얼굴은 2D 카메라(102)의 화각 범위 내에 위치할 수 있다. 또한 2D 카메라(102)는 상기 렌즈를 통해 사용자의 얼굴을 입력받아 2D 이미지(이하, 얼굴 이미지)로 변환할 수 있다. 제어부(610)는 얼굴 이미지에 포함된 사용자의 얼굴 모양(pose) 또는 눈동자의 움직임 등에 따라 단말기(600)의 동작을 제어할 수 있다. 예를 들어, 얼굴 이미지에 포함된 사용자의 눈이 감겨져 있는 경우 제어부(610)는 단말기(600)의 전원을 오프시킬 수 있고, 얼굴 이미지에 포함된 눈동자가 아래로 움직이는 경우 디스플레이부(606)의 스크롤을 아래로 내릴 수 있다.According to an embodiment, the
도 7은 도 1에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 일 예를 도시한 순서도이다.FIG. 7 is a flowchart illustrating an example of a method in which a terminal illustrated in FIG. 1 performs an operation corresponding to a gesture input.
도 7을 참조하면, 단말기(600)의 제어부(610)는 2D 이미지를 이용하여 인식 대상을 검출한다(S702). 이를 위하여 제어부(610)는 2D 인식 대상을 촬영함으로써 상기 특정 객체에 대응하는 2D 이미지를 생성하도록 2D 카메라(102)를 제어할 수 있다. 제어부(610)는 카메라 제어부(110)를 포함하여 구현될 수 있으므로, 2D 카메라(102)에 의해 생성된 2D 이미지, 즉 특정 객체에 대응하는 2D 이미지가 인식 대상에 대응하는 2D 이미지인지 여부를 판단할 수 있다. 제어부(610)는 상기 2D 이미지에 인식 대상이 포함되어 있는지 여부를 결정함으로써, 상기 2D 이미지가 인식 대상에 대응하는 2D 이미지인지 여부를 결정할 수 있다. 상기 2D 이미지가 인식 대상을 포함하는 경우, 제어부(610)는 조명부(104) 및 3D 카메라(106)를 제어하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S704).Referring to FIG. 7, the
제어부(610)는 거리 연산부(108)를 제어하여 상기 3D 이미지를 이용하여 인식 대상과의 거리, 즉 단말기(600)와 인식 대상 간의 거리를 계산한다(S706). 단계 S706에서 거리 연산부(108)를 통해 계산되는 거리는 3D 카메라(106)와 인식 대상 간의 거리로써, 실질적으로는 상기 3D 카메라(106)가 설치된 단말기(600)와 인식 대상 간의 거리가 될 수 있다. 거리 연산부(108)는 3D 카메라(106)와 인식 대상 간의 거리를 계산하고, 계산된 거리값을 포함하는 거리 정보를 생성한다. 또한 거리 연산부(108)는 상기 거리 정보를 카메라 메모리(114)에 저장할 수 있다.The
단말기(600)의 제어부(610)는 거리 정보 및 3D 이미지를 기초로 하여 3D 카메라(106)에 의해 촬영된 인식 대상의 형태, 인식 대상의 제스처를 결정할 수 있다. 제어부(610)는 인식 대상의 제스처에 대응하는 제스처 입력을 결정한다(S708).The
본 실시예에 따른 제어부(610)는 메모리(608)에 미리 설정되어 저장된 제스처 입력들과 3D 카메라(106)에 의해 촬영된 인식 대상의 형태, 즉 제스처를 비교하여 상기 제스처와 동일한(또는 유사한) 형태를 가지는 제스처 입력이 메모리(608)에 존재하는지 여부를 판단할 수 있다. 메모리(608)에 미리 설정되어 저장되어 있던 제스처 입력들 중 인식 대상의 제스처와 동일한 형태를 가지는 제스처 입력이 저장되어 있으면, 제어부(610)는 상기 인식 대상의 제스처를 제스처 입력으로 결정할 수 있다. 반면에 메모리(608)에 인식 대상의 제스처와 동일한 형태를 가지는 제스처 입력이 저장되어 있지 않다면, 인식 대상의 제스처는 제스처 입력이 아닌 것으로 결정될 수 있다. 인식 대상의 제스처가 제스처 입력이 아닌 것으로 판명되면, 제어부(610)는 별도의 동작을 수행하지 않도록 단말기(600)를 제어할 수도 있다.The
상기와 같이 제어부(610)는 3D 카메라(106)에 의해 촬영된 인식 대상의 형태, 즉 인식 대상의 제스처가 미리 설정되어 있던 제스처 입력 중 하나인지를 여부를 결정한다. 또한 상기 인식 대상의 제스처가 미리 설정되어 있던 제스처 입력 중 하나로 결정되면, 제어부(610)는 메모리(608)를 검색하여 상기 제스처 입력에 대응하는 명령어(command) 또는 단말기(600)의 동작을 결정할 수 있다.As described above, the
단계 S708에서 인식 대상의 제스처에 대응하는 제스처 입력이 결정되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 결정하여 수행한다(S710).When the gesture input corresponding to the gesture of the recognition target is determined in step S708, the
도 8은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도이다.FIG. 8 is a flowchart illustrating another example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
도 8을 참조하면, 단말기(600)의 제어부(610)는 근접 센서(112)를 통해 인식 대상을 검출한다(S802). 도 6에 도시되어 있듯이 단말기(600)의 제어부(610)는 카메라 제어부(110)를 포함하여 구현될 수 있으므로, 근접 센서(112)에 의해 검출된 인식 대상을 확인할 수 있다. 상기와 같이 근접 센서(112)에 의해 인식 대상이 검출되면, 제어부(610)는 조명부(104) 및 3D 카메라(106)를 제어하여 상기 인식 대상에 대응하는 3D 이미지를 생성한다(S804).Referring to FIG. 8, the
제어부(610)는 거리 연산부(108)를 제어하여 3D 이미지를 이용하여 인식 대상과의 거리, 즉 단말기(600)과 인식 대상 간의 거리를 계산한다(S806). 상기 3D 카메라(106)와 인식 대상 간의 거리는 거리 정보로써 카메라 메모리(114)에 저장될 수 있다. 단말기(600)의 제어부(610)는 거리 정보 및 3D 이미지를 기초로 하여 3D 카메라(106)에 의해 촬영된 인식 대상의 형태를 결정한다. 제어부(610)는 상기 인식 대상의 형태, 즉 인식 대상의 제스처에 대응하는 제스처 입력을 결정한다(S808). 제스처 입력이 결정되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 결정하여 수행한다(S810).The
도 9a는 2D 카메라를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면이고, 도 9b는 근접 센서를 이용하여 인식 대상을 검출하는 단말기를 나타낸 도면이다. 도 9a 및 도 9b의 조명부(104), 3D 카메라(106), 도 9a의 2D 카메라(102), 도 9b의 근접 센서(112)는 모두 단말기(600)의 정면에 배치되는 것으로 가정한다.9A is a diagram illustrating a terminal for detecting a recognition object using a 2D camera, and FIG. 9B is a diagram for a terminal for detecting a recognition object using a proximity sensor. It is assumed that the
도 9a를 참조하면, 인식 대상인 사용자의 손(900)은 2D 카메라(102)에 의해 생성된 2D 이미지를 통하여 먼저 검출될 수 있다. 사용자의 손(900)이 검출되면, 단말기(600)의 조명부(104)는 상기 손(900)에 대응하는 3D 이미지, 예를 들어 상기 손(900)이 포함된 3D 이미지를 생성하기 위하여 광(실선으로 도시함)을 발사한다. 조명부(104)로부터 발사된 광은 인식 대상인 손(900)에 의하여 반사되고, 손(900)에 의하여 반사된 반사광(점선으로 도시함)은 3D 카메라(106)로 입력된다. 3D 카메라(106)는 손(900)에 의하여 반사된 반사광을 수신하여 손(900)에 대한 3D 이미지를 생성한다.Referring to FIG. 9A, a user's
도 9b를 참조하면, 인식 대상인 사용자의 손(900)은 근접 센서(112)에 의해 먼저 검출된다. 사용자의 손(900)이 검출되면, 단말기(600)의 조명부(104)는 상기 손(900)에 대한 3D 이미지를 생성하기 위하여 광(실선으로 도시함)을 발사한다. 조명부(104)로부터 발사된 광은 인식 대상인 손(900)에 의하여 반사되고, 손(900)에 의하여 반사된 반사광(점선으로 도시함)은 3D 카메라(106)로 입력된다. 3D 카메라(106)는 손(900)에 의하여 반사된 반사광을 수신하여 손(900)에 대응하는 3D 이미지를 생성한다.Referring to FIG. 9B, the user's
도 10은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 일 예를 도시한 순서도이다.FIG. 10 is a flowchart illustrating an example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
도 10을 참조하면, 단말기(600)는 대기 상태를 유지하고 있다가(S1002) 웨이크 업(wake-up) 이벤트가 발생되면(S1004), 3차원 거리 정보 추출 장치(100)의 대상 검출부(120)를 구동하여 인식 대상을 검출한다(S1006).Referring to FIG. 10, the terminal 600 maintains a standby state (S1002), and when a wake-up event occurs (S1004), the
본 실시예에서 웨이크 업 이벤트는, 대기 상태를 유지하고 있던 단말기(600)의 상태를 변경시켜주는 이벤트를 가리킨다. 웨이크 업 이벤트는, 예를 들어 사용자로부터의 키 입력 또는 터치 입력을 수신하는 것, 단말기(600)가 호(Call)를 수신하거나 또는 메시지를 수신하는 것 등을 가리킨다. 본 실시예에서 3차원 거리 정보 추출 장치(100)는, 웨이크 업 이벤트가 발생되기 전 즉, 단말기(600)가 대기 상태인 경우에는 거리 검출을 위한 동작(예를 들어, 2D 카메라(102)의 작동, 근접 센서(112)의 작동, 조명부(104)의 광 발사 동작, 3D 카메라(106)의 작동 등)을 수행하지 않을 수 있다.In the present embodiment, the wake up event refers to an event for changing the state of the terminal 600 which has maintained the standby state. The wake up event indicates, for example, receiving a key input or a touch input from a user, the terminal 600 receiving a call, receiving a message, or the like. In the present exemplary embodiment, the 3D distance
실시예에 따라 단계 S1006에서, 단말기(600)는 대상 검출부(120)의 2D 카메라(102)를 이용하여 인식 대상을 검출할 수 있다. 그에 따라 단말기(600)의 제어부(610)는 2D 카메라(102)를 구동하여 인식 대상을 촬영함으로써, 상기 인식 대상이 포함된 2D 이미지를 생성할 수 있다. 또한 제어부(610)는 상기 2D 이미지에 인식 대상이 포함되어 있는지 여부를 판단한다. 상기 인식 대상이 포함되어 있는 경우 제어부(610)는 상기 인식 대상의 3D 이미지를 생성하기 위하여 조명부(104)가 상기 인식 대상과의 거리를 측정하기 위한 광을 발사하도록 제어한다. 3D 카메라(106)는 인식 대상으로부터 반사되는 광을 수신함으로써 상기 인식 대상을 촬영한다.According to an embodiment, in step S1006, the terminal 600 may detect the recognition object using the
다른 실시예에 따라 단계 S1006에서 단말기(600)는 대상 검출부(120)의 근접 센서(112)를 이용하여 인식 대상을 검출할 수 있다. 그에 따라 근접 센서(112)는, 상기 근접 센서(112)로부터 미리 설정된 범위(예를 들어, 반경 10cm 이내)에 인식 대상이 진입하는 것을 검출할 수 있다. 인식 대상이 검출되면, 카메라 제어부(110)는 조명부(104)를 제어하여 인식 대상과의 거리, 즉 인식 대상과 3차원 거리 정보 추출 장치(100) 간의 거리를 측정하기 위한 광을 발사한다. 3D 카메라(106)는 인식 대상으로부터 반사되는 광을 수신함으로써 상기 인식 대상을 촬영한다.According to another exemplary embodiment, in operation S1006, the terminal 600 may detect a recognition object using the
상기와 같이 인식 대상이 검출되면, 단말기(600)는 인식 대상에 대응하는 3D 이미지를 생성한다(S1008). 거리 연산부(108)는 상기 3D 이미지를 이용하여 인식 대상과의 거리, 즉 단말기(600)와 인식 대상 간의 거리를 계산한다(S1010). 상기 3D 카메라(106)와 인식 대상 간의 거리는 거리 정보로써 카메라 메모리(114)에 저장될 수 있다.When the object to be detected is detected as described above, the terminal 600 generates a 3D image corresponding to the object to be recognized (S1008). The
단말기(600)의 제어부(610)는 거리 정보 및 3D 이미지를 기초로 하여 3D 카메라(106)에 의해 촬영된 인식 대상의 형태를 결정한다. 제어부(610)는 상기 인식 대상의 형태, 즉 인식 대상의 제스처에 대응하는 제스처 입력을 결정한다(S1012). 제스처 입력이 결정되면, 제어부(610)는 상기 제스처 입력에 대응하는 동작을 결정하여 수행한다(S1014).The
실시예에 따라 단말기(600)는 대기 상태를 유지하고 있다가, 미리 저장된 시간마다 단말기(600) 내에 웨이크 업 이벤트가 발생하였는지 여부를 판단할 수도 있다.According to an embodiment, the terminal 600 may maintain a standby state and determine whether a wake-up event has occurred in the terminal 600 at every pre-stored time.
도 11은 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 다른 예를 도시한 순서도이다.FIG. 11 is a flowchart illustrating another example of a method in which a terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
도 11을 참조하면, 먼저 단말기(600)는 대기 상태를 유지하고 있다(S1102). 본 실시예에서 대기 상태는, 단말기(600)의 전원은 온 되어있지만, 그 외의 별 다른 동작을 수행하지 않은 상태를 가리킨다. 제어부(610)는 단말기(600)에 웨이크 업 이벤트가 발생하였는지 여부를 판단한다(S1104).Referring to FIG. 11, first, the terminal 600 maintains a standby state (S1102). In the present exemplary embodiment, the standby state refers to a state in which the power of the terminal 600 is turned on but no other operation is performed. The
단계 S1104의 판단 결과 웨이크 업 이벤트가 발생된 경우(S1104: 예), 단말기(600)는 레디 상태로 전환된다(S1106). 웨이크 업 이벤트는, 예를 들어 호의 수신, 메시지 수신 또는 레디 상태로 전환하기 위한 사용자 입력의 수신 등이 될 수 있다. 레디 상태가 되면 단말기(600)는 제어부(610)의 제어 하에 동작 인식 기능을 실행한다(S1108). 이때 제어부(610)는 3차원 거리 정보 추출 장치(100)를 이용하여 사용자의 제스처를 인식할 수 있다.When the wakeup event is generated as a result of the determination of step S1104 (S1104: YES), the terminal 600 is switched to the ready state (S1106). The wake up event may be, for example, receiving a call, receiving a message, or receiving a user input to transition to a ready state. In the ready state, the terminal 600 executes a motion recognition function under the control of the controller 610 (S1108). In this case, the
단말기(600)는 사용자로부터 제스처 입력을 수신하고(S1110), 해당 제스처 입력에 대응하는 동작을 수행한다(S1112).The terminal 600 receives a gesture input from the user (S1110) and performs an operation corresponding to the corresponding gesture input (S1112).
반면에 단계 S1104의 판단 결과 웨이크 업 이벤트가 발생되지 않은 경우(S1104: 아니오), 단말기(600)는 대기 상태를 유지한다(S1102).On the other hand, when the wakeup event is not generated as a result of the determination of step S1104 (S1104: NO), the terminal 600 maintains a standby state (S1102).
도 12는 도 6에 도시된 단말기가 제스처 입력에 대응하는 동작을 수행하는 방법의 또 다른 예를 도시한 순서도이다.FIG. 12 is a flowchart illustrating still another example of a method in which the terminal illustrated in FIG. 6 performs an operation corresponding to a gesture input.
도 12를 참조하면, 먼저 단말기(600)는 레디 상태를 유지하고 있다(S1202). 본 실시예에서 레디 상태는, 단말기(600)가 동작 인식 기능 이외의 다른 기능을 실행하고 있는 상태 또는 상기 동작 인식 기능을 포함한 각종 기능을 실행하기 위한 사용자 입력을 수신한 이후의 상태를 가리킨다. 레디 상태에서 제어부(610)는 대상 검출부(120)의 인식 범위 내에 인식 대상이 검출되는지 여부를 판단한다(S1204).Referring to FIG. 12, first, the terminal 600 maintains a ready state (S1202). In this embodiment, the ready state indicates a state in which the terminal 600 executes a function other than the motion recognition function or a state after receiving a user input for executing various functions including the motion recognition function. In the ready state, the
단계 S1204의 판단 결과 인식 범위 내에 인식 대상이 검출된 경우 (S1204: 예), 단말기(600)는 동작 인식 기능을 실행한다(S1206). 이때 제어부(610)는 3차원 거리 정보 추출 장치(100)를 이용하여 사용자의 제스처를 제스처 입력으로서 인식할 수 있다. 단말기(600)는 사용자로부터 제스처 입력을 수신하고(S1208), 해당 제스처 입력에 대응하는 동작을 수행한다(S1210).When the recognition object is detected within the recognition range in the determination result of step S1204 (S1204: YES), the terminal 600 executes a motion recognition function (S1206). In this case, the
반면에 단계 S1204의 판단 결과 인식 범위 내에서 인식 대상이 검출되지 않은 경우 (S1204: 아니오), 단말기(600)는 레디 상태를 유지한다(S1202)On the other hand, if the recognition object is not detected within the recognition range as a result of the determination in step S1204 (S1204: NO), the terminal 600 maintains the ready state (S1202).
본 발명의 실시 예에 따른 3차원 거리 정보를 추출하는 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 실시 예에 따른 3차원 거리 정보를 추출하는 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that the method of extracting 3D distance information according to an embodiment of the present invention may be realized in the form of hardware, software, or a combination of hardware and software. Such arbitrary software may be stored in a memory such as, for example, a volatile or non-volatile storage device such as a storage device such as ROM or the like, or a memory such as a RAM, a memory chip, a device or an integrated circuit, , Or a storage medium readable by a machine (e.g., a computer), such as a CD, a DVD, a magnetic disk, or a magnetic tape, as well as being optically or magnetically recordable. The method of extracting 3D distance information according to an embodiment of the present invention may be implemented by a computer or a portable terminal including a controller and a memory, wherein the memory includes a program or instructions including implementing the embodiments of the present invention. It will be appreciated that this is an example of a machine-readable storage medium suitable for storing programs. Accordingly, the invention includes a program comprising code for implementing the apparatus or method as claimed in any of the claims, and a storage medium readable by a machine (such as a computer) for storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.
또한 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기가 기설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 3차원 거리 정보 추출 장치 또는 상기 장치가 포함된 단말기의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.In addition, the apparatus for extracting 3D distance information or the terminal including the apparatus may receive and store the program from a program providing apparatus connected by wire or wirelessly. The program providing apparatus includes a memory for storing a program, information necessary for a content protection method, and the like, including instructions for causing the 3D distance information extracting device or a terminal including the device to perform a preset content protection method; A communication unit for performing wired or wireless communication of a 3D distance information extracting device or a terminal including the device, and a request or automatic transmission of a corresponding program or a corresponding program of the 3D distance information extracting device or a terminal including the device It may include a control unit for transmitting to.
이외에도 본 발명의 다양한 실시예 또는 변형예가 있을 수 있으며, 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고, 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.The scope of the present invention should not be limited by the embodiments described, but should be determined by equivalents of the claims and the appended claims.
100: 3차원 거리 정보 추출 장치 102: 2D 카메라
104: 조명부 106: 3D 카메라
108: 거리 연산부 110: 카메라 제어부
112: 카메라 메모리 114: 근접 센서
120: 대상 검출부 600: 단말기
602: 통신 인터페이스 604: 사용자 입력부
606: 디스플레이부 608: 메모리
610: 제어부100: 3D distance information extraction device 102: 2D camera
104: lighting unit 106: 3D camera
108: distance calculation unit 110: camera control unit
112: camera memory 114: proximity sensor
120: target detection unit 600: terminal
602: communication interface 604: user input unit
606: display unit 608: memory
610: control unit
Claims (24)
상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 과정과,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.Determining whether a recognition object exists within a preset range,
Generating a 3D image of the recognition object when the recognition object exists within the preset range;
And calculating the distance from the object to be recognized using the 3D image.
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정은,
렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.The method of claim 1,
The process of determining whether the recognition object exists within the preset range,
Receiving a video input through the lens to generate a 2D image,
Determining whether the recognition object is included in the 2D image;
And determining that there is the recognition object within the preset range when the recognition object is included in the 2D image. 3D distance information extraction method of the 3D distance information extraction apparatus.
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정은,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.The method of claim 1,
The process of determining whether the recognition object exists within the preset range,
Detecting a specific object entered within the preset range;
And determining that there is the object of recognition within the preset range when the specific object is detected. 3D distance information extraction method of a 3D distance information extraction apparatus.
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정은,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 특정 객체가 포함된 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 3차원 거리 정보 추출 장치의 3차원 거리 정보 추출 방법.The method of claim 1,
The process of determining whether the recognition object exists within the preset range,
Detecting a specific object entered within the preset range;
Generating a 2D image including the specific object when the specific object is detected;
Determining whether the recognition object is included in the 2D image;
And determining that there is the recognition object within the preset range when the recognition object is included in the 2D image. 3D distance information extraction method of the 3D distance information extraction apparatus.
상기 미리 설정된 범위 이내에 상기 인식 대상이 존재하는 경우, 상기 인식 대상에 대한 3D 이미지를 생성하는 3D 카메라와,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부를 포함함을 특징으로 하는 3차원 거리 정보 추출 장치.A camera controller which determines whether a recognition object exists within a preset range,
A 3D camera generating a 3D image of the recognition object when the recognition object exists within the preset range;
And a distance calculator configured to calculate a distance from the object to be recognized using the 3D image.
렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 2D 카메라를 더 포함하고,
상기 카메라 제어부는,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 3차원 거리 정보 추출 장치.6. The method of claim 5,
Further comprising a 2D camera for receiving an image input through the lens to generate a 2D image,
The camera control unit,
It is determined whether the recognition object is included in the 2D image, and when the recognition object is included in the 2D image, the 3D distance information is determined to be within the preset range. Extraction device.
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서를 더 포함하고,
상기 카메라 제어부는,
상기 미리 설정된 범위 이내에 상기 특정 객체가 진입한 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 3차원 거리 정보 추출 장치.6. The method of claim 5,
Further comprising a proximity sensor for detecting a specific object entered within the predetermined range,
The camera control unit,
And determining that the recognition object is within the preset range when the specific object enters within the preset range.
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서와,
렌즈를 통해 상기 특정 객체를 촬영하여 상기 특정 객체에 대응하는 2D 이미지를 생성하는 2D 카메라를 더 포함하고,
상기 카메라 제어부는,
상기 미리 설정된 범위 이내에 상기 특정 객체가 진입한 경우, 상기 특정 객체에 대응하는 2D 이미지를 생성하도록 상기 2D 카메라를 제어하고,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 3차원 거리 정보 추출 장치.6. The method of claim 5,
A proximity sensor that detects a specific object entered within the preset range;
And a 2D camera for photographing the specific object through a lens to generate a 2D image corresponding to the specific object.
The camera control unit,
When the specific object enters within the preset range, the 2D camera is controlled to generate a 2D image corresponding to the specific object,
It is determined whether the recognition object is included in the 2D image, and when the recognition object is included in the 2D image, the 3D distance information is determined to be within the preset range. Extraction device.
상기 인식 대상에 대응하는 3D 이미지를 생성하는 3D 카메라와,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 거리 연산부와,
상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하고, 상기 제스처 입력에 따른 동작을 수행하는 제어부를 포함함을 특징으로 하는 단말기.An object detecting unit which detects a recognition object existing within a preset range,
A 3D camera generating a 3D image corresponding to the recognition object;
A distance calculator configured to calculate a distance from the object to be recognized using the 3D image;
And a controller configured to determine a gesture input corresponding to a shape of the object to be recognized based on the distance between the 3D image and the object to be recognized, and to perform an operation according to the gesture input.
미리 저장된 제스처 입력들 중 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 검색하고, 상기 검색 결과로써 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 상기 인식 대상의 형태에 대응하는 제스처 입력으로 결정함을 특징으로 하는 단말기.10. The apparatus according to claim 9,
Search for a gesture input including a gesture that matches the shape of the object to be recognized among prestored gesture inputs, and correspond to a shape of the object to be recognized as a result of the search; The terminal characterized in that determined by the gesture input.
상기 대상 검출부는,
렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 2D 카메라를 포함하고,
상기 제어부는,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 단말기.10. The method of claim 9,
The target detection unit,
It includes a 2D camera for receiving an image input through the lens to generate a 2D image,
The control unit,
And determining whether the recognition target is included in the 2D image, and when the recognition target is included in the 2D image, determining that the recognition target is within the preset range.
상기 대상 검출부는,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서를 포함하고,
상기 카메라 제어부는,
상기 미리 설정된 범위 이내에 상기 특정 객체가 진입한 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 단말기.10. The method of claim 9,
The target detection unit,
Proximity sensor for detecting a specific object entered within the preset range,
The camera control unit,
And when the specific object enters within the preset range, determining that the recognition target is within the preset range.
상기 대상 검출부는,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 근접 센서와,
렌즈를 통해 상기 특정 객체를 촬영하여 상기 특정 객체에 대한 2D 이미지를 생성하는 2D 카메라를 포함하고,
상기 제어부는,
상기 특정 객체가 상기 근접 센서에 의하여 검출된 경우, 상기 특정 객체에 대한 2D 이미지를 생성하도록 상기 2D 카메라를 제어하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하고, 상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정함을 특징으로 하는 단말기.10. The method of claim 9,
The target detection unit,
A proximity sensor that detects a specific object entered within the preset range;
And a 2D camera for photographing the specific object through a lens to generate a 2D image of the specific object.
The control unit,
When the specific object is detected by the proximity sensor, the 2D camera is controlled to generate a 2D image of the specific object, it is determined whether the recognition target is included in the 2D image, and the 2D image is And when the recognition target is included, determining that the recognition target is within the preset range.
대기 상태인 단말기에 웨이크 업 이벤트가 발생하였는지 여부를 판단하고, 상기 웨이크 업 이벤트가 발생한 경우, 상기 인식 대상을 검출하도록 상기 대상 검출부를 제어함을 특징으로 하는 단말기.10. The apparatus according to claim 9,
And determining whether a wake-up event has occurred in the terminal in a standby state, and if the wake-up event occurs, controlling the target detector to detect the recognition object.
단말기가 레디 상태인 경우, 상기 인식 대상을 검출하도록 상기 대상 검출부를 제어함을 특징으로 하는 단말기.10. The apparatus according to claim 9,
And when the terminal is in the ready state, controlling the target detection unit to detect the recognition target.
미리 설정된 기준 시간 이내에 상기 인식 대상이 검출되지 않는 경우, 상기 인식 대상이 상기 미리 설정된 범위 이내에 존재하지 않는 것으로 결정함을 특징으로 하는 단말기.16. The apparatus of claim 15,
And if the recognition object is not detected within a preset reference time, determining that the recognition object does not exist within the preset range.
미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정과,
상기 인식 대상에 대응하는 3D 이미지를 생성하는 과정과,
상기 3D 이미지를 이용하여 상기 인식 대상과의 거리를 계산하는 과정과,
상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하는 과정과,
상기 제스처 입력에 따른 동작을 수행하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.In the method for the terminal to perform an operation corresponding to the gesture input,
Detecting a recognition object existing within a preset range;
Generating a 3D image corresponding to the object to be recognized;
Calculating a distance from the object to be recognized using the 3D image;
Determining a gesture input corresponding to a shape of the object to be recognized based on the distance between the 3D image and the object to be recognized;
And a step of performing an operation according to the gesture input.
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은, 렌즈를 통해 입력되는 영상을 수신하여 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.18. The method of claim 17,
The detecting of the recognition object existing within the preset range may include: receiving a video input through a lens and generating a 2D image;
Determining whether the recognition object is included in the 2D image;
If the recognition object is included in the 2D image, determining that the recognition object is within the preset range.
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은,상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.18. The method of claim 17,
The detecting of the recognition object existing within the preset range may include: detecting a specific object that has entered within the preset range;
And when the specific object is detected, determining that the recognition target is within the preset range.
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은,
상기 미리 설정된 범위 이내에 진입한 특정 객체를 검출하는 과정과,
상기 특정 객체가 검출된 경우, 상기 특정 객체가 포함된 2D 이미지를 생성하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는지 여부를 판단하는 과정과,
상기 2D 이미지에 상기 인식 대상이 포함되어 있는 경우, 상기 미리 설정된 범위 이내에 상기 인식 대상이 있는 것으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.18. The method of claim 17,
Detecting a recognition object existing within the preset range,
Detecting a specific object entered within the preset range;
Generating a 2D image including the specific object when the specific object is detected;
Determining whether the recognition object is included in the 2D image;
If the recognition object is included in the 2D image, determining that the recognition object is within the preset range.
상기 3D 이미지 및 상기 인식 대상과의 거리를 기초로 상기 인식 대상의 형태에 대응하는 제스처 입력을 결정하는 과정은,
미리 설정된 제스처 입력들 중 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 검색하는 과정과,
상기 검색 결과로써 상기 인식 대상의 형태와 일치하는 제스처를 포함하는 제스처 입력을 상기 인식 대상의 형태에 대응하는 제스처 입력으로 결정하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.18. The method of claim 17,
The determining of the gesture input corresponding to the shape of the object to be recognized is based on the distance between the 3D image and the object to be recognized.
Searching for a gesture input including a gesture that matches the shape of the object to be recognized among preset gesture inputs;
And determining, as a result of the search, a gesture input including a gesture corresponding to the shape of the object to be recognized as a gesture input corresponding to the shape of the object to be recognized.
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정 이전에,
대기 상태인 단말기에 웨이크 업 이벤트가 발생하였는지 여부를 판단하는 과정을 더 포함하고,
상기 미리 설정된 범위 이내에 존재하는 인식 대상을 검출하는 과정은,
상기 웨이크 업 이벤트가 발생한 경우, 2D 카메라 및 근접 센서 중 적어도 하나를 이용하여 상기 미리 설정된 범위 이내에 진입한 상기 인식 대상을 검출하는 과정을 포함함을 특징으로 하는 단말기의 동작 방법.18. The method of claim 17,
Before the process of detecting the recognition object existing within the preset range,
Determining whether a wake-up event has occurred in the terminal in a standby state;
Detecting a recognition object existing within the preset range,
And detecting, by the at least one of the 2D camera and the proximity sensor, the recognition object entering the predetermined range when the wake up event occurs.
상기 미리 설정된 범위 이내에 인식 대상이 존재하는지 여부를 판단하는 과정 이전에,
단말기가 레디 상태인 경우, 2D 카메라 및 근접 센서 중 적어도 하나를 이용하여 상기 미리 설정된 범위 이내에 진입한 상기 인식 대상을 검출하는 과정을 더 포함함을 특징으로 하는 단말기의 동작 방법.18. The method of claim 17,
Before the process of determining whether a recognition object exists within the preset range,
If the terminal is in the ready state, using the at least one of the 2D camera and the proximity sensor further comprises the step of detecting the recognition object entered into the preset range.
상기 미리 설정된 기준 시간 이내에 상기 인식 대상이 검출되지 않는 경우, 상기 인식 대상이 상기 미리 설정된 범위 이내에 존재하지 않는 것으로 결정하는 과정을 더 포함함을 특징으로 하는 단말기의 동작 방법.24. The method of claim 23,
And if the recognition object is not detected within the preset reference time, determining that the recognition object does not exist within the preset range.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/012,453 US20140062864A1 (en) | 2012-09-03 | 2013-08-28 | Method and apparatus for extracting three-dimensional distance information from recognition target |
EP13182589.5A EP2703954A3 (en) | 2012-09-03 | 2013-09-02 | Method and apparatus for extracting three-dimensional distance information from recognition target |
CN201310395021.3A CN103677255A (en) | 2012-09-03 | 2013-09-03 | Method and apparatusfor extracting three-dimensional distance information, terminals and gesture operation method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120097211 | 2012-09-03 | ||
KR20120097211 | 2012-09-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140031105A true KR20140031105A (en) | 2014-03-12 |
KR102158096B1 KR102158096B1 (en) | 2020-10-23 |
Family
ID=50643403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130094951A KR102158096B1 (en) | 2012-09-03 | 2013-08-09 | Method for extracting three dimensional distance information from recognition object and apparatus therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102158096B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150138470A (en) * | 2014-05-29 | 2015-12-10 | 주식회사 듀얼어퍼처인터네셔널 | Display screen controlling apparatus in mobile terminal and method thereof |
WO2020246652A1 (en) * | 2019-06-07 | 2020-12-10 | (주)씨유박스 | Gate control method and system using face authentication |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090183125A1 (en) * | 2008-01-14 | 2009-07-16 | Prime Sense Ltd. | Three-dimensional user interface |
US20110080349A1 (en) * | 2009-10-02 | 2011-04-07 | Research In Motion Limited | Method of waking up and a portable electronic device configured to perform the same |
JP2011209019A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Robot device and method of controlling the same |
WO2012011044A1 (en) * | 2010-07-20 | 2012-01-26 | Primesense Ltd. | Interactive reality augmentation for natural interaction |
KR20120053275A (en) * | 2010-11-17 | 2012-05-25 | 삼성전자주식회사 | Method and apparatus for estimating 3d face position |
-
2013
- 2013-08-09 KR KR1020130094951A patent/KR102158096B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090183125A1 (en) * | 2008-01-14 | 2009-07-16 | Prime Sense Ltd. | Three-dimensional user interface |
US20110080349A1 (en) * | 2009-10-02 | 2011-04-07 | Research In Motion Limited | Method of waking up and a portable electronic device configured to perform the same |
JP2011209019A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Robot device and method of controlling the same |
WO2012011044A1 (en) * | 2010-07-20 | 2012-01-26 | Primesense Ltd. | Interactive reality augmentation for natural interaction |
KR20120053275A (en) * | 2010-11-17 | 2012-05-25 | 삼성전자주식회사 | Method and apparatus for estimating 3d face position |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150138470A (en) * | 2014-05-29 | 2015-12-10 | 주식회사 듀얼어퍼처인터네셔널 | Display screen controlling apparatus in mobile terminal and method thereof |
WO2020246652A1 (en) * | 2019-06-07 | 2020-12-10 | (주)씨유박스 | Gate control method and system using face authentication |
Also Published As
Publication number | Publication date |
---|---|
KR102158096B1 (en) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108900767B (en) | Camera device and control method thereof | |
US9900500B2 (en) | Method and apparatus for auto-focusing of an photographing device | |
KR101879478B1 (en) | Method to extend laser depth map range | |
KR102157313B1 (en) | Method and computer readable recording medium for recognizing an object using a captured image | |
US8537231B2 (en) | User interface system based on pointing device | |
US10175764B2 (en) | Method of controlling an operation of a camera apparatus and a camera apparatus | |
CN102196176A (en) | Information processing apparatus, information processing method, and program | |
KR100918094B1 (en) | Guesture recognition system having mobile video camera | |
US20160041632A1 (en) | Contact detection system, information processing method, and information processing apparatus | |
WO2022110614A1 (en) | Gesture recognition method and apparatus, electronic device, and storage medium | |
WO2008004331A1 (en) | Voice outputting method and device linked to images | |
JP2011239279A (en) | Remote control device and remote control method | |
KR101724108B1 (en) | Device control method by hand shape and gesture and control device thereby | |
TW202013151A (en) | Method and apparatus for interaction with virtual and real images | |
KR102158096B1 (en) | Method for extracting three dimensional distance information from recognition object and apparatus therefor | |
TW201413497A (en) | Interaction system and motion detection method | |
KR20160088719A (en) | Electronic device and method for capturing an image | |
US20140301603A1 (en) | System and method for computer vision control based on a combined shape | |
EP2703954A2 (en) | Method and apparatus for extracting three-dimensional distance information from recognition target | |
KR102070598B1 (en) | Camera apparatus and method for controlling thereof | |
US11106325B2 (en) | Electronic apparatus and control method thereof | |
JP6510134B1 (en) | Estimation system and estimation apparatus | |
KR100843586B1 (en) | Device capable of non-contact function selection and method thereof | |
JP3159906U (en) | Image processing module | |
CN112529770A (en) | Image processing method, image processing device, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |