KR100916836B1 - Method and apparatus for recognizing pointing gesture - Google Patents
Method and apparatus for recognizing pointing gesture Download PDFInfo
- Publication number
- KR100916836B1 KR100916836B1 KR1020080050219A KR20080050219A KR100916836B1 KR 100916836 B1 KR100916836 B1 KR 100916836B1 KR 1020080050219 A KR1020080050219 A KR 1020080050219A KR 20080050219 A KR20080050219 A KR 20080050219A KR 100916836 B1 KR100916836 B1 KR 100916836B1
- Authority
- KR
- South Korea
- Prior art keywords
- human body
- gesture
- directed
- position information
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
본 발명은 지시형 제스처를 인식하는 방법 및 장치에 관한 것으로서, 더욱 상세하게는 스테레오 카메라를 장착한 이동형 장치에서 사람의 제스처를 검출하여, 해당 제스처의 지시 방향을 인식하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing a directed gesture, and more particularly, to a method and apparatus for detecting a gesture of a person in a mobile device equipped with a stereo camera and recognizing a direction of the gesture.
컴퓨터를 컨트롤하기 위한 가장 일반적인 사용자 인터페이스는 키보드와 마우스를 이용하는 것이며, WIMP (Windows, Icons, Menus and Pointing devices) 패러다임이 최근의 GUIs (Graphical User Interfaces)에 대한 주류가 됨에 따라 지시형 제스처와 클릭 동작만으로도 충분히 컴퓨터를 컨트롤하는 것이 가능하게 되었다.The most common user interface for controlling a computer is using a keyboard and mouse, and directed gestures and click actions as the WIMP (Windows, Icons, Menus and Pointing devices) paradigm has become the mainstream for modern graphical user interfaces (GUIs). It is possible to fully control the computer alone.
특히, 모바일 로봇의 발달로 인하여 동적 환경에서의 지시형 제스처 기술이 다양한 응용 분야에서 요구되고 있는데, 지시형 제스처는 사용자가 손을 이용하여 방향을 가리키는 동작을 통하여 의사를 표현하는 것으로서, 물체 또는 방향을 가리키거나 디스플레이 화면에서의 마우스를 움직일 수 있는 인터페이스를 제공한다. In particular, due to the development of a mobile robot, a directed gesture technology in a dynamic environment is required in various application fields. A directed gesture is a user's expression of intention through an operation of pointing a direction using a hand, an object or a direction. It provides an interface to point to or move the mouse on the display screen.
그 중, 카메라를 이용하여 사용자의 제스처를 인식하는 기술과 관련하여 HCI(Human Computer Interaction), HRI(Human Robot Interaction), 스마트 홈(Smart Home) 등의 분야에서 연구가 활발히 이루어지고 있다. Among them, research has been actively conducted in the fields of human computer interaction (HCI), human robot interaction (HRI), smart home, and the like, regarding a technology of recognizing a gesture of a user using a camera.
HCI는 사람과 컴퓨터간의 자연스러운 상호작용에 관련 연구로서, 음성을 통해 사람과 컴퓨터를 연결하고자 하는 음성 인식(Speech Recognition) 기술, 음성 합성(Speech Synthesis or Text-to-Speech) 기술, 기계가 사람의 일상적인 언어나 의사를 처리할 수 있게 하는 자연어 처리(Natural Language Processing) 기술 등이 있다.HCI is a study on the natural interaction between humans and computers. Speech Recognition technology, Speech Synthesis or Text-to-Speech technology that attempts to connect humans and computers through voice, Natural Language Processing technology, which makes it possible to handle everyday language or pseudo.
HRI는 다양한 의사소통 채널을 통해 사람과 로봇이라는 두 개체 간의 상호 작용 및 의사 소통 연결 고리를 형성하는 기술로서 음성 인식 기술, 제스처 인식 기술, 촉각/힘 인식 및 감정 인식 기술 등이 있으며, 로봇이 인간의 의사 표시를 인식하기 위한 인식 기술과, 원격지에 위치한 로봇의 동작을 제어하기 위한 원격 조작을 위한 인터페이스 기술, 그리고 인간과 로봇간의 암묵적, 쌍방향적 의사 소통을 위한 인지 및 감정 상호 작용 기술로 크게 구분할 수 있다HRI is a technology that forms an interaction and communication link between two objects, human and robot, through various communication channels, and includes voice recognition technology, gesture recognition technology, tactile / force recognition and emotion recognition technology. It can be divided into recognition technology for recognizing the intention of human beings, interface technology for remote operation for controlling the operation of robot located at a remote place, and cognitive and emotional interaction technology for implicit and interactive communication between human and robot. Can
상술한 바와 같이, 종래의 관련 기술 분야에서도 지시형 제스처를 인식하는 연구가 진행되어 왔지만, 공통적으로 다음과 같은 문제점들을 가지고 있다. As described above, researches for recognizing directed gestures have also been conducted in the related art, but have the following problems in common.
먼저, 카메라가 고정되어 있다는 것을 가정하기 때문에 이동 가능한 모바일 장치 환경이나 사람이 이동하는 환경에서는 기술적인 문제로 사용이 어려울 뿐만 아니라, 사용자가 특정 위치, 즉 카메라가 고정되어 있는 주변으로 이동하여야만 지시가 가능한 단점이 있다.First of all, it is assumed that the camera is fixed, so it is difficult to use it as a technical problem in a mobile mobile device environment or a human moving environment. There are possible drawbacks.
두 번째로, 지시형 제스처를 수행할 때의 인체의 구조적인 특성이 고려되어 있지 않다.Secondly, the structural characteristics of the human body when performing the directed gesture are not considered.
사용자의 의도를 가장 잘 나타낼 수 있는 지시 방향을 얻기 위해서는 지시형 제스처를 수행할 때의 인체의 구조적인 특성을 포함하여 계산하는 것이 필수적인데, 종래의 관련 기술에서는 이에 대한 고려가 없어 정확한 지시 방향을 파악하기 어렵고 인식 에러를 발생시킬 가능성이 높다. In order to obtain the direction indicating the best intention of the user, it is essential to calculate the structural characteristics of the human body when performing the directed gesture. Difficult to identify and likely to cause recognition errors.
세 번째로, 지시형 제스처를 이용하여 다양한 기능을 수행할 수 있음에도 불구하고, 종래의 관련 기술들은 제한적인 기능만을 수행할 수 있는 것이 대부분이어서 응용 분야가 한정되는 단점이 있다.Third, although various functions can be performed by using an indication gesture, the related arts of the related art have a disadvantage in that application fields are limited because most of them can perform only limited functions.
이에, 한국 공개 특허 제 2007-16794호(제스처 기반의 제어 시스템을 위한 시스템 및 방법) 및 한국 공개 특허 제 2002-25198호(타켓을 위치시키는 방법 및 장치, 이미지 처리기, 그리고 타켓 및 타켓 포인트 식별 방법)에서 사용자의 제스처를 정확하게 인식하는 기술을 개시하고 있으나, 상술한 종래의 관련 기술들의 단점은 여전히 해소하지 못하며, 특히, 동적인 환경 및 3차원 공간의 고려가 없거나 부족하여, 지시형 제스처의 발생을 정확히 감지하는 제스처 검출에 대한 문제 해결 방안을 제시하지 못하고 있다.Accordingly, Korean Patent Publication No. 2007-16794 (system and method for gesture-based control system) and Korean Patent Application Publication No. 2002-25198 (targeting method and device, image processor, and target and target point identification method) Although a technique for accurately recognizing a user's gesture is disclosed, the disadvantages of the related arts described above are still not solved, and in particular, there is no consideration or lack of dynamic environment and three-dimensional space. It does not provide a solution to the problem of gesture detection that accurately detects the error.
본 발명은 사용자가 이동 가능한 환경에서도 인체의 구조적 특징을 고려하여 사용자의 지시형 제스처를 정확하게 인식하는데 그 목적이 있다.An object of the present invention is to accurately recognize a user's directed gesture in consideration of structural features of a human body even in an environment in which the user is movable.
본 발명의 다른 목적은 사용자가 이동 가능한 환경에서도 사용자의 지시형 제스처를 정확하게 인식함으로써, 제한된 장소에서만 사용 가능했던 지시형 제스처의 사용 장소 범위를 더 확장시키는 것이다.Another object of the present invention is to further expand the range of use of the directed gesture that was available only in limited places by accurately recognizing the directed gesture of the user even in a mobile environment.
본 발명의 또 다른 목적은 사용자의 지시형 제스처를 정확하게 인식함으로써, 해당 지시형 제스처에 대응하는 제어 기능을 정확히 수행하는 것이다.Still another object of the present invention is to accurately recognize a user's directed gesture, thereby accurately performing a control function corresponding to the directed gesture.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood from the following description.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 스테레오 카메라를 장착한 이동형 장치의 지시형 제스처 인식 방법은, (a) 상기 스테레오 카메라에 의해 촬영된 영상을 입력 받는 단계, (b) 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 단계, (c) 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 단계, (d) 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 단계, (e) 상기 지시형 제스처가 발생한 경우, 상기 이동형 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시 형 제스처의 지시 방향을 계산하는 단계, (f) 상기 이동형 장치의 위치 정보 및 미리 저장된 제어 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 의한 지시 위치를 계산하는 단계, (g) 상기 지시 위치에 제어 대상이 존재 하는 경우, 상기 검출된 지시형 제스처가 의도하는 기능을 분석하는 단계 및 (h) 상기 제어 대상이 상기 지시형 제스처가 의도하는 기능을 실행하도록 제어하는 단계를 포함한다.In order to achieve the above object, the directed gesture recognition method of a mobile device equipped with a stereo camera according to an aspect of the present invention, (a) receiving an image captured by the stereo camera, (b) the input Detecting a human body region from the detected image, and extracting position information of a human component required for indicating a gesture gesture from the detected human body region, and (c) obtaining position information of a hand among the extracted position information of the human component. Correcting, (d) detecting whether the directed gesture is generated through the corrected position information of the hand, and (e) when the directed gesture occurs, the position information of the mobile device and the corrected hand. Calculating an indication direction of the directed gesture based on the position information of (f) positioning of the mobile device and positioning of a control object previously stored; Projecting a beam to a three-dimensional space model to calculate a pointed position according to the pointing direction; (g) analyzing a function intended by the detected directed gesture when there is a control object at the pointed position; h) controlling the control object to execute a function intended by the directed gesture.
상기 목적을 달성하기 위하여, 본 발명의 다른 측면에 따른 스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치는, 상기 스테레오 카메라를 통해 촬영된 영상에 대한 데이터를 입력 받는 영상 데이터 입력부, 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처의 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 인체 검출부, 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 손 위치 보정부, 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 지시형 제스처 검출부, 상기 지시형 제스처가 발생한 경우, 상기 지시형 제스처 인식 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시형 제스처의 지시 방향을 계산하고, 상기 계산된 지시 방향과 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 상기 검출된 지시형 제스처가 의도하는 기능을 인식하는 지시형 제스처 인식부 및 상기 인식된 기능에 기초하여 상기 제어 대상이 상기 기능을 수행하도록 제어하는 제어부를 포함한다.In order to achieve the above object, a moveable directed gesture recognition apparatus equipped with a stereo camera according to another aspect of the present invention, the image data input unit for receiving data for the image captured by the stereo camera, the input image A human body detecting unit for detecting a human body region and extracting position information of a human component required for the recognition of the directive gesture in the detected human body region, and a hand for correcting the position information of the hand among the extracted position information of the human component A position correcting unit, an indication gesture detecting unit detecting whether the indication gesture is generated based on the position information of the corrected hand, and when the indication gesture occurs, the position information of the indication gesture recognition device and the corrected hand Calculate an instruction direction of the directed gesture based on the positional information of the; The control object performs the function on the basis of the recognized gesture and the indication gesture recognition unit for recognizing a function intended by the detected indication gesture by using the indication direction and position information of the control object stored in advance. It includes a control unit for controlling to.
상기 목적을 달성하기 위하여, 본 발명의 또 다른 측면에 따른 스테레오 카 메라를 장착한 이동형 장치의 지시형 제스처를 인식하기 위한 프로그램을 기록한 기록 매체에 있어서, 상기 프로그램은 (a) 상기 스테레오 카메라에 의해 촬영된 영상을 입력 받는 단계, (b) 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 단계, (c) 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 단계, (d) 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 단계, (e) 상기 지시형 제스처가 발생한 경우, 상기 이동형 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시형 제스처의 지시 방향을 계산하는 단계, (f) 상기 이동형 장치의 위치 정보 및 미리 저장된 제어 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 의한 지시 위치를 계산하는 단계, (g) 상기 지시 위치에 제어 대상이 존재 하는 경우, 상기 검출된 지시형 제스처가 의도하는 기능을 분석하는 단계 및 (h) 상기 제어 대상이 상기 지시형 제스처가 의도하는 기능을 실행하도록 제어하는 단계를 구현하기 위한 프로그램 코드를 포함한다.In order to achieve the above object, a recording medium having recorded thereon a program for recognizing an indication gesture of a mobile device equipped with a stereo camera according to another aspect of the present invention, the program is (a) by the stereo camera; Receiving a photographed image, (b) detecting a human body region from the input image, and extracting position information of a human component required for indicating gesture recognition from the detected human body region, (c) extracting Correcting the position information of the hand among the position information of the human body component; (d) detecting whether the directed gesture is generated through the corrected position information of the hand, (e) generating the directed gesture Calculating a direction of indication of the directed gesture based on the position information of the mobile device and the position information of the corrected hand, (f) Calculating the position of the indication according to the direction of the instruction by projecting the positional information of the mobile device and the positional information of the control object previously stored on the three-dimensional space model, (g) when the control object exists at the position of the indication, Program code for implementing a step of analyzing a function intended by the directed gesture and (h) controlling the control target to execute a function intended by the directed gesture.
상기 목적을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술된 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above object will be apparent with reference to the embodiments described below in detail with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 실시예들은 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, but may be configured in different forms, and the present embodiments are intended to complete the disclosure of the present invention and to provide general knowledge in the technical field to which the present invention belongs. It is provided to fully inform those who have the scope of the invention.
전술한 본 발명의 지시형 제스처를 인식하는 방법 및 장치의 과제 해결 수단 중 하나에 의하면, 다음과 같은 효과가 하나 혹은 그 이상 있다.According to one of the problem solving means of the method and apparatus for recognizing the directed gesture of the present invention described above, there are one or more of the following effects.
사용자가 이동 가능한 환경에서도 인체의 구조적 특징을 고려하여 사용자의 지시형 제스처를 정확하게 인식할 수 있는 장점이 있다.Even in an environment in which the user is movable, there is an advantage of accurately recognizing the user's directed gesture in consideration of structural features of the human body.
또한, 사용자가 이동 가능한 환경에서도 사용자의 지시형 제스처를 정확하게 인식함으로써, 제한된 장소에서만 사용 가능했던 지시형 제스처의 사용 장소 범위를 더 확장시킬 수 있는 장점이 있다.In addition, by accurately recognizing the user's directed gesture even in an environment in which the user is movable, there is an advantage in that the range of the place of use of the directed gesture that has been available only in limited places can be further extended.
또한, 사용자의 지시형 제스처를 정확하게 인식함으로써, 해당 지시형 제스처에 대응하는 제어 기능을 정확히 수행할 수 있는 장점이 있다.In addition, by accurately recognizing the user's directed gesture, there is an advantage that the control function corresponding to the directed gesture can be accurately performed.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명하도록 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.
그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. .
또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.In addition, when a part is said to "include" a certain component, it means that it may further include other components, except to exclude other components unless specifically stated otherwise.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, it will be described in detail for the practice of the present invention.
도 1은 본 발명의 일 실시예에 따른 지시형 제스처를 인식하는 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing an indication gesture according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치(100)는 스테레오 카메라(110), 스테레오 카메라(110)를 통해 촬영된 영상에 대한 데이터를 입력 받는 영상 데이터 입력부(120), 입력된 영상 데이터에서 사람이 존재하는 것으로 판단된 경우, 인체 영역을 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 인체 검출부(130), 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 손 위치 보정부(140), 보정된 손의 위치 정보를 통해 지시형 제스처의 발생 여부를 판단하고, 지시형 제스처가 발생한 경우, 지시형 제스처를 검출하는 지시형 제스처 검출부(150), 지시형 제스처가 발생한 경우 지시형 제스처 인식 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 지시형 제스처 검출부(150)에서 검출된 지시형 제스처의 지시 방향을 계산하고, 계산된 지시 방향과 미리 저장되어 있는 제 어 대상의 위치 정보를 이용하여, 검출된 지시형 제스처가 의도하는 기능을 인식하는 지시형 제스처 인식부(160) 및 인식된 기능에 기초하여 제어 대상이 상기 기능을 수행하도록 제어하는 제어부(170)를 포함할 수 있다.According to an embodiment of the present invention, a movable directed
본 발명의 일 실시예에 따른 도 1에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다. 1 according to an embodiment of the present invention refers to software or a hardware component such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and performs predetermined roles.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.
예를 들어, 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치(100)는 소정의 구동 장치를 통하여 이동이 가능하며, 장착된 스테레오 카메라를 통해 움직이는 대상을 추적하고 촬영 가능한 로봇일 수 있다.For example, the moveable directed
먼저, 도 1에 도시된 장치(100) 중 영상 데이터 입력부(120)는 스테레오 카메라(110)를 통해 촬영된 영상에 대한 데이터를 입력받는다.First, the image
이때, 입력받는 데이터는 컬러 영상(color image)과 깊이 영상(depth image)을 포함하는데, 도 1에 도시된 지시형 제스처 인식 장치(100)는 지시형 제스처 인식 장치(100) 및 사용자 모두가 이동 가능한 환경에서, 사용자가 지시형 제스처를 이용하여 3차원 공간을 지시하는 것을 인식해야 하기 때문에, 컬러 영상 외에 깊이 영상까지 획득 가능한 스테레오 카메라를 사용하는 것이 바람직하다.In this case, the received data includes a color image and a depth image. In the directed
한편, 인체 검출부(130)는 영상 데이터 입력부(120)를 통해 입력된 영상에서 인체 영역을 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소를 추출한다.Meanwhile, the
이를 위해 인체 검출부(130)는 깊이 영상을 이용하여 입력된 영상에 사람이 존재하는지를 분석하고, 사람이 존재하는 것으로 판단된 경우, 인체 영역을 깊이 영상에서 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 얼굴, 손, 어깨 등을 포함하는 인체 구성 요소를 검출한다.To this end, the
도 2는 인체 검출부(130)의 세부 구성을 도시한 블록도로서, 영상 데이터 입력부(120)에서 입력된 컬러 영상과 깊이 영상을 이용하여 사람의 존재 유무를 식별하는 인체 식별부(131), 사람이 존재하는 것으로 판단된 경우, 인체 영역을 검출하는 인체 영역 검출부(132), 지시형 제스처 인식에 필요한 인체 구성 요소를 식별하여, 인체 구성 요소의 위치를 추출하는 인체 구성 요소 추출부(133)를 포함한다.FIG. 2 is a block diagram illustrating a detailed configuration of the human
인체 식별부(131)는 깊이 영상에서 사람 크기의 대상에 대해 다양한 기하학 적 정보를 이용하여 사람인지 아닌지를 식별하는데, 이는 깊이 영상을 사용함으로써, 사용자가 이동할 수 있는 환경에서도 조명 변화와 배경에 무관하게 사람을 신뢰성 있게 검출할 수 있는 장점이 있다.The human
예를 들어, 사람의 존재 유무를 식별하는데 사용되는 기하학적 정보로는, 영역의 가로 세로 비율, 영역이 존재하는 위치, 3차원 공간에서의 영역의 실제 크기 등의 정보가 사용될 수 있으며, 인체 식별부(131)은 상술한 정보들 중 하나 이상을 이용하여 사람의 존재 유부를 식별한다. For example, as geometric information used to identify the presence of a person, information such as an aspect ratio of an area, a location where an area exists, and an actual size of the area in a three-dimensional space may be used. 131 identifies whether the person is present using one or more of the above-described information.
인체 영역 검출부(132)에서는 인체 식별부(131)에서 사람이 존재한다고 판단하는 경우 인체 영역을 검출하며, 검출된 인체 영역을 하나의 결합된 영역으로 검출하기 위해 모폴로지(morphology) 연산을 이용하여 전처리를 수행한 후 영역 결합 알고리즘을 이용하여 검출된 인체 영역을 하나의 결합된 영역으로 검출한다. The human
인체 구성 요소 추출부(133)에서는 인체 영역 검출부(132)을 통해 검출된 인체 영역에서 지시형 제스처 인식에 필요한 손, 얼굴, 어깨 등의 인체 구성 요소의 위치를 추출한다.The human
한편, 손 위치 보정부(140)는 인체 검출부(130)에서 추출된 인체 구성 요소의 위치 정보를 계산하고, 계산된 위치 정보 중 지시형 제스처를 인식하는데 가장 중요한 손의 위치 정보를 보정한다. On the other hand, the hand
손의 위치 정보를 보정하는 이유는, 지시형 제스처의 지시 방향을 좀 더 정확히 인식하기 위함이며, 이를 위해 손 위치 보정부(140)는 지시형 제스처 수행 시의 인체의 구조적 특성을 이용하여 손의 위치 정보를 보정한다.The reason for correcting the position information of the hand is to recognize the direction of the directed gesture more accurately. For this purpose, the
지시형 제스처의 지시 방향은 양 눈의 중심점과 손끝을 이어서 인식하거나, 어깨와 손끝을 이어서 인식하는 등의 방법을 사용하는데, 종래의 지시 방향 인식 방법들은 특정 각도에서는 정확한 지시 방향을 인식할 수 없으며, 또 팔을 최대로 뻗어서 지시해야만 정확한 지시 방향이 계산되는 등, 사용자가 지시형 제스처를 수행할 때 실제로 지시하는 방향과 시스템에서 인식된 지시 방향이 다르게 계산되는 단점이 있었다. The directed direction of the directed gesture uses a method of recognizing the center point and the fingertips of both eyes, or the shoulder and the fingertip. The conventional pointing direction recognition methods cannot recognize the correct pointing direction at a certain angle. In addition, when the user performs the directed gesture, the direction indicated by the user is different from the direction indicated by the system.
도 3은 본 발명의 일 실시예에 따른 손 위치 보정부(140)의 세부 구성을 도시한 블록도이다. 이하, 도 3을 참조하여 손 위치 보정부(140)의 구성 및 작용에 대해 상세하게 설명하도록 한다.3 is a block diagram showing a detailed configuration of the hand
손 위치 보정부(140)는 훈련부(141), 보정부(142) 및 훈련 데이터 DB(143)를 포함하며, 보정부(142)에서 보정된 결과는 다시 훈련부(141)로 입력되어 보정부(142)의 성능을 높이는데 사용될 수 있다.The hand
훈련부(141)는 훈련 데이터 DB(143)에 저장된 훈련 데이터를 이용하여 보정 모델을 생성할 수 있는데, 보정을 위해 사용되는 기법으로는 SVM(Support Vector Machine), 베이지언 분류 기법(Bayesian Classification), HMM(Hidden Markov Model), NN(Neural Network) 등 확률에 기반한 다양한 분류기가 사용될 수 있다. The training unit 141 may generate a calibration model by using the training data stored in the
훈련 데이터 DB(143)는 인체 구성 요소들의 위치 정보와 현재 사용자가 지시하는 방향 및 인식된 지시 방향을 저장하고 있는 훈련 데이터를 저장하고 있어, 지시 방향의 인식 오차를 줄이는데 사용될 수 있다.The
상술한 각 구성 요소의 동작을 통하여, 보정부(142)는 인체 구성 요소들의 위치 정보 중 손의 위치를 보정하는 기능을 수행하며, 이 과정을 통해 지시형 제스처의 지시 방향 인식 오차가 줄어들게 되고, 결과적으로 지시 방향을 보다 정확하게 인식할 수 있게 된다.Through the operation of each of the above-described components, the
한편, 지시형 제스처 검출부(150)는 인체 구성 요소들의 위치 정보와 보정된 손의 위치 정보를 통해 지시형 제스처 발생 여부를 판단하고, 지시형 제스처를 검출한다.On the other hand, the directed
도 4는 본 발명의 일 실시예에 따른 지시형 제스처 검출부(150)의 세부 구성을 도시한 블록도이다. 이하, 도 4를 참조하여 지시형 제스처 검출부(150)의 구성 및 동작을 상세하게 설명하도록 한다.4 is a block diagram showing a detailed configuration of the directed
지시형 제스처 검출부(150)는 훈련부(151), 검출부(152) 및 훈련 데이터 DB(153)를 포함하며, 검출부(152)에서 검출된 결과는 다시 훈련부(151)로 입력되어 검출부(152)의 성능을 높이는데 사용될 수 있다. The directed
훈련부(151)는 훈련 데이터 DB(153)에 저장된 훈련 데이터를 이용하여 검출을 위한 보정 모델을 생성할 수 있는데, 보정을 위해 사용되는 기법으로는 SVM(Support Vector Machine), 베이지언 분류 기법(Bayesian Classification), HMM(Hidden Markov Model), NN(Neural Network) 등 확률에 기반한 다양한 분류기가 사용될 수 있다.The
훈련 데이터 DB(153)는 지시형 제스처 검출에 필요한 훈련 데이터를 담고 있으며 검출부(152)의 정확성을 높이는데 사용될 수 있다.The
검출부(152)는 지시형 제스처가 발생 즉시 검출하는 기능을 수행한다. 이때 검출은, 지시형 제스처가 발생하였는지를 검출하는 동작 검출과 발생한 지시형 제스처가 현재 어떤 상태에 있는지를 검출하는 상태 검출로 나뉘어 수행될 수 있다. The
지시형 제스처의 발생과 정지는 동작 검출을 통해 검출되며, 검출된 지시형 제스처가 현재 방향을 지시하고 있는 중인지 또는 방향을 지시하기 위해 움직이고 있는지의 여부는 상태 검출을 통해 검출될 수 있다.The occurrence and stop of the directed gesture are detected through motion detection, and whether the detected directed gesture is indicating the current direction or moving to indicate the direction can be detected through the state detection.
참고로, 상태 검출은 다양한 지시형 제스처의 기능들을 모두 수행하기 위해 필요한 기능으로서, 종래 기술에서는 상태 검출이 고려되지 않았기 때문에 기술의 용도가 제한되는 단점이 존재하였다.For reference, the state detection is a function necessary to perform all the functions of the various directed gestures, and there is a disadvantage in that the use of the technology is limited because the state detection is not considered in the prior art.
한편, 지시형 제스처 인식부(160)는 지시형 제스처 검출부(150)를 통해 지시형 제스처가 발생한 것이 확인되면, 도 1에 도시된 장치(100)의 위치 정보와 손 위치 보정부(140)에서 보정된 손의 위치 정보에 기초하여 지시형 제스처 검출부(150)에서 검출된 지시형 제스처의 지시 방향을 계산한다.On the other hand, when the directed
이후, 지시형 제스처 인식부(160)는 도 1에 도시된 장치(100)의 위치 정보 및 미리 저장되어 있는 제어 대상(예를 들어, 디지털 TV, 오디오 등과 같은 디지털 기기)의 위치 정보를 3차원 공간 모델에 투영하여 지시 방향에 대한 지시 위치를 계산한다.Thereafter, the directed
그리고, 상술한 바와 같이 계산된 지시 위치와, 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 검출된 사용자의 지시형 제스처가 의도하는 기능을 인식할 수 있다.Then, by using the instruction position calculated as described above and the position information of the control target stored in advance, it is possible to recognize a function intended by the detected instruction gesture of the user.
한편, 제어부(170)는 지시형 제스처 인식부(160)에서 인식된 지시형 제스처 에 기초하여, 제어 대상이 미리 설정된 기능을 수행하도록 제어한다. The
이를 위해 제어부(170)는 지시형 제스처 인식부(160)에서 인식된 기능에 대해, 미리 규정되어있는 제어 신호를 이용하여 제어 대상이 실제로 수행할 수 있는 명령어를 생성하는데, 이때 이용되는 제어 신호는 무선 또는 유선 제어 신호일 수 있으며, 무선 제어 신호는 적외선 송신이나 블루투스(bluetooth) 등을 통해 제어 대상을 제어할 수도 있고, 도 1에 도시된 장치(100) 자체를 제어할 수도 있다.To this end, the
만일, 지시 위치에 제어 대상이 존재하지 않으면, 제어부(170)는 적절한 제어 명령을 생성하여 도 1에 도시된 장치(100)를 특정 위치로 이동시키는 이동 기능을 수행한다.If the control object does not exist in the instruction position, the
또한, 제어 대상 선택 및 해당 제어 대상을 제어하는 기능을 수행하기 위해서, 선택된 제어 대상이 제어가 필요한 대상인지 아닌지를 판단하고, 제어가 필요한 대상인 경우 필요한 제어 명령을 생성한다.In addition, in order to perform a control target selection and a function of controlling the control target, it is determined whether the selected control target is an object requiring control, and generates a necessary control command when the control target is required.
예를 들어, 사용자의 지시형 제스처가 컵을 지시한 경우에는 별도의 제어 명령을 생성하지 않지만, 디지털 TV 또는 오디오 등 가전 제품을 지시한 경우에는 제어 명령을 생성하여 해당 제어 대상을 작동시킨다.For example, when a user's directed gesture indicates a cup, a separate control command is not generated. However, when a user's directed gesture indicates a home appliance such as a digital TV or audio, a control command is generated to operate a corresponding control object.
만일, 지시된 제어 대상이 스크린을 구비한 기기인 경우, 가상 마우스 기능을 수행할 수 있는데, 가상 마우스 기능을 수행하기 위해서는 현재 스크린에 화면을 출력 중인 컴퓨터로 제어 명령을 전송하여 마우스처럼 동작을 수행하도록 할 수 있다.If the indicated control target is a device having a screen, a virtual mouse function may be performed. To perform the virtual mouse function, a control command is transmitted to a computer currently outputting a screen on a screen to perform an operation like a mouse. You can do that.
도 5 및 도 6은 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동 형 장치의 지시형 제스처 인식 과정을 도시한 흐름도이다.5 and 6 are flowcharts illustrating a directed gesture recognition process of a mobile device equipped with a stereo camera according to an embodiment of the present invention.
예를 들어, 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동형 장치는, 소정의 구동 장치를 통하여 이동이 가능하며, 장착된 스테레오 카메라를 통해 움직이는 대상을 추적하고 촬영 가능한 로봇일 수 있다.For example, a mobile device equipped with a stereo camera according to an embodiment of the present invention may be a robot capable of moving through a predetermined driving device and tracking and photographing a moving object through the mounted stereo camera.
설명의 편의상, 도 1에 도시된 장치를 참조하여 설명하도록 한다.For convenience of description, the description will be made with reference to the apparatus shown in FIG. 1.
먼저, 스테레오 카메라(110)에서 움직이는 대상을 촬영한다(S501). 여기에서 움직이는 대상은 지시형 제스처를 통해 제어 대상을 제어하기 원하는 사용자일 수 있다.First, the moving object in the
단계 S501 후, 영상 데이터 입력부(120)는 촬영된 대상에 대한 컬러 영상 데이터 및 깊이 영상 데이터를 입력 받는다(S502).After operation S501, the image
도 1에 도시된 장치(100)는 사용자가 지시형 제스처를 이용하여 3차원 공간을 지시하는 것을 인식해야 하기 때문에, 컬러 영상 외에 깊이 영상까지 획득 가능한 스테레오 카메라를 사용하는 것이 바람직하다.Since the
단계 S502 후, 인체 검출부(130)는 입력된 영상에서 사람이 존재하는 것으로 판단된 경우, 인체 영역을 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출한다.After step S502, when it is determined that a person is present in the input image, the human
이를 더 상세히 설명하면, 인체 검출부(130) 중 인체 식별부(131)는 영상 데이터 입력부(120)에 입력된 영상의 컬러 영상과 깊이 영상을 이용하여 사람의 존재 유무를 식별한다(S503).In more detail, the human
이때, 깊이 영상에서 사람 크기의 대상에 대해 다양한 기하학적 정보를 이용 하여 사람인지 아닌지를 식별하는데, 이는 깊이 영상을 사용함으로써, 사용자가 이동할 수 있는 환경에서도 조명 변화와 배경에 무관하게 사람을 신뢰성 있게 검출할 수 있는 장점이 있다. At this time, the depth image identifies whether the person is a person using various geometric information about the object of human size, and by using the depth image, the person can be reliably detected regardless of the lighting change and the background even in an environment where the user can move. There is an advantage to this.
예를 들어, 사람의 존재 유무를 식별하는데 사용되는 기하학적 정보로는, 영역의 가로 세로 비율, 영역이 존재하는 위치, 3차원 공간에서의 영역의 실제 크기 등의 정보가 사용될 수 있다.For example, as geometric information used to identify the presence or absence of a person, information such as an aspect ratio of an area, a location where an area exists, and an actual size of the area in a three-dimensional space may be used.
단계 S503 후, 인체 식별부(131)에서 사람이 존재하는 것으로 판단한 경우, 인체 영역 검출부(132)는 인체 영역을 검출한다(S504).After the step S503, when the human
이때, 인체 영역 검출부(132)는 검출된 인체 영역을 하나의 결합된 영역으로 검출하기 위해 모폴로지(morphology) 연산을 이용하여 전처리를 수행한 후 영역 결합 알고리즘을 이용하여 검출된 인체 영역을 하나의 결합된 영역으로 검출한다.In this case, the human
단계 S504 후, 인체 구성 요소 추출부(133)는 인체 영역 검출부(132)에서 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치를 추출한다(S505).After the step S504, the human
단계 S505 후, 손 위치 보정부(140)는 인체 검출부(130)에서 추출된 인체 구성 요소의 위치 정보를 계산하고, 계산된 위치 정보 중 지시형 제스처를 인식하는데 가장 중요한 손의 위치 정보를 보정한다(S506).After step S505, the hand
계산된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 이유는, 지시형 제스처의 지시 방향을 좀 더 정확히 인식하기 위함이며, 이를 위해 손 위치 보정부(140)는 지시형 제스처 수행 시의 인체의 구조적 특성을 이용하여 손의 위치 정보를 보정한다.The reason for correcting the positional information of the hand among the calculated positional information of the human body components is to more accurately recognize the direction of instruction of the directed gesture, and for this purpose, the
단계 S506 후, 지시형 제스처 검출부(150)는 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 판단하고, 지시형 제스처를 검출한다(S507).After the step S506, the directed
단계 S507 후, 즉 지시형 제스처가 발생한 경우, 지시형 제스처 인식부(160)는 도 1에 도시된 장치(100)의 위치 정보와 손 위치 보정부(140)에서 보정된 손의 위치 정보에 기초하여 지시형 제스처 검출부(150)에서 검출된 지시형 제스처의 지시 방향을 계산한다(S508).After step S507, that is, when the directed gesture occurs, the directed
단계 S508 후, 지시형 제스처 인식부(160)는 도 1에 도시된 장치(100)의 위치 정보 및 미리 저장되어 있는 주변 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 대한 지시 위치를 계산한다(S509).After step S508, the directed
단계 S509 후, 지시형 제스처 인식부(160)는 지시 위치에 제어 대상이 존재하는지 판단하고(S510), 만일 존재한다면 해당 제어 대상의 종류는 무엇인지 인식한다(S511).After step S509, the directed
단계 S511 후, 지시형 제스처 인식부(160)는 계산된 지시 방향과 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 지시형 제스처 검출부(150)에서 검출된 지시형 제스처가 의도하는 기능을 인식한다(S512).After step S511, the directed
단계 S512 후, 제어부(170)는 지시형 제스처 인식부(160)에서 인식된 기능에 대해, 미리 규정되어있는 제어 신호를 이용하여 제어 대상이 실제로 수행할 수 있는 명령어를 생성하는데, 이때 이용되는 제어 신호는 무선 또는 유선 제어 신호일 수 있으며, 무선 제어 신호는 적외선 송신이나 블루투스(bluetooth) 등을 통해 제 어 대상을 제어, 즉 인식된 지시형 제스처의 의도된 기능을 실행한다(S513).After step S512, the
만일, 단계 S510 결과, 지시 위치에 제어 대상이 존재하지 않는 경우, 제어부(170)는 적절한 제어 명령을 생성하여 도 1에 도시된 장치(100)를 특정 위치로 이동시키는 이동 기능을 수행한다(S514).If, as a result of step S510, the control object does not exist in the instruction position, the
본 발명을 통해, 사용자는 컴퓨터나 로봇, 지능형 가전 제품과의 상호 작용을 가능하게 하는 자연스럽고 직관적인 지시형 제스처 인식이 가능하다. Through the present invention, the user is able to recognize a natural and intuitive directional gesture that enables interaction with a computer, a robot or an intelligent home appliance.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.
도 1은 본 발명의 일 실시예에 따른 지시형 제스처를 인식하는 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing an indication gesture according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 인체 검출부의 세부 구성을 도시한 블록도이다.2 is a block diagram showing a detailed configuration of the human body detecting unit according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 손 위치 보정부의 세부 구성을 도시한 블록도이다.3 is a block diagram showing the detailed configuration of the hand position correction unit according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 지시형 제스처 검출부의 세부 구성을 도시한 블록도이다.4 is a block diagram showing the detailed configuration of the directed gesture detector according to an embodiment of the present invention.
도 5 및 도 6은 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동형 장치의 지시형 제스처 인식 과정을 도시한 흐름도이다.5 and 6 are flowcharts illustrating a directed gesture recognition process of a mobile device equipped with a stereo camera according to an embodiment of the present invention.
<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>
110 : 스테레오 카메라110: stereo camera
120 : 영상 데이터 입력부120: image data input unit
130 : 인체 검출부130: human body detection unit
140 : 손 위치 보정부140: hand position correction unit
150 : 지시형 제스처 검출부150: directed gesture detection unit
160 : 지시형 제스처 인식부160: directed gesture recognition unit
170 : 제어부170: control unit
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080050219A KR100916836B1 (en) | 2008-05-29 | 2008-05-29 | Method and apparatus for recognizing pointing gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080050219A KR100916836B1 (en) | 2008-05-29 | 2008-05-29 | Method and apparatus for recognizing pointing gesture |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100916836B1 true KR100916836B1 (en) | 2009-09-14 |
Family
ID=41355611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080050219A KR100916836B1 (en) | 2008-05-29 | 2008-05-29 | Method and apparatus for recognizing pointing gesture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100916836B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101156547B1 (en) * | 2010-12-30 | 2012-06-20 | 주식회사 나무가 | Searching method of face and hands using rgb color image and depth image |
KR101226668B1 (en) * | 2011-03-25 | 2013-01-25 | 주식회사 아이티엑스시큐리티 | 3 Dimensional Motion Recognition System and Method Using Stereo Camera |
KR101298023B1 (en) | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface |
KR101326230B1 (en) | 2010-09-17 | 2013-11-20 | 한국과학기술원 | Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface |
KR101414362B1 (en) * | 2013-01-30 | 2014-07-02 | 한국과학기술원 | Method and apparatus for space bezel interface using image recognition |
KR101517932B1 (en) * | 2013-06-27 | 2015-05-06 | 에이오스 주식회사 | The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition |
WO2017115905A1 (en) * | 2015-12-28 | 2017-07-06 | 전자부품연구원 | Human body pose recognition system and method |
CN107817799A (en) * | 2017-11-03 | 2018-03-20 | 北京光年无限科技有限公司 | The method and system of intelligent interaction are carried out with reference to virtual maze |
CN111857345A (en) * | 2020-07-23 | 2020-10-30 | 上海纯米电子科技有限公司 | Gesture-based control method and device |
CN111857346A (en) * | 2020-07-23 | 2020-10-30 | 上海纯米电子科技有限公司 | Gesture control method and device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH026A (en) * | 1987-11-23 | 1990-01-05 | Polaroid Corp | Common driver for shutter blade and objective lens assembly |
KR20060070280A (en) * | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | Apparatus and its method of user interface using hand gesture recognition |
KR100692526B1 (en) | 2005-12-08 | 2007-03-12 | 한국전자통신연구원 | Gesture recognition apparatus and methods for automatic control of systems |
KR20080041049A (en) * | 2006-11-06 | 2008-05-09 | 주식회사 시공테크 | Apparatus and method for generating user-interface based on hand shape recognition in a exhibition system |
-
2008
- 2008-05-29 KR KR1020080050219A patent/KR100916836B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH026A (en) * | 1987-11-23 | 1990-01-05 | Polaroid Corp | Common driver for shutter blade and objective lens assembly |
KR20060070280A (en) * | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | Apparatus and its method of user interface using hand gesture recognition |
KR100692526B1 (en) | 2005-12-08 | 2007-03-12 | 한국전자통신연구원 | Gesture recognition apparatus and methods for automatic control of systems |
KR20080041049A (en) * | 2006-11-06 | 2008-05-09 | 주식회사 시공테크 | Apparatus and method for generating user-interface based on hand shape recognition in a exhibition system |
Non-Patent Citations (1)
Title |
---|
논문(2006) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101298023B1 (en) | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface |
KR101326230B1 (en) | 2010-09-17 | 2013-11-20 | 한국과학기술원 | Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface |
KR101156547B1 (en) * | 2010-12-30 | 2012-06-20 | 주식회사 나무가 | Searching method of face and hands using rgb color image and depth image |
KR101226668B1 (en) * | 2011-03-25 | 2013-01-25 | 주식회사 아이티엑스시큐리티 | 3 Dimensional Motion Recognition System and Method Using Stereo Camera |
KR101414362B1 (en) * | 2013-01-30 | 2014-07-02 | 한국과학기술원 | Method and apparatus for space bezel interface using image recognition |
KR101517932B1 (en) * | 2013-06-27 | 2015-05-06 | 에이오스 주식회사 | The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition |
WO2017115905A1 (en) * | 2015-12-28 | 2017-07-06 | 전자부품연구원 | Human body pose recognition system and method |
CN107817799A (en) * | 2017-11-03 | 2018-03-20 | 北京光年无限科技有限公司 | The method and system of intelligent interaction are carried out with reference to virtual maze |
CN107817799B (en) * | 2017-11-03 | 2021-06-15 | 北京光年无限科技有限公司 | Method and system for intelligent interaction by combining virtual maze |
CN111857345A (en) * | 2020-07-23 | 2020-10-30 | 上海纯米电子科技有限公司 | Gesture-based control method and device |
CN111857346A (en) * | 2020-07-23 | 2020-10-30 | 上海纯米电子科技有限公司 | Gesture control method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100916836B1 (en) | Method and apparatus for recognizing pointing gesture | |
JP6480434B2 (en) | System and method for direct pointing detection for interaction with digital devices | |
CN107428004B (en) | Automatic collection and tagging of object data | |
US8933882B2 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
US8606735B2 (en) | Apparatus and method for predicting user's intention based on multimodal information | |
US9134800B2 (en) | Gesture input device and gesture input method | |
CN106605187B (en) | Information processing apparatus, information processing method, and program | |
US20150084859A1 (en) | System and Method for Recognition and Response to Gesture Based Input | |
US9721343B2 (en) | Method and system for gesture identification based on object tracing | |
US11809637B2 (en) | Method and device for adjusting the control-display gain of a gesture controlled electronic device | |
KR20180072978A (en) | Operation Method for activation of Home robot device and Home robot device supporting the same | |
US9081418B1 (en) | Obtaining input from a virtual user interface | |
KR20130006186A (en) | Method, terminal, and computer readable recording medium for controlling content by detecting gesture of head and gesture of hand | |
US20130293460A1 (en) | Computer vision based control of an icon on a display | |
US10488918B2 (en) | Analysis of user interface interactions within a virtual reality environment | |
US10332519B2 (en) | Information processing apparatus, information processing method, and program | |
WO2019077897A1 (en) | Information processing device, information processing method, and program | |
KR20150106823A (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
EP3092554A1 (en) | Coordinated speech and gesture input | |
WO2017104272A1 (en) | Information processing device, information processing method, and program | |
CN113497912A (en) | Automatic framing through voice and video positioning | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
WO2012063247A1 (en) | Input processing | |
US20210294482A1 (en) | Information processing device, information processing method, and program | |
JP2010079848A (en) | Item selection method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130621 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140630 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160419 Year of fee payment: 7 |
|
R401 | Registration of restoration | ||
FPAY | Annual fee payment |
Payment date: 20160726 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170707 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20180723 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190808 Year of fee payment: 11 |