KR100916836B1 - Method and apparatus for recognizing pointing gesture - Google Patents

Method and apparatus for recognizing pointing gesture Download PDF

Info

Publication number
KR100916836B1
KR100916836B1 KR1020080050219A KR20080050219A KR100916836B1 KR 100916836 B1 KR100916836 B1 KR 100916836B1 KR 1020080050219 A KR1020080050219 A KR 1020080050219A KR 20080050219 A KR20080050219 A KR 20080050219A KR 100916836 B1 KR100916836 B1 KR 100916836B1
Authority
KR
South Korea
Prior art keywords
human body
gesture
directed
position information
unit
Prior art date
Application number
KR1020080050219A
Other languages
Korean (ko)
Inventor
이성환
박창범
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020080050219A priority Critical patent/KR100916836B1/en
Application granted granted Critical
Publication of KR100916836B1 publication Critical patent/KR100916836B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

A method and an apparatus for recognizing pointing gesture are provided to recognize pointing gesture of user in consideration of a structural feature of a human body. A human body detecting unit(130) is the image inputted through the image data input unit(120), anatomy is detected. The human body detecting unit extracts location information of the human body element. A hand location correcting unit(140) amends the location information of the hand. A pointing gesture detecting unit(150) detects a generation of a pointing gesture. A pointing gesture recognizing unit(160) calculates the pointing direction of the pointing gesture based on the location information of the pointing gesture recognition apparatus and location information of the corrected hand as described above. The location information of the control object stored with the calculated pointing direction as described above in advance is used. The pointing gesture recognizing unit recognizes clearly the function in which the detected pointing gesture is intended.

Description

지시형 제스처를 인식하는 방법 및 장치{METHOD AND APPARATUS FOR RECOGNIZING POINTING GESTURE}METHOD AND APPARATUS FOR RECOGNIZING POINTING GESTURE}

본 발명은 지시형 제스처를 인식하는 방법 및 장치에 관한 것으로서, 더욱 상세하게는 스테레오 카메라를 장착한 이동형 장치에서 사람의 제스처를 검출하여, 해당 제스처의 지시 방향을 인식하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing a directed gesture, and more particularly, to a method and apparatus for detecting a gesture of a person in a mobile device equipped with a stereo camera and recognizing a direction of the gesture.

컴퓨터를 컨트롤하기 위한 가장 일반적인 사용자 인터페이스는 키보드와 마우스를 이용하는 것이며, WIMP (Windows, Icons, Menus and Pointing devices) 패러다임이 최근의 GUIs (Graphical User Interfaces)에 대한 주류가 됨에 따라 지시형 제스처와 클릭 동작만으로도 충분히 컴퓨터를 컨트롤하는 것이 가능하게 되었다.The most common user interface for controlling a computer is using a keyboard and mouse, and directed gestures and click actions as the WIMP (Windows, Icons, Menus and Pointing devices) paradigm has become the mainstream for modern graphical user interfaces (GUIs). It is possible to fully control the computer alone.

특히, 모바일 로봇의 발달로 인하여 동적 환경에서의 지시형 제스처 기술이 다양한 응용 분야에서 요구되고 있는데, 지시형 제스처는 사용자가 손을 이용하여 방향을 가리키는 동작을 통하여 의사를 표현하는 것으로서, 물체 또는 방향을 가리키거나 디스플레이 화면에서의 마우스를 움직일 수 있는 인터페이스를 제공한다. In particular, due to the development of a mobile robot, a directed gesture technology in a dynamic environment is required in various application fields. A directed gesture is a user's expression of intention through an operation of pointing a direction using a hand, an object or a direction. It provides an interface to point to or move the mouse on the display screen.

그 중, 카메라를 이용하여 사용자의 제스처를 인식하는 기술과 관련하여 HCI(Human Computer Interaction), HRI(Human Robot Interaction), 스마트 홈(Smart Home) 등의 분야에서 연구가 활발히 이루어지고 있다. Among them, research has been actively conducted in the fields of human computer interaction (HCI), human robot interaction (HRI), smart home, and the like, regarding a technology of recognizing a gesture of a user using a camera.

HCI는 사람과 컴퓨터간의 자연스러운 상호작용에 관련 연구로서, 음성을 통해 사람과 컴퓨터를 연결하고자 하는 음성 인식(Speech Recognition) 기술, 음성 합성(Speech Synthesis or Text-to-Speech) 기술, 기계가 사람의 일상적인 언어나 의사를 처리할 수 있게 하는 자연어 처리(Natural Language Processing) 기술 등이 있다.HCI is a study on the natural interaction between humans and computers. Speech Recognition technology, Speech Synthesis or Text-to-Speech technology that attempts to connect humans and computers through voice, Natural Language Processing technology, which makes it possible to handle everyday language or pseudo.

HRI는 다양한 의사소통 채널을 통해 사람과 로봇이라는 두 개체 간의 상호 작용 및 의사 소통 연결 고리를 형성하는 기술로서 음성 인식 기술, 제스처 인식 기술, 촉각/힘 인식 및 감정 인식 기술 등이 있으며, 로봇이 인간의 의사 표시를 인식하기 위한 인식 기술과, 원격지에 위치한 로봇의 동작을 제어하기 위한 원격 조작을 위한 인터페이스 기술, 그리고 인간과 로봇간의 암묵적, 쌍방향적 의사 소통을 위한 인지 및 감정 상호 작용 기술로 크게 구분할 수 있다HRI is a technology that forms an interaction and communication link between two objects, human and robot, through various communication channels, and includes voice recognition technology, gesture recognition technology, tactile / force recognition and emotion recognition technology. It can be divided into recognition technology for recognizing the intention of human beings, interface technology for remote operation for controlling the operation of robot located at a remote place, and cognitive and emotional interaction technology for implicit and interactive communication between human and robot. Can

상술한 바와 같이, 종래의 관련 기술 분야에서도 지시형 제스처를 인식하는 연구가 진행되어 왔지만, 공통적으로 다음과 같은 문제점들을 가지고 있다. As described above, researches for recognizing directed gestures have also been conducted in the related art, but have the following problems in common.

먼저, 카메라가 고정되어 있다는 것을 가정하기 때문에 이동 가능한 모바일 장치 환경이나 사람이 이동하는 환경에서는 기술적인 문제로 사용이 어려울 뿐만 아니라, 사용자가 특정 위치, 즉 카메라가 고정되어 있는 주변으로 이동하여야만 지시가 가능한 단점이 있다.First of all, it is assumed that the camera is fixed, so it is difficult to use it as a technical problem in a mobile mobile device environment or a human moving environment. There are possible drawbacks.

두 번째로, 지시형 제스처를 수행할 때의 인체의 구조적인 특성이 고려되어 있지 않다.Secondly, the structural characteristics of the human body when performing the directed gesture are not considered.

사용자의 의도를 가장 잘 나타낼 수 있는 지시 방향을 얻기 위해서는 지시형 제스처를 수행할 때의 인체의 구조적인 특성을 포함하여 계산하는 것이 필수적인데, 종래의 관련 기술에서는 이에 대한 고려가 없어 정확한 지시 방향을 파악하기 어렵고 인식 에러를 발생시킬 가능성이 높다. In order to obtain the direction indicating the best intention of the user, it is essential to calculate the structural characteristics of the human body when performing the directed gesture. Difficult to identify and likely to cause recognition errors.

세 번째로, 지시형 제스처를 이용하여 다양한 기능을 수행할 수 있음에도 불구하고, 종래의 관련 기술들은 제한적인 기능만을 수행할 수 있는 것이 대부분이어서 응용 분야가 한정되는 단점이 있다.Third, although various functions can be performed by using an indication gesture, the related arts of the related art have a disadvantage in that application fields are limited because most of them can perform only limited functions.

이에, 한국 공개 특허 제 2007-16794호(제스처 기반의 제어 시스템을 위한 시스템 및 방법) 및 한국 공개 특허 제 2002-25198호(타켓을 위치시키는 방법 및 장치, 이미지 처리기, 그리고 타켓 및 타켓 포인트 식별 방법)에서 사용자의 제스처를 정확하게 인식하는 기술을 개시하고 있으나, 상술한 종래의 관련 기술들의 단점은 여전히 해소하지 못하며, 특히, 동적인 환경 및 3차원 공간의 고려가 없거나 부족하여, 지시형 제스처의 발생을 정확히 감지하는 제스처 검출에 대한 문제 해결 방안을 제시하지 못하고 있다.Accordingly, Korean Patent Publication No. 2007-16794 (system and method for gesture-based control system) and Korean Patent Application Publication No. 2002-25198 (targeting method and device, image processor, and target and target point identification method) Although a technique for accurately recognizing a user's gesture is disclosed, the disadvantages of the related arts described above are still not solved, and in particular, there is no consideration or lack of dynamic environment and three-dimensional space. It does not provide a solution to the problem of gesture detection that accurately detects the error.

본 발명은 사용자가 이동 가능한 환경에서도 인체의 구조적 특징을 고려하여 사용자의 지시형 제스처를 정확하게 인식하는데 그 목적이 있다.An object of the present invention is to accurately recognize a user's directed gesture in consideration of structural features of a human body even in an environment in which the user is movable.

본 발명의 다른 목적은 사용자가 이동 가능한 환경에서도 사용자의 지시형 제스처를 정확하게 인식함으로써, 제한된 장소에서만 사용 가능했던 지시형 제스처의 사용 장소 범위를 더 확장시키는 것이다.Another object of the present invention is to further expand the range of use of the directed gesture that was available only in limited places by accurately recognizing the directed gesture of the user even in a mobile environment.

본 발명의 또 다른 목적은 사용자의 지시형 제스처를 정확하게 인식함으로써, 해당 지시형 제스처에 대응하는 제어 기능을 정확히 수행하는 것이다.Still another object of the present invention is to accurately recognize a user's directed gesture, thereby accurately performing a control function corresponding to the directed gesture.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood from the following description.

상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 스테레오 카메라를 장착한 이동형 장치의 지시형 제스처 인식 방법은, (a) 상기 스테레오 카메라에 의해 촬영된 영상을 입력 받는 단계, (b) 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 단계, (c) 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 단계, (d) 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 단계, (e) 상기 지시형 제스처가 발생한 경우, 상기 이동형 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시 형 제스처의 지시 방향을 계산하는 단계, (f) 상기 이동형 장치의 위치 정보 및 미리 저장된 제어 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 의한 지시 위치를 계산하는 단계, (g) 상기 지시 위치에 제어 대상이 존재 하는 경우, 상기 검출된 지시형 제스처가 의도하는 기능을 분석하는 단계 및 (h) 상기 제어 대상이 상기 지시형 제스처가 의도하는 기능을 실행하도록 제어하는 단계를 포함한다.In order to achieve the above object, the directed gesture recognition method of a mobile device equipped with a stereo camera according to an aspect of the present invention, (a) receiving an image captured by the stereo camera, (b) the input Detecting a human body region from the detected image, and extracting position information of a human component required for indicating a gesture gesture from the detected human body region, and (c) obtaining position information of a hand among the extracted position information of the human component. Correcting, (d) detecting whether the directed gesture is generated through the corrected position information of the hand, and (e) when the directed gesture occurs, the position information of the mobile device and the corrected hand. Calculating an indication direction of the directed gesture based on the position information of (f) positioning of the mobile device and positioning of a control object previously stored; Projecting a beam to a three-dimensional space model to calculate a pointed position according to the pointing direction; (g) analyzing a function intended by the detected directed gesture when there is a control object at the pointed position; h) controlling the control object to execute a function intended by the directed gesture.

상기 목적을 달성하기 위하여, 본 발명의 다른 측면에 따른 스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치는, 상기 스테레오 카메라를 통해 촬영된 영상에 대한 데이터를 입력 받는 영상 데이터 입력부, 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처의 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 인체 검출부, 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 손 위치 보정부, 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 지시형 제스처 검출부, 상기 지시형 제스처가 발생한 경우, 상기 지시형 제스처 인식 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시형 제스처의 지시 방향을 계산하고, 상기 계산된 지시 방향과 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 상기 검출된 지시형 제스처가 의도하는 기능을 인식하는 지시형 제스처 인식부 및 상기 인식된 기능에 기초하여 상기 제어 대상이 상기 기능을 수행하도록 제어하는 제어부를 포함한다.In order to achieve the above object, a moveable directed gesture recognition apparatus equipped with a stereo camera according to another aspect of the present invention, the image data input unit for receiving data for the image captured by the stereo camera, the input image A human body detecting unit for detecting a human body region and extracting position information of a human component required for the recognition of the directive gesture in the detected human body region, and a hand for correcting the position information of the hand among the extracted position information of the human component A position correcting unit, an indication gesture detecting unit detecting whether the indication gesture is generated based on the position information of the corrected hand, and when the indication gesture occurs, the position information of the indication gesture recognition device and the corrected hand Calculate an instruction direction of the directed gesture based on the positional information of the; The control object performs the function on the basis of the recognized gesture and the indication gesture recognition unit for recognizing a function intended by the detected indication gesture by using the indication direction and position information of the control object stored in advance. It includes a control unit for controlling to.

상기 목적을 달성하기 위하여, 본 발명의 또 다른 측면에 따른 스테레오 카 메라를 장착한 이동형 장치의 지시형 제스처를 인식하기 위한 프로그램을 기록한 기록 매체에 있어서, 상기 프로그램은 (a) 상기 스테레오 카메라에 의해 촬영된 영상을 입력 받는 단계, (b) 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 단계, (c) 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 단계, (d) 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 단계, (e) 상기 지시형 제스처가 발생한 경우, 상기 이동형 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시형 제스처의 지시 방향을 계산하는 단계, (f) 상기 이동형 장치의 위치 정보 및 미리 저장된 제어 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 의한 지시 위치를 계산하는 단계, (g) 상기 지시 위치에 제어 대상이 존재 하는 경우, 상기 검출된 지시형 제스처가 의도하는 기능을 분석하는 단계 및 (h) 상기 제어 대상이 상기 지시형 제스처가 의도하는 기능을 실행하도록 제어하는 단계를 구현하기 위한 프로그램 코드를 포함한다.In order to achieve the above object, a recording medium having recorded thereon a program for recognizing an indication gesture of a mobile device equipped with a stereo camera according to another aspect of the present invention, the program is (a) by the stereo camera; Receiving a photographed image, (b) detecting a human body region from the input image, and extracting position information of a human component required for indicating gesture recognition from the detected human body region, (c) extracting Correcting the position information of the hand among the position information of the human body component; (d) detecting whether the directed gesture is generated through the corrected position information of the hand, (e) generating the directed gesture Calculating a direction of indication of the directed gesture based on the position information of the mobile device and the position information of the corrected hand, (f) Calculating the position of the indication according to the direction of the instruction by projecting the positional information of the mobile device and the positional information of the control object previously stored on the three-dimensional space model, (g) when the control object exists at the position of the indication, Program code for implementing a step of analyzing a function intended by the directed gesture and (h) controlling the control target to execute a function intended by the directed gesture.

상기 목적을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술된 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above object will be apparent with reference to the embodiments described below in detail with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 실시예들은 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, but may be configured in different forms, and the present embodiments are intended to complete the disclosure of the present invention and to provide general knowledge in the technical field to which the present invention belongs. It is provided to fully inform those who have the scope of the invention.

전술한 본 발명의 지시형 제스처를 인식하는 방법 및 장치의 과제 해결 수단 중 하나에 의하면, 다음과 같은 효과가 하나 혹은 그 이상 있다.According to one of the problem solving means of the method and apparatus for recognizing the directed gesture of the present invention described above, there are one or more of the following effects.

사용자가 이동 가능한 환경에서도 인체의 구조적 특징을 고려하여 사용자의 지시형 제스처를 정확하게 인식할 수 있는 장점이 있다.Even in an environment in which the user is movable, there is an advantage of accurately recognizing the user's directed gesture in consideration of structural features of the human body.

또한, 사용자가 이동 가능한 환경에서도 사용자의 지시형 제스처를 정확하게 인식함으로써, 제한된 장소에서만 사용 가능했던 지시형 제스처의 사용 장소 범위를 더 확장시킬 수 있는 장점이 있다.In addition, by accurately recognizing the user's directed gesture even in an environment in which the user is movable, there is an advantage in that the range of the place of use of the directed gesture that has been available only in limited places can be further extended.

또한, 사용자의 지시형 제스처를 정확하게 인식함으로써, 해당 지시형 제스처에 대응하는 제어 기능을 정확히 수행할 수 있는 장점이 있다.In addition, by accurately recognizing the user's directed gesture, there is an advantage that the control function corresponding to the directed gesture can be accurately performed.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명하도록 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. .

또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.In addition, when a part is said to "include" a certain component, it means that it may further include other components, except to exclude other components unless specifically stated otherwise.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, it will be described in detail for the practice of the present invention.

도 1은 본 발명의 일 실시예에 따른 지시형 제스처를 인식하는 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing an indication gesture according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치(100)는 스테레오 카메라(110), 스테레오 카메라(110)를 통해 촬영된 영상에 대한 데이터를 입력 받는 영상 데이터 입력부(120), 입력된 영상 데이터에서 사람이 존재하는 것으로 판단된 경우, 인체 영역을 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 인체 검출부(130), 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 손 위치 보정부(140), 보정된 손의 위치 정보를 통해 지시형 제스처의 발생 여부를 판단하고, 지시형 제스처가 발생한 경우, 지시형 제스처를 검출하는 지시형 제스처 검출부(150), 지시형 제스처가 발생한 경우 지시형 제스처 인식 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 지시형 제스처 검출부(150)에서 검출된 지시형 제스처의 지시 방향을 계산하고, 계산된 지시 방향과 미리 저장되어 있는 제 어 대상의 위치 정보를 이용하여, 검출된 지시형 제스처가 의도하는 기능을 인식하는 지시형 제스처 인식부(160) 및 인식된 기능에 기초하여 제어 대상이 상기 기능을 수행하도록 제어하는 제어부(170)를 포함할 수 있다.According to an embodiment of the present invention, a movable directed gesture recognition apparatus 100 equipped with a stereo camera includes an image data input unit configured to receive data about an image captured by the stereo camera 110 and the stereo camera 110 ( 120, when it is determined that a person exists in the input image data, the human body detecting unit 130 detects a human body region and extracts position information of a human component necessary for indicating a gesture gesture from the detected human body region. The hand position corrector 140 which corrects the position information of the hand among the position information of the component, determines whether the directed gesture is generated based on the corrected position information, and when the directed gesture occurs, Indicative gesture detection unit 150 to detect, in the case where an indication gesture occurs in the position information of the indication gesture recognition apparatus and the position information of the corrected hand By calculating the direction of indication of the indication gesture detected by the indication gesture detection unit 150 in seconds, and using the calculated indication direction and position information of the control target stored in advance, the detected indication gesture is intended. It may include a directive gesture recognition unit 160 for recognizing the control unit 170 and a control unit 170 for controlling the control target to perform the function based on the recognized function.

본 발명의 일 실시예에 따른 도 1에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다. 1 according to an embodiment of the present invention refers to software or a hardware component such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and performs predetermined roles.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.

예를 들어, 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치(100)는 소정의 구동 장치를 통하여 이동이 가능하며, 장착된 스테레오 카메라를 통해 움직이는 대상을 추적하고 촬영 가능한 로봇일 수 있다.For example, the moveable directed gesture recognition apparatus 100 equipped with a stereo camera according to an embodiment of the present invention may move through a predetermined driving device, and track a moving object through the mounted stereo camera. The robot may be photographed.

먼저, 도 1에 도시된 장치(100) 중 영상 데이터 입력부(120)는 스테레오 카메라(110)를 통해 촬영된 영상에 대한 데이터를 입력받는다.First, the image data input unit 120 of the apparatus 100 shown in FIG. 1 receives data about an image captured by the stereo camera 110.

이때, 입력받는 데이터는 컬러 영상(color image)과 깊이 영상(depth image)을 포함하는데, 도 1에 도시된 지시형 제스처 인식 장치(100)는 지시형 제스처 인식 장치(100) 및 사용자 모두가 이동 가능한 환경에서, 사용자가 지시형 제스처를 이용하여 3차원 공간을 지시하는 것을 인식해야 하기 때문에, 컬러 영상 외에 깊이 영상까지 획득 가능한 스테레오 카메라를 사용하는 것이 바람직하다.In this case, the received data includes a color image and a depth image. In the directed gesture recognition apparatus 100 illustrated in FIG. 1, both the directed gesture recognition apparatus 100 and the user move. In a possible environment, it is preferable to use a stereo camera capable of acquiring a depth image in addition to the color image because the user should recognize that the user indicates the three-dimensional space by using the directed gesture.

한편, 인체 검출부(130)는 영상 데이터 입력부(120)를 통해 입력된 영상에서 인체 영역을 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소를 추출한다.Meanwhile, the human body detector 130 detects a human body region from an image input through the image data input unit 120, and extracts a human body component required for directed gesture recognition from the detected human body region.

이를 위해 인체 검출부(130)는 깊이 영상을 이용하여 입력된 영상에 사람이 존재하는지를 분석하고, 사람이 존재하는 것으로 판단된 경우, 인체 영역을 깊이 영상에서 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 얼굴, 손, 어깨 등을 포함하는 인체 구성 요소를 검출한다.To this end, the human body detector 130 analyzes whether a person exists in the input image by using the depth image, and when it is determined that the person exists, detects the human body region from the depth image, and indicates the gesture in the detected human region. Detect human body components including face, hands, shoulders, etc. required for recognition.

도 2는 인체 검출부(130)의 세부 구성을 도시한 블록도로서, 영상 데이터 입력부(120)에서 입력된 컬러 영상과 깊이 영상을 이용하여 사람의 존재 유무를 식별하는 인체 식별부(131), 사람이 존재하는 것으로 판단된 경우, 인체 영역을 검출하는 인체 영역 검출부(132), 지시형 제스처 인식에 필요한 인체 구성 요소를 식별하여, 인체 구성 요소의 위치를 추출하는 인체 구성 요소 추출부(133)를 포함한다.FIG. 2 is a block diagram illustrating a detailed configuration of the human body detecting unit 130. The human body identifying unit 131 which identifies the presence or absence of a person using a color image and a depth image input from the image data input unit 120, and a person. If it is determined to exist, the human body region detection unit 132 for detecting the human body region, the human body component extraction unit 133 for identifying the human body components necessary for the indication gesture recognition, and extracts the position of the human body components; Include.

인체 식별부(131)는 깊이 영상에서 사람 크기의 대상에 대해 다양한 기하학 적 정보를 이용하여 사람인지 아닌지를 식별하는데, 이는 깊이 영상을 사용함으로써, 사용자가 이동할 수 있는 환경에서도 조명 변화와 배경에 무관하게 사람을 신뢰성 있게 검출할 수 있는 장점이 있다.The human body identification unit 131 identifies whether or not a person is using a variety of geometric information about the object of the human size in the depth image, which is irrelevant to the change in lighting and background even in an environment where the user can move by using the depth image There is an advantage that can be detected reliably.

예를 들어, 사람의 존재 유무를 식별하는데 사용되는 기하학적 정보로는, 영역의 가로 세로 비율, 영역이 존재하는 위치, 3차원 공간에서의 영역의 실제 크기 등의 정보가 사용될 수 있으며, 인체 식별부(131)은 상술한 정보들 중 하나 이상을 이용하여 사람의 존재 유부를 식별한다. For example, as geometric information used to identify the presence of a person, information such as an aspect ratio of an area, a location where an area exists, and an actual size of the area in a three-dimensional space may be used. 131 identifies whether the person is present using one or more of the above-described information.

인체 영역 검출부(132)에서는 인체 식별부(131)에서 사람이 존재한다고 판단하는 경우 인체 영역을 검출하며, 검출된 인체 영역을 하나의 결합된 영역으로 검출하기 위해 모폴로지(morphology) 연산을 이용하여 전처리를 수행한 후 영역 결합 알고리즘을 이용하여 검출된 인체 영역을 하나의 결합된 영역으로 검출한다. The human body detection unit 132 detects a human body area when the human body identification unit 131 determines that a person exists, and preprocesses using a morphology operation to detect the detected human body area as one combined area. Then, the detected human body region is detected as one combined region using a region combining algorithm.

인체 구성 요소 추출부(133)에서는 인체 영역 검출부(132)을 통해 검출된 인체 영역에서 지시형 제스처 인식에 필요한 손, 얼굴, 어깨 등의 인체 구성 요소의 위치를 추출한다.The human body component extractor 133 extracts positions of human components such as hands, face, and shoulders, which are required for the directed gesture recognition, in the human body region detected by the human body region detector 132.

한편, 손 위치 보정부(140)는 인체 검출부(130)에서 추출된 인체 구성 요소의 위치 정보를 계산하고, 계산된 위치 정보 중 지시형 제스처를 인식하는데 가장 중요한 손의 위치 정보를 보정한다. On the other hand, the hand position correction unit 140 calculates the position information of the human component extracted by the human body detection unit 130, and corrects the position information of the hand that is most important for recognizing the directed gesture of the calculated position information.

손의 위치 정보를 보정하는 이유는, 지시형 제스처의 지시 방향을 좀 더 정확히 인식하기 위함이며, 이를 위해 손 위치 보정부(140)는 지시형 제스처 수행 시의 인체의 구조적 특성을 이용하여 손의 위치 정보를 보정한다.The reason for correcting the position information of the hand is to recognize the direction of the directed gesture more accurately. For this purpose, the hand position corrector 140 uses the structural characteristics of the human body when performing the directed gesture. Correct the position information.

지시형 제스처의 지시 방향은 양 눈의 중심점과 손끝을 이어서 인식하거나, 어깨와 손끝을 이어서 인식하는 등의 방법을 사용하는데, 종래의 지시 방향 인식 방법들은 특정 각도에서는 정확한 지시 방향을 인식할 수 없으며, 또 팔을 최대로 뻗어서 지시해야만 정확한 지시 방향이 계산되는 등, 사용자가 지시형 제스처를 수행할 때 실제로 지시하는 방향과 시스템에서 인식된 지시 방향이 다르게 계산되는 단점이 있었다. The directed direction of the directed gesture uses a method of recognizing the center point and the fingertips of both eyes, or the shoulder and the fingertip. The conventional pointing direction recognition methods cannot recognize the correct pointing direction at a certain angle. In addition, when the user performs the directed gesture, the direction indicated by the user is different from the direction indicated by the system.

도 3은 본 발명의 일 실시예에 따른 손 위치 보정부(140)의 세부 구성을 도시한 블록도이다. 이하, 도 3을 참조하여 손 위치 보정부(140)의 구성 및 작용에 대해 상세하게 설명하도록 한다.3 is a block diagram showing a detailed configuration of the hand position correction unit 140 according to an embodiment of the present invention. Hereinafter, the configuration and operation of the hand position correction unit 140 will be described in detail with reference to FIG. 3.

손 위치 보정부(140)는 훈련부(141), 보정부(142) 및 훈련 데이터 DB(143)를 포함하며, 보정부(142)에서 보정된 결과는 다시 훈련부(141)로 입력되어 보정부(142)의 성능을 높이는데 사용될 수 있다.The hand position correction unit 140 includes a training unit 141, a correction unit 142, and a training data DB 143, and the result corrected by the correction unit 142 is again input to the training unit 141 to correct the correction unit ( 142) can be used to increase the performance.

훈련부(141)는 훈련 데이터 DB(143)에 저장된 훈련 데이터를 이용하여 보정 모델을 생성할 수 있는데, 보정을 위해 사용되는 기법으로는 SVM(Support Vector Machine), 베이지언 분류 기법(Bayesian Classification), HMM(Hidden Markov Model), NN(Neural Network) 등 확률에 기반한 다양한 분류기가 사용될 수 있다. The training unit 141 may generate a calibration model by using the training data stored in the training data DB 143. The techniques used for the calibration may include SVM (Support Vector Machine), Bayesian Classification, Various classifiers based on probability, such as Hidden Markov Model (HMM) and Neural Network (NN), may be used.

훈련 데이터 DB(143)는 인체 구성 요소들의 위치 정보와 현재 사용자가 지시하는 방향 및 인식된 지시 방향을 저장하고 있는 훈련 데이터를 저장하고 있어, 지시 방향의 인식 오차를 줄이는데 사용될 수 있다.The training data DB 143 stores the position information of the human body components and training data which stores the direction indicated by the current user and the recognized indication direction, and thus can be used to reduce the recognition error of the indication direction.

상술한 각 구성 요소의 동작을 통하여, 보정부(142)는 인체 구성 요소들의 위치 정보 중 손의 위치를 보정하는 기능을 수행하며, 이 과정을 통해 지시형 제스처의 지시 방향 인식 오차가 줄어들게 되고, 결과적으로 지시 방향을 보다 정확하게 인식할 수 있게 된다.Through the operation of each of the above-described components, the correction unit 142 performs a function of correcting the position of the hand of the position information of the human body components, through this process the direction error of the indication direction of the directed gesture is reduced, As a result, the direction of indication can be recognized more accurately.

한편, 지시형 제스처 검출부(150)는 인체 구성 요소들의 위치 정보와 보정된 손의 위치 정보를 통해 지시형 제스처 발생 여부를 판단하고, 지시형 제스처를 검출한다.On the other hand, the directed gesture detection unit 150 determines whether the directed gesture occurs through the position information of the human body components and the position information of the corrected hand, and detects the directed gesture.

도 4는 본 발명의 일 실시예에 따른 지시형 제스처 검출부(150)의 세부 구성을 도시한 블록도이다. 이하, 도 4를 참조하여 지시형 제스처 검출부(150)의 구성 및 동작을 상세하게 설명하도록 한다.4 is a block diagram showing a detailed configuration of the directed gesture detector 150 according to an embodiment of the present invention. Hereinafter, the configuration and operation of the directed gesture detector 150 will be described in detail with reference to FIG. 4.

지시형 제스처 검출부(150)는 훈련부(151), 검출부(152) 및 훈련 데이터 DB(153)를 포함하며, 검출부(152)에서 검출된 결과는 다시 훈련부(151)로 입력되어 검출부(152)의 성능을 높이는데 사용될 수 있다. The directed gesture detection unit 150 includes a training unit 151, a detection unit 152, and a training data DB 153, and the results detected by the detection unit 152 are again input to the training unit 151 to detect the detection unit 152. Can be used to increase performance.

훈련부(151)는 훈련 데이터 DB(153)에 저장된 훈련 데이터를 이용하여 검출을 위한 보정 모델을 생성할 수 있는데, 보정을 위해 사용되는 기법으로는 SVM(Support Vector Machine), 베이지언 분류 기법(Bayesian Classification), HMM(Hidden Markov Model), NN(Neural Network) 등 확률에 기반한 다양한 분류기가 사용될 수 있다.The training unit 151 may generate a calibration model for detection by using the training data stored in the training data DB 153. Examples of techniques used for the calibration may include SVM (Support Vector Machine) and BEIJIAN classification technique (Bayesian). Various classifiers based on probabilities, such as Classification, Hidden Markov Model (HMM), and Neural Network (NN), may be used.

훈련 데이터 DB(153)는 지시형 제스처 검출에 필요한 훈련 데이터를 담고 있으며 검출부(152)의 정확성을 높이는데 사용될 수 있다.The training data DB 153 contains training data necessary for the directed gesture detection and may be used to increase the accuracy of the detector 152.

검출부(152)는 지시형 제스처가 발생 즉시 검출하는 기능을 수행한다. 이때 검출은, 지시형 제스처가 발생하였는지를 검출하는 동작 검출과 발생한 지시형 제스처가 현재 어떤 상태에 있는지를 검출하는 상태 검출로 나뉘어 수행될 수 있다. The detector 152 performs a function of immediately detecting the directed gesture. In this case, the detection may be performed by being divided into an operation detection for detecting whether the directed gesture has occurred and a state detection for detecting in what state the generated indication gesture is present.

지시형 제스처의 발생과 정지는 동작 검출을 통해 검출되며, 검출된 지시형 제스처가 현재 방향을 지시하고 있는 중인지 또는 방향을 지시하기 위해 움직이고 있는지의 여부는 상태 검출을 통해 검출될 수 있다.The occurrence and stop of the directed gesture are detected through motion detection, and whether the detected directed gesture is indicating the current direction or moving to indicate the direction can be detected through the state detection.

참고로, 상태 검출은 다양한 지시형 제스처의 기능들을 모두 수행하기 위해 필요한 기능으로서, 종래 기술에서는 상태 검출이 고려되지 않았기 때문에 기술의 용도가 제한되는 단점이 존재하였다.For reference, the state detection is a function necessary to perform all the functions of the various directed gestures, and there is a disadvantage in that the use of the technology is limited because the state detection is not considered in the prior art.

한편, 지시형 제스처 인식부(160)는 지시형 제스처 검출부(150)를 통해 지시형 제스처가 발생한 것이 확인되면, 도 1에 도시된 장치(100)의 위치 정보와 손 위치 보정부(140)에서 보정된 손의 위치 정보에 기초하여 지시형 제스처 검출부(150)에서 검출된 지시형 제스처의 지시 방향을 계산한다.On the other hand, when the directed gesture recognition unit 160 confirms that the directed gesture has occurred through the directed gesture detection unit 150, the position information and the hand position correcting unit 140 of the apparatus 100 shown in FIG. The direction of the directed gesture detected by the directed gesture detector 150 is calculated based on the corrected position information of the hand.

이후, 지시형 제스처 인식부(160)는 도 1에 도시된 장치(100)의 위치 정보 및 미리 저장되어 있는 제어 대상(예를 들어, 디지털 TV, 오디오 등과 같은 디지털 기기)의 위치 정보를 3차원 공간 모델에 투영하여 지시 방향에 대한 지시 위치를 계산한다.Thereafter, the directed gesture recognition unit 160 three-dimensionally displays the position information of the apparatus 100 shown in FIG. 1 and the position information of a control object (for example, a digital device such as a digital TV or an audio) that is stored in advance. Project to the spatial model to calculate the pointing position with respect to the pointing direction.

그리고, 상술한 바와 같이 계산된 지시 위치와, 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 검출된 사용자의 지시형 제스처가 의도하는 기능을 인식할 수 있다.Then, by using the instruction position calculated as described above and the position information of the control target stored in advance, it is possible to recognize a function intended by the detected instruction gesture of the user.

한편, 제어부(170)는 지시형 제스처 인식부(160)에서 인식된 지시형 제스처 에 기초하여, 제어 대상이 미리 설정된 기능을 수행하도록 제어한다. The controller 170 controls the control target to perform a preset function based on the directive gesture recognized by the directive gesture recognition unit 160.

이를 위해 제어부(170)는 지시형 제스처 인식부(160)에서 인식된 기능에 대해, 미리 규정되어있는 제어 신호를 이용하여 제어 대상이 실제로 수행할 수 있는 명령어를 생성하는데, 이때 이용되는 제어 신호는 무선 또는 유선 제어 신호일 수 있으며, 무선 제어 신호는 적외선 송신이나 블루투스(bluetooth) 등을 통해 제어 대상을 제어할 수도 있고, 도 1에 도시된 장치(100) 자체를 제어할 수도 있다.To this end, the control unit 170 generates a command that can be actually performed by a control target using a control signal that is previously defined for a function recognized by the directive gesture recognition unit 160. The wireless control signal may be a wireless or wired control signal, and the wireless control signal may control a control target through infrared transmission, Bluetooth, or the like, or may control the device 100 itself shown in FIG. 1.

만일, 지시 위치에 제어 대상이 존재하지 않으면, 제어부(170)는 적절한 제어 명령을 생성하여 도 1에 도시된 장치(100)를 특정 위치로 이동시키는 이동 기능을 수행한다.If the control object does not exist in the instruction position, the controller 170 generates a proper control command and performs a movement function of moving the apparatus 100 shown in FIG. 1 to a specific position.

또한, 제어 대상 선택 및 해당 제어 대상을 제어하는 기능을 수행하기 위해서, 선택된 제어 대상이 제어가 필요한 대상인지 아닌지를 판단하고, 제어가 필요한 대상인 경우 필요한 제어 명령을 생성한다.In addition, in order to perform a control target selection and a function of controlling the control target, it is determined whether the selected control target is an object requiring control, and generates a necessary control command when the control target is required.

예를 들어, 사용자의 지시형 제스처가 컵을 지시한 경우에는 별도의 제어 명령을 생성하지 않지만, 디지털 TV 또는 오디오 등 가전 제품을 지시한 경우에는 제어 명령을 생성하여 해당 제어 대상을 작동시킨다.For example, when a user's directed gesture indicates a cup, a separate control command is not generated. However, when a user's directed gesture indicates a home appliance such as a digital TV or audio, a control command is generated to operate a corresponding control object.

만일, 지시된 제어 대상이 스크린을 구비한 기기인 경우, 가상 마우스 기능을 수행할 수 있는데, 가상 마우스 기능을 수행하기 위해서는 현재 스크린에 화면을 출력 중인 컴퓨터로 제어 명령을 전송하여 마우스처럼 동작을 수행하도록 할 수 있다.If the indicated control target is a device having a screen, a virtual mouse function may be performed. To perform the virtual mouse function, a control command is transmitted to a computer currently outputting a screen on a screen to perform an operation like a mouse. You can do that.

도 5 및 도 6은 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동 형 장치의 지시형 제스처 인식 과정을 도시한 흐름도이다.5 and 6 are flowcharts illustrating a directed gesture recognition process of a mobile device equipped with a stereo camera according to an embodiment of the present invention.

예를 들어, 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동형 장치는, 소정의 구동 장치를 통하여 이동이 가능하며, 장착된 스테레오 카메라를 통해 움직이는 대상을 추적하고 촬영 가능한 로봇일 수 있다.For example, a mobile device equipped with a stereo camera according to an embodiment of the present invention may be a robot capable of moving through a predetermined driving device and tracking and photographing a moving object through the mounted stereo camera.

설명의 편의상, 도 1에 도시된 장치를 참조하여 설명하도록 한다.For convenience of description, the description will be made with reference to the apparatus shown in FIG. 1.

먼저, 스테레오 카메라(110)에서 움직이는 대상을 촬영한다(S501). 여기에서 움직이는 대상은 지시형 제스처를 통해 제어 대상을 제어하기 원하는 사용자일 수 있다.First, the moving object in the stereo camera 110 is photographed (S501). Here, the moving object may be a user who wants to control the control object through the directed gesture.

단계 S501 후, 영상 데이터 입력부(120)는 촬영된 대상에 대한 컬러 영상 데이터 및 깊이 영상 데이터를 입력 받는다(S502).After operation S501, the image data input unit 120 receives color image data and depth image data of the photographed object (S502).

도 1에 도시된 장치(100)는 사용자가 지시형 제스처를 이용하여 3차원 공간을 지시하는 것을 인식해야 하기 때문에, 컬러 영상 외에 깊이 영상까지 획득 가능한 스테레오 카메라를 사용하는 것이 바람직하다.Since the device 100 illustrated in FIG. 1 should recognize that the user indicates a three-dimensional space by using a directed gesture, it is preferable to use a stereo camera that can acquire a depth image in addition to the color image.

단계 S502 후, 인체 검출부(130)는 입력된 영상에서 사람이 존재하는 것으로 판단된 경우, 인체 영역을 검출하고, 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출한다.After step S502, when it is determined that a person is present in the input image, the human body detecting unit 130 detects a human body region and extracts position information of a human body component necessary for indicating a gesture gesture from the detected human body region.

이를 더 상세히 설명하면, 인체 검출부(130) 중 인체 식별부(131)는 영상 데이터 입력부(120)에 입력된 영상의 컬러 영상과 깊이 영상을 이용하여 사람의 존재 유무를 식별한다(S503).In more detail, the human body identification unit 131 of the human body detection unit 130 identifies the presence or absence of a person using the color image and the depth image of the image input to the image data input unit 120 (S503).

이때, 깊이 영상에서 사람 크기의 대상에 대해 다양한 기하학적 정보를 이용 하여 사람인지 아닌지를 식별하는데, 이는 깊이 영상을 사용함으로써, 사용자가 이동할 수 있는 환경에서도 조명 변화와 배경에 무관하게 사람을 신뢰성 있게 검출할 수 있는 장점이 있다. At this time, the depth image identifies whether the person is a person using various geometric information about the object of human size, and by using the depth image, the person can be reliably detected regardless of the lighting change and the background even in an environment where the user can move. There is an advantage to this.

예를 들어, 사람의 존재 유무를 식별하는데 사용되는 기하학적 정보로는, 영역의 가로 세로 비율, 영역이 존재하는 위치, 3차원 공간에서의 영역의 실제 크기 등의 정보가 사용될 수 있다.For example, as geometric information used to identify the presence or absence of a person, information such as an aspect ratio of an area, a location where an area exists, and an actual size of the area in a three-dimensional space may be used.

단계 S503 후, 인체 식별부(131)에서 사람이 존재하는 것으로 판단한 경우, 인체 영역 검출부(132)는 인체 영역을 검출한다(S504).After the step S503, when the human body identification unit 131 determines that a person exists, the human body area detection unit 132 detects the human body area (S504).

이때, 인체 영역 검출부(132)는 검출된 인체 영역을 하나의 결합된 영역으로 검출하기 위해 모폴로지(morphology) 연산을 이용하여 전처리를 수행한 후 영역 결합 알고리즘을 이용하여 검출된 인체 영역을 하나의 결합된 영역으로 검출한다.In this case, the human body detecting unit 132 performs preprocessing using a morphology operation to detect the detected human body region as one combined region, and then combines the detected human body region using a region combining algorithm. The detected area.

단계 S504 후, 인체 구성 요소 추출부(133)는 인체 영역 검출부(132)에서 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치를 추출한다(S505).After the step S504, the human body component extractor 133 extracts the positions of the human body components required for the directive gesture recognition in the human body region detected by the human body region detector 132 (S505).

단계 S505 후, 손 위치 보정부(140)는 인체 검출부(130)에서 추출된 인체 구성 요소의 위치 정보를 계산하고, 계산된 위치 정보 중 지시형 제스처를 인식하는데 가장 중요한 손의 위치 정보를 보정한다(S506).After step S505, the hand position correction unit 140 calculates the position information of the human component extracted by the human body detection unit 130 and corrects the position information of the hand which is most important for recognizing the directed gesture among the calculated position information. (S506).

계산된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 이유는, 지시형 제스처의 지시 방향을 좀 더 정확히 인식하기 위함이며, 이를 위해 손 위치 보정부(140)는 지시형 제스처 수행 시의 인체의 구조적 특성을 이용하여 손의 위치 정보를 보정한다.The reason for correcting the positional information of the hand among the calculated positional information of the human body components is to more accurately recognize the direction of instruction of the directed gesture, and for this purpose, the hand position corrector 140 performs The positional information of the hand is corrected using the structural characteristics of the human body.

단계 S506 후, 지시형 제스처 검출부(150)는 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 판단하고, 지시형 제스처를 검출한다(S507).After the step S506, the directed gesture detection unit 150 determines whether the directed gesture occurs based on the corrected position information of the hand and detects the directed gesture (S507).

단계 S507 후, 즉 지시형 제스처가 발생한 경우, 지시형 제스처 인식부(160)는 도 1에 도시된 장치(100)의 위치 정보와 손 위치 보정부(140)에서 보정된 손의 위치 정보에 기초하여 지시형 제스처 검출부(150)에서 검출된 지시형 제스처의 지시 방향을 계산한다(S508).After step S507, that is, when the directed gesture occurs, the directed gesture recognition unit 160 is based on the position information of the device 100 shown in FIG. 1 and the position information of the hand corrected by the hand position correcting unit 140. In operation S508, the direction of the directed gesture detected by the directed gesture detector 150 is calculated.

단계 S508 후, 지시형 제스처 인식부(160)는 도 1에 도시된 장치(100)의 위치 정보 및 미리 저장되어 있는 주변 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 대한 지시 위치를 계산한다(S509).After step S508, the directed gesture recognition unit 160 projects the position information of the apparatus 100 shown in FIG. 1 and the position information of the surrounding object previously stored in the three-dimensional space model to indicate the position of the instruction direction. Calculate (S509).

단계 S509 후, 지시형 제스처 인식부(160)는 지시 위치에 제어 대상이 존재하는지 판단하고(S510), 만일 존재한다면 해당 제어 대상의 종류는 무엇인지 인식한다(S511).After step S509, the directed gesture recognition unit 160 determines whether a control object exists at the indicated position (S510), and if so, recognizes the type of the control object (S511).

단계 S511 후, 지시형 제스처 인식부(160)는 계산된 지시 방향과 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 지시형 제스처 검출부(150)에서 검출된 지시형 제스처가 의도하는 기능을 인식한다(S512).After step S511, the directed gesture recognition unit 160 recognizes a function intended by the directed gesture detected by the directed gesture detection unit 150 by using the calculated direction of instruction and position information of a control target previously stored. (S512).

단계 S512 후, 제어부(170)는 지시형 제스처 인식부(160)에서 인식된 기능에 대해, 미리 규정되어있는 제어 신호를 이용하여 제어 대상이 실제로 수행할 수 있는 명령어를 생성하는데, 이때 이용되는 제어 신호는 무선 또는 유선 제어 신호일 수 있으며, 무선 제어 신호는 적외선 송신이나 블루투스(bluetooth) 등을 통해 제 어 대상을 제어, 즉 인식된 지시형 제스처의 의도된 기능을 실행한다(S513).After step S512, the control unit 170 generates a command that can be actually executed by the control target by using a control signal that is previously defined for the function recognized by the directed gesture recognition unit 160. The signal may be a wireless or wired control signal, and the wireless control signal controls an object to be controlled through infrared transmission or Bluetooth, that is, executes an intended function of the recognized directed gesture (S513).

만일, 단계 S510 결과, 지시 위치에 제어 대상이 존재하지 않는 경우, 제어부(170)는 적절한 제어 명령을 생성하여 도 1에 도시된 장치(100)를 특정 위치로 이동시키는 이동 기능을 수행한다(S514).If, as a result of step S510, the control object does not exist in the instruction position, the controller 170 generates a suitable control command and performs a movement function of moving the apparatus 100 shown in FIG. 1 to a specific position (S514). ).

본 발명을 통해, 사용자는 컴퓨터나 로봇, 지능형 가전 제품과의 상호 작용을 가능하게 하는 자연스럽고 직관적인 지시형 제스처 인식이 가능하다. Through the present invention, the user is able to recognize a natural and intuitive directional gesture that enables interaction with a computer, a robot or an intelligent home appliance.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

도 1은 본 발명의 일 실시예에 따른 지시형 제스처를 인식하는 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for recognizing an indication gesture according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 인체 검출부의 세부 구성을 도시한 블록도이다.2 is a block diagram showing a detailed configuration of the human body detecting unit according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 손 위치 보정부의 세부 구성을 도시한 블록도이다.3 is a block diagram showing the detailed configuration of the hand position correction unit according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 지시형 제스처 검출부의 세부 구성을 도시한 블록도이다.4 is a block diagram showing the detailed configuration of the directed gesture detector according to an embodiment of the present invention.

도 5 및 도 6은 본 발명의 일 실시예에 따른 스테레오 카메라를 장착한 이동형 장치의 지시형 제스처 인식 과정을 도시한 흐름도이다.5 and 6 are flowcharts illustrating a directed gesture recognition process of a mobile device equipped with a stereo camera according to an embodiment of the present invention.

<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>

110 : 스테레오 카메라110: stereo camera

120 : 영상 데이터 입력부120: image data input unit

130 : 인체 검출부130: human body detection unit

140 : 손 위치 보정부140: hand position correction unit

150 : 지시형 제스처 검출부150: directed gesture detection unit

160 : 지시형 제스처 인식부160: directed gesture recognition unit

170 : 제어부170: control unit

Claims (16)

스테레오 카메라를 장착한 이동 가능한 지시형 제스처 인식 장치에 있어서,A moveable directed gesture recognition device equipped with a stereo camera, 상기 스테레오 카메라를 통해 촬영된 영상에 대한 데이터를 입력 받는 영상 데이터 입력부,Image data input unit for receiving data about the image taken by the stereo camera, 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처의 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 인체 검출부,A human body detecting unit detecting a human body region from the input image and extracting position information of a human body component necessary for recognizing an indication gesture from the detected human body region; 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 손 위치 보정부,Hand position correction unit for correcting the position information of the hand of the extracted position information of the human component, 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 지시형 제스처 검출부,An indication gesture detection unit detecting whether the indication gesture is generated through the corrected position information of the hand; 상기 지시형 제스처가 발생한 경우, 상기 지시형 제스처 인식 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시형 제스처의 지시 방향을 계산하고, 상기 계산된 지시 방향과 미리 저장되어 있는 제어 대상의 위치 정보를 이용하여, 상기 검출된 지시형 제스처가 의도하는 기능을 인식하는 지시형 제스처 인식부 및When the directed gesture occurs, the direction of the directed gesture is calculated based on the position information of the directed gesture recognition device and the position information of the corrected hand, and the calculated direction and the prestored control. An indication gesture recognition unit for recognizing a function intended by the detected indication gesture using the location information of the object; 상기 인식된 기능에 기초하여 상기 제어 대상이 상기 기능을 수행하도록 제어하는 제어부A controller for controlling the control target to perform the function based on the recognized function 를 포함하는, 지시형 제스처 인식 장치.Directed gesture recognition device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 인체 검출부는 상기 입력된 영상의 컬러 영상과 깊이 영상을 이용하여 사람의 존재 유무를 식별하는 인체 식별부,The human body detecting unit may identify a human body using a color image and a depth image of the input image. 상기 인체 식별부에서 사람이 존재하는 것으로 판단한 경우, 상기 인체 영역을 검출하는 인체 영역 검출부 및A human body detection unit detecting the human body area when it is determined that the human body is present in the human body identification unit; 상기 인체 영역 검출부에서 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치를 추출하는 인체 구성 요소 추출부Human body component extraction unit for extracting the position of the human body components for the directed gesture recognition in the human body area detected by the human body area detection unit 를 포함하는, 지시형 제스처 인식 장치.Directed gesture recognition device comprising a. 제 2 항에 있어서,The method of claim 2, 상기 인체 영역 검출부는 상기 검출된 인체 영역을 하나의 결합된 영역으로 검출하기 위해 모폴로지(morphology) 연산을 이용하여 전처리 과정을 수행하는, 지시형 제스처 인식 장치.And the body region detector is configured to perform a preprocessing process using a morphology operation to detect the detected body region as one combined region. 제 2 항에 있어서,The method of claim 2, 상기 인체 식별부는 영역의 가로 세로 비율, 영역이 존재하는 위치 및 3차원 공간에서의 영역의 실제 크기 중 하나 이상을 이용하여 사람의 존재 유무를 식별하 는 것인, 지시형 제스처 인식 장치.The human body identifying unit identifies the presence or absence of a person by using one or more of an aspect ratio of an area, a location where an area exists, and an actual size of the area in a three-dimensional space. 제 1 항에 있어서,The method of claim 1, 상기 지시형 제스처 인식부는 상기 지시형 제스처 인식 장치의 위치 정보 및 상기 미리 저장되어 있는 제어 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 대한 지시 위치를 계산하는, 지시형 제스처 인식 장치. The directed gesture recognizing unit is configured to project the position information of the directed gesture recognition device and the pre-stored position information of the control target to a three-dimensional space model to calculate an indication position with respect to the pointing direction. . 제 5 항에 있어서,The method of claim 5, wherein 상기 제어부는 상기 지시 위치에 제어 대상이 존재하는 경우, 상기 제어 대상의 종류에 따라 미리 설정된 기능을 수행하도록 하는, 지시형 제스처 인식 장치.And the control unit performs a preset function according to the type of the control target when the control target exists in the instruction position. 제 6 항에 있어서,The method of claim 6, 상기 제어부는 상기 제어 대상을 제어할 수 있는 무선 제어 신호를 생성하는, 지시형 제스처 인식 장치.The controller generates a wireless control signal for controlling the control target, the directed gesture recognition device. 제 1 항에 있어서,The method of claim 1, 상기 지시형 제스처 검출부는 상기 지시형 제스처가 발생하였는지를 검출하는 동작 검출과 발생한 지시형 제스처가 현재 어떤 상태에 있는지를 검출하는 상태 검출을 수행하는 것인 지시형 제스처 인식 장치.The directed gesture detection unit performs an operation detection for detecting whether the directed gesture has occurred and a state detection for detecting a current state of the generated directed gesture. 제 1 항에 있어서,The method of claim 1, 상기 손 위치 보정부는 인체 구성 요소들의 위치 정보, 사용자가 지시하는 방향 및 인식된 지시 방향을 저장하고 있는 훈련 데이터에 기초하여, 상기 손의 위치 정보를 보정하는 것인 지시형 제스처 인식 장치.And the hand position correcting unit corrects the position information of the hand based on training data storing position information of human body components, a direction indicated by a user, and a recognized indication direction. 스테레오 카메라를 장착한 이동형 장치의 지시형 제스처 인식 방법에 있어서,In the directed gesture recognition method of a mobile device equipped with a stereo camera, (a) 상기 스테레오 카메라에 의해 촬영된 영상을 입력 받는 단계,(a) receiving an image captured by the stereo camera, (b) 상기 입력된 영상에서 인체 영역을 검출하고, 상기 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치 정보를 추출하는 단계,(b) detecting a human body region from the input image, and extracting position information of a human body component necessary for indicating a gesture gesture from the detected human body region, (c) 상기 추출된 인체 구성 요소의 위치 정보 중 손의 위치 정보를 보정하는 단계,(c) correcting position information of a hand among position information of the extracted human body components; (d) 상기 보정된 손의 위치 정보를 통해 상기 지시형 제스처의 발생 여부를 검출하는 단계,(d) detecting whether the directed gesture is generated based on the corrected position information of the hand, (e) 상기 지시형 제스처가 발생한 경우, 상기 이동형 장치의 위치 정보와 상기 보정된 손의 위치 정보에 기초하여 상기 지시형 제스처의 지시 방향을 계산하는 단계,(e) calculating an indication direction of the indication gesture based on the position information of the mobile device and the corrected hand position information when the indication gesture occurs; (f) 상기 이동형 장치의 위치 정보 및 미리 저장된 제어 대상의 위치 정보를 3차원 공간 모델에 투영하여 상기 지시 방향에 의한 지시 위치를 계산하는 단계(f) calculating the indication position according to the indication direction by projecting the position information of the mobile device and the position information of the control target previously stored in the three-dimensional space model; (g) 상기 지시 위치에 제어 대상이 존재 하는 경우, 상기 검출된 지시형 제스처가 의도하는 기능을 분석하는 단계 및(g) analyzing a function intended by the detected directed gesture when there is a control object at the indicated position; and (h) 상기 제어 대상이 상기 지시형 제스처가 의도하는 기능을 실행하도록 제어하는 단계 (h) controlling the control target to execute a function intended by the directed gesture 를 포함하는, 지시형 제스처 인식 방법.Including a directed gesture recognition method. 제 10 항에 있어서,The method of claim 10, 상기 (b) 단계는, In step (b), (b-1) 상기 입력된 영상의 컬러 영상과 깊이 영상을 이용하여 사람의 존재 유무를 식별하는 단계,(b-1) identifying the presence or absence of a person using a color image and a depth image of the input image; (b-2) 상기 (b-1) 단계에서 사람이 존재하는 것으로 판단한 경우, 상기 인체 영역을 검출하는 단계 및(b-2) detecting the human body region when it is determined in step (b-1) that a person exists; and (b-3) 상기 (b-2) 단계에서 검출된 인체 영역에서 지시형 제스처 인식에 필요한 인체 구성 요소의 위치를 추출하는 단계를 포함하는, 지시형 제스처 인식 방 법.(b-3) extracting the positions of the human body components required for the directive gesture recognition in the human body region detected in the step (b-2). 제 10 항에 있어서,The method of claim 10, 상기 (b) 단계는 상기 검출된 인체 영역을 하나의 결합된 영역으로 검출하기 위해 모폴로지(morphology)연산을 이용하여 전처리 과정을 수행하는, 지시형 제스처 인식 방법.The step (b) is a directed gesture recognition method for performing a preprocessing process using a morphology (morphology) operation to detect the detected human body region as one combined region. 제 11 항에 있어서,The method of claim 11, 상기 (b-1) 단계는 영역의 가로 세로 비율, 영역이 존재하는 위치 및 3차원 공간에서의 영역의 실제 크기 중 하나 이상을 이용하여 사람의 존재 유무를 식별하는 것인, 지시형 제스처 인식 방법.In the step (b-1), the presence or absence of a person is identified using one or more of an aspect ratio of an area, a location where an area exists, and an actual size of the area in a three-dimensional space. . 제 10 항에 있어서,The method of claim 10, (i) 상기 지시 위치에 제어 대상이 존재하지 않는 경우, 상기 이동형 장치를 특정 위치로 이동시키는 단계(i) moving the mobile device to a specific position if there is no control object at the indicated position; 를 더 포함하는 지시형 제스처 인식 방법.Directed gesture recognition method further comprising. 제 10 항에 있어서,The method of claim 10, 상기 (h) 단계는, 상기 제어 대상이 스크린을 구비한 기기인 경우, 상기 지시형 제스처에 기초하여 가상 마우스 기능을 수행하는 것인, 지시형 제스처 인식 방법.In the step (h), when the control target is a device having a screen, performing the virtual mouse function based on the directed gesture, directed gesture recognition method. 스테레오 카메라를 장착한 이동형 장치의 지시형 제스처를 인식하기 위한 프로그램을 기록한 기록 매체에 있어서,A recording medium having recorded thereon a program for recognizing a directed gesture of a mobile device equipped with a stereo camera, 상기 프로그램은 제 10 항 내지 제 15 항 중 어느 하나의 청구항에 기재된 방법들의 각 단계들을 구현하기 위한 프로그램 코드를 포함하는, 컴퓨터로 판독 가능한 기록 매체.16. The computer program product of claim 10, wherein the program comprises program code for implementing the respective steps of the methods as claimed in any one of claims 10-15.
KR1020080050219A 2008-05-29 2008-05-29 Method and apparatus for recognizing pointing gesture KR100916836B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080050219A KR100916836B1 (en) 2008-05-29 2008-05-29 Method and apparatus for recognizing pointing gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080050219A KR100916836B1 (en) 2008-05-29 2008-05-29 Method and apparatus for recognizing pointing gesture

Publications (1)

Publication Number Publication Date
KR100916836B1 true KR100916836B1 (en) 2009-09-14

Family

ID=41355611

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080050219A KR100916836B1 (en) 2008-05-29 2008-05-29 Method and apparatus for recognizing pointing gesture

Country Status (1)

Country Link
KR (1) KR100916836B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101156547B1 (en) * 2010-12-30 2012-06-20 주식회사 나무가 Searching method of face and hands using rgb color image and depth image
KR101226668B1 (en) * 2011-03-25 2013-01-25 주식회사 아이티엑스시큐리티 3 Dimensional Motion Recognition System and Method Using Stereo Camera
KR101298023B1 (en) 2010-09-17 2013-08-26 엘지디스플레이 주식회사 Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface
KR101326230B1 (en) 2010-09-17 2013-11-20 한국과학기술원 Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface
KR101414362B1 (en) * 2013-01-30 2014-07-02 한국과학기술원 Method and apparatus for space bezel interface using image recognition
KR101517932B1 (en) * 2013-06-27 2015-05-06 에이오스 주식회사 The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition
WO2017115905A1 (en) * 2015-12-28 2017-07-06 전자부품연구원 Human body pose recognition system and method
CN107817799A (en) * 2017-11-03 2018-03-20 北京光年无限科技有限公司 The method and system of intelligent interaction are carried out with reference to virtual maze
CN111857345A (en) * 2020-07-23 2020-10-30 上海纯米电子科技有限公司 Gesture-based control method and device
CN111857346A (en) * 2020-07-23 2020-10-30 上海纯米电子科技有限公司 Gesture control method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH026A (en) * 1987-11-23 1990-01-05 Polaroid Corp Common driver for shutter blade and objective lens assembly
KR20060070280A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 Apparatus and its method of user interface using hand gesture recognition
KR100692526B1 (en) 2005-12-08 2007-03-12 한국전자통신연구원 Gesture recognition apparatus and methods for automatic control of systems
KR20080041049A (en) * 2006-11-06 2008-05-09 주식회사 시공테크 Apparatus and method for generating user-interface based on hand shape recognition in a exhibition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH026A (en) * 1987-11-23 1990-01-05 Polaroid Corp Common driver for shutter blade and objective lens assembly
KR20060070280A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 Apparatus and its method of user interface using hand gesture recognition
KR100692526B1 (en) 2005-12-08 2007-03-12 한국전자통신연구원 Gesture recognition apparatus and methods for automatic control of systems
KR20080041049A (en) * 2006-11-06 2008-05-09 주식회사 시공테크 Apparatus and method for generating user-interface based on hand shape recognition in a exhibition system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문(2006)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101298023B1 (en) 2010-09-17 2013-08-26 엘지디스플레이 주식회사 Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface
KR101326230B1 (en) 2010-09-17 2013-11-20 한국과학기술원 Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface
KR101156547B1 (en) * 2010-12-30 2012-06-20 주식회사 나무가 Searching method of face and hands using rgb color image and depth image
KR101226668B1 (en) * 2011-03-25 2013-01-25 주식회사 아이티엑스시큐리티 3 Dimensional Motion Recognition System and Method Using Stereo Camera
KR101414362B1 (en) * 2013-01-30 2014-07-02 한국과학기술원 Method and apparatus for space bezel interface using image recognition
KR101517932B1 (en) * 2013-06-27 2015-05-06 에이오스 주식회사 The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition
WO2017115905A1 (en) * 2015-12-28 2017-07-06 전자부품연구원 Human body pose recognition system and method
CN107817799A (en) * 2017-11-03 2018-03-20 北京光年无限科技有限公司 The method and system of intelligent interaction are carried out with reference to virtual maze
CN107817799B (en) * 2017-11-03 2021-06-15 北京光年无限科技有限公司 Method and system for intelligent interaction by combining virtual maze
CN111857345A (en) * 2020-07-23 2020-10-30 上海纯米电子科技有限公司 Gesture-based control method and device
CN111857346A (en) * 2020-07-23 2020-10-30 上海纯米电子科技有限公司 Gesture control method and device

Similar Documents

Publication Publication Date Title
KR100916836B1 (en) Method and apparatus for recognizing pointing gesture
JP6480434B2 (en) System and method for direct pointing detection for interaction with digital devices
CN107428004B (en) Automatic collection and tagging of object data
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US8606735B2 (en) Apparatus and method for predicting user&#39;s intention based on multimodal information
US9134800B2 (en) Gesture input device and gesture input method
CN106605187B (en) Information processing apparatus, information processing method, and program
US20150084859A1 (en) System and Method for Recognition and Response to Gesture Based Input
US9721343B2 (en) Method and system for gesture identification based on object tracing
US11809637B2 (en) Method and device for adjusting the control-display gain of a gesture controlled electronic device
KR20180072978A (en) Operation Method for activation of Home robot device and Home robot device supporting the same
US9081418B1 (en) Obtaining input from a virtual user interface
KR20130006186A (en) Method, terminal, and computer readable recording medium for controlling content by detecting gesture of head and gesture of hand
US20130293460A1 (en) Computer vision based control of an icon on a display
US10488918B2 (en) Analysis of user interface interactions within a virtual reality environment
US10332519B2 (en) Information processing apparatus, information processing method, and program
WO2019077897A1 (en) Information processing device, information processing method, and program
KR20150106823A (en) Gesture recognition apparatus and control method of gesture recognition apparatus
EP3092554A1 (en) Coordinated speech and gesture input
WO2017104272A1 (en) Information processing device, information processing method, and program
CN113497912A (en) Automatic framing through voice and video positioning
US9761009B2 (en) Motion tracking device control systems and methods
WO2012063247A1 (en) Input processing
US20210294482A1 (en) Information processing device, information processing method, and program
JP2010079848A (en) Item selection method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160419

Year of fee payment: 7

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20160726

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170707

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180723

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190808

Year of fee payment: 11