KR100692526B1 - Gesture recognition apparatus and methods for automatic control of systems - Google Patents

Gesture recognition apparatus and methods for automatic control of systems Download PDF

Info

Publication number
KR100692526B1
KR100692526B1 KR1020050119798A KR20050119798A KR100692526B1 KR 100692526 B1 KR100692526 B1 KR 100692526B1 KR 1020050119798 A KR1020050119798 A KR 1020050119798A KR 20050119798 A KR20050119798 A KR 20050119798A KR 100692526 B1 KR100692526 B1 KR 100692526B1
Authority
KR
South Korea
Prior art keywords
gesture
user
robot
image
region
Prior art date
Application number
KR1020050119798A
Other languages
Korean (ko)
Inventor
김계경
김혜진
곽근창
김도형
이재연
지수영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020050119798A priority Critical patent/KR100692526B1/en
Application granted granted Critical
Publication of KR100692526B1 publication Critical patent/KR100692526B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

An apparatus and a method for recognizing a gesture in automatically controlling a system are provided to extract motion from a continuous image frame of a moving object and detect a correct shape of a user by using image feature information, thereby tracking the user and recognizing a gesture of the user in real time. An image input unit(100) obtains a gesture image of a user from a camera attached to a robot. A shape detection unit(200) extracts a motion candidate region from a sequence of the gesture image by using image difference between neighbored image frames. Based on the motion candidate region and image feature information of the gesture image, the shape detection unit detects a human shape of the user. A gesture recognition unit(300) extracts a gesture interval of the user from the gesture image and thereby recognizes a gesture of the user. A system/robot automatic control unit(400) automatically controls a corresponding system or operation of the robot in response to the recognized gesture of the user.

Description

시스템 자동제어용 제스처 인식 장치 및 그 방법 {GESTURE RECOGNITION APPARATUS AND METHODS FOR AUTOMATIC CONTROL OF SYSTEMS}GESTURE RECOGNITION APPARATUS AND METHODS FOR AUTOMATIC CONTROL OF SYSTEMS}

도 1은 본 발명의 실시 예에 따른 시스템 자동 제어용 제스처 인식 장치의 전체 구성도,1 is an overall configuration diagram of a gesture recognition apparatus for automatic system control according to an embodiment of the present invention;

도 2는 본 발명의 실시 예에 따른 시스템 자동 제어용 제스처 인식 장치에서 제스처 인식 과정 및 인식 결과가 로봇 동작제어나 시스템 자동제어에 활용되는 것을 나타내는 흐름도,2 is a flowchart illustrating that a gesture recognition process and a result of recognition are utilized for robot motion control or system automatic control in a gesture recognition apparatus for system automatic control according to an embodiment of the present invention;

도 3a는 로봇 자동 제어를 위한 환경의 예를 도시한 것으로, 3b는 호출 제스처로 로봇을 사용자에게 다가오게 하는 것이며, 3c는 로봇의 움직임을 사용자와 로봇과의 일정거리 앞에서 멈추게 하는 제스처를 행했을 때의 환경을 나타내는 도,Figure 3a shows an example of the environment for automatic robot control, 3b is to bring the robot to the user with a call gesture, 3c is to make a gesture to stop the movement of the robot in front of a certain distance between the user and the robot Degrees representing the environment of the time,

도 4는 본 발명의 실시 예에 따른 시스템 제어용 제스처 인식 장치에서 사용자를 검출하기 위해 t번째 프레임에서 원본 영상(a)으로부터 사용자의 모션 정보(b)와 피부색 영역(c)을 검출하고, 원본 영상(a)에서 사용자 얼굴영역과 손의 움직임(d)을 추적하는 것을 나타내는 도,FIG. 4 detects a user's motion information (b) and a skin color region (c) from an original image (a) at a t- th frame in order to detect a user in a system control gesture recognition apparatus according to an embodiment of the present invention. (a) shows the tracking of the movement of the user's face area and the hand (d),

도 5는 제스처 인식 결과를 이용하여 제어하고자 하는 시스템의 선택(a) 및 버튼 제어(b)에 활용하는 예를 나타내는 도,FIG. 5 is a diagram illustrating an example used for selection (a) and button control (b) of a system to be controlled using a gesture recognition result.

도 6은 제스처 인식을 위하여 사용자의 제스처 구간에 대한 얼굴 및 손의 움직임 좌표를 추적(a)하여 구조적인 특징 벡터(b)를 추출하는 것을 나타내는 도인다.6 is a diagram illustrating extracting a structural feature vector (b) by tracking (a) movement coordinates of a face and a hand for a gesture section of a user for gesture recognition.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100. 영상 입력부 200. 형상 디텍터부 100. Image input unit 200. Shape detector unit

210. 움직임 영역 추출부 220. 영상특징정보 추출부210. Motion region extractor 220. Image feature information extractor

230. 형상 추출부 300. 제스처 인식부230. Shape extraction unit 300. Gesture recognition unit

310. 얼굴영역 추출부 320. 손영역 추출부310. Face area extraction unit 320. Hand area extraction unit

330. 제스처 특징 추출 및 인식부 400. 시스템 및 로봇동작 자동제어부330. Gesture feature extraction and recognition unit 400. System and robot motion automatic control unit

410. 시스템 선택부 420. 버튼 제어부410. System selector 420. Button control

430. 로봇동작 자동제어부 440. 시스템 자동제어부430. Robot operation automatic control unit 440. System automatic control unit

본 발명은 시스템 자동 제어를 위한 제스처 인식 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 로봇에 부착된 카메라로부터 획득한 입력 영상으로부터 제스처를 추출하여 시스템을 자동으로 제어하는 제스처 인식 장치 및 그 방법에 관한 것이다.The present invention relates to a gesture recognition apparatus and method for automatic system control, and more particularly, to a gesture recognition apparatus and method for automatically controlling a system by extracting a gesture from an input image obtained from a camera attached to a robot. It is about.

종래, 제스처 인식은 자연스러운 컴퓨터 상호작용 및 로봇 제어 목적으로 연구되어 왔다. 또한 최근 가상현실분야에서는 삼차원 제스처 데이터를 추출하여 인식함으로써 PC에서 가상 이미지를 임의의 방향으로 움직이도록 하는 연구가 진행되고 있다. Conventionally, gesture recognition has been studied for the purpose of natural computer interaction and robot control. Recently, in the field of virtual reality, a research is being conducted to move a virtual image in an arbitrary direction on a PC by extracting and recognizing three-dimensional gesture data.

자연스러운 컴퓨터 상호작용을 목적으로 한 제스처 인식은 모니터 근처에 카메라를 부착시켜두고, 사용자의 제스처를 입력받아 인식함으로써 마우스나 키보드와 같은 입력 장치 대용으로 활용할 수 있도록 하였다. 즉, 키보드의 자음과 모음 또는 알파벳에 해당하는 손 모양을 인식하여 사용자가 키보드 키를 직접 치지 않고 자동으로 키보드 키를 입력할 수 있는 자동 인터페이스 기능 구현을 위한 연구를 수행하여 왔다. 또한, 키보드나 다른 도구를 사용하지 않고 발표 자료의 앞뒤 넘김 또는 특정 페이지로의 이동 등과 같이 문서를 자동으로 제어할 수 있는 제스처 인식에 대한 연구가 진행되어 왔다.Gesture recognition for the purpose of natural computer interaction is made by attaching a camera near the monitor and receiving and recognizing user's gesture so that it can be used as an input device such as a mouse or keyboard. That is, the research has been conducted to implement an automatic interface function that enables a user to automatically input keyboard keys without directly hitting the keyboard keys by recognizing a consonant and a vowel or a hand of the alphabet. In addition, researches on gesture recognition that can automatically control a document such as flipping back and forth or moving to a specific page without using a keyboard or other tools have been conducted.

따라서 제스처를 정확하게 인식하여 컴퓨터 키보드를 자동으로 움직여주거나 손의 방향 정보를 추출하여 발표 자료 등과 같은 문서 넘김을 자동으로 제어해주기 위한 제스처 인식을 위해서는 카메라의 방향과 손과 카메라 사이의 거리 정보가 매우 중요하다.Therefore, the direction of the camera and the distance between the hand and the camera are very important for gesture recognition to precisely recognize gestures and automatically move the computer keyboard or extract hand direction information to automatically control the turning of documents such as presentation materials. Do.

그러나, 사용자 제스처 인식 방법은 대부분 컴퓨터 상호작용을 위한 제스처 인식에서 사용된 카메라는 특정 공간내의 천정이나 벽과 같은 곳에 카메라를 부착시켜 설치해 두고 사용자가 그 특정 공간으로 이동하여 제스처를 행하면 그 제스처를 입력받아 인식하도록 하였다. 여기에서 정확한 손의 움직임 정보나 손 모양 정보를 추출하는데 많은 오류가 발생하여 실질적으로 제스처 인식 결과가 컴퓨터 상호작용 목적으로 활용되지 못하는 문제점이 있다. However, the user gesture recognition method is mostly installed in the camera used in gesture recognition for computer interaction, such as the ceiling or the wall in a specific space, the camera is installed and the user moves to the specific space to perform the gesture input Received and recognized. In this case, a lot of errors occur in extracting accurate hand movement information or hand shape information, and thus there is a problem that the gesture recognition result is not utilized for computer interaction purposes.

따라서, 본 발명의 목적은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 어떤 위치에 상관없이 모바일 로봇에 부착된 카메라로 사용자의 제스처 영상을 획득하여 인식한 다음 제어하고자 하는 특정 시스템을 선택하여 시스템을 자동으로 제어할 수 있는 시스템 자동제어용 제스처 인식 장치 및 그 방법을 제공하는데 있다.Accordingly, an object of the present invention is to solve the above problems of the prior art, the object of the present invention is to acquire and recognize the gesture image of the user with a camera attached to the mobile robot regardless of any position to control The present invention provides a gesture recognition apparatus and method for automatically controlling a system that can automatically control a system by selecting a specific system.

한편, 본 발명의 다른 목적은 사용자의 제스처를 인식하기 위하여 연속된 프레임의 이동 물체에서 움직임 추출 및 연상 특징 정보를 이용한 사람 형상 추출을 시행하여 정확한 사용자 형상을 추출하고 사용자의 호출에 반응하기 위하여 얼굴 검출 및 추적 그리고 제스처 인식 결과를 같이 활용함으로써 특정 사용자 추적 및 제스처 인식을 실시간에 자연스럽게 이루어질 수 있도록 하는 시스템 자동제어용 제스처 인식 장치 및 그 방법을 제공하는데 있다.Meanwhile, another object of the present invention is to extract the correct user shape by performing the motion extraction and the human shape extraction using the associative feature information from the moving objects of the continuous frame in order to recognize the user's gesture, and to face the user's call The present invention provides a gesture recognition apparatus and method for automatic control of a system that can naturally perform a specific user tracking and gesture recognition by utilizing detection and tracking and gesture recognition results together.

한편, 본 발명의 또 다른 목적은 특정 시스템의 자동 제어를 위하여 로봇을 사용자의 공간으로 이동하게 하여 시스템 선택 버튼 및 제어 버튼을 자동으로 실행시켜주는 제스처를 인식하게 하였을 뿐만 아니라, 사용자의 제스처와 행동을 분석하여 시스템의 플레이와 정지도 자동으로 이루어질 수 있는 시스템 자동제어용 제스처 인식 장치 및 그 방법을 제공하는데 있다.On the other hand, another object of the present invention is to move the robot to the user's space for automatic control of a specific system to recognize the gesture to automatically execute the system selection button and control button, as well as the user's gestures and actions The present invention provides a gesture recognition apparatus and method for automatically controlling a system that can automatically play and stop a system.

상기와 같은 목적을 달성하기 위한 본 발명의 시스템 자동제어용 제스처 인식 장치는, 로봇에 부착된 카메라로부터 인식 대상이 되는 사용자의 제스처 영상을 획득하여 전달하는 영상 입력부, 상기 영상 입력부로부터 전달된 영상의 시퀀스로부터 이웃하는 프레임간의 영상차를 통해 추출된 움직임 후보 영역과 상기 전달된 영상의 영상특징정보, 즉, 윤곽선, 피부색 영역 등을 기초로 대상 사용자에 대한 사람의 형상을 추출하는 형상 디텍터부, 상기 사용자의 제스처 영상 중 사용자의 제스처 구간을 추출하여 인식하는 제스처 인식부 및 상기 사용자의 제스처를 인식하여 그 인식 결과에 따라 시스템 및 로봇동작을 자동으로 제어하는 시스템 및 로봇동작 자동제어부를 포함하여 이루어지고, 로봇에 부착된 카메라로부터 획득한 영상으로부터 제스처를 추출하고 인식하여 시스템을 자동 제어하는 것을 특징으로 한다.In order to achieve the above object, a gesture recognition apparatus for automatic system control according to the present invention includes an image input unit for obtaining and transferring a gesture image of a user to be recognized from a camera attached to a robot, and a sequence of images transmitted from the image input unit. A shape detector unit for extracting a shape of a person with respect to a target user based on the motion candidate region extracted from the image difference between neighboring frames from the image and the image characteristic information of the transmitted image, that is, an outline, a skin color region, etc. And a gesture recognition unit for extracting and recognizing a user's gesture section from a gesture image of the user and a system for automatically controlling a system and a robot operation according to a result of the recognition of the user's gesture, and a robot operation automatic control unit. Gestures from images acquired from cameras attached to robots It characterized in that the extraction and recognition to automatically control the system.

한편, 상기와 같은 목적을 달성하기 위한 본 발명의 시스템 자동제어용 제스처 인식 방법은, 로봇에 부착된 카메라로부터 획득한 입력 영상으로부터 대상 사용자를 검출하여 제스처를 인식한 다음 특정 시스템을 제어하는 방법으로서, 로봇에 장착된 카메라를 통해 입력 영상을 획득하는 단계, 상기 획득한 입력 영상으로부터 사용자를 검출하고, 상기 검출된 사용자의 손의 움직임을 추출하는 단계, 상기 추출된 손의 움직임에 의한 제스처가 로봇을 제어하기 위한 제스처인지, 시스템 자동 제어를 위한 제스처인지를 판별하는 단계, 상기 판별 결과, 상기 로봇을 제어하기 위한 제스처일 경우, 상기 사용자와 로봇간의 일정 거리가 유지될 때까지 상기 사용자에게 다가가도록 제어하는 단계 및 상기 사용자의 로봇 움직임을 멈추게 하는 제스처를 인식하면, 상기 사용자의 정면에서 로봇이 멈추도록 제어하는 단계를 포함하여 이루어진 것을 특징으로 한다.On the other hand, the gesture recognition method for automatic control of the system of the present invention for achieving the above object, as a method for detecting a gesture by detecting the target user from the input image obtained from the camera attached to the robot, and then controls a specific system, Acquiring an input image through a camera mounted on the robot, detecting a user from the obtained input image, extracting a movement of the detected user's hand, and a gesture by the extracted hand movement Determining whether it is a gesture for controlling or a gesture for automatic system control, and when the determination result is a gesture for controlling the robot, controlling to approach the user until a predetermined distance between the user and the robot is maintained. And recognizing a gesture to stop the user's robot movement. Surface, characterized in that it comprises a step of controlling the robot to stop in front of the user.

한편 본 발명의 시스템 자동제어용 제스처 인식 방법은, 상기 제스처 판별 단계에서, 시스템을 자동 제어하기 위한 제스처일 경우, 시스템 자동 제어는, 시스템 선택을 위한 버튼을 디스플레이하는 단계, 상기 사용자의 제스처가 인식되면, 상기 사용자의 제스처에 따라 선택된 버튼을 제어하여 시스템을 플레이시키는 단계 및 상기 사용자가 시스템의 플레이 멈춤 제스처를 행하거나 일정 시간 이상 자리를 비웠을 경우, 상기 선택된 시스템의 플레이를 정지시키는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.On the other hand, the gesture recognition method for system automatic control according to the present invention, in the gesture determination step, when the gesture is for automatically controlling the system, the system automatic control may include displaying a button for system selection, and when the user gesture is recognized. And controlling the selected button according to the user's gesture to play the system, and stopping the play of the selected system when the user makes a play stop gesture of the system or leaves the seat for a predetermined time or more. Characterized in that made.

한편 본 발명의 시스템 자동제어용 제스처 인식 방법은, 상기 획득한 입력 영상으로부터 사용자를 검출하고, 상기 검출된 사용자의 손의 움직임을 추출하는 단계에 있어서, 상기 사용자 검출은, 상기 획득한 입력 영상에 소정 임계치 이상의 움직임 영역이 존재하는지 체크하는 단계, 상기 체크 결과, 상기 소정 임계치 이상의 움직임 영역이 존재하는 경우, 영상 프레임과 이전 입력 영상 프레임으로부터 움직임 후보 영역을 추출하는 단계, 상기 움직임 후보 영역으로부터 영상 특징 정보를 추출하여 사람의 실루엣 형상을 검출하는 단계 및 상기 검출된 사람의 실루엣 형상으로부터 사용자의 얼굴 영역을 추출하여 상기 사용자를 검출하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.Meanwhile, in the gesture recognition method for automatic system control of the present invention, in the step of detecting a user from the obtained input image and extracting the movement of the detected user's hand, the user detection is predetermined in the obtained input image. Checking whether there is a motion region greater than or equal to a threshold value; if there is a motion region greater than or equal to the predetermined threshold value, extracting a motion candidate region from an image frame and a previous input image frame; image characteristic information from the motion candidate region; Detecting the silhouette shape of the person by extracting the extract; and detecting the user by extracting a face region of the user from the detected silhouette shape of the person.

한편 본 발명의 시스템 자동제어용 제스처 인식 방법은, 상기 획득한 입력 영상으로부터 사용자를 검출하고, 상기 검출된 사용자의 손의 움직임을 추출하는 단계에 있어서, 상기 사용자의 손의 움직임 추출은, 상기 추출한 사용자의 얼굴 영역에서 피부색 영역을 역으로 추정하여 손 영역을 추출하는 단계 및 상기 추출한 손 영역으로부터 손의 움직임을 추적하여 제스처 구간을 검출하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.Meanwhile, in the gesture recognition method for automatic system control of the present invention, in the step of detecting a user from the obtained input image and extracting the movement of the detected user's hand, the movement of the user's hand is extracted. And extracting a hand region by inversely estimating a skin color region in a face region of the face region and detecting a gesture section by tracking a movement of a hand from the extracted hand region.

이하, 본 발명의 시스템 제어용 제스처 인식 장치 및 방법을 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, a gesture recognition apparatus and method for controlling a system of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 시스템 제어용 제스처 인식 장치의 구성도 이다.1 is a block diagram of a system control gesture recognition apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시 예에 따른 시스템 제어용 제스처 인식 장치는 영상 입력부(100), 형상 디텍터부(200), 제스처 인식부(300) 및 시스템 및 로봇동작 자동제어부(400)를 포함한다.As shown in FIG. 1, a gesture recognition apparatus for controlling a system according to an exemplary embodiment of the present invention includes an image input unit 100, a shape detector unit 200, a gesture recognition unit 300, and an automatic system and robot motion controller 400. It includes.

상세하게는 영상 입력부(100)는 예를 들어 로봇에 부착된 카메라 등을 포함하며, 검출 대상이 되는 사용자의 제스처 영상을 획득하여 시스템 내부로 전달한다.In detail, the image input unit 100 includes, for example, a camera attached to the robot, and acquires a gesture image of a user to be detected and transmits the gesture image to the system.

형상 디텍터부(200)는 움직임 영역 추출부(210), 영상특징정보 추출부(220) 및 형상 추출부(230)를 포함하고, 움직임 영역 추출부(210)는 상기 영상 입력부(100)로부터 전달된 연속된 영상의 시퀀스로부터 이웃하는 프레임간의 영상 차를 이용하여 사용자의 움직임 정보를 추출한다. 즉, 영상 시퀀스로부터 연속된 영상인 세 프레임(t-1, t, t+1 )간의 화소의 명도값의 차가 임계치보다 큰 경우, 움직임이 발생한 화소(이하, 모션 화소라고도 한다)로 간주하여 움직임 정보를 추출한다.The shape detector 200 includes a motion region extractor 210, an image feature information extractor 220, and a shape extractor 230, and the motion region extractor 210 is transferred from the image input unit 100. The user's motion information is extracted using the image difference between neighboring frames from the sequence of consecutive images. That is, when the difference in brightness value of the pixels between three frames ( t-1, t, t + 1 ) , which are consecutive images from the image sequence , is larger than the threshold value, the motion is regarded as a pixel (hereinafter referred to as a motion pixel) in which the motion occurs. Extract the information.

영상특징정보 추출부(220)에서는 앞서 구한 모션 화소들이 사용자의 움직임 영역인 경우, 에지, 색상, 형상 정보과 같은 영상 특징 정보를 추출한다.The image feature information extractor 220 extracts image feature information such as edge, color, and shape information when the motion pixels obtained above are the user's motion region.

형상 추출부(230)에서는 영상특징정보 추출부(220)에서 추출한 영상특징정보로부터 배경영상과 현재 영상과의 차를 구하여 얻은 사람의 실루엣 정보와 사람의 피부색 정보를 이용하여 사람의 형상을 추출한다.The shape extractor 230 extracts the shape of the person using the silhouette information of the person and skin color information of the person obtained by obtaining a difference between the background image and the current image from the image feature information extracted by the image feature information extractor 220. .

제스처 인식부(300)는 얼굴영역 추출부(310), 손영역 추출부(320) 및 제스처 특징 추출 및 인식부(330)를 포함하고, 얼굴영역 추출부(310)는 사람의 형상의 구조적 특징 정보를 이용하여 얼굴 영역을 검출하고, 손영역 추출부(320)는 추출한 얼굴 영역으로부터 피부색 영역 및 움직임 영역을 추출하여 손 영역을 추출한다. 사용자의 손 영역을 계속 추적하여 제스처 구간을 검출한다. The gesture recognizer 300 includes a face region extractor 310, a hand region extractor 320, and a gesture feature extractor and recognizer 330, and the face region extractor 310 is a structural feature of a human shape. The face region is detected using the information, and the hand region extractor 320 extracts the hand region by extracting the skin color region and the movement region from the extracted face region. The gesture section is detected by continuously tracking the user's hand region.

제스처 특징 추출 및 인식부(330)는 제스처의 방향성, 시간성, 공간성에 무관하게 사용자의 제스처를 인식할 수 있도록 하기 위한 특징 추출 방법을 사용하여 검출된 제스처 구간에서 사용자가 행한 제스처의 구조적인 특징정보를 추출하고, 이를 이용하여 사용자의 제스처를 인식하도록 한다. 또한, 사용자 제스처의 인식 결과에 따라 시스템 및 로봇동작 자동제어부(400)에서 로봇의 움직임을 제어하거나 특정 시스템을 자동 제어할 수 있도록 한다.The gesture feature extraction and recognition unit 330 uses a feature extraction method to recognize a user's gesture regardless of the direction, temporality, or spatiality of the gesture. Extract the user's gestures. In addition, the system and the robot motion automatic control unit 400 may control the movement of the robot or automatically control a specific system according to the recognition result of the user gesture.

시스템 및 로봇 자동제어부(400)는 시스템 자동 제어를 위한 시스템 선택부 (410), 버튼 제어부(420)로 이루어진 시스템 자동제어부(440) 및 로봇동작 자동제어부(430)를 포함한다. 로봇을 사용자 쪽으로 움직이게 하는 제스처를 인식한 경우, 로봇동작 자동제어부(430)에서는 로봇의 움직임을 제어하기 위하여 먼저 로봇을 호출하는 제스처를 행하는 사용자를 식별하여 사용자 쪽으로 로봇을 이동하게 하고, 시스템 제어를 위한 손의 제스처를 충분히 인식할 수 있는 거리까지 왔을 때 로봇의 움직임을 정시시키도록 제어한다.The system and robot automatic controller 400 includes a system selector 410 for automatically controlling the system, a system automatic controller 440 composed of a button controller 420, and an automatic robot motion controller 430. When the robot recognizes a gesture for moving the robot toward the user, the robot motion controller 430 first identifies a user who makes a gesture to call the robot to move the robot toward the user and controls the system to control the movement of the robot. When the distance of the hand gesture for the hand enough to recognize the movement of the robot to control.

제스처 특징 추출 및 인식부(330)의 제어에 의해 로봇과 사용자 간 거리가 제스처를 인식할 수 있는 거리로 유지되었을 때 로봇의 동작이 멈추면, 시스템 선택부(410)는 특정 시스템을 제어하기 위해 사용자가 시스템을 선택할 수 있도록 버튼을 디스플레이하고, 사용자 제스처 인식 결과에 따라 제어하기를 원하는 특정 시스템을 선택하도록 한다. 버튼 제어부(420)는 사용자의 제스처에 따라 시스템을 자동으로 제어할 수 있는 선택되는 버튼을 제어하여 시스템을 플레이 시킨다. 즉, 이와 같이 시스템 및 로봇동작 자동제어부(400)는 사용자의 제스처 인식 결과나 사용자의 행동을 분석하여 시스템을 자동으로 플레이 시키고 정지시키는 기능을 제공한다.  When the robot stops operation when the distance between the robot and the user is maintained as the distance for recognizing the gesture by the control of the gesture feature extraction and recognition unit 330, the system selector 410 may control the specific system. A button is displayed to allow a user to select a system, and a specific system to be controlled is selected according to a result of the user gesture recognition. The button controller 420 controls the selected button that can automatically control the system according to the user's gesture to play the system. That is, the system and the robot motion automatic control unit 400 provide a function of automatically playing and stopping the system by analyzing a user's gesture recognition result or user's behavior.

또한 시스템 및 로봇동작 자동제어부(400)는 연속된 영상 시퀀스로부터 제스처 데이터를 추출하여 특징을 뽑아 인식한 다음 특정 시스템을 자동으로 제어하는 인터페이스로도 활용할 수 있다.In addition, the system and the robot motion controller 400 may extract the gesture data from the continuous image sequence, extract the feature, recognize the feature, and then use the interface to automatically control a specific system.

도 2는 본 발명의 실시 예에 따른 시스템 제어용 제스처 인식 장치에서 제스처 인식 과정을 나타내는 흐름도이다.2 is a flowchart illustrating a gesture recognition process in a system control gesture recognition apparatus according to an exemplary embodiment of the present invention.

로봇의 주의를 집중시키기 위해 사용자가 호출 제스처를 취하면(S1), 로봇은 영상 입력부(100)로써 부착된 카메라를 통해 사용자의 제스처 영상을 입력 영상으로서 획득한다(S2). When the user takes a call gesture to focus the attention of the robot (S1), the robot acquires a gesture image of the user as an input image through a camera attached as the image input unit 100 (S2).

영상 입력부(100)로부터 획득한 입력 영상에 소정 임계치 이상의 움직임 영역이 존재하는지 체크하여(S3), 소정 임계치 이상의 움직임 영역이 존재하는 경우, 움직임 영역 추출부(210)에서 연속한 입력 영상 프레임으로부터 움직임 후보 영역을 추출하고, 입력 영상으로부터 영상특징정보를 추출한다(S4). 추출한 움직임 후보 영역과 영상특징정보를 이용하여 사람의 실루엣과 같은 형상을 검출한다(S5).If there is a motion region having a predetermined threshold or more in the input image acquired from the image input unit 100 (S3), and if a motion region having a predetermined threshold or more exists, the motion region extractor 210 moves from the continuous input image frame. The candidate region is extracted and image feature information is extracted from the input image (S4). A shape such as a silhouette of a person is detected using the extracted motion candidate region and image feature information (S5).

추출된 사람의 실루엣 형상으로부터 사용자의 얼굴 영역을 추출하여 사용자를 검출한다(S6). 그런 다음 추출한 사용자의 얼굴 영역에서 역으로 피부색 영역을 추정하여 손 영역을 추출하고, 추출한 손 영역으로부터 사용자의 손의 움직임을 추적하고, 제스처 구간을 검출한다(S7).A user's face region is extracted from the extracted silhouette shape of the person (S6). Then, the skin region is estimated by inversely extracting the skin region from the extracted user's face region, the user's hand is tracked from the extracted hand region, and a gesture section is detected (S7).

검출한 제스처가 로봇 제어 제스처인지 판단하고(S8), 로봇 제어 제스처이면 로봇의 움직임을 제어한다. 로봇의 움직임 제어는 사용자가 로봇 호출을 위한 제스처를 행했을 경우, 이를 로봇이 인식하고 사용자와 로봇간의 거리가 일정 거리가 유지될 때까지 사용자에게 다가가도록 한다(S9). 그런 다음 사용자가 로봇 움직임을 멈추게 하는 제스처를 행하면, 사용자의 정면에서 로봇이 멈추도록 제어한다(S10).It is determined whether the detected gesture is a robot control gesture (S8), and if the robot control gesture, the movement of the robot is controlled. When the user makes a gesture for a robot call, the movement control of the robot recognizes the robot and approaches the user until the distance between the user and the robot is maintained (S9). Then, when the user makes a gesture to stop the robot movement, the robot is controlled to stop in front of the user (S10).

로봇 제어 제스처가 아니면 시스템 자동 제어를 위한 제스처인지를 판단한다(S11). 판단 결과 시스템 자동 제어를 위한 제스처이면 로봇은 시스템 선택을 위한 버튼을 디스플레이하고(S12), 사용자의 제스처를 인식한 결과에 따라 시스템 선택 버튼을 제어하여(S13) 시스템을 플레이 시킨다(S14). 그런 다음 사용자의 손 영역을 계속 추적한다. 사용자가 선택된 시스템의 플레이 멈춤 제스처를 행하거나 사용자가 일정 시간 이상 자리를 비웠을 경우, 선택된 시스템의 플레이를 정시시킨다(S14). If it is not the robot control gesture, it is determined whether the gesture is for automatic system control (S11). If the determination result is a gesture for automatic system control, the robot displays a button for system selection (S12), and controls the system selection button according to a result of recognizing a user's gesture (S13) to play the system (S14). Then keep track of your hand area. When the user makes a play stop gesture of the selected system or when the user is away for a predetermined time or more, the play of the selected system is indicated (S14).

도 3은 로봇 자동 제어를 통해 사용자를 검출하는 환경을 나타낸다. 도 3a는 로봇 자동 제어를 위한 환경을 나타낸 것으로, 로봇을 행하여 3명의 사람이 늘어서 있는 상항이며, 도 3b는 호출 제스처로 로봇을 움직이게 하는 것을 나타낸 것으로, 사용자가 손짓(호출 제스처)으로 로봇을 호출하면, 로봇이 사용자의 얼굴 영역을 추적하면서 사용자에게 다가가는 것을 나타낸다. 도 3c는 로봇의 움직임을 사용자와 로봇과의 일정거리 앞에서 멈추게 하는 제스처를 사용자가 행했을 때의 환경을 나타낸 것으로, 사용자가 멈춤 제스처를 하면 로봇이 정지한다.3 shows an environment for detecting a user through automatic robot control. FIG. 3A illustrates an environment for automatic robot control, in which three people are lined up to perform a robot, and FIG. 3B illustrates moving a robot by a call gesture. The user calls a robot by hand gestures (call gestures). This indicates that the robot approaches the user while tracking the face area of the user. 3C illustrates an environment when a user makes a gesture of stopping a robot's movement in front of a predetermined distance between the user and the robot. When the user makes a stop gesture, the robot stops.

도 4는 본 발명의 실시 예에 따른 시스템 제어용 제스처 인식 장치에서 사용자를 검출하기 위해 t번째 프레임의 원본 영상(a)으로부터 사용자의 얼굴 영역(b)을 검출하고, 원본 영상(a)으로부터 사용자의 모션 정보(c)와 피부색 영역(d)을 검출한 후, 원본 영상(a)에서 사용자 손의 움직임을 검출하여 추적하는 것을 나타내는 도이다.FIG. 4 detects a user's face area b from an original image (a) of a t- th frame and detects a user's face from the original image (a) in order to detect the user in the system control gesture recognition apparatus according to an exemplary embodiment of the present invention. After detecting the motion information (c) and the skin color region (d), it is a diagram showing the detection and tracking of the movement of the user's hand in the original image (a).

도 5는 제스처 인식 결과를 이용하여 제어하고자 하는 시스템의 선택(a) 및 버튼 제어(b)에 활용하는 예를 나타내는 도이다. 도 5의 (a)는 선택할 수 있는 버튼들 중 DVD를 선택하는 것을 나타내고, (b)는 DVD가 선택된 후 그 세부 항목에 해당되는 버튼들을 디스플레이하고, 이 중 목록 3이 선택되는 것을 나타내고 있다.FIG. 5 is a diagram illustrating an example of use of selection (a) and button control (b) of a system to be controlled using a gesture recognition result. FIG. 5A illustrates selecting a DVD from among selectable buttons, and FIG. 5B displays buttons corresponding to sub-items after the DVD is selected, and shows that List 3 is selected.

도 6은 제스처 구간에서 추출된 손 좌표로부터 제스처의 구조적인 특징 벡터를 추출하는 것을 나타내는 도이다. 제스처 특징 추출 및 인식부(330)에서 사용자의 제스처 인식을 사용자가 행하는 제스처(a)의 방향성, 공간성, 시간성에 무관하게 인식할 수 있도록 하는 구조적 특징 패턴을 추출하여 인식(b)하는 것을 나타낸다.6 is a diagram illustrating extracting a structural feature vector of a gesture from a hand coordinate extracted in a gesture section. The gesture feature extraction and recognition unit 330 extracts and recognizes a structural feature pattern that enables the user to recognize a gesture regardless of the direction, spatiality, and temporality of the gesture (a).

이상에서 카메라를 장착한 모바일 로봇이 움직이는 사람을 대상으로 사람 형상을 추출하고 손을 추적한 다음 제스처를 인식하여 시스템을 제어하는 경우를 예로 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예 로 국한되는 것이 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.In the above description, the mobile robot equipped with a camera extracts a human shape from a moving person, tracks a hand, and then recognizes a gesture to control the system. The present invention is not limited to the embodiments, and various modifications can be made without departing from the spirit of the present invention.

상술한 바와 같이, 본 발명에 의한 시스템 자동제어용 제스처 인식 장치 및 그 방법은, 특정 위치에 고정된 카메라 근처로 다가가서 그 영역 내에서만 제스처를 행하고 인식해야만 하였으나, 본 발명에서는 사용자가 어떤 위치에서도 상관없이 로봇에 장착된 카메라를 통해 사용자의 제스처를 획득하여 특정 시스템을 작동시킬 수 효과가 있다.As described above, the gesture recognition apparatus and method for automatic system control according to the present invention had to approach near a camera fixed at a specific position and perform a gesture only in the region and recognize the gesture. There is an effect that can operate the specific system by acquiring the user's gesture through the camera mounted on the robot.

또한, 본 발명에 의한 시스템 자동제어용 제스처 인식 장치 및 그 방법은, 사용자가 서비스를 제공받기 위해 특정 위치나 시스템으로 다가가는 것이 아니라 서비스를 제공해 줄 수 있는 로봇을 다가오게 하여 사용자가 원하는 서비스, 즉 시스템 자동 제어와 같은 서비스를 제스처 인식으로 가능하게 함으로써 시스템을 제어하기 위해 반드시 필요했던 리모콘 기능을 대체하여 리모콘 사용에 대한 불편함을 해소하여 사용자에게 편리함을 제공하는 효과가 있다.In addition, the gesture recognition apparatus and system for automatic system control according to the present invention, the user does not approach the specific location or system to receive the service, but the approach to the robot that can provide the service to the service that the user wants, namely By enabling services such as system automatic control by gesture recognition, it is possible to replace the remote control function, which is necessary for controlling the system, to solve the inconvenience of using the remote control, thereby providing convenience to the user.

Claims (11)

로봇에 부착된 카메라로부터 사용자의 제스처 영상을 획득하여 전달하는 영상 입력부(100);An image input unit 100 which acquires and transmits a gesture image of a user from a camera attached to the robot; 상기 영상 입력부(100)로부터 전달된 영상의 시퀀스로부터 이웃하는 프레임간의 영상차를 통해 추출된 움직임 후보 영역과 상기 전달된 영상의 영상특징정보를 이용하여 사용자에 대한 사람의 형상을 추출하는 형상 디텍터부(200);Shape detector unit for extracting the shape of the person to the user by using the motion candidate region extracted through the image difference between neighboring frames from the sequence of the image transmitted from the image input unit 100 and the image characteristic information of the transmitted image 200; 상기 사용자의 제스처 영상 중 사용자의 제스처 구간을 추출하여 인식하는 제스처 인식부(300); 및 A gesture recognition unit 300 extracting and recognizing a gesture section of the user from the gesture image of the user; And 상기 사용자의 제스처를 인식하여 시스템을 자동으로 제어하거나 로봇의 동작을 자동으로 제어하는 시스템 및 로봇동작 자동제어부(400);A system for automatically controlling the system by automatically recognizing the gesture of the user or automatically controlling the operation of the robot and a robot motion controller 400; 를 포함하여 구성되는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.Gesture recognition device for automatic system control, characterized in that comprising a. 제 1항에 있어서, 상기 형상 디텍터부(200)는, The method of claim 1, wherein the shape detector 200, 상기 영상 입력부(100)로부터 전달된 연속된 영상의 시퀀스로부터 이웃하는 프레임간의 영상 차를 이용하여 사용자의 움직임 영역을 추출하는 움직임 영역 추출부(210);A motion region extraction unit 210 for extracting a user's motion region by using an image difference between neighboring frames from a sequence of consecutive images transmitted from the image input unit 100; 상기 사용자의 움직임 영역에서 영상 특징 정보를 추출하는 영상특징정보 추출부(220); 및 An image feature information extracting unit 220 for extracting image feature information from the motion region of the user; And 상기 추출한 영상특징정보로부터 사람의 형상을 추출하는 형상 추출부(230);A shape extraction unit 230 for extracting a shape of a person from the extracted image feature information; 를 포함하여 구성되는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.Gesture recognition device for automatic system control, characterized in that comprising a. 제 1항 또는 제 2항에 있어서, 상기 제스처 인식부(300)는,The method of claim 1 or 2, wherein the gesture recognition unit 300, 상기 사람의 형상으로부터 구조적 특징 정보를 이용하여 얼굴 영역을 검출하는 얼굴영역 추출부(310);A face region extracting unit 310 for detecting a face region using structural feature information from the shape of the person; 상기 추출한 얼굴 영역으로부터 피부색 영역 및 움직임 영역을 추정하여 손 영역을 검출하는 손영역 추출부(320); 및A hand region extraction unit 320 for detecting a hand region by estimating a skin color region and a movement region from the extracted face region; And 상기 검출된 손 영역으로부터 사용자의 제스처 영역을 검출하여 제스처 특징을 추출하고, 추출된 제스처 특징을 이용하여 사용자의 제스처를 인식하는 제스처 특징 추출 및 인식부(330);A gesture feature extraction and recognition unit 330 which detects a gesture region of the user from the detected hand region and extracts a gesture feature and recognizes a gesture of the user using the extracted gesture feature; 를 포함하여 구성되는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.Gesture recognition device for automatic system control, characterized in that comprising a. 제 3항에 있어서, 상기 시스템 및 로봇동작 자동제어부(400)는,According to claim 3, The system and robot operation automatic control unit 400, 특정 시스템을 선택할 수 있는 버튼을 디스플레이하는 시스템 선택부(410)와 상기 사용자의 제스처에 따라 선택된 버튼을 제어하여 시스템을 자동제어하는 버튼 제어부(420)로 구성된 시스템 자동제어부(440); 및A system automatic controller 440 including a system selector 410 for displaying a button for selecting a specific system and a button controller 420 for automatically controlling a system by controlling a selected button according to a gesture of the user; And 상기 사용자의 제스처에 의해 로봇의 동작을 자동으로 제어하는 로봇동작 자동제어부(430);Robot operation automatic control unit 430 for automatically controlling the operation of the robot by the user's gesture; 를 포함하여 구성되는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.Gesture recognition device for automatic system control, characterized in that comprising a. 제 2항에 있어서, 상기 움직임 영역 추출부(210)에서 사용자의 움직임 영역은,The method of claim 2, wherein the movement area of the user in the movement area extractor 210, 상기 영상 입력부(100)를 통해 획득한 영상 시퀀스로부터 연속된 영상 세 프레임간 화소의 명도의 차가 임계치보다 큰 경우, 움직임이 발생한 화소로 간주하여 움직임 영역으로 추출되는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.Recognizing gestures for automatic control of a system, when the difference in brightness of pixels among consecutive three frames of images from the image sequence acquired through the image input unit 100 is greater than a threshold, it is regarded as a pixel in which movement occurs and extracted into a motion region. Device. 제 4항에 있어서, 상기 로봇동작 자동제어부(430)에서 로봇의 움직임 제어는,The method of claim 4, wherein the robot motion control of the robot motion control unit 430, 사용자가 로봇을 호출하는 제스처를 행할 경우, 상기 사용자 쪽으로 로봇을 이동하게 하고, 시스템 제어를 위한 손의 제스처를 충분히 인식할만한 거리까지 접근했을 때 로봇의 움직임을 정지시키는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.When the user makes a gesture of calling the robot, the robot moves the robot toward the user and stops the movement of the robot when the user approaches the distance enough to recognize the gesture of the hand for controlling the system. Recognition device. 제 3항에 있어서, 상기 제스처 특징 추출 및 인식부(330)에서 제스처 인식은,According to claim 3, Gesture recognition in the gesture feature extraction and recognition unit 330, 사용자가 행하는 제스처의 방향성, 공간성, 시간성에 무관하게 사용자의 제스처를 인식할 수 있도록 하는 구조적 특징 패턴을 추출하여 인식하는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 장치.And a structural feature pattern for recognizing a user's gesture regardless of the directionality, spatiality, and temporality of the gesture made by the user. 사용자의 제스처를 인식하는 방법에 있어서,In a method for recognizing a gesture of a user, 로봇에 장착된 카메라를 통해 입력 영상을 획득하는 단계;Obtaining an input image through a camera mounted on the robot; 상기 획득한 입력 영상으로부터 사용자를 검출하고, 상기 검출된 사용자의 손의 움직임을 추출하는 단계;Detecting a user from the obtained input image and extracting a movement of the detected user's hand; 상기 추출된 손의 움직임에 의한 제스처가 로봇을 제어하기 위한 제스처인지, 시스템 자동 제어를 위한 제스처인지를 판별하는 단계;Determining whether the gesture by the movement of the extracted hand is a gesture for controlling the robot or a system automatic control; 상기 판별 결과, 상기 로봇을 제어하기 위한 제스처일 경우, 상기 사용자와 로봇간의 일정 거리가 유지될 때까지 상기 사용자에게 다가가도록 제어하는 단계; 및If the result of the determination is a gesture for controlling the robot, controlling the user to approach the user until a predetermined distance between the user and the robot is maintained; And 상기 사용자의 로봇 움직임을 멈추게 하는 제스처를 인식하면, 상기 사용자의 정면에서 로봇이 멈추도록 제어하는 단계;Recognizing a gesture to stop the robot movement of the user, controlling the robot to stop in front of the user; 를 포함하여 이루어진 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 방법.Gesture recognition method for automatic system control, characterized in that made. 제 8항에 있어서, 상기 획득한 입력 영상으로부터 사용자를 검출하고, 상기 검출된 사용자의 손의 움직임을 추출하는 단계에 있어서, 상기 사용자 검출은,The method of claim 8, wherein the detecting of the user from the acquired input image and extracting the movement of the detected user's hand comprises: detecting the user; 상기 획득한 입력 영상에 임계치 이상의 움직임 영역이 존재하는지 체크하는 단계;Checking whether a motion area greater than or equal to a threshold exists in the obtained input image; 상기 체크 결과, 상기 임계치 이상의 움직임 영역이 존재하는 경우, 연속한 영상 프레임으로부터 움직임 후보 영역을 추출하는 단계;Extracting a motion candidate area from consecutive image frames when there is a motion area above the threshold as a result of the check; 상기 움직임 후보 영역으로부터 영상 특징 정보를 추출하여 사람의 실루엣 형상을 검출하는 단계; 및Extracting image feature information from the motion candidate region to detect a silhouette shape of a person; And 상기 검출된 사람의 실루엣 형상으로부터 사용자의 얼굴 영역을 추출하여 상기 사용자를 검출하는 단계; Detecting the user by extracting a face region of the user from the detected silhouette shape of the person; 를 더 포함하여 이루어지는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 방법.The gesture recognition method for system automatic control, characterized in that further comprises. 제 9항에 있어서, 상기 사용자의 손의 움직임 추출은,The method of claim 9, wherein the movement of the user's hand is extracted. 상기 추출한 사용자의 얼굴 영역에서 피부색 영역을 역으로 추정하여 손 영역을 추출하는 단계; 및Extracting a hand region by inversely estimating a skin color region in the extracted face region of the user; And 상기 추출한 손 영역으로부터 손의 움직임을 추적하여 제스처 구간을 검출하는 단계;Detecting a gesture section by tracking a hand movement from the extracted hand region; 를 더 포함하여 이루어지는 것을 특징으로 하는 시스템 자동 제어용 제스처 인식 방법.The gesture recognition method for system automatic control, characterized in that further comprises. 제 8항에 있어서, 상기 제스처 판별 단계에서, 시스템을 자동 제어하기 위한 제스처일 경우, 시스템 자동 제어는,The method of claim 8, wherein in the gesture determination step, when the gesture is for automatically controlling the system, the system automatic control is performed. 시스템 선택을 위한 버튼을 디스플레이하는 단계;Displaying a button for system selection; 상기 사용자의 제스처가 인식되면, 상기 사용자의 제스처에 따라 선택된 버튼을 제어하여 시스템을 플레이시키는 단계; 및If the gesture of the user is recognized, controlling the selected button according to the gesture of the user to play the system; And 상기 사용자가 시스템의 플레이 멈춤 제스처를 행하거나 일정 시간 이상 자리를 비웠을 경우, 상기 선택된 시스템의 플레이를 정지시키는 단계;Stopping the play of the selected system when the user makes a play stop gesture of the system or is away for a predetermined time; 를 더 포함하여 이루어지는 것을 특징으로 하는 로봇을 이용한 시스템 자동 제어용 제스처 인식 방법.A gesture recognition method for system automatic control using a robot, characterized in that further comprises.
KR1020050119798A 2005-12-08 2005-12-08 Gesture recognition apparatus and methods for automatic control of systems KR100692526B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050119798A KR100692526B1 (en) 2005-12-08 2005-12-08 Gesture recognition apparatus and methods for automatic control of systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050119798A KR100692526B1 (en) 2005-12-08 2005-12-08 Gesture recognition apparatus and methods for automatic control of systems

Publications (1)

Publication Number Publication Date
KR100692526B1 true KR100692526B1 (en) 2007-03-12

Family

ID=38103040

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050119798A KR100692526B1 (en) 2005-12-08 2005-12-08 Gesture recognition apparatus and methods for automatic control of systems

Country Status (1)

Country Link
KR (1) KR100692526B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100916836B1 (en) 2008-05-29 2009-09-14 고려대학교 산학협력단 Method and apparatus for recognizing pointing gesture
KR101130063B1 (en) 2010-04-30 2012-03-28 동명대학교산학협력단 Method for contents control based human hand gesture recognition for integrated display device of next generation
WO2012144667A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Method and electronic device for gesture recognition
WO2013165177A1 (en) * 2012-05-02 2013-11-07 주식회사 매크론 Remote controller for motion recognition
CN104023160A (en) * 2013-02-28 2014-09-03 株式会社Pfu Overhead scanner and image obtaining method
KR101536353B1 (en) * 2014-07-16 2015-07-14 주식회사 매크론 A gesture recognition toy
US9940718B2 (en) 2013-05-14 2018-04-10 Samsung Electronics Co., Ltd. Apparatus and method for extracting peak image from continuously photographed images
CN111332314A (en) * 2018-11-30 2020-06-26 上海博泰悦臻网络技术服务有限公司 Unmanned vehicle service method and system, storage medium, vehicle-mounted terminal and unmanned vehicle
KR102290510B1 (en) * 2020-07-15 2021-08-13 이영훈 Method for automatically controlling smart tv based on deep learning
CN113494802A (en) * 2020-05-28 2021-10-12 海信集团有限公司 Intelligent refrigerator control method and intelligent refrigerator

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003266353A (en) 2002-03-18 2003-09-24 Sony Corp Robot device and control method therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003266353A (en) 2002-03-18 2003-09-24 Sony Corp Robot device and control method therefor

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100916836B1 (en) 2008-05-29 2009-09-14 고려대학교 산학협력단 Method and apparatus for recognizing pointing gesture
KR101130063B1 (en) 2010-04-30 2012-03-28 동명대학교산학협력단 Method for contents control based human hand gesture recognition for integrated display device of next generation
WO2012144667A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Method and electronic device for gesture recognition
US9372540B2 (en) 2011-04-19 2016-06-21 Lg Electronics Inc. Method and electronic device for gesture recognition
KR101370022B1 (en) * 2012-05-02 2014-03-25 주식회사 매크론 Gesture recognition remote controller
WO2013165177A1 (en) * 2012-05-02 2013-11-07 주식회사 매크론 Remote controller for motion recognition
US9529443B2 (en) 2012-05-02 2016-12-27 Macron Co., Ltd Remote controller for motion recognition
CN104023160A (en) * 2013-02-28 2014-09-03 株式会社Pfu Overhead scanner and image obtaining method
CN104023160B (en) * 2013-02-28 2017-04-12 株式会社Pfu Overhead scanner and image obtaining method
US9940718B2 (en) 2013-05-14 2018-04-10 Samsung Electronics Co., Ltd. Apparatus and method for extracting peak image from continuously photographed images
KR101536353B1 (en) * 2014-07-16 2015-07-14 주식회사 매크론 A gesture recognition toy
WO2016010369A1 (en) * 2014-07-16 2016-01-21 주식회사 매크론 Action recognition toy
CN111332314A (en) * 2018-11-30 2020-06-26 上海博泰悦臻网络技术服务有限公司 Unmanned vehicle service method and system, storage medium, vehicle-mounted terminal and unmanned vehicle
CN113494802A (en) * 2020-05-28 2021-10-12 海信集团有限公司 Intelligent refrigerator control method and intelligent refrigerator
KR102290510B1 (en) * 2020-07-15 2021-08-13 이영훈 Method for automatically controlling smart tv based on deep learning
KR102290505B1 (en) * 2020-07-15 2021-08-13 이영훈 Method for automatically controlling smart tv based on deep learning

Similar Documents

Publication Publication Date Title
KR100692526B1 (en) Gesture recognition apparatus and methods for automatic control of systems
US10168794B2 (en) Motion-assisted visual language for human computer interfaces
RU2439653C2 (en) Virtual controller for display images
EP2659336B1 (en) User interface, apparatus and method for gesture recognition
JP5205187B2 (en) Input system and input method
US20170083104A1 (en) Information processing apparatus information processing method and storage medium
JP4323180B2 (en) Interface method, apparatus, and program using self-image display
JP5077956B2 (en) Information terminal equipment
EP2790089A1 (en) Portable device and method for providing non-contact interface
KR20150055543A (en) Gesture recognition device and gesture recognition device control method
JP6771996B2 (en) Systems and methods for real-time interactive operation of the user interface
JP6524589B2 (en) Click operation detection device, method and program
KR20120010875A (en) Apparatus and Method for Providing Recognition Guide for Augmented Reality Object
JP2013041431A (en) Input device, input control method, and input control program
JP5077879B2 (en) Gaze input device, gaze input method, and gaze input program
JP2012003364A (en) Person movement determination device and program for the same
KR20150106823A (en) Gesture recognition apparatus and control method of gesture recognition apparatus
Ye et al. Vishap: Augmented reality combining haptics and vision
Morris et al. Facial feature tracking for cursor control
JP2016071546A (en) Information processing device and control method thereof, program, and storage medium
US20160034027A1 (en) Optical tracking of a user-guided object for mobile platform user input
JP2006244272A (en) Hand position tracking method, device and program
KR101426378B1 (en) System and Method for Processing Presentation Event Using Depth Information
JP5464661B2 (en) Information terminal equipment
Ahmed et al. Controlling Multimedia Player With Eye Gaze Using Webcam

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140303

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150226

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160226

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170224

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180226

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 14