KR101662022B1 - Apparatus and Method for Device Control using Gesture - Google Patents

Apparatus and Method for Device Control using Gesture Download PDF

Info

Publication number
KR101662022B1
KR101662022B1 KR1020150114073A KR20150114073A KR101662022B1 KR 101662022 B1 KR101662022 B1 KR 101662022B1 KR 1020150114073 A KR1020150114073 A KR 1020150114073A KR 20150114073 A KR20150114073 A KR 20150114073A KR 101662022 B1 KR101662022 B1 KR 101662022B1
Authority
KR
South Korea
Prior art keywords
instruction
user
gesture
image
line
Prior art date
Application number
KR1020150114073A
Other languages
Korean (ko)
Inventor
변혜란
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020150114073A priority Critical patent/KR101662022B1/en
Application granted granted Critical
Publication of KR101662022B1 publication Critical patent/KR101662022B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00335

Abstract

The present invention relates to an apparatus and a method for controlling a device using a gesture, capable of controlling the device with reliability by accurately recognizing a gesture of a user under various lighting environments. To this end, according to the present invention, a method for controlling a device using a gesture includes an indication object recognition step in which an indication object recognition unit receives an image obtained by photographing a space where a control target object of a user is present, detects at least one object from the image, detects a body of the user from the image to recognize an indication direction of the user according to the posture of the detected body of the user, and specifies an indication object indicated by the user among the objects according to an indication direction of the user to recognize a specified indication object; and a gesture recognition step in which a gesture recognition unit analyzes a pose of a part of the body of the user in the image and recognizes a gesture to control the indication object.

Description

제스쳐를 이용한 디바이스 제어 장치 및 그 방법{Apparatus and Method for Device Control using Gesture}[0001] Apparatus and Method for Device Control Using Gesture [0002]

본 발명은 사람의 제스쳐에 따라 디바이스를 제어하는 장치와 그 방법에 관한 것이다.The present invention relates to an apparatus and a method for controlling a device according to a gesture of a person.

기존에 가정이나 실내에서 TV나 에어컨을 비롯한 각종 디바이스를 제어하기 위하여, 사용자가 별도의 리모트 콘트롤러를 이용하는 방식이 많이 이용되었다. 이와 같은 기존의 디바이스 제어 방법은 실내 공간에 존재하는 여러 종류의 기기들을 제어하기 위하여 각각의 기기에 대응하는 여러 개의 리모컨을 조작하여야 하는 불편함이 있었고, 또는 여러 기기를 하나의 통합 리모컨을 이용하여 조작한다고 할지라도 일단은 사용자가 해당 통합 리모컨을 찾고 이를 소지하여 조작하여야 한다는 불편함이 있었다.Conventionally, in order to control various devices such as a TV and an air conditioner in a home or an interior, a method using a remote controller by a user has been widely used. In the conventional device control method, it is inconvenient to operate a plurality of remote controllers corresponding to respective devices in order to control various kinds of devices existing in an indoor space, or to use a single remote controller There is an inconvenience in that the user must find the integrated remote control and operate it by holding it.

이에 사용자의 신체의 제스쳐를 인식하고 그 제스쳐에 따라 디바이스를 제어하는 여러 방법들 개발되어 왔다. 이를 위하여 기존의 발명들은 다양한 센서를 이용하여 사용자의 신체 동작에 따른 정보를 획득하고, 획득한 동작 정보를 분석하여 사용자의 미리 약속된 제스쳐를 인식하는 다양한 방법들을 제안하여 왔다. Accordingly, various methods of recognizing the gesture of the user's body and controlling the device according to the gesture have been developed. For this purpose, existing inventions have proposed various methods of acquiring information according to a user's body motion using various sensors and analyzing acquired operation information to recognize a user's predetermined promised gesture.

그러나 이러한 기존의 발명들은 먼저 사용자의 제스쳐에 따라 제어될 대상 기기가 미리 정해져 있어 생활공간 내 존재하는 다수의 기기들을 통합적으로 제어하는 수단을 제공하지 못하고 있다는 점, 또한 사용자의 생활공간 내에 복수개의 제어 대상 객체들이 존재할 경우 이들을 효율적으로 구별하고 특정하여 제어하는 방법을 제시하지 못하고 있다는 점에서 한계점이 있다. 또한 기존의 발명들은 실내의 조명 조건에 따라 제스쳐의 인식 확률이 달라지는 문제점 역시 가지고 있다.However, the existing inventions of the related art are not able to provide a means for integrally controlling a plurality of devices existing in a living space because a target device to be controlled is determined in advance according to a user's gesture, There is a limit in that it can not propose a method of efficiently distinguishing and specifying and controlling the target objects when they exist. Also, the existing inventions have a problem that the recognition probability of the gesture varies depending on the lighting conditions of the room.

대한민국 공개특허공보 10-2010-0131213호 (2010.12.15.)Korean Patent Publication No. 10-2010-0131213 (December 15, 2010)

본 발명이 해결하고자 하는 과제는, 사용자가 지시하는 제스쳐를 통하여 제어할 대상 디바이스를 선택하고, 선택한 디바이스에 대하여 제스쳐를 통해 미리 약속된 제어 명령을 실행시키되, 사용자의 생활공간에서 밀접한 위치에 존재할 수 있는 복수개의 디바이스들 중에서도 사용자가 제어할 대상 디바이스를 정확하게 선택할 수 있도록 하고, 다양한 조명환경에서 사용자의 제스쳐를 정확하게 인식하여, 신뢰도 있게 디바이스를 제어할 수 있도록 하는 디바이스 제어 장치 및 그에 관한 방법을 제공하는 것이다.The object of the present invention is to provide a device and a method for selecting a target device to be controlled through a gesture instructed by a user and executing a predetermined control command through a gesture with respect to the selected device, The present invention provides a device control apparatus and a method therefor that allow a user to precisely select a target device to be controlled among a plurality of devices with which the user can control and accurately recognize the gesture of a user in various lighting environments to reliably control the device will be.

상기 과제를 해결하기 위해, 본 발명의 일 유형에 따른 제스쳐를 이용한 디바이스 제어 방법은, 지시 객체 인식부가 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출하며, 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식하고, 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식하는 지시 객체 인식 단계; 및 제스쳐 인식부가 상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식하는 제스쳐 인식 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of controlling a device using a gesture according to an aspect of the present invention, the method comprising: receiving an image of a space in which a user's controlled object exists, Detecting a body of the user on the image, recognizing a direction of a user according to a body posture of the detected user, detecting an instruction direction of the user among the objects according to the direction of the user, An instruction object recognition step of recognizing the specific instruction object by specifying an object; And a gesture recognition step of recognizing a gesture for controlling the pointing object by analyzing a pose of a part of the user's body in the image.

여기서 상기 제스쳐를 이용한 디바이스 제어 방법은, 객체 제어 명령 출력부가 상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력하는 객체 제어 명령 출력 단계를 더 포함할 수 있다.The device control method using the gesture may further include an object control command output step in which the object control command output unit generates and outputs a control command for the instruction object according to the recognized gesture.

여기서 상기 영상은 3차원의 깊이 정보를 가지는 깊이 영상인 것을 특징으로 할 수 있다.Here, the image may be a depth image having three-dimensional depth information.

여기서 상기 지시 객체 인식 단계는 상기 검출한 사용자의 신체에서 미리 정해진 적어도 하나 이상의 신체 부위를 검출하고, 상기 검출한 신체 부위를 이용하여 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하고, 상기 지시 선을 이용하여 상기 지시 객체를 특정하는 것을 특징으로 할 수 있다.Here, the instruction object recognition step may include detecting at least one or more body parts predetermined in the body of the detected user, generating an instruction line according to a line direction indicated by the user using the detected body parts, Direction, and specifies the instruction object using the instruction line.

여기서 상기 지시 객체 인식 단계는, 상기 사용자의 신체에서 상기 신체 부위를 검출하고, 상기 신체 부위를 이용하여 상기 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하는 지시 방향 인식 단계; 상기 영상에서 상기 객체를 검출하는 객체 검출 단계; 및 상기 검출된 객체 중 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정하는 지시 객체 특정 단계를 포함할 수 있다.Wherein the step of recognizing the instruction object comprises the steps of: detecting the body part in the user's body, generating the instruction line using the body part, and recognizing the instruction direction of the user; An object detecting step of detecting the object in the image; And an instruction object specifying step of specifying, as the pointing object, the object among the detected objects existing on the pointing line or within a predetermined distance from the pointing line.

여기서 상기 지시 객체 인식 단계는 상기 검출한 객체나 또는 상기 특정한 지시 객체에 대하여, 미리 학습된 객체 분류기를 이용하여, 그 종류를 인식하는 객체 인식 단계를 포함할 수 있다.Here, the instruction object recognition step may include an object recognition step of recognizing the type of the detected object or the specific instruction object using an already-learned object classifier.

여기서 상기 지시 방향 인식 단계는 상기 사용자의 신체에서 팔꿈치 부위나 손 부위나 어께 부위나 눈 부위 중 적어도 어느 하나 이상을 포함하는 상기 신체 부위를 검출하고, 상기 신체 부위의 위치를 이용하여 상기 지시 선을 생성하는 것을 특징으로 할 수 있다.Here, the directing direction recognizing step may detect the body part including at least one of the elbow part, the hand part, the shoulder part, and the eye part in the body of the user, and may use the position of the body part, And the like.

여기서 상기 지시 방향 인식 단계는 상기 검출한 신체 부위 중 상기 사용자의 팔꿈치 관절이나 손 관절이나 어께 관절 중 적어도 두 개 이상의 관절의 위치가 미리 설정한 규칙을 만족하는 경우, 상기 눈 부위의 위치와 상기 손 부위의 위치를 연결하는 선을 상기 지시 선으로 생성하는 것을 특징으로 할 수 있다.Wherein if the position of at least two joints of the user's elbow joint, hand joint or shoulder joint among the detected body parts satisfies a predetermined rule, the instruction direction recognizing step recognizes the position of the eye part and the hand And a line connecting the positions of the points is generated by the instruction line.

여기서 상기 객체 검출 단계는 상기 영상에서 상기 객체의 외곽선을 검출하여 상기 객체를 검출하고, 상기 지시 객체 특정 단계는 상기 검출한 객체의 외곽선과 상기 지시 선의 궤적을 비교하여, 그 결과에 따라 상기 지시 객체를 특정하는 것을 특징으로 할 수 있다.Wherein the object detecting step detects an object by detecting an outline of the object in the image, and the step of specifying the instruction object compares an outline of the detected object with a locus of the instruction line, And the like.

여기서 상기 지시 객체 특정 단계는 상기 지시 방향 인식 단계에서 생성한 상기 지시 선의 이동에 따른 상기 지시 선의 궤적과 상기 객체 검출 단계에서 검출한 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선이 대응하는 것으로 판단하는 경우, 상기 지시 선의 궤적에 대응하는 상기 외곽선을 가지는 상기 객체를 상기 지시 객체로 특정하는 것을 특징으로 할 수 있다.Wherein the step of specifying an instruction object includes comparing a locus of the instruction line according to the movement of the instruction line generated in the instruction direction recognition step and an outline of the object detected in the object detection step and comparing the locus of the instruction line and the outline The object specifying unit may specify the object having the outline corresponding to the locus of the instruction line as the instruction object.

여기서 상기 지시 객체 특정 단계는 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체가 복수 개인 경우, 상기 복수 개의 객체의 각 외곽선과 상기 지시 선의 궤적을 비교하여, 상기 복수 개의 객체 중 상기 지시 선의 궤적과 대응하는 상기 외곽선을 가지는 상기 객체를 선택하여 상기 지시 객체로 특정하는 것을 특징으로 할 수 있다.Wherein if the plurality of objects exist on the instruction line or exist within a predetermined distance from the instruction line, the outline of each of the plurality of objects is compared with the locus of the instruction line, And selects the object having the outline corresponding to the locus of the instruction line among the plurality of objects, and specifies the selected object as the instruction object.

여기서 상기 지시 객체 특정 단계는 상기 지시 선의 궤적을 상기 영상의 공간 상에 투영하고, 상기 투영한 지시 선의 궤적 또는 상기 객체의 외곽선에 대하여 크기 변환 또는 회전 변환을 포함하는 변환을 수행하고, 상기 변환된 결과를 비교하여 상기 투영한 지시 선의 궤적과 상기 객체의 외곽선이 소정의 오차 이내로 일치하는지 여부에 따라, 상기 지시 선의 궤적과 상기 객체의 외곽선의 대응 여부를 판단하는 것을 특징으로 할 수 있다.Wherein the step of specifying an instruction object includes the step of projecting the locus of the instruction line onto the space of the image and performing a transformation including a magnitude transformation or a rotation transformation on the trajectory of the projected instruction line or the outline of the object, Comparing the result of the comparison with a trajectory of the instruction line and an outline of the object according to whether the projected trajectory of the instruction line and the outline of the object coincide within a predetermined error.

여기서 상기 영상은 3차원의 깊이 정보를 가지는 깊이 영상이고, 상기 지시 객체 특정 단계는 상기 깊이 영상에 대응하는 3차원 공간 내에서 소정의 위치에 설정된 투영면과 상기 지시 선 간의 접점의 이동 경로를 상기 지시 선의 궤적으로 획득하고, 상기 획득한 상기 지시 선의 궤적과 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선의 대응 여부를 판단하는 것을 특징으로 할 수 있다.Wherein the image is a depth image having three-dimensional depth information, and wherein the step of specifying the pointing object is a step of selecting a movement path of a contact point between the projection plane set at a predetermined position in the three- And comparing the obtained trajectory of the instruction line with the outline of the object to determine whether the trajectory of the instruction line and the outline of the object correspond to each other.

여기서 상기 객체 검출 단계는 상기 영상에서 검출한 객체에 대응하는 미리 정해진 3차원 모델의 윤곽 정보에 따라 상기 객체의 외곽선을 획득하고, 상기 지시 객체 특정 단계는 상기 획득한 객체의 외곽선과 상기 지시 선의 궤적을 비교하여, 그 결과에 따라 상기 지시 객체를 특정하는 것을 특징으로 할 수 있다.Wherein the object detecting step obtains an outline of the object in accordance with the outline information of a predetermined three-dimensional model corresponding to the object detected in the image, and the step of specifying the instruction object comprises the step of: And specifies the instruction object according to the comparison result.

여기서 상기 제스쳐 인식 단계는 상기 영상을 분석하여 상기 영상이 촬영된 조명 환경에 따른 조명 상태 정보를 획득하는 조명 판단 단계; 상기 획득한 조명 상태 정보에 따라 상기 영상 내 존재하는 상기 사용자의 신체에서 상기 제스쳐를 수행하는 신체 부위 영역을 추출하는 제스쳐 영역 추출 단계; 및 상기 추출한 제스쳐를 수행하는 신체 부위 영역의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 상기 제스쳐를 인식하는 제어 제스쳐 인식 단계를 포함할 수 있다.Wherein the gesture recognition step includes: an illumination determination step of analyzing the image to acquire illumination state information according to the illumination environment in which the image is photographed; A gesture region extracting step of extracting a body part region for performing the gesture from the body of the user existing in the image according to the acquired illumination state information; And a control gesture recognition step of recognizing the gesture for controlling the pointing object by analyzing a pose of a body part region performing the extracted gesture.

여기서 상기 조명 판단 단계는 상기 영상을 미리 학습된 조명 분류기에 입력하여 상기 영상이 촬영된 조명 환경이 미리 정해진 복수개의 조명 상태 중 어느 것에 해당하는지를 판단하여, 그 판단 결과에 따른 상기 조명 상태 정보를 획득하고, 상기 영역 추출 단계는 상기 영상에서 상기 조명 상태 정보에 따라 미리 설정된 색상 또는 밝기 범위를 가지는 영역을 상기 제스쳐를 수행하는 신체 부위 영역으로 추출하고, 상기 제어 제스쳐 인식 단계는 상기 추출한 제스쳐를 수행하는 신체 부위 영역에서 소정의 특징을 추출하고, 상기 추출한 특징에 따른 특징 벡터를 미리 학습된 제스쳐 분류기에 입력하여 상기 제스쳐를 인식하는 것을 특징으로 할 수 있다.Here, the illumination determination step may include inputting the image to the previously learned illumination classifier to determine which of the plurality of illumination states is the predetermined illumination environment, and acquiring the illumination state information according to the determination result Extracting an area having a predetermined color or brightness range according to the illumination state information in the image as a body part area for performing the gesture, and the control gesture recognition step extracting the control gesture Extracting a predetermined feature from a body part region, inputting a feature vector according to the extracted feature to a learned gesture classifier, and recognizing the gesture.

상기 과제를 해결하기 위해, 본 발명의 또 다른 유형은 상기 제스쳐를 이용한 디바이스 제어 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 될 수 있다.In order to solve the above-described problems, another type of the present invention can be a computer program stored in a medium for executing the device control method using the gesture.

상기 과제를 해결하기 위해, 본 발명의 또 다른 유형에 따른 제스쳐를 이용한 디바이스 제어 장치는, 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출하며, 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식하고, 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식하는 지시 객체 인식부; 상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식하는 제스쳐 인식부; 및 상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력하는 객체 제어 명령 출력부를 포함할 수 있다.According to still another aspect of the present invention, there is provided a device control apparatus using a gesture according to another aspect of the present invention. The device control method includes receiving an image of a space in which a user's controlled object exists, A body of the user is detected from the image, and a direction instruction of the user according to the body posture of the detected user is recognized, and an instruction object indicated by the user among the objects is specified An instruction object recognition unit for recognizing the specific instruction object; A gesture recognition unit for recognizing a gesture for controlling the pointing object by analyzing a pose of a part of the body of the user in the image; And an object control command output unit for generating and outputting a control command for the instruction object according to the recognized gesture.

여기서 상기 지시 객체 인식부는, 상기 검출한 사용자의 신체에서 미리 정해진 적어도 하나 이상의 신체 부위를 검출하고, 상기 검출한 신체 부위를 이용하여 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하는 지시 방향 인식부; 상기 영상에서 상기 객체를 검출하고 인식하는 객체 검출부; 및 상기 검출된 객체 중 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정하되, 상기 지시 선의 궤적과 상기 객체 검출부에서 검출한 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선이 대응하는 것으로 판단하는 경우, 상기 지시 선의 궤적에 대응하는 상기 외곽선을 가지는 상기 객체를 상기 지시 객체로 특정하는 지시 객체 특정부를 포함할 수 있다.Here, the instruction object recognition unit may detect at least one or more body parts predetermined in the body of the detected user, generate an instruction line according to a line direction instructed by the user using the detected body parts, An instruction direction recognizing unit for recognizing a direction; An object detection unit for detecting and recognizing the object in the image; And specifying the object, which is present on the instruction line or within a predetermined distance from the instruction line, as the instruction object, wherein the locus of the instruction line and the outline of the object detected by the object detection unit And an instruction object specifying unit for specifying the object having the outline corresponding to the locus of the instruction line as the instruction object when it is determined that the locus of the instruction line and the outline of the object correspond to each other.

여기서 상기 제스쳐 인식부는 상기 영상을 분석하여 상기 영상이 촬영된 조명 환경에 따른 조명 상태 정보를 획득하는 조명 판단부; 상기 획득한 조명 상태 정보에 따라 상기 영상 내 존재하는 상기 사용자의 신체에서 상기 제스쳐를 수행하는 신체 부위 영역을 추출하는 제스쳐 영역 추출부; 및 상기 추출한 제스쳐를 수행하는 신체 부위 영역의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 상기 제스쳐를 인식하는 제어 제스쳐 인식부를 포함할 수 있다.Wherein the gesture recognition unit analyzes the image and acquires illumination state information according to the illumination environment in which the image is photographed; A gesture region extracting unit for extracting a body part region that performs the gesture from the body of the user existing in the image according to the obtained illumination state information; And a control gesture recognition unit for recognizing the gesture for controlling the instruction object by analyzing a pose of a body part region performing the extracted gesture.

본 발명에 따른 제스쳐를 이용한 디바이스 제어 방법 및 그에 관한 방법에 의하면, 사용자가 자연스러운 팔 동작으로 제어할 대상 디바이스를 선택할 수 있고, 실내 공간에서 밀접한 위치에 존재할 수 있는 복수개의 디바이스들 중에서도 제어할 대상 디바이스를 정확하게 선택할 수 있도록 하며, 또한 다양한 조명환경에서 사용자의 손 제스쳐를 정확하게 인식하여 신뢰도 있는 디바이스 제어가 가능하도록 하는 효과가 있다.According to the method and the method for controlling a device using a gesture according to the present invention, it is possible to select a target device to be controlled by a natural arm operation by a user, and to select, from among a plurality of devices, In addition, it is possible to accurately recognize a hand gesture of a user in various lighting environments, thereby enabling reliable device control.

도 1은 본 발명의 일 실시예에 따른 제스쳐를 이용한 디바이스 제어 방법의 흐름도이다.
도 2는 본 발명의 또 다른 실시예에 따른 제스쳐를 이용한 디바이스 제어 방법의 흐름도이다.
도 3은 일 실시예에 따른 지시 객체 인식 단계의 세부 흐름도이다.
도 4 내지 도 6은 각각 또 다른 실시예에 따른 지시 객체 인식 단계의 세부 흐름도이다.
도 7 및 도 8은 지시 객체 인식 단계의 동작을 설명하기 위한 참고도이다.
도 9는 제스쳐 인식 단계의 세부 흐름도이다.
도 10은 본 발명의 또 다른 실시예에 따른 제스쳐를 이용한 디바이스 제어 장치의 블록도이다.
도 11은 지시 객체 인식부의 세부 블록도이다.
도 12는 제스쳐 인식부의 세부 블록도이다.
1 is a flowchart of a device control method using a gesture according to an embodiment of the present invention.
2 is a flowchart of a device control method using a gesture according to another embodiment of the present invention.
3 is a detailed flowchart of an instruction object recognition step according to an embodiment.
4 to 6 are detailed flowcharts of the instruction object recognition step according to still another embodiment.
7 and 8 are reference diagrams for explaining the operation of the instruction object recognition step.
9 is a detailed flowchart of the gesture recognition step.
10 is a block diagram of a device control apparatus using a gesture according to another embodiment of the present invention.
11 is a detailed block diagram of the instruction object recognition unit.
12 is a detailed block diagram of the gesture recognition unit.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

종래에 리모트 컨트롤러를 이용하여 TV나 에어컨을 비롯한 각종 디바이스를 제어하는 방식은, 실내 공간에 존재하는 여러 종류의 기기들을 제어하기 위하여 각각의 기기에 대응하는 여러 개의 리모컨을 조작하여야 하는 불편함이 있었고, 또는 여러 기기를 하나의 통합 리모컨을 이용하여 조작한다고 할지라도 사용자가 해당 통합 리모컨을 찾아 이를 소지하여 조작하여야 한다는 불편함이 있었다. 이에 사용자의 신체의 제스쳐를 인식하고 그 제스쳐에 따라 디바이스를 제어하는 직관적인 디바이스 제어 인터페이스를 제공하는 장치들이 개발되어 왔다. Conventionally, in the method of controlling various devices including a TV and an air conditioner by using a remote controller, it has been inconvenient to operate a plurality of remote controllers corresponding to respective devices in order to control various kinds of devices existing in an indoor space , Or even if a plurality of devices are operated by one integrated remote controller, the user has to find the integrated remote control and operate it with the inconvenience. Accordingly, devices have been developed that provide an intuitive device control interface that recognizes the gesture of the user's body and controls the device according to the gesture.

그러나 이러한 기존의 제스쳐를 이용한 디바이스 제어 장치 및 그에 관한 방법들은 보통 사용자의 제스쳐에 따라 제어할 대상 기기가 미리 정해져 있어 생활공간 내 존재하는 다수의 기기들을 통합적으로 제어하는 수단을 제공하지 못하고 있다는 한계점이 있었다. 기존의 제스쳐를 이용한 디바이스 제어 장치 및 방법들은 사용자가 존재하는 공간 내에 여러 개의 객체들이 존재할 경우 이들을 효율적으로 구별하고 특정하여 제어하는 방법을 제시하지 못한다는 한계점도 있다. 또한 기존의 장치 및 방법들은 실내의 조명 조건에 따라 제스쳐의 인식 확률이 달라지는 문제점 역시 가지고 있었다.However, the device control apparatus using the existing gesture and the related methods have a limitation in that the target device to be controlled is predetermined according to the gesture of the user, and thus it is not possible to provide a means for integrally controlling a plurality of devices existing in the living space there was. A device control apparatus and methods using a conventional gesture can not provide a method of efficiently distinguishing and identifying and controlling a plurality of objects existing in a space in which a user exists. Also, existing apparatuses and methods have a problem that the recognition probability of the gesture varies depending on the lighting conditions of the room.

이에 본 발명에서는 상술한 기존의 제스쳐를 이용한 디바이스 제어 장치 및 방법들이 가지고 있었던 문제점을 해결하고, 사용자의 지시 제스쳐를 통하여 실내 공간에 존재하는 복수개의 객체들 중에서 사용자가 제어할 대상 디바이스를 정확하게 선택하고, 선택한 디바이스에 대한 사용자의 입력 제스쳐를 통해 미리 약속된 제어 명령을 출력하는 디바이스 제어 장치 및 그에 관한 방법을 제안한다. 또한 다양한 조명환경에서 사용자의 제스쳐를 정확하게 인식하여, 신뢰도 있게 디바이스를 제어할 수 있도록 하는 구성 역시 제안한다.Accordingly, the present invention solves the problems of device control apparatuses and methods using existing gestures and selects a target device to be controlled by a user from a plurality of objects existing in an indoor space through a user's instruction gesture And outputting a predetermined control command through a user's input gesture to the selected device, and a method therefor. The present invention also proposes a configuration for accurately recognizing a user's gesture in various lighting environments and for reliably controlling a device.

도 1은 본 발명의 일 실시예에 따른 제스쳐를 이용한 디바이스 제어 방법의 흐름도이다.1 is a flowchart of a device control method using a gesture according to an embodiment of the present invention.

상기 제스쳐를 이용한 디바이스 제어 방법은 지시 객체 인식 단계(S100), 제스쳐 인식 단계(S200)를 포함할 수 있다.The device control method using the gesture may include an instruction object recognition step (S100) and a gesture recognition step (S200).

여기서 필요에 따라 상기 제스쳐를 이용한 디바이스 제어 방법은 객체 제어 명령 출력 단계(S300)를 더 포함할 수도 있다. 도 2는 이와 같은 본 발명의 또 다른 실시예에 따른 제스쳐를 이용한 디바이스 제어 방법의 흐름도이다.Here, the device control method using the gesture may further include an object control command output step (S300). 2 is a flowchart of a device control method using a gesture according to another embodiment of the present invention.

한편 본 발명의 또 다른 실시예에 따른 제스쳐를 이용한 디바이스 제어 장치는, 지시 객체 인식부(100), 제스쳐 인식부(200)를 포함할 수 있고, 필요에 따라 객체 제어 명령 출력부(300)를 더 포함할 수 있다. 도 10은 상기 본 발명의 또 다른 실시예에 따른 제스쳐를 이용한 디바이스 제어 장치의 블록도이다. Meanwhile, a device control apparatus using a gesture according to another embodiment of the present invention may include an instruction object recognition unit 100 and a gesture recognition unit 200, and may further include an object control command output unit 300 . 10 is a block diagram of a device controlling apparatus using a gesture according to another embodiment of the present invention.

여기서 지시 객체 인식부(100), 제스쳐 인식부(200)는 이하 상술할 바와 같이 본 발명에 따른 제스쳐를 이용한 디바이스 제어 방법에 따라 동작할 수 있다. 그리고 객체 제어 명령 출력부(300)가 더 포함되는 경우도 마찬가지이다.Here, the instruction object recognition unit 100 and the gesture recognition unit 200 may operate according to the device control method using the gesture according to the present invention, as described below. The same is true of the case where the object control command output unit 300 is further included.

여기서 본 발명에 따른 제스쳐를 이용한 디바이스 제어 장치는 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있다. 또는 본 발명에 따른 제스쳐를 이용한 디바이스 제어 장치는 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한 본 발명에 따른 제스쳐를 이용한 디바이스 제어 장치는 소프트웨어 프로그램으로 구현되어 프로세서 또는 신호 처리 모듈 위에서 동작할 수 있고, 또는 하드웨어의 형태로 구현되어 칩(Chip), 소자 등에 포함될 수 있음은 물론이다. 또한 본 발명에 따른 제스쳐를 이용한 디바이스 제어 장치는 하드웨어 또는 소프트웨어 모듈에 포함되어 동작할 수 있다. 예를 들면 본 발명에 따른 제스쳐를 이용한 디바이스 제어 장치는 홈 네트워크 서버 또는 제어 시스템이나, 실내 공간에 존재하는 각종 디바이스를 통합하여 제어하는 장치나, 각 디바이스를 제어하는 장치가 되거나, 이와 같은 장치에 포함될 수 있다. 그리고 이들 장치에서 하드웨어 또는 소프트웨어의 형태로 구현되어 동작하거나, 이들 장치와 연동하여 동작하는 하드웨어 또는 소프트웨어 상에서 동작할 수 있다. Here, all the components of the device control apparatus using the gesture according to the present invention can be implemented as one independent hardware. Or a device control device using a gesture according to the present invention may be embodied as a computer program having a program module in which some or all of the components are selectively combined to perform a part or all of functions combined in one or a plurality of hardware It is possible. Further, the device control apparatus using the gesture according to the present invention may be implemented as a software program and operated on a processor or a signal processing module, or may be implemented in a form of hardware to be included in a chip, an element, or the like. Further, the device control apparatus using the gesture according to the present invention may be included in a hardware or software module. For example, the device control apparatus using a gesture according to the present invention may be a home network server or a control system, a device for controlling various devices existing in an indoor space, a device for controlling each device, . And may be implemented in hardware or software in these devices, or may operate in hardware or software operating in conjunction with these devices.

이하에서는 먼저 본 발명에 따른 제스쳐를 이용한 디바이스 제어 방법에 대하여 상세히 설명한다.Hereinafter, a device control method using a gesture according to the present invention will be described in detail.

지시 객체 인식 단계(S100)에서는 지시 객체 인식부(100)가 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출한다. 또한 지시 객체 인식부(100)가 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식한다. 또한 지시 객체 인식부(100)가 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식한다.In the instruction object recognition step S100, the instruction object recognition unit 100 receives an image of a space in which the user's control object exists, and detects at least one or more objects in the image. Also, the instruction-object recognition unit 100 detects the body of the user on the image and recognizes the direction of the user according to the detected body posture of the user. Also, the instruction object recognition unit 100 identifies the instruction object indicated by the user among the objects according to the instruction direction of the user, and recognizes the specific instruction object.

제스쳐 인식 단계(S200)에서는 제스쳐 인식부(200)가 상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식한다.In the gesture recognition step S200, the gesture recognition unit 200 analyzes a pose of a part of the user's body in the image and recognizes a gesture for controlling the pointing object.

객체 제어 명령 출력 단계(S300)에서는 객체 제어 명령 출력부(300)가 상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력한다.In the object control command output step S300, the object control command output unit 300 generates and outputs a control command for the instruction object according to the recognized gesture.

이하에서는 먼저 지시 객체 인식 단계(S100)에 대하여 보다 상세히 설명한다.Hereinafter, the instruction object recognition step S100 will be described in more detail.

지시 객체 인식 단계(S100)에서는 지시 객체 인식부(100)가 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출한다.In the instruction object recognition step S100, the instruction object recognition unit 100 receives an image of a space in which the user's control object exists, and detects at least one or more objects in the image.

여기서 지시 객체 인식 단계(S100)에서 입력받는 상기 영상은 사용자가 제어하고자 하는 객체 디바이스들이 존재하는 공간을 촬영한 영상이 될 수 있다. 그리고 상기 영상 내에 사용자가 포함될 수 있다. Here, the image received in the indication object recognition step S100 may be an image of a space in which object devices to be controlled by the user exist. And the user may be included in the image.

여기서 상기 영상은 3차원의 깊이 정보를 가지는 깊이 영상이 될 수 있다. 예를 들면 상기 영상은 RGB-D 카메라를 이용하여 획득된 영상이 될 수 있다. 또는 필요에 따라 상기 영상은 스테레오 카메라를 이용하여 취득한 스테레오 영상이 될 수도 있고, 상기 스테레오 영상을 분석하여 깊이 값을 산출한 깊이 영상이 될 수도 있다. 또는 필요에 따라 상기 영상은 2차원 영상이 될 수도 있다. 본 발명에서 지시 객체 인식 단계(S100)는 3차원의 깊이 정보를 가지는 깊이 영상을 입력받고 이를 분석하여 이하 상세히 설명하는 바와 같이 객체를 검출하고, 사용자의 지시 선에 따른 지시 방향을 인식한 후 그 지시 방향에 따른 지시 대상이 되는 지시 객체를 특정하는 것이 바람직하다. 다만 필요에 따라 본 발명에 따른 지시 객체 인식 단계(S100)는 2차원 영상을 입력받고, 2차원의 영상 평면 상에서 객체를 검출하고, 지시 선을 생성하여, 지시 선에 따라 지시 객체를 특정할 수도 있다.Here, the image may be a depth image having three-dimensional depth information. For example, the image may be an image obtained using an RGB-D camera. Alternatively, the image may be a stereo image acquired using a stereo camera, or may be a depth image obtained by analyzing the stereo image and calculating a depth value. Alternatively, the image may be a two-dimensional image as needed. In the present invention, the pointing object recognition step S100 receives a depth image having three-dimensional depth information, analyzes the object, detects an object as described in detail below, recognizes the pointing direction according to the pointing line of the user, It is desirable to specify an instruction object to be an instruction target in accordance with the instruction direction. However, if necessary, the instruction object recognition step S100 according to the present invention may receive a two-dimensional image, detect an object on a two-dimensional image plane, generate an instruction line, specify an instruction object according to the instruction line have.

여기서 객체는 전자적으로 제어하거나 동작시킬 수 있는 각종 장치와 디바이스들이 될 수 있다. 예를 들어 가정의 실내 공간을 고려하면, TV나 프로젝터, 셋탑박스 등과 같은 영상 장치, 오디오 플레이어나 스피커 같은 음향 장치, 각종 컴퓨터 장치, 가스렌지나 전자렌지 등과 같은 주방 기기, 세탁기 등 각종 장치들이 될 수 있다. 여기서 상기 객체는 가정 공간 뿐만이 아니라 기타 회사의 실내 공간, 야외 공간 등 각종 공간에서 존재하면서, 사용자의 조작에 따라 전자적으로 동작시킬 수 있는 모든 장치 및 디바이스들을 포함함은 물론이다.The objects may be various devices and devices that can be electronically controlled or operated. For example, considering the indoor space of a home, various devices such as a TV, a projector such as a video projector such as a set-top box, a sound device such as an audio player or a speaker, a computer device, a kitchen appliance such as a gas range or a microwave, . Here, the object includes all the devices and devices that are present in various spaces such as the indoor space of the other company as well as the home space, and can operate electronically according to the user's operation.

여기서 지시 객체 인식 단계(S100)는 기존의 다양한 객체 인식 방법을 이용하여 상기 영상에서 객체를 검출할 수 있고, 또한 상기 검출한 객체를 인식할 수 있다. 예를 들면 지시 객체 인식 단계(S100)는 상기 영상 내에 존재하는 TV, 셋탑박스 객체를 각 검출하고, 검출한 각 객체가 TV와 셋탑박스에 해당하는 것을 인식할 수 있다.Here, the pointing object recognition step S100 can detect an object in the image using the existing various object recognition methods, and can recognize the detected object. For example, the pointing object recognition step S100 may detect TV and settop box objects existing in the image, and recognize that each detected object corresponds to a TV and a set-top box.

여기서 지시 객체 인식 단계(S100)는 영상을 분석하여 미리 정해진 특징(Feature) 정보를 이용하여 객체를 검출하고 인식할 수 있다. 여기서 지시 객체 인식 단계(S100)는 객체를 검출 및 인식하기 위하여 기존의 다양한 종류의 특징을 상기 영상에서 추출하고, 이를 이용하여 객체 검출 및 인식을 수행할 수 있다. 예를 들면 지시 객체 인식 단계(S100)는 에지 특성이나 코너 특성, 또는 LoG(Laplacian of Gaussian), DoG(Difference of Gaussian) 등의 다양한 특징을 추출하여 이용할 수 있다. 또한 여기서 지시 객체 인식 단계(S100)는 SIFT(Scale-invariant feature transform), SULF(Speeded Up Robust Features), HOG(Histogram of Oriented Gradients)를 비롯한 기존의 다양한 특징 서술(Feature Description) 방식을 이용한 객체 검출 및 인식 기술을 사용할 수 있다. 또는 지시 객체 인식 단계(S100)는 템플릿 이미지와 대상 이미지 내의 일정 영역을 비교하여 객체를 검출하고 인식할 수도 있다. 또한 지시 객체 인식 단계(S100)는 위와 같이 추출한 특징이나 템플릿 등을 기반으로 미리 학습한 분류기를 이용하여 상기 영상 내 객체들을 검출하고 인식할 수 있다. 여기서 이용하는 분류기는 SVM 머신이 될 수도 있고, 기타 기존의 다양한 분류 함수를 이용한 분류기를 이용할 수 있다. 이상 지시 객체 인식 단계(S100)는 위에서 구체적인 이름과 함께 예시한 방법 이외에 다양한 공지된 객체 검출 및 인식 기술을 이용하여 대상 객체를 검출하거나 인식하고, 객체의 영상 내 위치 및 객체의 종류에 관한 정보를 획득할 수 있음은 물론이며, 지시 객체 인식 단계(S100)의 동작은 상기 예시된 기술들에 한정되지 않는다.Here, the pointing object recognition step S100 can detect and recognize the object using the predetermined feature information by analyzing the image. Here, in the instruction object recognition step S100, various existing types of features may be extracted from the image to detect and recognize the object, and object detection and recognition may be performed using the same. For example, the pointing object recognition step S100 may extract and use various features such as edge characteristics, corner characteristics, LoG (Laplacian of Gaussian), and DoG (Difference of Gaussian). Here, the pointing object recognition step S100 may include object recognition using various existing feature description methods including Scale-invariant feature transform (SIFT), Speeded Up Robust Features (SULF), and Histogram of Oriented Gradients And recognition techniques. Alternatively, the instruction object recognition step S100 may detect and recognize the object by comparing the template image with a certain area within the target image. Also, the instruction object recognition step S100 may detect and recognize the objects in the image using a classifier previously learned based on the features or templates extracted as described above. The classifier used here may be an SVM machine or a classifier using various other conventional classification functions. The anomaly indication recognition step S100 detects or recognizes a target object by using various known object detection and recognition techniques in addition to the method exemplified above along with the concrete name, And the operation of the instruction object recognition step S100 is not limited to the above-exemplified techniques.

또한 지시 객체 인식 단계(S100)에서는 지시 객체 인식부(100)가 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식하고, 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식한다. 여기서 사용자의 지시 방향은 사용자가 제어하고자 하는 대상이 되는 지시 객체를 사용자가 지시하기 위하여 신체의 일부분을 이용하여 지시하는 소정의 방향이다. 예를 들면 사용자가 손가락으로 지시하는 방향이 상기 지시 방향이 될 수 있다.Further, in the instruction object recognition step S100, the instruction object recognition unit 100 detects the user's body in the image, recognizes the direction of the user according to the detected body posture of the user, And recognizes the specific instruction object by specifying the instruction object indicated by the user among the objects according to the direction. Herein, the direction of the user is a predetermined direction in which the user instructs the instruction object to be controlled by the user using a part of the body. For example, the direction indicated by the user with the finger may be the direction of the instruction.

지시 객체 인식 단계(S100)는 상기 검출한 사용자의 신체에서 미리 정해진 적어도 하나 이상의 신체 부위를 검출하고, 상기 검출한 신체 부위를 이용하여 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하고, 상기 지시 선을 이용하여 상기 지시 객체를 특정할 수 있다. 상술한 지시 선을 이용한 지시 객체 특정 동작에 대하여는 이하 지시 객체 인식 단계(S100)의 세부 흐름도를 참조하면서 보다 상세히 설명한다.The instruction object recognizing step S100 detects at least one or more body parts predetermined in the body of the detected user and generates an instruction line according to a line direction instructed by the user using the detected body parts, The instruction direction can be recognized, and the instruction object can be specified using the instruction line. The instruction object specifying operation using the instruction line will be described in detail with reference to a detailed flowchart of the instruction object recognition step S100.

도 3은 일 실시예에 따른 지시 객체 인식 단계(S100)의 세부 흐름도이다.FIG. 3 is a detailed flowchart of an instruction object recognition step S100 according to an embodiment.

여기서 지시 객체 인식 단계(S100)는 지시 방향 인식 단계(S110), 객체 검출 단계(S120), 지시 객체 특정 단계(S130)를 포함할 수 있다.Here, the instruction object recognition step S100 may include an instruction direction recognition step S110, an object detection step S120, and an instruction object specification step S130.

지시 방향 인식 단계(S110)는 상기 사용자의 신체에서 상기 신체 부위를 검출하고, 상기 신체 부위를 이용하여 상기 지시 선을 생성하여 상기 사용자의 지시 방향을 인식한다. The instruction direction recognition step S110 detects the body part in the user's body and generates the instruction line using the body part to recognize the instruction direction of the user.

여기서 지시 방향 인식 단계(S110)가 상기 신체 부위를 검출하는 것은 지시 객체 인식 단계(S100)가 객체를 검출하는 것에 대하여 위에서 상세히 설명한 것과 동일한 방식으로 검출할 수 있다. 즉 이 경우 영상에서 검출되는 것은 사용자의 특정 신체 부위인 것으로, 특정 신체 부위를 검출하기 위하여 기존의 영상 검출 방법을 이용할 수 있다.Herein, the directing direction recognizing step (S110) may detect the body part in the same manner as described above in detail for the object detecting step S100 (step S100). That is, in this case, what is detected in the image is a specific body part of the user, and a conventional image detecting method can be used to detect a specific body part.

여기서 지시 방향 인식 단계(S110)는 상기 사용자의 신체에서 팔꿈치 부위나 손 부위나 어께 부위나 눈 부위 중 적어도 어느 하나 이상을 포함하는 상기 신체 부위를 검출하고, 상기 신체 부위의 위치를 이용하여 상기 지시 선을 생성할 수 있다. 예를 들면 지시 방향 인식 단계(S110)는 사용자의 팔꿈치 관절, 손목 관절, 어께 관절을 검출할 수 있고, 사용자의 눈 부위와 사용자의 손끝 부위를 검출할 수도 있다. 여기서 사용자의 눈 부위는 사용자의 머리 부위를 검출한 다음 머리의 중심점으로부터 소정의 거리만큼 이격된 위치로 설정할 수 있다. 예를 들면 사용자의 눈 부위는 사용자의 머리의 중심점으로부터 손 방향으로 소정의 거리만큼 이격된 위치(예를 들면 5cm 이격된 위치)로 설정할 수 있다. 또한 사용자의 손끝 부위는 사용자의 손목 관절에서 팔꿈치 관절의 반대 방향으로 소정의 거리만큼 이격된 위치(예를 들면 15cm 이격된 위치)로 설정할 수 있다.Here, the directing direction recognizing step (S110) may detect the body part including at least one of the elbow part, the hand part, the shoulder part, and the eye part in the body of the user, and, using the position of the body part, You can create lines. For example, the instruction direction recognizing step (S110) may detect a user's elbow joint, wrist joint, and shoulder joint, and may detect a user's eye area and a user's fingertip area. Here, the eye region of the user may be set to a position spaced apart from the central point of the head by a predetermined distance after detecting the head region of the user. For example, the eye region of the user can be set at a position (for example, a position separated by 5 cm) from the center of the user's head by a predetermined distance in the hand direction. Further, the user's fingertip can be set at a position (for example, a position separated by 15 cm) away from the wrist joint by a predetermined distance in a direction opposite to the elbow joint.

또한 이때 지시 방향 인식 단계(S110)는 상기 검출한 신체 부위 중 상기 사용자의 팔꿈치 관절이나 손 관절이나 어께 관절 중 적어도 두 개 이상의 관절의 위치가 미리 설정한 규칙을 만족하는 경우, 상기 눈 부위의 위치와 상기 손 부위의 위치를 연결하는 선을 상기 지시 선으로 생성할 수 있다. 여기서 손 관절은 손목 관절이나 손바닥 및 손가락에 포함된 각종 관절들이 될 수 있다. In this case, when the position of at least two joints of the user's elbow joint, hand joint or shoulder joint among the detected parts of the body satisfies predetermined rules, And a line connecting the position of the hand part with the indication line. Here, the hand joints can be various joints included in the wrist joints, palms and fingers.

여기서 지시 방향 인식 단계(S110)는 상기 검출한 신체 부위 중 상기 사용자의 팔꿈치 관절이나 손 관절이나 어께 관절 중 적어도 두 개 이상의 관절의 위치가 미리 설정한 규칙을 만족하는 경우를 상기 지시 방향을 인식하기 위한 사용자의 활성화 동작이라고 판단할 수 있다. 여기서 상기 미리 설정한 규칙은 팔꿈치 관절이나 손 관절이나 어께 관절의 위치 관계에 따라 설정되는 규칙이 될 수 있고, 바람직하게는 팔꿈치 관절, 손 관절, 어께 관절이 일 직선 상에 정렬하여 위치하는 정도를 판단하는 규칙이 될 수 있다.In this case, if the position of at least two of the elbow joints or the hand joint or the shoulder joint of the user satisfies a preset rule among the detected body parts, the instruction direction recognizing step (S110) It can be determined that the user is an activating operation. Here, the predetermined rule may be a rule that is set according to the positional relationship of the elbow joint, the hand joint, or the shoulder joint, and preferably, the degree to which the elbow joint, the hand joint, and the shoulder joint are aligned on a straight line It can be a rule to judge.

예를 들면 지시 방향 인식 단계(S110)는 사용자의 어께 관절과 팔꿈치 관절과 손목 관절이 일직선을 이루는 경우를 상기 지시 방향을 인식하기 위한 사용자의 활성화 동작이라고 판단할 수 있다. 여기서 사용자의 어께 관절과 팔꿈치 관절과 손목 관절이 일직선을 이루는지 여부는 어께 관절과 팔꿈치 관절을 이은 선과 팔꿈치 관절과 손목 관절을 이은 선의 각도 차이를 측정하고 상기 각도 차이에 따라 판단하거나, 또는 위 각 선의 방향의 차이, 또는 위 각 선이 공간 산에서 서로 이격된 위치 정도에 따라 판단할 수 있다.For example, in the instruction direction recognition step (S110), a case where the user's shoulder joint, elbow joint, and wrist joint are in a straight line may be determined as an activation operation of the user for recognizing the instruction direction. Here, whether the user's shoulder joint, the elbow joint and the wrist joint are in a straight line can be determined by measuring the angular difference between the line connecting the shoulder joint and the elbow joint and the line connecting the elbow joint and the wrist joint, It can be judged according to the difference in the direction of the line or the degree of the position where the upper line is spaced apart from the space mountain.

이상과 같이 사용자의 팔의 포즈가 상기 지시 방향을 인식하기 위한 사용자의 활성화 동작을 나타낸다고 판단되면, 다음으로 지시 방향 인식 단계(S110)는 상기 눈 부위의 위치와 상기 손 부위의 위치를 연결하는 선을 상기 지시 선으로 생성할 수 있다. 사용자는 눈을 중심으로 하여 손을 뻗어 본인이 제어하고자 하는 대상 객체를 지시할 수 있는데, 이때 지시 객체는 사용자의 눈과 손을 잇는 지시 선 상에 위치하게 되는 것이 일반적이다. 따라서 지시 방향 인식 단계(S110)에서는 사용자의 눈 부위의 위치와 손 부위의 위치를 연결하는 선을 지시 선으로 생성하는 것이 바람직하다. 여기서 지시 선을 생성하기 위하여 이용되는 눈 부위는 상술한 바와 같이 사용자의 머리를 검출한 다음 머리를 기준으로 설정할 수 있고, 손 부위의 위치는 사용자의 손을 검출하여 손에 포함되는 일정한 지점을 선택하여 설정할 수 있다. 여기서 손 부위의 위치는 손끝 부위의 위치로 설정하는 것이 바람직하다.If it is determined that the user's pose of the arm indicates the activation operation of the user for recognizing the direction, the instruction direction recognizing step (S110) recognizes the direction of the user, Can be generated by the instruction line. The user can extend his / her hand around the eyes and direct the target object to be controlled by the user. In this case, the pointing object is generally positioned on the instruction line connecting the user's eye and the hand. Therefore, in the instruction direction recognition step S110, it is preferable that a line connecting the position of the user's eye part and the position of the hand part is generated as a pointing line. Here, the eye region used for generating the instruction line may be set based on the head after the user's head is detected as described above, and the position of the hand region may be determined by detecting a user's hand and selecting a certain point included in the hand . Here, it is preferable to set the position of the hand part to the position of the fingertip part.

다음으로 객체 검출 단계(S120)는 상기 영상에서 상기 객체를 검출한다. 여기서 객체 검출 단계(S120)는 객체의 외곽선 정보를 검출할 수 있다. Next, the object detection step (S120) detects the object in the image. Here, the object detection step (S120) may detect the outline information of the object.

여기서 객체 검출 단계(S120)는 상기 영상의 각 채널에서 그래디언트 영상을 생성하고, 상기 각 채널에서 생성한 그래디언트 영상들을 연산하여 상기 객체의 외곽선을 검출할 수 있다.Here, the object detection step (S120) may generate a gradient image in each channel of the image, and may calculate the gradient images generated in each channel to detect the outline of the object.

예를 들면 영상에서의 각각 R,G,B 채널로 분리한 영상에서 그래디언트 크기를 구할 수 있다. 여기서 그래디언트 크기는 영상의 (x, y)에 위치하는 한 픽셀에 대해서 식

Figure 112015078357886-pat00001
과 같이 산출될 수 있다. 여기서 f x 는 기준 픽셀의 좌우 값의 차, f y 는 기준 픽셀의 상하 값의 차이다. 이와 같이 R, G, B 채널에 대하여 각각 구한 그래디언트 크기를 다시 OR 연산하여 영상에 포함된 객체의 외곽선을 구할 수 있다. 그리고 이를 이진화 시켜 최종적으로 객체의 외곽선을 구할 수 있다.For example, the gradient size can be obtained from images separated by R, G, and B channels, respectively. In this case, the gradient size is calculated for one pixel located at (x, y)
Figure 112015078357886-pat00001
Can be calculated as follows. Where f x is the difference between the left and right values of the reference pixel, and f y is the difference between the upper and lower values of the reference pixel. In this manner, the outline of the object included in the image can be obtained by ORing the gradient size obtained for each of the R, G, and B channels. Finally, the outline of the object can be obtained by binarizing it.

또한 더 나아가 객체 검출 단계(S120)는 객체의 종류나 식별 정보를 포함하는 정보를 인식할 수도 있다. 이때 객체 검출 단계(S120)는 위에서 상세히 설명한 방법에 따라 영상에서 객체를 검출하고 인식할 수 있다. 다만 이하 설명하는 바, 지시 객체 인식 단계(S100)가 객체 인식 단계(S140)를 더 포함하는 경우, 객체의 종류나 식별 정보를 포함하는 정보를 인식하는 동작은 객체 인식 단계(S140)에서 수행할 수도 있다.Furthermore, the object detection step (S120) may recognize information including the type of object or identification information. At this time, the object detection step (S120) can detect and recognize the object in the image according to the method described in detail above. However, when the instruction object recognition step S100 further includes the object recognition step S140, the operation of recognizing the information including the type of the object or the identification information is performed in the object recognition step S140 It is possible.

여기서 지시 방향 인식 단계(S110)와 객체 검출 단계(S120)는 그 중 어느 하나가 선택적으로 먼저 수행될 수도 있고, 필요에 따라 병렬적으로 수행될 수도 있다.Herein, either one of the instruction direction recognition step (S110) and the object detection step (S120) may be selectively performed first, or may be performed in parallel if necessary.

도 4는 지시 방향 인식 단계(S110)와 객체 검출 단계(S120)가 병렬적으로 수행되는 또 다른 실시예에 따른 지시 객체 인식 단계(S100)의 세부 흐름도이다.4 is a detailed flowchart of an instruction object recognition step S100 according to another embodiment in which the instruction direction recognition step S110 and the object detection step S120 are performed in parallel.

지시 객체 특정 단계(S130)는 상기 검출된 객체 중 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정한다. 여기서 지시 객체 특정 단계(S130)의 동작은 아래에서 보다 상세히 설명하기로 한다.The indicating object specifying step (S130) specifies, as the pointing object, the object existing on the pointing line or within a predetermined distance from the pointing line among the detected objects. Here, the operation of the indicating object specifying step S130 will be described in more detail below.

여기서 지시 객체 인식 단계(S100)는 상술한 바와 같이 객체 인식 단계(S140)를 더 포함할 수 있다.Here, the pointing object recognition step S100 may further include an object recognition step S140 as described above.

이와 같이 객체 인식 단계(S140)를 더 포함하는 경우, 지시 객체 인식 단계(S100)는 객체 검출 단계(S120)에서 객체의 위치나 외곽선 등의 기본 정보만을 검출하고, 객체 인식 단계(S140)에서 검출된 객체의 종류를 포함하는 구체적인 정보를 인식할 수 있다. 여기서 객체 검출 단계(S120) 및 객체 인식 단계(S140)에서 각 획득할 정보는 필요에 따라 설정할 수 있다.When the object recognition step S 140 further includes the object recognition step S 100, only the basic information such as the position and the outline of the object is detected in the object detection step S 120, It is possible to recognize concrete information including the type of the object. Here, information to be acquired in the object detection step (S120) and the object recognition step (S140) can be set as needed.

객체 인식 단계(S140)는 상기 검출한 객체나 또는 상기 특정한 지시 객체에 대하여, 미리 학습된 객체 분류기를 이용하여, 그 종류를 인식한다. 여기서 객체 인식 단계(S140)는 위에서 상세히 설명한 방법과 같이 영상에서 객체를 인식할 수 있다. 여기서 필요에 따라 객체의 검출과 인식은 하나의 과정 속에서 통합되어 수행될 수 있고, 아니면 객체를 검출한 다음 검출한 객체에 대한 인식이 수행될 수도 있다.The object recognizing step S140 recognizes the type of the detected object or the specific instruction object by using a pre-learned object classifier. Here, the object recognizing step (S140) can recognize the object in the image as described in detail above. Here, the detection and recognition of the object may be performed in a single process as needed, or the recognition of the detected object may be performed after the object is detected.

이와 같은 객체 인식 단계(S140)를 포함하는 경우, 도 3과 도 4의 각 경우에 대응하여 지시 객체 인식 단계(S100)는 도 5와 도 6의 세부 흐름도와 같이 동작할 수도 있다.In the case of including the object recognition step S140, the instruction object recognition step S100 may operate as shown in the detailed flowcharts of FIGS. 5 and 6, corresponding to the cases of FIGS.

도 5는 이와 같은 또 다른 실시예에 따른 지시 객체 인식 단계(S100)의 세부 흐름도이다.FIG. 5 is a detailed flowchart of an instruction object recognition step S100 according to another embodiment.

도 5와 같은 경우, 객체 인식 단계(S140)의 동작은 지시 객체 특정 단계(S130)에서 지시 객체로 특정된 객체에 대하여 수행될 수 있다. 이와 같은 경우 객체 인식을 영상 내 존재하는 모든 객체에 대하여 수행하지 아니하고, 지시 객체로 특정된 객체에 대하여만 수행하여 계산량이 감소할 수 있는 효과가 있다.In the case of FIG. 5, the operation of the object recognizing step S140 may be performed on the object specified by the instruction object in the instruction object specifying step S130. In this case, there is an effect that the calculation amount can be reduced by performing only the object specified by the instruction object, without performing the object recognition on all the objects existing in the image.

도 6은 이와 같은 또 다른 실시예에 따른 지시 객체 인식 단계(S100)의 세부 흐름도이다.FIG. 6 is a detailed flowchart of the instruction object recognition step S100 according to this another embodiment.

도 6과 같은 경우, 객체의 인식은 객체 검출 단계(S120)에서 검출된 객체에 대하여 수행될 수 있다. 이 경우 검출된 객체들에 대하여 먼저 객체 인식 단계(S140)의 동작을 수행한 다음, 지시 객체 특정 단계(S130)에서 지시 객체를 특정하여, 상기 특정된 지시 객체에 대응하는 객체 인식 정보를 곧바로 획득할 수 있는 효과가 있다.In the case of FIG. 6, object recognition may be performed on the object detected in the object detection step S120. In this case, the object recognition step S140 is first performed on the detected objects, the instruction object is specified in the instruction object specification step S130, and the object recognition information corresponding to the specified instruction object is acquired There is an effect that can be done.

다음으로는 지시 객체 특정 단계(S130)의 동작에 대하여 보다 상세히 설명한다.Next, the operation of the indicating object specifying step S130 will be described in more detail.

지시 객체 특정 단계(S130)는 상기 영상에서 검출된 객체 중 지시 방향 인식 단계(S110)에서 생성한 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정할 수 있다. 즉 지시 선 상에 특정 객체가 존재하는 경우 해당 객체를 지시 객체로 특정할 수 있고, 지시 선 상에 객체가 존재하지 않는다고 하더라도 지시 선과 소정의 거리 이내에 존재하는 객체들 중에서 지시 객체를 특정할 수 있다. 예를 들면 지시 선에서 가장 가까운 거리에 존재하는 객체를 지시 객체로 특정할 수 있고, 또는 미리 정해진 거리 이내 존재하는 객체를 지시 객체로 특정할 수도 있다.The indicating object specifying step (S130) may identify the object existing on the instruction line generated in the direction recognition step (S110) of the object detected in the image or existing within a predetermined distance from the instruction line as the indication object can do. That is, when a specific object exists on the instruction line, the corresponding object can be specified as a pointing object, and even if the object does not exist on the pointing line, the pointing object can be specified among objects existing within a predetermined distance from the pointing line . For example, an object existing at a distance closest to the instruction line may be specified as a pointing object, or an object existing within a predetermined distance may be specified as a pointing object.

그런데 지시 선 상에 존재하는 객체나 또는 지시 선으로부터 소정의 거리 이내에 존재하는 객체가 복수 개인 경우가 있을 수 있다.However, there may be a case where there are a plurality of objects existing within a predetermined distance from the object existing on the instruction line or the instruction line.

도 7은 이와 같이 지시 선 상에 복수 개의 객체들이 존재하는 경우 지시 객체 인식 단계(S100)의 동작을 설명하기 위한 참고도이다.FIG. 7 is a reference diagram for explaining the operation of the indication object recognition step S100 when a plurality of objects exist on the instruction line.

도 7을 참조하면 지시 선 상에 객체 1과 객체 3의 2개의 객체가 존재하고 있음을 확인할 수 있다. 또한 만일 상기 소정의 거리를 지시 선으로부터 객체 2까지의 거리보다 크게 설정한 경우, 상기 지시 선에 의하여 지시될 수 있는 후보 객체들은 객체 2까지를 포함하는 총 3개의 객체가 될 수도 있다.Referring to FIG. 7, it can be seen that there are two objects, object 1 and object 3, on the instruction line. Also, if the predetermined distance is set to be larger than the distance from the instruction line to the object 2, the candidate objects that can be indicated by the instruction line may be three objects including up to the object 2.

이와 같은 경우 지시 객체가 될 수 있는 후보 객체들 중에서 사용자가 지시하는 정확한 지시 객체를 특정하기 위하여, 지시 객체 특정 단계(S130)는 각 객체의 중심점과 상기 지시 선 상의 거리를 산출하고, 상기 산출한 거리가 가장 작은 객체를 상기 지시 객체로 특정할 수 있다.In this case, in order to specify an accurate pointing object indicated by the user among the candidate objects that can be pointing objects, the pointing object specifying step S130 calculates the distance between the center point of each object and the pointing line, The object having the smallest distance can be identified by the pointer object.

또는 지시 객체 특정 단계(S130)는 지시 객체가 될 수 있는 후보 객체들 중에서 사용자가 지시하는 정확한 지시 객체를 특정하기 위하여, 상기 검출한 객체의 외곽선과 상기 지시 선의 궤적을 비교하여, 그 결과에 따라 상기 지시 객체를 특정할 수도 있다. 즉 실제 일상 생활하는 공간에서는 객체가 항상 각각 존재하지만은 않고, 객체가 앞뒤로 2개 이상 겹쳐 있는 경우에는 단순히 손끝을 이용한 지시만으로는 2개 이상의 객체 중에 어느 객체를 선택했는지 알기 어렵다. 이러한 문제를 해결하기 위해 단순 손끝 지시가 아닌 가리키고자 하는 객체의 외곽선을 손끝으로 그림으로서 그에 따라 생성되는 지시 선의 궤적을 이용하여 겹쳐있는 객체 중에 어느 객체를 지시 객체로 선택했는지 알 수 있도록 한다.Or the instruction object specification step S130 compares the outline of the detected object with the locus of the instruction line to specify an accurate instruction object indicated by the user among the candidate objects that can be the instruction object, The instruction object may be specified. In other words, in an actual daily living space, objects are not always present, and when two or more objects overlap one another, it is difficult to know which object among two or more objects is selected by simply using a fingertip. In order to solve this problem, an outline of an object to be pointed is drawn by a fingertip, rather than a simple hand point instruction, so that the user can know which object among the overlapping objects is selected as the pointing object by using the locus of the instruction line generated accordingly.

여기서 상기 지시 선의 궤적은 상기 지시 방향 인식 단계(S110)에서 생성한 상기 지시 선의 이동에 따른 궤적으로 획득될 수 있다. 그리고 상기 지시 선의 이동에 따른 궤적은 소정의 면과 상기 지시 선 간의 접점의 이동 경로로 할 수 있다. 여기서 상기 지시 선의 궤적을 생성하기 위하여 설정하는 상기 소정의 면은 상기 영상이 촬영된 공간 상에 위치하는 가상의 면으로 설정할 수 있다. 예를 들면 상기 소정의 면은 객체가 존재하는 위치에서 설정되는 가상의 면이 될 수 있고, 또는 공간 내에 존재하는 벽이나 바닥 또는 천장의 위치에서 설정되는 가상의 면이 될 수도 있다. 그리고 여기서 상기 소정의 면은 사용자가 객체를 바라보는 시선의 방향과 수직하도록 설정되는 것이 바람직하다. 이를 위하여 상기 소정의 면은 사용자의 머리와 객체의 외곽선의 중심을 잇는 선에 수직하게 설정될 수 있다.Here, the locus of the instruction line may be obtained as a locus corresponding to the movement of the instruction line generated in the instruction direction recognition step (S110). The trajectory along the movement of the instruction line may be a movement path of a contact between the predetermined surface and the instruction line. Here, the predetermined plane set to generate the locus of the instruction line may be set as a virtual plane located on the space in which the image is captured. For example, the predetermined face may be a virtual face set at a position where an object exists, or may be a virtual face set at a position of a wall, floor, or ceiling existing in the space. And the predetermined surface is set to be perpendicular to the direction of the line of sight of the user. To this end, the predetermined plane may be set perpendicular to a line connecting the center of the outline of the user's head and the object.

지시 객체 특정 단계(S130)는 이상과 같은 지시 선의 궤적과 객체 검출 단계(S120)에서 검출한 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선이 대응하는 것으로 판단하는 경우, 상기 지시 선의 궤적에 대응하는 상기 외곽선을 가지는 상기 객체를 상기 지시 객체로 특정할 수 있다.The indicating object specifying step S130 compares the outline of the indication line and the outline of the object detected in the object detecting step S120 as described above. When determining that the outline of the object corresponds to the outline of the indication line, The object having the outline corresponding to the locus of the instruction line can be specified as the instruction object.

즉 지시 객체 특정 단계(S130)는 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체가 복수 개인 경우, 상기 복수 개의 객체의 각 외곽선과 상기 지시 선의 궤적을 비교하여, 상기 복수 개의 객체 중 상기 지시 선의 궤적과 대응하는 상기 외곽선을 가지는 상기 객체를 선택하여 상기 지시 객체로 특정할 수 있다.That is, if the plurality of objects exist on the instruction line or exist within a predetermined distance from the instruction line, the outline of the plurality of objects is compared with the locus of the instruction line, The object having the outline corresponding to the locus of the instruction line among the plurality of objects can be selected and specified as the instruction object.

도 8은 이와 같은 지시 선의 궤적과 객체의 외곽선을 비교하여 지시 객체를 특정하는 지시 객체 특정 단계(S130)의 동작을 설명하기 위한 참고도이다.FIG. 8 is a reference diagram for explaining the operation of an instruction object specifying step (S130) for specifying an instruction object by comparing the outline of the instruction line with the outline of the object.

도 8을 참조하면 지시 객체 특정 단계(S130)에서는 사용자가 손을 이동함에 따라 함께 이동하는 지시 선의 궤적과 복수개의 객체들의 외곽선을 비교하여, 지시 선의 궤적과 대응하는 외곽선을 가지는 객체 1을 상기 지시 객체로 특정할 수 있다.Referring to FIG. 8, in step S130, the user compares the outline of a plurality of objects with the locus of an instruction line that moves together as the user moves his or her hand. Then, the object 1 having an outline corresponding to the locus of the instruction line, It can be specified as an object.

여기서 지시 선의 궤적과 객체의 외곽선을 비교하여 지시 선의 궤적에 대응하는 객체의 외곽선을 판단함에 있어서는, 지시 선의 궤적과 객체의 외곽선 간의 유사한 정도 및 일치하는 정도를 고려하는 것이 바람직하다. In this case, when comparing the locus of the instruction line with the outline of the object, it is desirable to consider the similarity and the degree of coincidence between the locus of the instruction line and the outline of the object in determining the outline of the object corresponding to the locus of the instruction line.

여기서 지시 선의 궤적과 객체의 외곽선 간의 유사한 정도는 지시 선의 궤적과 객체의 외곽선을 정렬하여 상호 이격된 거리를 산출하여 구할 수도 있다. 여기서 예를 들면 상호 이격된 거리가 소정의 오차 이내인 경우 상기 지시 선의 궤적과 객체의 외곽선이 대응한다고 판단할 수 있다. 또는 지시 선의 궤적과 객체의 외곽선 간의 유사한 정도는 지시 선의 궤적과 객체의 외곽선에 대하여 미리 정해진 필터링을 수행한 다음, 필터링된 신호를 비교하여 구할 수도 있다. 또는 지시 선의 궤적과 객체의 외곽선을 주파수 변환을 하거나 웨이블렛 변환을 하는 등의 신호 변환을 수행한 다음, 변환된 신호를 비교하여 그 유사한 정도를 구할 수도 있다. 또한 기타 서로 다른 두 개의 2차원 또는 3차원의 선 간의 유사도를 구하는 기존의 다양한 방법을 사용할 수 있음은 물론이다.Here, the similarity between the trajectory of the instruction line and the outline of the object can be obtained by calculating the distance between the trajectory of the instruction line and the outline of the object. Here, for example, when the mutually spaced distances are within a predetermined error, it can be determined that the locus of the instruction line corresponds to the outline of the object. Alternatively, the similarity between the locus of the instruction line and the outline of the object may be obtained by performing predetermined filtering on the locus of the instruction line and the outline of the object, and then comparing the filtered signals. Alternatively, it is also possible to perform signal conversion such as frequency conversion or wavelet conversion on the locus of the instruction line and the outline of the object, and then compare the converted signals to obtain the similar degree. It is needless to say that various conventional methods of obtaining similarity between two different two-dimensional or three-dimensional lines can be used.

또한 여기서 지시 선의 궤적과 객체의 외곽선 간의 유사도는 다양한 공간 상에서 비교될 수 있다. 예를 들면 상기 지시 선의 궤적과 객체의 외곽선은 상기 영상의 공간 상으로 투영되어 비교될 수 있다. 이 경우 객체의 외곽선은 영상에서 검출된 외곽선을 이용할 수 있고, 지시 선의 궤적은 상기 영상의 평면 상에서 지시 선이 이동하는 궤적에 따라 생성될 수 있다. 또는 상기 지시 선의 궤적과 객체의 외곽선은 상기 영상이 촬영한 3차원 공간 상으로 투영되어 비교될 수도 있다. 이 경우 지시 선의 궤적은 상기 3차원 공간 산에서 상기 지시 선이 이동하는 궤적에 따라 생성될 수 있고, 객체의 외곽선은 영상에서 검출된 외곽선에 대응하는 상기 3차원 공간 상의 외곽선을 이용하거나, 또는 필요에 따라 이하 설명하는 바와 같이 검출한 객체에 대하여 미리 알고 있는 3차원 모델의 윤곽 정보에 따라 결정되는 외곽선을 이용할 수도 있다.Here, the similarity between the locus of the instruction line and the outline of the object can be compared in various spaces. For example, the locus of the instruction line and the outline of the object can be projected onto the space of the image and compared. In this case, the outline of the object can be used as the outline detected in the image, and the locus of the instruction line can be generated in accordance with the locus of the instruction line moving on the plane of the image. Alternatively, the locus of the instruction line and the outline of the object may be projected onto the captured three-dimensional space and compared. In this case, the locus of the instruction line may be generated in accordance with the locus of movement of the instruction line in the 3D space, and the outline of the object may be generated by using the outline on the 3D space corresponding to the outline detected in the image, An outline determined according to the outline information of the three-dimensional model that is known in advance for the detected object may be used as described below.

또한 여기서 지시 선의 궤적과 객체의 외곽선 간의 유사도를 비교함에 있어서 지시 선의 궤적 또는 객체의 외곽선을 크기 변환하거나 회전 변환하는 등 변환한 결과를 비교할 수도 있다. 이는 사용자의 손 동작에 따라 생성되는 지시 선의 경우 실제 검출된 객체의 외곽선과 크기나 방향이 상이할 수 있기 때문에, 이를 고려한 보정을 수행하기 위함이다. 예를 들면 지시 선의 궤적과 객체의 외곽선의 크기가 동일해지도록 지시 선의 궤적 또는 객체의 외곽선을 크기 변환할 수 있고, 필요에 따라 추가적으로 소정의 배수만큼(예를 들면 0.8, 0.9, 1, 1.1, 1.2 등과 같은 소정 배수) 크기를 변화시키면서 양 선을 비교할 수 있다. 또한 예를 들면 상기 지시 선의 궤적 또는 객체의 외곽선을 0도 내지 360도의 범위에서 회전하는 변환을 수행한 다음 비교를 할 수도 있다.Here, in comparing the similarity between the trajectory of the instruction line and the outline of the object, it is also possible to compare the result of transformation such as size conversion or rotation conversion of the trajectory of the instruction line or the outline of the object. This is because, in the case of the instruction line generated according to the hand motion of the user, the size and the direction of the actual detected object may differ from the outline thereof, so that the correction is performed considering this. For example, the locus of the instruction line or the outline of the object can be resized so that the locus of the instruction line and the size of the outline of the object become the same. If necessary, the size of the locus of the instruction line or the outline of the object can be further increased by a predetermined multiple (for example, 0.8, 0.9, ≪ / RTI > 1.2 or the like). For example, it is also possible to carry out a conversion in which the trajectory of the instruction line or the outline of the object is rotated in the range of 0 to 360 degrees, and then the comparison is performed.

일 예로 지시 객체 특정 단계(S130)는 상기 지시 선의 궤적을 상기 영상의 공간 상에 투영하고, 상기 투영한 지시 선의 궤적 또는 상기 객체의 외곽선에 대하여 크기 변환 또는 회전 변환을 포함하는 변환을 수행하고, 상기 변환된 결과를 비교하여 상기 투영한 지시 선의 궤적과 상기 객체의 외곽선이 소정의 오차 이내로 일치하는지 여부에 따라, 상기 지시 선의 궤적과 상기 객체의 외곽선의 대응 여부를 판단할 수 있다. 이와 같은 경우는 영상에 따른 공간 상에서 지시 선의 궤적과 객체의 외곽선을 비교하는 경우라고 할 수 있다.For example, the instruction object specification step S130 may include projecting the locus of the instruction line onto the space of the image, performing a transformation including a magnitude transformation or a rotation transformation on a trajectory of the projected instruction line or an outline of the projected object, It is possible to compare the result of the conversion and determine whether or not the locus of the instruction line and the outline of the object correspond to each other according to whether the locus of the projected instruction line and the outline of the object coincide within a predetermined error. In such a case, it can be said that the case of comparing the trajectory of the instruction line and the outline of the object on the space according to the image.

또 다른 예로 상기 영상이 3차원의 깊이 정보를 가지는 깊이 영상이 되는 경우, 지시 객체 특정 단계(S130)는 상기 깊이 영상에 대응하는 3차원 공간 내에서 소정의 위치에 설정된 투영면과 상기 지시 선 간의 접점의 이동 경로를 상기 지시 선의 궤적으로 획득하고, 상기 획득한 상기 지시 선의 궤적과 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선의 대응 여부를 판단할 수 있다. 그리고 이 경우 객체 검출 단계(S120)는 상기 영상에서 검출한 객체에 대응하는 미리 정해진 3차원 모델의 윤곽 정보에 따라 상기 객체의 외곽선을 획득할 수 있다. 이와 같은 경우 검출된 객체의 종류와 식별 정보에 대하여 미리 저장되어 있는 3차원 모델을 이용하여, 그 모델에 따른 윤곽 정보에 따라 객체의 윤곽선을 획득할 수 있는 것이다. 그리고 이 경우 지시 객체 특정 단계(S130)는 상기 획득한 객체의 외곽선과 상기 지시 선의 궤적을 비교하여, 그 결과에 따라 상기 지시 객체를 특정할 수 있다. As another example, when the image is a depth image having three-dimensional depth information, the step of specifying an indicating object (S130) may include a step of determining a point of contact between the projection plane set at a predetermined position in the three- The trajectory of the instruction line and the outline of the object are compared with each other to determine whether the trajectory of the instruction line and the outline of the object correspond to each other. In this case, the object detection step S120 may obtain the outline of the object according to the outline information of the predetermined three-dimensional model corresponding to the object detected in the image. In this case, the contour of the object can be acquired according to the contour information according to the model using the three-dimensional model stored in advance for the type of the detected object and the identification information. In this case, the instruction object specifying step S130 may compare the outline of the obtained object with the locus of the instruction line, and specify the instruction object according to the result.

다음으로는 제스쳐 인식 단계(S200)에 대하여 보다 상세히 설명한다.Next, the gesture recognition step (S200) will be described in more detail.

제스쳐 인식 단계(S200)에서는 제스쳐 인식부(200)가 상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식한다.In the gesture recognition step S200, the gesture recognition unit 200 analyzes a pose of a part of the user's body in the image and recognizes a gesture for controlling the pointing object.

여기서 제스쳐는 특정한 시점에서의 상기 사용자의 신체의 일부분의 형태나 자세 또는 포즈가 될 수 있고, 또는 일정한 시간 동안의 상기 사용자의 신체의 일부분의 형태나 자세 또는 포즈의 움직임이나 변화가 될 수 있다. 그리고 여기서 제스쳐를 인식하기 위하여 분석하는 사용자의 신체의 일부분은 사용자의 손이 될 수 있고, 필요에 따라 사용자의 팔, 상반신, 하반신, 전신 등이 될 수 있다. 바람직하게는 사용자의 손 동작이나 팔 동작에 따른 사용자의 신체의 포즈를 분석하여 제스쳐를 인식할 수 있다.Here, the gesture may be a form, an attitude or a pose of a part of the user's body at a specific point in time, or a form or an attitude or a movement or a change of a pose of a part of the user's body for a predetermined time. Here, a part of the body of the user who analyzes to recognize the gesture may be a user's hand, and may be a user's arm, upper body, lower body, or body, if necessary. Preferably, the gesture can be recognized by analyzing the pose of the user's body according to the user's hand or arm motion.

도 9는 제스쳐 인식 단계(S200)의 세부 흐름도이다.9 is a detailed flowchart of the gesture recognition step S200.

제스쳐 인식 단계(S200)는 조명 판단 단계(S210), 제스쳐 영역 추출 단계(S220), 제어 제스쳐 인식 단계(S230)를 포함할 수 있다.The gesture recognition step S200 may include an illumination determination step S210, a gesture region extraction step S220, and a control gesture recognition step S230.

예를 들면 사람의 손의 제스쳐를 인식하기 위해서는 살색으로 손을 검출하고 그 포즈를 인식해야 한다. 그런데 실내의 조명 환경에서는 조명의 유무와 조명의 차이로 인해 같은 사람의 손이라도 해도 다양한 경우의 색이 나타날 수 있다. 이와 같은 현상에 대응하이 귀하여 본 발명에서는 먼저 조명 판단 단계(S210)에서 조명 상태 정보를 획득한 다음, 제스쳐 영역 추출 단계(S220)에서 상기 획득한 조명 상태 정보를 이용하여 제스쳐를 수행하는 신체 부위 영역을 추출한다. For example, in order to recognize the gesture of a human hand, it is necessary to detect the hand with the skin color and recognize the pose. However, in the indoor lighting environment, various colors may appear even with the hand of the same person due to the presence or absence of illumination and the difference in illumination. In the present invention, first, the illumination state information is obtained in the illumination determination step (S210), and then the body part for performing the gesture using the acquired illumination state information in the gesture region extraction step (S220) Extract the region.

조명 판단 단계(S210)는 상기 영상을 분석하여 상기 영상이 촬영된 조명 환경에 따른 조명 상태 정보를 획득한다.The illumination determination step S210 analyzes the image and acquires illumination state information according to the illumination environment in which the image is captured.

여기서 조명 판단 단계(S210)는 상기 영상을 미리 학습된 조명 분류기에 입력하여 상기 영상이 촬영된 조명 환경이 미리 정해진 복수개의 조명 상태 중 어느 것에 해당하는지를 판단하여, 그 판단 결과에 따른 상기 조명 상태 정보를 획득할 수 있다. 여기서 조명 분류기는 상기 객체 분류에서 설명한 기존의 방법들과 기본적으로 동일한 방법들을 적용하여 학습하여 분류 함수의 파라미터들을 설정할 수 있음은 물론이다. Here, the illumination determination step (S210) may input the image to the previously learned illumination classifier to determine which of the plurality of illumination states the illumination environment photographed corresponds to and determine the illumination state information Can be obtained. It is needless to say that the illumination classifier can set the parameters of the classification function by learning basically the same methods as the existing methods described in the object classification.

예를 들면 조명 상태는 미리 정해진 바에 따라 자연광, 형광등, 백열등을 포함할 수 있고, 영상에서의 조명 상태를 파악하기 위해서, 위 각 조명 상태를 가지는 복수개의 학습용 영상들을 SVM 등을 이용하여 기계 학습하여 조명 분류기를 학습시킬 수 있다. 여기서 학습을 위한 특징 정보로는 contrast, brightness, hue, saturation을 포함하는 영상 신호 정보를 이용할 수 있다. 이상과 같이 학습된 조명 분류기를 이용하여 조명 판단 단계(S210)는 자연광, 형광등, 백열등을 포함하는 조명 상태 중 어느 하나로 상기 영상의 조명 상태 정보를 획득할 수 있다. For example, the illumination state may include natural light, fluorescent light, or incandescent light according to a predetermined order. In order to grasp the illumination state in the image, a plurality of learning images having the above illumination state are machine-learned using SVM or the like The illumination classifier can be learned. Here, the feature information for learning may include image signal information including contrast, brightness, hue, and saturation. Using the learned classifier, the illumination determination step S210 may obtain the illumination state information of the image in any of the illumination states including natural light, fluorescent light, and incandescent light.

제스쳐 영역 추출 단계(S220)는 상기 획득한 조명 상태 정보에 따라 상기 영상 내 존재하는 상기 사용자의 신체에서 상기 제스쳐를 수행하는 신체 부위 영역을 추출한다. 여기서 상기 제스쳐를 수행하는 신체 부위 영역은 예를 들면 사용자의 손이 될 수 있다.The gesture region extraction step S220 extracts a body part region that performs the gesture in the user's body existing in the image according to the obtained illumination state information. Here, the region of the body part performing the gesture may be, for example, a user's hand.

여기서 영역 추출 단계(S220)는 상기 영상에서 상기 조명 상태 정보에 따라 미리 설정된 색상 또는 밝기 범위를 가지는 영역을 상기 제스쳐를 수행하는 신체 부위 영역으로 추출할 수 있다. 즉 예를 들면 위에서 획득한 조명 상태 정보에서 사람의 손에 해당하는 Hue값과 Saturation 의 범위를 미리 정해진 값에 따라 획득할 수 있고, 상기 범위를 가지는 영역을 상기 손의 영역으로 추출할 수 있다.Here, the region extracting step S220 may extract an area having a predetermined color or brightness range according to the illumination state information in the image as a body part region for performing the gesture. That is, for example, the Hue value corresponding to the human hand and the range of the saturation can be obtained according to the predetermined value in the illumination state information obtained from the above, and the region having the above range can be extracted as the region of the hand.

다음으로 제어 제스쳐 인식 단계(S230)는 상기 추출한 제스쳐를 수행하는 신체 부위 영역의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 상기 제스쳐를 인식한다.Next, the control gesture recognition step (S230) recognizes the gesture for controlling the pointing object by analyzing the pose of the body part region performing the extracted gesture.

여기서 제어 제스쳐 인식 단계(S230)는 상기 추출한 제스쳐를 수행하는 신체 부위 영역에서 소정의 특징을 추출하고, 상기 추출한 특징에 따른 특징 벡터를 미리 학습된 제스쳐 분류기에 입력하여 상기 제스쳐를 인식할 수 있다. 여기서 제스쳐 분류기 역시 상기 객체 분류에서 설명한 기존의 방법들과 기본적으로 동일한 방법들을 적용하여 학습하여 분류 함수의 파라미터들을 설정할 수 있음은 물론이다.Herein, the control gesture recognition step (S230) may extract a predetermined feature from the body part region in which the extracted gesture is performed, and input the feature vector according to the extracted feature to the learned gesture classifier to recognize the gesture. It is needless to say that the gesture classifier can also set parameters of the classification function by learning basically the same methods as the existing methods described in the object classification.

예를 들면 제어 제스쳐 인식 단계(S230)에서는 SIFT 또는 HOG 특징을 이용하여 손의 제스쳐를 정의하고, 인식하고자 하는 각각의 미리 정의된 제스쳐에 따른 손 모양에 대해 획득한 학습용 영상을 이용하여 학습한 상기 제스쳐 분류기를 이용하여, 상기 추출한 제스쳐를 수행하는 신체 부위 영역에 따른 영상을 분류하여 제스쳐를 인식할 수 있다. For example, in the control gesture recognition step S230, a gesture of a hand is defined using the SIFT or HOG feature, and the learned gesture using the learning image obtained for each hand gesture according to each predefined gesture to be recognized The gesture recognizer can recognize the gesture by classifying the image according to the region of the body part performing the extracted gesture using the gesture classifier.

다음으로 객체 제어 명령 출력 단계(S300)에서는 객체 제어 명령 출력부(300)가 상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력할 수 있다.Next, in the object control command output step S300, the object control command output unit 300 can generate and output a control command for the instruction object according to the recognized gesture.

여기서 객체 제어 명령 출력 단계(S300)는 지시 객체 인식 단계(S100)에서 특정되고 인식된 지시 객체에 대하여, 제스쳐 인식 단계(S200)에서 인식한 제스쳐에 따라 미리 정해진 제어 명령을 생성할 수 있다. 예를 들면 지시 객체로 특정 제조 회사의 TV가 특정되고 인식된 경우, 상기 미리 정의된 제스쳐가 인식되면, 상기 인식 된 TV에 대하여 상기 인식된 제스쳐가 의미하는 바가 미리 정해진 규칙 또는 테이블에 따른 정보에 따라 제어 명령이 생성되고 출력될 수 있다.Here, the object control command output step S300 may generate a predetermined control command for the instruction object identified and recognized in the instruction object recognition step S100 according to the gesture recognized in the gesture recognition step S200. For example, if a TV of a specific manufacturer is identified and recognized as an instruction object, if the predefined gesture is recognized, the recognized gesture means the recognized TV, A control command can be generated and output.

본 발명의 또 다른 실시예는 상술한 본 발명에 따른 제스쳐를 이용한 디바이스 제어 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 될 수도 있다.Yet another embodiment of the present invention may be a computer program stored in a medium for executing a device control method using a gesture according to the present invention.

다음으로는 본 발명에 따른 제스쳐를 이용한 디바이스 제어 장치에 대하여 설명한다.Next, a device control apparatus using a gesture according to the present invention will be described.

도 10은 본 발명의 또 다른 실시예에 따른 제스쳐를 이용한 디바이스 제어 장치의 블록도이다.10 is a block diagram of a device control apparatus using a gesture according to another embodiment of the present invention.

상기 제스쳐를 이용한 디바이스 제어 장치는 지시 객체 인식부(100), 제스쳐 인식부(200)를 포함할 수 있고, 필요에 따라 객체 제어 명령 출력부(300)를 더 포함할 수도 있다. 여기서 지시 객체 인식부(100), 제스쳐 인식부(200) 및 객체 제어 명령 출력부(300)는 위에서 도 1 내지 도 9를 참조하면서 상세히 설명한 제스쳐를 이용한 디바이스 제어 방법과 동일한 방식으로 동작할 수 있다. 이에 중복되는 부분은 생략하고 간략히 설명한다.The device control apparatus using the gesture may include an instruction object recognition unit 100 and a gesture recognition unit 200, and may further include an object control command output unit 300 as needed. Here, the instruction object recognition unit 100, the gesture recognition unit 200, and the object control command output unit 300 can operate in the same manner as the device control method using the gesture described in detail with reference to FIGS. 1 to 9 . The overlapping portions will be omitted and briefly explained.

지시 객체 인식부(100)는 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출하며, 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식하고, 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식한다.The instruction object recognition unit 100 receives an image of a space in which a user's controlled object exists, detects at least one or more objects in the image, detects the body of the user in the image, Recognizes the direction of the user according to the body posture of a user and identifies the instruction object indicated by the user among the objects according to the direction of the user and recognizes the specific instruction object.

제스쳐 인식부(200)는 상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식한다.The gesture recognition unit 200 recognizes a gesture for controlling the pointing object by analyzing a pose of a part of the user's body in the image.

객체 제어 명령 출력부(300)는 상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력한다.The object control command output unit 300 generates and outputs a control command for the instruction object according to the recognized gesture.

도 11은 지시 객체 인식부(100)의 세부 블록도이다.11 is a detailed block diagram of the instruction object recognition unit 100. As shown in FIG.

지시 객체 인식부(100)는 지시 방향 인식부(110), 객체 검출부(120), 지시 객체 특정부(130)를 포함할 수 있고, 필요에 따라 객체 인식부(140)를 더 포함할 수 있다.The instruction object recognition unit 100 may include an instruction direction recognition unit 110, an object detection unit 120 and an instruction object specification unit 130 and may further include an object recognition unit 140 as needed .

지시 방향 인식부(110)는 상기 검출한 사용자의 신체에서 미리 정해진 적어도 하나 이상의 신체 부위를 검출하고, 상기 검출한 신체 부위를 이용하여 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 상기 사용자의 지시 방향을 인식할 수 있다.The instruction-direction recognizing unit 110 detects at least one or more body parts predetermined in the body of the detected user, generates an instruction line according to the direction indicated by the user using the detected body parts, The instruction direction can be recognized.

객체 검출부(120)는 상기 영상에서 상기 객체를 검출하고 인식할 수 있다.The object detection unit 120 can detect and recognize the object in the image.

지시 객체 특정부(130)는 상기 검출된 객체 중 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정하되, 상기 지시 선의 궤적과 상기 객체 검출부에서 검출한 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선이 대응하는 것으로 판단하는 경우, 상기 지시 선의 궤적에 대응하는 상기 외곽선을 가지는 상기 객체를 상기 지시 객체로 특정할 수 있다.The instruction object specifying unit 130 specifies the object existing on the instruction line or within a predetermined distance from the instruction line among the detected objects as the instruction object, The controller can compare the detected outline of the object and specify the object having the outline corresponding to the locus of the instruction line as the instruction object when it determines that the locus of the instruction line and the outline of the object correspond.

객체 인식부(140)는 상기 검출한 객체나 또는 상기 특정한 지시 객체에 대하여, 미리 학습된 객체 분류기를 이용하여, 그 종류를 인식할 수 있다.The object recognition unit 140 can recognize the type of the detected object or the specific instruction object by using an object classifier previously learned.

도 12는 제스쳐 인식부(200)의 세부 블록도이다.12 is a detailed block diagram of the gesture recognition unit 200. As shown in FIG.

제스쳐 인식부(200)는 조명 판단부(210), 제스쳐 영역 추출부(220), 제어 제스쳐 인식부(230)를 포함할 수 있다.The gesture recognition unit 200 may include an illumination determination unit 210, a gesture region extraction unit 220, and a control gesture recognition unit 230.

조명 판단부(210)는 상기 영상을 분석하여 상기 영상이 촬영된 조명 환경에 따른 조명 상태 정보를 획득한다.The illumination determination unit 210 analyzes the image and acquires illumination state information according to the illumination environment in which the image is captured.

제스쳐 영역 추출부(220)는 상기 획득한 조명 상태 정보에 따라 상기 영상 내 존재하는 상기 사용자의 신체에서 상기 제스쳐를 수행하는 신체 부위 영역을 추출한다.The gesture region extracting unit 220 extracts a body part region that performs the gesture from the body of the user existing in the image according to the acquired illumination state information.

제어 제스쳐 인식부(230)는 상기 추출한 제스쳐를 수행하는 신체 부위 영역의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 상기 제스쳐를 인식한다.The control gesture recognition unit 230 recognizes the gesture for controlling the pointing object by analyzing a pose of a body part region performing the extracted gesture.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them.

또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

S100 : 지시 객체 인식 단계
S110 : 지시 방향 인식 단계
S120 : 객체 검출 단계
S130 : 지시 객체 특정 단계
S140 : 객체 인식 단계
S200 : 제스쳐 인식 단계
S210 : 조명 판단 단계
S220 : 제스쳐 영역 추출 단계
S230 : 제어 제스쳐 인식 단계
S300 : 객체 제어 명령 출력 단계
100 : 지시 객체 인식부
110 : 지시 방향 인식부
120 : 객체 검출부
130 : 지시 객체 특정부
200 : 제스쳐 인식부
210 : 조명 판단부
220 : 제스쳐 영역 추출부
230 : 제어 제스쳐 인식부
300 : 객체 제어 명령 출력부
S100: Instruction object recognition step
S110: instruction direction recognition step
S120: Object detection step
S130: Instruction object specific step
S140: Object recognition step
S200: Gesture recognition step
S210: Lighting determination step
S220: Gesture region extraction step
S230: Control Gesture Recognition Step
S300: Object control command output step
100: Instruction object recognition unit
110: instruction direction recognition unit
120: Object detection unit
130: Instruction Object Specification
200: Gesture recognition unit
210:
220: Gesture region extracting unit
230: control gesture recognition unit
300: Object control command output unit

Claims (20)

지시 객체 인식부가 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출하며, 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식하고, 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식하는 지시 객체 인식 단계; 및
제스쳐 인식부가 상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식하는 제스쳐 인식 단계;
를 포함하되, 상기 지시 객체 인식 단계는
상기 사용자의 신체의 자세에 따라 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 사용자의 지시 방향을 인식하고,
상기 영상에서 상기 객체의 외곽선을 검출하여 상기 객체를 검출하고,
상기 검출한 객체의 외곽선과 상기 생성한 지시 선의 궤적을 비교하여 그 비교한 결과에 따라 상기 사용자가 지시하는 지시 객체를 특정하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
An instruction object recognition unit receives an image of a space in which a user's control object exists, detects at least one object in the image, detects the body of the user in the image, Recognizing an instruction direction of a user according to an attitude of the user and identifying an instruction object indicated by the user among the objects according to the instruction direction of the user and recognizing the specific instruction object; And
A gesture recognition step of recognizing a gesture for controlling the pointing object by analyzing a pose of a part of the user's body in the image;
Wherein the instruction object recognition step comprises:
A direction line according to a line direction indicated by a user is generated according to the body posture of the user to recognize a direction of the user,
Detecting an outline of the object in the image to detect the object,
Comparing an outline of the detected object with a locus of the generated instruction line, and specifying an instruction object instructed by the user according to the comparison result.
제1항에 있어서,
객체 제어 명령 출력부가 상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력하는 객체 제어 명령 출력 단계를 더 포함하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
The method according to claim 1,
Wherein the object control command outputting step further comprises an object control command outputting step of generating and outputting a control command for the instruction object according to the recognized gesture.
제1항에 있어서,
상기 영상은 3차원의 깊이 정보를 가지는 깊이 영상인 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
The method according to claim 1,
Wherein the image is a depth image having three-dimensional depth information.
제1항에 있어서,
상기 지시 객체 인식 단계는 상기 검출한 사용자의 신체에서 미리 정해진 적어도 하나 이상의 신체 부위를 검출하고, 상기 검출한 신체 부위를 이용하여 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하고, 상기 지시 선을 이용하여 상기 지시 객체를 특정하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
The method according to claim 1,
The instruction object recognition step may include detecting at least one or more body parts predetermined in the body of the detected user, generating an instruction line according to a line direction indicated by the user using the detected body part, And the instruction object is identified using the instruction line.
제4항에 있어서, 상기 지시 객체 인식 단계는,
상기 사용자의 신체에서 상기 신체 부위를 검출하고, 상기 신체 부위를 이용하여 상기 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하는 지시 방향 인식 단계;
상기 영상에서 상기 객체를 검출하는 객체 검출 단계; 및
상기 검출된 객체 중 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정하는 지시 객체 특정 단계를 포함하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
5. The method of claim 4,
An instruction direction recognition step of detecting the body part in the body of the user, generating the instruction line using the body part, and recognizing the instruction direction of the user;
An object detecting step of detecting the object in the image; And
And an instruction object specifying step of specifying the object existing on the instruction line or within the predetermined distance from the instruction line as the instruction object among the detected objects.
제4항에 있어서,
상기 지시 객체 인식 단계는 상기 검출한 객체나 또는 상기 특정한 지시 객체에 대하여, 미리 학습된 객체 분류기를 이용하여, 그 종류를 인식하는 객체 인식 단계를 포함하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
5. The method of claim 4,
Wherein the instruction object recognition step comprises an object recognition step of recognizing the type of the detected object or the specific instruction object using a pre-learned object classifier.
제5항에 있어서,
상기 지시 방향 인식 단계는 상기 사용자의 신체에서 팔꿈치 부위나 손 부위나 어께 부위나 눈 부위 중 적어도 어느 하나 이상을 포함하는 상기 신체 부위를 검출하고, 상기 신체 부위의 위치를 이용하여 상기 지시 선을 생성하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
6. The method of claim 5,
The instruction direction recognizing step detects the body part including at least one of the elbow part, the hand part, the shoulder part, and the eye part in the body of the user, and generates the instruction line using the position of the body part And the device control method using the gesture.
제7항에 있어서,
상기 지시 방향 인식 단계는 상기 검출한 신체 부위 중 상기 사용자의 팔꿈치 관절이나 손 관절이나 어께 관절 중 적어도 두 개 이상의 관절의 위치가 미리 설정한 규칙을 만족하는 경우, 상기 눈 부위의 위치와 상기 손 부위의 위치를 연결하는 선을 상기 지시 선으로 생성하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
8. The method of claim 7,
Wherein the instruction direction recognition step includes a step of recognizing the direction of the user when at least two joints of the user's elbow joint, hand joint or shoulder joint among the detected body parts satisfy predetermined rules, And a line connecting the positions of the gestures is generated as the instruction line.
삭제delete 제5항에 있어서,
상기 지시 객체 특정 단계는 상기 지시 방향 인식 단계에서 생성한 상기 지시 선의 이동에 따른 상기 지시 선의 궤적과 상기 객체 검출 단계에서 검출한 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선이 대응하는 것으로 판단하는 경우, 상기 지시 선의 궤적에 대응하는 상기 외곽선을 가지는 상기 객체를 상기 지시 객체로 특정하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
6. The method of claim 5,
Wherein the instruction object specifying step compares the locus of the instruction line with the movement of the instruction line generated in the instruction direction recognition step and the outline of the object detected in the object detection step to determine whether the outline of the instruction line and the outline of the object Wherein the determining step determines that the object having the outline corresponding to the locus of the instruction line is identified as the instruction object.
제10항에 있어서,
상기 지시 객체 특정 단계는 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체가 복수 개인 경우, 상기 복수 개의 객체의 각 외곽선과 상기 지시 선의 궤적을 비교하여, 상기 복수 개의 객체 중 상기 지시 선의 궤적과 대응하는 상기 외곽선을 가지는 상기 객체를 선택하여 상기 지시 객체로 특정하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
11. The method of claim 10,
Wherein the instructing object specifying step compares the outline of each of the plurality of objects with the locus of the instruction line when there are a plurality of the objects existing on the instruction line or within a predetermined distance from the instruction line, And selecting the object having the outline corresponding to the locus of the instruction line among the objects as the instruction object.
제10항에 있어서,
상기 지시 객체 특정 단계는 상기 지시 선의 궤적을 상기 영상의 공간 상에 투영하고, 상기 투영한 지시 선의 궤적 또는 상기 객체의 외곽선에 대하여 크기 변환 또는 회전 변환을 포함하는 변환을 수행하고, 상기 변환된 결과를 비교하여 상기 투영한 지시 선의 궤적과 상기 객체의 외곽선이 소정의 오차 이내로 일치하는지 여부에 따라, 상기 지시 선의 궤적과 상기 객체의 외곽선의 대응 여부를 판단하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
11. The method of claim 10,
Wherein the step of specifying the instruction object includes the step of projecting the locus of the instruction line onto the space of the image, performing a transformation including a magnitude transformation or a rotation transformation on the trajectory of the projected instruction line or the outline of the object, And judges whether or not the trajectory of the instruction line and the outline of the object coincide with each other according to whether or not the trajectory of the projected instruction line and the outline of the object coincide within a predetermined error. .
제10항에 있어서,
상기 영상은 3차원의 깊이 정보를 가지는 깊이 영상이고,
상기 지시 객체 특정 단계는 상기 깊이 영상에 대응하는 3차원 공간 내에서 소정의 위치에 설정된 투영면과 상기 지시 선 간의 접점의 이동 경로를 상기 지시 선의 궤적으로 획득하고, 상기 획득한 상기 지시 선의 궤적과 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선의 대응 여부를 판단하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
11. The method of claim 10,
The image is a depth image having three-dimensional depth information,
Wherein the step of specifying the pointing object includes the step of obtaining a path of movement of a point of contact between the projection plane and the pointing line set at a predetermined position within a three-dimensional space corresponding to the depth image as a locus of the pointing line, And comparing the outline of the object to determine whether or not the locus of the instruction line corresponds to the outline of the object.
제13항에 있어서,
상기 객체 검출 단계는 상기 영상에서 검출한 객체에 대응하는 미리 정해진 3차원 모델의 윤곽 정보에 따라 상기 객체의 외곽선을 획득하고,
상기 지시 객체 특정 단계는 상기 획득한 객체의 외곽선과 상기 지시 선의 궤적을 비교하여, 그 결과에 따라 상기 지시 객체를 특정하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
14. The method of claim 13,
Wherein the object detecting step obtains an outline of the object according to outline information of a predetermined three-dimensional model corresponding to the object detected in the image,
Wherein the instruction object specifying step compares the outline of the obtained object with the locus of the instruction line, and specifies the instruction object according to a result of the comparison.
제1항에 있어서, 상기 제스쳐 인식 단계는
상기 영상을 분석하여 상기 영상이 촬영된 조명 환경에 따른 조명 상태 정보를 획득하는 조명 판단 단계;
상기 획득한 조명 상태 정보에 따라 상기 영상 내 존재하는 상기 사용자의 신체에서 상기 제스쳐를 수행하는 신체 부위 영역을 추출하는 제스쳐 영역 추출 단계; 및
상기 추출한 제스쳐를 수행하는 신체 부위 영역의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 상기 제스쳐를 인식하는 제어 제스쳐 인식 단계를 포함하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
The method of claim 1, wherein the gesture recognition step
An illumination determination step of analyzing the image to acquire illumination state information according to the illumination environment in which the image is captured;
A gesture region extracting step of extracting a body part region for performing the gesture from the body of the user existing in the image according to the acquired illumination state information; And
And a control gesture recognition step of recognizing the gesture for controlling the instruction object by analyzing a pose of a body part region performing the extracted gesture.
제15항에 있어서,
상기 조명 판단 단계는 상기 영상을 미리 학습된 조명 분류기에 입력하여 상기 영상이 촬영된 조명 환경이 미리 정해진 복수개의 조명 상태 중 어느 것에 해당하는지를 판단하여, 그 판단 결과에 따른 상기 조명 상태 정보를 획득하고,
상기 영역 추출 단계는 상기 영상에서 상기 조명 상태 정보에 따라 미리 설정된 색상 또는 밝기 범위를 가지는 영역을 상기 제스쳐를 수행하는 신체 부위 영역으로 추출하고,
상기 제어 제스쳐 인식 단계는 상기 추출한 제스쳐를 수행하는 신체 부위 영역에서 소정의 특징을 추출하고, 상기 추출한 특징에 따른 특징 벡터를 미리 학습된 제스쳐 분류기에 입력하여 상기 제스쳐를 인식하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 방법.
16. The method of claim 15,
The illumination determination step may include inputting the image into a previously learned illumination classifier to determine which of a plurality of illumination states the illumination environment in which the image is photographed corresponds to, and acquiring the illumination state information according to the determination result ,
Wherein the region extracting step extracts an area having a predetermined color or brightness range according to the illumination state information in the image as a body part region for performing the gesture,
Wherein the control gesture recognition step recognizes the gesture by extracting a predetermined feature from an area of a body part performing the extracted gesture and inputting a feature vector according to the extracted feature to a learned gesture classifier. A method of controlling a device.
제1항 내지 제8항 및 제10항 내지 제16항 중 어느 하나의 항에 따른 제스쳐를 이용한 디바이스 제어 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium for executing a device control method using a gesture according to any one of claims 1 to 8 and 10 to 16. 사용자의 제어 대상 객체가 존재하는 공간을 촬영한 영상을 입력받고, 상기 영상에서 적어도 하나 이상의 상기 객체를 검출하며, 상기 영상에서 상기 사용자의 신체를 검출하여, 상기 검출한 사용자의 신체의 자세에 따른 사용자의 지시 방향을 인식하고, 상기 사용자의 지시 방향에 따라 상기 객체 중 상기 사용자가 지시하는 지시 객체를 특정하여, 상기 특정한 지시 객체를 인식하는 지시 객체 인식부;
상기 영상 내 상기 사용자의 신체의 일부분의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 제스쳐를 인식하는 제스쳐 인식부; 및
상기 인식한 제스쳐에 따라 상기 지시 객체에 대한 제어 명령을 생성하여 출력하는 객체 제어 명령 출력부;
를 포함하되, 상기 지시 객체 인식부는
상기 사용자의 신체의 자세에 따라 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 사용자의 지시 방향을 인식하고,
상기 영상에서 상기 객체의 외곽선을 검출하여 상기 객체를 검출하고,
상기 검출한 객체의 외곽선과 상기 생성한 지시 선의 궤적을 비교하여 그 비교한 결과에 따라 상기 사용자가 지시하는 지시 객체를 특정하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 장치.
A method of detecting a user's body, comprising the steps of: receiving an image of a space in which a user's controlled object exists; detecting at least one or more objects in the image; detecting the body of the user in the image; An instruction object recognizing unit for recognizing the instruction direction of the user and identifying the instruction object indicated by the user among the objects according to the instruction direction of the user and recognizing the specific instruction object;
A gesture recognition unit for recognizing a gesture for controlling the pointing object by analyzing a pose of a part of the body of the user in the image; And
An object control command output unit for generating and outputting a control command for the instruction object according to the recognized gesture;
Wherein the instruction object recognition unit comprises:
A direction line according to a line direction indicated by a user is generated according to the body posture of the user to recognize a direction of the user,
Detecting an outline of the object in the image to detect the object,
Compares an outline of the detected object with a locus of the generated instruction line, and specifies an instruction object instructed by the user according to the comparison result.
제18항에 있어서, 상기 지시 객체 인식부는,
상기 검출한 사용자의 신체에서 미리 정해진 적어도 하나 이상의 신체 부위를 검출하고, 상기 검출한 신체 부위를 이용하여 사용자가 지시하는 선 방향에 따른 지시 선을 생성하여 상기 사용자의 지시 방향을 인식하는 지시 방향 인식부;
상기 영상에서 상기 객체를 검출하고 인식하는 객체 검출부; 및
상기 검출된 객체 중 상기 지시 선 상에 존재하거나 또는 상기 지시 선으로부터 소정의 거리 이내에 존재하는 상기 객체를 상기 지시 객체로 특정하되, 상기 지시 선의 궤적과 상기 객체 검출부에서 검출한 상기 객체의 외곽선을 비교하여, 상기 지시 선의 궤적과 상기 객체의 외곽선이 대응하는 것으로 판단하는 경우, 상기 지시 선의 궤적에 대응하는 상기 외곽선을 가지는 상기 객체를 상기 지시 객체로 특정하는 지시 객체 특정부를 포함하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 장치.
19. The apparatus of claim 18,
Detecting at least one body part predetermined in the body of the detected user and generating an instruction line according to a line direction indicated by the user using the detected body part to recognize the instruction direction of the user part;
An object detection unit for detecting and recognizing the object in the image; And
The object being present on the instruction line or within a predetermined distance from the instruction line as the instruction object among the detected objects, wherein the locus of the instruction line and the outline of the object detected by the object detection unit are compared And an instruction object specifying unit for specifying the object having the outline corresponding to the locus of the instruction line as the instruction object when it is determined that the locus of the instruction line and the outline of the object correspond to each other, Device.
제18항에 있어서, 상기 제스쳐 인식부는
상기 영상을 분석하여 상기 영상이 촬영된 조명 환경에 따른 조명 상태 정보를 획득하는 조명 판단부;
상기 획득한 조명 상태 정보에 따라 상기 영상 내 존재하는 상기 사용자의 신체에서 상기 제스쳐를 수행하는 신체 부위 영역을 추출하는 제스쳐 영역 추출부; 및
상기 추출한 제스쳐를 수행하는 신체 부위 영역의 포즈를 분석하여 상기 지시 객체를 제어하기 위한 상기 제스쳐를 인식하는 제어 제스쳐 인식부를 포함하는 것을 특징으로 하는 제스쳐를 이용한 디바이스 제어 장치.
19. The apparatus of claim 18, wherein the gesture recognition unit
An illumination determination unit for analyzing the image to acquire illumination state information according to the illumination environment in which the image is captured;
A gesture region extracting unit for extracting a body part region that performs the gesture from the body of the user existing in the image according to the obtained illumination state information; And
And a control gesture recognition unit for recognizing the gesture for controlling the indication object by analyzing a pose of a body part region performing the extracted gesture.
KR1020150114073A 2015-08-12 2015-08-12 Apparatus and Method for Device Control using Gesture KR101662022B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150114073A KR101662022B1 (en) 2015-08-12 2015-08-12 Apparatus and Method for Device Control using Gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150114073A KR101662022B1 (en) 2015-08-12 2015-08-12 Apparatus and Method for Device Control using Gesture

Publications (1)

Publication Number Publication Date
KR101662022B1 true KR101662022B1 (en) 2016-10-10

Family

ID=57145944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150114073A KR101662022B1 (en) 2015-08-12 2015-08-12 Apparatus and Method for Device Control using Gesture

Country Status (1)

Country Link
KR (1) KR101662022B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190048614A (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Method and apparatus for recognizing pose
KR20200075149A (en) * 2018-12-13 2020-06-26 한동대학교 산학협력단 Browser control method based on artificial intelligence based user motion recognition
WO2021033809A1 (en) * 2019-08-22 2021-02-25 엘지전자 주식회사 Mobile terminal
WO2021118115A1 (en) * 2019-12-10 2021-06-17 주식회사 브이터치 Method and system for supporting object control, and non-transitory computer-readable recording medium
KR20210073424A (en) * 2019-12-10 2021-06-18 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
CN116685033A (en) * 2023-06-21 2023-09-01 惠州兴通成机电技术有限公司 Intelligent control system for lamp

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100131213A (en) 2009-06-05 2010-12-15 탑시드 테크놀로지 코포레이션 Gesture-based remote control system
KR101321274B1 (en) * 2012-05-29 2013-11-08 주식회사 브이터치 Virtual touch apparatus without pointer on the screen using two cameras and light source
KR20140123900A (en) * 2013-04-15 2014-10-23 오므론 가부시키가이샤 Gesture recognition apparatus, gesture recognition method, electronic decive, control program and recording medium
JP2015041325A (en) * 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ Device, method and program of designation object display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100131213A (en) 2009-06-05 2010-12-15 탑시드 테크놀로지 코포레이션 Gesture-based remote control system
KR101321274B1 (en) * 2012-05-29 2013-11-08 주식회사 브이터치 Virtual touch apparatus without pointer on the screen using two cameras and light source
KR20140123900A (en) * 2013-04-15 2014-10-23 오므론 가부시키가이샤 Gesture recognition apparatus, gesture recognition method, electronic decive, control program and recording medium
JP2015041325A (en) * 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ Device, method and program of designation object display

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190048614A (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Method and apparatus for recognizing pose
WO2019088697A1 (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Pose recognition method and device
KR102147930B1 (en) 2017-10-31 2020-08-25 에스케이텔레콤 주식회사 Method and apparatus for recognizing pose
US11205066B2 (en) 2017-10-31 2021-12-21 Sk Telecom Co., Ltd. Pose recognition method and device
KR20200075149A (en) * 2018-12-13 2020-06-26 한동대학교 산학협력단 Browser control method based on artificial intelligence based user motion recognition
KR102192582B1 (en) 2018-12-13 2020-12-17 한동대학교 산학협력단 Browser control method based on artificial intelligence based user motion recognition
WO2021033809A1 (en) * 2019-08-22 2021-02-25 엘지전자 주식회사 Mobile terminal
WO2021118115A1 (en) * 2019-12-10 2021-06-17 주식회사 브이터치 Method and system for supporting object control, and non-transitory computer-readable recording medium
KR20210073424A (en) * 2019-12-10 2021-06-18 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
KR102398404B1 (en) * 2019-12-10 2022-05-16 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
CN116685033A (en) * 2023-06-21 2023-09-01 惠州兴通成机电技术有限公司 Intelligent control system for lamp
CN116685033B (en) * 2023-06-21 2024-01-12 惠州兴通成机电技术有限公司 Intelligent control system for lamp

Similar Documents

Publication Publication Date Title
KR101662022B1 (en) Apparatus and Method for Device Control using Gesture
US8837780B2 (en) Gesture based human interfaces
EP2093650B1 (en) User interface system based on pointing device
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
JP2022036143A (en) Object tracking system, object tracking device, and object tracking method
US20140062862A1 (en) Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
US20120163661A1 (en) Apparatus and method for recognizing multi-user interactions
US20110234840A1 (en) Apparatus, method and computer program for recognizing a gesture in a picture, and apparatus, method and computer program for controlling a device
US20180088671A1 (en) 3D Hand Gesture Image Recognition Method and System Thereof
US9922245B2 (en) Method and system for recognizing an object
JP2013205983A (en) Information input apparatus, information input method, and computer program
JP2009134718A5 (en)
US9081418B1 (en) Obtaining input from a virtual user interface
KR101551576B1 (en) Robot cleaner, apparatus and method for recognizing gesture
US9836130B2 (en) Operation input device, operation input method, and program
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US9747023B2 (en) Information processing apparatus and method thereof
JP2007034525A (en) Information processor, information processing method and computer program
KR101396488B1 (en) Apparatus for signal input and method thereof
US10074188B2 (en) Method and apparatus for processing images for use with a three-dimensional hand model database
CN111460858A (en) Method and device for determining pointed point in image, storage medium and electronic equipment
CN103984499A (en) Action command control method and electronic equipment
Vančo et al. Gesture identification for system navigation in 3D scene
KR20160107587A (en) Apparatus and method for gesture recognition using stereo image
KR101386655B1 (en) 3d space touch system and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191205

Year of fee payment: 4