KR20170128668A - Apparatus and method for detecting hand gesutre - Google Patents
Apparatus and method for detecting hand gesutre Download PDFInfo
- Publication number
- KR20170128668A KR20170128668A KR1020160058206A KR20160058206A KR20170128668A KR 20170128668 A KR20170128668 A KR 20170128668A KR 1020160058206 A KR1020160058206 A KR 1020160058206A KR 20160058206 A KR20160058206 A KR 20160058206A KR 20170128668 A KR20170128668 A KR 20170128668A
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- hand gesture
- motion vector
- posture
- recognition apparatus
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G06K9/00355—
-
- G06K9/38—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 핸드 제스처 인식 기술에 관한 것으로, 보다 상세하게는 핸드 제스처를 등록하고 사용자의 핸드 제스처를 등록된 핸드 제스처 중 어느 하나로 인식하는 기술에 관한 것이다.The present invention relates to a hand gesture recognition technique, and more particularly, to a technique for registering a hand gesture and recognizing a hand gesture of the user as any one of registered hand gestures.
핸드 제스처 인식 기술은 카메라의 입력영상, 자이로 센서나 가속도 센서를 사용하여 공간상의 핸드 제스처를 인식하고, 인식된 핸드 제스처에 따라 정보 장치를 제어하는 방식이 일반적이다. A hand gesture recognition technique is a method of recognizing a hand gesture in space using a camera input image, a gyro sensor or an acceleration sensor, and controlling an information device according to a recognized hand gesture.
인식 가능한 핸드 제스처를 통해 다양한 서비스에 활용하기 위해서는 사용하고자 하는 핸드 제스처를 정확히 등록하는 것이 필요하다. 정확한 핸드 제스처의 등록을 위해서는 각 제스처를 나타내기 위한 정형화된 표현 방식이 필요하다.It is necessary to accurately register the hand gesture to be used for various services through a recognizable hand gesture. To register an accurate hand gesture, a formal expression is required to represent each gesture.
또한, 핸드 제스처와 일상생활의 손 움직임을 구분하기 쉽지 않아, 핸드 제스처에 대한 인식에 오류가 발생하거나 핸드 제스처를 인식하기 위한 부하가 높은 점이 있다.In addition, it is difficult to distinguish the hand gestures from the hand movements in everyday life, and there are high errors in recognition of the hand gestures or in recognition of the hand gestures.
본 발명의 해결하고자 하는 과제는 다양한 핸드 제스처를 등록하고, 등록된 핸드 제스처를 정확하게 인식하기 위한 핸드 제스처 인식 장치 및 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a hand gesture recognition apparatus and method for registering various hand gestures and accurately recognizing registered hand gestures.
본 발명의 일 측면에 따르면, 손의 움직임을 감지하는 제스처 인식 센서; 포스처를 인식하는 포스처 인식 센서; 명령어를 저장하는 메모리; 및 상기 명령어에 따라 상기 움직임에 상응하는 제스처를 인식하는 프로세서;를 포함하되, 상기 프로세서는 상기 포스처가 세그멘테이션 포스처인 경우, 상기 움직임에 상응하는 하나 이상의 모션 벡터를 생성하고, 상기 포스처가 종료 포스처인 경우, 상기 움직임을 상기 모션 벡터에 대응하는 제스처로 인식하는 것을 특징으로 하는 핸드 제스처 인식 장치가 제공된다.According to an aspect of the present invention, there is provided a gesture recognition sensor for sensing movement of a hand; Posture - aware sensors; A memory for storing instructions; And a processor for recognizing a gesture corresponding to the motion in accordance with the instruction, wherein the processor is configured to generate one or more motion vectors corresponding to the motion when the posture is a segmentation force, The hand gesture recognizing device recognizes the motion as a gesture corresponding to the motion vector.
상기 프로세서는 상기 포스처가 세그멘테이션 포스처이고 현재의 핸드 제스처 세그멘테이션에 대응하는 이전 시간 구간의 모션 벡터가 존재하는 경우, 이전 시간 구간과 현재 시간 구간의 모션 벡터 간 방향 차이인 궤적 경사각을 산출하고, 상기 궤적 경사각이 임계값을 초과하는 경우, 현재 시간 구간의 모션 벡터를 상기 핸드 제스처 세그멘테이션의 모션 벡터로 설정하고, 상기 포스처가 종료 포스처이고 상기 핸드 제스처 세그멘테이션의 모션 벡터가 미리 등록되어 있는 경우, 상기 움직임을 상기 핸드 제스처 세그멘테이션의 모션 벡터에 대응하는 제스처로 인식할 수 있다.Wherein the processor calculates a trajectory tilt angle that is a direction difference between a motion vector of a previous time segment and a current time segment when the posture is a segmentation position and a motion vector of a previous time segment corresponding to a current hand gesture segmentation exists, If the trajectory inclination angle exceeds a threshold value, sets the motion vector of the current time period to the motion vector of the hand gesture segmentation, and if the posture is the end point and the motion vector of the hand gesture segmentation is pre-registered, The motion can be recognized as a gesture corresponding to the motion vector of the hand gesture segmentation.
상기 세그멘테이션 포스처는 주먹을 쥐는 포스처이고, 상기 종료 포스처는 손을 펴는 포스처일 수 있다.The segmentation posture is a posture to hold a fist, and the end posture can be a posture to stretch a hand.
상기 모션 벡터는 손의 이동 방향 및 손목의 회전 방향 중 하나 이상을 나타낼 수 있다.The motion vector may indicate one or more of a moving direction of the hand and a rotating direction of the wrist.
상기 핸드 제스처 인식 장치는 네트워크 인터페이스; 및 사용자 인터페이스 입력부중 하나 이상을 더 포함하되, 상기 프로세서는 상기 네트워크 인터페이스 및 상기 사용자 인터페이스 입력부 중 하나 이상을 통해 등록할 모션 벡터인 등록 모션 벡터를 입력 받거나, 사용자로부터 그래프 기반의 입력을 통해 상기 등록 모션 벡터를 입력 받거나, 사용자의 손 움직임을 감지하여 상기 등록 모션 벡터 생성하고, 상기 등록 모션 벡터를 등록할 수 있다.The hand gesture recognition apparatus includes a network interface; And a user interface input unit, wherein the processor receives input of a registered motion vector, which is a motion vector to be registered through at least one of the network interface and the user interface input unit, A motion vector may be input, or a motion of a user may be sensed to generate the registered motion vector, and the registered motion vector may be registered.
본 발명의 다른 측면에 따르면, 핸드 제스처 인식 장치가 핸드 제스처를 인식하는 방법에 있어서, 포스처를 인식하는 단계; 상기 포스처가 세그멘테이션 포스처인 경우, 손의 움직임을 감지하고 상기 움직임에 상응하는 하나 이상의 모션 벡터를 생성하는 단계; 및 상기 포스처가 종료 포스처인 경우, 상기 움직임을 상기 모션 벡터에 대응하는 제스처로 인식하는 단계를 포함하는 핸드 제스처 인식 방법이 제공된다.According to another aspect of the present invention, there is provided a method of recognizing a hand gesture by a hand gesture recognition device, comprising: recognizing a focuser; Sensing motion of the hand and generating one or more motion vectors corresponding to the motion, when the posture is a segmentation force; And recognizing the motion as a gesture corresponding to the motion vector when the fostering is the end force.
상기 포스처가 세그멘테이션 포스처인 경우, 손의 움직임을 감지하고 상기 움직임에 상응하는 하나 이상의 모션 벡터를 생성하는 단계는, 상기 포스처가 세그멘테이션 포스처이고 현재의 핸드 제스처 세그멘테이션에 대응하는 이전 시간 구간의 모션 벡터가 존재하는 경우, 이전 시간 구간과 현재 시간 구간의 모션 벡터 간 방향 차이인 궤적 경사각을 산출하는 단계; 및 상기 궤적 경사각이 임계값을 초과하는 경우, 현재 시간 구간의 모션 벡터를 상기 핸드 제스처 세그멘테이션의 모션 벡터로 설정하는 단계를 포함하고, 상기 포스처가 종료 포스처인 경우, 상기 움직임을 상기 모션 벡터에 대응하는 제스처로 인식하는 단계는, 상기 포스처가 종료 포스처이고 상기 핸드 제스처 세그멘테이션의 모션 벡터가 미리 등록되어 있는 경우, 상기 움직임을 상기 핸드 제스처 세그멘테이션의 모션 벡터에 대응하는 제스처로 인식하는 단계일 수 있다.Wherein the step of detecting movement of the hand and generating at least one motion vector corresponding to the motion, when the posture is a segmentation force, comprises the step of determining whether the posture is a segmentation phase and a motion vector of a previous time segment corresponding to a current hand gesture segmentation Calculating a trajectory tilt angle, which is a direction difference between a motion vector of a previous time interval and a current time interval, if the motion vector exists; And setting the motion vector of the current time interval to the motion vector of the hand gesture segmentation when the trajectory inclination angle exceeds a threshold value, wherein when the posture is the end force, the motion corresponds to the motion vector Recognizing the motion as a gesture corresponding to the motion vector of the hand gesture segmentation when the posture is the end point and the motion vector of the hand gesture segmentation is pre-registered .
상기 세그멘테이션 포스처는 주먹을 쥐는 포스처이고, 상기 종료 포스처는 손을 펴는 포스처일 수 있다.The segmentation posture is a posture to hold a fist, and the end posture can be a posture to stretch a hand.
상기 모션 벡터는 손의 이동 방향 및 손목의 회전 방향 중 하나 이상을 나타낼 수 있다.The motion vector may indicate one or more of a moving direction of the hand and a rotating direction of the wrist.
상기 핸드 제스처 인식 방법은 등록할 모션 벡터인 등록 모션 벡터를 입력 받거나, 사용자로부터 그래프 기반의 입력을 통해 상기 등록 모션 벡터를 입력 받거나, 사용자의 손 움직임을 감지하여 상기 등록 모션 벡터 생성하고, 상기 등록 모션 벡터를 등록하는 단계를 더 포함할 수 있다.The hand gesture recognition method may include receiving a registered motion vector as a motion vector to be registered, inputting the registered motion vector through a graph-based input from a user, detecting the hand motion of the user, generating the registered motion vector, And registering the motion vector.
본 발명의 일 실시예에 따르면, 제스처를 일련의 모션 벡터로써 등록하고, 등록된 모션 벡터를 이용하여 사용자의 제스처를 인식함으로써 다양한 제스처가 등록 및 인식되도록 할 수 있다.According to an embodiment of the present invention, various gestures can be registered and recognized by registering a gesture as a series of motion vectors and recognizing the user's gesture using the registered motion vector.
또한, 본 발명의 일 실시예에 따르면, 사용자의 일상 생활에 따른 손의 움직임과 핸드 제스처를 포스처를 통해 구분하도록 하여 사용자의 움직임 중 제스처를 정확하게 인식할 수 있다.In addition, according to an embodiment of the present invention, a gesture during a movement of a user can be accurately recognized by dividing a hand movement and a hand gesture according to a user's daily life through a posture.
또한, 본 발명의 일 실시예에 따르면, 일상 생활에 따른 손의 움직임에 대해서는 제스처 분석을 수행하지 않도록 하여 하드웨어 상 발생하는 부하를 줄일 수 있다.In addition, according to the embodiment of the present invention, the gesture analysis is not performed on the movement of the hand according to daily life, thereby reducing the load on the hardware.
도 1은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치를 예시한 블록도.
도 2는 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 핸드 제스처를 등록 및 인식하는 과정을 예시한 순서도.
도 3은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 생성하는 모션 벡터를 개념적으로 예시한 도면.
도 4는 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치에 사용자가 입력하는 모션 벡터를 예시한 도면.
도 5는 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치에 모션 벡터를 입력하기 위한 그래프 입력을 예시한 도면.
도 6은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 사용자의 움직임을 통해 모션 벡터를 입력 받는 과정을 예시한 도면.
도 7은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 인식하는 핸드 제스처의 3가지를 예시한 도면.
도 8은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치를 예시한 도면.1 is a block diagram illustrating a hand gesture recognition apparatus according to an embodiment of the present invention;
2 is a flowchart illustrating a process of registering and recognizing a hand gesture by a hand gesture recognition apparatus according to an embodiment of the present invention.
3 is a conceptual illustration of a motion vector generated by a hand gesture recognition apparatus according to an embodiment of the present invention.
4 is a diagram illustrating a motion vector input by a user to a hand gesture recognition apparatus according to an embodiment of the present invention;
FIG. 5 illustrates a graph input for inputting a motion vector to a hand gesture recognition apparatus according to an embodiment of the present invention; FIG.
6 is a diagram illustrating a process in which a hand gesture recognition apparatus according to an embodiment of the present invention receives a motion vector through motion of a user.
FIG. 7 illustrates three kinds of hand gestures recognized by a hand gesture recognition apparatus according to an embodiment of the present invention; FIG.
FIG. 8 illustrates a hand gesture recognizing apparatus according to an embodiment of the present invention; FIG.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate a thorough understanding of the present invention, the same reference numerals are used for the same means regardless of the number of the drawings.
도 1은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치를 예시한 블록도이다. 이하 설명에서 제스처(gesture)는 사용자 손의 이동 패턴과 손목의 회전 패턴을 의미하고, 포스처(posture)는 사용자 손의 형태(주먹을 쥔 형태, 손을 편 형태)를 의미한다.1 is a block diagram illustrating a hand gesture recognition apparatus according to an embodiment of the present invention. In the following description, a gesture refers to a movement pattern of a user's hand and a rotation pattern of a wrist, and a posture refers to a shape of a user's hand (a shape with a fist or a shape with a hand).
도 1을 참조하면, 핸드 제스처 인식 장치(100)는 하나 이상의 프로세서(110), 메모리(120), 저장부(130), 사용자 인터페이스 입력부(140) 및 사용자 인터페이스 출력부(150) 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스(160)를 통해 서로 통신할 수 있다. 또한, 핸드 제스처 인식 장치(100)는 지정된 프로토콜의 네트워크나 케이블을 통해 외부 장치와 연결되어 데이터를 송수신하는 네트워크 인터페이스(170)를 또한 포함할 수 있다. 프로세서(110)는 메모리(120) 및/또는 저장소(130)에 저장된 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리(120) 및 저장부(130)는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(124) 및 RAM(125)를 포함할 수 있다. 또한, 핸드 제스처 인식 장치(100)는 가속도 센서, 자이로 센서 등의 사용자의 손의 움직임을 감지하는 제스처 인식 센서(116) 및 적외선 센서 또는 근전도 센서 등의 사용자의 주먹을 쥐고 펴는 핸드 포스처를 인식하는 포스처 인식 센서(118)를 포함한다.1, the hand
상술한 핸드 제스처 인식 장치(100)의 메모리(120) 및 저장소(130)는 핸드 제스처를 등록 및 인식하기 위한 명령어를 저장하고, 프로세서(110) 해당 명령어에 따라 핸드 제스처를 등록 및 인식하는 과정을 제어한다.The
이하, 핸드 제스처 인식 장치(100)가 메모리(120) 및 저장소(130)에 저장한 명령어에 따른 핸드 제스처 등록 및 인식 과정을 상세히 설명하도록 한다.Hereinafter, the hand gesture recognition and recognition process according to a command stored in the
도 2는 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 핸드 제스처를 등록 및 인식하는 과정을 예시한 순서도이고, 도 3은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 생성하는 모션 벡터를 개념적으로 예시한 도면이다.FIG. 2 is a flowchart illustrating a process of registering and recognizing a hand gesture by a hand gesture recognizing apparatus according to an embodiment of the present invention. FIG. 3 is a flowchart illustrating a process of recognizing a hand gesture recognizing apparatus according to an embodiment of the present invention, FIG.
도 2를 참조하면, 단계 210에서 핸드 제스처 인식 장치(100)는 등록할 핸드 제스처를 나타내는 모션 벡터를 생성 및 저장한다. 모션 벡터는 사용자 손의 이동 방향과 손목의 회전정보 중 하나 이상을 나타내는 모션벡터로써 표현될 수 있다. 또한, 모션 벡터는 속력 등의 제스처 인식 센서(116)를 통해 감지할 수 있는 부가적인 데이터를 포함할 수 있다. 예를 들어, 핸드 제스처 인식 장치(100)는 하기의 수학식 1과 같은 형태인 모션 벡터를 생성할 수 있다.Referring to FIG. 2, in
[수학식 1] [Equation 1]
DMV j = {dir x , dir y , dir z , dir rotation of wrist , ...}DMV j = {dir x , dir y , dir z , dir rotation of wrist , ...}
이 때, DMV j 는 모션 벡터를 의미하고, dir x 는 손의 좌/우 이동방향을 X축과 일치 하다고 가정할 경우, 오른쪽(Right; R), 왼쪽(Left; L), 움직인 없음(None; N) 및 특정 방향을 지정하지 않는 경우 (Any; A) 중 하나의 값을 가질 수 있다. dir y 는 Y축 방향을 사용자의 상/하 방향으로 가정할 경우, 위(Up; U), 아래(Down; D), 움직임 없음(None; N), 특정 방향을 지정하지 않는 경우(Any; A) 중 하나의 값을 가질 수 있다. dir z 는 Z축 방향이 사용자의 앞/뒤 방향과 일치할 경우, 앞(Forward; F), 뒤(Backward; B), 움직임 없음(None; N), 특정 방향을 지정하지 않는 경우(Any; A) 중 하나의 값을 가질 수 있다. dirrotation of wrist는 손목의 회전 방향을 나타내는 값으로, 오른쪽(Right; R), 왼쪽(Left; L), 움직임이 없음(None; N), 특정 방향을 지정하지 않는 경우(Any; A) 중 하나의 값을 가질 수 있다. In this case, DMV j means motion vector, dir x means right (R), left (L), and moving (left) directions when assuming that the left / None; N) and does not specify a specific direction (Any; A). dir y is the up (U), down (D), no motion (N), and no specific direction (Any; A). ≪ / RTI > dir z is the forward direction (F), backward (B), no motion (N), if no direction is specified (Any; A). ≪ / RTI > dir rotation of wrist is a value indicating the direction of rotation of the wrist. It is the right (R), left (L), no motion (N; N) It can have one value.
도 3과 같이 핸드 제스처 인식 장치(100)는 X축, Y축의 2차원 진행 방향만을 고려하고 Z축 진행 방향 정보 및 손목의 회전 여부를 관여하지 않는 경우(Any; A)로 설정하여 모션 벡터를 생성할 수 있다. 또한, 핸드 제스처 인식 장치(100)는 설정 방식에 따라 X축, Y축, Z축의 3차원 진행 방향만을 고려한 모션 벡터를 생성하거나, X축, Y축, Z축의 3차원 진행 방향 및 손목의 회전 방향까지 고려한 모션 벡터를 생성할 수 있다.As shown in FIG. 3, the hand
핸드 제스처 인식 장치(100)는 사용자 인터페이스 입력부(140)를 통해 모션 벡터를 사용자로부터 직접 입력 받거나, 사용자로부터 그래프 기반의 입력을 받거나, 사용자의 손 움직임을 감지하여 모션 벡터를 생성할 수 있다. 추후, 도 5 내지 도 7을 참조하여 핸드 제스처 인식 장치(100)가 모션 벡터를 생성하는 과정을 상세하게 설명하도록 한다.The hand
단계 220에서 핸드 제스처 인식 장치(100)는 사용자의 포스처를 감지한다. In
단계 230에서 핸드 제스처 인식 장치(100)는 포스처가 세그멘테이션 포스처 또는 종료 포스처인지 판단한다. 이 때, 세그멘테이션 포스처는 현재의 핸드 제스처 세그먼트가 진행 중임을 나타내는 지정된 포스처를 의미한다. 예를 들어, 세그멘테이션 포스처는 주먹을 쥔 상태의 포스처를 의미할 수 있다. 이 때, 핸드 제스처 세그먼트는 하나의 의미를 가지는 일련의 손 움직임을 의미한다. 또한, 종료 포스처는 제스처 세그먼트가 종료됨을 나타내는 지정된 포스처를 의미한다. 예를 들어, 종료 포스처는 손을 편 상태의 포스처를 의미할 수 있다.In
단계 230에서 포스처가 세그멘테이션 포스처인 경우, 단계 240에서 핸드 제스처 인식 장치(100)는 현재가 핸드 제스처 세그먼트의 시작 시간 구간에 해당하는지 판단한다. 이 때, 시작 시간 구간은 각 핸드 제스처 세그먼트의 첫 시간 구간을 의미한다. 예를 들어, 핸드 제스처 인식 장치(100)는 현재의 핸드 제스처 세그먼트 중 이전에 생성된 모션 벡터가 존재하지 않는 경우, 현재 시간 구간이 시작 시간 구간인 것으로 판단할 수 있다. 또는 핸드 제스처 인식 장치(100)는 현재의 핸드 제스처 세그먼트 중 이전에 생성된 모션 벡터가 존재하는 경우, 현재의 시간 구간이 시작 시간 구간이 아닌 것으로 판단할 수 있다.If the poser is a segmentation force in
단계 240에서 현재가 핸드 제스처 세그먼트의 시작 시간 구간에 해당하는 경우(현재의 핸드 제스처 세그먼트에 해당하는 모션 벡터가 존재하지 않는 경우), 단계 250에서 핸드 제스처 인식 장치(100)는 현재 시점의 핸드 제스처 세그먼트의 첫 모션 벡터를 생성한다. 이후, 핸드 제스처 인식 장치는 단계 220부터의 과정을 반복 수행한다.If the current time corresponds to the start time interval of the hand gesture segment (if there is no motion vector corresponding to the current hand gesture segment) in
단계 240에서 현재가 핸드 제스처 세그먼트의 시작 구간에 해당하지 않는 경우(현재의 핸드 제스처 세그먼트에 해당하는 모션 벡터가 이미 존재하는 경우), 단계 260에서 핸드 제스처 인식 장치(100)는 궤적 경사각을 산출한다. 궤적 경사각은 현재에 해당하는 시간 구간의 모션 벡터와 바로 이전 시간 구간의 모션 벡터 간의 차의 절대값을 의미한다. If the current time does not correspond to the start period of the hand gesture segment (if the motion vector corresponding to the current hand gesture segment already exists), the hand
단계 270에서 핸드 제스처 인식 장치(100)는 궤적 경사각이 미리 지정된 임계값을 초과하는지 판단한다. 즉, 핸드 제스처 인식 장치(100)는 현재에 사용자의 손 움직임 방향이 이전 시간 구간의 손 움직임 방향과의 차이가 지정된 수치 이상인지 판단한다.In
단계 270에서 궤적 경사각이 미리 지정된 임계값을 초과하는 경우, 단계 280에서 핸드 제스처 인식 장치(100)는 현재의 시간 구간에 해당하는 모션 벡터를 현재의 핸드 제스처 세그멘테이션의 모션 벡터로써 저장한다. 즉, 핸드 제스처 인식 장치(100)는 이전 시간 구간에 비해 방향이 일정 이상 차이가 나는 모션 벡터를 이전 시간 구간과는 다른 방향으로 손을 이동 또는 회전시킨 것으로 인식한다.If the trajectory inclination angle exceeds the predetermined threshold in
단계 270에서 궤적 경사각이 미리 지정된 임계값 이하인 경우, 핸드 제스처 인식 장치(100)는 단계 220부터의 과정을 반복 수행한다. 즉, 핸드 제스처 인식 장치(100)는 궤적 경사각이 미리 지정된 임계값 이하인 경우, 현재 시간 구간이 이전 시간 구간과 동일한 방향으로 이동 또는 회전한 것으로 간주한다.If the trajectory inclination angle is equal to or less than the predetermined threshold value in
단계 230에서 포스처가 종료 포스처인 경우, 단계 285에서 핸드 제스처 인식 장치(100)는 하나 이상의 모션 백터를 포함하는 현재의 핸드 제스처 세그먼트가 등록되어 있는지 판단한다. If the poser is the end force at
단계 285에서 현재의 핸드 제스처 세그먼트가 등록되어 있는 경우, 단계 290에서 핸드 제스처 인식 장치(100)는 현재 사용자의 제스처를 현재의 핸드 제스처 세그먼트로써 인식한다. If the current hand gesture segment is registered in
단계 285에서 현재의 핸드 제스처 세그먼트가 등록되어 있지 않은 경우, 핸드 제스처 인식 장치(100)는 단계 220부터의 과정을 반복 수행한다. 즉, 현재의 핸드 제스처 세그먼트가 등록되어 있지 않은 경우, 핸드 제스처 인식 장치(100)는 사용자의 세그멘테이션 포스처를 행한 이후부터 종료 포스처를 행한 시점까지의 제스처가 의미 없는 제스처임으로 판단할 수 있다.If the current hand gesture segment is not registered in
따라서, 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치는 포스처를 기준으로 사용자가 제스처를 행하는 여부를 파악하고 제스처를 인식하기 때문에 연속된 사용자의 움직임 중 제스처를 정확하게 인식할 수 있다. 즉, 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치는 일상 생활 상의 움직임을 제스처로 오인할 가능성이 적으며, 세그멘테이션 포스처가 발생하기 전에는 제스처 인식을 위한 움직임 분석 과정을 수행하지 않기 때문에 하드웨어 상 발생하는 부하를 줄일 수 있다.Therefore, the hand gesture recognition apparatus according to an embodiment of the present invention recognizes whether or not a user performs a gesture on the basis of the poser and recognizes the gesture, so that the gesture can be accurately recognized during a continuous movement of the user. That is, since the hand gesture recognition apparatus according to an embodiment of the present invention is less likely to misinterpret movement in daily life as a gesture and does not perform a motion analysis process for gesture recognition before a segmentation phase occurs, Can be reduced.
도 4는 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치에 사용자가 입력하는 모션 벡터를 예시한 도면이고, 도 5는 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치에 모션 벡터를 입력하기 위한 그래프 입력을 예시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 사용자의 움직임을 통해 모션 벡터를 입력 받는 과정을 예시한 도면이다. FIG. 4 is a diagram illustrating a motion vector input by a user to a hand gesture recognition apparatus according to an embodiment of the present invention. FIG. 5 is a flowchart illustrating a method of inputting a motion vector to a hand gesture recognition apparatus according to an exemplary embodiment of the present invention. FIG. 6 is a diagram illustrating a process in which a hand gesture recognizing apparatus according to an exemplary embodiment of the present invention receives a motion vector through a motion of a user.
핸드 제스처 인식 장치(100)는 도 4와 같이 단말 등의 외부 기기나 사용자 인터페이스 입력부(140)를 통해 특정 핸드 제스처를 나타내는 일련의 모션 벡터를 입력 받을 수 있다. 예를 들어, 핸드 제스처 인식 장치(100)는 3개의 모션벡터(421, 422, 423)를 통하여 자신이 관심을 두는 X, Y축에 대한 이동 방향 속성만을 정의하여 등록 할 수 있고, 사용자가 등록된 제스처를 수행할 때 앞/뒤의 Z축 방향이나 손목의 회전 정보를 무시 할 수 있도록 지정(A: Any) 할 있다. 만약 사용자가 엄격하게 Z축 방향의 움직임을 제한하고 싶을 경우, 사용자는 이를 움직임이 없는 N(None)으로 입력함으로써 자신이 원하는 다양한 공간 제스처 정확히 기술 할 수 있게 된다.The hand
또한, 핸드 제스처 인식 장치(100)는 도 5와 같이 그래프를 그릴 수 있는 인터페이스를 통해 제스처를 구성하는 각 모션 벡터(421, 422, 423)을 입력할 수 있다. 해당 인터페이스는 사용자 인터페이스 출력부(150)를 통해 사용자에게 제공되거나, 단말 등의 외부 기기를 통해 사용자에게 제공될 수 있다. 이 때, 핸드 제스처 인식 장치(100)는 손의 이동 방향을 그래프를 통해 입력 받고, 손목의 회전 방향을 별도로 입력 받을 수 있다.In addition, the hand
또한, 핸드 제스처 인식 장치(100)는 사용자의 특정 포스처가 행하는 경우, 사용자의 손 움직임을 감지하고, 해당 움직임에 따른 모션 벡터를 생성하여 제스처로 등록할 수 있다. 즉, 도 6과 같이 주먹을 쥐는 포스처(430)를 시작 시점으로 하여 사용자의 손 움직임을 감지하고, 해당 움직임에 따른 일련의 모션 벡터(421, 422, 423)를 손을 펴는 포스처(434)가 행해 질 때까지 생성하여 제스처로 등록할 수 있다. 이 때, 핸드 제스처 인식 장치(100)는 제스처 등록의 시작과 종료를 사용자로부터 명령 받기 위한 버튼, 터치스크린 상의 그래픽 사용자 인터페이스 등의 인터페이스를 구비하거나, 포스처(430, 434)를 핸드 제스처 세그멘테이션의 시작과 종료를 알리는 포스처와 상이하도록 설정할 수 있다.In addition, the hand
도 7은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치가 인식하는 핸드 제스처의 3가지를 예시한 도면이다.7 is a diagram illustrating three kinds of hand gestures recognized by the hand gesture recognition apparatus according to an embodiment of the present invention.
도 7을 참조하면, 핸드 제스처 인식 장치(100)는 710 내지 730과 같이 3차원에서의 손의 이동방향 정보와 손목의 회전정보를 통하여 이차원에서 특정 손의 움직임(510), 공을 잡고 던지는 것과 같은 손동작(520), 손목의 회전을 포함하는 공간상의 핸드 제스처(530) 등의 다양한 핸드 제스처를 등록하고, 등록된 핸드 제스처을 인식할 수 있다.Referring to FIG. 7, the hand
도 8은 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치를 예시한 도면이다.8 is a diagram illustrating a hand gesture recognizing apparatus according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치(100)는 가속도 센서, 자이로 센서 등의 사용자의 손의 움직임을 감지하는 제스처 인식 센서(116) 및 적외선 센서 또는 근전도 센서 등의 사용자의 주먹을 쥐고 펴는 핸드 포스처를 인식하는 포스처 인식 센서(118)를 포함하는 손목에 장착가능한 형태의 디바이스로 구현될 수 있다. 또한, 핸드 제스처 인식 장치(100)는 특정 제스처에 따른 소리, 디스플레이, 진동을 제공하는 사용자 인터페이스 출력부(150)를 포함할 수 있다. 예를 들어, 핸드 제스처 인식 장치(100)가 야구선수의 훈련 코치 서비스를 수행하는 경우, 핸드 제스처 인식 장치(100)는 선수가 공을 잡고 던질 때까지의 손 움직임을 감지하여 모션 벡터를 생성할 수 있다. 핸드 제스처 인식 장치(100)는 선수의 투구 동작을 제스처로 인식하고, 해당 제스처가 발생하는 경우, 사용자 인터페이스 출력부(150)를 통해 특정 출력을 행할 수 있다.Referring to FIG. 8, the hand
이외에 본 발명의 일 실시예에 따른 핸드 제스처 인식 장치는 핸드 제스처에 따른 특정 입력 신호를 단말 등의 외부기기로 전송하여, 제스처를 통한 입력 기기로써 활용될 수 있다.In addition, the hand gesture recognition apparatus according to an embodiment of the present invention can be used as an input device through a gesture by transmitting a specific input signal according to a hand gesture to an external device such as a terminal.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.
Claims (1)
포스처를 인식하는 포스처 인식 센서;
명령어를 저장하는 메모리; 및
상기 명령어에 따라 상기 움직임에 상응하는 제스처를 인식하는 프로세서;
를 포함하되,
상기 프로세서는
상기 포스처가 세그멘테이션 포스처인 경우, 상기 움직임에 상응하는 하나 이상의 모션 벡터를 생성하고,
상기 포스처가 종료 포스처인 경우, 상기 움직임을 상기 모션 벡터에 대응하는 제스처로 인식하는 것을 특징으로 하는 핸드 제스처 인식 장치.A gesture recognition sensor for sensing the movement of the hand;
Posture - aware sensors;
A memory for storing instructions; And
A processor for recognizing a gesture corresponding to the motion according to the instruction;
, ≪ / RTI &
The processor
Generating at least one motion vector corresponding to the motion, if the posture is a segmentation force,
And recognizes the motion as a gesture corresponding to the motion vector when the posture is the end force.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160058206A KR20170128668A (en) | 2016-05-12 | 2016-05-12 | Apparatus and method for detecting hand gesutre |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160058206A KR20170128668A (en) | 2016-05-12 | 2016-05-12 | Apparatus and method for detecting hand gesutre |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170128668A true KR20170128668A (en) | 2017-11-23 |
Family
ID=60809528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160058206A KR20170128668A (en) | 2016-05-12 | 2016-05-12 | Apparatus and method for detecting hand gesutre |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20170128668A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108108709A (en) * | 2017-12-29 | 2018-06-01 | 纳恩博(北京)科技有限公司 | A kind of recognition methods and device, computer storage media |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130105324A (en) * | 2012-03-15 | 2013-09-25 | 오므론 가부시키가이샤 | Gesture input apparatus, computer-readable recording medium, electronic device, gesture input system, and control method of gesture input apparatus |
JP2015088161A (en) * | 2013-09-26 | 2015-05-07 | 富士通株式会社 | Gesture input device, gesture input method, and gesture input program |
KR20150130808A (en) * | 2014-05-14 | 2015-11-24 | 삼성전자주식회사 | Method and apparatus of identifying spatial gesture of user |
KR20160006751A (en) * | 2014-01-07 | 2016-01-19 | 소프트키네틱 소프트웨어 | Human-to-computer natural three-dimensional hand gesture based navigation method |
KR20160050419A (en) * | 2014-10-29 | 2016-05-11 | 엘지전자 주식회사 | Watch type control device |
-
2016
- 2016-05-12 KR KR1020160058206A patent/KR20170128668A/en not_active Application Discontinuation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130105324A (en) * | 2012-03-15 | 2013-09-25 | 오므론 가부시키가이샤 | Gesture input apparatus, computer-readable recording medium, electronic device, gesture input system, and control method of gesture input apparatus |
JP2015088161A (en) * | 2013-09-26 | 2015-05-07 | 富士通株式会社 | Gesture input device, gesture input method, and gesture input program |
KR20160006751A (en) * | 2014-01-07 | 2016-01-19 | 소프트키네틱 소프트웨어 | Human-to-computer natural three-dimensional hand gesture based navigation method |
KR20150130808A (en) * | 2014-05-14 | 2015-11-24 | 삼성전자주식회사 | Method and apparatus of identifying spatial gesture of user |
KR20160050419A (en) * | 2014-10-29 | 2016-05-11 | 엘지전자 주식회사 | Watch type control device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108108709A (en) * | 2017-12-29 | 2018-06-01 | 纳恩博(北京)科技有限公司 | A kind of recognition methods and device, computer storage media |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8933882B2 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
CN106527709B (en) | Virtual scene adjusting method and head-mounted intelligent device | |
US10509464B2 (en) | Tracking torso leaning to generate inputs for computer systems | |
JP6533590B2 (en) | Wearable device, posture measurement method and program thereof | |
JP2009011362A (en) | Information processing system, robot apparatus, and its control method | |
US11009964B2 (en) | Length calibration for computer models of users to generate inputs for computer systems | |
JP2008538327A (en) | Robot command determination method and robot command determination system | |
JP6141108B2 (en) | Information processing apparatus and method | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
US20170091542A1 (en) | System and method for computer vision based tracking of an object | |
JP2017084335A (en) | System and method for real-time interactive operation of user interface | |
CN112927259A (en) | Multi-camera-based bare hand tracking display method, device and system | |
JP2013202066A (en) | Motion analysis device | |
JP6197702B2 (en) | Input method, program, and input device | |
JP2023537755A (en) | An electronic device for controlling a host device using motion and mouse signals | |
JP2014021838A (en) | Information processing program, information processing device, information processing system, and attitude calculation method | |
JP2017191426A (en) | Input device, input control method, computer program, and storage medium | |
JP6074897B2 (en) | Motion analysis apparatus and motion analysis method | |
KR20170128668A (en) | Apparatus and method for detecting hand gesutre | |
KR101870542B1 (en) | Method and apparatus of recognizing a motion | |
JP2013178645A (en) | Input device of electronic apparatus | |
CN115293299B (en) | Human body posture characteristic real-time detection method, device, equipment and medium | |
TWI748299B (en) | Motion sensing data generating method and motion sensing data generating system | |
JP7014162B2 (en) | Information processing equipment, information processing methods, and programs | |
JP7483414B2 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E601 | Decision to refuse application |