KR101234095B1 - Gesture cognitive device and method for recognizing gesture thereof - Google Patents
Gesture cognitive device and method for recognizing gesture thereof Download PDFInfo
- Publication number
- KR101234095B1 KR101234095B1 KR1020090094577A KR20090094577A KR101234095B1 KR 101234095 B1 KR101234095 B1 KR 101234095B1 KR 1020090094577 A KR1020090094577 A KR 1020090094577A KR 20090094577 A KR20090094577 A KR 20090094577A KR 101234095 B1 KR101234095 B1 KR 101234095B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- reference level
- operation state
- light source
- determining
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
동작 인식 장치가 제공된다. 동작 인식 장치는, 광원과 관성 센서를 포함하는 입력 장치 및 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부를 포함한다.A gesture recognition apparatus is provided. The motion recognition apparatus includes an input device including a light source and an inertial sensor, and a motion recognition unit that detects a change in the position of the light source during the user's motion section determined from the sensing signal of the inertial sensor and extracts a motion trajectory of the user.
관성 센서, 광원, 동작 인식 Inertial sensor, light source, motion recognition
Description
본 실시예는 사용자의 동작을 인식하는 기술에 관한 것으로서, 보다 상세하게는 광원과 관성 센서가 결합된 동작 인식 장치 및 이를 이용한 동작 인식 방법에 관한 것이다.The present embodiment relates to a technology for recognizing a user's motion, and more particularly, to a motion recognition device in which a light source and an inertial sensor are combined, and a motion recognition method using the same.
본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-039-01, 과제명: 인간-로봇 상호작용 매개 기술 개발].The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task Management Number: 2008-F-039-01, Task name: Development of human-robot interaction mediated technology].
카메라 기반의 동작 입력 방법은 사용자의 동작 영상을 연속 화상(Continuous Images)으로 촬영하여 화상 내 대상물을 인식하고 연속된 화상 내에서 대상물의 움직임을 포착함으로써 동작을 인지하는 방법이다. 이 방법은 영상 인식 기술의 한계로 동작의 자유도, 인식률 측면에서 명확한 한계를 보인다. 특히 조명 상태와 배경의 복잡도에 따른 인식률 저하로 인해 실용화하기가 어렵다. The camera-based motion input method is a method of recognizing motion by capturing motion images of a user as continuous images to recognize an object in the image and capturing the motion of the object in the continuous image. This method is a limitation of image recognition technology and shows a clear limit in terms of freedom of movement and recognition rate. In particular, it is difficult to apply due to the reduction in recognition rate due to lighting conditions and background complexity.
근래 들어, 적외선 카메라를 이용하여 적외선 광원 추적 방법을 통해 동작의 궤적을 감지하고 이를 기반으로 동작을 인식하는 기술이 소개되었다. 이 방법은 간 단한 저비용 장치 구성으로 비교적 정확하게 동작의 궤적을 측정할 수 있어 동작 입력에 유리하다. 특히, 동작이 그려내는 움직임을 궤적으로 직접 추적하므로 관성 데이터와 달리 사용자 간 편차가 크지 않다는 점은 큰 이점이다. Recently, a technique for detecting a motion trajectory and recognizing motion based on an infrared light source tracking method using an infrared camera has been introduced. This method has a simple low cost device configuration and can measure motion trajectories relatively accurately, which is advantageous for motion input. In particular, unlike the inertial data, the difference between users is not great because it directly tracks the motion drawn by the motion.
종래 기술에 따른 광원 추적 방법은 사용자가 광원을 몸에 부착하거나 손에 쥐고 광원을 움직이고, 카메라는 광원의 움직임을 추적하여 궤적을 측정하고, 임의의 데이터 처리 시스템이 궤적에 나타난 이동 패턴을 인식함으로써 사용자의 동작을 인식한다. In the conventional light source tracking method, a user attaches or grabs a light source to a body and moves the light source, the camera tracks the movement of the light source to measure the trajectory, and any data processing system recognizes the movement pattern shown in the trajectory. Recognize the user's actions.
그러나, 종래의 광원 추적 방법은 사용자의 동작과 동작 간의 구분이 어렵다. 예컨대, 광원이 지속적으로 빛을 내는 경우에 사용자의 궤적은 끊김이 없는 연속선으로 측정되므로 궤적의 어느 지점에서 동작이 마무리되는지 자동으로 찾아내기 어렵기 때문이다. However, the conventional light source tracking method is difficult to distinguish between the user's operation and the operation. For example, when the light source continuously emits light, the user's trajectory is measured as a continuous line without interruption, so it is difficult to automatically find at which point of the trajectory the operation is finished.
종래 기술에서는 상술한 문제를 해결하기 위하여 인위적으로 궤적을 끊기게 만들어 사용자의 동작을 구분하기 위하여 버튼 등 단락 수단을 이용하여 광원이 동작 중에만 빛이 나도록 제어한다. 그러나, 이러한 방법은 사용자의 동작을 구분할 수 있게는 하지만, 사용자로 하여금 동작에만 집중하지 못하게 하므로 동작 입력의 편의성을 해친다. 특히, 동작 입력이 빈번한 상황 하에서는 편의성을 해치는 정도가 더 커져서 동작 입력의 정확성도 저하될 수 있다.In the prior art, in order to solve the above problem, the trajectory is artificially broken so that the user can control the light source only during operation by using a short circuit means such as a button to distinguish the user's operation. However, this method can distinguish the user's motions, but it does not allow the user to concentrate on only the motions, thereby impairing the convenience of motion input. In particular, under a situation in which the operation input is frequent, the degree of convenience is increased, and thus the accuracy of the operation input may be lowered.
본 발명이 해결하고자 하는 과제는, 사용자 동작 인식의 정확도를 높일 수 있는 동작 인식 장치를 제공하고자 하는데 있다. An object of the present invention is to provide a gesture recognition apparatus that can increase the accuracy of user gesture recognition.
본 발명이 해결하고자 하는 다른 과제는, 동작 인식 장치를 이용한 사용자 동작 인식 방법을 제공하고자 하는데 있다.Another object of the present invention is to provide a user gesture recognition method using a gesture recognition apparatus.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 동작 인식 장치는, 광원과 관성 센서를 포함하는 입력 장치 및 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부를 포함한다.According to an aspect of the present invention, there is provided a gesture recognition apparatus including a light source and an inertial sensor, which detects a change in the position of a light source during a user operation period determined from a sensing signal of an input device and an inertial sensor. It includes a motion recognition unit for extracting the motion trajectory of the.
상기 다른 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 동작 인식 방법은, 관성 센서로부터 출력된 센싱 신호로부터 사용자 동작 구간을 판단하는 단계 및 사용자 동작 구간의 판단 결과에 따라 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for recognizing a motion, which includes determining a user's operation section from a sensing signal output from an inertial sensor and changing a position of a light source according to a determination result of the user's operation section. Detecting and extracting a motion trajectory of the user.
본 발명에 따른 동작 인식 장치 및 이를 이용한 동작 인식 방법은, 사용자가 착용하거나 소지하는 입력장치에 광원과 센서를 포함시켜 구성하고, 센서의 센싱 신호에 따라 광원 또는 광원의 위치 변화에 따라 사용자 동작 궤적을 출력하는 동작 인식부의 동작을 자동으로 제어함으로써, 사용자 동작 궤적을 쉽게 분리시킬 수 있으며, 이에 따라 사용자 동작 인식의 부정확성을 개선할 수 있는 효과가 있다. The motion recognition apparatus and the motion recognition method using the same according to the present invention are configured to include a light source and a sensor in an input device worn or possessed by a user, and the user motion trajectory according to a change in the position of the light source or the light source according to the sensing signal of the sensor. By automatically controlling the operation of the motion recognition unit for outputting the user, the user motion trajectory can be easily separated, thereby improving the inaccuracy of the user motion recognition.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시 예에 의하여 달성되 는 목적을 충분히 이해하기 위해서는 본 발명의 실시 예를 예시하는 첨부도면 및 첨부도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the embodiments of the present invention, reference should be made to the accompanying drawings, which illustrate embodiments of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 본 발명의 일 실시예에 따른 동작 인식 장치의 개략적인 블록도이고, 도 2는 도 1에 도시된 센서의 센싱 결과에 따른 신호 파형 및 이에 따른 사용자 동작 판단에 대한 도면이다.FIG. 1 is a schematic block diagram of an apparatus for recognizing a motion according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a signal waveform and a user motion determination according to a sensing result of the sensor shown in FIG. 1.
도 1을 참조하면, 본 실시예에 따른 동작 인식 장치(100)는 입력 장치(110) 및 동작 인식부(120)를 포함할 수 있다.Referring to FIG. 1, the
입력 장치(110)는 시각적 신호, 예컨대 빛(LS)을 발생시키는 광원(111)과 사용자의 움직임을 센싱하는 센서(113)를 포함하며, 사용자에게 착용되거나 또는 소지될 수 있다. The
센서(113)는 사용자의 움직임에 따른 관성력 변화를 센싱하여 센싱 신호(SS)를 출력할 수 있는 관성 센서(Inertial Sensor)일 수 있으며, 예컨대 가속도 센서, 각속도 센서, 경사 센서, 중력 센서, 지자기 센서 또는 자이로 센서 등일 수 있다.The
동작 인식부(120)는 동작 판단부(121), 광원 추적부(123) 및 궤적 처리부(125)를 포함할 수 있다. The
동작 판단부(121)는 입력 장치(110)의 센서(113)로부터 출력되는 센싱 신호(SS)에 기초하여 사용자의 동작 상태를 판단할 수 있으며, 이에 따른 사용자 동 작 구간을 판단할 수 있다. The
동작 판단부(121)는 판단 결과에 따라 광원(111), 광원 추적부(123) 및 궤적 처리부(125) 중에서 적어도 하나의 동작을 제어할 수 있는 제어 신호를 출력할 수 있다. 제어 신호는 인에이블/디스에이블 신호(ES/DS)일 수 있다.The
실시예에 따라 동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따른 인에이블/디스에이블 신호(ES/DS)를 광원(111)으로 출력하고, 광원(111)은 인에이블/디스에이블 신호(ES/DS)에 응답하여 턴-온되거나 또는 턴-오프될 수 있다.According to an embodiment, the
다른 실시예에 따라 동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따른 인에이블/디스에이블 신호(ES/DS)를 광원 추적부(123)로 출력하고, 광원 추적부(123)는 인에이블/디스에이블 신호(ES/DS)에 응답하여 동작되거나 동작하지 않을 수 있다. 광원 추적부(123)는 동작 판단부(121)의 인에이블 신호(ES)에 응답하여 광원(111)의 위치를 추적하여 검출할 수 있다.According to another exemplary embodiment, the
또 다른 실시예에 따라 동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따른 인에이블/디스에이블 신호(ES/DS)를 궤적 처리부(125)로 출력하고, 궤적 처리부(125)는 인에이블/디스에이블 신호(ES/DS)에 응답하여 동작되거나 동작하지 않을 수 있다. 궤적 처리부(125)는 동작 판단부(121)의 인에이블 신호(ES)에 응답하여 광원 추적부(123)로부터 출력된 광원 위치 신호(PS)로부터 사용자의 동작 궤적(TS)을 추출하여 출력할 수 있다. 동작 인식 장치(100)는 궤적 처리부(125)로부터 출력된 동작 궤적(TS)에 기초하여 사용자의 동작을 인식할 수 있다.According to another exemplary embodiment, the operation determiner 121 outputs the enable / disable signal ES / DS to the
본 실시예에서는 동작 판단부(121)가 동작 인식부(120)에 포함되어 구성된 예가 도시되어 있으나, 본 발명은 이에 제한되지는 않는다. 예컨대, 동작 인식 장치(100)의 다양한 실시예들에 따라 동작 판단부(121)는 입력 장치(110)에 포함되거나 또는 독립적으로 구성될 수도 있다. 동작 판단부(121)가 입력 장치(110)에 포함되는 경우에는 동작 판단부(121)의 판단 결과에 따라 광원(111)의 턴-온 또는 턴-오프가 제어되는 것이 바람직할 수 있다.In the present exemplary embodiment, an example in which the
도 1 및 도 2를 참조하면, 동작 판단부(121)는 입력 장치(110)로부터 출력된 센싱 신호(SS)를 분석하고, 분석 결과에 따라 사용자의 동작 상태 및 이에 따른 사용자의 동작 구간을 판단할 수 있다.1 and 2, the operation determiner 121 analyzes the sensing signal SS output from the
실시예에 따라 센싱 신호(SS)는 사용자의 동작에 따라 변화하는 가속도 신호일 수 있으며, 따라서 입력 장치(110)의 센서(113)는 3축 가속도 센서일 수 있다. 3축 가속도 센서는 사용자의 동작에 따라 x, y, z 축으로 변화하는 가속도 신호를 센싱하여 센싱 신호(SS)를 출력할 수 있다.According to an exemplary embodiment, the sensing signal SS may be an acceleration signal that changes according to a user's motion, and thus the
동작 판단부(121)는 시간축(T)의 시간 t0-t5 동안 센서(113)로부터 센싱 신호(SS)를 제공받을 수 있다.The operation determiner 121 may receive the sensing signal SS from the
동작 판단부(121)는 센싱 신호(SS)를 에너지 변화량(EV)으로 변환할 수 있다. 예컨대, 동작 판단부(121)는 다수의 시간 구간들(L0 내지 L4) 각각의 센싱 신호(SS)의 표준 편차를 계산하여 센싱 신호(SS)의 동작 에너지 값을 산출하고, 산출된 각각의 동작 에너지 값의 표준 편차를 계산함으로써 다수의 구간들(L0 내지 L4) 각각의 센싱 신호(SS)에 대한 에너지 변화량(EV)을 산출할 수 있다.The operation determiner 121 may convert the sensing signal SS into an energy change amount EV. For example, the operation determiner 121 calculates a standard deviation of the sensing signal SS of each of the plurality of time intervals L0 to L4 to calculate an operating energy value of the sensing signal SS, and calculates each calculated operation. By calculating the standard deviation of the energy values, the energy change amount EV for the sensing signal SS of each of the plurality of sections L0 to L4 may be calculated.
산출된 에너지 변화량(EV)은 다수의 기준 레벨들(REF1, REF2) 각각과 비교될 수 있으며, 비교 결과에 따라 사용자의 동작 상태 및 이에 따른 사용자의 동작 구간을 판단할 수 있다.The calculated energy change amount EV may be compared with each of the plurality of reference levels REF1 and REF2, and the operation state of the user and the user's operation section may be determined according to the comparison result.
예컨대, 시간축(T)의 시간 t0-t1 및 시간 t4-t5에서와 같이, 산출된 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 작으면, 동작 판단부(121)는 사용자의 동작 상태를 종료로 판단할 수 있다.For example, as in the time t0-t1 and the time t4-t5 of the time axis T, if the calculated energy change amount EV is smaller than the first reference level Ref1, the
또한, 시간축(T)의 시간 t2-t3에서와 같이, 산출된 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 크거나 오차 범위 내에서 동일하고 제2 기준 레벨(Ref2)보다 작으면, 동작 판단부(121)는 사용자의 동작 상태를 대기로 판단할 수 있다.Further, as in the time t2-t3 of the time axis T, if the calculated energy change amount EV is greater than the first reference level Ref1 or the same within an error range and smaller than the second reference level Ref2, The
이때, 동작 판단부(121)는 시간축(T)의 시간 t2-t3동안에 카운팅 동작을 수행할 수 있다. 동작 판단부(121)는 카운팅 동작에 따른 카운팅 값(CS)을 제3 기준 레벨, 예컨대 기준 카운팅 레벨(Cref)과 비교할 수 있다. 비교 결과에 따라 동작 판단부(121)는 사용자의 동작 상태를 대기에서 종료로 판단할 수 있다. 이를 위하여 동작 판단부(121)는 카운터(미도시)를 더 포함할 수 있다.In this case, the
시간축(T)의 시간 t1-t2 및 시간 t3-t4에서와 같이, 산출된 에너지 변화량(EV)이 제2 기준 레벨(Ref2)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 사용자의 동작 상태를 시작으로 판단할 수 있다. As in the time t1-t2 and the time t3-t4 of the time axis T, if the calculated energy change amount EV is greater than the second reference level Ref2 or the same within an error range, the
동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따라 광원(111), 광원 추적부(123) 또는 궤적 처리부(125) 중에서 적어도 하나의 동작을 제어할 수 있는 인에이블/디스에이블 신호(ES/DS)를 출력할 수 있다.The
다시 도 1을 참조하면, 광원 추적부(123)는 동작 판단부(121)의 판단 결과에 따라, 광원(111)의 위치 변화, 예컨대 광원(111)으로부터 출력되는 빛(LS)의 위치 변화를 추적하여 검출하고, 검출 결과에 따른 광원 위치 신호(PS)를 출력할 수 있다.Referring back to FIG. 1, the light
궤적 처리부(125)는 광원 추적부(123)로부터 출력된 광원 위치 신호(PS)에 기초하여 사용자 동작 궤적(TS)을 추출할 수 있으며, 추출된 사용자 동작 궤적(TS)에 기초하여 사용자의 동작을 인식할 수 있다.The
도 3은 도 1에 도시된 동작 인식 장치의 동작에 따른 동작 인식 순서도이다. 본 실시예에서 S' 및 S는 사용자의 동작 상태, EV는 에너지 변화량, Ref1은 제1 기준 레벨, Ref2는 제2 기준 레벨, Cref는 기준 카운팅 레벨, CS는 카운팅 값을 의미한다.FIG. 3 is a flowchart illustrating a motion recognition according to an operation of the motion recognition apparatus shown in FIG. 1. In this embodiment, S 'and S are the user's operating state, EV is the energy change amount, Ref1 is the first reference level, Ref2 is the second reference level, Cref is the reference counting level, CS is the counting value.
도 1 내지 도 3을 참조하면, 사용자가 입력 장치(110)를 착용하거나 소지한 상태에서 소정의 움직임을 행하면, 입력 장치(110)의 센서(113)는 사용자의 움직임에 따른 센싱 신호(SS)를 출력한다. 센싱 신호(SS)는 동작 판단부(121)로 입력된다(S10).1 to 3, when the user performs a predetermined movement while wearing or holding the
동작 판단부(121)는 센싱 신호(SS)로부터 에너지 변화량(EV)을 산출한다(S20). 예컨대, 동작 판단부(121)는 다수의 구간들(L0 내지 L4) 각각의 센싱 신호(SS)로부터 동작 에너지 값을 구하고, 각각의 동작 에너지 값의 표준 편차를 계산함으로써 구간별 에너지 변화량(EV)을 산출할 수 있다.The
이어, 이전에 정의된 사용자의 동작 상태(S')를 판단하고(S31, S33, S35), 산출된 에너지 변화량(EV)과 적어도 하나의 기준 레벨(Ref1, Ref2)을 비교할 수 있 다(S41, S43).Subsequently, the previously defined operation state S 'of the user may be determined (S31, S33, and S35), and the calculated energy change amount EV may be compared with at least one reference level Ref1 or Ref2 (S41). , S43).
이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0)이면(S31), 동작 판단부(121)는 에너지 변화량(EV)과 제2 기준 레벨(Ref2)을 비교할 수 있다(S41).If the previously defined user operation state S 'is the operation end (S' = 0) (S31), the
비교 결과, 에너지 변화량(EV)이 제2 기준 레벨(Ref2)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 시작으로 판단(S=1)할 수 있다(S51). As a result of the comparison, when the energy change amount EV is greater than the second reference level Ref2 or the same within an error range, the
그러나, 에너지 변화량(EV)이 제2 기준 레벨(Ref2)보다 작으면, 동작 판단부(121)는 에너지 변화량(EV)을 제1 기준 레벨(Ref1)과 비교할 수 있다(S43). However, when the energy change amount EV is smaller than the second reference level Ref2, the
비교 결과, 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 대기로 판단(S=2)할 수 있다(S53). As a result of the comparison, when the energy change amount EV is greater than the first reference level Ref1 or the same within an error range, the
그러나, 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 작으면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 종료로 판단(S=0)할 수 있다(S55).However, when the energy change amount EV is smaller than the first reference level Ref1, the
사용자의 현재 동작 상태(S)가 판단되면, 동작 판단부(121)는 판단 결과에 따라 광원(111), 광원 추적부(123) 또는 궤적 처리부(125) 중에서 적어도 하나의 동작을 제어하며, 센서(113)로부터 다시 센싱 신호(SS)를 입력받는다(S10).When the current operation state S of the user is determined, the
이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0)가 아닌 동작 시작(S'=1)이면(S33), 동작 판단부(121)는 상술한 에너지 변화량(EV)과 제2 기준 레벨(Ref2)을 비교하는 단계(S41)부터 수행할 수 있다.If the previously defined user operation state S 'is not an operation end (S' = 0) but an operation start (S '= 1) (S33), the
이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0) 및 동작 시작(S'=1) 이 아닌 동작 대기(S'=2)이면(S35), 동작 판단부(121)는 카운팅 값(CS)을 0으로 초기화하고(S37), 동작 대기 시간 동안 카운팅 동작을 수행한다. 이어, 카운팅 값(CS)을 기준 카운팅 레벨(Cref)과 비교할 수 있다(S45).If the user operation state S 'previously defined is operation standby (S' = 2) rather than operation termination (S '= 0) and operation start (S' = 1) (S35), the
비교 결과, 카운팅 값(CS)이 기준 카운팅 레벨(Cref)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 종료(S=0)로 판단할 수 있다(S55). 사용자의 현재 동작 상태(S)가 판단되면, 상술한 센서(113)로부터 다시 센싱 신호(SS)를 입력받는 단계(S10)를 수행할 수 있다. As a result of the comparison, when the counting value CS is greater than the reference counting level Cref or the same within the error range, the
그러나, 카운팅 값(CS)이 기준 카운팅 레벨(Cref)보다 작으면, 카운팅 값(CS)을 순차적으로 증가시키면서(S60), 기준 카운팅 레벨(Cref)과 비교할 수 있다(S45). 비교 결과에 따라 사용자의 현재 동작 상태(S)를 판단하거나(S55), 또는 카운팅 값(CS)을 다시 증가시켜 기준 카운팅 레벨(Cref)과 비교하는 단계(S45)를 다시 수행할 수 있다.However, when the counting value CS is smaller than the reference counting level Cref, the counting value CS may be compared with the reference counting level Cref while increasing the counting value CS sequentially (S60). According to the comparison result, the current operation state S of the user may be determined (S55) or the counting value CS may be increased again to compare with the reference counting level Cref (S45).
한편, 이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0), 동작 시작(S'=1) 및 동작 대기(S'=2)도 아니면, 동작 인식 장치(100)는 에러 메시지를 출력할 수 있다(S57).Meanwhile, if the user operation state S 'previously defined is not an operation end (S' = 0), an operation start (S '= 1), and an operation wait (S' = 2), the
도 4는 도 1에 도시된 동작 인식 장치의 사용자 동작 인식의 실시예를 나타내는 도면이다.FIG. 4 is a diagram illustrating an embodiment of user gesture recognition of the gesture recognition apparatus illustrated in FIG. 1.
도 1 및 도 4를 참조하면, 동작 판단부(121)는 다수의 구간들(L1 내지 L5) 각각에 대한 에너지 변화량(EV)을 산출하고, 산출된 에너지 변화량(EV)을 다수의 기준 레벨들(Ref1, Ref2) 각각과 비교함으로써, 사용자의 동작 상태를 판단할 수 있다.1 and 4, the
이때, 동작 판단부(121)는 다수의 기준 레벨들(Ref1, Ref2) 각각의 임계값 크기를 조절함으로써, 사용자의 동작 구간 판단 기준을 조절할 수 있다.In this case, the
도 4에 도시된 바와 같이, 사용자가 3차원 공간에서 숫자 5에 대한 쓰기 동작을 수행한다고 하면, 동작 판단부(121)는 다수의 기준 레벨들(Ref1, Ref2) 각각의 임계값의 크기에 따라 사용자의 동작 상태를 획 단위로 구분하여 판단하거나 또는 동작 단위로 구분하여 판단할 수 있다.As shown in FIG. 4, when a user performs a write operation on the
여기서, 획 단위 구분에서의 획과 획 사이 동작 정체 구간은 동작 단위 구분에서의 동작과 동작 사이 동작 정체 구간보다 짧다. 따라서, 사용자의 동작 상태를 획 단위로 구분하기 위해서 동작 판단부(121)는 다수의 기준 레벨들(Ref1, Ref2) 각각의 임계값을 동작 단위로 구분하는 경우보다 작게 조절할 수 있다. Here, the motion congestion section between strokes in stroke unit divisions is shorter than the motion congestion section between motions in motion unit divisions. Therefore, in order to classify the operation state of the user in the unit of stroke, the
동작 판단부(121)는 센싱 신호(SS)의 제1 구간(L1) 내지 제4 구간(L4) 동안 사용자의 동작 상태를 동작 시작으로 판단할 수 있으며, 광원 추적부(123)는 사용자의 움직임에 따른 광원 위치 신호(PS)를 검출할 수 있다. 궤적 처리부(125)는 광원 위치 신호(PS)에 기초하여 사용자 동작 궤적(TS)을 추출할 수 있다.The
동작 인식 장치(100)는 궤적 처리부(125)로부터 출력된 사용자 동작 궤적(TS)에 기초하여 사용자의 동작, 예컨대 숫자 5에 대한 쓰기 동작을 인식할 수 있다.The
한편, 동작 판단부(121)는 센싱 신호(SS)의 제4 구간(L4)에서 제5 구간(L5) 동안 사용자의 동작 상태를 동작 대기로 판단할 수 있다. 이때, 동작 판단부(121) 는 동작 대기 시간을 카운팅 한 카운팅 값(CS)을 기준 카운팅 레벨(Cref)과 비교한 후, 비교 결과에 따라 사용자의 동작 상태를 동작 종료로 판단할 수 있다. On the other hand, the
동작 판단부(121)에 의해 사용자의 동작 상태가 대기 또는 종료로 판단되면, 광원(111), 광원 추적부(123) 또는 궤적 처리부(125) 중에서 적어도 하나는 동작 판단부(121)로부터 출력된 디스에이블 신호(DS)에 의해 디스에이블 될 수 있다. If it is determined by the
동작 판단부(121)는 추후의 사용자 동작에 따라 센서(113)로부터 출력되는 센싱 신호(SS)로부터 사용자의 동작 상태를 다시 판단할 수 있다. The
본 발명의 내용은 도면에 도시된 일실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the content of the present invention has been described with reference to one embodiment illustrated in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. will be. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.
도 1은 본 발명의 일 실시예에 따른 동작 인식 장치의 개략적인 블록도이다.1 is a schematic block diagram of a gesture recognition apparatus according to an embodiment of the present invention.
도 2는 도 1에 도시된 센서의 센싱 결과에 따른 신호 파형 및 이에 따른 사용자 동작 판단에 대한 도면이다.FIG. 2 is a diagram illustrating signal waveforms according to sensing results of the sensor illustrated in FIG. 1 and determining a user's motion accordingly.
도 3은 도 1에 도시된 동작 인식 장치의 동작에 따른 동작 인식 순서도이다.FIG. 3 is a flowchart illustrating a motion recognition according to an operation of the motion recognition apparatus shown in FIG. 1.
도 4는 도 1에 도시된 동작 인식 장치의 사용자 동작 인식의 실시예를 나타내는 도면이다.FIG. 4 is a diagram illustrating an embodiment of user gesture recognition of the gesture recognition apparatus illustrated in FIG. 1.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/631,243 US8310547B2 (en) | 2008-12-05 | 2009-12-04 | Device for recognizing motion and method of recognizing motion using the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080123490 | 2008-12-05 | ||
KR1020080123490 | 2008-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100065070A KR20100065070A (en) | 2010-06-15 |
KR101234095B1 true KR101234095B1 (en) | 2013-02-19 |
Family
ID=42364574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090094577A KR101234095B1 (en) | 2008-12-05 | 2009-10-06 | Gesture cognitive device and method for recognizing gesture thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101234095B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090027048A (en) * | 2007-09-11 | 2009-03-16 | 삼성전자주식회사 | Apparatus and method for recognizing moving signal |
-
2009
- 2009-10-06 KR KR1020090094577A patent/KR101234095B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090027048A (en) * | 2007-09-11 | 2009-03-16 | 삼성전자주식회사 | Apparatus and method for recognizing moving signal |
Also Published As
Publication number | Publication date |
---|---|
KR20100065070A (en) | 2010-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100630806B1 (en) | Command input method using motion recognition device | |
US10545579B2 (en) | Remote control with 3D pointing and gesture recognition capabilities | |
US9721343B2 (en) | Method and system for gesture identification based on object tracing | |
US9367186B2 (en) | Method and system for discriminating stylus and touch interactions | |
US10042438B2 (en) | Systems and methods for text entry | |
KR20130099717A (en) | Apparatus and method for providing user interface based on touch screen | |
CN105849673A (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
CN103218062A (en) | Man-machine interaction method and equipment based on acceleration sensor and motion recognition | |
US10296096B2 (en) | Operation recognition device and operation recognition method | |
CN103034343B (en) | The control method and device of a kind of sensitive mouse | |
KR20070060580A (en) | Apparatus and method for handwriting recognition using acceleration sensor | |
WO2016175579A1 (en) | User interface control using impact gestures | |
KR101365083B1 (en) | Interface device using motion recognition and control method thereof | |
KR101169583B1 (en) | Virture mouse driving method | |
US8310547B2 (en) | Device for recognizing motion and method of recognizing motion using the same | |
KR101234095B1 (en) | Gesture cognitive device and method for recognizing gesture thereof | |
US20140210739A1 (en) | Operation receiver | |
KR20130049915A (en) | Apparatus and method of inputting characters by sensing motion of user | |
KR101803574B1 (en) | Gesture Recognition System Based on Vision | |
WO2021246089A1 (en) | Gesture recognition device, system, and program for same | |
KR20140011921A (en) | Apparatus and method for controlling operation mode of device using gesture cognition | |
KR20080041760A (en) | Motion detection system in robot and thereof method | |
KR101222134B1 (en) | system for controlling a point of view in virtual reality and method for controlling a point of view using the same | |
KR101517932B1 (en) | The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |