KR101234095B1 - Gesture cognitive device and method for recognizing gesture thereof - Google Patents

Gesture cognitive device and method for recognizing gesture thereof Download PDF

Info

Publication number
KR101234095B1
KR101234095B1 KR1020090094577A KR20090094577A KR101234095B1 KR 101234095 B1 KR101234095 B1 KR 101234095B1 KR 1020090094577 A KR1020090094577 A KR 1020090094577A KR 20090094577 A KR20090094577 A KR 20090094577A KR 101234095 B1 KR101234095 B1 KR 101234095B1
Authority
KR
South Korea
Prior art keywords
user
reference level
operation state
light source
determining
Prior art date
Application number
KR1020090094577A
Other languages
Korean (ko)
Other versions
KR20100065070A (en
Inventor
장민수
김재홍
손주찬
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US12/631,243 priority Critical patent/US8310547B2/en
Publication of KR20100065070A publication Critical patent/KR20100065070A/en
Application granted granted Critical
Publication of KR101234095B1 publication Critical patent/KR101234095B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

동작 인식 장치가 제공된다. 동작 인식 장치는, 광원과 관성 센서를 포함하는 입력 장치 및 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부를 포함한다.A gesture recognition apparatus is provided. The motion recognition apparatus includes an input device including a light source and an inertial sensor, and a motion recognition unit that detects a change in the position of the light source during the user's motion section determined from the sensing signal of the inertial sensor and extracts a motion trajectory of the user.

관성 센서, 광원, 동작 인식 Inertial sensor, light source, motion recognition

Description

동작 인식 장치 및 이를 이용한 동작 인식 방법{Gesture cognitive device and method for recognizing gesture thereof}Gesture cognitive device and method for recognizing gesture

본 실시예는 사용자의 동작을 인식하는 기술에 관한 것으로서, 보다 상세하게는 광원과 관성 센서가 결합된 동작 인식 장치 및 이를 이용한 동작 인식 방법에 관한 것이다.The present embodiment relates to a technology for recognizing a user's motion, and more particularly, to a motion recognition device in which a light source and an inertial sensor are combined, and a motion recognition method using the same.

본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-039-01, 과제명: 인간-로봇 상호작용 매개 기술 개발].The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task Management Number: 2008-F-039-01, Task name: Development of human-robot interaction mediated technology].

카메라 기반의 동작 입력 방법은 사용자의 동작 영상을 연속 화상(Continuous Images)으로 촬영하여 화상 내 대상물을 인식하고 연속된 화상 내에서 대상물의 움직임을 포착함으로써 동작을 인지하는 방법이다. 이 방법은 영상 인식 기술의 한계로 동작의 자유도, 인식률 측면에서 명확한 한계를 보인다. 특히 조명 상태와 배경의 복잡도에 따른 인식률 저하로 인해 실용화하기가 어렵다. The camera-based motion input method is a method of recognizing motion by capturing motion images of a user as continuous images to recognize an object in the image and capturing the motion of the object in the continuous image. This method is a limitation of image recognition technology and shows a clear limit in terms of freedom of movement and recognition rate. In particular, it is difficult to apply due to the reduction in recognition rate due to lighting conditions and background complexity.

근래 들어, 적외선 카메라를 이용하여 적외선 광원 추적 방법을 통해 동작의 궤적을 감지하고 이를 기반으로 동작을 인식하는 기술이 소개되었다. 이 방법은 간 단한 저비용 장치 구성으로 비교적 정확하게 동작의 궤적을 측정할 수 있어 동작 입력에 유리하다. 특히, 동작이 그려내는 움직임을 궤적으로 직접 추적하므로 관성 데이터와 달리 사용자 간 편차가 크지 않다는 점은 큰 이점이다. Recently, a technique for detecting a motion trajectory and recognizing motion based on an infrared light source tracking method using an infrared camera has been introduced. This method has a simple low cost device configuration and can measure motion trajectories relatively accurately, which is advantageous for motion input. In particular, unlike the inertial data, the difference between users is not great because it directly tracks the motion drawn by the motion.

종래 기술에 따른 광원 추적 방법은 사용자가 광원을 몸에 부착하거나 손에 쥐고 광원을 움직이고, 카메라는 광원의 움직임을 추적하여 궤적을 측정하고, 임의의 데이터 처리 시스템이 궤적에 나타난 이동 패턴을 인식함으로써 사용자의 동작을 인식한다. In the conventional light source tracking method, a user attaches or grabs a light source to a body and moves the light source, the camera tracks the movement of the light source to measure the trajectory, and any data processing system recognizes the movement pattern shown in the trajectory. Recognize the user's actions.

그러나, 종래의 광원 추적 방법은 사용자의 동작과 동작 간의 구분이 어렵다. 예컨대, 광원이 지속적으로 빛을 내는 경우에 사용자의 궤적은 끊김이 없는 연속선으로 측정되므로 궤적의 어느 지점에서 동작이 마무리되는지 자동으로 찾아내기 어렵기 때문이다. However, the conventional light source tracking method is difficult to distinguish between the user's operation and the operation. For example, when the light source continuously emits light, the user's trajectory is measured as a continuous line without interruption, so it is difficult to automatically find at which point of the trajectory the operation is finished.

종래 기술에서는 상술한 문제를 해결하기 위하여 인위적으로 궤적을 끊기게 만들어 사용자의 동작을 구분하기 위하여 버튼 등 단락 수단을 이용하여 광원이 동작 중에만 빛이 나도록 제어한다. 그러나, 이러한 방법은 사용자의 동작을 구분할 수 있게는 하지만, 사용자로 하여금 동작에만 집중하지 못하게 하므로 동작 입력의 편의성을 해친다. 특히, 동작 입력이 빈번한 상황 하에서는 편의성을 해치는 정도가 더 커져서 동작 입력의 정확성도 저하될 수 있다.In the prior art, in order to solve the above problem, the trajectory is artificially broken so that the user can control the light source only during operation by using a short circuit means such as a button to distinguish the user's operation. However, this method can distinguish the user's motions, but it does not allow the user to concentrate on only the motions, thereby impairing the convenience of motion input. In particular, under a situation in which the operation input is frequent, the degree of convenience is increased, and thus the accuracy of the operation input may be lowered.

본 발명이 해결하고자 하는 과제는, 사용자 동작 인식의 정확도를 높일 수 있는 동작 인식 장치를 제공하고자 하는데 있다. An object of the present invention is to provide a gesture recognition apparatus that can increase the accuracy of user gesture recognition.

본 발명이 해결하고자 하는 다른 과제는, 동작 인식 장치를 이용한 사용자 동작 인식 방법을 제공하고자 하는데 있다.Another object of the present invention is to provide a user gesture recognition method using a gesture recognition apparatus.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 동작 인식 장치는, 광원과 관성 센서를 포함하는 입력 장치 및 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부를 포함한다.According to an aspect of the present invention, there is provided a gesture recognition apparatus including a light source and an inertial sensor, which detects a change in the position of a light source during a user operation period determined from a sensing signal of an input device and an inertial sensor. It includes a motion recognition unit for extracting the motion trajectory of the.

상기 다른 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 동작 인식 방법은, 관성 센서로부터 출력된 센싱 신호로부터 사용자 동작 구간을 판단하는 단계 및 사용자 동작 구간의 판단 결과에 따라 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for recognizing a motion, which includes determining a user's operation section from a sensing signal output from an inertial sensor and changing a position of a light source according to a determination result of the user's operation section. Detecting and extracting a motion trajectory of the user.

본 발명에 따른 동작 인식 장치 및 이를 이용한 동작 인식 방법은, 사용자가 착용하거나 소지하는 입력장치에 광원과 센서를 포함시켜 구성하고, 센서의 센싱 신호에 따라 광원 또는 광원의 위치 변화에 따라 사용자 동작 궤적을 출력하는 동작 인식부의 동작을 자동으로 제어함으로써, 사용자 동작 궤적을 쉽게 분리시킬 수 있으며, 이에 따라 사용자 동작 인식의 부정확성을 개선할 수 있는 효과가 있다. The motion recognition apparatus and the motion recognition method using the same according to the present invention are configured to include a light source and a sensor in an input device worn or possessed by a user, and the user motion trajectory according to a change in the position of the light source or the light source according to the sensing signal of the sensor. By automatically controlling the operation of the motion recognition unit for outputting the user, the user motion trajectory can be easily separated, thereby improving the inaccuracy of the user motion recognition.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시 예에 의하여 달성되 는 목적을 충분히 이해하기 위해서는 본 발명의 실시 예를 예시하는 첨부도면 및 첨부도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the embodiments of the present invention, reference should be made to the accompanying drawings, which illustrate embodiments of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 동작 인식 장치의 개략적인 블록도이고, 도 2는 도 1에 도시된 센서의 센싱 결과에 따른 신호 파형 및 이에 따른 사용자 동작 판단에 대한 도면이다.FIG. 1 is a schematic block diagram of an apparatus for recognizing a motion according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a signal waveform and a user motion determination according to a sensing result of the sensor shown in FIG. 1.

도 1을 참조하면, 본 실시예에 따른 동작 인식 장치(100)는 입력 장치(110) 및 동작 인식부(120)를 포함할 수 있다.Referring to FIG. 1, the gesture recognition apparatus 100 according to the present exemplary embodiment may include an input device 110 and a gesture recognition unit 120.

입력 장치(110)는 시각적 신호, 예컨대 빛(LS)을 발생시키는 광원(111)과 사용자의 움직임을 센싱하는 센서(113)를 포함하며, 사용자에게 착용되거나 또는 소지될 수 있다. The input device 110 includes a light source 111 for generating a visual signal, for example, light LS, and a sensor 113 for sensing a user's movement, and may be worn or possessed by the user.

센서(113)는 사용자의 움직임에 따른 관성력 변화를 센싱하여 센싱 신호(SS)를 출력할 수 있는 관성 센서(Inertial Sensor)일 수 있으며, 예컨대 가속도 센서, 각속도 센서, 경사 센서, 중력 센서, 지자기 센서 또는 자이로 센서 등일 수 있다.The sensor 113 may be an inertial sensor capable of sensing a change in inertia force according to a user's movement and outputting a sensing signal SS. For example, an acceleration sensor, an angular velocity sensor, an inclination sensor, a gravity sensor, a geomagnetic sensor Or a gyro sensor.

동작 인식부(120)는 동작 판단부(121), 광원 추적부(123) 및 궤적 처리부(125)를 포함할 수 있다. The motion recognition unit 120 may include a motion determination unit 121, a light source tracking unit 123, and a trajectory processing unit 125.

동작 판단부(121)는 입력 장치(110)의 센서(113)로부터 출력되는 센싱 신호(SS)에 기초하여 사용자의 동작 상태를 판단할 수 있으며, 이에 따른 사용자 동 작 구간을 판단할 수 있다. The operation determination unit 121 may determine the operation state of the user based on the sensing signal SS output from the sensor 113 of the input device 110, and may determine the user operation section accordingly.

동작 판단부(121)는 판단 결과에 따라 광원(111), 광원 추적부(123) 및 궤적 처리부(125) 중에서 적어도 하나의 동작을 제어할 수 있는 제어 신호를 출력할 수 있다. 제어 신호는 인에이블/디스에이블 신호(ES/DS)일 수 있다.The operation determining unit 121 may output a control signal for controlling at least one operation among the light source 111, the light source tracking unit 123, and the trajectory processing unit 125 according to the determination result. The control signal may be an enable / disable signal (ES / DS).

실시예에 따라 동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따른 인에이블/디스에이블 신호(ES/DS)를 광원(111)으로 출력하고, 광원(111)은 인에이블/디스에이블 신호(ES/DS)에 응답하여 턴-온되거나 또는 턴-오프될 수 있다.According to an embodiment, the operation determination unit 121 outputs the enable / disable signal ES / DS according to a result of the operation state determination of the user to the light source 111, and the light source 111 is an enable / disable signal. It may be turned on or off in response to (ES / DS).

다른 실시예에 따라 동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따른 인에이블/디스에이블 신호(ES/DS)를 광원 추적부(123)로 출력하고, 광원 추적부(123)는 인에이블/디스에이블 신호(ES/DS)에 응답하여 동작되거나 동작하지 않을 수 있다. 광원 추적부(123)는 동작 판단부(121)의 인에이블 신호(ES)에 응답하여 광원(111)의 위치를 추적하여 검출할 수 있다.According to another exemplary embodiment, the operation determination unit 121 outputs the enable / disable signal ES / DS to the light source tracking unit 123 according to the user's operation state determination result, and the light source tracking unit 123 is in It may or may not be operated in response to the enable / disable signal ES / DS. The light source tracking unit 123 may track and detect the position of the light source 111 in response to the enable signal ES of the operation determination unit 121.

또 다른 실시예에 따라 동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따른 인에이블/디스에이블 신호(ES/DS)를 궤적 처리부(125)로 출력하고, 궤적 처리부(125)는 인에이블/디스에이블 신호(ES/DS)에 응답하여 동작되거나 동작하지 않을 수 있다. 궤적 처리부(125)는 동작 판단부(121)의 인에이블 신호(ES)에 응답하여 광원 추적부(123)로부터 출력된 광원 위치 신호(PS)로부터 사용자의 동작 궤적(TS)을 추출하여 출력할 수 있다. 동작 인식 장치(100)는 궤적 처리부(125)로부터 출력된 동작 궤적(TS)에 기초하여 사용자의 동작을 인식할 수 있다.According to another exemplary embodiment, the operation determiner 121 outputs the enable / disable signal ES / DS to the trajectory processing unit 125 according to a result of determining the operation state of the user, and the trajectory processing unit 125 enables the trajectory processing unit 125. It may or may not be operated in response to the / disable signal ES / DS. The trajectory processing unit 125 extracts and outputs the user's operation trajectory TS from the light source position signal PS output from the light source tracking unit 123 in response to the enable signal ES of the operation determination unit 121. Can be. The motion recognition apparatus 100 may recognize a user's motion based on the motion trajectory TS output from the trajectory processing unit 125.

본 실시예에서는 동작 판단부(121)가 동작 인식부(120)에 포함되어 구성된 예가 도시되어 있으나, 본 발명은 이에 제한되지는 않는다. 예컨대, 동작 인식 장치(100)의 다양한 실시예들에 따라 동작 판단부(121)는 입력 장치(110)에 포함되거나 또는 독립적으로 구성될 수도 있다. 동작 판단부(121)가 입력 장치(110)에 포함되는 경우에는 동작 판단부(121)의 판단 결과에 따라 광원(111)의 턴-온 또는 턴-오프가 제어되는 것이 바람직할 수 있다.In the present exemplary embodiment, an example in which the operation determining unit 121 is included in the operation recognizing unit 120 is illustrated, but the present invention is not limited thereto. For example, according to various embodiments of the gesture recognition apparatus 100, the gesture determination unit 121 may be included in the input device 110 or may be configured independently. When the operation determiner 121 is included in the input device 110, it may be preferable that the turn-on or turn-off of the light source 111 is controlled according to the determination result of the operation determiner 121.

도 1 및 도 2를 참조하면, 동작 판단부(121)는 입력 장치(110)로부터 출력된 센싱 신호(SS)를 분석하고, 분석 결과에 따라 사용자의 동작 상태 및 이에 따른 사용자의 동작 구간을 판단할 수 있다.1 and 2, the operation determiner 121 analyzes the sensing signal SS output from the input device 110, and determines the operation state of the user and the user's operation section according to the analysis result. can do.

실시예에 따라 센싱 신호(SS)는 사용자의 동작에 따라 변화하는 가속도 신호일 수 있으며, 따라서 입력 장치(110)의 센서(113)는 3축 가속도 센서일 수 있다. 3축 가속도 센서는 사용자의 동작에 따라 x, y, z 축으로 변화하는 가속도 신호를 센싱하여 센싱 신호(SS)를 출력할 수 있다.According to an exemplary embodiment, the sensing signal SS may be an acceleration signal that changes according to a user's motion, and thus the sensor 113 of the input device 110 may be a three-axis acceleration sensor. The 3-axis acceleration sensor may output an sensing signal SS by sensing an acceleration signal that is changed in x, y, and z axes according to a user's motion.

동작 판단부(121)는 시간축(T)의 시간 t0-t5 동안 센서(113)로부터 센싱 신호(SS)를 제공받을 수 있다.The operation determiner 121 may receive the sensing signal SS from the sensor 113 during the time t0-t5 of the time axis T.

동작 판단부(121)는 센싱 신호(SS)를 에너지 변화량(EV)으로 변환할 수 있다. 예컨대, 동작 판단부(121)는 다수의 시간 구간들(L0 내지 L4) 각각의 센싱 신호(SS)의 표준 편차를 계산하여 센싱 신호(SS)의 동작 에너지 값을 산출하고, 산출된 각각의 동작 에너지 값의 표준 편차를 계산함으로써 다수의 구간들(L0 내지 L4) 각각의 센싱 신호(SS)에 대한 에너지 변화량(EV)을 산출할 수 있다.The operation determiner 121 may convert the sensing signal SS into an energy change amount EV. For example, the operation determiner 121 calculates a standard deviation of the sensing signal SS of each of the plurality of time intervals L0 to L4 to calculate an operating energy value of the sensing signal SS, and calculates each calculated operation. By calculating the standard deviation of the energy values, the energy change amount EV for the sensing signal SS of each of the plurality of sections L0 to L4 may be calculated.

산출된 에너지 변화량(EV)은 다수의 기준 레벨들(REF1, REF2) 각각과 비교될 수 있으며, 비교 결과에 따라 사용자의 동작 상태 및 이에 따른 사용자의 동작 구간을 판단할 수 있다.The calculated energy change amount EV may be compared with each of the plurality of reference levels REF1 and REF2, and the operation state of the user and the user's operation section may be determined according to the comparison result.

예컨대, 시간축(T)의 시간 t0-t1 및 시간 t4-t5에서와 같이, 산출된 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 작으면, 동작 판단부(121)는 사용자의 동작 상태를 종료로 판단할 수 있다.For example, as in the time t0-t1 and the time t4-t5 of the time axis T, if the calculated energy change amount EV is smaller than the first reference level Ref1, the operation determination unit 121 may operate the user. Can be determined as the end.

또한, 시간축(T)의 시간 t2-t3에서와 같이, 산출된 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 크거나 오차 범위 내에서 동일하고 제2 기준 레벨(Ref2)보다 작으면, 동작 판단부(121)는 사용자의 동작 상태를 대기로 판단할 수 있다.Further, as in the time t2-t3 of the time axis T, if the calculated energy change amount EV is greater than the first reference level Ref1 or the same within an error range and smaller than the second reference level Ref2, The operation determination unit 121 may determine the operation state of the user as the standby.

이때, 동작 판단부(121)는 시간축(T)의 시간 t2-t3동안에 카운팅 동작을 수행할 수 있다. 동작 판단부(121)는 카운팅 동작에 따른 카운팅 값(CS)을 제3 기준 레벨, 예컨대 기준 카운팅 레벨(Cref)과 비교할 수 있다. 비교 결과에 따라 동작 판단부(121)는 사용자의 동작 상태를 대기에서 종료로 판단할 수 있다. 이를 위하여 동작 판단부(121)는 카운터(미도시)를 더 포함할 수 있다.In this case, the operation determination unit 121 may perform a counting operation during the time t2-t3 of the time axis T. The operation determiner 121 may compare the counting value CS according to the counting operation with a third reference level, for example, the reference counting level Cref. According to the comparison result, the operation determination unit 121 may determine the operation state of the user as the end of the standby. To this end, the operation determination unit 121 may further include a counter (not shown).

시간축(T)의 시간 t1-t2 및 시간 t3-t4에서와 같이, 산출된 에너지 변화량(EV)이 제2 기준 레벨(Ref2)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 사용자의 동작 상태를 시작으로 판단할 수 있다. As in the time t1-t2 and the time t3-t4 of the time axis T, if the calculated energy change amount EV is greater than the second reference level Ref2 or the same within an error range, the operation determination unit 121 The operation state of the user may be determined as a start.

동작 판단부(121)는 사용자의 동작 상태 판단 결과에 따라 광원(111), 광원 추적부(123) 또는 궤적 처리부(125) 중에서 적어도 하나의 동작을 제어할 수 있는 인에이블/디스에이블 신호(ES/DS)를 출력할 수 있다.The operation determining unit 121 may enable / disable signals (ES) capable of controlling at least one operation among the light source 111, the light source tracking unit 123, or the trajectory processing unit 125 according to a result of determining the operation state of the user. / DS) can be printed.

다시 도 1을 참조하면, 광원 추적부(123)는 동작 판단부(121)의 판단 결과에 따라, 광원(111)의 위치 변화, 예컨대 광원(111)으로부터 출력되는 빛(LS)의 위치 변화를 추적하여 검출하고, 검출 결과에 따른 광원 위치 신호(PS)를 출력할 수 있다.Referring back to FIG. 1, the light source tracking unit 123 may change a position of the light source 111, for example, a position change of the light LS output from the light source 111, according to the determination result of the operation determination unit 121. It can track and detect, and output the light source position signal PS according to a detection result.

궤적 처리부(125)는 광원 추적부(123)로부터 출력된 광원 위치 신호(PS)에 기초하여 사용자 동작 궤적(TS)을 추출할 수 있으며, 추출된 사용자 동작 궤적(TS)에 기초하여 사용자의 동작을 인식할 수 있다.The trajectory processing unit 125 may extract the user motion trajectory TS based on the light source position signal PS output from the light source tracking unit 123, and the user's motion based on the extracted user motion trajectory TS. Can be recognized.

도 3은 도 1에 도시된 동작 인식 장치의 동작에 따른 동작 인식 순서도이다. 본 실시예에서 S' 및 S는 사용자의 동작 상태, EV는 에너지 변화량, Ref1은 제1 기준 레벨, Ref2는 제2 기준 레벨, Cref는 기준 카운팅 레벨, CS는 카운팅 값을 의미한다.FIG. 3 is a flowchart illustrating a motion recognition according to an operation of the motion recognition apparatus shown in FIG. 1. In this embodiment, S 'and S are the user's operating state, EV is the energy change amount, Ref1 is the first reference level, Ref2 is the second reference level, Cref is the reference counting level, CS is the counting value.

도 1 내지 도 3을 참조하면, 사용자가 입력 장치(110)를 착용하거나 소지한 상태에서 소정의 움직임을 행하면, 입력 장치(110)의 센서(113)는 사용자의 움직임에 따른 센싱 신호(SS)를 출력한다. 센싱 신호(SS)는 동작 판단부(121)로 입력된다(S10).1 to 3, when the user performs a predetermined movement while wearing or holding the input device 110, the sensor 113 of the input device 110 may sense the sensing signal SS according to the movement of the user. Outputs The sensing signal SS is input to the operation determining unit 121 (S10).

동작 판단부(121)는 센싱 신호(SS)로부터 에너지 변화량(EV)을 산출한다(S20). 예컨대, 동작 판단부(121)는 다수의 구간들(L0 내지 L4) 각각의 센싱 신호(SS)로부터 동작 에너지 값을 구하고, 각각의 동작 에너지 값의 표준 편차를 계산함으로써 구간별 에너지 변화량(EV)을 산출할 수 있다.The operation determination unit 121 calculates an energy change amount EV from the sensing signal SS (S20). For example, the operation determiner 121 obtains an operating energy value from the sensing signal SS of each of the plurality of sections L0 to L4, and calculates a standard deviation of each operating energy value, thereby calculating the energy change amount EV for each section. Can be calculated.

이어, 이전에 정의된 사용자의 동작 상태(S')를 판단하고(S31, S33, S35), 산출된 에너지 변화량(EV)과 적어도 하나의 기준 레벨(Ref1, Ref2)을 비교할 수 있 다(S41, S43).Subsequently, the previously defined operation state S 'of the user may be determined (S31, S33, and S35), and the calculated energy change amount EV may be compared with at least one reference level Ref1 or Ref2 (S41). , S43).

이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0)이면(S31), 동작 판단부(121)는 에너지 변화량(EV)과 제2 기준 레벨(Ref2)을 비교할 수 있다(S41).If the previously defined user operation state S 'is the operation end (S' = 0) (S31), the operation determination unit 121 may compare the energy change amount EV and the second reference level Ref2 ( S41).

비교 결과, 에너지 변화량(EV)이 제2 기준 레벨(Ref2)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 시작으로 판단(S=1)할 수 있다(S51). As a result of the comparison, when the energy change amount EV is greater than the second reference level Ref2 or the same within an error range, the operation determination unit 121 determines the current user operation state S as the start of operation (S = 1). It may be (S51).

그러나, 에너지 변화량(EV)이 제2 기준 레벨(Ref2)보다 작으면, 동작 판단부(121)는 에너지 변화량(EV)을 제1 기준 레벨(Ref1)과 비교할 수 있다(S43). However, when the energy change amount EV is smaller than the second reference level Ref2, the operation determiner 121 may compare the energy change amount EV with the first reference level Ref1 (S43).

비교 결과, 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 대기로 판단(S=2)할 수 있다(S53). As a result of the comparison, when the energy change amount EV is greater than the first reference level Ref1 or the same within an error range, the operation determination unit 121 determines the current user operation state S as operation standby (S = 2). It may be (S53).

그러나, 에너지 변화량(EV)이 제1 기준 레벨(Ref1)보다 작으면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 종료로 판단(S=0)할 수 있다(S55).However, when the energy change amount EV is smaller than the first reference level Ref1, the operation determination unit 121 may determine the current user operation state S as the operation termination (S = 0) (S55).

사용자의 현재 동작 상태(S)가 판단되면, 동작 판단부(121)는 판단 결과에 따라 광원(111), 광원 추적부(123) 또는 궤적 처리부(125) 중에서 적어도 하나의 동작을 제어하며, 센서(113)로부터 다시 센싱 신호(SS)를 입력받는다(S10).When the current operation state S of the user is determined, the operation determining unit 121 controls at least one operation among the light source 111, the light source tracking unit 123, or the trajectory processing unit 125 according to the determination result, and the sensor The sensing signal SS is input again from 113 (S10).

이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0)가 아닌 동작 시작(S'=1)이면(S33), 동작 판단부(121)는 상술한 에너지 변화량(EV)과 제2 기준 레벨(Ref2)을 비교하는 단계(S41)부터 수행할 수 있다.If the previously defined user operation state S 'is not an operation end (S' = 0) but an operation start (S '= 1) (S33), the operation determination unit 121 may determine the energy change amount EV described above. In operation S41, the second reference level Ref2 may be compared.

이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0) 및 동작 시작(S'=1) 이 아닌 동작 대기(S'=2)이면(S35), 동작 판단부(121)는 카운팅 값(CS)을 0으로 초기화하고(S37), 동작 대기 시간 동안 카운팅 동작을 수행한다. 이어, 카운팅 값(CS)을 기준 카운팅 레벨(Cref)과 비교할 수 있다(S45).If the user operation state S 'previously defined is operation standby (S' = 2) rather than operation termination (S '= 0) and operation start (S' = 1) (S35), the operation determination unit 121 Initializes the counting value CS to 0 (S37) and performs a counting operation during the operation waiting time. Next, the counting value CS may be compared with the reference counting level Cref (S45).

비교 결과, 카운팅 값(CS)이 기준 카운팅 레벨(Cref)보다 크거나 오차 범위 내에서 동일하면, 동작 판단부(121)는 현재 사용자 동작 상태(S)를 동작 종료(S=0)로 판단할 수 있다(S55). 사용자의 현재 동작 상태(S)가 판단되면, 상술한 센서(113)로부터 다시 센싱 신호(SS)를 입력받는 단계(S10)를 수행할 수 있다. As a result of the comparison, when the counting value CS is greater than the reference counting level Cref or the same within the error range, the operation determining unit 121 determines that the current user operation state S is the end of the operation (S = 0). It may be (S55). When the current operation state S of the user is determined, step S10 of receiving the sensing signal SS from the sensor 113 described above may be performed.

그러나, 카운팅 값(CS)이 기준 카운팅 레벨(Cref)보다 작으면, 카운팅 값(CS)을 순차적으로 증가시키면서(S60), 기준 카운팅 레벨(Cref)과 비교할 수 있다(S45). 비교 결과에 따라 사용자의 현재 동작 상태(S)를 판단하거나(S55), 또는 카운팅 값(CS)을 다시 증가시켜 기준 카운팅 레벨(Cref)과 비교하는 단계(S45)를 다시 수행할 수 있다.However, when the counting value CS is smaller than the reference counting level Cref, the counting value CS may be compared with the reference counting level Cref while increasing the counting value CS sequentially (S60). According to the comparison result, the current operation state S of the user may be determined (S55) or the counting value CS may be increased again to compare with the reference counting level Cref (S45).

한편, 이전에 정의된 사용자 동작 상태(S')가 동작 종료(S'=0), 동작 시작(S'=1) 및 동작 대기(S'=2)도 아니면, 동작 인식 장치(100)는 에러 메시지를 출력할 수 있다(S57).Meanwhile, if the user operation state S 'previously defined is not an operation end (S' = 0), an operation start (S '= 1), and an operation wait (S' = 2), the gesture recognition apparatus 100 An error message may be output (S57).

도 4는 도 1에 도시된 동작 인식 장치의 사용자 동작 인식의 실시예를 나타내는 도면이다.FIG. 4 is a diagram illustrating an embodiment of user gesture recognition of the gesture recognition apparatus illustrated in FIG. 1.

도 1 및 도 4를 참조하면, 동작 판단부(121)는 다수의 구간들(L1 내지 L5) 각각에 대한 에너지 변화량(EV)을 산출하고, 산출된 에너지 변화량(EV)을 다수의 기준 레벨들(Ref1, Ref2) 각각과 비교함으로써, 사용자의 동작 상태를 판단할 수 있다.1 and 4, the operation determiner 121 calculates an energy change amount EV for each of the plurality of sections L1 to L5, and calculates the calculated energy change amount EV by a plurality of reference levels. By comparing with each of (Ref1, Ref2), it is possible to determine the operation state of the user.

이때, 동작 판단부(121)는 다수의 기준 레벨들(Ref1, Ref2) 각각의 임계값 크기를 조절함으로써, 사용자의 동작 구간 판단 기준을 조절할 수 있다.In this case, the operation determining unit 121 may adjust the operation section determination criteria of the user by adjusting the threshold values of each of the plurality of reference levels Ref1 and Ref2.

도 4에 도시된 바와 같이, 사용자가 3차원 공간에서 숫자 5에 대한 쓰기 동작을 수행한다고 하면, 동작 판단부(121)는 다수의 기준 레벨들(Ref1, Ref2) 각각의 임계값의 크기에 따라 사용자의 동작 상태를 획 단위로 구분하여 판단하거나 또는 동작 단위로 구분하여 판단할 수 있다.As shown in FIG. 4, when a user performs a write operation on the number 5 in a three-dimensional space, the operation determiner 121 according to the magnitude of each of the threshold values of the plurality of reference levels Ref1 and Ref2. The operation state of the user may be determined by dividing the stroke unit or may be determined by dividing the operation unit.

여기서, 획 단위 구분에서의 획과 획 사이 동작 정체 구간은 동작 단위 구분에서의 동작과 동작 사이 동작 정체 구간보다 짧다. 따라서, 사용자의 동작 상태를 획 단위로 구분하기 위해서 동작 판단부(121)는 다수의 기준 레벨들(Ref1, Ref2) 각각의 임계값을 동작 단위로 구분하는 경우보다 작게 조절할 수 있다. Here, the motion congestion section between strokes in stroke unit divisions is shorter than the motion congestion section between motions in motion unit divisions. Therefore, in order to classify the operation state of the user in the unit of stroke, the operation determination unit 121 may adjust the threshold value of each of the plurality of reference levels Ref1 and Ref2 to be smaller than in the case of classifying the operation unit.

동작 판단부(121)는 센싱 신호(SS)의 제1 구간(L1) 내지 제4 구간(L4) 동안 사용자의 동작 상태를 동작 시작으로 판단할 수 있으며, 광원 추적부(123)는 사용자의 움직임에 따른 광원 위치 신호(PS)를 검출할 수 있다. 궤적 처리부(125)는 광원 위치 신호(PS)에 기초하여 사용자 동작 궤적(TS)을 추출할 수 있다.The operation determination unit 121 may determine the operation state of the user as the start of the operation during the first period L1 to the fourth period L4 of the sensing signal SS, and the light source tracking unit 123 may move the user. The light source position signal PS may be detected. The trajectory processing unit 125 may extract the user motion trajectory TS based on the light source position signal PS.

동작 인식 장치(100)는 궤적 처리부(125)로부터 출력된 사용자 동작 궤적(TS)에 기초하여 사용자의 동작, 예컨대 숫자 5에 대한 쓰기 동작을 인식할 수 있다.The gesture recognition apparatus 100 may recognize a user's motion, for example, a writing operation on the number 5, based on the user motion trajectory TS output from the trajectory processing unit 125.

한편, 동작 판단부(121)는 센싱 신호(SS)의 제4 구간(L4)에서 제5 구간(L5) 동안 사용자의 동작 상태를 동작 대기로 판단할 수 있다. 이때, 동작 판단부(121) 는 동작 대기 시간을 카운팅 한 카운팅 값(CS)을 기준 카운팅 레벨(Cref)과 비교한 후, 비교 결과에 따라 사용자의 동작 상태를 동작 종료로 판단할 수 있다. On the other hand, the operation determiner 121 may determine the user's operation state as the operation standby during the fifth section L5 in the fourth section L4 of the sensing signal SS. In this case, the operation determining unit 121 may compare the counting value CS counting the operation waiting time with the reference counting level Cref, and determine the operation state of the user as the end of the operation according to the comparison result.

동작 판단부(121)에 의해 사용자의 동작 상태가 대기 또는 종료로 판단되면, 광원(111), 광원 추적부(123) 또는 궤적 처리부(125) 중에서 적어도 하나는 동작 판단부(121)로부터 출력된 디스에이블 신호(DS)에 의해 디스에이블 될 수 있다. If it is determined by the operation determining unit 121 that the user's operation state is standby or termination, at least one of the light source 111, the light source tracking unit 123, or the trajectory processing unit 125 is output from the operation determination unit 121. It may be disabled by the disable signal DS.

동작 판단부(121)는 추후의 사용자 동작에 따라 센서(113)로부터 출력되는 센싱 신호(SS)로부터 사용자의 동작 상태를 다시 판단할 수 있다. The operation determination unit 121 may determine the operation state of the user again from the sensing signal SS output from the sensor 113 according to a later user operation.

본 발명의 내용은 도면에 도시된 일실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the content of the present invention has been described with reference to one embodiment illustrated in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. will be. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.

도 1은 본 발명의 일 실시예에 따른 동작 인식 장치의 개략적인 블록도이다.1 is a schematic block diagram of a gesture recognition apparatus according to an embodiment of the present invention.

도 2는 도 1에 도시된 센서의 센싱 결과에 따른 신호 파형 및 이에 따른 사용자 동작 판단에 대한 도면이다.FIG. 2 is a diagram illustrating signal waveforms according to sensing results of the sensor illustrated in FIG. 1 and determining a user's motion accordingly.

도 3은 도 1에 도시된 동작 인식 장치의 동작에 따른 동작 인식 순서도이다.FIG. 3 is a flowchart illustrating a motion recognition according to an operation of the motion recognition apparatus shown in FIG. 1.

도 4는 도 1에 도시된 동작 인식 장치의 사용자 동작 인식의 실시예를 나타내는 도면이다.FIG. 4 is a diagram illustrating an embodiment of user gesture recognition of the gesture recognition apparatus illustrated in FIG. 1.

Claims (16)

삭제delete 광원과 관성 센서를 포함하는 입력 장치;An input device including a light source and an inertial sensor; 상기 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 상기 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부; 및A motion recognition unit for detecting a change in the position of the light source and extracting a motion trajectory of the user during the user motion section determined from the sensing signal of the inertial sensor; And 상기 센싱 신호로부터 에너지 변화량을 산출하고, 산출된 상기 에너지 변화량을 적어도 하나의 기준 레벨과 비교하여 상기 사용자의 동작 상태에 따른 상기 사용자 동작 구간을 판단하는 동작 판단부;를 포함하는 동작 인식 장치.And an operation determination unit configured to calculate an energy change amount from the sensing signal and determine the user operation section according to an operation state of the user by comparing the calculated energy change amount with at least one reference level. 청구항 2에 있어서, 상기 적어도 하나의 기준 레벨은 제1 기준 레벨과 제2 기준 레벨을 포함하고, The method of claim 2, wherein the at least one reference level comprises a first reference level and a second reference level, 상기 동작 판단부는,The operation determining unit, 상기 에너지 변화량이 상기 제2 기준 레벨보다 크거나 같으면 상기 사용자의 동작 상태를 동작 시작으로 판단하고, 상기 에너지 변화량이 상기 제2 기준 레벨보다 작으면 상기 사용자의 동작 상태를 동작 대기 또는 동작 종료 중에서 하나로 판단하는 동작 인식 장치.If the amount of energy change is greater than or equal to the second reference level, the operation state of the user is determined to be the start of operation, and if the amount of energy change is less than the second reference level, the operation state of the user is one of waiting for operation or ending operation. Motion recognition device for determining. 청구항 3에 있어서, 상기 동작 판단부는,The method of claim 3, wherein the operation determination unit, 상기 에너지 변화량이 상기 제1 기준 레벨보다 크거나 같고 상기 제2 기준 레벨보다 작으면 상기 사용자의 동작 상태를 동작 대기로 판단하고, 상기 에너지 변화량이 상기 제1 기준 레벨보다 작으면 상기 사용자의 동작 상태를 동작 종료로 판단하는 동작 인식 장치.If the amount of energy change is greater than or equal to the first reference level and is less than the second reference level, the operation state of the user is determined as the operation standby, and if the energy change amount is less than the first reference level, the operation state of the user Gesture recognition unit for determining that the operation is terminated. 청구항 3에 있어서, 상기 동작 판단부는, The method of claim 3, wherein the operation determination unit, 상기 사용자의 동작 상태가 상기 동작 대기로 판단된 후에 동작 대기 시간 동안 카운팅 동작하는 카운터를 더 포함하고,A counter for counting operation during the operation waiting time after the operation state of the user is determined to be the operation waiting, further comprising: 상기 동작 판단부는, 상기 카운터의 카운팅 값이 기준 카운팅 레벨보다 크거나 같으면 상기 사용자의 동작 상태를 상기 동작 대기에서 상기 동작 종료로 판단하는 동작 인식 장치.And the operation determining unit determines the operation state of the user to be the end of the operation in the operation standby when the counting value of the counter is greater than or equal to a reference counting level. 청구항 2에 있어서, The method according to claim 2, 상기 동작 판단부는 상기 적어도 하나의 기준 레벨의 임계값 크기를 조절하여 상기 사용자의 동작 상태를 획 단위 또는 동작 단위로 구분하여 판단하는 동작 인식 장치.And the operation determining unit determines the operation state of the user by the stroke unit or the operation unit by adjusting the threshold value of the at least one reference level. 청구항 6에 있어서, The method of claim 6, 상기 동작 판단부는, 상기 사용자의 동작 상태를 상기 획 단위로 구분하는 경우의 상기 임계값을 상기 사용자의 동작 상태를 상기 동작 단위로 구분하는 경우의 상기 임계값보다 작은 크기를 갖도록 조절하는 동작 인식 장치.The operation determining unit may adjust the threshold value when the operation state of the user is divided into the stroke units to have a size smaller than the threshold value when the operation state of the user is divided into the operation units. . 광원과 관성 센서를 포함하는 입력 장치; 및An input device including a light source and an inertial sensor; And 상기 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 상기 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부;를 포함하고,And a motion recognition unit configured to extract a user's motion trajectory by detecting a change in the position of the light source during the user's motion determined from the sensing signal of the inertial sensor. 상기 입력 장치는, The input device, 상기 센싱 신호로부터 에너지 변화량을 산출하고, 산출된 상기 에너지 변화량에 따라 상기 사용자 동작 구간을 판단하는 동작 판단부를 더 포함하고, An operation determination unit configured to calculate an energy change amount from the sensing signal and determine the user operation section according to the calculated energy change amount; 상기 광원은 상기 동작 판단부의 판단 결과에 따라 턴-온 또는 턴-오프가 제어되며, 상기 동작 인식부는 상기 광원이 턴-온된 경우에 상기 광원의 위치 변화를 검출하여 상기 사용자의 동작 궤적을 추출하는 동작 인식 장치.The light source is controlled to be turned on or turned off according to the determination result of the operation determining unit, and the motion recognition unit detects a change in the position of the light source when the light source is turned on to extract the operation trajectory of the user. Motion recognition device. 광원과 관성 센서를 포함하는 입력 장치; 및An input device including a light source and an inertial sensor; And 상기 관성 센서의 센싱 신호로부터 판단된 사용자 동작 구간 동안 상기 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 동작 인식부;를 포함하고,And a motion recognition unit configured to extract a user's motion trajectory by detecting a change in the position of the light source during the user's motion determined from the sensing signal of the inertial sensor. 상기 동작 인식부는,The motion recognition unit, 상기 센싱 신호로부터 에너지 변화량을 산출하고, 산출된 상기 에너지 변화량에 따라 상기 사용자 동작 구간을 판단하는 동작 판단부;An operation determination unit calculating an energy change amount from the sensing signal and determining the user operation section according to the calculated energy change amount; 상기 판단 결과에 따라 상기 광원의 위치 변화를 검출하는 광원 추적부; 및A light source tracking unit detecting a change in position of the light source according to the determination result; And 상기 검출 결과에 따라 상기 사용자의 동작 궤적을 추출하는 궤적 추출부를 포함하고,And a trajectory extraction unit configured to extract the operation trajectory of the user according to the detection result. 상기 광원 추적부와 상기 궤적 추출부 중에서 하나는 상기 동작 판단부의 판단 결과에 따라 인에이블 또는 디스에이블 되는 동작 인식 장치.One of the light source tracker and the trajectory extractor is enabled or disabled according to a determination result of the operation determiner. 삭제delete 관성 센서로부터 출력된 센싱 신호로부터 사용자 동작 구간을 판단하는 단계; 및Determining a user operation section from the sensing signal output from the inertial sensor; And 상기 판단 결과에 따라 광원의 위치 변화를 검출하여 사용자의 동작 궤적을 추출하는 단계;를 포함하고, Detecting a change in the position of the light source according to the determination result and extracting a user's motion trajectory; 상기 사용자 동작 구간을 판단하는 단계는,Determining the user operation section, 상기 센싱 신호로부터 에너지 변화량을 산출하는 단계; 및Calculating an amount of energy change from the sensing signal; And 산출된 상기 에너지 변화량을 적어도 하나의 기준 레벨과 비교하고, 비교 결과에 따라 상기 사용자의 동작 상태를 판단하는 단계를 포함하는 동작 인식 방법.And comparing the calculated energy change with at least one reference level, and determining an operation state of the user according to a comparison result. 청구항 11에 있어서, 상기 적어도 하나의 기준 레벨은 제1 기준 레벨과 제2 기준 레벨을 포함하고, The method of claim 11, wherein the at least one reference level comprises a first reference level and a second reference level, 상기 비교 결과에 따라 상기 사용자의 동작 상태를 판단하는 단계는, The determining of the operation state of the user according to the comparison result, 상기 에너지 변화량이 상기 제2 기준 레벨보다 크거나 같으면 상기 사용자의 동작 상태를 동작 시작으로 판단하고, 상기 에너지 변화량이 상기 제2 기준 레벨보다 작으면 상기 사용자의 동작 상태를 동작 대기 또는 동작 종료 중에서 하나로 판단하는 동작 인식 방법.If the amount of energy change is greater than or equal to the second reference level, the operation state of the user is determined to be the start of operation, and if the amount of energy change is less than the second reference level, the operation state of the user is one of waiting for operation or ending operation. Determination of motion recognition. 청구항 12에 있어서, 상기 비교 결과에 따라 상기 사용자의 동작 상태를 판단하는 단계는, The method of claim 12, wherein determining the operation state of the user according to the comparison result, 상기 에너지 변화량이 상기 제1 기준 레벨보다 크거나 같고 상기 제2 기준 레벨보다 작으면 상기 사용자의 동작 상태를 동작 대기로 판단하고, 상기 에너지 변화량이 상기 제1 기준 레벨보다 작으면 상기 사용자의 동작 상태를 동작 종료로 판단하는 단계를 더 포함하는 동작 인식 방법.If the amount of energy change is greater than or equal to the first reference level and is less than the second reference level, the operation state of the user is determined as the operation standby, and if the energy change amount is less than the first reference level, the operation state of the user And determining that the operation has ended. 청구항 12에 있어서, 상기 비교 결과에 따라 상기 사용자의 동작 상태를 판단하는 단계는,The method of claim 12, wherein determining the operation state of the user according to the comparison result, 상기 사용자의 동작 상태가 상기 동작 대기로 판단된 후에 동작 대기 시간 동안을 카운팅하는 단계: Counting an operation waiting time after the operation state of the user is determined to be the operation waiting: 카운팅 값을 기준 카운팅 레벨과 비교하는 단계; 및Comparing the counting value with a reference counting level; And 상기 카운팅 값이 상기 기준 카운팅 레벨보다 크거나 같으면 상기 사용자의 동작 상태를 상기 동작 대기에서 상기 동작 종료로 판단하는 단계를 더 포함하는 동작 인식 방법.If the counting value is greater than or equal to the reference counting level, determining the operation state of the user as the end of the operation in the operation standby. 청구항 11에 있어서, The method of claim 11, 상기 사용자 동작 구간을 판단하는 단계는, 상기 적어도 하나의 기준 레벨의 임계값을 조절하는 단계를 더 포함하고,The determining of the user operation section may further include adjusting a threshold of the at least one reference level. 상기 비교 결과에 따라 상기 사용자의 동작 상태를 판단하는 단계는, 상기 임계값이 조절된 상기 적어도 하나의 기준 레벨에 따라 상기 사용자의 동작 상태를 획 단위 또는 동작 단위로 구분하여 판단하는 동작 인식 방법.The determining of the operation state of the user based on the comparison result may include determining the operation state of the user by a stroke unit or an operation unit according to the at least one reference level at which the threshold value is adjusted. 청구항 15에 있어서, 16. The method of claim 15, 상기 적어도 하나의 기준 레벨의 임계값을 조절하는 단계는, 상기 사용자의 동작 상태를 상기 획 단위로 구분하는 경우의 상기 임계값이 상기 사용자의 동작 상태를 상기 동작 단위로 구분하는 경우의 상기 임계값보다 작은 크기를 갖도록 조절하는 동작 인식 방법.The adjusting of the threshold value of the at least one reference level may include: the threshold value when the operation state of the user is divided into the stroke units and the threshold value when the operation state of the user is divided into the operation units. Motion recognition method to adjust to have a smaller size.
KR1020090094577A 2008-12-05 2009-10-06 Gesture cognitive device and method for recognizing gesture thereof KR101234095B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/631,243 US8310547B2 (en) 2008-12-05 2009-12-04 Device for recognizing motion and method of recognizing motion using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080123490 2008-12-05
KR1020080123490 2008-12-05

Publications (2)

Publication Number Publication Date
KR20100065070A KR20100065070A (en) 2010-06-15
KR101234095B1 true KR101234095B1 (en) 2013-02-19

Family

ID=42364574

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090094577A KR101234095B1 (en) 2008-12-05 2009-10-06 Gesture cognitive device and method for recognizing gesture thereof

Country Status (1)

Country Link
KR (1) KR101234095B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090027048A (en) * 2007-09-11 2009-03-16 삼성전자주식회사 Apparatus and method for recognizing moving signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090027048A (en) * 2007-09-11 2009-03-16 삼성전자주식회사 Apparatus and method for recognizing moving signal

Also Published As

Publication number Publication date
KR20100065070A (en) 2010-06-15

Similar Documents

Publication Publication Date Title
KR100630806B1 (en) Command input method using motion recognition device
US10545579B2 (en) Remote control with 3D pointing and gesture recognition capabilities
US9721343B2 (en) Method and system for gesture identification based on object tracing
US9367186B2 (en) Method and system for discriminating stylus and touch interactions
US10042438B2 (en) Systems and methods for text entry
KR20130099717A (en) Apparatus and method for providing user interface based on touch screen
CN105849673A (en) Human-to-computer natural three-dimensional hand gesture based navigation method
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN103218062A (en) Man-machine interaction method and equipment based on acceleration sensor and motion recognition
US10296096B2 (en) Operation recognition device and operation recognition method
CN103034343B (en) The control method and device of a kind of sensitive mouse
KR20070060580A (en) Apparatus and method for handwriting recognition using acceleration sensor
WO2016175579A1 (en) User interface control using impact gestures
KR101365083B1 (en) Interface device using motion recognition and control method thereof
KR101169583B1 (en) Virture mouse driving method
US8310547B2 (en) Device for recognizing motion and method of recognizing motion using the same
KR101234095B1 (en) Gesture cognitive device and method for recognizing gesture thereof
US20140210739A1 (en) Operation receiver
KR20130049915A (en) Apparatus and method of inputting characters by sensing motion of user
KR101803574B1 (en) Gesture Recognition System Based on Vision
WO2021246089A1 (en) Gesture recognition device, system, and program for same
KR20140011921A (en) Apparatus and method for controlling operation mode of device using gesture cognition
KR20080041760A (en) Motion detection system in robot and thereof method
KR101222134B1 (en) system for controlling a point of view in virtual reality and method for controlling a point of view using the same
KR101517932B1 (en) The apparatus and method of stereo camera system with wide angle lens applicable for hand gesture recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee