KR101609553B1 - Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same - Google Patents

Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same Download PDF

Info

Publication number
KR101609553B1
KR101609553B1 KR1020140089577A KR20140089577A KR101609553B1 KR 101609553 B1 KR101609553 B1 KR 101609553B1 KR 1020140089577 A KR1020140089577 A KR 1020140089577A KR 20140089577 A KR20140089577 A KR 20140089577A KR 101609553 B1 KR101609553 B1 KR 101609553B1
Authority
KR
South Korea
Prior art keywords
motion
mode
unit
sensor
virtual plane
Prior art date
Application number
KR1020140089577A
Other languages
Korean (ko)
Other versions
KR20160009291A (en
Inventor
최린
김민지
배한준
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020140089577A priority Critical patent/KR101609553B1/en
Publication of KR20160009291A publication Critical patent/KR20160009291A/en
Application granted granted Critical
Publication of KR101609553B1 publication Critical patent/KR101609553B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체에 관한 것으로서, 보다 상세하게는 사용자가 설정한 3차원 공간상의 가상 평면에 대한 손가락의 움직임을 인식하여 외부기기를 원격으로 제어가능한 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체를 제공한다.The present invention relates to an apparatus and method for inputting three-dimensional motion recognition information and a recording medium on which a program for implementing the same is stored. More specifically, the present invention relates to a three- Dimensional motion recognition information input device and method capable of remotely controlling the three-dimensional motion recognition information input device, and a recording medium storing a program for implementing the same.

Description

3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 {APPARATUS AND METHOD FOR 3D MOTION RECOGNITION INFORMATION INPUT, AND RECORDING MEDIUM STORING PROGRAM FOR EXECUTING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a three-dimensional motion recognition information input apparatus and method, and a recording medium storing a program for implementing the same. BACKGROUND OF THE INVENTION [0002]

본 발명은 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체에 관한 것으로서, 보다 상세하게는 사용자가 설정한 3차원 공간상의 가상 평면에 대한 손가락의 움직임을 인식하여 외부기기를 원격으로 제어가능한 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체에 관한 것이다.
The present invention relates to an apparatus and method for inputting three-dimensional motion recognition information and a recording medium on which a program for implementing the same is stored. More specifically, the present invention relates to a three- Dimensional motion recognition information input device and method capable of remotely controlling the three-dimensional motion recognition information input device, and a recording medium storing a program for implementing the same.

가전 및 사무용 기기 또는 휴대용 스마트 기기의 종류가 다양해지고, 웨어러블 장치의 보급률이 증가하면서 각각의 기기를 제어하고 입력하기 위한 다양한 입력장치가 사용되고 있다.Various types of home appliances, office equipment, or portable smart devices have been developed and various types of input devices for controlling and inputting each device have been used as the spread of wearable devices has increased.

기존의 PC 환경에서는 문자 입력을 위한 키보드와 GUI 환경을 지원하는 마우스가 일반적이다. 강의 또는 발표 환경에서는 PC를 원격제어하기 위해서 무선 마우스가 사용되거나 프레젠테이션 리모콘을 이용한다.In the conventional PC environment, a mouse for inputting characters and a mouse for supporting a GUI environment are common. In a lecture or presentation environment, a wireless mouse is used to remotely control the PC or a presentation remote control is used.

기존 TV에서는 하나의 버튼이 하나의 기능을 담당하는 버튼식 리모컨이 많이 사용되었다.In a conventional TV, a button-type remote control, in which one button is a function, is often used.

또한, 스마트기기 및 웨어러블 장치가 보편화 되면서 이러한 장치의 특성에 맞는 기존과 다른 입력 인터페이스가 사용되고 있다.In addition, as smart devices and wearable devices become common, input interfaces different from those of existing devices are used.

스마트 기기 또는 웨어러블 장치는 주로 휴대성이 강조되고 소형 디스플레이를 사용하기 때문에 터치 인터페이스가 일반적이다. 사용자는 신체를 이용하여 터치를 통해 기기를 제어할 수 있고 별도의 펜 형태의 장치를 사용하여 터치하는 기술 등이 있다. Touch devices are common because smart devices or wearable devices are often portably emphasized and use small displays. A user can control the device through a touch using the body, and a technique of touching using a separate pen-shaped device.

스마트 TV의 경우 기존의 버튼식 리모컨 대신 스마트 TV의 다양한 기능을 지원하기 위해서 마우스 형 리모컨이 사용되고 있다. 마우스 형 리모컨은 가속도 센서를 내장하여 마우스 커서를 이동하는 기술을 이용하거나, 리모컨에 터치 패널을 장착하는 형태 등이 있다. In case of smart TV, mouse type remote control is used to support various functions of smart TV instead of conventional button type remote control. The mouse type remote control includes a technique of moving a mouse cursor by incorporating an acceleration sensor, or a mode of mounting a touch panel on a remote control.

가속도 센서를 내장하고 있는 리모컨의 경우 사용자가 리모컨을 움직인 거리를 가속도 데이터를 통해 추출하여 마우스 커서를 이동하고 별도의 클릭 버튼을 두어 기기를 제어한다. In case of the remote controller with the built-in acceleration sensor, the user extracts the moving distance of the remote controller through the acceleration data, moves the mouse cursor, and controls the device by pressing a separate click button.

또한 리모컨에 터치 패널을 장착하는 방식의 경우 스마트폰, 타블렛 PC와 같이 직관적인 제어가 가능하지만 터치 패널을 위한 전력 소비가 커 배터리를 많이 소모하는 문제점이 있다.In addition, in the case of attaching a touch panel to a remote control, intuitive control such as a smart phone and a tablet PC is possible, but power consumption for the touch panel is large, which causes a problem of consuming a large amount of battery.

이처럼 각각의 기기를 사용하기 위해서 다양한 입력장치가 필요한 문제점이 있으며, 다양한 입력장치를 별도로 관리하여야 하는 문제점이 있다.
As described above, there is a problem that various input devices are required to use each device, and various input devices must be separately managed.

한국등록특허 [10-0509913]에서는 다중 형식 입력 장치 및 방법이 개시되어 있다.
Korean Patent No. 10-0509913 discloses a multi-format input device and method.

한국등록특허 [10-0509913](등록일자: 2005. 08. 17)Korea Registered Patent [10-0509913] (Registered Date: Aug. 17, 2005)

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 무선 네트워크 연결이 가능한 PC, 스마트 기기, 웨어러블 장치 등과 연결하여 3차원 공간상에서 동작 인식을 통해, 사용자의 자세와 이동에 상관없이 사용자가 설정한 축 정보를 이용하여, 마우스, 키보드 및 리모컨 등의 기능을 통합하여, 직관적인 기기 제어 및 입력이 가능한 착용형/휴대형 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체를 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a mobile communication terminal, which is connected to a PC, smart device, wearable device, A portable / three-dimensional motion recognition information input device and method capable of intuitive device control and input by integrating functions such as a mouse, a keyboard, and a remote controller by using the axis information set by the user regardless of movement And a program for implementing the program.

또한, 센서의 특성을 고려하고 센서 데이터 추출이 가능한 제스처를 설계하여 다양한 기기를 마우스 모드, 동작 모드, 필기 모드 및 블랭크 모드에서 제어할 수 있는 착용형/휴대형 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체를 제공하는 것이다.
Also, a wearable / portable three-dimensional motion recognition information input device and method capable of controlling various devices in a mouse mode, an operation mode, a handwriting mode, and a blank mode by designing a gesture capable of extracting sensor data in consideration of characteristics of a sensor, And a recording medium on which a program for implementing the method is stored.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치는, 손 또는 손가락에 관성센서가 포함된 입력장치를 휴대하여 공간상에서의 움직임을 인식하는 3차원 동작인식 정보입력 장치에 있어서, 3축 가속도 센서와 3축 자이로 센서, 3축 지자기 센서가 포함된 IMU(Inertial Measurement Unit, 관성 측정 장치) 센서 모듈로 구성된 센서부(110), 외부기기와의 무선 네트워크 통신을 위한 무선통신부(120), 상기 센서부(110) 및 무선통신부(120)에 전원을 공급하는 전원부(130)를 포함하는 움직임입력부(100); 및 상기 무선통신부(120)로부터 무선 네트워크를 통해 전달받은 신호를 분석하고 외부기기를 제어하는 통합관리부(200);를 포함하며, 상기 통합관리부(200)는 상기 센서부(110)로부터 센싱된 정보를 근거로, 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드를 판단하고, 해당 모드에서 규정된 제어명령을 외부기기로 전송하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for inputting three-dimensional motion recognition information, comprising: an input device including an inertial sensor on a hand or a finger; The recognition information input device includes a sensor unit 110 composed of an IMU (Inertial Measurement Unit) sensor module including a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor, A motion input unit (100) including a wireless communication unit (120) for communication, a power supply unit (130) for supplying power to the sensor unit (110) and the wireless communication unit (120); And an integrated management unit 200 for analyzing a signal received from the wireless communication unit 120 through a wireless network and controlling an external device. The integrated management unit 200 receives information sensed from the sensor unit 110 A mouse mode, a blank mode, a handwriting mode, and transmits a control command defined in the mode to an external device.

또한, 상기 통합관리부(200)는 외부기기와 연결 시 캘리브레이션에 의해 가상평면을 생성하고, 상기 움직임입력부(100)의 이동에 따라 상기 가상평면을 이동시키는 가상평면관리부(210); 상기 움직임입력부(100)로부터 움직임이 감지되면, 미리 설정된 민감도 정보 및 미리 설정된 동작 정보를 근거로 유효 움직임을 판단하는 동작인식부(220); 및 상기 동작인식부(220)에 의해 유효 움직임으로 판단되면, 유효 움직임에 해당되는 명령이 있는지 확인하고, 유효 움직임에 해당되는 명령이 있을 경우, 해당 명령에 따라 상기 외부기기를 제어하는 명령처리부(230);를 포함하는 것을 특징으로 한다.In addition, the integrated management unit 200 includes a virtual plane management unit 210 for generating a virtual plane by calibration when connected to an external device, and moving the virtual plane according to the movement of the motion input unit 100; An operation recognition unit 220 for determining a valid motion based on predetermined sensitivity information and preset operation information when motion is detected from the motion input unit 100; And a command processing unit for checking whether there is an instruction corresponding to an effective motion when the motion recognition unit 220 determines that the motion is valid and controlling the external apparatus according to a command corresponding to a valid motion 230). ≪ / RTI >

본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법은, 센서부(110), 무선통신부(120) 및 전원부(130)를 포함하는 움직임입력부(100) 와 가상평면관리부(210), 동작인식부(220) 및 명령처리부(230)를 포함하는 통합관리부(200)를 포함하며, 손 또는 손가락에 움직임입력부(100)를 휴대하여 공간상에서의 움직임을 인식하는 3차원 동작인식 정보입력 방법에 있어서, 상기 통합관리부(200)에 의해, 외부기기와 연결 시 또는 미리 결정된 캘리명령이 입력되면, 민감도(움직임입력부(100)의 움직임과 외부기기에서의 움직임의 비율) 정보를 외부기기에 맞추어 조정하고, 가상평면을 생성하며, 가상 평면의 x, y, z축을 설정하는 캘리브레이션 단계(S10); 상기 통합관리부(200)에 의해, 상기 캘리브레이션 단계(S10)에서 설정된 민감도 정보를 근거로 유효 움직임을 판단하는 유효움직임판단 단계(S20); 상기 통합관리부(200)에 의해, 상기 유효움직임 판단 단계(S20)에서 유효 움직임으로 판단되면, 미리 결정된 모드선택명령에 해당되는 움직임인지 판단하는 모드선택명령판단 단계(S30); 및 상기 통합관리부(200)에 의해, 상기 모드선택명령판단 단계(S30)에서 모드선택명령에 해당되는 움직임으로 판단되면, 상기 미리 결정된 모드선택명령에 따라 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드가 결정되고, 모드선택명령에 해당되는 움직임이 아니라고 판단되면, 미리 설정된 동작 정보와 비교하여 해당되는 명령에 따라 외부기기를 제어하는 명령수행 단계(S40);를 포함하는 것을 특징으로 한다.The 3D motion recognition information input method according to an embodiment of the present invention includes a motion input unit 100 including a sensor unit 110, a wireless communication unit 120 and a power supply unit 130, a virtual plane management unit 210, A three-dimensional motion recognition information input method that includes a recognition unit 220 and an instruction processing unit 230 and includes an integrated management unit 200 and recognizes motion in a space by carrying a motion input unit 100 to a hand or a finger The integrated management unit 200 adjusts the sensitivity (the ratio of the motion of the motion input unit 100 and the motion of the external device) to an external device when the external device is connected or when a predetermined callee command is input (S10) of creating a virtual plane, and setting x, y, and z axes of the virtual plane; An effective motion determination step (S20) of determining an effective motion based on the sensitivity information set in the calibration step (S10) by the integrated management unit (200); A mode selection command determination step (S30) of determining, by the integrated management unit (200), whether motion is a motion corresponding to a predetermined mode selection command if it is determined that the motion is valid in the valid motion determination step (S20); A mouse mode, a blank mode, a handwriting mode, and a handwriting mode according to the predetermined mode selection command, when the integrated management unit 200 determines that the motion corresponds to the mode selection command in the mode selection command determination step S30 (S40) of controlling an external device in accordance with a corresponding command by comparing the mode information with preset operation information when it is determined that the selected mode is not the motion corresponding to the mode selection command .

또한, 상기 3차원 동작인식 정보입력 방법은 외부기기와 연동 시, 제스처 모드로 시작되는 것을 특징으로 한다.Further, the 3D motion recognition information input method starts in a gesture mode when the 3D motion recognition information inputting method is interlocked with an external device.

또, 상기 모드선택명령판단 단계(S30)는 움직임입력부(100)의 중심을 기준으로 가상평면에 수직한 축을 중심으로 소정의 각도로 회전했다가 반대방향으로 일정각도 이상 되돌아오는 동작이 통합관리부(200)에 감지되면 이를 모드선택명령으로 인식하는 것을 특징으로 한다.In the mode selection command determination step S30, an operation of rotating at a predetermined angle about an axis perpendicular to the virtual plane with respect to the center of the motion input unit 100 and then returning a predetermined angle or more in the opposite direction is performed by the integrated management unit 200), it is recognized as a mode selection command.

또한, 상기 명령수행 단계(S40)는 제스처 모드인 경우, 움직임입력부(100) 동작을 분석하여, 가상 평면 위에서의 동작, 가상 평면에 수직한 동작 및 이 두 가지를 조합한 동작이 감지되면, 미리 저장된 제스처명령에 해당되는 동작인지 확인하고, 확인된 제스처명령에 따라 외부기기를 제어하는 것을 특징으로 하되, 미리 저장된 제스처명령은 시작점에서 동작을 수행한 뒤 다시 시작점 방향으로 일정거리 이상 되돌아오는 형태의 동작인 것을 특징으로 한다.In the command execution step S40, when the motion of the motion input unit 100 is analyzed in the gesture mode, if an operation on the virtual plane, an operation perpendicular to the virtual plane, and an operation combining the two are detected, Wherein the gesture command is a command for confirming whether the gesture command corresponds to the stored gesture command and controlling the external device according to the confirmed gesture command. .

또한, 상기 명령수행 단계(S40)는 마우스 모드인 경우, 움직임입력부(100) 동작을 분석하여, 가상 평면에 수직인 동작을 인식할 경우 클릭 또는 터치 이벤트를 발생시키고, 가상 평면 위에서의 동작을 인식할 경우 외부기기 화면에 표시된 마우스 커서의 움직임을 제어하는 것을 특징으로 한다.The command execution step S40 analyzes the motion of the motion input unit 100 when the mouse mode is selected, generates a click or touch event when recognizing the motion perpendicular to the virtual plane, and recognizes the motion on the virtual plane The controller controls the movement of the mouse cursor displayed on the external device screen.

또, 상기 명령수행 단계(S40)는 블랭크 모드인 경우, 모드선택명령만 수행하는 것을 특징으로 한다.In the command execution step (S40), only the mode selection command is executed in the blank mode.

또한, 상기 명령수행 단계(S40)는 필기 모드인 경우, 3차원 공간에서의 타이핑 또는 필기를 인식하여 대응하는 글자 또는 필기가 입력되는 것을 특징으로 한다.Also, in the command execution step S40, when the handwriting mode is selected, the corresponding character or handwriting is input by recognizing the typing or handwriting in the three-dimensional space.

또, 상기 3차원 동작인식 정보입력 방법은 움직임입력부(100)의 이동에 따라 가상평면이 이동되는 것을 특징으로 한다.In addition, the 3D motion recognition information input method is characterized in that the virtual plane is moved according to the movement of the motion input unit 100.

아울러, 본 발명의 일 실시예에 따르면, 상기 3차원 동작인식 정보입력 방법을 구현하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체가 제공되는 것을 특징으로 한다.
According to an embodiment of the present invention, there is provided a computer-readable recording medium storing a program for implementing the 3D motion recognition information input method.

본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체에 의하면, 손 또는 손가락에 관성 측정 장치 센서 모듈이 포함된 움직임입력부를 이용하여, 3차원 공간상의 동작에 따라 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드를 판단하고, 해당 모드에서 규정된 제어명령에 따라 외부기기를 제어함으로써, 여러 가지 입력장치를 구비하지 않아도 직관적인 입력이 가능한 효과가 있다.According to an embodiment of the present invention, there is provided an apparatus and method for inputting three-dimensional motion recognition information, and a recording medium on which a program for implementing the same is stored. The motion input unit includes an inertial sensor It is possible to determine any one of the gesture mode, the mouse mode, the blank mode, and the handwriting mode according to the spatial operation, and to control the external device according to the control command defined in the mode, Intuitive input is possible.

더욱 상세하게는,More specifically,

종래의 마우스, 키보드, 프리젠테이션 리모콘, 터치 패널 등의 입력장치를 대체하여 입력 기능을 수행하고, 3차원 공간상에서 사용자의 손에 부착된 또는 손으로 휴대한 센서의 움직임을 통해 스마트 기기 및 PC를 원격제어하고 정보 입력을 수행할 수 있는 효과가 있다.The present invention can be applied to a smart device and a personal computer through motion of a sensor attached to a user's hand or carried by a hand in a three-dimensional space in place of a conventional input device such as a mouse, a keyboard, a presentation remote controller, Remote control and information input can be performed.

또한, 3차원 공간 마우스를 구현함에 따라, 기존 2차원 공간에서 사용하는 마우스 등의 입력장치와는 달리 사용자는 3차원 공간상에서의 손의 움직임을 통해 직관적으로 스마트 기기 및 PC를 제어할 수 있고, 이러한 움직임 정보는 무선 네트워크를 통해 기기로 전달되어 기기의 원격제어 및 정보입력이 가능한 효과가 있다. In addition, unlike an input device such as a mouse used in a conventional two-dimensional space, a user can intuitively control a smart device and a PC through movement of a hand in a three-dimensional space, Such motion information is transmitted to a device through a wireless network, and thus remote control and input of information can be performed.

또, 프레젠테이션 발표 및 강의 환경 등에서 사용자의 손의 움직임에 따라 발생하는 센서 움직임 정보를 해석하여 슬라이드 넘기기 또는 슬라이드 종료와 같은 프리젠테이션 리모콘의 기능을 대체할 수 있는 효과가 있다.In addition, the present invention has an effect of replacing the function of the presentation remote controller such as slide turning or slide end by interpreting the sensor movement information generated according to the movement of the user's hand in the presentation presentation and the lecture environment.

또한, 스마트 기기에서 주 입력방식으로 사용되는 터치 기반 인터페이스 대신 무선 연결된 착용형/휴대형 정보 입력 시스템을 사용함으로써 스마트 기기의 터치 입력과 동일한 기능을 수행할 수 있고, 근거리 입력만 가능한 터치 입력과 달리 원거리에서 기기를 제어할 수 있는 효과가 있다.In addition, by using a wirelessly connected wearable / portable information input system instead of a touch-based interface used as a main input method in a smart device, it is possible to perform the same function as a touch input of a smart device, So that it is possible to control the apparatus at the same time.

또, 기존의 키보드 및 마우스와 더불어, 리모컨, 터치패드, 터치 스크린 등 각 기기마다 다른 사용자 인터페이스를 통합하여 사용할 수 있기 때문에 사용자의 학습 부담을 낮추어 기기 간 통합 인터페이스로 사용 가능한 효과가 있다. In addition, since different user interfaces can be integrally used for each device such as a remote controller, a touch pad, and a touch screen in addition to the conventional keyboard and mouse, the user can reduce the learning burden and can be used as an integrated interface between the devices.

또한, 사용자의 자세에 따라 가상평면이 자동으로 변경됨으로써, 사용자가 특정한 자세를 고수하지 않고 편안하게 외부기기를 제어할 수 있는 효과가 있다.In addition, since the virtual plane is automatically changed according to the posture of the user, there is an effect that the user can comfortably control the external device without adhering to a specific posture.

아울러, 컴퓨터, 스마트폰, 타블렛, 스마트 TV, 스마트 가전 등의 터치 인터페이스를 사용하는 시스템의 원격 입력 장치로서 적용 가능하고, 마우스 혹은 키보드를 대체할 수 있는 차세대 입력 장치로서 제품화가 가능하며, 블루투스를 탑재하고 있는 기기와 연동이 가능하기 때문에 블루투스 기능이 있는 기기의 동작인식을 활용한 포인팅 디바이스로 적용 가능함으로써, 웨어러블 장치에 대한 관심도가 높아지고 입력환경이 달라짐에 따라 입력의 불편함을 해소하기 위한 차세대 입력 장치로서 기존의 마우스, 키보드를 소형 센서 디바이스로 구현하여 기술 적용 가능한 효과가 있다.
In addition, it can be applied as a remote input device of a system using a touch interface such as a computer, a smart phone, a tablet, a smart TV, a smart home appliance, etc. It can be commercialized as a next generation input device capable of replacing a mouse or a keyboard, It can be applied to a pointing device that utilizes the recognition of the operation of a device having a Bluetooth function because it can be interlocked with the device on which the device is mounted so that the wearable device becomes more interested in the device and the input environment is changed, As an input device, an existing mouse and keyboard can be implemented as a small sensor device, and the technology can be applied.

도 1은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치의 개념도.
도 2는 도 1의 통합관리부를 더욱 상세하게 나타낸 개념도.
도 3은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 흐름도.
도 4는 사용자 자세의 변경을 명령으로 인식하지 않음을 설명하기 위한 도면.
도 5는 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 제스처 모드의 동작 알고리즘에 대한 예시도.
도 6은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 제스처 판단 알고리즘에 대한 예시도.
도 7은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 모드에 따른 정보 입력 방법 알고리즘에 대한 예시도.
도 8은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법에서 명령의 종류를 보여주는 예시도.
1 is a conceptual diagram of a three-dimensional motion recognition information input device according to an embodiment of the present invention;
2 is a conceptual diagram showing the integrated management unit of FIG. 1 in more detail;
3 is a flowchart of a method of inputting three-dimensional motion recognition information according to an embodiment of the present invention.
Fig. 4 is a diagram for explaining that a change of the user attitude is not recognized as an instruction; Fig.
FIG. 5 is an exemplary view illustrating an operation algorithm of a gesture mode of a three-dimensional motion recognition information input method according to an embodiment of the present invention; FIG.
6 is a diagram illustrating an example of a gesture judgment algorithm of a method for inputting three-dimensional motion recognition information according to an embodiment of the present invention.
FIG. 7 is an exemplary diagram illustrating an information input method algorithm according to a mode of a three-dimensional motion recognition information input method according to an embodiment of the present invention; FIG.
FIG. 8 is an exemplary diagram illustrating a kind of a command in a three-dimensional motion recognition information input method according to an embodiment of the present invention; FIG.

이하, 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다. Hereinafter, the present invention will be described in more detail with reference to the drawings. The following drawings are provided by way of example so that those skilled in the art can fully understand the spirit of the present invention. Therefore, the present invention is not limited to the following drawings, but may be embodied in other forms. In addition, like reference numerals designate like elements throughout the specification. It is to be noted that the same elements among the drawings are denoted by the same reference numerals whenever possible. Further, it is to be understood that, unless otherwise defined, technical terms and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Descriptions of known functions and configurations that may be unnecessarily blurred are omitted.

도 1은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치의 개념도이고, 도 2는 도 1의 통합관리부를 더욱 상세하게 나타낸 개념도이며, 도 3은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 흐름도이고, 도 4는 사용자 자세의 변경을 명령으로 인식하지 않음을 설명하기 위한 도면이며, 도 5는 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 제스처 모드의 동작 알고리즘에 대한 예시도이고, 도 6은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 제스처 판단 알고리즘에 대한 예시도이며, 도 7은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법의 모드에 따른 정보 입력 방법 알고리즘에 대한 예시도이고, 도 8은 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법에서 명령의 종류를 보여주는 예시도이다.
FIG. 1 is a conceptual diagram of a three-dimensional motion recognition information input apparatus according to an embodiment of the present invention, FIG. 2 is a conceptual diagram illustrating the integrated management unit of FIG. 1 in more detail, Dimensional motion recognition information input method according to an embodiment of the present invention, FIG. 4 is a diagram for explaining that a change of a user's posture is not recognized as an instruction, 6 is a diagram illustrating an example of a gesture judgment algorithm of the method for inputting 3D motion recognition information according to an embodiment of the present invention. Dimensional motion recognition information input method according to an embodiment of the present invention. FIG. 8 is a diagram illustrating a method of inputting a three-dimensional motion recognition information according to an embodiment of the present invention. Gourd is an exemplary view.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치는 손 또는 손가락에 관성센서가 포함된 입력장치를 휴대하여 공간상에서의 움직임을 인식하는 3차원 동작인식 정보입력 장치에 있어서, 움직임입력부(100) 및 통합관리부(200)를 포함하며, 상기 통합관리부(200)는 상기 센서부(110)로부터 센싱된 정보를 근거로, 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드를 판단하고, 해당 모드에서 규정된 제어명령을 외부기기로 전송하는 것을 특징으로 한다.
1, a three-dimensional motion recognition information input device according to an embodiment of the present invention includes a three-dimensional motion recognition information recognition unit 3 for recognizing motion in a space by carrying an input device including an inertial sensor on a hand or a finger, The input device includes a motion input unit 100 and an integrated management unit 200. The integrated management unit 200 controls the gesture mode, the mouse mode, the blank mode, and the motion mode based on the information sensed by the sensor unit 110, A mode selected in the handwriting mode is determined, and a control command defined in the mode is transmitted to the external device.

움직임입력부(100)는 센서부(110), 무선통신부(120) 및 전원부(130)를 포함한다.The motion input unit 100 includes a sensor unit 110, a wireless communication unit 120, and a power source unit 130.

센서부(110)는 3축 가속도 센서와 3축 자이로 센서, 3축 지자기 센서가 포함된 IMU(Inertial Measurement Unit, 관성 측정 장치) 센서 모듈로 구성된다.The sensor unit 110 includes an IMU (Inertial Measurement Unit) sensor module including a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor.

다음으로, 각각의 센서에 대해 더욱 상세하게 설명하도록 한다.Next, each sensor will be described in more detail.

가속도 센서는 사용자의 손가락 움직임으로부터 발생한 가속도를 감지하고 무선 네트워크를 통해 통합관리부로 전달한다. 통합 관리부에서는 가속도 데이터를 적분하여 속도를 얻고 다시 이 값을 적분하여 센서가 움직인 거리 정보를 얻는다.The acceleration sensor senses the acceleration caused by the movement of the user's finger and transmits it to the integrated management unit through the wireless network. The integrated management unit integrates the acceleration data to obtain the velocity, and integrates this value again to obtain distance information of the sensor.

자이로 센서는 사용자의 손가락 움직임으로 인해 발생한 어떤 축을 중심으로 회전한 각속도를 감지하여 무선 네트워크를 통해 통합관리부로 전달한다. 통합 관리부에서는 각속도 데이터를 적분하여 센서의 3축에 대한 회전 각 정보를 얻는다.The gyro sensor senses the angular velocity that is rotated about an axis generated by the movement of the user's finger and transmits the detected angular velocity to the integrated management unit through the wireless network. The integrated management unit integrates the angular velocity data and obtains rotation angle information about the three axes of the sensor.

지자기 센서는 지구의 자기장을 측정할 수 있다.The geomagnetic sensor can measure the earth's magnetic field.

IMU(Inertial Measurement Unit, 관성 측정 장치) 센서 모듈은 가속도, 자이로 및 지자기 센서의 값을 이용하여 센서가 향하는 방향을 측정할 수 있다 즉, 방향 정보를 출력할 수 있고 이는 yaw, roll, pitch로 이루어져 있다. yaw는 중력방향에 평행한 축을 기준으로 나침반이 가리키는 방향으로부터 센서가 회전한 각도, pitch는 지면에 평행한 평면에 대하여 센서의 y축을 기준으로 회전한 각도, roll은 지면에 평행한 평면에 대하여 센서의 x축을 기준으로 회전한 각도를 의미한다. The IMU (Inertial Measurement Unit) sensor module can measure the direction of the sensor using acceleration, gyro and geomagnetic sensor values. That is, it can output direction information, which consists of yaw, roll and pitch have. yaw is the angle of rotation of the sensor from the direction indicated by the compass with respect to the axis parallel to the direction of gravity, pitch is the angle of rotation about the y axis of the sensor with respect to the plane parallel to the ground, And the angle of rotation about the x-axis.

무선통신부(120)는 외부기기와의 무선 네트워크 통신을 한다.The wireless communication unit 120 performs wireless network communication with an external device.

즉, 상기 무선통신부(120)는 무선통신을 이용하여, 상기 센서부(110)로부터 센싱된 정보를 외부기기로 전송한다.That is, the wireless communication unit 120 transmits information sensed by the sensor unit 110 to an external device using wireless communication.

여기서, 상기 외부기기는 컴퓨터, 태블릿, 노트북, 스마트기기 등 키보드, 마우스, 터치패널, 터치스크린 등을 입력수단으로 하는 기기들이 적용될 수 있다.Here, the external device may be a device such as a computer, a tablet, a notebook, a smart device, or the like using a keyboard, a mouse, a touch panel, or a touch screen as input means.

다시 말해, 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치는 사용자의 손가락에 부착하거나 손에 휴대하여 스마트 기기를 원격 제어한다.In other words, the three-dimensional motion recognition information input device according to an embodiment of the present invention remotely controls the smart device by attaching it to a user's finger or carrying it in a hand.

상기 센서부(110) 및 무선통신부(120)에 전원을 공급한다.
And supplies power to the sensor unit 110 and the wireless communication unit 120.

통합관리부(200)는 상기 무선통신부(120)로부터 무선 네트워크를 통해 전달받은 신호를 분석하고 외부기기를 제어한다. 이때, 통합관리부(200) 역시 무선통신이 가능한 무선통신모듈을 포함하는 것이 바람직하다.The integrated management unit 200 analyzes the signal received from the wireless communication unit 120 through the wireless network and controls the external device. At this time, the integrated management unit 200 may also include a wireless communication module capable of wireless communication.

즉, 통합 관리부는 무선 네트워크를 통해 전달받은 센서의 데이터를 통해 사용자의 손가락 움직임을 분석하고, 마우스 모드, 제스처 모드, 블랭크 모드, 필기 모드 중 해당하는 모드를 판단하여 각 모드에서 규정된 제어명령을 외부기기로 전달한다.
That is, the integrated management unit analyzes the finger movement of the user through the sensor data transmitted through the wireless network, determines the corresponding mode among the mouse mode, the gesture mode, the blank mode, and the handwriting mode, To the external device.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치의 상기 통합관리부(200)는 가상평면관리부(210), 동작인식부(220) 및 명령처리부(230)를 포함할 수 있다.2, the integrated management unit 200 of the three-dimensional motion recognition information input device according to an embodiment of the present invention includes a virtual plane management unit 210, an operation recognition unit 220, and a command processing unit 230, . ≪ / RTI >

가상평면관리부(210)는 외부기기와 연결 시 캘리브레이션에 의해 가상평면을 생성하고, 상기 움직임입력부(100)의 이동에 따라 상기 가상평면을 이동시킨다.The virtual plane management unit 210 creates a virtual plane by calibration when connected to an external device, and moves the virtual plane according to the movement of the motion input unit 100.

사용자가 필기하고 있는 가상평면과 축에 대한 정보는 가상평면관리부(210)에서 관리한다. 가상평면관리부(210)는 최근의 가속도 센서와 자이로 센서로부터 얻은 연속된 최근의 데이터를 저장하며, 이를 이용하여 주기적으로 가상 평면의 축 정보를 갱신한다. 이렇게 생성된 축 정보는 각 모드에서 센서의 움직임이 발생할 때 주기적으로 업데이트 되고, 처음 무선 네트워크로 스마트 기기와 연동되었을 때에 캘리브레이션을 통해 초기화 된다.The virtual plane management unit 210 manages information about virtual planes and axes that the user is writing. The virtual plane management unit 210 stores contiguous recent data obtained from the recent acceleration sensor and the gyro sensor, and periodically updates the axis information of the virtual plane using the latest data. The generated axis information is periodically updated when sensor movement occurs in each mode and is initialized through calibration when it is linked with the smart device as a wireless network for the first time.

동작인식부(220)는 상기 움직임입력부(100)로부터 움직임이 감지되면, 미리 설정된 민감도 정보 및 미리 설정된 동작 정보를 근거로 유효 움직임을 판단한다.When motion is detected from the motion input unit 100, the motion recognition unit 220 determines valid motion based on predetermined sensitivity information and predetermined motion information.

즉, 움직임입력부(100)를 통해서 받은 정보를 동작인식부(220)로 전달하여 동작인식을 수행한다.That is, the information received through the motion input unit 100 is transmitted to the motion recognition unit 220 to perform motion recognition.

또한, 제스처 인식을 위한 축은 가상평면관리부(210)에 저장되어 있는 축을 기준으로 할 수 있다.In addition, the axis for gesture recognition may be based on an axis stored in the virtual plane management unit 210.

미리 설정된 동작 정보의 예를 들면, 미리 설정된 동작 정보는 어떤 시작점에서 동작을 수행한 뒤 다시 시작점으로 되돌아오는 형태의 동작으로 이루어질 수 있고, 시작점으로 되돌아왔을 때 하나의 동작을 마친 것으로 해석될 수 있다. 이는 명령 이외의 동작을 하는데 있어서 자연스러움을 주고, 명령을 하기 위한 동작을 걸러내기 위함이다.For example, the predetermined operation information may be an operation of returning to a starting point after performing an operation at a certain starting point, and may be interpreted as a completion of an operation when the apparatus returns to the starting point . This is natural in the operation other than the command, and it is for filtering out the operation for commanding.

또, 미리 설정된 동작 정보는 가상 평면 위에서의 동작 또는 가상 평면에 수직한 동작으로 이루어질 수 있으며, 이 두 가지를 조합한 동작으로 이루어지는 것도 가능하다.The preset operation information may be an operation on a virtual plane or an operation perpendicular to a virtual plane, or a combination of the two operations.

또, 사용자의 손가락 또는 손의 움직임에 의해 발생한 센서의 움직임이 곡선 형태를 그릴 경우 가상 평면 상에서 시계 방향 또는 반시계 방향으로 움직였는지 해석하면 보다 다양한 모션을 제어명령으로 이용할 수 있다. xz 평면상에서 반시계 방향으로 센서의 움직임이 나타나는 경우는 x축의 (-) 방향으로 움직인 것으로 판단하고, xz 평면상의 시계방향으로 센서의 움직임이 나타나는 경우는 x축의 (+) 방향으로 움직인 것으로 판단할 수 있다. 또한 yz 평면상의 반시계 방향으로의 곡선형태의 센서의 움직임이 발생하는 경우 센서가 y축의 (+) 방향으로 이동한 것으로 판단하고, yz 평면상의 시계방향으로의 곡선 이동이 발생하는 경우 y축의 (-) 방향으로 이동한 것으로 판단할 수 있다.
Further, if the movement of the sensor caused by the movement of the user's finger or hand is curved, if it is analyzed whether it is moving clockwise or counterclockwise on the virtual plane, more various motions can be used as a control command. When the sensor moves in the counterclockwise direction on the xz plane, it is determined that the sensor moves in the (-) direction of the x axis. When the sensor moves in the clockwise direction on the xz plane, the sensor moves in the (+) direction of the x axis It can be judged. Also, when the movement of the curved sensor in the counterclockwise direction on the yz plane occurs, it is determined that the sensor has moved in the positive direction of the y axis, and when the movement in the clockwise direction on the yz plane occurs, -) direction.

하나의 제스처를 판단하기 위해서, 동작인식부(220)는 어느 한 방향으로의 유효가속도 이상의 움직임이 발생했을 때 방향을 저장할 수 있다. 이는 각 축의 (-), (+)방향을 포함한 6방향(전,후,좌,우,상,하)과 원을 나타내는 방향을 포함하여 7가지 타입으로 저장하는 것을 가능하게 한다. In order to determine one gesture, the motion recognition unit 220 may store a direction when a motion that exceeds the effective acceleration in one direction occurs. This makes it possible to store in seven types including directions representing six directions (front, back, left, right, top, bottom) and circles including the (-) and (+) directions of each axis.

예를 들어, 동작인식부(220)는 센서의 움직임의 방향이 40도 이상 변할 경우 서로 다른 획으로 보고 각 획에 대해 방향과 시작좌표를 저장할 수 있다. 즉, 현재 진행방향과 다른 축에 평행한 움직임이 감지될 경우 새로운 획으로 판단하는 것이 가능하다. 또한 획 수를 저장하여 획이 늘어날 때 1씩 더할 수 있다. 또한, 가상평면위에서 원 형태의 동작이 감지된 경우 스마트 기기의 홈 버튼을 누른 것과 같은 제어를 수행할 수 있고, 원 형태의 동작이 연달아 감지되면 확대 또는 축소로 해석할 수 있다. 시계방향의 경우 확대, 반시계 방향은 축소로 해석할 수 있다. For example, when the direction of the sensor movement is changed by more than 40 degrees, the motion recognition unit 220 may display different strokes and store the direction and the start coordinates for each stroke. That is, when a motion parallel to an axis different from the current direction of movement is detected, it can be determined as a new stroke. You can save the number of strokes and add one each as the stroke increases. In addition, when the circular motion is detected on the virtual plane, the same control as that of pressing the home button of the smart device can be performed, and if the circular motion is consecutively detected, it can be interpreted as enlargement or reduction. The clockwise direction can be expanded and the counterclockwise direction can be reduced.

명령처리부(230)는 상기 동작인식부(220)에 의해 유효 움직임으로 판단되면, 유효 움직임에 해당되는 명령이 있는지 확인하고, 유효 움직임에 해당되는 명령이 있을 경우, 해당 명령에 따라 상기 외부기기를 제어한다.If it is determined by the motion recognition unit 220 that the motion is valid motion, the command processing unit 230 checks whether there is an instruction corresponding to the valid motion, and if there is an instruction corresponding to the valid motion, .

즉, 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치는 3차원 공간상의 동작 인식을 이용한 착용형/휴대형 정보 입력 시스템으로서, 무선 네트워크를 통해 통합관리부(200)가 움직임입력부(100)로부터 전달받은 신호를 분석하고, 분석된 결과에 따라 통합관리부(200)가 외부기기를 제어할 수 있다.
That is, the three-dimensional motion recognition information input device according to an embodiment of the present invention is a wearable / portable information input system using motion recognition on a three-dimensional space, and the integrated management unit 200 controls the movement input unit 100, And the integrated management unit 200 can control an external device according to the analyzed result.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법은 센서부(110), 무선통신부(120) 및 전원부(130)를 포함하는 움직임입력부(100) 와 가상평면관리부(210), 동작인식부(220) 및 명령처리부(230)를 포함하는 통합관리부(200)를 포함하며, 손 또는 손가락에 움직임입력부(100)를 휴대하여 공간상에서의 움직임을 인식하는 3차원 동작인식 정보입력 방법에 있어서, 캘리브레이션 단계(S10), 유효움직임판단 단계(S20), 모드선택명령판단 단계(S30) 및 명령수행 단계(S40)를 포함 한다.
3, the 3D motion recognition information input method according to an embodiment of the present invention includes a motion input unit 100 including a sensor unit 110, a wireless communication unit 120, and a power source unit 130, And an integrated management unit 200 including a plane management unit 210, an operation recognition unit 220 and an instruction processing unit 230. The integrated management unit 200 receives a motion input unit 100, Dimensional motion recognition information input method includes a calibration step (S10), an effective motion determination step (S20), a mode selection command determination step (S30), and an instruction execution step (S40).

캘리브레이션 단계(S10)는 상기 통합관리부(200)에 의해, 외부기기와 연결 시 또는 미리 결정된 캘리명령이 입력되면, 민감도(움직임입력부(100)의 움직임과 외부기기에서의 움직임의 비율) 정보를 외부기기에 맞추어 조정하고, 가상평면을 생성하며, 가상 평면의 x, y, z축을 설정한다.In the calibration step S10, when the integrated management unit 200 is connected to an external device or when a predetermined callee command is input, the sensitivity information (the ratio of the motion of the motion input unit 100 to the motion of the external device) Adjust to the instrument, create a virtual plane, and set the x, y, and z axes of the virtual plane.

본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치는 외부기기와 연동 시 캘리브레이션(Calibration)을 수행한다. 캘리브레이션은 센서가 움직일 공간에 대하여 지면의 축에 대한 데이터를 이용해 가상평면의 x, y, z축을 설정하여 센서의 움직임을 추적한다. 이렇게 설정된 축은 사용자가 3차원 공간에 임의로 가정한 가상 필기 평면을 인식하는데 사용된다. 또한, 설정된 축에 대해서 센서의 움직임이 측정될 때, 유효한 움직임(동작, 제스처)인지 판단하기 위한 민감도 설정 단계를 거칠 수 있다. 이는, 사용자에 따라 하나의 제스처를 그리는 크기(scale)가 다르기 때문에. 센서의 움직임에 따라 제스처와 비제스처를 구분하기 위해서 민감도를 설정하는 것이 바람직하다. 이는 컴퓨터에서의 마우스 민감도 조절과 같은 역할을 한다. 예를 들어, 가상평면에 평행한 제스처의 경우 캘리브레이션에서 설정한 화면크기의 1/3이상의 움직임에 대해서만 제스처로 인식하게끔 민감도 설정을 할 수 있다.The three-dimensional motion recognition information input device according to an embodiment of the present invention performs calibration when interworking with an external device. Calibration tracks the movement of the sensor by setting the x, y, and z axes of the virtual plane using data about the axis of the ground for the space the sensor is to move. The axis thus set is used to recognize a virtual writing plane arbitrarily assumed by the user in the three-dimensional space. Also, when the motion of the sensor is measured with respect to the set axis, it may be subjected to a sensitivity setting step for determining whether it is a valid motion (motion, gesture). This is because the size of a single gesture is different depending on the user. It is desirable to set the sensitivity to distinguish the gesture from the non-gesture depending on the movement of the sensor. It acts as a mouse sensitivity control on the computer. For example, in the case of a gesture parallel to the virtual plane, the sensitivity can be set so that the gesture recognizes only a movement of 1/3 or more of the screen size set in the calibration.

캘리브레이션을 반드시 해줄 필요 없이 민감도를 기본 값으로 설정해놓고 사용하는 것 역시 가능하다.
It is also possible to set the sensitivity to the default value without having to calibrate.

사용자는 외부기기와 시스템 연동 초기에 'L'자 모양과 같은 움직임을 입력함으로써 캘리브레이션을 수행할 수 있다. 이때,'L'이 그려진 평면을 사용자의 가상 필기 평면(가상평면)으로 인식할 수 있다. 또한,'L'이 그려진 평면을 인식하기 위해서 least square method를 사용할 수 있다. 또, 가속도 데이터를 적분하여 얻은 3차원 공간 좌표를 이용하여 least square method를 사용하면 하나의 가상 필기 평면을 인식할 수 있다. 또한, 'L'자 모양의 시작 축을 x축으로 설정한다면, 인식된 가상 필기 평면 위의 벡터 중에서 x축에 수직인 벡터를 y축으로 설정할 수 있으며, 가상 필기 평면에 수직인 축을 z축으로 설정할 수 있다.The user can perform the calibration by inputting motion such as 'L' shape at the initial stage of interlocking with the external device. At this time, the plane in which 'L' is drawn can be recognized as a virtual writing plane (virtual plane) of the user. In addition, the least square method can be used to recognize the plane on which 'L' is drawn. In addition, one virtual handwriting plane can be recognized by using the least square method using the three-dimensional space coordinates obtained by integrating the acceleration data. In addition, if the starting axis of the letter "L" is set to the x axis, a vector perpendicular to the x axis among the vectors on the recognized virtual writing plane can be set to the y axis, and an axis perpendicular to the virtual writing plane is set to the z axis .

이때, 본 발명의 일 실시예에 따른 상기 3차원 동작인식 정보입력 방법은 외부기기와 연동 시, 제스처 모드로 시작되는 것을 특징으로 할 수 있다. 이는, 외부기기와 연결 시 어떤 모드로 시작될지 모르기 때문에 혼선을 줄이기 위함이고, 더욱이, 직관적인 동작으로 외부기기를 용이하게 컨트롤하기 위함이다. 위에서 외부기기와 연결 시 제스처 모드로 시작되는 것을 예로 들었으나, 본 발명이 이에 한정되는 것은 아니며, 마우스 모드, 블랭크 모드 또는 필기 모드로 시작되는 것 역시 가능하다.
In this case, the 3D motion recognition information input method according to an embodiment of the present invention may be started in a gesture mode when the 3D motion recognition information is interlocked with an external device. This is to reduce crosstalk because it does not know what mode to start when connecting to an external device, and moreover, to easily control an external device with an intuitive operation. The gesture mode is started when the external device is connected to the external device. However, the present invention is not limited thereto, and it is also possible to start the mouse mode, the blank mode, or the handwriting mode.

유효움직임판단 단계(S20)는 상기 통합관리부(200)에 의해, 상기 캘리브레이션 단계(S10)에서 설정된 민감도 정보를 근거로 유효 움직임을 판단한다.In the valid motion determination step S20, the integrated management unit 200 determines valid motion based on the sensitivity information set in the calibration step S10.

유효 움직임을 판단하는 것은 잡음을 걸러내기 위한 것으로, 사소한 움직임을 걸러내기 위한 것이다.
Determining valid motion is to filter out noises and to filter out minor movements.

모드선택명령판단 단계(S30)는 상기 통합관리부(200)에 의해, 상기 유효움직임 판단 단계(S20)에서 유효 움직임으로 판단되면, 미리 결정된 모드선택명령에 해당되는 움직임인지 판단한다.In the mode selection command determination step S30, if the integrated management unit 200 determines that the motion is valid motion in the valid motion determination step S20, it determines whether the motion corresponds to a predetermined mode selection command.

이때, 상기 모드선택명령판단 단계(S30)는 움직임입력부(100)의 중심을 기준으로 가상평면에 수직한 축을 중심으로 소정의 각도로 회전했다가 반대방향으로 일정각도 이상 되돌아오는 동작이 통합관리부(200)에 감지되면 이를 모드선택명령으로 인식하는 것을 특징으로 할 수 있다. At this time, in the mode selection command determination step S30, an operation of rotating at a predetermined angle about an axis perpendicular to the virtual plane with respect to the center of the motion input unit 100, and returning a predetermined angle or more in the opposite direction, 200), it is recognized as a mode selection command.

예를 들어, 센서의 중심을 기준으로 가상평면에 수직한 축을 중심으로 180도 회전했다가 다시 원래대로 되돌아오는 동작이 감지되면 동작 인식부는 모드 전환으로 인식할 수 있다. 이는 원을 그리는 형태와는 달리 센서의 가속도 값은 거의 변하지 않는 상태에서 pitch, roll, yaw의 값만 변하는 것으로 감지할 수 있다.For example, if an operation of rotating 180 degrees around an axis perpendicular to the virtual plane with respect to the center of the sensor and then returning to the original position is detected, the motion recognition unit can recognize the mode change. This can be detected by changing the values of pitch, roll, and yaw only when the acceleration value of the sensor is not changed, unlike the case of drawing a circle.

이는, 로터리스위치(rotary switch)를 작동시는 동작을 형상화 한 것으로, 직관적으로 모드선택과 연관성이 있기 때문이다. 위에서 모드선택명령의 일 예를 들었으나, 본 발명이 이에 한정되는 것은 아니며, 다른 동작을 모드선택명령으로 지정하여 사용하는 것 역시 가능하다.This is because it is the operation of operating a rotary switch, which is intuitively related to mode selection. Although an example of the mode selection command has been described above, the present invention is not limited thereto, and it is also possible to designate another operation as a mode selection command.

즉, 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법에서, 사용자는 마우스 모드, 필기 모드, 제스처 모드, 블랭크 모드 중 어느 하나의 모드로 모드를 전환하기 위해, 별도의 제스처를 통해 모드를 변경할 수 있다.
That is, in the method for inputting three-dimensional motion recognition information according to an embodiment of the present invention, a user can select a mode, such as a mouse mode, a handwriting mode, a gesture mode, or a blank mode, Can be changed.

명령수행 단계(S40)는 상기 통합관리부(200)에 의해, 상기 모드선택명령판단 단계(S30)에서 모드선택명령에 해당되는 움직임으로 판단되면, 상기 미리 결정된 모드선택명령에 따라 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드가 결정되고, 모드선택명령에 해당되는 움직임이 아니라고 판단되면, 미리 설정된 동작 정보와 비교하여 해당되는 명령에 따라 외부기기를 제어한다.In the command execution step S40, when the integrated management unit 200 determines that the motion corresponding to the mode selection command is determined in the mode selection command determination step S30, the gesture mode, the mouse mode The blank mode, and the handwriting mode is determined. When it is determined that the motion is not the motion corresponding to the mode selection command, the external device is controlled according to the corresponding command by comparing with the preset operation information.

다음으로, 각각의 모드들에 대해 더욱 상세하게 설명하도록 한다.Next, each mode will be described in more detail.

상기 명령수행 단계(S40)는 제스처 모드인 경우, 움직임입력부(100) 동작을 분석하여, 가상 평면 위에서의 동작, 가상 평면에 수직한 동작 및 이 두 가지를 조합한 동작이 감지되면, 미리 저장된 제스처명령에 해당되는 동작인지 확인하고, 확인된 제스처명령에 따라 외부기기를 제어하는 것을 특징으로 하되, 미리 저장된 제스처명령은 시작점에서 동작을 수행한 뒤 다시 시작점 방향으로 일정거리 이상 되돌아오는 형태의 동작인 것을 특징으로 할 수 있다.In the command execution step S40, when the gesture mode is selected, the operation of the motion input unit 100 is analyzed. When an operation on the virtual plane, an operation perpendicular to the virtual plane, and an operation combining the two are detected, And the external device is controlled according to the confirmed gesture command. The gesture command stored in advance may be a gesture command for performing an operation at a starting point and returning a predetermined distance or more in the direction of the starting point again . ≪ / RTI >

예를 들어, 어떤 축에 대해서 이동거리에 대해 다시 이동거리의 2/3 이상 되돌아오는 동작이 감지될 경우 유효한 제스처로 인식하도록 설정할 수 있다. x, y, z축 중 2개 이상의 축의 움직임 정보를 이용하는 제스처의 경우 진행한 모든 축에 대해서 되돌아오는 동작이 감지되어야만 제스처로 인식되도록 하는 것이 바람직하다. 만약 부분적인 축에 대해서만 되돌아오는 동작이 감지된 경우, 이 축에 대한 제스처로만 해석할 수 있다. 부분적인 축에 대해서만 되돌아오는 동작이 감지된 경우, 진행한 방향 직후 되돌아 와야만 유효한 제스처로 해석하는 것이 바람직하다.For example, when an operation of returning more than 2/3 of the moving distance again with respect to the moving distance with respect to an axis is detected, it can be set as a valid gesture. In the case of a gesture using motion information of two or more axes among the x, y, and z axes, it is preferable that the motion is recognized as a gesture only when an operation of returning to all the axes proceeding is detected. If motion is detected only for partial axes, it can only be interpreted as a gesture for this axis. If motion is returned only for a partial axis, it is desirable to interpret it as an effective gesture only after returning in the forward direction.

제스처 모드는 화면 on/off, 음량 조절과 같은 기기의 상태를 제어하거나 스크롤, 슬라이드 넘기기, 확대/축소와 같은 기기의 화면 출력 범위를 제어하기 위해서 사용 가능한 모드로, 센서의 움직임 정보를 해석하여 미리 설정된 동작 정보정보와 비교하여 해당하는 제어 정보(제어명령)로 기기를 제어할 수 있다.Gesture mode is a mode that can be used to control the status of the device such as screen on / off, volume control, or to control the screen output range of the device such as scrolling, slide flipping, zooming, etc., It is possible to control the device with the corresponding control information (control command) in comparison with the set operation information information.

제스처 판단을 위한 가상평면은 지면에 평행하거나 수직하게 잡을 수 있다. 이전에 사용하던 가상평면에 대하여 제스처로 판단된 동작에 대해서는 가상평면을 업데이트 해주지 않는 것이 바람직하다. 그리고 제스처가 아닌 동작에 대해서는 동작이전의 센서의 자세와 동작이후의 센서의 자세를 비교해 가상평면을 변화시켜줄 수 있다. 이 때, 센서의 자세판단에 roll 값(손가락이 가리키는 축에 대한 회전각도)은 사용하지 않는 것이 바람직하다. 즉, 기존의 가상평면의 x축이 지면에 평행하다면 이를 계속 유지하는 것이 바람직하다.
The virtual plane for gesture judgment can be held parallel or perpendicular to the ground. It is preferable not to update the virtual plane for the operation judged as a gesture with respect to the virtual plane used previously. For a non-gesture operation, the virtual plane can be changed by comparing the posture of the sensor before the operation and the posture of the sensor after the operation. At this time, it is preferable not to use the roll value (rotational angle with respect to the axis indicated by the finger) in determining the posture of the sensor. That is, if the x-axis of the existing virtual plane is parallel to the ground, it is desirable to keep it.

예를 들어, 가상평면이 지면에 수직하고 사용자의 정면에 있을 때, 사용자가 왼쪽 방향으로 90도 돌았다고 가정해보면 센서의 움직임이 왕복성을 보이지 않기 때문에 제스처로서 인식하지 않는다. 이 상황을 도 4에 도시하였다. 가상평면의 x,y 축을 벡터로 표현함으로써 가상평면을 표현하고, 파란색 화살표는 이동경로를 나타낸다. 이 때, yaw가 90도만큼 바뀌었으므로 가상평면을 구성하는 벡터를 회전한 각도만큼 rotation시켜준다. 여기서 y축은 (0,0,1)을 유지하고 x축은 (1,0,0)에서 (0,1,0)으로 rotation 되었다. rotation식에 사용하는 행렬은 기존에 사용하던 rotation 행렬과 동일하다.   For example, assuming that the virtual plane is perpendicular to the ground and in front of the user and the user has rotated 90 degrees to the left, the movement of the sensor is not recognized as a gesture because it does not show reciprocity. This situation is shown in Fig. The virtual plane is expressed by expressing the x and y axes of the virtual plane as vectors, and the blue arrows represent the movement path. Since the yaw is changed by 90 degrees, the vector constituting the virtual plane is rotated by the rotated angle. Here, the y axis holds (0,0,1) and the x axis rotates from (1,0,0) to (0,1,0). The matrix used for the rotation equation is the same as the rotation matrix used previously.

여기서, 동작 때마다 가상평면을 업데이트하지 않는 것이 사용자가 방향을 바꾸지 않은 채로 사용할 때가 자주 있기 때문에 바람직하며, 동작 때마다 가상평면을 업데이트하는 것은 비효율적이다. 그리고 가상평면의 변환에 roll값을 제외한 것은 좌우로 화면을 넘기는 제스처의 경우에는 손바닥이 사용자의 옆을 향한 채로 사용해도 불편함이 없기 때문에 항상 사용자의 손바닥이 바닥을 향하지 않을 수 있다. 이 경우 같은 가상평면에 축만 바뀔 수 있기 때문에 센서의 축으로만 가상평면을 만들지 않는 것이 바람직하다.Here, it is desirable to not update the virtual plane every time the operation is performed because the user frequently uses the direction unchanged, and it is inefficient to update the virtual plane every operation. In the case of the gesture of turning the screen to the left and right, the user's palm may not always be directed toward the floor because the user does not have any inconvenience when the palm is facing to the user's side. In this case, it is preferable not to create a virtual plane only on the axis of the sensor because the axis can be changed only in the same virtual plane.

제스처 모드의 동작 알고리즘은 도 5에 도시된 바와 같은 예를 들 수 있다.An operation algorithm of the gesture mode may be an example as shown in Fig.

가상평면 생성 시 손가락 자세에 따라 좌우 방향을 결정할 수 있다. 예를 들어, z축과 중력가속도의 방향이 일치할 경우, +x축 방향을 사용자의 오른쪽으로 판단 할 수 있다. When creating a virtual plane, the left and right direction can be determined according to the finger posture. For example, if the direction of the z-axis matches the direction of the gravitational acceleration, the + x axis direction can be judged as the user's right.

오른손잡이의 경우, 제스처모드에서 좌우 화면 넘기기 제스처에 대한 손가락 자세 가상평면에 대하여 제스처 판단 알고리즘은 도 6에 도시된 바와 같다.In the case of a right-handed gesture, the gesture judgment algorithm is as shown in FIG. 6 for the finger-posture virtual plane for the left and right screen flick gesture in the gesture mode.

이는, 미세한 움직임을 제스처로 판단하지 않기 위해 움직인 거리를 외부기기의 화면에 매칭 시켰을 때의 화면 크기의 일정비율 이상 움직였을 때를 제스처로 인식할 수 있도록 한다. 그리고 가상평면에 대하여 어느 축 방향(ex) +x, -x...)으로 움직였는지 판단하고 그에 대하여 일정시간 이내에 반대 방향으로의 이동(예를 들어, +x축 방향으로 움직임을 시작한 경우, -x축으로의 이동이 발생)이 발생하면 이를 하나의 제스처로서 인식한다.
In order to avoid judging fine movement as a gesture, it is possible to recognize as a gesture when a moving distance exceeds a predetermined ratio of the screen size when matching to the screen of an external device. Then, it is judged in which axis direction (ex) + x, -x ... relative to the virtual plane, and if the movement in the opposite direction is started within a certain time (for example, (movement on the -x axis occurs), it is recognized as one gesture.

상기 명령수행 단계(S40)는 마우스 모드인 경우, 움직임입력부(100) 동작을 분석하여, 가상 평면에 수직인 동작을 인식할 경우 클릭 또는 터치 이벤트를 발생시키고, 가상 평면 위에서의 동작을 인식할 경우 외부기기 화면에 표시된 마우스 커서의 움직임을 제어하는 것을 특징으로 할 수 있다.The command execution step S40 analyzes a motion of the motion input unit 100 in a mouse mode, generates a click or a touch event when recognizing an action perpendicular to a virtual plane, and recognizes an action on a virtual plane And controls the movement of the mouse cursor displayed on the external device screen.

마우스 모드는 외부기기 화면에 표시된 마우스 커서의 움직임을 제어할 수 있고, 손가락 동작을 분석하여 사용자의 터치 동작을 인식했을 때 터치 이벤트를 발생시킬 수 있다. The mouse mode can control the movement of the mouse cursor displayed on the external device screen, and can generate a touch event when the user's touch operation is recognized by analyzing the finger operation.

예를 들어, 센서의 z축 방향의 움직임을 제거한 나머지 움직임에 대하여 주기적으로 구한 에러가 가장 작은 평면에 최근의 3축 움직임 데이터 일정량을 정사영 시키고, 이 값과 설정한 민감도를 비교하여 센서의 움직임에 비례하는 만큼 마우스를 이동을 제어할 수 있다.For example, when the movement of the sensor in the z-axis direction is removed, the latest three-axis motion data amount is set to be orthogonal to the plane having the smallest error periodically obtained for the movement, You can control the movement of the mouse as much as proportionally.

또한, 센서의 움직임에 따라 주기적으로 가상 필기 평면(가상평면)에 대한 정보를 업데이트하고, 이 정보는 가상평면관리부(210)로 전달되어 가상평면관리부(210)가 관리할 수 있다.In addition, information on the virtual writing plane (virtual plane) is periodically updated according to the motion of the sensor, and this information is transmitted to the virtual plane managing unit 210 and can be managed by the virtual plane managing unit 210.

마우스 모드는 센서(움직임입력부(100))가 z축 방향으로 가상평면에 들어가는 방향으로 진행한 후, 다시 가상평면에서 나오는 방향으로 진행하는 동작이 인식될 경우, 터치 이벤트가 발생했다고 해석할 수 있다. 더블클릭 또는 더블터치는 클릭/터치에 해당하는 동작이 연달아 두 번 수행되었을 때 더블클릭으로 해석할 수 있다. 가상 평면의 z축으로 들어가는 동작 수행 후 제자리로 왕복하지 않고 가상 평면위에서의 움직임이 있는 경우 드래그 동작으로 해석한 후, 다시 제자리로 복귀했을 때 터치가 해제되었다고 해석할 수 있다.The mouse mode can be interpreted as a touch event occurring when the sensor (motion input unit 100) proceeds in the direction of entering the virtual plane in the z-axis direction and then proceeds in the direction coming out of the virtual plane again . A double-click or a double-touch can be interpreted as a double-click when the action corresponding to the click / touch is performed twice consecutively. It can be interpreted that the touch is released when the movement on the virtual plane does not return to the place after performing the operation to enter the z-axis of the virtual plane, and then interprets it as a drag operation and then returns to the original position.

마우스 모드는 손가락이 가리키는 방향의 축(센서를 손가락 위에 올렸을 때, 센서의 y축의 방향과 일치)으로 왕복하는 이동(터치 동작 등) 및 왕복하지 않는 이동은 마우스의 이동에 해당되지 않기 때문에 이를 제외시켜주는 것이 바람직하다. 즉, 센서의 y축 가속도 데이터를 제외한 데이터에 주기적으로 least square method를 이용해 가상평면을 구하는 것이 바람직하다. 이 가상평면의 x축의 방향(사용자의 좌우)에 대한 판단은 센서의 축을 기준으로 할 수 있으며, 구한 가상평면에 데이터를 정사영시킴으로써 마우스의 이동을 표현하는 것이 가능하다. The mouse mode is a movement (touch movement, etc.) that reciprocates in the direction of the finger point (when the sensor is placed on the finger, the direction of the y-axis of the sensor) . That is, it is preferable that the virtual plane is periodically obtained by using the least square method on the data excluding the y-axis acceleration data of the sensor. The determination of the direction of the x-axis of the virtual plane (left and right of the user) can be based on the axis of the sensor, and it is possible to express the movement of the mouse by orthogonalizing the data on the obtained virtual plane.

마우스 커서의 이동은 IMU 센서에서 측정된 각도 변화량을 이용해 제어할 수 있다. 다시 말해, 사용자가 센서를 손 또는 손가락에 부착하여 상하, 좌우로 움직일 때 센서 각 축에 대한 각도의 변화량을 측정하고, 이 값과 설정한 민감도를 비교하여 센서의 움직임에 비례하는 만큼 마우스의 이동을 제어할 수 있다.The movement of the mouse cursor can be controlled using the amount of angular change measured by the IMU sensor. In other words, when a user attaches a sensor to a hand or a finger to move the sensor vertically or horizontally, the amount of change of the angle with respect to each axis of the sensor is measured and compared with the sensitivity, Can be controlled.

예를 들어, 센서의 y축이 사용자의 정면을 가리키고 있는 경우 사용자 기준의 좌우 움직임은 yaw, 상하 움직임은 roll 값의 변화로 감지할 수 있다. 기기와 센서가 연동을 시작할 때에 yaw, roll 값을 저장하여 이 값에 해당하는 방향을 사용자의 정면으로 인식하고, 이를 기준으로 이후 발생하는 각도의 변화를 누적하면 센서가 움직인 방향을 인식하여 마우스 커서를 제어할 수 있다.For example, if the y axis of the sensor points to the front of the user, the left and right movement of the user can be detected as yaw, and the up and down movement can be detected as the change of the roll value. The yaw and roll values are stored when the device and the sensor start interlocking, and the direction corresponding to this value is recognized as the front of the user. Accumulating the changes of angles occurring thereafter based on this, You can control the cursor.

각도 변화량이 동일하게 측정된 경우에도 센서의 이동거리는 다른 경우가 존재한다.Even when the angular change amount is measured in the same manner, the movement distance of the sensor is different.

이를 반영하기 위해 측정된 각도의 변화량에 가속도를 적분해 얻은 이동거리를 곱합으로써 이동거리에 대한 가중치를 표현하고, 같은 각도의 움직임일 때에도 이동거리에 따라 마우스 커서의 움직임을 다르게 제어할 수 있다. 또한 각도변화 데이터의 부호가 바뀌는 지점을 방향전환지점으로 판단하여 이 지점에서의 가속도를 적분하여 얻는 속도 데이터를 0으로 만들어주고, 이를 이용하면 가속도 적분 값에 대한 누적 에러를 줄여 측정한 이동거리에 대한 오차를 줄일 수 있다.
In order to reflect this, the weight of the moving distance is expressed by multiplying the measured distance by the movement distance obtained by integrating the acceleration, and the movement of the mouse cursor can be controlled differently according to the moving distance even when the movement is the same. Also, the point where the sign of the angle change data changes is determined as the direction change point, and the velocity data obtained by integrating the acceleration at this point is made to be zero. By using this, the cumulative error for the acceleration integral value is reduced, The error can be reduced.

상기 명령수행 단계(S40)는 블랭크 모드인 경우, 모드선택명령만 수행하는 것을 특징으로 할 수 있다.In the command execution step S40, in the case of the blank mode, only the mode selection command is executed.

블랭크 모드는 화면을 켜놓은 상태에서 제스처, 필기, 마우스 커서의 이동 등을 인식하지 않도록 하는 모드로, 모드 전환을 제외한 다른 움직임에 대한 움직임은 해석되지 않는다.Blank mode is a mode that does not recognize gestures, handwriting, mouse cursor movements, etc. while the screen is on, and motion for other motions is not interpreted except mode switching.

즉, 모드 전환에 필요한 모드선택명령에 해당되는 움직임(자이로 센서 값의 변화)이 감지 되었을 때 모드선택명령만 수행한다.That is, when a motion (change in the gyro sensor value) corresponding to a mode selection command necessary for mode switching is detected, only the mode selection command is executed.

블랭크 모드는 모드변환 동작 후의 센서의 축에 맞춰 새로운 가상평면 생성할 수 있다. 모드변환 동작 후에 손바닥이 아래를 향하게 되는 것이 일반적이며, 이 때 손가락이 향하는 방향을 사용자의 정면으로 생각하고 가상평면을 생성하는 것이 바람직하다. 가상평면 생성의 원리는 아래와 같다.The blank mode can create a new virtual plane in line with the axis of the sensor after the mode conversion operation. It is common that the palm is faced downward after the mode conversion operation, and it is preferable to consider the direction of the finger to be the front of the user and create the virtual plane. The principle of virtual plane generation is as follows.

정지 상태에서 움직임이 시작될 때, 손가락이 향하는 방향을 사용자의 정면으로 생각하고 가상평면을 생성할 수 있다. 생성할 가상평면의 축은 지면에 평행한 축과 수직한 축으로 만들어진다. 예를 들어, 새로운 가상평면을 만들 때, 가상평면의 y축은 중력가속도의 방향과 일치시켜준다. 그리고 가상평면의 좌우(+x, -x)방향은 센서의 축을 기준으로 손가락이 향하는 축(센서의 y축)과 중력가속도 방향과 일치하는 축을 제외한 축에 의해 결정될 수 있다. 예를 들어, 중력가속도의 방향과 센서의 z축이 일치한다면 센서의 x축이 가상평면의 좌우를 결정해준다.
When the movement starts in the stopped state, the direction in which the finger is pointing can be regarded as the front of the user, and a virtual plane can be created. The axis of the virtual plane to be created is made up of an axis perpendicular to the plane of the plane. For example, when creating a new virtual plane, the y-axis of the virtual plane matches the direction of the gravitational acceleration. The left and right (+ x, -x) directions of the virtual plane can be determined by the axis (y-axis of the sensor) and the axis excluding the axis corresponding to the gravitational acceleration direction with respect to the axis of the sensor. For example, if the direction of gravitational acceleration matches the z-axis of the sensor, the x-axis of the sensor determines the left and right of the virtual plane.

상기 명령수행 단계(S40)는 필기 모드인 경우, 3차원 공간에서의 타이핑 또는 필기를 인식하여 대응하는 글자 또는 필기가 입력되는 것을 특징으로 할 수 있다.In the command execution step S40, when the handwriting mode is selected, the corresponding character or handwriting is input by recognizing the typing or handwriting in the three-dimensional space.

필기모드는 외부기기 화면에서 키보드 또는 터치식 키보드 등을 통해 입력할 수 있는 입력창에 사용자가 마우스 커서를 이용하여 클릭하거나, 모드선택명령을 통해 필기모드로 전환될 수 있다. The handwriting mode can be switched to the handwriting mode through a mode selection command by the user clicking on the input window through the keyboard or the touch keyboard or the like using the mouse cursor on the external device screen.

필기모드는 사용자의 3차원 공간에서의 필기를 인식하여, 이에 대응하는 글자를 인식한다. 이는 필기인식부를 통해 이루어질 수 있다.The handwriting mode recognizes the handwriting in the user's three-dimensional space and recognizes the corresponding character. This can be done through a handwriting recognition unit.

필기모드는 한글, 영문 소문자, 영문 대문자 및 '!', '?', '^', '.' 등의 특수문자 등을 입력할 수 있고, 공백과 줄 바꿈 등도 입력이 가능하다.The handwriting mode is Korean, English lower case, English upper case and '!', '?', '^', '.' You can enter special characters such as, and space, and line breaks can also be input.

예를 들어, 필기 모드에서, 문자와 문자의 구분은 사용자가 한 문자를 필기한 후 일정 시간동안 정지해 있음으로써 인식하도록 할 수 있다. 즉, 한 문자를 필기한 후 일정 초 이상 가속도 데이터가 측정되지 않을 때 하나의 문자에 대한 입력이 끝난 것으로 해석할 수 있다.For example, in the handwriting mode, characters and characters can be distinguished by recognizing that the user has stopped writing for a certain period of time after writing one character. That is, when the acceleration data is not measured for a predetermined time or more after writing one character, it can be interpreted that input for one character is completed.

필기 모드에서, 가상 평면 관리부는 한 문자마다 가상평면 정보를 업데이트 할 수 있다. 하나의 문자에 대한 입력이 완료되었을 때 least square method를 통해 가상평면을 인식할 수 있다. 이 가상평면의 x축의 방향(사용자의 좌우)에 대한 판단은 센서의 축을 기준으로 할 수 있으며, 그 가상평면에 정사영시킨 데이터에 대하여 문자를 판별할 수 있다.In the handwriting mode, the virtual plane management unit can update the virtual plane information for each character. When the input for one character is completed, the virtual plane can be recognized through the least square method. The determination of the direction of the x-axis of the virtual plane (left and right of the user) can be based on the axis of the sensor, and the character can be discriminated against the orthographic data on the virtual plane.

필기 모드는 가상 평면위에 인식된 사용자의 필기 데이터를 정사영시켜 문자를 인식할 수 있다. 공백과 줄 바꿈은 제스처 모드에서 사용하는 동작과 동일하다.The handwriting mode can recognize a character by orthogonalizing the handwriting data of the user recognized on the virtual plane. Spaces and line breaks are the same as those used in gesture mode.

필기 모드에서 사용자는 필기가 끝난 경우, 모드선택명령을 통해 입력창을 빠져나갈 수 있다.
In the handwriting mode, the user can exit the input window through the mode selection command when handwriting is completed.

다음으로, 각각의 센서에 이동을 추적하는 방법의 일 실시예에 대해 더욱 상세하게 설명하도록 한다.Next, one embodiment of a method of tracking movement to each sensor will be described in more detail.

yaw, roll, pitch가 모두 0인 위치에서 센서의 축을 지면에 대한 축으로 인식한다. 그리고 이는 센서의 움직임에 상관없이 변하지 않는 축이다. When the yaw, roll, and pitch are all 0, the axis of the sensor is recognized as the axis with respect to the ground. And this is an axis that does not change regardless of the movement of the sensor.

가속도 센서에서 측정한 가속도 데이터는 중력 가속도를 포함하고 있는 값으로, 시스템은 노이즈 및 중력 가속도를 제거하는 신호 전처리 단계를 갖는다. 중력 가속도를 제거한 가속도 데이터를 얻는 식은 다음과 같다.The acceleration data measured by the acceleration sensor is a value including gravitational acceleration, and the system has a signal preprocessing step of removing noise and gravitational acceleration. The equation for obtaining acceleration data by removing gravitational acceleration is as follows.

(센서 기준의) x축 가속도 = (중력 가속도를 포함한 센서 기준의) x축 가속도 - 중력 가속도 * sin(pitch)X-axis acceleration = (based on sensor with gravity acceleration) x-axis acceleration-gravity acceleration * sin (pitch)

(센서 기준의) y축 가속도 = (중력 가속도를 포함한 센서 기준의) y축 가속도 - 중력 가속도 * sin(roll)Y axis Acceleration = y Axis Acceleration - Gravity Acceleration (based on sensor with gravity acceleration) sin (roll)

(센서 기준의) z축 가속도 = (중력 가속도를 포함한 센서 기준의) z축 가속도 - 중력 가속도 * cos(pitch) * cos(roll)Z axis Acceleration = (based on the sensor with gravity acceleration) z axis acceleration - gravity acceleration * cos (pitch) * cos (roll)

센서 기준의 축으로 가속도를 측정해 센서의 이동을 추적하는 것은 센서가 움직임에 따라 축이 계속해서 바뀌기 때문에 센서의 움직임에 따라 바뀌지 않는 축이 필요하다. 따라서 yaw, roll, pitch가 모두 0인 위치에서 센서의 축을 사용한다. 이 축은 센서의 움직임에 상관없이 변하지 않는 축이다. 센서의 축을 yaw, roll, pitch가 0이 되도록 rotation시켜준다.Tracking the movement of the sensor by measuring the acceleration on the axis of the sensor reference requires an axis that does not change with the movement of the sensor because the axis continuously changes as the sensor moves. Therefore, the axis of the sensor is used at positions where yaw, roll, and pitch are both zero. This axis is an axis that does not change regardless of the motion of the sensor. Rotate the axis of the sensor so that yaw, roll, and pitch are zero.

(지면에 대한) x축 가속도 = cos(-yaw)*cos(-pitch)*(센서 기준의) x축 가속도 + ( cos(-yaw)*sin(-pitch)*sin(-roll) - sin(-yaw)*cos(-roll) )*(센서 기준의) y축 가속도 + ( cos(-yaw)*sin(-pitch)*cos(-roll) + sin(-yaw)*sin(-roll) )*(센서 기준의) z축 가속도 (Acceleration) = cos (-yaw) * cos (-pitch) * x-axis acceleration + (cos (-yaw) * sin (-pitch) (-yaw) * cos (-roll) * y-axis acceleration (based on the sensor) + (cos (-yaw) * sin (-pitch) )) * Z-axis acceleration (based on sensor)

(지면에 대한) y축 가속도 = sin(-yaw)*cos(-pitch)*(센서 기준의) x축 가속도 + ( sin(-yaw)*sin(-pitch)*sin(-roll) + cos(-yaw)*cos(-roll) )*(센서 기준의) y축 가속도 + ( sin(-yaw)*sin(-pitch)*cos(-roll) - cos(-yaw)*sin(-roll) )*(센서 기준의) z축 가속도Y axis acceleration = sin (-yaw) * cos (pitch) * x axis acceleration + sin (-yaw) * sin (-pitch) * sin (-roll) + cos (-yaw) * cos (-roll) * y axis acceleration + sin (-yaw * sin (-pitch) * cos (-roll) )) * Z-axis acceleration (based on sensor)

(지면에 대한) z축 가속도 = -sin(-pitch)*(센서 기준의) x축 가속도 + cos(-pitch)*sin(-roll) *(센서 기준의) y축 가속도 + cos(-pitch)*cos(-roll)*(센서 기준의) z축 가속도 (Relative to the ground) z-axis acceleration = -sin (-pitch) * x-axis acceleration + cos (-pitch) * sin (-roll) * y- ) * cos (-roll) * z-axis acceleration

가상평면에 대한 축은 지면에 대한 축을 기준으로 구한 데이터에 대하여 벡터 형식으로 표현한다.
The axis for the virtual plane is expressed in vector format with respect to the data obtained based on the axis with respect to the ground.

[실시예][Example]

본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 장치 및 방법은 움직임입력부(100)의 3차원 공간에서 사전에 규정된 동작(모드선택명령, 해당 모드에서 규정된 제어명령)으로 센서를 움직임으로써 외부기기를 제어할 수 있다. 모드선택명령 또는 해당 모드에서 규정된 제어명령은 설정된 가상 평면 위에서 센서의 움직임을 표현하는 2차원 동작과 이 평면에 수직한 동작으로 구분할 수 있다. 일반적으로 사용자는 마우스 또는 타블렛 PC로 입력하는 것과 같은 2차원에서의 움직임에 익숙하기 때문에 대부분의 제스처는 가상평면 위에서 수행할 수 있도록 하고 클릭과 같은 명령어는 수직한 방향의 움직임으로 정의함으로써 직관적으로 기기를 제어할 수 있도록 제스처를 명령어에 대응시킬 수 있다.The apparatus and method for inputting three-dimensional motion recognition information according to an embodiment of the present invention can move a sensor in a three-dimensional space of a motion input unit 100 in a predetermined operation (a mode selection command, a control command defined in a corresponding mode) So that the external device can be controlled. The mode selection command or the control command defined in the corresponding mode can be classified into a two-dimensional motion expressing the movement of the sensor on the set virtual plane and an operation perpendicular to the plane. In general, users are familiar with two-dimensional movement, such as typing with a mouse or tablet PC, so that most gestures can be performed on virtual planes and commands such as clicks can be defined as vertical movements, The gesture can be made to correspond to the command.

도 7은 모드에 따른 정보 입력 방법 알고리즘을 도시한 것이다.7 shows an algorithm for inputting information according to modes.

모드선택명령 또는 해당 모드에서 규정된 제어명령을 인식하기 위해서는 먼저 센서의 움직임 데이터가 사용자가 제스처를 수행하여 발생한 것인지, 혹은 사용자의 이동이나 팔, 손의 움직임으로 생긴 비제스처 움직임인지를 판단해야 한다. 이는 명령처리부(230)에 포함된 유효움직임인식부(미도시)에서 기기 연동 초기에 설정한 민감도 정보를 통해 유효 움직임인지를 판단할 수 있다. 이를 위해, 유효움직임인식부(미도시)의 유효움직임으로 판단하는 가속도의 기준 값을 설정할 수 있다. 센서가 움직여 가속도 데이터가 발생했을 때 3축의 가속도의 절대값 중 유효움직임 기준 값보다 큰 가속도가 관측되었을 때 사용자가 모드선택명령 또는 해당 모드에서 규정된 제어명령을 취한 것으로 인식하고 제스처 인식을 수행한다.In order to recognize the mode selection command or the control command defined in the corresponding mode, it is first necessary to determine whether the motion data of the sensor is generated by a user performing a gesture or a non-gesture movement caused by movement of the user or arm or hand . It is possible to determine whether the motion is valid through the sensitivity information set at the beginning of the device interlock in the valid motion recognition unit (not shown) included in the command processing unit 230. [ For this purpose, it is possible to set a reference value of the acceleration which is determined as the effective motion of the valid motion recognition unit (not shown). When the acceleration is greater than the valid motion reference value among the absolute values of the acceleration values of the three axes when the acceleration data is generated by moving the sensor, the user recognizes that the control command specified in the mode selection command or the corresponding mode is taken and performs gesture recognition .

유효움직임판단 단계(S20)에서 유효한 제스처로 인식 된 경우, 센서 가속도를 적분하여 추출한 센서 움직임 데이터가 규정된 제스처의 움직임 방향과 일치하는 목록이 있는지 확인한다. 사전에 정의된 제스처의 종류는 도 8과 같이 정의할 수 있다. 도 8의 화살표(실선)는 xy평면에서의 움직임을 나타내며, 두꺼운 화살표는 xy 평면에 수직 방향으로의 움직임을 나타내고, 원 안의 화살표는 센서의 중심을 축으로 회전하는 움직임(가속도 센서의 데이터는 0에 가깝고 자이로 센서의 값이 존재하는 경우)을 나타내며, 화살표 하나로 된 원은 xy 평면에서의 회전 움직임을 나타내고, 화살표 두 개로 된 원은 연속적 회전 움직임을 나타낸다. 이는, 제스처와 비제스처 사이의 구분이 쉽게 가능하고, 연속된 제스처를 입력할 때 발생하는 제스처 분리 문제를 해결하기 위해 제스처의 처음과 끝의 위치가 일치하는 동작을 정의하기 위함이다. 또한, 되돌아 올 때 발생하는 가속도 패턴은 단방향으로 진행할 때보다 검출하기 용이하기 때문에 비제스처 동작의 오경보(false alarm) 확률을 줄일 수 있다.If it is recognized as an effective gesture in the valid motion determination step S20, the sensor acceleration is integrated to check whether the extracted sensor movement data matches a movement direction of the prescribed gesture. The kind of the predefined gesture can be defined as shown in FIG. 8 indicates movement in the xy plane, a thick arrow indicates movement in a direction perpendicular to the xy plane, and arrows in the circle indicate motions rotating about the center of the sensor (the acceleration sensor data is 0 And the gyro sensor value is present), a circle with one arrow indicates a rotational movement in the xy plane, and a circle with two arrows indicates a continuous rotational movement. This is to define an operation in which the distinction between the gesture and the non-gesture is easily possible and the positions of the beginning and end of the gesture coincide with each other in order to solve the problem of gesture separation occurring when inputting successive gestures. In addition, since the acceleration pattern generated upon returning is easier to detect than when it proceeds in one direction, the false alarm probability of the non-gesture operation can be reduced.

동작인식을 통해 모션(제스처)와 명령어를 대응시키는 것은 사용자에 따라서 다르게 지정할 수 있지만, 스마트 기기, 웨어러블 장치 또는 PC에서 사용하는 주요 명령어에 지정하여 사용할 수 있다. 주요 명령어는 좌(이전 슬라이드), 우(다음 슬라이드), 상(음량 업), 하(음량 다운), 클릭, 더블 클릭, 확대/축소, 홈 버튼, 이전 버튼, 메뉴 버튼, 화면 on/off 등이다. The correspondence between the motion (gesture) and the instruction through the motion recognition can be specified differently according to the user, but can be designated and used in a main command used in a smart device, a wearable device, or a PC. Major commands are Left (Previous slide), Right (Next slide), Up (Volume up), Down (Volume down), Click, Double click, Zoom, Home button, Previous button, Menu button, to be.

클릭에 해당하는 동작의 경우 센서를 손가락에 부착하고 있는 상태에서 마우스를 클릭하는 동작과 유사한 z축으로의 움직임을 통해 구현할 수 있다. 더블클릭은 클릭 제스처를 연달아 수행함으로써 구현할 수 있다. 클릭과 반대되는 동작 즉, 사용자의 몸 쪽으로 먼저 진행하였다가 다시 앞쪽으로 센서를 움직이는 동작은 스마트 기기의 '이전' 버튼과 대응하여 사용할 수 있다. 이는 마우스 이동모드에서도 유효한 제스처이다. 또한 상하 스크롤 명령과 음량 up/down을 구분하기 위해 상대적으로 적게 사용되는 음량 up/down 기능은 z축 움직임을 추가하여 사용할 수 있다. 홈 버튼은 센서가 가상평면에 들어가는 방향으로 진행 후 원을 그렸을 때 인식되고, 확대 또는 축소는 가상평면 위에서 시계 방향 또는 반시계 방향으로 원을 그릴 때 인식하도록 설정할 수 있다.
In the case of an action corresponding to a click, it can be implemented through movement in the z-axis similar to the operation of clicking the mouse with the sensor attached to the finger. Double clicking can be achieved by performing a click gesture sequentially. The operation that is opposite to the click operation, that is, the operation of moving the sensor toward the user's body first and then moving the sensor backward, can be used in correspondence with the 'previous' button of the smart device. This is a valid gesture even in mouse movement mode. In addition, the volume up / down function, which is relatively less used to distinguish between up and down scroll commands and volume up / down, can be used by adding z-axis movement. The home button is recognized when the sensor moves in a direction toward the virtual plane, and when the circle is drawn, and the enlargement or reduction can be set to recognize when drawing a circle clockwise or counterclockwise on the virtual plane.

본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법은 움직임입력부(100)의 이동에 따라 가상평면이 이동되는 것을 특징으로 할 수 있다.The 3D motion recognition information input method according to an embodiment of the present invention is characterized in that a virtual plane is moved according to movement of the motion input unit 100. [

즉, 사용자의 자세가 바뀌어 움직임입력부(100)의 중심 축이 바뀌면, 그에 따라 가상평면도 갱신 시킬 수 있다.
That is, when the posture of the user changes and the center axis of the motion input unit 100 changes, the virtual plane can be updated accordingly.

이상에서 본 발명의 일 실시예에 따른 3차원 동작인식 정보입력 방법에 대하여 설명하였지만, 상술한 3차원 동작인식 정보입력 방법은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써, 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수도 있음을 당업자들이 쉽게 이해할 수 있을 것이다. 다시 말해, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능한 기록매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터 판독 가능한 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, USB 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 컴퓨터 판독 가능한 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
Although the 3D motion recognition information input method according to the embodiment of the present invention has been described above, the 3D motion recognition information input method described above can be implemented by a tangible program of instructions for implementing the 3D motion recognition information, It will be understood by those skilled in the art that the present invention may be embodied in a recording medium capable of being recorded. In other words, it can be implemented in the form of a program command that can be executed through various computer means, and can be recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention or may be those known and available to those skilled in the computer software. Examples of the computer-readable medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs and DVDs, and optical disks such as floppy disks. Magneto-optical media and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, USB memory, and the like. The computer-readable recording medium may be a transmission medium such as a light or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100: 움직임입력부 110: 센서부
120: 무선통신부 130: 전원부
200: 통합관리부 210: 가상평면관리부
220: 동작인식부 230:명령처리부
S10: 캘리브레이션 단계
S20: 유효움직임판단 단계
S30: 모드선택명령판단 단계
S40: 명령수행 단계
100: motion input unit 110:
120: wireless communication unit 130:
200: Integrated management unit 210: Virtual plane management unit
220: operation recognition unit 230: command processing unit
S10: Calibration step
S20: valid motion determination step
S30: Mode selection command judgment step
S40: Command execution phase

Claims (11)

손 또는 손가락에 관성센서가 포함된 입력장치를 휴대하여 공간상에서의 움직임을 인식하는 3차원 동작인식 정보입력 장치에 있어서,
3축 가속도 센서와 3축 자이로 센서, 3축 지자기 센서가 포함된 IMU(Inertial Measurement Unit, 관성 측정 장치) 센서 모듈로 구성된 센서부(110), 외부기기와의 무선 네트워크 통신을 위한 무선통신부(120), 상기 센서부(110) 및 무선통신부(120)에 전원을 공급하는 전원부(130)를 포함하는 움직임입력부(100); 및
상기 무선통신부(120)로부터 무선 네트워크를 통해 전달받은 신호를 분석하고 외부기기를 제어하는 통합관리부(200);
를 포함하되,
상기 통합관리부(200)는
외부기기와 연결 시 캘리브레이션에 의해 가상평면을 생성하고, 상기 움직임입력부(100)의 이동에 따라 상기 가상평면을 이동시키는 가상평면관리부(210);
상기 움직임입력부(100)로부터 움직임이 감지되면, 미리 설정된 민감도 정보 및 미리 설정된 동작 정보를 근거로 유효 움직임을 판단하는 동작인식부(220); 및
상기 동작인식부(220)에 의해 유효 움직임으로 판단되면, 유효 움직임에 해당되는 명령이 있는지 확인하고, 유효 움직임에 해당되는 명령이 있을 경우, 해당 명령에 따라 상기 외부기기를 제어하는 명령처리부(230);
로 구성되며,
상기 통합관리부(200)는 상기 센서부(110)로부터 센싱된 정보를 근거로, 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드를 판단하고, 해당 모드에서 규정된 제어명령을 외부기기로 전송하되,
제스처 모드인 경우,
움직임입력부(100) 동작을 분석하여, 가상 평면 위에서의 동작, 가상 평면에 수직한 동작 및 이 두 가지를 조합한 동작이 감지되면, 미리 저장된 제스처명령에 해당되는 동작인지 확인하고, 확인된 제스처명령에 따라 외부기기를 제어하는 것을 특징으로 하되, 미리 저장된 제스처명령은 시작점에서 동작을 수행한 뒤 다시 시작점 방향으로 일정시간 이내에 일정거리 이상 되돌아오는 형태의 동작이며, 센서의 움직임이 왕복성을 보이지 않는 경우 제스처가 아닌 동작으로 판단하여 동작이전의 센서의 자세와 동작이후의 센서의 자세를 비교해 가상평면을 변화시키며,
화면을 켜놓은 상태에서 제스처, 필기, 마우스 커서의 이동을 인식하지 않도록 하는 모드인 블랭크 모드인 경우,
모드 전환에 필요한 모드선택명령에 해당되는 움직임인 자이로 센서 값의 변화가 감지되었을 때에만 모드 전환을 수행하고, 모드 전환을 제외한 다른 움직임은 해석하지 않으며, 모드 전환 동작 후 센서의 축에 맞춰 새로운 가상평면 생성하는 것을 특징으로 하는 3차원 동작인식 정보입력 장치.
A three-dimensional motion recognition information input device for recognizing movement in space by carrying an input device including an inertial sensor on a hand or a finger,
A sensor unit 110 composed of an IMU (Inertial Measurement Unit) sensor module including a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor, a wireless communication unit 120 A motion input unit 100 including a sensor unit 110 and a power supply unit 130 for supplying power to the wireless communication unit 120; And
An integrated management unit 200 for analyzing a signal received from the wireless communication unit 120 through a wireless network and controlling an external device;
, ≪ / RTI &
The integrated management unit 200
A virtual plane management unit 210 for creating a virtual plane by calibration when connected to an external device and moving the virtual plane according to the movement of the motion input unit 100;
An operation recognition unit 220 for determining a valid motion based on predetermined sensitivity information and preset operation information when motion is detected from the motion input unit 100; And
A command processing unit 230 for controlling the external device according to the command if there is an instruction corresponding to the valid motion, if the motion recognition unit 220 determines that the motion is valid; );
Lt; / RTI >
The integrated management unit 200 determines any one of a gesture mode, a mouse mode, a blank mode, and a handwriting mode based on the information sensed by the sensor unit 110, To an external device,
In the gesture mode,
When the operation of the motion input unit 100 is analyzed and an operation on the virtual plane, an operation perpendicular to the virtual plane, and an operation combining the two are detected, it is checked whether the operation corresponds to a pre-stored gesture command, The gesture command is a type of operation in which the gesture command is returned from the start point and then returned a predetermined distance or more within a predetermined time from the start point to the start point, It is determined that the operation is not a gesture, and the virtual plane is changed by comparing the posture of the sensor before the operation and the posture of the sensor after the operation,
In the blank mode, which is a mode for not recognizing gestures, handwriting, and movement of the mouse cursor while the screen is on,
The mode switching is performed only when a change in the gyro sensor value, which is a motion corresponding to the mode selection command necessary for mode switching, is detected, and other motions other than the mode switching are not interpreted. Dimensional motion recognition information input device.
삭제delete 센서부(110), 무선통신부(120) 및 전원부(130)를 포함하는 움직임입력부(100) 와 가상평면관리부(210), 동작인식부(220) 및 명령처리부(230)를 포함하는 통합관리부(200)를 포함하며, 손 또는 손가락에 움직임입력부(100)를 휴대하여 공간상에서의 움직임을 인식하는 3차원 동작인식 정보입력 방법에 있어서,
상기 통합관리부(200)에 의해, 외부기기와 연결 시 또는 미리 결정된 캘리명령이 입력되면, 민감도(움직임입력부(100)의 움직임과 외부기기에서의 움직임의 비율) 정보를 외부기기에 맞추어 조정하고, 가상평면을 생성하며, 가상 평면의 x, y, z축을 설정하는 캘리브레이션 단계(S10);
상기 통합관리부(200)에 의해, 상기 캘리브레이션 단계(S10)에서 설정된 민감도 정보를 근거로 유효 움직임을 판단하는 유효움직임판단 단계(S20); 및
상기 통합관리부(200)에 의해, 상기 유효움직임 판단 단계(S20)에서 유효 움직임으로 판단되면, 미리 결정된 모드선택명령에 해당되는 움직임인지 판단하는 모드선택명령판단 단계(S30); 및
상기 통합관리부(200)에 의해, 상기 모드선택명령판단 단계(S30)에서 모드선택명령에 해당되는 움직임으로 판단되면, 상기 미리 결정된 모드선택명령에 따라 제스처 모드, 마우스 모드, 블랭크 모드, 필기 모드 중 선택되는 어느 하나의 모드가 결정되고, 모드선택명령에 해당되는 움직임이 아니라고 판단되면, 미리 설정된 동작 정보와 비교하여 해당되는 명령에 따라 외부기기를 제어하는 명령수행 단계(S40);
를 포함하며,
상기 명령수행 단계(S40)는
제스처 모드인 경우,
움직임입력부(100) 동작을 분석하여, 가상 평면 위에서의 동작, 가상 평면에 수직한 동작 및 이 두 가지를 조합한 동작이 감지되면, 미리 저장된 제스처명령에 해당되는 동작인지 확인하고, 확인된 제스처명령에 따라 외부기기를 제어하는 것을 특징으로 하되, 미리 저장된 제스처명령은 시작점에서 동작을 수행한 뒤 다시 시작점 방향으로 일정시간 이내에 일정거리 이상 되돌아오는 형태의 동작이며, 센서의 움직임이 왕복성을 보이지 않는 경우 제스처가 아닌 동작으로 판단하여 동작이전의 센서의 자세와 동작이후의 센서의 자세를 비교해 가상평면을 변화시키며,
화면을 켜놓은 상태에서 제스처, 필기, 마우스 커서의 이동을 인식하지 않도록 하는 모드인 블랭크 모드인 경우,
모드 전환에 필요한 모드선택명령에 해당되는 움직임인 자이로 센서 값의 변화가 감지되었을 때에만 모드 전환을 수행하고, 모드 전환을 제외한 다른 움직임은 해석하지 않으며, 모드 전환 동작 후 센서의 축에 맞춰 새로운 가상평면 생성하는 것을 특징으로 하는 3차원 동작인식 정보입력 방법.
An integrated management unit including a motion input unit 100 including a sensor unit 110, a wireless communication unit 120 and a power supply unit 130, a virtual plane management unit 210, an operation recognition unit 220, and a command processing unit 230 200) for recognizing movement in a space by carrying a motion input unit (100) on a hand or a finger, the method comprising:
The integrated management unit 200 adjusts the sensitivity (the ratio of the motion of the motion input unit 100 and the motion of the external device) information to an external device when the external device is connected or when a predetermined calle command is input, A calibration step (S10) of creating a virtual plane, and setting x, y, and z axes of the virtual plane;
An effective motion determination step (S20) of determining an effective motion based on the sensitivity information set in the calibration step (S10) by the integrated management unit (200); And
A mode selection command determination step (S30) of determining, by the integrated management unit (200), whether motion is a motion corresponding to a predetermined mode selection command if it is determined that the motion is valid in the valid motion determination step (S20); And
If it is determined by the integrated management unit 200 that the motion corresponding to the mode selection command is determined in the mode selection command determination step S30, the gesture mode, the mouse mode, the blank mode, the handwriting mode An instruction execution step (S40) of controlling an external device in accordance with a corresponding command by comparing the selected operation mode with predetermined operation information if it is determined that the selected mode is not the motion corresponding to the mode selection command;
/ RTI >
The command execution step (S40)
In the gesture mode,
When the operation of the motion input unit 100 is analyzed and an operation on the virtual plane, an operation perpendicular to the virtual plane, and an operation combining the two are detected, it is checked whether the operation corresponds to a pre-stored gesture command, The gesture command is a type of operation in which the gesture command is returned from a start point and then returned a predetermined distance or more within a predetermined time in the direction of the starting point, It is determined that the operation is not a gesture, and the virtual plane is changed by comparing the posture of the sensor before the operation and the posture of the sensor after the operation,
In the blank mode, which is a mode for not recognizing gestures, handwriting, and movement of the mouse cursor while the screen is on,
The mode switching is performed only when a change in the gyro sensor value, which is a motion corresponding to the mode selection command necessary for mode switching, is detected, and other motions other than the mode switching are not interpreted. Dimensional motion recognition information.
제3항에 있어서,
상기 3차원 동작인식 정보입력 방법은
외부기기와 연동 시, 제스처 모드로 시작되는 것을 특징으로 하는 3차원 동작인식 정보입력 방법.
The method of claim 3,
The three-dimensional motion recognition information input method
Wherein the gesture mode is started when the external device is interlocked with the external device.
제3항에 있어서,
상기 모드선택명령판단 단계(S30)는
움직임입력부(100)의 중심을 기준으로 가상평면에 수직한 축을 중심으로 소정의 각도로 회전했다가 반대방향으로 일정각도 이상 되돌아오는 동작이 통합관리부(200)에 감지되면 이를 모드선택명령으로 인식하는 것을 특징으로 하는 3차원 동작인식 정보입력 방법.
The method of claim 3,
In the mode selection command determination step S30,
When the integrated management unit 200 detects an operation in which the rotation is rotated at a predetermined angle about an axis perpendicular to the virtual plane with respect to the center of the motion input unit 100 and then returns by a predetermined angle or more in the opposite direction, Dimensional motion recognition information.
삭제delete 제3항에 있어서,
상기 명령수행 단계(S40)는
마우스 모드인 경우,
움직임입력부(100) 동작을 분석하여, 가상 평면에 수직인 동작을 인식할 경우 클릭 또는 터치 이벤트를 발생시키고, 가상 평면 위에서의 동작을 인식할 경우 외부기기 화면에 표시된 마우스 커서의 움직임을 제어하는 것을 특징으로 하는 3차원 동작인식 정보입력 방법.
The method of claim 3,
The command execution step (S40)
In the mouse mode,
The motion of the mouse cursor displayed on the external device screen is controlled by analyzing the motion of the motion input unit 100 to generate a click or touch event when recognizing the motion perpendicular to the virtual plane and recognizing the motion on the virtual plane Dimensional motion recognition information input method.
삭제delete 제3항에 있어서,
상기 명령수행 단계(S40)는
필기 모드인 경우,
3차원 공간에서의 타이핑 또는 필기를 인식하여 대응하는 글자 또는 필기가 입력되는 것을 특징으로 하는 3차원 동작인식 정보입력 방법.
The method of claim 3,
The command execution step (S40)
In the handwriting mode,
And recognizing the typing or handwriting in the three-dimensional space and inputting corresponding letters or handwriting.
삭제delete 제 3항 내지 제 5항, 제 7항, 제 9항 중 선택되는 어느 한 항에 기재된 3차원 동작인식 정보입력 방법을 구현하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium storing a program for implementing the three-dimensional motion recognition information input method according to any one of claims 3 to 5, 7, and 9.
KR1020140089577A 2014-07-16 2014-07-16 Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same KR101609553B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140089577A KR101609553B1 (en) 2014-07-16 2014-07-16 Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140089577A KR101609553B1 (en) 2014-07-16 2014-07-16 Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same

Publications (2)

Publication Number Publication Date
KR20160009291A KR20160009291A (en) 2016-01-26
KR101609553B1 true KR101609553B1 (en) 2016-04-06

Family

ID=55307306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140089577A KR101609553B1 (en) 2014-07-16 2014-07-16 Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same

Country Status (1)

Country Link
KR (1) KR101609553B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180005644A (en) * 2017-12-27 2018-01-16 주식회사 인투씨앤씨 Control of the electronic blackboard program of desktop PC using smart phone with gyro sensor and acceleration sensor
KR20200005931A (en) * 2018-07-09 2020-01-17 서울과학기술대학교 산학협력단 Apparatus and method for recognition of gesture

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101847295B1 (en) 2016-10-31 2018-05-28 재단법인 다차원 스마트 아이티 융합시스템 연구단 User interface apparatus using transmitting and receiving supersound signal
KR101887314B1 (en) * 2017-12-14 2018-08-09 세종대학교산학협력단 Remote control device and method of uav, motion control device attached to the uav
US10545495B2 (en) 2017-12-14 2020-01-28 Industry Academy Cooperation Foundation Of Sejong University Remote control device and method for UAV and motion control device attached to UAV
KR102462793B1 (en) 2018-05-21 2022-11-03 삼성전자 주식회사 Method for sharing content based on account group and electronic device providing the same
WO2020075898A1 (en) * 2018-10-08 2020-04-16 네오에스티(주) Golf swing practice apparatus and method, and recording medium
KR20200050582A (en) * 2018-11-02 2020-05-12 삼성전자주식회사 Apparatus and method for determining compensation of touch data based on operation mode of display
KR102086985B1 (en) * 2020-01-21 2020-03-09 주식회사 에스지엠 Walking machine system showing user's motion

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100509913B1 (en) 2003-06-02 2005-08-25 광주과학기술원 Multi mode data input device and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180005644A (en) * 2017-12-27 2018-01-16 주식회사 인투씨앤씨 Control of the electronic blackboard program of desktop PC using smart phone with gyro sensor and acceleration sensor
KR20200005931A (en) * 2018-07-09 2020-01-17 서울과학기술대학교 산학협력단 Apparatus and method for recognition of gesture
KR102122647B1 (en) * 2018-07-09 2020-06-12 서울과학기술대학교 산학협력단 Apparatus and method for recognition of gesture

Also Published As

Publication number Publication date
KR20160009291A (en) 2016-01-26

Similar Documents

Publication Publication Date Title
KR101609553B1 (en) Apparatus and method for 3d motion recognition information input, and recording medium storing program for executing the same
US11243617B2 (en) Multi-function stylus with sensor controller
EP2972669B1 (en) Depth-based user interface gesture control
US8570273B1 (en) Input device configured to control a computing device
US9946345B2 (en) Portable terminal and method for providing haptic effect to input unit
US9007299B2 (en) Motion control used as controlling device
US10042438B2 (en) Systems and methods for text entry
EP2538309A2 (en) Remote control with motion sensitive devices
US20130246955A1 (en) Visual feedback for highlight-driven gesture user interfaces
US20120208639A1 (en) Remote control with motion sensitive devices
US8810511B2 (en) Handheld electronic device with motion-controlled cursor
CN102934060A (en) Virtual touch interface
KR20140060818A (en) Remote controller and display apparatus, control method thereof
EP2752831B1 (en) Input device, display device and method of controlling thereof
WO2013058546A1 (en) Display apparatus and contents display method
CN205050078U (en) A wearable apparatus
EP2538308A2 (en) Motion-based control of a controllled device
US20170199586A1 (en) Gesture control method for interacting with a mobile or wearable device utilizing novel approach to formatting and interpreting orientation data
KR101602167B1 (en) System and method for controlling virtual reality menu based in wrist action
KR101231105B1 (en) The ui for mobile devices based on motion sensors control system and a method
KR101759829B1 (en) Interfacing method, wearable device and user terminal using sensor
CN106462327B (en) Method, system, and medium for generating an arc-shaped path traveled by a user interface element
KR20100089630A (en) A system and method for inputting user command using a pointing device
EP2677401B1 (en) Image data generation using a handheld electronic device
KR101219292B1 (en) Hand-held device including a display and method for navigating objects on the display

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190211

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200128

Year of fee payment: 5