KR20190131417A - Apparatus for providing macro function using gesture recognition and method thereof - Google Patents

Apparatus for providing macro function using gesture recognition and method thereof Download PDF

Info

Publication number
KR20190131417A
KR20190131417A KR1020190034357A KR20190034357A KR20190131417A KR 20190131417 A KR20190131417 A KR 20190131417A KR 1020190034357 A KR1020190034357 A KR 1020190034357A KR 20190034357 A KR20190034357 A KR 20190034357A KR 20190131417 A KR20190131417 A KR 20190131417A
Authority
KR
South Korea
Prior art keywords
user
value
sensing value
macro function
hand gesture
Prior art date
Application number
KR1020190034357A
Other languages
Korean (ko)
Other versions
KR102214322B1 (en
Inventor
김민경
Original Assignee
디테코 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디테코 주식회사 filed Critical 디테코 주식회사
Publication of KR20190131417A publication Critical patent/KR20190131417A/en
Application granted granted Critical
Publication of KR102214322B1 publication Critical patent/KR102214322B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a device for providing a macro function using hand gesture recognition and a method thereof according to an embodiment of the present invention. The device comprises: a communication unit receiving a data packet including a sensing value measured according to hand movement of a user wearing a motion glove; a control unit determining whether a macro function is executed using the sensing value included in the data packet and recognizing the hand gesture of the user by using the sensing value when the macro function is executed as a result of the determination to execute a macro function matching the recognized hand gesture of the user; and a display unit displaying a screen in which the macro function is executed.

Description

손동작 인식을 이용하여 매크로 기능을 제공하기 위한 장치 및 그 방법{APPARATUS FOR PROVIDING MACRO FUNCTION USING GESTURE RECOGNITION AND METHOD THEREOF}Apparatus and method for providing macro function using hand gesture recognition {APPARATUS FOR PROVIDING MACRO FUNCTION USING GESTURE RECOGNITION AND METHOD THEREOF}

실시예는 손동작 인식 기술에 관한 것으로, 보다 상세하게는 손동작 인식을 이용하여 매크로 기능을 제공하기 위한 장치 및 그 방법에 관한 것이다.The embodiment relates to a hand gesture recognition technology, and more particularly, to an apparatus and a method for providing a macro function using hand gesture recognition.

모션 캡쳐 기법은 사람이나 동물 등의 움직임을 추출하여 얻어낸 3차원 데이터를 컴퓨터에 의해 모델링된 캐릭터에 적용하여 자연스러운 모션 영상을 생성하는 영상 기법이다. 이를 위해 사람 등이 광학 센서나 자기 센서를 신체에 부착한 후 동작을 하면 각 센서는 위치와 각도를 기록하게 되는데, 이러한 센싱 데이터를 3D 캐릭터에 적용시켜 캐릭터의 동작을 구현하게 된다.The motion capture technique is an imaging technique that generates a natural motion image by applying three-dimensional data obtained by extracting movements of a person or an animal to a character modeled by a computer. To this end, when a person or the like attaches an optical sensor or a magnetic sensor to the body and operates, each sensor records a position and an angle. The sensing data is applied to the 3D character to implement the character's motion.

모션 캡쳐 기법은 최대한 신체의 움직임과 유사한 동작을 구현하는데 가장 큰 목적이 있다. 이러한 목적을 구현하기 위해서는 신체의 관절 움직임을 정확히 측정하는 것이 중요하다. 즉, 신체 관절 움직임을 얼마나 정확하고 자세하게 측정하는가가 자연스러운 동작을 구현하는데 관건이 된다.The motion capture technique is primarily aimed at implementing motions similar to body movements. In order to achieve this purpose, it is important to accurately measure the joint movement of the body. In other words, how accurately and precisely the body joint movement is measured is a key to the natural motion.

하지만 사용자의 손동작의 움직임을 캡쳐하는 시스템의 구현뿐만 아니라, 현재 사용자가 어떤 손동작을 취하고 있으며, 이에 대응하는 특정 기능이 구현되는지 또한 중요하다.However, it is also important not only to implement a system for capturing the movement of a user's hand gesture, but also to what hand gesture a user is currently performing and a specific function corresponding thereto.

특히, 가상현실(Virtual Reality, VR) 기기를 착용한 상태에서 주위를 볼 수 없으므로, 마우스과 같은 컨트롤러를 사용하기 힘들기 때문에 매크로 기능은 필수적이다. 하지만, 사용자가 특정 손동작을 하였을 때 이를 대응하는 정해진 매크로 기능을 실행하도록 하는 시스템 또는 방법에 관한 기술 개발이 요구되고 있다.In particular, since the user cannot see the surroundings while wearing a VR device, the macro function is essential because it is difficult to use a controller such as a mouse. However, there is a need for a technology development for a system or method for executing a predetermined macro function corresponding to a user's specific hand gesture.

등록특허공보 제10-1385601호Patent Application Publication No. 10-1385601 등록특허공보 제10-1781999호Patent Registration No. 10-1781999

실시예는 손동작 인식을 이용하여 매크로 기능을 제공하기 위한 장치 및 그 방법을 제공할 수 있다.The embodiment can provide an apparatus and a method for providing a macro function using hand gesture recognition.

본 발명의 일 실시예에 따른 매크로 기능을 제공하기 위한 장치는 모션 글러브를 착용한 사용자의 손동작에 따라 측정된 센싱값을 포함한 데이터 패킷을 수신하는 통신부; 상기 데이터 패킷에 포함된 센싱값을 이용하여 매크로 기능 실행 여부를 판단하고, 상기 판단된 결과로 상기 매크로 기능이 실행되는 경우 상기 센싱값을 이용하여 상기 사용자의 손동작을 인식하여 상기 인식된 사용자의 손동작에 매칭되는 매크로 기능을 실행하는 제어부; 및 상기 매크로 기능이 실행되는 화면을 표시하는 표시부를 포함할 수 있다.An apparatus for providing a macro function according to an embodiment of the present invention includes a communication unit for receiving a data packet including a sensing value measured according to a hand gesture of a user wearing a motion glove; It is determined whether the macro function is executed by using the sensing value included in the data packet, and when the macro function is executed as the determined result, the hand gesture of the user is recognized by using the sensing value to recognize the hand gesture of the user. A controller for executing a macro function matched to; And a display unit for displaying a screen on which the macro function is executed.

상기 센싱값은 상기 사용자의 손동작에 따른 가속도값을 나타내는 제1 센싱값, 상기 사용자의 손목 회전에 따른 값을 나타내는 제2 센싱값, 상기 사용자의 손가락 굽힘에 따른 값을 나타내는 제3 센싱값을 포함할 수 있다.The sensing value includes a first sensing value indicating an acceleration value according to the hand gesture of the user, a second sensing value indicating a value according to the user's wrist rotation, and a third sensing value indicating a value according to the user's finger bending. can do.

상기 제어부는 상기 제1 센싱값을 이용하여 상기 사용자의 손동작에 의한 매크로 기능 실행 여부를 판단하고, 상기 매크로 기능이 실행되는 것으로 판단되는 경우, 상기 제2 센싱값과 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식할 수 있다.The controller determines whether the macro function is executed by the user's hand gesture using the first sensing value, and if it is determined that the macro function is executed, the controller uses the second sensing value and the third sensing value. The hand gesture of the user may be recognized.

상기 제어부는 상기 제1 센싱값을 이용하여 상기 매크로 기능 실행 여부를 판단하기 위한 임계값을 산출하고, 상기 산출된 임계값이 미리 정해진 임계범위 이내이면, 타이머를 구동시켜 유지 시간을 측정하고, 상기 측정된 유지 시간이 미리 정해진 임계 시간 이상이면, 상기 사용자의 손동작에 의해 매크로 기능이 실행되는 것으로 판단할 수 있다.The controller calculates a threshold value for determining whether to execute the macro function using the first sensing value, and if the calculated threshold value is within a predetermined threshold range, a timer is measured to measure a holding time. If the measured holding time is greater than or equal to a predetermined threshold time, it may be determined that the macro function is executed by the user's hand gesture.

상기 임계값은 수학식

Figure pat00001
에 의해 산출되고, ax, ay, az는 각각 3축 가속도 센서의 의해 측정된 x축, y축, z축의 값을 의미할 수 있다.The threshold value is
Figure pat00001
It is calculated by, and a x , a y , a z may mean values of the x-axis, y-axis, and z-axis respectively measured by the 3-axis acceleration sensor.

상기 제어부는 상기 제2 센싱값을 이용하여 손가락 끝단 각도에 대응하는 포인트값을 산출하고, 상기 산출된 포인트값을 손가락 관절각 산출 모델에 적용하여 손가락 관절별 관절 각도를 산출하고, 상기 산출된 손가락의 관절별 관절 각도와 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식할 수 있다.The controller calculates a point value corresponding to a fingertip angle using the second sensing value, calculates a joint angle for each finger joint by applying the calculated point value to a finger joint angle calculation model, and calculates the calculated finger value. The user's hand gesture may be recognized using the joint angle of each joint and the third sensing value.

본 발명의 다른 실시예에 따른 매크로 기능을 제공하기 위한 방법은 모션 글러브를 착용한 사용자의 손동작에 따라 측정된 센싱값을 포함한 데이터 패킷을 수신하는 단계; 상기 데이터 패킷에 포함된 센싱값을 이용하여 매크로 기능 실행 여부를 판단하고, 상기 판단된 결과로 상기 매크로 기능이 실행되는 경우 상기 센싱값을 이용하여 상기 사용자의 손동작을 인식하여 상기 인식된 사용자의 손동작에 매칭되는 매크로 기능을 실행하는 단계; 및 상기 매크로 기능이 실행되는 화면을 표시하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for providing a macro function, including: receiving a data packet including a sensing value measured according to a hand gesture of a user wearing a motion glove; It is determined whether the macro function is executed by using the sensing value included in the data packet, and when the macro function is executed as the determined result, the hand gesture of the user is recognized by using the sensing value to recognize the hand gesture of the user. Executing a macro function matched to; And displaying a screen on which the macro function is executed.

상기 센싱값은 상기 사용자의 손동작에 따른 가속도값을 나타내는 제1 센싱값, 상기 사용자의 손목 회전에 따른 값을 나타내는 제2 센싱값, 상기 사용자의 손가락 굽힘에 따른 값을 나타내는 제3 센싱값을 포함할 수 있다.The sensing value includes a first sensing value indicating an acceleration value according to the hand gesture of the user, a second sensing value indicating a value according to the user's wrist rotation, and a third sensing value indicating a value according to the user's finger bending. can do.

상기 실행하는 단계에서는 상기 제1 센싱값을 이용하여 상기 사용자의 손동작에 의한 매크로 기능 실행 여부를 판단하고, 상기 매크로 기능이 실행되는 것으로 판단되는 경우, 상기 제2 센싱값과 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식할 수 있다.In the executing step, it is determined whether the macro function is executed by the user's hand gesture using the first sensing value, and when it is determined that the macro function is executed, the second sensing value and the third sensing value are determined. The user's hand gesture may be recognized.

상기 실행하는 단계에서는 상기 제1 센싱값을 이용하여 상기 매크로 기능 실행 여부를 판단하기 위한 임계값을 산출하고, 상기 산출된 임계값이 미리 정해진 임계범위 이내이면, 타이머를 구동시켜 유지 시간을 측정하고, 상기 측정된 유지 시간이 미리 정해진 임계 시간 이상이면, 상기 사용자의 손동작에 의해 매크로 기능이 실행되는 것으로 판단할 수 있다.In the executing step, the threshold value for determining whether to execute the macro function is calculated using the first sensing value. When the calculated threshold value is within a predetermined threshold range, a timer is measured to measure a holding time. When the measured holding time is greater than or equal to a predetermined threshold time, it may be determined that the macro function is executed by the user's hand gesture.

상기 임계값은 수학식

Figure pat00002
에 의해 산출되고, ax, ay, az는 각각 3축 가속도 센서의 의해 측정된 x축, y축, z축의 값을 의미할 수 있다.The threshold value is
Figure pat00002
It is calculated by, and a x , a y , a z may mean values of the x-axis, y-axis, and z-axis respectively measured by the 3-axis acceleration sensor.

상기 실행하는 단계에서는 상기 제2 센싱값을 이용하여 손가락 끝단 각도에 대응하는 포인트값을 산출하고, 상기 산출된 포인트값을 손가락 관절각 산출 모델에 적용하여 손가락 관절별 관절 각도를 산출하고, 상기 산출된 손가락의 관절별 관절 각도와 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식할 수 있다.In the performing of the step, a point value corresponding to the fingertip angle is calculated using the second sensing value, and the joint angle for each finger joint is calculated by applying the calculated point value to a finger joint angle calculation model. The user's hand gesture may be recognized by using the joint angle of each finger of the finger and the third sensing value.

실시예에 따르면, 모션 글러브로부터 측정된 제1 센싱값, 제2 센싱값, 제3 센싱값을 포함하는 데이터 패킷을 수신하면 수신된 제1 센싱값을 이용하여 매크로 기능이 실행될지의 여부를 판단하고, 매크로 기능이 실행될 것으로 판단되는 경우 제2 센싱값과 제3 센싱값을 이용하여 손동작을 인식하여 손동작에 매칭되는 매크로 기능을 결정하고 결정된 매크로 기능을 실행하도록 함으로써, 사용자가 콘텐츠의 특정 기능 즉, 매크로 기능을 용이하게 구현할 수 있다.According to an embodiment, upon receiving a data packet including a first sensing value, a second sensing value, and a third sensing value measured from a motion glove, it is determined whether a macro function is executed using the received first sensing value. When it is determined that the macro function is to be executed, the user recognizes the hand gesture using the second and third sensing values, determines a macro function matching the hand gesture, and executes the determined macro function. The macro function can be easily implemented.

실시예에 따르면, 사용자가 특정 동작을 취했을 때와 일반적인 움직임 상태일 때를 구분하기 때문에 인식률이 높은 정확한 매크로 기능 구현이 가능할 수 있다.According to an embodiment, since a user distinguishes between a specific action and a general motion state, an accurate macro function having a high recognition rate may be implemented.

실시예에 따르면, 사용자가 특정 손동작을 하였을 때 이를 대응하는 매크로 기능을 용이하게 구현하기 때문에, 콘텐츠를 이용하는 사용자의 편리성을 향상시킬 수 있다.According to the embodiment, since a macro function corresponding to the user's specific hand gesture is easily implemented, the convenience of the user using the content can be improved.

도 1은 본 발명의 일 실시예에 따른 전체 시스템의 구성을 나타내는 도면이다.
도 2는 도 1에 도시된 모션 글러브의 상세한 구성을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 데이터 패킷의 포맷을 설명하기 위한 도면이다.
도 4는 도 1에 도시된 사용자 단말의 상세한 구성을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 매크로 기능을 제공하기 위한 방법을 나타내는 도면이다.
도 6은 도 5에 도시된 매크로 기능 실행 여부 판단 과정을 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 모션 유지 시간 표시 화면을 보여주는 도면이다.
도 8은 도 5에 도시된 손동작 인식 과정을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 손가락 관절각 산출 모델을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 손가락 관절각 산출 모델을 그래프 형태로 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 손가락의 각 관절의 각도 산출 원리를 설명하기 위한 도면이다.
1 is a view showing the configuration of an entire system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a detailed configuration of the motion glove shown in FIG. 1.
3 is a diagram illustrating a format of a data packet according to an embodiment of the present invention.
4 is a diagram illustrating a detailed configuration of a user terminal illustrated in FIG. 1.
5 is a diagram illustrating a method for providing a macro function according to an embodiment of the present invention.
6 is a diagram illustrating a process of determining whether to execute a macro function illustrated in FIG. 5.
7 is a diagram illustrating a motion maintenance time display screen according to an embodiment of the present invention.
FIG. 8 is a diagram illustrating a hand gesture recognition process illustrated in FIG. 5.
9 is a view for explaining a finger joint angle calculation model according to an embodiment of the present invention.
10 is a graph illustrating a finger joint angle calculation model according to an embodiment of the present invention in a graph form.
11 is a view for explaining the principle of calculating the angle of each joint of the finger according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including ordinal numbers, such as second and first, may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.

실시예에서는, 모션 글러브로부터 측정된 제1 센싱값, 제2 센싱값, 제3 센싱값을 포함하는 데이터 패킷을 수신하면 수신된 제1 센싱값을 이용하여 매크로 기능이 실행될지의 여부를 판단하고, 매크로 기능이 실행될 것으로 판단되는 경우 제2 센싱값과 제3 센싱값을 이용하여 손동작을 인식하여 손동작에 매칭되는 매크로 기능을 결정하고 결정된 매크로 기능을 실행하도록 한 새로운 방안을 제안한다.In an embodiment, upon receiving a data packet including the first sensing value, the second sensing value, and the third sensing value measured from the motion glove, it is determined whether the macro function is to be executed using the received first sensing value. If it is determined that the macro function is to be executed, the present invention proposes a new method of recognizing a hand gesture using a second sensing value and a third sensing value to determine a macro function matching the hand gesture and executing the determined macro function.

도 1은 본 발명의 일 실시예에 따른 전체 시스템의 구성을 나타내는 도면이다.1 is a view showing the configuration of an entire system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 손동작 인식 기술을 이용하여 매크로 기능을 제공하기 위한 시스템은 모션 글러브(motion glove)(100), 사용자 단말(200)을 포함할 수 있다.Referring to FIG. 1, a system for providing a macro function using a gesture recognition technology according to an embodiment of the present invention may include a motion glove 100 and a user terminal 200.

모션 글러브(100)는 사용자의 움직임을 감지하여 그 감지할 결과에 따라 제1 센싱값, 제2 센싱값, 제3 센싱값을 출력할 수 있다. 모션 글러브(100)는 제1 센싱값, 제2 센싱값, 제3 센싱값을 포함하는 데이터 패킷을 생성하여 출력할 수 있다.The motion glove 100 may detect a user's movement and output a first sensing value, a second sensing value, and a third sensing value according to the detected result. The motion glove 100 may generate and output a data packet including a first sensing value, a second sensing value, and a third sensing value.

사용자 단말(200)은 모션 글러브(100)로부터 데이터 패킷을 수신하고 수신된 데이터 패킷을 이용하여 사용자의 손동작을 인식하여 매크로 기능을 실행할 수 있다.The user terminal 200 may receive a data packet from the motion glove 100 and recognize the hand gesture of the user using the received data packet to execute a macro function.

사용자 단말(200)은 데이터 패킷에 포함된 제1 센싱값, 제2 센싱값, 제3 센싱값을 추출하고 추출된 제1 센싱값을 이용하여 매크로 기능 실행 여부를 판단하고, 제2 센싱값과 제3 센싱값을 이용하여 손동작을 인식하여 매크로 기능을 실행할 수 있다.The user terminal 200 extracts the first sensing value, the second sensing value, and the third sensing value included in the data packet, and determines whether to execute the macro function by using the extracted first sensing value, and determines the second sensing value and the second sensing value. The macro function may be executed by recognizing the hand gesture using the third sensing value.

이러한 사용자 단말(200)은 통신 모듈, 프로세서, 디스플레이, 메모리 등을 포함하는 전자 장치로서, 예컨대, 스마트폰, 태블릿, 노트북, 데스크탑을 포괄할 수 있다.The user terminal 200 is an electronic device including a communication module, a processor, a display, a memory, and the like, and may include, for example, a smartphone, a tablet, a notebook, and a desktop.

도 2는 도 1에 도시된 모션 글러브의 상세한 구성을 나타내는 도면이다.FIG. 2 is a diagram illustrating a detailed configuration of the motion glove shown in FIG. 1.

도 2를 참조하면, 본 발명의 일 실시예에 따른 모션 글러브(100)는 글러브(glove)(110), 플렉서블 센서(flexible sensor)(120), 포켓(pocket)(130) 및 모션 센서(motion sensor)(140)를 포함하여 구성될 수 있다.Referring to FIG. 2, the motion glove 100 according to an embodiment of the present invention includes a glove 110, a flexible sensor 120, a pocket 130, and a motion sensor. sensor) 140 may be configured.

글러브(110)는 사용자가 손에 착용할 수 있는 형상으로 형성될 수 있다. 여기서는 좌측손에 착용하는 글러브(110)를 도시하고 있으나, 이는 일 실시예에 불과하며, 우측손에 착용하는 글러브일 수도 있다. 글러브(110)는 사용자가 착용 후 손을 쥐고 펼 수 있도록 신축성이 있는 소재를 이용할 수 있다.The glove 110 may be formed in a shape that the user can wear on the hand. Here, the glove 110 is shown worn on the left hand, but this is only an example, and may be a glove worn on the right hand. The glove 110 may use a stretchable material so that the user can grasp the hand after wearing it.

플렉서블 센서(120)는 엄지(thumb), 검지(index), 중지(middle), 약지(ring), 소지(pinky) 각각에 배치될 수 있다. 따라서, 플렉서블 센서(120)는 글러브(110)의 손가락 길이에 대응하여 형성된다. 예컨대, 소지 부분에 형성되는 플렉서블 센서(125)의 길이는 중지에 형성되는 플렉서블 센서(123)의 길이보다 짧을 수 있다. 플렉서블 센서(120)는 사용자의 손가락 움직임에 따라 휘어지며, 구부러지는 정도에 따라 다른 출력값을 생성한 후 출력할 수 있다.The flexible sensor 120 may be disposed on each of a thumb, an index, a middle finger, a ring, and a pinky. Therefore, the flexible sensor 120 is formed corresponding to the finger length of the glove 110. For example, the length of the flexible sensor 125 formed on the holding portion may be shorter than the length of the flexible sensor 123 formed on the middle finger. The flexible sensor 120 may be bent according to a user's finger movement, and may generate another output value according to the degree of bending and output the same.

포켓(130)은 글러브(110)의 손가락 부위 안쪽에 부착될 수 있다. 포켓(130)은 플렉서블 센서(120)가 삽입된 후 손가락의 길이 방향으로 움직임이 가능한 공간을 가질 수 있다. 따라서, 포켓(130)에 삽입된 플렉서블 센서(120)가 포켓(130) 안에서 앞뒤로 움직일 수 있으므로, 사용자가 주먹을 쥐거나 움직이는 동작을 계속 하더라도 플렉서블 센서(120)와 연결된 전선이 끊어지는 현상을 방지할 수 있다.The pocket 130 may be attached to the inside of the finger portion of the glove 110. The pocket 130 may have a space capable of moving in the longitudinal direction of the finger after the flexible sensor 120 is inserted. Therefore, since the flexible sensor 120 inserted into the pocket 130 may move back and forth within the pocket 130, the wire connected to the flexible sensor 120 may be prevented from being broken even if the user keeps his fist or moves. can do.

모션 센서(140)는 글러브(110)의 손등 부위에 형성되며, 사용자의 손목의 회전을 측정할 수 있다. 모션 센서(140)는 플렉서블 센서(120)와 전선으로 연결되어 플렉서블 센서(120)의 출력값을 취합한 후 사용자 단말(200)에 전송할 수 있다.The motion sensor 140 is formed on the back of the hand of the glove 110 and can measure the rotation of the wrist of the user. The motion sensor 140 may be connected to the flexible sensor 120 by a wire, collect an output value of the flexible sensor 120, and transmit the collected value to the user terminal 200.

모션 센서(140)는 사용자가 매크로 동작을 취하고 있는지 구분하는 수단으로 사용된다. 모션 센서(140)는 일반적으로 자이로, 가속도, 지자기 센서가 결합된 형태인데, 이 중 3축 가속도 센서 값을 사용하여 사용자가 매크로 동작을 취한 것인지를 구분한다. 따라서 본 발명에서는 일반적인 모션인지 매크로 동작을 취하고 있는 것인지에 대한 구분은 가속도 센서값을 사용하고, 각각의 매크로 동작은 모션 센서로 추정하는 손목 관절 각도와 각 손가락 관절들의 각도로 인식한다.The motion sensor 140 is used as a means for distinguishing whether the user is taking a macro action. The motion sensor 140 generally includes a gyro, an acceleration, and a geomagnetic sensor, in which a three-axis acceleration sensor value is used to distinguish whether the user has taken a macro action. Therefore, according to the present invention, the classification of whether the motion or the macro motion is performed is used by the acceleration sensor value, and each macro motion is recognized by the wrist joint angle estimated by the motion sensor and the angle of each finger joint.

도 3은 본 발명의 일 실시예에 따른 데이터 패킷의 포맷을 설명하기 위한 도면이다.3 is a diagram illustrating a format of a data packet according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 모션 센서(140)는 사용자의 손목의 회전을 측정한 모션값, 가속도값과 플렉서블 센서의 출력값을 포함하는 데이터 패킷을 생성할 수 있다.Referring to FIG. 3, the motion sensor 140 according to an embodiment of the present invention may generate a data packet including a motion value, an acceleration value, and an output value of the flexible sensor, which measure the rotation of the user's wrist.

이러한 데이터 패킷은 크게 헤더(header) 필드, 데이터(data) 필드, 테일러(tailer) 필드로 구분될 수 있는데, 데이터 필드는 모션 센서에 의해 측정된 모션값, 가속도값과 플렉서블 센서에 의해 측정된 출력값을 포함하도록 구성될 수 있다.These data packets can be broadly classified into a header field, a data field, and a tailer field. The data field includes motion values measured by a motion sensor, acceleration values, and output values measured by a flexible sensor. It may be configured to include.

도 4는 도 1에 도시된 사용자 단말의 상세한 구성을 나타내는 도면이다.4 is a diagram illustrating a detailed configuration of a user terminal illustrated in FIG. 1.

도 4를 참조하면, 본 발명의 일 실시예에 따른 사용자 단말(200)은 통신부(210), 입력부(220), 제어부(230), 표시부(240), 저장부(250)를 포함할 수 있다.Referring to FIG. 4, the user terminal 200 according to an embodiment of the present invention may include a communication unit 210, an input unit 220, a control unit 230, a display unit 240, and a storage unit 250. .

통신부(210)는 모션 글러브의 모션 센서와 연동하여, 모션 센서에 의해 측정된 제1 센싱값, 제2 센싱값과 플렉서블 센서에 의해 측정된 제3 센싱값을 포함한 데이터 패킷을 수신할 수 있다.The communication unit 210 may receive a data packet including a first sensing value measured by the motion sensor, a second sensing value, and a third sensing value measured by the flexible sensor in cooperation with the motion sensor of the motion glove.

입력부(220)는 사용자의 키 또는 메뉴 조작에 따른 정보를 입력 받을 수 있다.The input unit 220 may receive information according to a user's key or menu operation.

제어부(230)는 데이터 패킷에 포함된 모션 센서에 의해 측정된 제1 센싱값, 제2센싱값과 플렉서블 센서에 의해 측정된 제3 센싱값을 추출하고, 추출된 제1 센싱값을 이용하여 매크로 기능이 실행될지의 여부를 판단하고, 매크로 기능이 실행될 것으로 판단되면 제2 센싱값과 제3 센싱값을 이용하여 매크로 기능을 결정하여 실행할 수 있다.The controller 230 extracts the first sensing value, the second sensing value, and the third sensing value measured by the flexible sensor, which are measured by the motion sensor included in the data packet, and extracts the macro by using the extracted first sensing value. If it is determined whether the function is to be executed, and if it is determined that the macro function is to be executed, the macro function may be determined and executed using the second and third sensing values.

제어부(230)는 제2 센싱값과 제3 센싱값을 이용하여 손동작을 인식하고, 인식된 손동작에 매칭되는 매크로 기능을 결정하여 그 결정된 매크로 기능을 실행할 수 있다.The controller 230 may recognize the hand gesture using the second and third sensing values, determine a macro function matching the recognized hand gesture, and execute the determined macro function.

표시부(240)는 콘텐츠를 표시하면서 인식된 사용자의 손동작을 표시할 수 있다.The display unit 240 may display the recognized gesture of the user while displaying the content.

저장부(250)는 콘텐츠, 매크로 기능을 실행하는데 필요한 각종 정보 예컨대, 사용자의 손동작과 손동작에 대응되는 미리 정해진 매크로 기능 등을 저장할 수 있다.The storage unit 250 may store various types of information necessary for executing content and macro functions, for example, a user's hand gesture and a predetermined macro function corresponding to the hand gesture.

도 5는 본 발명의 일 실시예에 따른 매크로 기능을 제공하기 위한 방법을 나타내는 도면이다.5 is a diagram illustrating a method for providing a macro function according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 매크로 기능을 제공하기 위한 장치(이하, 제공 장치라고 한다)는 모션 글러브로부터 데이터 패킷을 수신할 수 있다(S510).Referring to FIG. 5, an apparatus for providing a macro function according to an embodiment of the present invention (hereinafter, referred to as a providing apparatus) may receive a data packet from a motion glove (S510).

다음으로, 제공 장치는 수신된 데이터 패킷을 분석하여 그 분석한 결과로 모션 센서로부터 측정된 제1 센싱값, 제2 센싱값과 플렉서블 센서로부터 측정된 제3 센싱값을 추출할 수 있다(S520).Next, the providing apparatus may analyze the received data packet and extract the first sensing value, the second sensing value, and the third sensing value measured from the flexible sensor as a result of the analysis (S520). .

다음으로, 제공 장치는 추출된 제1 센싱값을 이용하여 매크로 기능을 실행할지 여부를 판단할 수 있다(S530). 여기서 제1 센싱값은 모션 센서에 포함된 가속도 센서에 의해 측정된 가속도 센서값일 수 있다. 이러한 제1 센싱값은 사용자가 일반적인 모션을 취하는지 매크로 동작을 취하는 것인지에 대한 구분에 사용될 수 있다.Next, the providing apparatus may determine whether to execute the macro function by using the extracted first sensing value (S530). The first sensing value may be an acceleration sensor value measured by the acceleration sensor included in the motion sensor. This first sensing value may be used to distinguish whether the user takes a general motion or a macro motion.

다음으로, 제공 장치는 제2 센싱값과 제3 센싱값을 이용하여 손동작을 인식할 수 있다(S540). 여기서, 제2 센싱값은 모션 센서에 의해 측정된 모션값일 수 있다. 제2 센싱값은 모션 글러브를 착용한 사용자의 손목 회전 정도 또는 손목 관절 각도에 따라 다른 값을 가질 수 있다. 제3 센싱값은 플렉서블 센서에 의해 측정된 값일 수 있다. 제3 센싱값은 모션 글러브를 착용한 사용자의 손가락 구부러짐 정보에 따라 다른 값을 가질 수 있다.Next, the providing apparatus may recognize the hand gesture using the second sensing value and the third sensing value (S540). Here, the second sensing value may be a motion value measured by the motion sensor. The second sensing value may have a different value depending on the degree of wrist rotation or the wrist joint angle of the user wearing the motion glove. The third sensing value may be a value measured by the flexible sensor. The third sensing value may have a different value according to the finger bending information of the user wearing the motion glove.

다음으로, 제공 장치는 인식된 손동작에 매칭되는 매크로 기능을 결정하고 결정된 매크로 기능을 실행할 수 있다(S550). 이때, 제공 장치는 사용자에 의해 소정 손동작과 소정 손동작에 매칭되는 매크로 기능을 한 쌍씩 미리 설정 및 변경할 수 있다.Next, the providing apparatus may determine a macro function matching the recognized hand gesture and execute the determined macro function (S550). In this case, the providing apparatus may preset and change a pair of macro functions corresponding to the predetermined hand gesture and the predetermined hand gesture by the user.

이때, 본 발명에서는 실감형 콘텐츠 제작 시 모션 센서의 가속도값을 이용하여 매크로 기능 실행 여부를 결정한다. 일반적으로 매크로 기능을 구현할 때 수초동안 손동작이 멈추는 것에서 착안하여 3축의 가속도값으로 동작이 멈추었는지 판단하고자 한다.In this case, the present invention determines whether to execute the macro function by using the acceleration value of the motion sensor when producing the realistic content. In general, when the macro function is implemented, it is considered that the hand motion is stopped for several seconds, and it is determined whether the motion is stopped by the acceleration value of 3 axes.

도 6은 도 5에 도시된 매크로 기능 실행 여부 판단 과정을 나타내는 도면이다.6 is a diagram illustrating a process of determining whether to execute a macro function illustrated in FIG. 5.

도 6을 참조하면, 제공 장치는 제1 센싱값을 이용하여 임계값을 산출할 수 있는데(S531), 임계값은 매크로 기능이 실행될지의 여부를 판단하기 위한 값으로 다음의 [수학식 1]과 같다.Referring to FIG. 6, the providing apparatus may calculate a threshold value using the first sensing value (S531). The threshold value is a value for determining whether or not a macro function is to be executed. Same as

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

여기서, ax, ay, az는 각각 3축 가속도 센서에 의해 측정된 x축, y축, z축의 값을 의미한다.Here, ax, ay, and az mean values of the x-axis, y-axis, and z-axis respectively measured by the 3-axis acceleration sensor.

이때, 3축의 가속도 센서는 중력 방향에 수직일 때 0이고, 중력방향에 수평일 때 최대 1이 측정된다. 3축 가속도 센서는 선형 가속도가 감지 되지 않을 때 중력 가속도만이 감지됨으로 3축 가속도 센서의 값을 [수학식 1]로 계산했을 경우 임계값이 1이 나오고, 선형 가속도가 감지되면 임계값은 항상 1 보다 큰 값이 나온다.At this time, the three-axis acceleration sensor is 0 when perpendicular to the direction of gravity, and maximum 1 when measured in the direction of gravity. Since the 3-axis acceleration sensor detects only the gravity acceleration when no linear acceleration is detected, when the value of the 3-axis acceleration sensor is calculated by [Equation 1], the threshold value is 1, and when the linear acceleration is detected, the threshold is always Results in a value greater than 1.

다음으로, 제공 장치는 산출된 임계값이 미리 정해진 임계 범위 이내인지를 확인할 수 있다(S532). 여기서 미리 정해진 임계 범위는 1-α ~ 1+ α의 범위를 일컫는다.Next, the providing apparatus may check whether the calculated threshold value is within a predetermined threshold range (S532). Here, the predetermined threshold range refers to the range of 1-α to 1+ α.

다음으로, 제공장치는 상기 확인한 결과로 임계값이 임계범위 이내이면, 타이머를 구동시켜(S533) 타이머에 의해 측정된 유지 시간이 임계 시간 이상인지를 확인할 수 있다(S534).Next, if the threshold value is within the threshold range as a result of the checking, the providing apparatus may determine whether the holding time measured by the timer is greater than or equal to the threshold time (S534).

도 7은 본 발명의 일 실시예에 따른 모션 유지 시간 표시 화면을 보여주는 도면이다.7 is a diagram illustrating a motion maintenance time display screen according to an embodiment of the present invention.

도 7을 참조하면, 사용자가 매크로 기능이 실행될 수 있도록 미리 정해진 시간 동안 모션을 유지하도록 콘텐츠를 표시하는 화면의 한쪽 상단에 시간이 게이지 형태로 상시 표시되도록 한다.Referring to FIG. 7, the time is always displayed in the form of a gauge on one upper side of the screen displaying the content so that the user maintains motion for a predetermined time so that the macro function can be executed.

이때, 시간은 게이지 형태뿐 아니라 필요에 따라 원 형태, 바 형태 등이 사용될 수 있다.In this case, the time may be used in the form of a circle, a bar, and the like as well as the gauge form.

다음으로, 제공장치는 상기 확인한 결과로 유지 시간이 임계 시간 이상이면 타이머를 종료하고(S535) 사용자의 손동작에 의한 미리 정해진 매크로 기능이 실행될 것임을 판단할 수 있다(S536).Next, as a result of the checking, if the holding time is longer than the threshold time, the providing apparatus may terminate the timer (S535) and determine that a predetermined macro function by the user's hand gesture is to be executed (S536).

반면, 제공 장치는 상기 확인한 결과로 유지 시간이 임계 시간 미만이면, 사용자의 손동작에 의한 미리 정해진 매크로 기능이 실행되지 않을 것임을 판단할 수 있다(S537).On the other hand, if the holding time is less than the threshold time as a result of the check, the providing apparatus may determine that the predetermined macro function by the user's hand gesture is not executed (S537).

도 8은 도 5에 도시된 손동작 인식 과정을 나타내는 도면이다.FIG. 8 is a diagram illustrating a hand gesture recognition process illustrated in FIG. 5.

도 8을 참조하면, 제공 장치는 제2 센싱값을 이용하여 손가락 끝단 각도에 대응하는 포인트값을 산출할 수 있다. 이때, 포인트값 Pfinger 은 다음의 [수학식 2]를 이용하여 구할 수 있다(S541).Referring to FIG. 8, the providing apparatus may calculate a point value corresponding to the fingertip angle using the second sensing value. At this time, the point value P finger can be obtained using Equation 2 below (S541).

[수학식 2][Equation 2]

Figure pat00004
Figure pat00004

여기서, F는 제2 센싱값, Fmin은 플렉서블 센서의 최소출력값, Fmax는 플렉서블 센서의 최대출력값, Mmax는 최대 정합값을 의미한다. 이때, 최대 정합값은 기 설정된 값으로 손가락 끝단 각도가 가질 수 있는 최대값을 의미할 수 있다.Here, F is the second sensing value, Fmin is the minimum output value of the flexible sensor, Fmax is the maximum output value of the flexible sensor, Mmax is the maximum matching value. In this case, the maximum matching value may mean a maximum value that the fingertip angle may have as a preset value.

예컨대, 플렉서블 센서의 최소출력값이 800, 플렉서블 센서의 최대출력값이 8000, 최대 정합 값이 100으로 기 설정되었다고 가정한다. 이때, 제2 센싱값이 4400이면, 상기 [수학식 2]를 통해 손가락의 끝단 각도(Pfinger∠)로 50을 산출할 수 있다.For example, it is assumed that the minimum output value of the flexible sensor is 800, the maximum output value of the flexible sensor is 8000, and the maximum matching value is 100. In this case, if the second sensing value is 4400, 50 may be calculated as the end angle Pfinger∠ of the finger through Equation 2.

상기 [수학식 2]와 같이 본 발명은 제2 센싱값과 최소출력값의 차이값과 최대출력값과 최소출력값의 차이값의 비율을 이용하여 손가락 끝단 각도에 대응하는 포인트값을 산출할 수 있다.As shown in Equation 2, the present invention may calculate a point value corresponding to the fingertip angle by using a ratio between the difference between the second sensing value and the minimum output value and the difference between the maximum output value and the minimum output value.

이때, 제공 장치는 플렉서블 센서의 최대출력값과 최소출력값을 미리 설정할 수 있다. 즉, 제공장치는 일정 시간 동안 모션 글러브를 착용한 사용자의 손가락 움직임을 측정하여 생성된 출력값 중 최대값 및 최소값을 각각 최대출력값 및 최소출력값으로 설정할 수 있다.In this case, the providing apparatus may preset the maximum output value and the minimum output value of the flexible sensor. That is, the providing apparatus may set the maximum value and the minimum value among the output values generated by measuring the finger movement of the user wearing the motion glove for a predetermined time, respectively.

예컨대, 모션 글러브를 착용한 사용자가 10초동안 손가락을 움직이면, 제공 장치는 10초 동안 수집한 제2 센서출력값 중 최대값과 최소값을 검출하고, 검출된 최대값을 플렉서블 센서의 최대출력값으로 설정하고, 최소값을 최소출력값 설정한다.For example, when a user wearing a motion glove moves a finger for 10 seconds, the providing device detects the maximum and minimum values of the second sensor output values collected for 10 seconds, sets the detected maximum value as the maximum output value of the flexible sensor. , Set the minimum value to the minimum output value.

이때, 사용자의 손가락 움직임은 최대 범위에서의 움직임이 바람직하다. 예컨대, 사용자가 손가락을 모두 펴는 움직임과 주먹을 쥐는 움직임을 일정 시간동안 반복 수행하면, 제공 장치는 해당 움직임을 측정하여 출력값을 생성할 수 있다.In this case, the user's finger movement is preferably a movement in the maximum range. For example, if the user repeatedly performs the movement of extending the finger and the movement of the fist for a predetermined time, the providing device may generate an output value by measuring the movement.

다음으로, 제공 장치는 손가락 끝단 각도에 대응하는 포인트값을 손가락 관절각 산출 모델에 적용하여 손가락 관절별 관절 각도를 산출할 수 있다(S542). 즉, 손가락 끝단 각도는 손가락의 각 관절의 각도를 산출하는데 이용될 수 있다.Next, the providing apparatus may calculate a joint angle for each finger joint by applying a point value corresponding to the finger tip angle to the finger joint angle calculation model (S542). That is, the fingertip angle may be used to calculate the angle of each joint of the finger.

손가락 관절각 산출 모델은 손가락 끝단의 전체 가동 범위에 대하여 손가락의 각 관절별 관절 가동 범위를 모델링하여 생성될 수 있다. 그리고 각 관절별 관절 가동 범위는 서로 다르게 설정될 수 있다. 구체적으로, 관절별 관절 가동 범위는 모든 손가락 관절에 대해 다르게 설정될 수도 있고, 각 손가락에서 관절의 위치에 따라 다르게 설정될 수도 있다.The finger joint angle calculation model may be generated by modeling a joint motion range of each joint of the finger with respect to the entire motion range of the fingertip. And the joint movement range of each joint may be set differently. Specifically, the joint movement range for each joint may be set differently for all finger joints or may be set differently according to the position of the joint in each finger.

도 9는 본 발명의 일 실시예에 따른 손가락 관절각 산출 모델을 설명하기 위한 도면이고, 도 10은 본 발명의 일 실시예에 따른 손가락 관절각 산출 모델을 그래프 형태로 나타내는 도면이고, 도 11은 본 발명의 일 실시예에 따른 손가락의 각 관절의 각도 산출 원리를 설명하기 위한 도면이다.9 is a diagram illustrating a finger joint angle calculation model according to an embodiment of the present invention, FIG. 10 is a diagram illustrating a finger joint angle calculation model according to an embodiment of the present invention in a graph form, and FIG. 10 is a view for explaining the principle of calculating the angle of each joint of the finger according to an embodiment of the present invention.

도 9를 참조하면, 손가락은 엄지(thumb), 검지(index), 중지(middle), 약지(ring), 소지(pinky)의 5개로 구성된다. 그리고 각 손가락은 복수의 마디 및 복수의 관절로 구성된다.Referring to FIG. 9, a finger is composed of five parts such as a thumb, an index, a middle finger, a ring, and a pinky. Each finger is composed of a plurality of nodes and a plurality of joints.

구체적으로, 검지, 중지, 약지, 소지는 각각 근위마디(l_ⓕ_proximal), 중간마디(l_ⓕ_middle) 및 말단마디(l_ⓕ_distal)로 구성된다. 엄지는 근접마디(l_thumb_proximal) 및 원접마디(l_thumb_distal)로 구성된다.Specifically, the index finger, middle finger, ring finger, and the branch are composed of a proximal node (l_ⓕ_proximal), a middle node (l_ⓕ_middle), and a terminal node (l_ⓕ_distal), respectively. The thumb is composed of a proximal node (l_thumb_proximal) and a circular node (l_thumb_distal).

그리고, 검지, 중지, 약지, 소지는 관절의 위치에 따라 원위지절간(DIP, distal interphalangeal) 관절, 근위지절간(PIP, proximal interphalangeal) 관절, 중수지절간(MCP, metacarpal phalangea) 관절로 구성된다. 엄지는 원위지절간(DIP, distal interphalangeal) 관절, 중수지절간(MCP, metacarpal phalangeal) 관절로 구성된다.The index finger, middle finger, ring finger, and branch are composed of distal interphalangeal (DIP) joints, proximal interphalangeal (PIP) joints, and metacarpal phalangea (MCP) joints. . The thumb consists of distal interphalangeal (DIP) and metacarpal phalangeal (MCP) joints.

위에서 나타난 바와 같이, 원위지절간(DIP) 관절, 근위지절간(PIP) 관절, 중수지절간(MCP) 관절은 서로 다른 마디 사이에 존재하므로 동일한 사용자라고 하더라도 관절 가동 범위가 서로 다를 수 있다. 따라서, 본 발명의 실시예에 따른 손가락 관절각 산출 모델은 각 관절별로 관절 가동 범위를 다르게 설정하여 모델링된다. 예를 들어, 손가락 관절각 산출 모델은 각 손가락의 원위지절간(DIP) 관절에 0도 내지 90도, 근위지절간(PIP) 관절에 0도 내지 100도, 중수지절간(MCP) 관절에 -10도 내지 90도의 관절 가동 범위가 설정되어 모델링될 수 있다.As shown above, the distal interdigital joint (DIP) joint, proximal intercondylar joint (PIP) joint, and metacarpophalangeal joint (MCP) joint exist between different nodes, so even the same user may have a different range of motion. Therefore, the finger joint angle calculation model according to an embodiment of the present invention is modeled by setting different joint movement ranges for each joint. For example, the finger joint angle calculation model may include 0 to 90 degrees for the DIP joint of each finger, 0 to 100 degrees for the PIP joint, and 0 to 100 degrees for the metacarpophalangeal joint (MCP). A range of joint motion of 10 degrees to 90 degrees can be set and modeled.

한편, 엄지의 중수-수지간(CMC, carpometacarpal) 관절의 경우 손목과 연결된 관절로서 움직이는 범위가 적으므로, 모델링 시 해당 관절은 고려하지 않을 수 있다.On the other hand, in the case of the thumb-to-resin joint (CMC, carpometacarpal) joint has a small range of movement as a joint connected to the wrist, the joint may not be considered when modeling.

이렇게 각 손가락 관절별 관절각 범위를 설정하여 이상 꺽임이나 회전을 빙지할 수 있다. 또한 사람의 손 크기와 굽힘 정도에 따라 달라지는 플렉서블 센서의 출력값을 설정된 관절 각 범위에 정합하여 자연스러운 손동작을 구현할 수 있다.In this way, by setting the joint angle range for each finger joint, abnormal breaks or rotations can be made. In addition, by matching the output value of the flexible sensor, which varies depending on the size of the human hand and the degree of bending, it is possible to implement a natural hand motion.

도 10을 참조하면, 손가락 끝단의 전체 가동 범위에 대하여 손가락의 각 관절별 관절 가동 범위를 모델링하면, 손가락 관절각 산출 모델은 제1 내지 5 구간으로 모델링 될 수 있다.Referring to FIG. 10, when modeling joint ranges for each joint of a finger with respect to the entire range of motions of the fingertips, the finger joint angle calculation model may be modeled as the first to fifth sections.

제1 구간은 중수지절간(MCP) 관절의 관절 각도가 선형적으로 변하는 구간이다. 제1 구간에서 근위지절간(PIP) 관절 및 원위지절간(DIP) 관절은 최소각도값을 가질 수 있다.The first section is a section in which the joint angle of the metacarpophalangeal joint (MCP) joint changes linearly. In the first section, the PIP joint and the DIP joint may have a minimum angle value.

제2 구간은 중수지절간(MCP) 관절 및 근위지절간(PIP) 관절의 관절 각도가 선형적으로 변하는 구간이다. 제2 구간에서 원위지절간(DIP) 관절은 최소각도값을 가질 수 있다.The second section is a section in which the joint angles of the metacarpal joint (MCP) joint and the proximal joint joint (PIP) joint change linearly. In the second section, the distal interdigital joint (DIP) joint may have a minimum angle value.

제3 구간은 근위지절간(PIP) 관절의 관절 각도가 선형적으로 변하는 구간이다. 제3 구간에서 중수지절간(MCP) 관절은 최대각도값을 가지고 원위지절간(DIP) 관절은 최소각도값을 가질 수 있다.The third section is a section in which the joint angle of the PIP joint changes linearly. In the third section, the metacarpophalangeal joint (MCP) joint may have a maximum angle value, and the distal limb joint (DIP) joint may have a minimum angle value.

제4 구간은 근위지절간(PIP) 관절 및 원위지절간(DIP) 관절의 관절 각도가 선형적으로 변하는 구간이다. 제4 구간에서 중수지절간(MCP) 관절은 최대각도값을 가질 수 있다.The fourth section is a section in which the joint angles of the PIP joint and the DIP joint vary linearly. In the fourth section, the metacarpophalangeal joint (MCP) joint may have a maximum angle value.

제5 구간은 원위지절간(DIP) 관절의 관절 각도가 선형적으로 변하는 구간이다. 제5 구간에서, 중수지절간(MCP) 관절 및 근위지절간(PIP) 관절은 최대각도값을 가질 수 있다.The fifth section is a section in which the joint angle of the distal interdigital joint (DIP) joint changes linearly. In the fifth section, the metacarpophalangeal joint (MCP) joint and the proximal phalangeal joint (PIP) joint may have a maximum angle value.

도 11을 참조하면, 사용자가 (a)와 같이 움직인 경우, 손가락의 끝단 각도에 대응하는 포인트값은 a가 될 수 있다. 그러면 포인트값 a를 손가락 관절각 산출 모델에 적용하는데, 포인트값 a는 제1 구간에 포함된다. 따라서, 중수지절간(MCP) 관절에 대해 선형적 변화에 따른 각도값을 산출하고, 근위지절간(PIP) 관절 및 원위지절간(DIP) 관절에 대해 최소각도값을 산출한다.Referring to FIG. 11, when the user moves as shown in (a), the point value corresponding to the tip angle of the finger may be a. Then, the point value a is applied to the finger joint angle calculation model, and the point value a is included in the first section. Accordingly, the angle value according to the linear change is calculated for the metacarpophalangeal joint (MCP) joint, and the minimum angle value is calculated for the PIP joint and the distal limb joint (DIP) joint.

사용자가 (b)와 같이 움직인 경우, 손가락의 끝단 각도에 대응하는 포인트값은 b가 될 수 있다. 그러면 포인트값 b를 손가락관절각 산출 모델에 적용하는데, 포인트값 b는 제4 구간에 포함된다. 따라서, 근위지절간(PIP) 관절 및 원위지절간(DIP) 관절에 대해 선형적 변화에 따른 각도값을 산출하고, 중수지절간(MCP) 관절에 대해 최대각도값을 산출한다.When the user moves as shown in (b), the point value corresponding to the tip angle of the finger may be b. Then, the point value b is applied to the finger joint angle calculation model, and the point value b is included in the fourth section. Therefore, the angle value according to the linear change is calculated for the PIP joint and the distal interhepatic joint (DIP) joint, and the maximum angle value is calculated for the MCP joint.

사용자가 (c)와 같이 움직인 경우, 손가락의 끝단 각도에 대응하는 포인트값은 c가 될 수 있다. 그러면 포인트값 c를 손가락 관절각 산출 모델에 적용하는데, 포인트값 c는 제1 구간에 포함된다. 따라서, 원위지절간(DIP) 관절에 대해 선형적 변화에 따른 각도값을 산출하고, 중수지절간(MCP) 관절 및 근위지절간(PIP) 관절에 대해 최대각도값을 산출한다.When the user moves as shown in (c), the point value corresponding to the tip angle of the finger may be c. Then, the point value c is applied to the finger joint angle calculation model, and the point value c is included in the first section. Therefore, the angle value according to the linear change for the distal interhepatic joint (DIP) joint is calculated, and the maximum angle value is calculated for the metacarpal joint (MCP) joint and the proximal phalanx (PIP) joint.

또한 모션캡쳐에서 발생할 수 있는 위치 정합 오차를 콜리더를 사용하여 특정 거리만큼 가까워 졌을 때 미리 저장한 모션을 취할 수 있게 하고, 특정 거리만큼 떨어졌을 때 원래 모션으로 돌아가도록 할 수 있다. 이때 원래 모션으로 돌아가는 지연시간(delay time)을 콘텐츠 개발자가 설정할 수 있도록 할 수 있다. 예컨대, 실제 모션에서 엄지와 검지가 맞닿았을 때, 일 예로 손모양이 오케이 모양인 경우, 콘텐츠의 모션은 맞닿지 않을 수 있다. 따라서 실제 모션과 콘텐츠의 모션과 정합 오차를 줄이기 위해 엄지와 검지가 특정 거리만큼 가까워 졌을 때(엄지와 검지에 있는 콜리더가 맞닿았을 때) 두 손가락이 맞닿도록 구현할 수 있다.In addition, the position matching error that can occur in motion capture can be used by the collider to take a pre-stored motion when approaching a certain distance, and to return to the original motion when the distance is dropped by a certain distance. At this time, the content developer can set a delay time to return to the original motion. For example, when the thumb and the index finger are in contact with each other in an actual motion, for example, when the hand is ok, the motion of the content may not be in contact. Therefore, in order to reduce the motion and matching error of the actual motion and content, when the thumb and the index finger are moved closer by a certain distance (when the collider on the thumb and the index finger touches), the two fingers may be contacted.

다음으로, 제공 장치는 손가락의 관절별 관절 각도와 제3 센싱값을 이용하여 사용자의 손동작을 인식할 수 있다(S543). 예컨대, 제공 장치는 손가락의 관절별 관절 각도와 제3 센싱값을 캐릭터 모델에 적용하여 손동작을 구현할 수 있다. 다른 실시예로, 제공장치는 손가락의 관절별 관절 각도와 제3 센싱값을 프레젠테이션 제어 프로그램 같은 어플리케이션에 적용하여 손동작을 구현할 수 있다.Next, the providing apparatus may recognize a user's hand motion using the joint angle of each finger and the third sensing value (S543). For example, the providing apparatus may implement a hand gesture by applying a joint angle of each finger joint and a third sensing value to the character model. In another embodiment, the providing apparatus may implement a hand gesture by applying a joint angle of each finger joint and a third sensing value to an application such as a presentation control program.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ part' used in the present embodiment refers to software or a hardware component such as a field-programmable gate array (FPGA) or an ASIC, and '~ part' performs certain roles. However, '~' is not meant to be limited to software or hardware. '~ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'. In addition, the components and '~' may be implemented to play one or more CPUs in the device or secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

100: 모션 글러브
200: 사용자 단말
210: 통신부
220: 입력부
230: 제어부
240: 표시부
250: 저장부
100: motion glove
200: user terminal
210: communication unit
220: input unit
230: control unit
240: display unit
250: storage

Claims (12)

모션 글러브를 착용한 사용자의 손동작에 따라 측정된 센싱값을 포함한 데이터 패킷을 수신하는 통신부;
상기 데이터 패킷에 포함된 센싱값을 이용하여 매크로 기능 실행 여부를 판단하고, 상기 판단된 결과로 상기 매크로 기능이 실행되는 경우 상기 센싱값을 이용하여 상기 사용자의 손동작을 인식하여 상기 인식된 사용자의 손동작에 매칭되는 매크로 기능을 실행하는 제어부; 및
상기 매크로 기능이 실행되는 화면을 표시하는 표시부를 포함하는, 매크로 기능을 제공하기 위한 장치.
A communication unit receiving a data packet including a sensing value measured according to a hand gesture of a user wearing a motion glove;
It is determined whether the macro function is executed by using the sensing value included in the data packet, and when the macro function is executed as the determined result, the hand gesture of the user is recognized by using the sensing value to recognize the hand gesture of the user. A control unit which executes a macro function matched to; And
And a display unit for displaying a screen on which the macro function is executed.
제1항에 있어서,
상기 센싱값은
상기 사용자의 손동작에 따른 가속도값을 나타내는 제1 센싱값, 상기 사용자의 손목 회전에 따른 값을 나타내는 제2 센싱값, 상기 사용자의 손가락 굽힘에 따른 값을 나타내는 제3 센싱값을 포함하는, 매크로 기능을 제공하기 위한 장치.
The method of claim 1,
The sensing value is
A macro function including a first sensing value indicating an acceleration value according to the hand gesture of the user, a second sensing value indicating a value according to the user's wrist rotation, and a third sensing value indicating a value according to the user's finger bending Device for providing a.
제2항에 있어서,
상기 제어부는,
상기 제1 센싱값을 이용하여 상기 사용자의 손동작에 의한 매크로 기능 실행 여부를 판단하고,
상기 매크로 기능이 실행되는 것으로 판단되는 경우, 상기 제2 센싱값과 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식하는, 매크로 기능을 제공하기 위한 장치.
The method of claim 2,
The control unit,
It is determined whether the macro function is executed by the user's hand gesture using the first sensing value,
And when it is determined that the macro function is executed, recognizing a hand gesture of the user by using the second and third sensing values.
제3항에 있어서,
상기 제어부는,
상기 제1 센싱값을 이용하여 상기 매크로 기능 실행 여부를 판단하기 위한 임계값을 산출하고,
상기 산출된 임계값이 미리 정해진 임계범위 이내이면, 타이머를 구동시켜 유지 시간을 측정하고,
상기 측정된 유지 시간이 미리 정해진 임계 시간 이상이면, 상기 사용자의 손동작에 의해 매크로 기능이 실행되는 것으로 판단하는, 매크로 기능을 제공하기 위한 장치.
The method of claim 3,
The control unit,
Calculating a threshold value for determining whether to execute the macro function using the first sensing value,
If the calculated threshold value is within a predetermined threshold range, a timer is measured to measure a holding time,
And determining that the macro function is executed by the hand gesture of the user when the measured holding time is equal to or greater than a predetermined threshold time.
제4항에 있어서,
상기 임계값은,
수학식
Figure pat00005
에 의해 산출되고, ax, ay, az는 각각 3축 가속도 센서의 의해 측정된 x축, y축, z축의 값을 의미하는, 매크로 기능을 제공하기 위한 장치.
The method of claim 4, wherein
The threshold is
Equation
Figure pat00005
And a x , a y , a z denote values of the x-axis, y-axis, and z-axis respectively measured by the 3-axis acceleration sensor.
제3항에 있어서,
상기 제어부는,
상기 제2 센싱값을 이용하여 손가락 끝단 각도에 대응하는 포인트값을 산출하고,
상기 산출된 포인트값을 손가락 관절각 산출 모델에 적용하여 손가락 관절별 관절 각도를 산출하고,
상기 산출된 손가락의 관절별 관절 각도와 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식하는, 매크로 기능을 제공하기 위한 장치.
The method of claim 3,
The control unit,
The point value corresponding to the fingertip angle is calculated using the second sensing value,
Applying the calculated point value to the finger joint angle calculation model to calculate the joint angle for each finger joint,
And recognizing a user's hand gesture using the calculated joint angle of each finger of the finger and the third sensing value.
모션 글러브를 착용한 사용자의 손동작에 따라 측정된 센싱값을 포함한 데이터 패킷을 수신하는 단계;
상기 데이터 패킷에 포함된 센싱값을 이용하여 매크로 기능 실행 여부를 판단하고, 상기 판단된 결과로 상기 매크로 기능이 실행되는 경우 상기 센싱값을 이용하여 상기 사용자의 손동작을 인식하여 상기 인식된 사용자의 손동작에 매칭되는 매크로 기능을 실행하는 단계; 및
상기 매크로 기능이 실행되는 화면을 표시하는 단계를 포함하는, 매크로 기능을 제공하기 위한 방법.
Receiving a data packet including a sensing value measured according to a hand gesture of a user wearing a motion glove;
It is determined whether the macro function is executed by using the sensing value included in the data packet, and when the macro function is executed as the determined result, the hand gesture of the user is recognized by using the sensing value to recognize the hand gesture of the user. Executing a macro function matched to; And
Displaying a screen on which the macro function is executed.
제7항에 있어서,
상기 센싱값은
상기 사용자의 손동작에 따른 가속도값을 나타내는 제1 센싱값, 상기 사용자의 손목 회전에 따른 값을 나타내는 제2 센싱값, 상기 사용자의 손가락 굽힘에 따른 값을 나타내는 제3 센싱값을 포함하는, 매크로 기능을 제공하기 위한 방법.
The method of claim 7, wherein
The sensing value is
A macro function including a first sensing value indicating an acceleration value according to the hand gesture of the user, a second sensing value indicating a value according to the user's wrist rotation, and a third sensing value indicating a value according to the user's finger bending Method for providing.
제8항에 있어서,
상기 실행하는 단계에서는,
상기 제1 센싱값을 이용하여 상기 사용자의 손동작에 의한 매크로 기능 실행 여부를 판단하고,
상기 매크로 기능이 실행되는 것으로 판단되는 경우, 상기 제2 센싱값과 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식하는, 매크로 기능을 제공하기 위한 방법.
The method of claim 8,
In the executing step,
It is determined whether the macro function is executed by the user's hand gesture using the first sensing value,
And if it is determined that the macro function is executed, recognizing a hand gesture of the user using the second sensing value and the third sensing value.
제9항에 있어서,
상기 실행하는 단계에서는,
상기 제1 센싱값을 이용하여 상기 매크로 기능 실행 여부를 판단하기 위한 임계값을 산출하고,
상기 산출된 임계값이 미리 정해진 임계범위 이내이면, 타이머를 구동시켜 유지 시간을 측정하고,
상기 측정된 유지 시간이 미리 정해진 임계 시간 이상이면, 상기 사용자의 손동작에 의해 매크로 기능이 실행되는 것으로 판단하는, 매크로 기능을 제공하기 위한 방법.
The method of claim 9,
In the executing step,
Calculating a threshold value for determining whether to execute the macro function using the first sensing value,
If the calculated threshold value is within a predetermined threshold range, a timer is measured to measure a holding time,
If the measured holding time is equal to or greater than a predetermined threshold time, determining that the macro function is executed by the user's hand gesture.
제10항에 있어서,
상기 임계값은,
수학식
Figure pat00006
에 의해 산출되고, ax, ay, az는 각각 3축 가속도 센서의 의해 측정된 x축, y축, z축의 값을 의미하는, 매크로 기능을 제공하기 위한 방법.
The method of claim 10,
The threshold is
Equation
Figure pat00006
And a x , a y , a z denote values of the x-axis, y-axis, and z-axis respectively measured by the 3-axis acceleration sensor.
제9항에 있어서,
상기 실행하는 단계에서는,
상기 제2 센싱값을 이용하여 손가락 끝단 각도에 대응하는 포인트값을 산출하고,
상기 산출된 포인트값을 손가락 관절각 산출 모델에 적용하여 손가락 관절별 관절 각도를 산출하고,
상기 산출된 손가락의 관절별 관절 각도와 상기 제3 센싱값을 이용하여 상기 사용자의 손동작을 인식하는, 매크로 기능을 제공하기 위한 방법.
The method of claim 9,
In the executing step,
The point value corresponding to the fingertip angle is calculated using the second sensing value,
Applying the calculated point value to the finger joint angle calculation model to calculate the joint angle for each finger joint,
And recognizing a hand gesture of the user by using the calculated joint angle of each finger of the finger and the third sensing value.
KR1020190034357A 2018-05-16 2019-03-26 Apparatus for providing macro function using gesture recognition and method thereof KR102214322B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180056213 2018-05-16
KR20180056213 2018-05-16

Publications (2)

Publication Number Publication Date
KR20190131417A true KR20190131417A (en) 2019-11-26
KR102214322B1 KR102214322B1 (en) 2021-02-09

Family

ID=68731481

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190034357A KR102214322B1 (en) 2018-05-16 2019-03-26 Apparatus for providing macro function using gesture recognition and method thereof

Country Status (1)

Country Link
KR (1) KR102214322B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220159176A (en) * 2021-05-25 2022-12-02 (주)코어센스 Apparatus for recognizing hand gesture using flex sensor and method thereof
KR102612512B1 (en) * 2023-07-07 2023-12-11 주식회사 위시 Apparatus and method for implementing motion skills in a motion capture system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020072081A (en) * 2001-03-08 2002-09-14 은탁 Virtual input device sensed finger motion and method thereof
KR20100065074A (en) * 2008-12-05 2010-06-15 한국전자통신연구원 System for controlling robot based on motion recognition and method thereby
KR101385601B1 (en) 2012-09-17 2014-04-21 한국과학기술연구원 A glove apparatus for hand gesture cognition and interaction, and therefor method
KR101524575B1 (en) * 2014-08-20 2015-06-03 박준호 Wearable device
KR20160050758A (en) * 2014-10-31 2016-05-11 에스케이텔레콤 주식회사 Apparatus for motion recognition based on context awareness and storage medium therefor
KR101781999B1 (en) 2011-07-27 2017-09-26 삼성전자주식회사 Finger movement recognition glove and method using conductive coated material

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020072081A (en) * 2001-03-08 2002-09-14 은탁 Virtual input device sensed finger motion and method thereof
KR20100065074A (en) * 2008-12-05 2010-06-15 한국전자통신연구원 System for controlling robot based on motion recognition and method thereby
KR101781999B1 (en) 2011-07-27 2017-09-26 삼성전자주식회사 Finger movement recognition glove and method using conductive coated material
KR101385601B1 (en) 2012-09-17 2014-04-21 한국과학기술연구원 A glove apparatus for hand gesture cognition and interaction, and therefor method
KR101524575B1 (en) * 2014-08-20 2015-06-03 박준호 Wearable device
KR20160050758A (en) * 2014-10-31 2016-05-11 에스케이텔레콤 주식회사 Apparatus for motion recognition based on context awareness and storage medium therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220159176A (en) * 2021-05-25 2022-12-02 (주)코어센스 Apparatus for recognizing hand gesture using flex sensor and method thereof
KR102612512B1 (en) * 2023-07-07 2023-12-11 주식회사 위시 Apparatus and method for implementing motion skills in a motion capture system

Also Published As

Publication number Publication date
KR102214322B1 (en) 2021-02-09

Similar Documents

Publication Publication Date Title
US10877557B2 (en) IMU-based glove
TWI457793B (en) Real-time motion recognition method and inertia sensing and trajectory
US7565295B1 (en) Method and apparatus for translating hand gestures
US20180158370A1 (en) Hand motion interpretation and communication apparatus
KR100630806B1 (en) Command input method using motion recognition device
US20100023314A1 (en) ASL Glove with 3-Axis Accelerometers
US20080036737A1 (en) Arm Skeleton for Capturing Arm Position and Movement
EP3985488A1 (en) Method and wearable device for performing actions using body sensor array
KR101930652B1 (en) Gait analysis system and computer program recorded on recording medium
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
US20220155866A1 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
TWI567592B (en) Gesture recognition method and wearable apparatus
Gunawardane et al. Comparison of hand gesture inputs of leap motion controller & data glove in to a soft finger
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
US11054923B2 (en) Automatic switching between different modes of tracking user motions to control computer applications
KR101983584B1 (en) Apparatus for recognizing hand motion using flexible sensor and method thereof
KR102214322B1 (en) Apparatus for providing macro function using gesture recognition and method thereof
EP3289435B1 (en) User interface control using impact gestures
JP2017120575A (en) Posture operation detector
Amatya et al. Real time kinect based robotic arm manipulation with five degree of freedom
Sidek et al. Wireless gesture recognition system using MEMS accelerometer
Roshandel et al. Multi-sensor based gestures recognition with a smart finger ring
KR101869304B1 (en) System, method and program for recognizing sign language
JP2016095795A (en) Recognition device, method, and program
Agarwal et al. Gestglove: A wearable device with gesture based touchless interaction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant