KR20200063378A - Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same - Google Patents

Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same Download PDF

Info

Publication number
KR20200063378A
KR20200063378A KR1020180148171A KR20180148171A KR20200063378A KR 20200063378 A KR20200063378 A KR 20200063378A KR 1020180148171 A KR1020180148171 A KR 1020180148171A KR 20180148171 A KR20180148171 A KR 20180148171A KR 20200063378 A KR20200063378 A KR 20200063378A
Authority
KR
South Korea
Prior art keywords
motion
human body
information
sensor
human
Prior art date
Application number
KR1020180148171A
Other languages
Korean (ko)
Other versions
KR102282319B1 (en
Inventor
이창기
원병희
김종현
홍재수
한상규
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020180148171A priority Critical patent/KR102282319B1/en
Publication of KR20200063378A publication Critical patent/KR20200063378A/en
Application granted granted Critical
Publication of KR102282319B1 publication Critical patent/KR102282319B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a human body motion recognition device and a human body motion recognition method using a complementary complex sensor. According to the present invention, the human body motion recognition device using a complementary complex sensor comprises: a motion recognition sensor recognizing motions of a human body in one direction of the human body to obtain first motion information; an inertia measurement sensor attached to a part of the human body and measuring a gravity-based angle for a position of the attachment to acquire second motion information; a synchronization module synchronizing the first motion information and the second motion information to generate synchronization information; and a calculation part determining a final motion of the human body based on the synchronization information.

Description

상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법{Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same}Human Motion Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same

본 발명은 인체 동작인식장치 및 인체 동작인식방법에 관한 것으로서, 보다 상세하게는 서로 상호 보완적으로 동작정보를 취득하는 복수의 센서를 통해 보다 정확한 인체 동작을 판단할 수 있도록 하는 인체 동작인식장치 및 인체 동작인식방법에 관한 것이다.The present invention relates to a human body motion recognition device and a human body motion recognition method, and more specifically, a human body motion recognition device capable of determining a more accurate human body motion through a plurality of sensors that acquire mutually complementary motion information and It relates to a human body motion recognition method.

최근에는 특정한 컨트롤러, 키보드, 패드 등을 이용한 인터페이스 방식에서 발전하여 센서를 이용한 동작 인식을 통한 인터페이스에 대한 연구 및 개발이 활발하게 이루어지고 있다.In recent years, the development of the interface method using a specific controller, keyboard, pad, etc. has been actively researched and developed for the interface through motion recognition using a sensor.

이와 같은 동작 인식 기반 인터페이스는 현재 게임 분야, 의료 분야 등 다양한 산업 분야에서 적용되고 있으며, 인체 동작의 인식 방법 역시 매우 다양화되고 있는 추세이다.The gesture recognition based interface is currently applied in various industries such as the game field and the medical field, and the method of recognizing the human body motion is also very diversified.

이중 가장 널리 사용되고 있는 동작 인식 방법은 적외선 센서를 통한 인식 방법으로서, 인체로부터 방사되는 적외선 파장을 인식하여 해당 패턴으로부터 인체의 현재 동작을 판단하는 방법이다.The most widely used motion recognition method is a recognition method using an infrared sensor, and is a method of recognizing an infrared wavelength emitted from a human body and determining a current motion of the human body from a corresponding pattern.

이와 같은 적외선 센서를 통한 동작 인식 방법은 시스템을 구축하기 위한 비용이 저렴하며, 소비전력이 매우 적고, 무소음 측정이 가능하다는 장점이 있으나, 외부 환경에 민감하고 장애물 없이 직선 상에 위치된 대상에 대해서만 동작 인식이 가능하다는 단점이 있다.The motion recognition method using the infrared sensor has an advantage of low cost for constructing a system, very low power consumption, and noiseless measurement, but is sensitive to the external environment and only for objects located on a straight line without obstacles. There is a disadvantage that motion recognition is possible.

따라서 상기와 같은 적외선 센서를 이용한 동작 감지 방식은 동작 감지 대상의 신체 일부가 다른 신체 부위에 의해 가려지거나, 또는 동작 보조자가 존재할 경우 동작 보조자의 신체에 의해 동작 감지 대상의 신체가 가려지는 등과 같은 상황에서는 부정확한 결과가 나타나게 되는 문제가 있었다.Therefore, the motion detection method using the infrared sensor described above is a situation in which a body part of a motion detection target is covered by another body part, or when a motion assistant exists, the body of the motion detection target is blocked by the motion assistant body. Esau had the problem of inaccurate results.

따라서 이와 같은 문제점들을 해결하기 위한 방법이 요구된다.Therefore, a method for solving these problems is required.

한국등록특허 제10-1329529호Korean Registered Patent No. 10-1329529

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 동작 감지 대상의 신체 일부가 다른 신체 부위, 다른 인체 또는 장애물 등에 의해 가려지더라도 동작 감지 대상에 대한 정확한 동작 인식을 수행할 수 있도록 하기 위한 목적을 가진다.The present invention is an invention devised to solve the above-described problems of the prior art, and can perform accurate motion recognition for a motion detection target even if a part of the body of the motion detection target is covered by another body part, another human body, or an obstacle. It has a purpose to help.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기한 목적을 달성하기 위한 본 발명의 상호 보완형 복합센서를 이용한 인체 동작인식장치는, 인체의 일측 방향에서 인체의 동작을 인식하여 제1동작정보를 획득하는 동작인식센서, 인체의 신체 일부에 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 관성측정센서, 상기 제1동작정보 및 상기 제2동작정보를 동기화하여 동기화정보를 생성하는 동기화모듈 및 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 연산부를 포함한다.The human motion recognition apparatus using the complementary complex sensor of the present invention for achieving the above object is a motion recognition sensor that recognizes the motion of the human body in one direction of the human body and obtains the first motion information. Attached, the inertial measurement sensor to obtain the second motion information by measuring the gravity-based angle of the attachment position, the synchronization module for synchronizing the first motion information and the second motion information to generate synchronization information and the synchronization information It includes a calculation unit for determining the final motion of the human body based.

그리고 상기 관성측정센서는 인체의 서로 다른 신체 부위에 복수 개가 구비될 수 있다.In addition, a plurality of inertial measurement sensors may be provided at different body parts of the human body.

또한 상기 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 오차보정부를 더 포함할 수 있다.In addition, an error correction unit that corrects an error by collecting a plurality of second operation information obtained from the plurality of inertial measurement sensors may be further included.

그리고 상기한 목적을 달성하기 위한 본 발명의 상호 보완형 복합센서를 이용한 인체 동작인식방법은, 인체 일측에 위치된 동작인식센서를 통해 인체의 동작을 감지하여 제1동작정보를 획득하는 (a)단계, 인체의 신체 일부에 부착된 하나 이상의 관성측정센서를 통해 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 (b)단계, 동기화모듈을 통해 상기 제1동작정보 및 상기 제2동작정보를 동기화하는 (c)단계 및 연산부가 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 (d)단계를 포함한다.In addition, the human motion recognition method using the complementary complex sensor of the present invention for achieving the above object is obtained by detecting the motion of the human body through the motion recognition sensor located on one side of the human body (a) Step, (b) obtaining the second motion information by measuring the gravity-based angle of the attachment position through one or more inertial measurement sensors attached to the body part of the human body, the first motion information and the first through the synchronization module Step 2 (c) for synchronizing motion information and step (d) for determining a final motion of the human body based on the synchronization information by the operation unit.

또한 상기 (c)단계는, 인체의 초기 자세로부터 최후 자세까지의 변화 과정을 복수의 동작구간으로 분할하여 동기화를 수행할 수 있다.In addition, in step (c), synchronization may be performed by dividing the change process from the initial posture to the last posture of the human body into a plurality of operation sections.

그리고 상기 (d)단계는, 복수의 동작 구간으로 분할된 상기 동기화정보를 기 저장된 기준정보와 대비하여 인체의 최종 동작을 판단할 수 있다.And in step (d), the synchronization information divided into a plurality of operation sections may be compared with pre-stored reference information to determine the final motion of the human body.

또한 상기 (d)단계는, 복수의 동작 구간 별로 서로 인접한 관절 사이의 신체 부위에 대한 중력 기반 각도를 추출하고, 복수의 동작 구간 간의 연속성을 통해 인체의 최종 동작을 판단할 수 있다.In addition, in step (d), a gravity-based angle of a body part between joints adjacent to each other for a plurality of motion sections may be extracted, and the final motion of the human body may be determined through continuity between the plurality of motion sections.

그리고 상기 (b)단계는, 상기 동작인식센서의 센싱 범위를 벗어나 있는 신체 부위에 대해 상기 제2동작정보를 획득할 수 있다.In addition, in step (b), the second motion information may be acquired for a body part outside the sensing range of the motion recognition sensor.

또한 상기 관성측정센서는 인체의 서로 다른 신체 부위에 복수 개가 구비되며, 상기 (b)단계 및 상기 (c)단계 사이에는, 오차보정부가 상기 (b)단계에서 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 (ex)단계가 더 포함될 수 있다.In addition, a plurality of inertial measurement sensors are provided in different body parts of the human body, and between steps (b) and (c), an error correction unit acquires a plurality of inertial measurement sensors in step (b). The (ex) step of correcting the error by collecting the second operation information of may be further included.

상기한 과제를 해결하기 위한 본 발명의 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법은, 상호 보완적으로 작동하는 동작인식센서 및 관성측정센서를 통해 동작 감지 대상의 신체 일부가 다른 신체 부위, 동작 보조자와 같은 다른 인체 또는 장애물 등에 의해 가려지더라도 동작 감지 대상에 대한 정확한 동작 인식을 수행할 수 있는 장점이 있다.The human motion recognition device and the human motion recognition method using the mutually complementary complex sensor of the present invention for solving the above-described problems, the body part of the motion detection target is operated through the motion recognition sensor and the inertial measurement sensor that are complementary to each other. Even if it is covered by another body part, another human body such as a motion assistant, or an obstacle, there is an advantage that it is possible to perform accurate motion recognition for a motion detection target.

또한 본 발명은 신체 기능 상태를 판단하기 위해 동작 기반의 평가를 수행하는 재활 임상 영역뿐만 아니라 가정용, 개인용 건강정보를 포함한 서비스 분야에도 적용이 가능하다는 장점이 있다.In addition, the present invention has the advantage that it can be applied to service areas including home and personal health information as well as a rehabilitation clinical area that performs motion-based evaluation to determine a physical function state.

그리고 이에 따라 측정 신뢰성이 확보된 동일한 기준으로 대상자의 신체 기능 상태를 정량적으로 평가할 수 있으며, 평가 과정의 움직임을 측정 및 분석하여 기존의 아날로그 평가에 비해 신체 기능 상태를 상세히 분석할 수 있는 장점이 있다.In addition, according to this, the subject's physical function state can be quantitatively evaluated based on the same criteria for which measurement reliability is secured, and the movement of the evaluation process can be measured and analyzed to analyze the physical function state in detail compared to the existing analog evaluation. .

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 인체 동작인식장치에 있어서, 동작인식센서 및 관성측정센서의 구비 형태를 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 인체 동작인식장치의 각 구성요소를 개략적으로 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 인체 동작인식방법의 각 단계를 나타낸 도면; 및
도 4 및 도 5는 본 발명의 일 실시예에 따른 인체 동작인식방법에 있어서, 인체의 초기 자세로부터 최후 자세까지의 변화 과정을 복수의 동작구간으로 분할하여 인체의 최종 동작을 판단하는 과정을 나타낸 도면이다.
1 is a view of a human body motion recognition device according to an embodiment of the present invention, showing a configuration of the motion recognition sensor and the inertial measurement sensor;
2 is a view schematically showing each component of the human motion recognition apparatus according to an embodiment of the present invention;
3 is a view showing each step of the human motion recognition method according to an embodiment of the present invention; And
4 and 5 in the human motion recognition method according to an embodiment of the present invention, showing the process of determining the final motion of the human body by dividing the process of change from the initial posture to the last posture of the human body into a plurality of operation sections It is a drawing.

이하 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention, in which the object of the present invention can be specifically realized, will be described with reference to the accompanying drawings. In describing this embodiment, the same name and the same code are used for the same configuration, and additional description will be omitted.

도 1은 본 발명의 일 실시예에 따른 인체 동작인식장치에 있어서, 동작인식센서 및 관성측정센서의 구비 형태를 나타낸 도면이며, 도 2는 본 발명의 일 실시예에 따른 인체 동작인식장치의 각 구성요소를 개략적으로 나타낸 도면이다.1 is a view showing a form of a motion recognition sensor and an inertial measurement sensor in a human motion recognition device according to an embodiment of the present invention, and FIG. 2 is an angle of a human motion recognition device according to an embodiment of the present invention. It is a diagram schematically showing the components.

도 1 및 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인체 동작인식장치는 동작인식센서(10)와, 관성측정센서(20)와, 오차보정부(30)와, 동기화모듈(40)과, 연산부(50)를 포함한다.1 and 2, the human body motion recognition device according to an embodiment of the present invention includes a motion recognition sensor 10, an inertial measurement sensor 20, an error correction unit 30, and a synchronization module. It includes (40) and a calculating part (50).

상기 동작인식센서(10)는 인체(P)의 일측 방향에서 인체(P)의 동작을 인식하여 제1동작정보를 획득하는 구성요소이며, 상기 동작인식센서(10)는 다양한 방식으로 인체(P)의 동작을 감지할 수 있다.The motion recognition sensor 10 is a component that recognizes the motion of the human body P in one direction of the human body P and acquires first motion information, and the motion recognition sensor 10 is a human body P in various ways. ) Can be detected.

예컨대 상기 동작인식센서(10)는 적외선센서, 카메라모듈, 초음파센서 등 다양한 형태의 동작인식 모듈 중 적어도 어느 하나 이상이 조합되어 인체(P)의 동작을 감지할 수 있으며, 이외에도 다양한 동작인식 모듈 중 어느 하나 이상이 더 포함될 수 있음은 물론이다.For example, the motion recognition sensor 10 may detect the motion of the human body P by combining at least one of various types of motion recognition modules such as an infrared sensor, a camera module, and an ultrasonic sensor, among other various motion recognition modules. Of course, any one or more may be included.

상기 관성측정센서(20, Inertial Measurement Unit, IMU)는 인체(P)의 신체 일부에 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 구성요소이다. 이와 같은 관성측정센서(20)는 상기 동작인식센서(10)를 보조하여 인체(P)의 동작을 인식할 수 있도록 한다.The inertial measurement unit 20 (IMU) is a component that is attached to a body part of the human body P and acquires second motion information by measuring a gravity-based angle of the attachment position. The inertial measurement sensor 20 assists the motion recognition sensor 10 to recognize the motion of the human body P.

상기 동작인식센서(10)는 장애물 없이 직선 상에 위치된 대상에 대해서만 동작 인식이 가능한 특성을 가지므로, 상기 동작인식센서(10)를 통한 동작 감지 방식은 동작 감지 대상이 되는 인체(P)의 신체 일부가 다른 신체 부위에 의해 가려지거나, 또는 대상자를 보조하기 위한 동작 보조자가 인접하여 존재할 경우 동작 보조자의 신체에 의해 동작 감지 대상의 신체가 가려지는 등과 같은 상황에서는 부정확한 결과가 나타나게 될 수 있다. 따라서 본 발명은 상기 관성측정센서(20)를 통해 상기 동작인식센서(10)의 기능을 보완하게 된다.Since the motion recognition sensor 10 has a characteristic capable of recognizing motion only for an object located on a straight line without an obstacle, the motion detection method through the motion recognition sensor 10 is a function of the human body P that is a motion detection target. When a part of the body is covered by another body part, or when a motion assistant for assisting the subject exists adjacently, inaccurate results may occur in situations such as the body of the motion detection target being blocked by the body of the motion assistant. . Therefore, the present invention complements the function of the motion recognition sensor 10 through the inertial measurement sensor 20.

즉 상기 동작인식센서(10)는 인체(P)의 동작을 구분하고 관절 간의 움직임 상태를 파악하며, 상기 관성측정센서(20)는 부착 위치에 대한 중력 기반의 각도를 측정하여 상호 보완적인 역할을 수행할 수 있다.That is, the motion recognition sensor 10 distinguishes the motion of the human body P and grasps the movement state between the joints, and the inertial measurement sensor 20 measures the angle based on the gravity of the attachment position to play a complementary role. It can be done.

그리고 상기 관성측정센서(20)는 인체(P)의 특정 신체 부위에 장착이 가능한 웨어러블 형태로 형성될 수 있으며, 인체(P)의 다양한 신체 부위에 제한 없이 장착될 수 있다.In addition, the inertial measurement sensor 20 may be formed in a wearable form that can be mounted on a specific body part of the human body P, and may be mounted without limitation to various body parts of the human body P.

상기 오차보정부(30)는 상기 관성측정센서(20)가 인체(P)의 서로 다른 신체 부위에 복수 개가 구비될 경우, 상기 복수의 관성측정센서(20-1~20-n)로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 구성요소이다.The error correction unit 30 is obtained from the plurality of inertial measurement sensors 20-1 to 20-n when the inertial measurement sensor 20 is provided with a plurality of different body parts of the human body P. It is a component that corrects errors by collecting a plurality of second operation information.

상기 관성측정센서(20)를 여러 개 사용할 경우, 반복되는 동작 측정시 각 관성측정센서(20) 간의 각도를 구하는데 있어서 오차가 지속적으로 누적되어 정확한 값을 계산하지 못할 수 있기 때문에, 상기 오차보정부(30)는 이와 같은 정보 누적 과정에서 발생하는 오차를 보정하게 된다.When multiple inertial measurement sensors 20 are used, errors may be continuously accumulated in calculating the angle between each inertial measurement sensor 20 when measuring repeated motions, and thus the exact value may not be calculated. The government 30 corrects errors generated in the process of accumulating information.

상기 동기화모듈(40)은 상기 동작인식센서(10)를 통해 획득한 상기 제1동작정보 및 상기 관성측정센서(20)를 통해 획득한 상기 제2동작정보를 동기화하여 동기화정보를 생성한다. 이는 상기 제1동작정보와 상기 제2동작정보를 서로 호환 가능한 데이터로서 처리할 수 있도록 하기 위함이다.The synchronization module 40 generates synchronization information by synchronizing the first motion information obtained through the motion recognition sensor 10 and the second motion information obtained through the inertial measurement sensor 20. This is to enable the first operation information and the second operation information to be processed as data compatible with each other.

그리고 상기 연산부(50)는 상기 동기화모듈(40)에 의해 동기화된 상기 동기화정보를 기반으로 하여 인체(P)의 최종 동작을 판단하는 구성요소이다.In addition, the operation unit 50 is a component that determines the final operation of the human body P based on the synchronization information synchronized by the synchronization module 40.

이상과 같이, 본 발명은 상호 보완적으로 작동하는 동작인식센서(10) 및 관성측정센서(20)를 통해 동작 감지 대상이 되는 인체(P)의 신체 일부가 다른 신체 부위, 동작 보조자와 같은 다른 인체 또는 장애물 등에 의해 가려지더라도 동작 감지 대상에 대한 정확한 동작 인식을 수행할 수 있는 장점이 있다.As described above, according to the present invention, a body part of a human body P to be a motion detection target through a motion recognition sensor 10 and an inertial measurement sensor 20 that are complementary to each other is different from other body parts, such as motion assistants. Even if it is obscured by a human body or an obstacle, there is an advantage that it is possible to perform accurate motion recognition for a motion detection target.

또한 측정 신뢰성이 확보된 동일한 기준으로 대상자의 신체 기능 상태를 정량적으로 평가할 수 있으며, 평가 과정의 움직임을 측정 및 분석하여 기존의 아날로그 평가에 비해 신체 기능 상태를 상세히 분석할 수 있다.In addition, it is possible to quantitatively evaluate the subject's body function status using the same criteria for which measurement reliability is secured, and to analyze and analyze the movement of the evaluation process to analyze the body function status in detail compared to the existing analog assessment.

이하에서는, 상기와 같은 인체 동작인식장치를 통한 인체 동작인식방법에 대해 설명하도록 한다.Hereinafter, a method for recognizing a human body through the above-described body motion recognition apparatus will be described.

도 3은 본 발명의 일 실시예에 따른 인체 동작인식방법의 각 단계를 나타낸 도면이다.3 is a view showing each step of the human body motion recognition method according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인체 동작인식방법은 인체(P) 일측에 위치된 동작인식센서(10)를 통해 인체(P)의 동작을 감지하여 제1동작정보를 획득하는 (a)단계와, 인체(P)의 신체 일부에 부착된 하나 이상의 관성측정센서(20)를 통해 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 (b)단계와, 동기화모듈(40)을 통해 상기 제1동작정보 및 상기 제2동작정보를 동기화하는 (c)단계와, 연산부(50)가 상기 동기화정보를 기반으로 하여 인체(P)의 최종 동작을 판단하는 (d)단계를 포함한다.As illustrated in FIG. 3, the human body motion recognition method according to an embodiment of the present invention detects the motion of the human body P through the motion recognition sensor 10 located on one side of the human body P, and thus operates the first motion information. Step (a) of acquiring, and step (b) of acquiring second motion information by measuring the gravity-based angle of the attachment position through at least one inertial measurement sensor 20 attached to a body part of the human body P And, (c) step of synchronizing the first operation information and the second operation information through the synchronization module 40, and the calculation unit 50 determines the final operation of the human body P based on the synchronization information (D).

그리고 상기 관성측정센서(20)가 인체(P)의 서로 다른 신체 부위에 복수 개가 구비될 경우, 상기 (b)단계 및 상기 (c)단계 사이에는, 오차보정부(30)가 상기 (b)단계에서 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 (ex)단계가 더 포함될 수 있다.And when the inertial measurement sensor 20 is provided with a plurality of different body parts of the human body (P), between step (b) and step (c), the error correction 30 is the (b) In the step, the step of (ex) correcting an error by collecting a plurality of second motion information obtained from a plurality of inertial measurement sensors may be further included.

이와 같은 본 발명의 각 단계 중 상기 (b)단계는, 상기 동작인식센서(10)의 센싱 범위를 벗어나 있는 신체 부위에 대해 상기 제2동작정보를 획득하는 것으로 할 수 있다.In step (b) of each step of the present invention, it may be assumed that the second motion information is obtained for a body part outside the sensing range of the motion recognition sensor 10.

즉 상기 (b)단계에서는 상기 동작인식센서(10)에 의해 판단이 어려운 부분에 대해서만 상기 제2동작정보를 획득하고, 이를 제1동작정보의 보완적 정보로서 활용할 수 있다. 이와 같이 하는 이유는, 제2동작정보에서 상기 제1동작정보와 중복되는 정보를 담고 있는 데이터를 줄여 전체 데이터량을 최소화하기 위한 것이다. 다만, 상기 제1동작정보의 센싱 범위와 관계 없이 상기 제2동작정보를 인체(P)의 전체 부위로부터 획득하도록 설정할 수 있는 것은 물론이다.That is, in the step (b), the second motion information can be obtained only for a portion difficult to be determined by the motion recognition sensor 10, and this may be used as supplementary information of the first motion information. The reason for doing this is to minimize the total amount of data by reducing data containing information that overlaps the first operation information in the second operation information. However, it is needless to say that the second motion information can be set to be obtained from all parts of the human body P regardless of the sensing range of the first motion information.

또한 본 실시예에서 상기 (c)단계는, 인체(P)의 초기 자세로부터 최후 자세까지의 변화 과정을 복수의 동작구간으로 분할하여 동기화를 수행하는 것으로 할 수 있다.In addition, in the present embodiment, step (c) may be performed by dividing the change process from the initial posture to the last posture of the human body P into a plurality of operation sections to perform synchronization.

예컨대, 도 4에 도시된 바와 같이 대상이 되는 인체(P)가 의자 등에 앉아 있는 상태로부터 기립하는 과정까지를 동작의 특성에 따라 구분하게 되면, 초기 자세 이후 최후 자세까지 총 4개의 동작구간으로 분할이 가능하다.For example, as illustrated in FIG. 4, when the target human body P is separated from a sitting state on a chair or the like to a standing process according to the characteristics of the motion, it is divided into a total of four motion sections from the initial posture to the last posture. This is possible.

또한 이와 같은 각 동작구간의 분할 기준이 되는 것은 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk), 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa)가 될 수 있다.In addition, the criteria for the division of each motion section are the angle of the thigh with respect to the extension line of the upper body according to the motion of the hip joint (θ h ), the angle of the thigh with respect to the extension line of the thigh according to the movement of the knee joint, θ k , the ankle It may be an angle θ a of the lower thigh relative to the direction of gravity according to the movement of the joint.

즉 본 발명은 인체(P)의 특정 동작을 각 신체 부위의 각도 변화 경향을 통해 복수의 동작구간으로 분할할 수 있다.That is, the present invention can divide a specific operation of the human body P into a plurality of operation sections through a tendency to change the angle of each body part.

구체적으로 도 4에 도시된 바와 같이 대상자의 인체(P)가 의자에 앉아 있는 초기 상태의 경우, 앉은 자세에서 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk)는 90°와 근사한 값을 가진다. 또한 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa)는 0°인 상태이다.Specifically, as shown in FIG. 4, in the case of the initial state in which the subject's human body P is sitting on the chair, the angle of the thigh with respect to the extension line of the upper body according to the movement of the hip joint in the sitting position (θ h ), of the knee joint The angle θ k of the lower thigh relative to the extension line of the thigh according to the movement has a value close to 90°. In addition, the angle (θ a ) of the lower thigh relative to the direction of gravity according to the movement of the ankle joint is in a state of 0°.

그리고 대상자가 일어나기 위해 지면을 밟아 힘을 가하는 제1동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh) 및 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk)가 90°보다 증가하는 경향을 보이며, 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa) 역시 증가하여 0°이상의 각도를 가지도록 변화한다.And in the first motion section in which the subject steps on the ground in order to wake up, the angle of the thigh with respect to the extension line of the upper body according to the movement of the hip joint (θ h ) and the angle of the thigh with respect to the extension line of the thigh according to the movement of the knee joint (θ k ) tends to increase more than 90°, and the angle (θ a ) of the lower part with respect to the direction of gravity according to the movement of the ankle joint also increases and changes to have an angle of 0° or more.

다음으로, 대상자가 의자로부터 엉덩이를 이탈시켜 균형을 잡는 과정인 제2동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh) 및 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk)가 제2동작구간보다 점차 감소하는 경향을 보이게 된다.Next, in the second movement section, in which the subject removes the hip from the chair and balances it, the angle of the thigh with respect to the extension line of the upper body according to the movement of the hip joint (θ h ) and the extension line of the thigh according to the movement of the knee joint The angle (θ k ) of the lower thigh portion with respect to the second operation section tends to decrease gradually.

그리고 대상자가 신체를 기립시키는 과정인 제3동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk) 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa) 모두가 0°를 향해 감소하는 경향을 보인다.In the third motion section, in which the subject stands up, the angle of the thigh with respect to the extension line of the upper body according to the movement of the hip joint (θ h ), and the angle of the lower thigh with respect to the extension line of the thigh according to the movement of the knee joint (θ Both k ) and the angle of the lower part (θ a ) with respect to the direction of gravity according to the movement of the ankle joint tend to decrease toward 0°.

이후 대상자가 신체를 완전히 기립시키기까지의 과정인 제4동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk) 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa) 모두가 0°를 이루게 되며, 대상자의 동작이 종료된다.Then, in the fourth motion section, which is the process until the subject completely erects the body, the angle of the thigh with respect to the extension line of the upper body according to the movement of the hip joint (θ h ), and the thigh of the extension line with respect to the movement of the knee joint Both the angle θ k and the angle of the lower part θ a with respect to the direction of gravity according to the movement of the ankle joint form 0°, and the motion of the subject ends.

이와 같은 전체 과정 중 신체 부위 별 각도 변화를 측정하여 해당 데이터를 연속적으로 나열할 경우, 도 5에 도시된 그래프로서 표현될 수 있다.When the angular change of each body part is measured and the corresponding data are sequentially arranged, the entire process can be expressed as a graph illustrated in FIG. 5.

즉 본 발명은 이와 같은 각 동작구간을 동작인식센서(10) 및 관성측정센서(20)를 통해 실시간으로 획득하고, 복수의 동작 구간 별로 서로 인접한 관절 사이의 신체 부위에 대한 중력 기반 각도를 추출하고, 복수의 동작 구간 간의 연속성을 통해 인체의 최종 동작을 판단할 수 있다.That is, the present invention acquires each of these motion sections in real time through the motion recognition sensor 10 and the inertial measurement sensor 20, extracts gravity-based angles of body parts between joints adjacent to each other for a plurality of motion sections, and , It is possible to determine the final motion of the human body through continuity between a plurality of motion sections.

또한 현재 대상자의 동작이 어느 동작구간에 포함되어 있는지 또는 이와 같은 동작을 몇 회 시도하였는지 등의 여부 역시 파악이 가능하게 된다.In addition, it is also possible to determine whether the current subject's motion is included in a certain motion section or how many times such motion has been attempted.

그리고 상기 (d)단계는, 복수의 동작 구간으로 분할된 상기 동기화정보를 기 저장된 기준정보와 대비하여 인체의 최종 동작을 판단할 수도 있다. 즉 상기 동기화정보의 패턴이 기준정보 패턴의 오차 범위 내에 들어올 경우, 대상자가 해당 동작을 수행한 것으로 판단하게 된다.In addition, in step (d), the final operation of the human body may be determined by comparing the synchronization information divided into a plurality of operation sections with pre-stored reference information. That is, when the pattern of the synchronization information falls within the error range of the reference information pattern, it is determined that the subject has performed the corresponding operation.

이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the preferred embodiments according to the present invention have been examined, and the fact that the present invention may be embodied in other specific forms without departing from the spirit or scope of the embodiments described above has ordinary knowledge in the art. It is obvious to them. Therefore, the above-described embodiments are to be regarded as illustrative rather than restrictive, and accordingly, the present invention is not limited to the above description and may be changed within the scope of the appended claims and their equivalents.

10: 동작인식센서
20: 관성측정센서
30: 오차보정부
40: 동기화모듈
50: 연산부
10: motion recognition sensor
20: inertial measurement sensor
30: Ochabo government
40: synchronization module
50: operation unit

Claims (9)

인체의 일측 방향에서 인체의 동작을 인식하여 제1동작정보를 획득하는 동작인식센서;
인체의 신체 일부에 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 관성측정센서;
상기 제1동작정보 및 상기 제2동작정보를 동기화하여 동기화정보를 생성하는 동기화모듈; 및
상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 연산부;
를 포함하는 상호 보완형 복합센서를 이용한 인체 동작인식장치.
A motion recognition sensor that recognizes the motion of the human body in one direction of the human body and obtains first motion information;
An inertial measurement sensor attached to a body part of the human body and obtaining a second motion information by measuring a gravity-based angle with respect to the attachment position;
A synchronization module generating synchronization information by synchronizing the first operation information and the second operation information; And
A calculation unit to determine the final motion of the human body based on the synchronization information;
Human motion recognition device using a complementary complex sensor comprising a.
제1항에 있어서,
상기 관성측정센서는 인체의 서로 다른 신체 부위에 복수 개가 구비되는 상호 보완형 복합센서를 이용한 인체 동작인식장치.
According to claim 1,
The inertial measurement sensor is a human motion recognition device using a complementary complex sensor in which a plurality of different body parts are provided.
제2항에 있어서,
상기 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 오차보정부를 더 포함하는 상호 보완형 복합센서를 이용한 인체 동작인식장치.
According to claim 2,
A human motion recognition apparatus using a complementary complex sensor further comprising an error correction unit that corrects an error by collecting a plurality of second motion information obtained from the plurality of inertial measurement sensors.
인체 일측에 위치된 동작인식센서를 통해 인체의 동작을 감지하여 제1동작정보를 획득하는 (a)단계;
인체의 신체 일부에 부착된 하나 이상의 관성측정센서를 통해 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 (b)단계;
동기화모듈을 통해 상기 제1동작정보 및 상기 제2동작정보를 동기화하는 (c)단계; 및
연산부가 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 (d)단계;
를 포함하는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
Step (a) to obtain the first motion information by detecting the motion of the human body through the motion recognition sensor located on one side of the human body;
(B) obtaining second motion information by measuring a gravity-based angle with respect to an attachment position through one or more inertial measurement sensors attached to a body part of the human body;
(C) synchronizing the first operation information and the second operation information through a synchronization module; And
A step (d) in which the calculation unit determines the final motion of the human body based on the synchronization information;
Human motion recognition method using a complementary complex sensor comprising a.
제4항에 있어서,
상기 (c)단계는,
인체의 초기 자세로부터 최후 자세까지의 변화 과정을 복수의 동작구간으로 분할하여 동기화를 수행하는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
The method of claim 4,
Step (c) is,
A human motion recognition method using a complementary complex sensor that performs synchronization by dividing the change process from the initial posture to the last posture of the human body into multiple motion sections.
제5항에 있어서,
상기 (d)단계는,
복수의 동작 구간으로 분할된 상기 동기화정보를 기 저장된 기준정보와 대비하여 인체의 최종 동작을 판단하는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
The method of claim 5,
Step (d) is,
A human motion recognition method using a complementary complex sensor that determines the final motion of the human body by comparing the synchronization information divided into a plurality of operation sections with pre-stored reference information.
제6항에 있어서,
상기 (d)단계는,
복수의 동작 구간 별로 서로 인접한 관절 사이의 신체 부위에 대한 중력 기반 각도를 추출하고, 복수의 동작 구간 간의 연속성을 통해 인체의 최종 동작을 판단하는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
The method of claim 6,
Step (d) is,
A human motion recognition method using a complementary complex sensor that extracts a gravity-based angle of a body part between joints adjacent to each other in a plurality of motion sections and determines the final motion of the human body through continuity between the multiple motion sections.
제4항에 있어서,
상기 (b)단계는,
상기 동작인식센서의 센싱 범위를 벗어나 있는 신체 부위에 대해 상기 제2동작정보를 획득하는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
The method of claim 4,
Step (b) is,
A human motion recognition method using a complementary complex sensor that acquires the second motion information for a body part outside the sensing range of the motion recognition sensor.
제4항에 있어서,
상기 관성측정센서는 인체의 서로 다른 신체 부위에 복수 개가 구비되며,
상기 (b)단계 및 상기 (c)단계 사이에는,
오차보정부가 상기 (b)단계에서 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 (ex)단계가 더 포함되는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
The method of claim 4,
The inertial measurement sensor is provided with a plurality of different body parts of the human body,
Between steps (b) and (c),
A method for recognizing a human body using a complementary complex sensor, wherein the error correction unit further comprises (ex) correcting an error by collecting a plurality of second motion information obtained from a plurality of inertial measurement sensors in step (b).
KR1020180148171A 2018-11-27 2018-11-27 Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same KR102282319B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180148171A KR102282319B1 (en) 2018-11-27 2018-11-27 Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180148171A KR102282319B1 (en) 2018-11-27 2018-11-27 Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same

Publications (2)

Publication Number Publication Date
KR20200063378A true KR20200063378A (en) 2020-06-05
KR102282319B1 KR102282319B1 (en) 2021-07-29

Family

ID=71089295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180148171A KR102282319B1 (en) 2018-11-27 2018-11-27 Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same

Country Status (1)

Country Link
KR (1) KR102282319B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013879A1 (en) * 2021-08-03 2023-02-09 Samsung Electronics Co., Ltd. A method and system for tracking at least one action of the user(s) for overcoming occlusion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040069176A (en) * 2003-01-21 2004-08-04 마이크로소프트 코포레이션 Inertial sensors integration
KR20120028416A (en) * 2010-09-14 2012-03-23 삼성전자주식회사 Integration motion sensing device
KR101329529B1 (en) 2012-06-27 2013-11-14 주식회사 나무가 Gesture recognition module and gesture recognition using the module
KR20160097582A (en) * 2015-02-09 2016-08-18 주식회사 골프존 Data processing method for providing information on analysis of user's athletic motion and analysis device of user's athletic motion using the same, and data processing method for providing information on analysis of user's golf swing and golf swing analysis device for the same
KR20180013109A (en) * 2016-07-28 2018-02-07 한국전자통신연구원 Apparatus for recognizing posture based on distruibuted-fusion-filter and method for using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040069176A (en) * 2003-01-21 2004-08-04 마이크로소프트 코포레이션 Inertial sensors integration
KR20120028416A (en) * 2010-09-14 2012-03-23 삼성전자주식회사 Integration motion sensing device
KR101329529B1 (en) 2012-06-27 2013-11-14 주식회사 나무가 Gesture recognition module and gesture recognition using the module
KR20160097582A (en) * 2015-02-09 2016-08-18 주식회사 골프존 Data processing method for providing information on analysis of user's athletic motion and analysis device of user's athletic motion using the same, and data processing method for providing information on analysis of user's golf swing and golf swing analysis device for the same
KR20180013109A (en) * 2016-07-28 2018-02-07 한국전자통신연구원 Apparatus for recognizing posture based on distruibuted-fusion-filter and method for using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013879A1 (en) * 2021-08-03 2023-02-09 Samsung Electronics Co., Ltd. A method and system for tracking at least one action of the user(s) for overcoming occlusion

Also Published As

Publication number Publication date
KR102282319B1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
CN107080540B (en) System and method for analyzing gait and postural balance of a person
Auvinet et al. Detection of gait cycles in treadmill walking using a Kinect
Smeragliuolo et al. Validation of the Leap Motion Controller using markered motion capture technology
JP4971808B2 (en) Walking motion analyzer
EP3315068B1 (en) Device, method, and computer program for providing posture feedback during an exercise
KR102285632B1 (en) Health abnormality detection system and method using gait pattern
KR101930652B1 (en) Gait analysis system and computer program recorded on recording medium
EP3437557B1 (en) Gait analyzing device, gait analyzing method, and computer-readable recording medium
JP6518721B2 (en) Dynamic motion detection system
US11331006B2 (en) System and method for human motion detection and tracking
Yagi et al. Gait measurement at home using a single RGB camera
Martins et al. Legs tracking for walker-rehabilitation purposes
US20230005161A1 (en) Information processing apparatus and determination result output method
KR101725654B1 (en) Respiratory monitoring system and method thereof
KR102282319B1 (en) Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same
JP2008175559A (en) Walking analysis system
KR102175573B1 (en) pedestrian pattern recognition system based on multimodal sensor in the home environment and method the same
US11497962B2 (en) System and method for human motion detection and tracking
EP3438601B1 (en) Measurement device, measurement method, and computer program
TWI422824B (en) Human motion identification and locating method
Amini et al. An improved technique for increasing the accuracy of joint-to-ground distance tracking in kinect v2 for foot-off and foot contact detection
Nizam et al. Biomechanical application: Exploitation of kinect sensor for gait analysis
KR101667607B1 (en) System for controlling lower body motion of avatar and method thereof
Eguchi et al. Spatiotemporal and kinetic gait analysis system based on multisensor fusion of laser range sensor and instrumented insoles
KR102229071B1 (en) Apparatus for implementing motion using piezoelectric sensor and method thereof

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant