KR102150172B1 - Relative movement based motion recognition method and apparatus - Google Patents

Relative movement based motion recognition method and apparatus Download PDF

Info

Publication number
KR102150172B1
KR102150172B1 KR1020180153758A KR20180153758A KR102150172B1 KR 102150172 B1 KR102150172 B1 KR 102150172B1 KR 1020180153758 A KR1020180153758 A KR 1020180153758A KR 20180153758 A KR20180153758 A KR 20180153758A KR 102150172 B1 KR102150172 B1 KR 102150172B1
Authority
KR
South Korea
Prior art keywords
rotation
rotation value
value
modeling
body parts
Prior art date
Application number
KR1020180153758A
Other languages
Korean (ko)
Other versions
KR20200066971A (en
Inventor
채영호
김성훈
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020180153758A priority Critical patent/KR102150172B1/en
Publication of KR20200066971A publication Critical patent/KR20200066971A/en
Application granted granted Critical
Publication of KR102150172B1 publication Critical patent/KR102150172B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

본 발명은 상대적 움직임에 기반한 동작 인식 방법 및 장치를 개시한다. 본 발명에 따르면, (a) 복수의 신체 부위에 부착된 복수의 센서로부터 제1 자세에서 제2 자세로의 움직임에 따른 제1 회전 값을 획득하는 단계-상기 제1 회전 값은 글로벌 좌표계를 기준으로 회전한 값임-; (b) 상기 제1 회전 값으로부터 제1 자세와 상기 제2 자세로의 제1 회전 변화량을 계산하는 단계; (c) 상기 제1 회전 변화량 및 변환 매트릭스를 이용하여 상기 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환하는 단계; (d) 상기 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 상기 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 상기 모델링 신체 부위 각각의 제2 회전 변화량을 계산하는 단계; (e) 상기 제2 회전 변화량을 이용하여 상기 소프트웨어의 월드 좌표계를 기준으로 상기 모델링 신체 부위 각각의 제3 회전 값을 획득하는 단계; 및 (f) 상기 제2 회전 값 및 상기 제3 회전 값을 이용하여 상기 복수의 센서로부터 획득된 회전 값을 상기 모델링 신체 부위에 적용되는 회전 값으로 변환하는 단계를 포함하는 상대적 움직임에 기반한 동작 인식 방법이 제공된다. The present invention discloses a motion recognition method and apparatus based on relative motion. According to the present invention, (a) obtaining a first rotation value according to movement from a first posture to a second posture from a plurality of sensors attached to a plurality of body parts-the first rotation value is based on a global coordinate system. It is the value rotated by -; (b) calculating a first rotation change amount from the first rotation value to the first posture and the second posture; (c) converting the first rotation value into a second rotation value based on a world coordinate system of software for modeling by using the first rotation change amount and the transformation matrix; (d) calculating a second rotation change amount of each of the modeling body parts by using a rotation value of each modeling body part used in the software and a rotation value of an upper body part of each body part; (e) obtaining a third rotation value of each of the modeling body parts based on the world coordinate system of the software by using the second rotation change amount; And (f) converting a rotation value obtained from the plurality of sensors using the second rotation value and the third rotation value into a rotation value applied to the modeling body part. A method is provided.

Description

상대적 움직임에 기반한 동작 인식 방법 및 장치{Relative movement based motion recognition method and apparatus}Relative movement based motion recognition method and apparatus

본 발명은 상대적 움직임에 기반한 동작 인식 방법 및 장치에 관한 것이다. The present invention relates to a motion recognition method and apparatus based on relative motion.

과거부터 게임이나 영화 산업 외에도 군사 훈련, 스포츠, 엔터테인먼트 등 여러 분야에서 실제 사람의 동작을 정확히 재현하기 위한 많은 시도들이 있었고, 현재에 이르러 모션 데이터를 3D 캐릭터 모델링에 적용하는 모션 캡쳐라는 기법으로 명명되었다. In the past, there have been many attempts to accurately reproduce real human movements in various fields such as military training, sports, and entertainment in addition to the game and movie industry, and nowadays it has been named as a technique called motion capture that applies motion data to 3D character modeling. .

모션 캡쳐의 방식에는 주로 Kinect, Leap Motion 등의 시각을 기반으로 하는 Visual tracking 방식, 몸에 센서(마커)를 부착하는 Non-visual tracking 방식, 기계의 도움을 받는 Robot-aided tracking 방식이 있다. There are mainly visual tracking methods based on vision such as Kinect and Leap Motion, non-visual tracking methods that attach sensors (markers) to the body, and robot-aided tracking methods with the help of machines.

이 중 Visual tracking 방식의 경우 빛과 주변 환경의 영향을 크게 받으며 마커 기반의 경우 높은 비용과 많은 계산량을 필요로 하는 문제점이 있다. Among them, the visual tracking method is greatly affected by light and the surrounding environment, and the marker-based method has a problem that requires a high cost and a large amount of computation.

센서 기반 방식에서는 IMU 센서로 주로 사용되는데 센서와 소프트웨어를 함께 구매하는 경우 고가의 비용이 요구되기 때문에 부담이 있어 저가형 센서 개발을 위한 연구가 진행되고 있다. In the sensor-based method, it is mainly used as an IMU sensor. However, when purchasing a sensor and software together, it is burdensome because an expensive cost is required.

시뮬레이션 소프트웨어를 직접 구입하지 않은 경우라도 사용자가 올바른 동작 확인을 위해 직접 사용하는 센서의 좌표계 및 3D 공간에서의 회전 계산까지 이해하고 있어야 하기 때문에 단순한 동작조차 직접 시뮬레이션하기 위해서는 많은 시간과 노력이 필요하다. Even if the simulation software is not purchased directly, a lot of time and effort is required to directly simulate even a simple motion because the user must understand the coordinate system of the sensor directly used to check the correct motion and the calculation of rotation in 3D space.

이러한 단점과 더불어 기존 소프트웨어 사용 시 측정 단계에서 요구되는 센서의 고정된 부착 방향이나 사람의 자세 등의 제한 사항들이 불편함을 증가시키는 문제점이 있다. In addition to these drawbacks, when using existing software, limitations such as a fixed attachment direction of a sensor or a person's posture required in a measurement step increase inconvenience.

상기한 종래기술의 문제점을 해결하기 위해, 본 발명은 모션 캡쳐에 익숙하지 않은 사용자라도 간단한 설정만으로 시뮬레이션을 수행할 수 있는 상대적 움직임에 기반한 동작 인식 방법 및 장치를 제안하고자 한다.In order to solve the above-described problems of the prior art, the present invention is to propose a motion recognition method and apparatus based on relative motion in which even a user unfamiliar with motion capture can perform a simulation with only a simple setting.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따르면, (a) 복수의 신체 부위에 부착된 복수의 센서로부터 제1 자세에서 제2 자세로의 움직임에 따른 제1 회전 값을 획득하는 단계-상기 제1 회전 값은 글로벌 좌표계를 기준으로 회전한 값임-; (b) 상기 제1 회전 값으로부터 제1 자세와 상기 제2 자세로의 제1 회전 변화량을 계산하는 단계; (c) 상기 제1 회전 변화량 및 변환 매트릭스를 이용하여 상기 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환하는 단계; (d) 상기 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 상기 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 상기 모델링 신체 부위 각각의 제2 회전 변화량을 계산하는 단계; (e) 상기 제2 회전 변화량을 이용하여 상기 소프트웨어의 월드 좌표계를 기준으로 상기 모델링 신체 부위 각각의 제3 회전 값을 획득하는 단계; 및 (f) 상기 제2 회전 값 및 상기 제3 회전 값을 이용하여 상기 복수의 센서로부터 획득된 회전 값을 상기 모델링 신체 부위에 적용되는 회전 값으로 변환하는 단계를 포함하는 상대적 움직임에 기반한 동작 인식 방법이 제공된다. In order to achieve the above object, according to an embodiment of the present invention, (a) a first rotation value according to a movement from a first posture to a second posture from a plurality of sensors attached to a plurality of body parts Acquiring-the first rotation value is a value rotated based on a global coordinate system -; (b) calculating a first rotation change amount from the first rotation value to the first posture and the second posture; (c) converting the first rotation value into a second rotation value based on a world coordinate system of software for modeling by using the first rotation change amount and the transformation matrix; (d) calculating a second rotation change amount of each of the modeling body parts by using a rotation value of each modeling body part used in the software and a rotation value of an upper body part of each body part; (e) obtaining a third rotation value of each of the modeling body parts based on the world coordinate system of the software by using the second rotation change amount; And (f) converting a rotation value obtained from the plurality of sensors using the second rotation value and the third rotation value into a rotation value applied to the modeling body part. A method is provided.

상기 제1 내지 제3 회전 값은 회전 각 및 회전 축 벡터를 포함하는 사원수(Quaternion)으로 표현될 수 있다. The first to third rotation values may be expressed as a quaternion including a rotation angle and a rotation axis vector.

상기 (a) 내지 (f) 단계는 초기 T 자세에서 수행되며 상기 모델링 신체 부위의 적어도 일부는 서로 다른 좌표계를 가질 수 있다. Steps (a) to (f) are performed in the initial T posture, and at least some of the modeling body parts may have different coordinate systems.

상기 복수의 센서는 IMU 센서일 수 있다. The plurality of sensors may be IMU sensors.

상기 제3 회전 값은 상기 소프트웨어서 사용되는 상기 모델링 신체 부위 각각이 상기 월드 좌표계를 기준으로 회전한 값일 수 있다. The third rotation value may be a value in which each of the modeling body parts used in the software is rotated based on the world coordinate system.

상기 제3 회전 값은 상기 모델링 신체 부위 각각의 계층적 상위 신체 부위들의 연속적인 곱셈을 통해 획득될 수 있다. The third rotation value may be obtained through successive multiplication of hierarchical upper body parts of each of the modeling body parts.

본 발명의 다른 측면에 따르면, 상대적 움직임에 기반한 동작 인식 장치로서, 프로세서; 및 상기 프로세서에 연결된 메모리를 포함하되, 상기 메모리는, 복수의 신체 부위에 부착된 복수의 센서로부터 제1 자세에서 제2 자세로의 움직임에 따른 제1 회전 값을 이용하여 제1 회전 변화량을 계산하고-상기 제1 회전 값은 글로벌 좌표계를 기준으로 회전한 값임-; 상기 제1 회전 변화량 및 변환 매트릭스를 이용하여 상기 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환하고, 상기 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 상기 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 상기 모델링 신체 부위 각각의 제2 회전 변화량을 계산하고, 상기 제2 회전 변화량을 이용하여 상기 소프트웨어의 월드 좌표계를 기준으로 상기 모델링 신체 부위 각각의 제3 회전 값을 획득하고, 상기 제2 회전 값 및 상기 제3 회전 값을 이용하여 상기 복수의 센서로부터 획득된 회전 값을 상기 모델링 신체 부위에 적용되는 회전 값으로 변환하도록, 상기 프로세서에 의해 실행 가능한 프로그램 명령어들을 저장하는 상대적 움직임에 기반한 동작 인식 장치가 제공된다. According to another aspect of the present invention, there is provided an apparatus for recognizing a motion based on a relative motion, comprising: a processor; And a memory connected to the processor, wherein the memory calculates a first rotation change amount using a first rotation value according to a movement from a first posture to a second posture from a plurality of sensors attached to a plurality of body parts. And-the first rotation value is a value rotated based on the global coordinate system -; The first rotation value is converted into a second rotation value based on the world coordinate system of the software for modeling using the first rotation change amount and the transformation matrix, and the rotation value of each modeling body part used in the software and the The second rotation change amount of each of the modeling body parts is calculated using the rotation value of the upper body part of each body part, and the second rotation change amount of each of the modeling body parts is calculated based on the world coordinate system of the software using the second rotation change amount. 3 Acquiring a rotation value, and converting the rotation values obtained from the plurality of sensors into rotation values applied to the modeling body part using the second rotation value and the third rotation value, executable by the processor A motion recognition apparatus based on relative motion for storing program instructions is provided.

본 발명에 따르면, 캘리브레인션 없이 센서로부터 모델링 신체 부위의 좌표계에 대응시킬 수 있는 장점이 있다. According to the present invention, there is an advantage of being able to correspond to a coordinate system of a modeled body part from a sensor without calibration.

도 1은 본 발명의 일 실시예에 따른 회전 변화량을 계산하는 과정을 도시한 도면이다.
도 2는 같은 자세를 취하고 있더라도 각 신체 부위의 좌표 상태는 모델링마다 다르다는 점을 나타낸 도면이다.
도 3은 신체 부위를 계층적으로 구분한 것을 나타낸 도면이다.
도 4는 초기 T 자세에서 모델링의 각 신체 부위가 다른 좌표계를 가지는 점을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 상대적 움직임에 기반한 동작 인식 장치의 구성을 도시한 도면이다.
도 6은 본 실시예에 따른 상대적 움직임에 기반한 동작 인식 방법이 센서의 부착 상태에 독립적이며 다양한 모델링 소프트웨어서도 동일하게 사용 가능하다는 점을 나타낸 도면이다.
1 is a diagram illustrating a process of calculating a rotational change amount according to an embodiment of the present invention.
FIG. 2 is a diagram showing that the coordinate states of each body part are different for each modeling even though they have the same posture.
3 is a diagram showing the hierarchical division of body parts.
4 is a diagram illustrating a point in which each body part of modeling has a different coordinate system in an initial T posture.
5 is a diagram illustrating a configuration of a motion recognition apparatus based on relative motion according to an embodiment of the present invention.
6 is a view showing that the motion recognition method based on the relative motion according to the present embodiment is independent of the attachment state of the sensor and can be used equally in various modeling software.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조 부호를 유사한 구성요소에 대해 사용하였다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals are used for similar elements.

본 발명은 모션 캡쳐 시뮬레이션에서 복잡한 중간과정을 자동화하는 알고리즘에 관한 것으로서, 복잡한 캘리브레이션 없이 센서 데이터를 시뮬레이션을 위한 모델링에 적용할 수 있는 방법 및 장치에 관한 것이다. The present invention relates to an algorithm for automating a complex intermediate process in motion capture simulation, and to a method and an apparatus capable of applying sensor data to modeling for simulation without complicated calibration.

이하에서는 센서 데이터, 회전 순서, 시뮬레이션 프로그램, 캐릭터 모델링 및 좌표계 변환 과정을 순차적으로 설명한다. Hereinafter, the process of sensor data, rotation order, simulation program, character modeling, and coordinate system conversion will be sequentially described.

모션 캡쳐에 사용되는 IMU 센서의 경우 3축 가속도계, 각속도계로 구성되며 지자기 센서가 포함될 수 있다. The IMU sensor used for motion capture consists of a 3-axis accelerometer and an angular velocity meter, and may include a geomagnetic sensor.

지구 중력과 자기장을 기준으로 3가지 센서에서 출력하는 데이터를 필터로 보정하여 물체의 회전 상태를 추정한다. Based on the Earth's gravity and magnetic field, the data output from the three sensors is corrected with a filter to estimate the rotational state of the object.

각 센서마다 기준으로 삼고 있는 3축 좌표계 방향과 회전 방식이 미리 정의되며, 본 실시예에서 사용된 센서(Xsens MTw Awinda)의 경우 오른속 좌표계를 사용한다. The direction and rotation method of the 3-axis coordinate system as a reference for each sensor are defined in advance, and the sensor used in this embodiment (Xsens MTw Awinda) uses the right-speed coordinate system.

또한, 지자기 센서로부터 지구 자기장 방향을 추정할 수 있기 때문에 고정 좌표계를 정의하여 센서 좌표계와의 상대적인 회전 값 차이를 결과로 출력한다. In addition, since the direction of the earth's magnetic field can be estimated from the geomagnetic sensor, a fixed coordinate system is defined and the difference in the relative rotation value with the sensor coordinate system is output as a result.

결과값을 얻는 회전 데이터의 형식은 오일러 각(Euler Angles), 사원수(Quaternion), 회전 행렬(Rotation Matrix)을 주로 사용하는데 이는 수학적 공식을 통해 서로 간의 변환이 가능하다. The format of rotation data to obtain the result value mainly uses Euler Angles, Quaternion, and Rotation Matrix, which can be converted to each other through mathematical formulas.

오일러 각의 경우 Gimbal Lock이라는 널리 알려진 문제로 인해 정확한 회전 계산에 적합하지 않아 본 실시예에서는 사원수 형식을 통한 회전 계산을 사용한다. The Euler angle is not suitable for accurate rotation calculation due to a widely known problem called Gimbal Lock, and thus rotation calculation through a quaternion format is used in this embodiment.

센서의 글로벌 좌표에 대한 상대적인 회전 값 데이터를 사원수 형식으로 얻으면

Figure 112018120915652-pat00001
이며, 이는 다시
Figure 112018120915652-pat00002
로 표현이 가능하다. If we get the data of the rotation value relative to the global coordinate of the sensor in quaternion
Figure 112018120915652-pat00001
Is, which again
Figure 112018120915652-pat00002
It can be expressed as

여기서,

Figure 112018120915652-pat00003
(Sensor to Grobal)은 센서가 글로벌 좌표계를 기준으로 회전한 정도를 나타내는 상대적인 회전 값으로 센서로부터 출력되는 데이터이다. here,
Figure 112018120915652-pat00003
(Sensor to Grobal) is a relative rotation value representing the degree of rotation of the sensor based on the global coordinate system, and is data output from the sensor.

또한, w=

Figure 112018120915652-pat00004
는 회전 각이고, v=Vector3(
Figure 112018120915652-pat00005
)는 회전 축 벡터이다. Also, w=
Figure 112018120915652-pat00004
Is the rotation angle, v=Vector3(
Figure 112018120915652-pat00005
) Is the rotation axis vector.

본 발명의 일 실시예에 따르면, 도 1에 도시된 바와 같이, 복수의 신체 부착된 복수의 센서로부터 제1 자세(0)에서 제2 자세(1)로의 움직임에 따른 회전 값(제1 회전 값,

Figure 112018120915652-pat00006
,
Figure 112018120915652-pat00007
)을 획득하고, 제1 회전 값을 통해 제1 자세와 제2 자세로의 제1 회전 변화량(
Figure 112018120915652-pat00008
)을 계산한다. According to an embodiment of the present invention, as shown in FIG. 1, a rotation value according to a movement from a first posture (0) to a second posture (1) from a plurality of body-attached sensors (first rotation value ,
Figure 112018120915652-pat00006
,
Figure 112018120915652-pat00007
) Is obtained, and the amount of change in the first rotation to the first posture and the second posture (
Figure 112018120915652-pat00008
) Is calculated.

Figure 112018120915652-pat00009
Figure 112018120915652-pat00009

3차원 공간에서 회전 방향이 시계 방향인지 반시계 방향인지에 따라 왼손 좌표계 또는 오른손 좌표계로 나뉜다. 또한, 회전하는 축의 순서에 따라 여러 조합으로 나뉘는데 오일러 각에서는 X, Y, Z 회전 순서 12가지를 'Proper Euler angles'과 'Tait-Bryan angles' 2가지로 분류한다. In a three-dimensional space, it is divided into a left-handed coordinate system or a right-handed coordinate system depending on whether the rotation direction is clockwise or counterclockwise. In addition, it is divided into several combinations according to the order of the rotating axis. In Euler angles, 12 types of X, Y, and Z rotation orders are classified into'Proper Euler angles' and'Tait-Bryan angles'.

Tait-Bryan 방식에서는 X, Y, Z축을 기준으로 하는 각 회전은 Roll, Pitch, Yaw라고도 표현하며 오일러 각의 회전 순서를 기준으로 사원수와 회전 행렬로의 변환 계산식 또한 다르기 때문에 각 순서에 맞는 정확한 공식을 사용해야 한다. In the Tait-Bryan method, each rotation based on the X, Y, and Z axes is also expressed as Roll, Pitch, and Yaw, and the conversion calculation formula for the quaternion and rotation matrix based on the rotation order of Euler angles is also different. You should use the formula.

본 실시예에서 사용된 센서는 반시계 방향으로 XYZ 순서에 따라 회전하며 사원수 형식으로 얻은 회전 데이털르 다시 오일러 각으로 변환하기 위한 식은 다음과 같다. The sensor used in this embodiment rotates in a counterclockwise direction according to the XYZ order, and the equation for converting the rotation data obtained in the form of quaternions back to the Euler angle is as follows.

Figure 112018120915652-pat00010
Figure 112018120915652-pat00010

센서로부터 얻은 데이터를 이용하여 동작이 제대로 구현되는지 확인하기 위해 3D 모델링에 데이터를 매핑하는 Unreal, Unity, Blender, OpenGL 등의 소프트웨어 또는 자체 개발 프로그램이 사용된다. Software such as Unreal, Unity, Blender, OpenGL, etc. that maps the data to 3D modeling, or a self-developed program, is used to check whether the motion is properly implemented using the data obtained from the sensor.

이때 각 소프트웨어가 모두 다른 좌표계 시스템을 갖고 있으며 사용되는 모델링 또한 각 신체 부위마다 연결된 다른 신체 부위로부터 영향을 받아 좌표계가 다를 수 있기 때문에 최종적으로 센서와 소프트웨어, 모델링 3종류의 좌표계를 고려하여 정확히 계산하여야 데이터의 올바른 동작을 확인할 수 있다. At this time, since each software has a different coordinate system, and the modeling used is also affected by other body parts connected to each body part, the coordinate system may be different, so finally, it must be accurately calculated by considering the three types of coordinate systems: sensor, software, and modeling. You can check the correct behavior of the data.

본 실시예에서 사용한 Unity의 경우 Y축이 위쪽, Z축이 정면, X축이 오른쪽을 향하는 왼손 좌표계 방식을 사용하며 회전 방향 또한 센서와 반대인 시계방향으로 회전한다. In the case of the unity used in this embodiment, a left-handed coordinate system with the Y-axis upward, the Z-axis toward the front, and the X-axis toward the right is used, and the rotation direction is also rotated in a clockwise direction opposite to the sensor.

회전 순서 또한 ZXY 순서로 본 실시예에서 사용한 센서와 다르다. The rotation order is also different from the sensor used in this embodiment in the ZXY order.

데이터를 적용할 모델링을 불러오면 여러 신체 부위가 계층적으로 연결되어 있으며 각각 다른 좌표계 상태를 가지고 있음을 알 수 있다. When the modeling to which the data is applied is loaded, it can be seen that several body parts are hierarchically connected and each has a different coordinate system state.

이는 사용하는 모델링마다 중간에 다른 신체 부위가 연결되어 누적된 회전 값이 다르기 때문이며, 도 2에 도시된 바와 같이, 같은 자세를 취하고 있더라도 각 신체 부위의 좌표 상태는 모델링마다 다를 수 있다. This is because different body parts are connected in the middle of each model to be used and the accumulated rotation value is different. As shown in FIG. 2, even though the body parts are in the same posture, the coordinate state of each body part may be different for each modeling.

예를 들어, 다리의 움직임의 경우 허벅지를 움직이면 하위 구조에 연결되어 있는 종아리, 발 부위 또한 회전의 영향을 받게 되는데 이때 각 신체 부위의 로컬 좌표계 상태는 변하지 않더라도 글로벌 좌표계를 기준으로 본 회전 값은 달라지기 때문에 각 신체 부위에 연결되어 있는 상위 신체 부위의 회전 값들을 고려해야 한다. For example, in the case of leg movement, when the thigh is moved, the calves and feet connected to the substructure are also affected by rotation.At this time, although the state of the local coordinate system of each body part does not change, the rotation value viewed based on the global coordinate system is different. Because it loses, it is necessary to consider the rotation values of the upper body part connected to each body part.

따라서 상위의 연결된 신체 부위들이 많을수록 계산이 복잡해지기 때문에 모든 뼈 부위를 추적하는 방법 대신 주요 움직임에 관여하는 일부 신체 부위들을 인체 구조에 따라 단순화하려는 연구가 진행되었다. Therefore, since the calculation becomes more complicated as the number of connected body parts in the upper part increases, research has been conducted to simplify some body parts involved in major movements according to the structure of the human body instead of tracking all bone parts.

본 실시예에서는 도 3의 형태로 모델링 및 애니메이션에 자주 쓰이는 신체 부위를 단계별로 나눈다. In this embodiment, body parts frequently used for modeling and animation are divided in stages in the form of FIG. 3.

예를 들어, 종아리 부위는 전신, 허벅지의 상위 2단계로부터 영향을 받고 발 부위는 전신, 허벅지, 종아리 상위 3단계의 영향을 받는 것으로 정의한다. For example, the calf area is defined as being affected by the upper 2 levels of the whole body and the thigh, and the foot area as being affected by the top 3 levels of the whole body, the thigh, and the calf.

센서로부터 측정한 신체 부위의 데이터를 얻은 후에 모델링의 각 신체 부위에 연결하여 원하는 동작을 구현하기 위해서는 해당 자세에서 다음 동작을 위해 회전해야 하는 올바른 방향을 계산해야 한다. After obtaining the data of the body part measured from the sensor, in order to implement the desired motion by connecting to each body part in the modeling, the correct direction to rotate for the next motion in the posture must be calculated.

이를 위해, 센서로부터 획득된 제1 회전 변화량 및 변환 매트릭스를 이용하여 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환한다. 이를 수식으로 표현하면 다음과 같다. To this end, the first rotation value is converted into a second rotation value based on the world coordinate system of the software for modeling by using the first rotation change amount and the transformation matrix obtained from the sensor. This can be expressed as an equation as follows.

Figure 112018120915652-pat00011
Figure 112018120915652-pat00011

여기서,

Figure 112018120915652-pat00012
(Global to World)는 센서의 글로벌 좌표계를 소프트웨어의 월드 좌표계로 변환시키는 변환 매트릭스이다. here,
Figure 112018120915652-pat00012
(Global to World) is a transformation matrix that converts the sensor's global coordinate system to the software's world coordinate system.

또한, 본 실시예에서 Unity 소프트웨어를 사용하는 점에서 벡터 부분은 변환 매트릭스를 곱해서 소프트웨어 World 좌표계로 바꾸고, 각도 부분은 반 시계 방향회전에서 시계방향 회전으로 바뀌므로 음의 부호(-)를 붙인다. In addition, in the point of using the Unity software in this embodiment, the vector part is changed to the software World coordinate system by multiplying the transformation matrix, and the angle part is changed from counterclockwise rotation to clockwise rotation, so a negative sign (-) is added.

마지막으로 모델링의 각 신체 부위별 회전 값 차이를 고려해야 한다. Finally, it is necessary to consider the difference in rotation values for each body part in modeling.

도 4에 도시된 바와 같이, 처음 T 자세에서 모델링의 각 신체 부위는 좌표계가 다른 상태이다. As shown in FIG. 4, in the initial T posture, each body part of the modeling has a different coordinate system.

각 신체 부위의 회전 값을

Figure 112018120915652-pat00013
라 할 때,
Figure 112018120915652-pat00014
(제2 회전 변화량)를 계산해야 한다. The rotation value of each body part
Figure 112018120915652-pat00013
When la,
Figure 112018120915652-pat00014
(2nd rotation change) must be calculated.

즉, 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 모델링 신체 부위 각각의 제2 회전 변화량을 계산한다. That is, the second rotational change amount of each modeling body part is calculated using the rotation value of each modeling body part used in the software and the rotation value of the upper body part of each body part.

Figure 112018120915652-pat00015
는 다음과 같이, 모델링 신체 부위 각각의 계층적 상위 부위들의 연속적인 곱셈을 통해 획득된다.
Figure 112018120915652-pat00015
Is obtained through successive multiplication of hierarchical upper parts of each modeling body part as follows.

Figure 112018120915652-pat00016
Figure 112018120915652-pat00016

예를 들어, 도 4의 Right Lower Arm 5의

Figure 112018120915652-pat00017
는 다음과 같이 계산된다. For example, of Right Lower Arm 5 in Figure 4
Figure 112018120915652-pat00017
Is calculated as follows.

Figure 112018120915652-pat00018
Figure 112018120915652-pat00018

상기한 바와 같이, 획득된 제2 회전 변화량을 이용하여 소프트웨어의 월드 좌표계를 기준으로 모델링 신체 부위 각각의 제3 회전 값(

Figure 112018120915652-pat00019
)이 획득된다.As described above, the third rotation value of each of the modeled body parts based on the world coordinate system of the software (
Figure 112018120915652-pat00019
) Is obtained.

여기서,

Figure 112018120915652-pat00020
(World to Part)는 소프트웨어에서 사용되는 모델링 신체부위가 World 좌표계를 기준으로 어느 정도 회전했는지 나타내는 값으로서, 상기한 바와 같이, 상위 신체 부위들의 연속적인 곱셈을 통해 얻어진다. here,
Figure 112018120915652-pat00020
(World to Part) is a value indicating how much the modeling body part used in the software has rotated based on the World coordinate system, and is obtained through successive multiplication of upper body parts as described above.

예를 들어, 종아리 부위는 종아리, 허벅지, 전신 순서의 3번의 사원수 곱셈이 필요하고, 하위 신체 부위의 발을 추적하는 경우 발, 종아리, 허벅지, 전신 순서로 4번의 곱셈 과정이 필요하다. For example, the calf area requires 3 quaternion multiplication in the order of calf, thigh, and full body, and when tracking the foot of the lower body area, 4 multiplications are required in the order of foot, calf, thigh, and whole body.

위 과정을 거쳐서 얻은

Figure 112018120915652-pat00021
와 상기한
Figure 112018120915652-pat00022
와 곱하면 센서로부터 모델링 신체 부위의 좌표계에 대응하는
Figure 112018120915652-pat00023
를 얻을 수 있다. Obtained through the above process
Figure 112018120915652-pat00021
And above
Figure 112018120915652-pat00022
Multiplied by and corresponds to the coordinate system of the modeled body part from the sensor
Figure 112018120915652-pat00023
Can be obtained.

Figure 112018120915652-pat00024
Figure 112018120915652-pat00024

도 5는 본 발명의 일 실시예에 따른 상대적 움직임에 기반한 동작 인식 장치의 구성을 도시한 도면이다. 5 is a diagram illustrating a configuration of a motion recognition apparatus based on relative motion according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 실시예에 따른 장치는 프로세서(500) 및 메모리(502)를 포함할 수 있다. As shown in FIG. 5, the device according to the present embodiment may include a processor 500 and a memory 502.

프로세서(500)는 컴퓨터 프로그램을 실행할 수 있는 CPU(central processing unit)나 그밖에 가상 머신 등을 포함할 수 있다. The processor 500 may include a central processing unit (CPU) capable of executing a computer program or a virtual machine.

메모리(502)는 고정식 하드 드라이브나 착탈식 저장 장치와 같은 불휘발성 저장 장치를 포함할 수 있다. 착탈식 저장 장치는 컴팩트 플래시 유닛, USB 메모리 스틱 등을 포함할 수 있다. 메모리(502)는 각종 랜덤 액세스 메모리와 같은 휘발성 메모리도 포함할 수 있다.The memory 502 may include a nonvolatile storage device such as a fixed hard drive or a removable storage device. The removable storage device may include a compact flash unit, a USB memory stick, or the like. The memory 502 may also include volatile memories such as various random access memories.

이와 같은 메모리(502)에는 프로세서(500)에 의해 실행 가능한 프로그램 명령어들이 저장된다.Program instructions executable by the processor 500 are stored in the memory 502.

캘리브레이션 없이 센서로부터 모델링 신체 부위의 좌표계에 대응하는 회전 값을 획득하기 위해, 본 실시예에 따른 메모리(502)에는 복수의 신체 부위에 부착된 복수의 센서로부터 제1 자세에서 제2 자세로의 움직임에 따른 제1 회전 값을 획득하고-상기 제1 회전 값은 글로벌 좌표계를 기준으로 회전한 값임-, 제1 회전 값으로부터 제1 자세와 상기 제2 자세로의 제1 회전 변화량을 계산하고, 제1 회전 변화량 및 변환 매트릭스를 이용하여 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환하고, 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 상기한 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 상기한 모델링 신체 부위 각각의 제2 회전 변화량을 계산하고, 제2 회전 변화량을 이용하여 소프트웨어의 월드 좌표계를 기준으로 상기 모델링 신체 부위 각각의 제3 회전 값을 획득하고, 제2 회전 값 및 제3 회전 값을 이용하여 상기 복수의 센서로부터 획득된 회전 값을 모델링 신체 부위에 적용되는 회전 값으로 변환하도록 하는 프로그램 명령어들이 저장된다. In order to obtain a rotation value corresponding to the coordinate system of the modeled body part from the sensor without calibration, the memory 502 according to the present embodiment includes a movement from a first posture to a second posture from a plurality of sensors attached to a plurality of body parts. Obtaining a first rotation value according to-The first rotation value is a value rotated based on a global coordinate system-, calculates a first rotation change amount from the first rotation value to the first posture and the second posture, 1 Convert the first rotation value to a second rotation value based on the world coordinate system of the software for modeling using the rotation change amount and the transformation matrix, and the rotation value of each modeling body part used in the software and each of the above body parts. The second rotation change amount of each of the modeling body parts is calculated using the rotation value of the upper body part of, and the third rotation value of each modeling body part is calculated based on the world coordinate system of the software using the second rotation change amount. Program instructions for obtaining and converting the rotation values obtained from the plurality of sensors into rotation values applied to the modeling body part by using the second rotation value and the third rotation value are stored.

본 발명에 따르면, 도 6에 도시된 바와 같이, 센서의 부착 상태에 독립적이며 다양한 모델링 소프트웨어서도 동일하게 사용 가능하다. According to the present invention, as shown in FIG. 6, it is independent of the attachment state of the sensor, and various modeling software can be equally used.

상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 벅지대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 특허청구범위에 속하는 것으로 보아야 할 것이다. The above-described embodiments of the present invention are disclosed for the purpose of illustration, and those skilled in the art having a general knowledge of the present invention will be able to make various modifications, changes, additions within the spirit and scope of the present invention, such modifications, changes and The addition should be viewed as falling within the scope of the claims.

Claims (10)

프로세서 및 상기 프로세서에 연결된 메모리를 포함하는 장치에서 동작 인식을 수행하는 방법으로서,
(a) 복수의 신체 부위에 부착된 복수의 센서로부터 제1 자세에서 제2 자세로의 움직임에 따른 제1 회전 값을 획득하는 단계-상기 제1 회전 값은 글로벌 좌표계를 기준으로 회전한 값임-;
(b) 상기 제1 회전 값으로부터 제1 자세와 상기 제2 자세로의 제1 회전 변화량을 계산하는 단계;
(c) 상기 제1 회전 변화량 및 변환 매트릭스를 이용하여 상기 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환하는 단계;
(d) 상기 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 상기 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 상기 모델링 신체 부위 각각의 제2 회전 변화량을 계산하는 단계;
(e) 상기 제2 회전 변화량을 이용하여 상기 소프트웨어의 월드 좌표계를 기준으로 상기 모델링 신체 부위 각각의 제3 회전 값을 획득하는 단계; 및
(f) 상기 제2 회전 값 및 상기 제3 회전 값을 이용하여 상기 복수의 센서로부터 획득된 회전 값을 상기 모델링 신체 부위에 적용되는 회전 값으로 변환하는 단계를 포함하며,
상기 (a) 내지 (f) 단계는 초기 T 자세에서 수행되며 상기 모델링 신체 부위의 적어도 일부는 서로 다른 좌표계를 갖는 상대적 움직임에 기반한 동작 인식 방법.
A method of performing motion recognition in a device including a processor and a memory connected to the processor,
(a) obtaining a first rotation value according to a movement from a first posture to a second posture from a plurality of sensors attached to a plurality of body parts-the first rotation value is a value rotated based on a global coordinate system- ;
(b) calculating a first rotation change amount from the first rotation value to the first posture and the second posture;
(c) converting the first rotation value into a second rotation value based on a world coordinate system of software for modeling by using the first rotation change amount and the transformation matrix;
(d) calculating a second rotational change amount of each of the modeling body parts using a rotation value of each modeling body part used in the software and a rotation value of an upper body part of each body part;
(e) obtaining a third rotation value of each of the modeling body parts based on the world coordinate system of the software by using the second rotation change amount; And
(f) converting rotation values obtained from the plurality of sensors into rotation values applied to the modeling body part using the second rotation value and the third rotation value,
Steps (a) to (f) are performed in an initial T posture, and at least some of the modeling body parts have different coordinate systems.
제1항에 있어서,
상기 제1 내지 제3 회전 값은 회전 각 및 회전 축 벡터를 포함하는 사원수(Quaternion)으로 표현되는 상대적 움직임에 기반한 동작 인식 방법.
The method of claim 1,
The first to third rotation values are a motion recognition method based on a relative motion expressed as a quaternion including a rotation angle and a rotation axis vector.
삭제delete 제1항에 있어서,
상기 복수의 센서는 IMU 센서인 상대적 움직임에 기반한 동작 인식 방법.
The method of claim 1,
The plurality of sensors is an IMU sensor, a motion recognition method based on relative motion.
제1항에 있어서,
상기 제3 회전 값은 상기 소프트웨어에서 사용되는 상기 모델링 신체 부위 각각이 상기 월드 좌표계를 기준으로 회전한 값인 상대적 움직임에 기반한 동작 인식 방법.
The method of claim 1,
The third rotation value is a motion recognition method based on a relative motion in which each of the modeling body parts used in the software is rotated based on the world coordinate system.
제5항에 있어서,
상기 제3 회전 값은 상기 모델링 신체 부위 각각의 계층적 상위 신체 부위들의 연속적인 곱셈을 통해 획득되는 상대적 움직임에 기반한 동작 인식 방법.
The method of claim 5,
The third rotation value is a motion recognition method based on a relative motion obtained through continuous multiplication of hierarchical upper body parts of each of the modeling body parts.
동작 인식 장치로서,
프로세서; 및
상기 프로세서에 연결된 메모리를 포함하되,
상기 메모리는,
(a) 복수의 신체 부위에 부착된 복수의 센서로부터 제1 자세에서 제2 자세로의 움직임에 따른 제1 회전 값을 이용하여 제1 회전 변화량을 계산하고-상기 제1 회전 값은 글로벌 좌표계를 기준으로 회전한 값임-;
(b) 상기 제1 회전 변화량 및 변환 매트릭스를 이용하여 상기 제1 회전 값을 모델링을 위한 소프트웨어의 월드 좌표계를 기준으로 하는 제2 회전 값으로 변환하고,
(c) 상기 소프트웨어에서 사용되는 모델링 신체 부위 각각의 회전 값 및 상기 신체 부위 각각의 상위 신체 부위의 회전 값을 이용하여 상기 모델링 신체 부위 각각의 제2 회전 변화량을 계산하고,
(d) 상기 제2 회전 변화량을 이용하여 상기 소프트웨어의 월드 좌표계를 기준으로 상기 모델링 신체 부위 각각의 제3 회전 값을 획득하고,
(e) 상기 제2 회전 값 및 상기 제3 회전 값을 이용하여 상기 복수의 센서로부터 획득된 회전 값을 상기 모델링 신체 부위에 적용되는 회전 값으로 변환하도록,
상기 프로세서에 의해 실행 가능한 프로그램 명령어들을 저장하며,
상기 (a) 내지 (e) 과정은 초기 T 자세에서 수행되며 상기 모델링 신체 부위의 적어도 일부는 서로 다른 좌표계를 갖는 상대적 움직임에 기반한 동작 인식 장치.
As a motion recognition device,
Processor; And
Including a memory connected to the processor,
The memory,
(a) A first rotation change amount is calculated using a first rotation value according to a movement from a first posture to a second posture from a plurality of sensors attached to a plurality of body parts, and the first rotation value is a global coordinate system. It is a value rotated based on -;
(b) converting the first rotation value into a second rotation value based on the world coordinate system of the software for modeling using the first rotation change amount and the transformation matrix,
(c) calculating a second rotational change amount of each of the modeling body parts using a rotation value of each modeling body part used in the software and a rotation value of an upper body part of each body part,
(d) obtaining a third rotation value of each of the modeling body parts based on the world coordinate system of the software by using the second rotation change amount,
(e) to convert the rotation values obtained from the plurality of sensors into rotation values applied to the modeling body part by using the second rotation value and the third rotation value,
Store program instructions executable by the processor,
The (a) to (e) processes are performed in an initial T posture, and at least some of the modeling body parts have a motion recognition apparatus based on a relative motion having different coordinate systems.
제7항에 있어서,
상기 제1 내지 제3 회전 값은 회전 각 및 회전 축 벡터를 포함하는 사원수(Quaternion)으로 표현되는 상대적 움직임에 기반한 동작 인식 장치.
The method of claim 7,
The motion recognition apparatus based on relative motion, wherein the first to third rotation values are expressed as a quaternion including a rotation angle and a rotation axis vector.
제7항에 있어서,
상기 제3 회전 값은 상기 소프트웨어에서 사용되는 상기 모델링 신체 부위 각각이 상기 월드 좌표계를 기준으로 회전한 값인 상대적 움직임에 기반한 동작 인식 장치.
The method of claim 7,
The third rotation value is a motion recognition apparatus based on a relative motion, which is a value in which each of the modeling body parts used in the software is rotated based on the world coordinate system.
제9항에 있어서,
상기 제3 회전 값은 상기 모델링 신체 부위 각각의 계층적 상위 신체 부위들의 연속적인 곱셈을 통해 획득되는 상대적 움직임에 기반한 동작 인식 장치.
The method of claim 9,
The third rotation value is a motion recognition apparatus based on a relative motion obtained through successive multiplication of hierarchical upper body parts of each of the modeling body parts.
KR1020180153758A 2018-12-03 2018-12-03 Relative movement based motion recognition method and apparatus KR102150172B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180153758A KR102150172B1 (en) 2018-12-03 2018-12-03 Relative movement based motion recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180153758A KR102150172B1 (en) 2018-12-03 2018-12-03 Relative movement based motion recognition method and apparatus

Publications (2)

Publication Number Publication Date
KR20200066971A KR20200066971A (en) 2020-06-11
KR102150172B1 true KR102150172B1 (en) 2020-08-31

Family

ID=71070428

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180153758A KR102150172B1 (en) 2018-12-03 2018-12-03 Relative movement based motion recognition method and apparatus

Country Status (1)

Country Link
KR (1) KR102150172B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102486140B1 (en) 2020-10-12 2023-01-10 한국과학기술연구원 System and method for calibrting rate of body size of subject
CN114492668B (en) * 2022-02-16 2024-05-14 平安科技(深圳)有限公司 Method for judging attitude similarity, data processing device and storage medium
CN115868967A (en) * 2023-01-10 2023-03-31 杭州程天科技发展有限公司 Human body motion capture method and system based on IMU and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052199A (en) * 1999-08-04 2001-02-23 Namco Ltd Image generation system and information storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050052555A (en) * 2003-11-28 2005-06-03 양기혁 Apparatus and method for motion capture using gyroscope and accelerometer sensor
KR101427365B1 (en) * 2012-10-23 2014-08-07 이인택 Motion Capture System for using AHRS

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052199A (en) * 1999-08-04 2001-02-23 Namco Ltd Image generation system and information storage medium

Also Published As

Publication number Publication date
KR20200066971A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
KR102150172B1 (en) Relative movement based motion recognition method and apparatus
CN108939512B (en) Swimming posture measuring method based on wearable sensor
CN110827383B (en) Attitude simulation method and device of three-dimensional model, storage medium and electronic equipment
KR101519775B1 (en) Method and apparatus for generating animation based on object motion
JP6776882B2 (en) Motion analyzers, methods and programs
CN107314778A (en) A kind of scaling method of relative attitude, apparatus and system
Hermanis et al. Acceleration and magnetic sensor network for shape sensing
CN108268129A (en) The method and apparatus and motion capture gloves calibrated to multiple sensors on motion capture gloves
BR102013027358B1 (en) System and method for augmented reality executed by a data processing system having at least one processor
US10648883B2 (en) Virtual testing model for use in simulated aerodynamic testing
CN109211277A (en) The state of vision inertia odometer determines method, apparatus and electronic equipment
CN109186596B (en) IMU measurement data generation method, system, computer device and readable storage medium
KR102018951B1 (en) Method for calibrating posture of lower body using wearable sensors, and computer readable medium for performing the method
CN103105166B (en) Motion data processing method and system for motion practice beat
Callejas-Cuervo et al. Capture and analysis of biomechanical signals with inertial and magnetic sensors as support in physical rehabilitation processes
TWI681170B (en) Calibration method of multiple inertial measurement units on multi-linkage system
CN114417738B (en) Sparse IMU real-time human body motion capture and joint stress prediction method and system
JP2018015436A (en) Analyzer for behavior of hitting tool
CN109814714A (en) The Installation posture of motion sensor determines method, apparatus and storage medium
Barraza-Madrigal et al. Instantaneous position and orientation of the body segments as an arbitrary object in 3D space by merging gyroscope and accelerometer information
US10549426B2 (en) Method for estimating movement of a poly-articulated mass object
JP6205387B2 (en) Method and apparatus for acquiring position information of virtual marker, and operation measurement method
CN108874146B (en) Moving human body mass center displacement calculation method applied to virtual reality system
CN113465822A (en) Centroid position calculation method, device and medium based on multi-rigid-body robot
CN117503120B (en) Human body posture estimation method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant