KR20180062137A - Method for position estimation of hybird motion capture system - Google Patents

Method for position estimation of hybird motion capture system Download PDF

Info

Publication number
KR20180062137A
KR20180062137A KR1020160162077A KR20160162077A KR20180062137A KR 20180062137 A KR20180062137 A KR 20180062137A KR 1020160162077 A KR1020160162077 A KR 1020160162077A KR 20160162077 A KR20160162077 A KR 20160162077A KR 20180062137 A KR20180062137 A KR 20180062137A
Authority
KR
South Korea
Prior art keywords
capture system
motion capture
sensor
rigid body
value
Prior art date
Application number
KR1020160162077A
Other languages
Korean (ko)
Other versions
KR101950359B1 (en
Inventor
김민경
박진하
정하형
Original Assignee
(주)코어센스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)코어센스 filed Critical (주)코어센스
Priority to KR1020160162077A priority Critical patent/KR101950359B1/en
Publication of KR20180062137A publication Critical patent/KR20180062137A/en
Application granted granted Critical
Publication of KR101950359B1 publication Critical patent/KR101950359B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/003Kinematic accelerometers, i.e. measuring acceleration in relation to an external reference frame, e.g. Ferratis accelerometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Gyroscopes (AREA)

Abstract

The present invention relates to a location estimating method of a hybrid motion capture system, wherein, in a hybrid motion capture system in which an optical motion capture system and a sensor-type motion capture system are combined, the optical motion capture system can compensate for an error on a location estimated by a motion sensor that is a constituent of the sensor-type motion capture system. The location estimating method of a hybrid motion capture system, which estimates a location of a rigid body by combining rigid body location estimating information of a sensor type motion capture system and an optical motion capture system, comprises the steps of: measuring a motion of the rigid body through a motion sensor including an acceleration sensor and a gyro sensor in the sensor type motion capture system to estimate a location, a velocity, and a posture of the rigid body; photographing a marker attached to the rigid body through an optical camera in the optical motion capture system to measure a movement of the rigid body so as to estimate the location and the velocity of the rigid body; and receiving an estimated difference value of the location and velocity of the rigid body of the optical motion capture system and the sensor type motion capture system in an integrated Kalman filter, calculating an estimated error by comparing a currently input difference value with a previously input difference value, and calculating a final estimated value through the calculated estimated error to estimate a current location of the rigid body.

Description

하이브리드 모션캡쳐 시스템의 위치 추정 방법 {METHOD FOR POSITION ESTIMATION OF HYBIRD MOTION CAPTURE SYSTEM}TECHNICAL FIELD [0001] The present invention relates to a method of estimating a position of a hybrid motion capture system,

본 발명은 강체의 위치 추정 방법에 관한 것으로, 특히 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템이 융합된 하이브리드 모션캡쳐 시스템에서 센서식 모션캡쳐 시스템의 구성요소인 모션센서가 추정한 위치에 대한 오차를 광학식 모션캡쳐 시스템에서 보상할 수 있도록 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법에 관한 것이다. The present invention relates to a method of estimating a position of a rigid body, and more particularly, to a method and apparatus for estimating a position of a rigid body by using a motion sensing system, And more particularly, to a method of estimating a position of a hybrid motion capture system that can be compensated in an optical motion capture system.

모션 캡쳐(Motion Cature)란 인체 또는 사물 등(이하, 강체로 총칭한다)에 센서를 부착시키거나, 적외선 카메라 등을 이용하는 방법으로 강체의 움직임을 파악하여 디지털 형태로 기록하는 작업을 말한다. 이러한 모션 캡쳐를 통해 얻어지는 모션 캡쳐 데이터는 디지털 콘텐츠로서, 애니메이션이나 영화 게임, 동작분석, 재활 등 다양하게 활용된다. Motion Curation refers to a task of attaching a sensor to a human body or object (hereinafter, referred to as a rigid body), or detecting the movement of a rigid body by using an infrared camera or the like and recording it in a digital form. The motion capture data obtained through the motion capture is used as digital contents such as animation, movie game, motion analysis, and rehabilitation.

종래 모션 캡쳐 시스템으로는 여러 대의 카메라를 통해서 반사 마커의 위치를 추적함으로서 강체의 모션 캡쳐를 수행하는 광학식 모션캡쳐 시스템(Optical Position System)이 있는데, 이러한 광학식 모션캡쳐 방식은 마커가 관찰 가능할 때 정밀한 위치정보를 제공해 줄 수 있다. 하지만, 이러한 광학식 모션캡쳐 시스템은 반사 마커를 촬영하는 가시카메라의 수와 빛 반사 등의 외부 교란 신호, 반사 마커의 가림에 의해 정상 동작이 불가능해지는 경우가 발생하는 단점이 있다. Conventional motion capture systems include an optical motion capture system (Optical Position System) that performs motion capture of a rigid body by tracking the position of a reflection marker through a plurality of cameras. Information can be provided. However, such an optical motion capture system has a disadvantage in that normal operation can not be performed due to the number of visible cameras that photograph the reflection markers, the external disturbance signals such as light reflections, and reflection markers.

다른 방식으로 인체나 사물에 모션센서를 부착하고 이 모션센서의 움직임을 파악하여 모션 캡쳐를 수행하는 센서식 모션캡쳐 시스템이 이용되기도 하는데, 이 방식은 모션센서를 부착하는 방식이기 때문에 광학식에 비하면 사용자의 착용이 수월한 편이다. 이러한 센서식 모션캡쳐 방식은 광학식 모션캡쳐 방식에 비해 외부 환경의 영향을 덜 받지만, 센서의 바이어스 오차, 환산계수 오차, 비정렬 오차, 초기정렬 오차 등의 요인으로 오차가 급격히 증가하는 문제점이 있었다.In addition, a sen-style motion capture system is known in which a motion sensor is attached to a human body or object in a different manner and motion capture is performed by detecting the motion of the motion sensor. However, since this method attaches a motion sensor, Is easy to wear. Such a large format motion capture method is less affected by the external environment than the optical motion capture method. However, there is a problem that the error rapidly increases due to factors such as bias error, conversion coefficient error, misalignment error, and initial misalignment of the sensor.

대한민국 등록특허공보 제10-1483713호 (2015.01.12)Korean Registered Patent No. 10-1483713 (Jan. 1, 2015)

본 발명은 상기 종래 광학식 또는 센서식 모션캡쳐 시스템에서 발생하는 문제점을 해결하기 위하여 제안된 것으로서, 본 발명의 목적은 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템을 융합하여 서로의 단점을 보완하는 하이브리드 모션캡쳐 시스템을 제공하되, 하이브리드 모션캡쳐 과정에서 발생하는 오차를 보상하여 강체의 정확한 위치 추정이 가능하도록 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법을 제공하는 데 있다. An object of the present invention is to provide a hybrid motion capture system that combines an optical motion capture system and a senformant motion capture system to complement each other's disadvantages, The present invention also provides a position estimation method of a hybrid motion capture system that provides an accurate position estimation of a rigid body by compensating an error generated in a hybrid motion capture process.

상기 목적을 달성하기 위한 본 발명에 따른 하이브리드 모션캡쳐 시스템의 위치 추정 방법은 센서식 모션캡쳐 시스템과 광학식 모션캡쳐 시스템의 강체(rigid body) 위치 추정 정보를 융합하여 강체의 위치를 추정하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법으로서, 상기 센서식 모션캡쳐 시스템에서 가속도센서와 자이로센서가 구비된 모션센서를 통하여 강체의 움직임을 측정하여 강체의 위치와 속도 및 자세를 추정하는 단계와; 상기 광학식 모션캡쳐 시스템에서 광학식 카메라를 통하여 강체에 부착된 마커를 촬영하여 강체의 이동을 측정하여 강체의 위치 및 속도를 추정하는 단계와; 통합 칼만필터에서 상기 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템의 강체 위치 및 속도 추정 차이값을 입력받아, 현재 입력되는 차이값과 이전 시간에 입력된 차이값과 비교하여 추정 오차를 산출하고, 산출된 추정 오차를 통하여 최종 추정값을 계산하여 강체의 현재 위치를 추정하게 된다. According to an aspect of the present invention, there is provided a method of estimating a position of a rigid body by fusing rigid body position estimation information of a motion sensing system and a motion capture system, A method for estimating a position of a system, the method comprising: estimating a position, a velocity, and a posture of a rigid body by measuring a motion of the rigid body through a motion sensor provided with an acceleration sensor and a gyro sensor in the sensor system; Capturing a marker attached to a rigid body through the optical camera in the optical motion capture system to measure the movement of the rigid body to estimate the position and velocity of the rigid body; The integrated Kalman filter receives the rigid position and velocity estimation difference values of the optical motion capture system and the senformed motion capture system and compares the input difference value with the difference value input at the previous time to calculate an estimation error, The estimated position of the rigid body is estimated based on the estimated error.

여기에서, 상기 칼만필터는 강체 위치에 대한 최종 추정값을 센서식 모션캡쳐 시스템에 피드백하여, 상기 센서식 모션캡쳐 시스템의 모션센서 오차 누적을 보상하도록 한다. Wherein the Kalman filter feeds back a final estimate of the rigid body position to the senformant motion capture system to compensate for motion sensor error accumulation of the senformant motion capture system.

상기 통합 칼만필터는 이전 시간에서의 상기 광학식 모션캡쳐 시스템과 센서식 모션센서 시스템의 출력값 차이와 센서식 모션캡쳐 시스템의 모션센서 출력값 센서오차를 이용하여 예측값을 계산하고, 상기 센서식 모션캡쳐 시스템의 모션센서에서 추정한 강체의 속도와 상기 두 시스템의 위치 차이를 이용하여 측정값을 계산하며, 상기 구해진 측정값에서 예측값을 빼줌으로서 오차 값(

Figure pat00001
)을 계산하고, 상기 계산된 오차 값에 칼만이득(Kk)을 곱한 값과 이전 추정값을 더함으로서 최종 추정값(
Figure pat00002
)을 산출하게 된다. Wherein the integrated Kalman filter calculates a predicted value by using a difference between an output value of the optical motion capture system and a sensor of a senformed motion sensor system at a previous time and a motion sensor output value error of a senformant motion capture system, The measured value is calculated by using the difference between the velocity of the rigid body estimated by the motion sensor and the position of the two systems, and the predicted value is subtracted from the obtained measured value,
Figure pat00001
), Adding the value obtained by multiplying the calculated error value by the Kalman gain K k and the previous estimated value,
Figure pat00002
).

상기 통합 칼만필터의 상태모델은 다음의 수학식과 같이 나타낸다. The state model of the integrated Kalman filter is expressed by the following equation.

[수학식][Mathematical Expression]

Figure pat00003
Figure pat00003

(여기서, x는 광학식 모션캡쳐 시스템과 센서식 모션센서 시스템의 출력값 차이와 모션센서 출력값의 센서오차를 원소로 하는 입력값이고, F는 시간(t)에 따라 에러를 전달하는 다이나믹 행렬로 위치 오차, 속도 오차, 자세 오차, 자이로센서 오차, 가속도센서 오차를 포함하며, Gw(t)는 노이즈를 나타낸다)(Where x is an input value with the sensor error of the difference between the output values of the optical motion capture system and the sensor of the sen- sor-type motion sensor and the sensor error of the output value of the motion sensor as an element, F is a dynamic matrix that transmits an error according to time (t) , Velocity error, attitude error, gyro sensor error, and acceleration sensor error, and Gw (t) represents noise)

또한, 상기 통합 칼만필터의 업데이트 단계를 위한 측정 상태모델은 다음의 수학식과 같이 나타낸다. Also, the measurement state model for the updating step of the integrated Kalman filter is expressed by the following equation.

[수학식] [Mathematical Expression]

Figure pat00004
Figure pat00004

(여기서,

Figure pat00005
은 모션센서에서 추정한 속도를 나타내고,
Figure pat00006
은 속도의 초기값을 나타내며,
Figure pat00007
은 초기속도의 불확실성을 표현한 것이다. 또한,
Figure pat00008
는 광학식에서 추적한 위치값이고,
Figure pat00009
는 모션센서에서 추정한 위치값이며,
Figure pat00010
는 측정한 위치의 불확실성을 나타낸다)(here,
Figure pat00005
Represents the velocity estimated by the motion sensor,
Figure pat00006
Represents the initial value of the velocity,
Figure pat00007
Represents the uncertainty of the initial velocity. Also,
Figure pat00008
Is the position value tracked in the optics,
Figure pat00009
Is a position value estimated by the motion sensor,
Figure pat00010
Represents the uncertainty of the measured position)

본 발명에 따른 하이브리드 모션캡쳐 시스템의 위치 추정 방법은 센서식 모션센서 시스템과 광학식 모션센서 시스템의 단점을 서로 보완하기 위해, 광학식 모션캡쳐 시스템에서 추정한 오차와 센서식 모션캡쳐 시스템에서 추정한 오차를 통합칼만필터를 통해서 융합하고, 통합칼만필터에서 추정한 오차를 모션센서로 피드백하는 방식으로 오차를 보정함으로써 보다 정확한 위치 추정이 가능한 효과가 있다. In order to compensate for the disadvantages of the sensor system and the optical motion sensor system, the method of estimating the position of the hybrid motion capture system according to the present invention uses the error estimated by the optical motion capture system and the error estimated by the sen- It is possible to perform more accurate position estimation by correcting the error by integrating the error through the integrated Kalman filter and feeding back the error estimated by the integrated Kalman filter to the motion sensor.

도 1은 본 발명에 따른 하이브리드 모션캡쳐 시스템의 개념도,
도 2는 본 발명에 따른 하이브리드 모션캡쳐 시스템에서 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템의 융합 방식을 나타낸 개념도,
도 3은 본 발명에 따른 하이브리드 모션캡쳐 시스템의 하드웨어 구성도,
도 4는 본 발명에 따른 하이브리드 모션캡쳐 시스템의 위치 추정 방법을 나타낸 개념도,
도 5는 본 발명에 따른 하이브리드 모션캡쳐 시스템의 위치추정 알고리즘의 처리 흐름도,
도 6은 본 발명에 따른 센서식 모션캡쳐 시스템에서 강체의 속도, 위치, 자세를 추정하는 과정을 나타낸 처리 흐름도,
도 7은 본 발명에 따른 광학식 모션캡쳐 시스템에서 반사 마커의 위치와 속도를 추적하는 과정을 나타낸 처리 흐름도,
1 is a conceptual diagram of a hybrid motion capture system according to the present invention,
FIG. 2 is a conceptual diagram illustrating a fusion method of an optical motion capture system and a senformed motion capture system in a hybrid motion capture system according to the present invention.
FIG. 3 is a hardware block diagram of a hybrid motion capture system according to the present invention,
4 is a conceptual diagram illustrating a method of estimating a position of a hybrid motion capture system according to the present invention.
5 is a flow chart of a process of a position estimation algorithm of a hybrid motion capture system according to the present invention,
FIG. 6 is a flowchart illustrating a process of estimating velocity, position, and posture of a rigid body in a senformed motion capturing system according to the present invention.
FIG. 7 is a process flow chart showing a process of tracking the position and velocity of a reflection marker in the optical motion capture system according to the present invention;

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 하이브리드 모션캡쳐 시스템의 개념도이고, 도 2는 하이브리드 모션캡쳐 시스템에서 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템의 융합 방식을 나타낸 개념도이다. FIG. 1 is a conceptual diagram of a hybrid motion capturing system according to an embodiment of the present invention, and FIG. 2 is a conceptual diagram illustrating a fusion method of an optical motion capture system and a senformed motion capture system in a hybrid motion capture system.

도 1과 도 2에 도시된 바와 같이, 본 발명에 따른 하이브리드 모션캡쳐 시스템은 강체(인체 또는 사물)에 부착된 센서식 모션센서 시스템의 신호를 분석하여 인체의 3차원 움직임을 파악하고, 광학식 모션캡쳐 시스템을 통하여 강체에 부착된 반사 마커의 이동을 촬영하고 분석하여 위치 이동을 파악하며, 이러한 인체의 3차원 움직임 정보와 인체의 위치 이동 정보를 융합하여 강체의 고정밀 위치 추정을 수행하는 시스템이다. 즉, 자세측정센서 기반의 모션센서는 롤, 피치, 요의 자세정보만을 제공하기 때문에 강체의 움직임은 표현하지만 공간상에서의 이동정보는 표현할 수 없는데, 여기에 카메라 기반의 광학식 위치측정 시스템을 결합하여 모션캡쳐시 자세정보뿐만 아니라 이동 정보를 제공할 수 있게 된다. As shown in FIGS. 1 and 2, the hybrid motion capture system according to the present invention analyzes a signal of a senformed motion sensor system attached to a rigid body (human body or object) to grasp a three-dimensional motion of the human body, The system captures and analyzes the movement of a reflective marker attached to a rigid body through a capture system, grasps the positional movement, and performs highly precise position estimation of the rigid body by fusing the three-dimensional motion information of the human body and the positional movement information of the human body. In other words, the motion sensor based on the attitude sensor provides only the attitude information of the roll, pitch, and yaw, so it can express the movement of the rigid body but can not express the movement information in the space. It is possible to provide motion information as well as posture information at the time of motion capture.

도 3은 본 발명의 실시예에 따른 하이브리드 모션캡쳐 시스템의 하드웨어 구성도를 나타낸 것이고, 도 4는 하이브리드 모션캡쳐 시스템의 위치 추정 방법을 나타낸 개념도이다. FIG. 3 is a hardware block diagram of a hybrid motion capture system according to an embodiment of the present invention, and FIG. 4 is a conceptual diagram illustrating a method of estimating a position of a hybrid motion capture system.

도 3과 도 4에 도시된 바와 같이, 본 발명에 따른 하이브리드 모션캡쳐 시스템은 센서식 모션캡쳐 시스템과 광학식 모션캡쳐 시스템 및 하이브리드 위치추정 융합 시스템을 포함한다. As shown in FIGS. 3 and 4, the hybrid motion capture system according to the present invention includes a sen format motion capture system, an optical motion capture system, and a hybrid position estimation fusion system.

상기 센서식 모션캡쳐 시스템은 속도와 위치 추정을 위한 가속도센서(Accelerometer)와, 자세 추정을 위한 자이로센서(Gyroscope)와, 상기 가속도센서와 자이로센서 신호를 분석하여 강체의 움직임을 추청하는 마이크로프로세서와, 외부 장치와 무선통신을 수행하는 무선통신모듈을 포함한다.The sensed-format motion capture system includes an acceleration sensor for velocity and position estimation, a gyroscope for posture estimation, a microprocessor for analyzing the acceleration sensor and the gyro sensor signal to estimate movement of the rigid body, And a wireless communication module for performing wireless communication with an external device.

상기 광학식 모션캡쳐 시스템은 강체(Rigid Body)가 부착되는 반사 마커와, 반사 마커 촬영을 통하여 강체를 추적(tracking)하여 강체의 위치와 속도를 추정하는 광학식 카메라를 포함하는데, 본 발명의 실시예에서 상기 반사 마커는 강체에 3개가 부착된다. The optical motion capture system includes a reflective marker to which a rigid body is attached, and an optical camera that tracks a rigid body through reflection marker imaging to estimate the position and velocity of the rigid body. In the embodiment of the present invention, Three reflective markers are attached to the rigid body.

상기 하이브리드 위치추정 융합 시스템은 센서식 모션캡쳐 시스템과 광학식 모션캡쳐 시스템의 위치 추정 정보를 융합하여 보다 정밀하게 강체의 위치를 추정하게 되는데, 이러한 위치 추정 정보의 융합은 하이브리드 위치추정 융합 시스템에 탑재된 위치추정 융합 알고리즘에 의해 수행된다. 상기 위치추정 융합 알고리즘은 광학식 모션캡쳐 시스템을 통하여 추정되는 마커 위치 및 속도 정보와, 센서식 모션캡쳐 시스템을 통하여 추정되는 센서 위치와 속도 및 자세 정보의 오차값을 통합 칼만필터를 통하여 융합하여 강체의 통합위치, 속도, 자세 추정값을 산출함으로써 강체의 위치를 추정하게 된다. The hybrid position estimation fusion system fuses the position estimation information of the sensed motion capture system and the optical motion capture system to estimate the position of the rigid body more precisely. The fusion of the position estimation information is performed by the hybrid position estimation fusion system And is performed by a position estimation fusion algorithm. The position estimation fusion algorithm is based on the fusion of the marker position and velocity information estimated through the optical motion capture system and the error values of the sensor position, velocity and attitude information estimated through the senformant motion capture system through the integrated Kalman filter, The position of the rigid body is estimated by calculating the integrated position, velocity, and posture estimation values.

이하에서는 상기 하이브리드 위치추정 알고리즘을 통하여 강체의 위치가 추정되는 과정에 대하여 상세히 설명하기로 한다. Hereinafter, a process of estimating the position of a rigid body through the hybrid position estimation algorithm will be described in detail.

도 5는 본 발명의 실시예에 따른 하이브리드 모션캡쳐 시스템의 위치추정 알고리즘의 처리 흐름도를 나타낸 것이다. 도 5에 따른 위치추정 알고리즘의 동작 설명은 (a) 센서식 모션캡쳐 시스템의 위치 추정 과정, (b) 광학식 모션캡쳐 시스템의 위치 추정 과정, (c) 센서식 모션캡쳐 시스템 및 광학식 모션캡쳐 시스템의 위치 추적 융합 과정으로 나누어 설명하기로 한다. FIG. 5 shows a processing flow of a position estimation algorithm of a hybrid motion capture system according to an embodiment of the present invention. 5 illustrates operation of the position estimation algorithm according to an exemplary embodiment of the present invention. The operation of the position estimation algorithm according to FIG. 5 includes: (a) a position estimation process of a senformed motion capture system; (b) a position estimation process of an optical motion capture system; Location tracking convergence process.

(a) (a) 센서식Sen style 모션캡쳐Motion capture 시스템의 위치 추정 Location estimation of the system

먼저, 센서식 모션캡쳐 시스템의 모션센서에서 자이로센서와 가속도센서의 출력값을 통하여 강체의 자세와 위치를 추정하게 된다. 도 5에서

Figure pat00011
는 3차원 각 축의 가속도를 나타내고,
Figure pat00012
는 3차원 각 축의 각속도를 나타내며,
Figure pat00013
는 3차원 자세인 롤(roll), 피치(pitch), 요(yaw)의 초기값을 나타낸다. 상기
Figure pat00014
Figure pat00015
로 속도, 위치, 자세를 추정하는 과정은 도 6에 도시되어 있다. First, the posture and the position of the rigid body are estimated through the output values of the gyro sensor and the acceleration sensor in the motion sensor of the sen format motion capture system. 5,
Figure pat00011
Represents the acceleration of each three-dimensional axis,
Figure pat00012
Represents angular velocity of each three-dimensional axis,
Figure pat00013
Represents the initial values of roll, pitch, and yaw in the three-dimensional posture. remind
Figure pat00014
Wow
Figure pat00015
The process of estimating the speed, position, and posture is shown in Fig.

상기 도 6에서, 자세추정계산은 다음의 수학식 1을 사용한다. In Fig. 6, the posture estimation calculation uses the following equation (1).

Figure pat00016
Figure pat00016

수학식 1의 최종 추정값인

Figure pat00017
은 모션센서에서 계산한 3차원 위치를 나타내며,
Figure pat00018
은 모션센서의 자세를 나타낸다. The final estimated value of Equation 1
Figure pat00017
Represents the three-dimensional position calculated by the motion sensor,
Figure pat00018
Represents the attitude of the motion sensor.

(b) 광학식 (b) Optical 모션캡쳐Motion capture 시스템의 위치 추정 Location estimation of the system

광학식 모션캡쳐 시스템의 광학식 카메라에서 반사 마커의 위치를 추적하여 속도와 3차원상의 절대위치를 출력하게 되는데, 도 7은 광학식 카메라에서 반사 마커의 위치와 속도를 추적하는 과정을 나타낸 처리 흐름도이다. The optical camera of the optical motion capture system tracks the position of the reflection marker to output the velocity and the absolute position on the three-dimensional image. FIG. 7 is a processing flowchart showing a process of tracking the position and velocity of the reflection marker in the optical camera.

도 7에서,

Figure pat00019
는 카메라로 촬영한 2차원 이미지 내의 마커 위치를 나타낸다. 또한, n은 다중 카메라의 수, j는 마커의 수를 나타낸다. 2차원 위치 행렬과 카메라 투영행렬
Figure pat00020
로 다음의 수학식 2를 이용하여 3차원 위치를 계산한다.7,
Figure pat00019
Represents the position of the marker in the two-dimensional image captured by the camera. N is the number of multiple cameras and j is the number of markers. Two-dimensional position matrix and camera projection matrix
Figure pat00020
The three-dimensional position is calculated using the following equation (2).

Figure pat00021
Figure pat00021

상기 수학식 2에서, 최종 출력값인

Figure pat00022
은 마커가 구성하는 강체(rigid body)의 위치값을 추적한 결과이며, 그 위치값을 적분하여 강체의 속도
Figure pat00023
를 구한다. 속도의 e,n,u는 east(동쪽), north(북쪽), up(상) 방향의 속도를 나타낸다. In Equation (2), the final output value
Figure pat00022
Is a result of tracking the position value of the rigid body constituted by the marker, and integrates the position value to calculate the velocity of the rigid body
Figure pat00023
. The velocities e, n, and u indicate the velocities in the east (east), north (north), and up (up) directions.

(c) (c) 센서식Sen style 모션캡쳐Motion capture 시스템 및 광학식  System and optics 모션캡쳐Motion capture 시스템의 위치 추정 융합  Location fusion of system

상기 도 5에 도시된 바와 같이, 본 발명에서는 상기 센서식 모션캡쳐 시스템과 광학식 모션캡쳐 시스템을 융합하여 위치를 추정하기 위한 방법으로 통합 칼만필터를 설계하여 사용한다. As shown in FIG. 5, an integrated Kalman filter is designed and used as a method for fusing the sensed-format motion capture system and the optical motion capture system to estimate a position.

본 발명에 따른 하이브리드 모션캡쳐 시스템의 칼만필터 상태모델(System Equation)은 노이즈

Figure pat00024
를 포함하여 다음의 수학식 3과 같이 나타낼 수 있다.The Kalman filter state model (System Equation) of the hybrid motion capture system according to the present invention is based on noise
Figure pat00024
(3) " (3) "

Figure pat00025
Figure pat00025

위 상태모델의 입력값인 x는 다음의 수학식 4와 같이 두 시스템의 출력값의 차이와 모션센서 출력값의 센서오차를 원소로 가진다. The input value x of the above state model has the difference between the output values of the two systems and the sensor error of the motion sensor output value as an element as shown in the following Equation (4).

Figure pat00026
Figure pat00026

여기서,

Figure pat00027
는 위치 오차를 나타내는 벡터이고,
Figure pat00028
는 속도 오차 벡터이며,
Figure pat00029
는 자세 오차 벡터이고,
Figure pat00030
는 드리프트(오차누적)가 포함된 자이로센서 오차 벡터이며,
Figure pat00031
는 바이어스를 포함한 가속도센서의 오차 벡터를 나타낸다. here,
Figure pat00027
Is a vector representing a position error,
Figure pat00028
Is a velocity error vector,
Figure pat00029
Is a posture error vector,
Figure pat00030
Is a gyro sensor error vector including drift (error accumulation)
Figure pat00031
Represents the error vector of the acceleration sensor including the bias.

상기 수학식 3의 상태모델에서 시간에 따라 에러를 전달하는 다이나믹 행렬인 F는 다음의 수학식 5와 같이 표현한다.In the state model of Equation (3), F, which is a dynamic matrix for transmitting an error according to time, is expressed by the following Equation (5).

Figure pat00032
Figure pat00032

상기 다이나믹 행렬 F의 각 요소 중, l은 지역좌표계(Local-Level frame), e는 지구중심고정좌표계(Earth Centered Earth Fixed frame), i는 관성좌표계(Inertial-Level frame), b는 동체좌표계(Body-Level frame)를 나타낸다.In the elements of the dynamic matrix F, l is a local-level frame, e is an Earth Centered Earth fixed frame, i is an inertial-level frame, b is a body coordinate system Body-Level frame).

여기에서, 위치 오차를 계산하는

Figure pat00033
는 다음의 수학식 6과 같이 표현된다. Here, the position error is calculated
Figure pat00033
Is expressed by the following Equation (6).

Figure pat00034
Figure pat00034

여기서, h는 수직방향의 높이(height),

Figure pat00035
은 자오선 동서권 중심의 지구 반지름을 나타내고, φ는 강체의 앞/뒤 이동을 나타낸다. Here, h is the height in the vertical direction,
Figure pat00035
Represents the radius of the earth at the center of the meridional east-west axis, and φ represents the forward / backward movement of the rigid body.

또한, 상기 수학식 5에서 속도 오차를 계산하는

Figure pat00036
의 각 항은 다음의 수학식들과 같은데, 속도 오차 계산에서 3, 4, 5항은 1, 2항에 비해 매우 작은 값으로 무시할 수 있다.Further, in Expression (5), the velocity error is calculated
Figure pat00036
Are the same as the following equations. In the calculation of the velocity error, the terms 3, 4, and 5 are negligible as compared with the terms 1 and 2.

먼저, 1항은 다음의 수학식 7과 같다.First, the first term is expressed by the following equation (7).

Figure pat00037
Figure pat00037

여기서, 가속도 f의 e,n,u는 east(동쪽), north(북쪽), up(상) 방향의 속도를 나타낸다.Here, e, n, and u of acceleration f represent speeds in east (east), north (north), and up (up) directions.

2항은 다음의 수학식 8과 같다.2 < / RTI >

Figure pat00038
Figure pat00038

여기서,

Figure pat00039
은 동체좌표계에서 지역좌표계로의 변환 행렬로, 다음의 수학식 9와과 같이 표현된다. here,
Figure pat00039
Is a transformation matrix from the fuselage coordinate system to the local coordinate system, and is expressed by the following equation (9).

Figure pat00040
Figure pat00040

또한, 3항과 4항 및 5항은 다음의 수학식 10과 수학식 11 및 수학식 12와 같다.The terms 3, 4, and 5 are expressed by the following equations (10), (11), and (12).

Figure pat00041
Figure pat00041

Figure pat00042
Figure pat00042

Figure pat00043
Figure pat00043

한편, 상기 수학식 5에서 자세 오차를 계산하는

Figure pat00044
Figure pat00045
로 표현되며, 각 항은 다음의 수학식 13 내지 15와 같이 표현한다.On the other hand, in the equation (5)
Figure pat00044
The
Figure pat00045
, And each term is expressed by the following equations (13) to (15).

Figure pat00046
Figure pat00046

Figure pat00047
Figure pat00047

Figure pat00048
Figure pat00048

여기서, R 행렬은 위의

Figure pat00049
와 동일하다. Here, the R matrix is the
Figure pat00049
.

한편, 상기 수학식 5에서 관성센서 오차를 계산하는 4행과 5행은 각각 자이로센서와 가속도센서의 오차를 계산하며, 다음의 수학식들과 같이 표현될 수 있다. 먼저, 자이로센서 오차식은 다음의 수학식 16과 같다.In Equation (5), the fourth and fifth lines for calculating the inertia sensor error calculate the error of the gyro sensor and the acceleration sensor, respectively, and can be expressed by the following equations. First, the gyro sensor error equation is expressed by the following equation (16).

Figure pat00050
Figure pat00050

여기서,

Figure pat00051
Figure pat00052
의 자기상관배열이고,
Figure pat00053
는 센서자체의 오차이며, ω는 가우시간 노이즈를 나타낸다. here,
Figure pat00051
The
Figure pat00052
Lt; / RTI >
Figure pat00053
Is the error of the sensor itself, and? Represents the Gaussian noise.

다음으로 가속도센서의 오차식은 다음의 수학식 17과 같다.Next, the error equation of the acceleration sensor is expressed by Equation (17).

Figure pat00054
Figure pat00054

여기서,

Figure pat00055
Figure pat00056
의 자기상관배열이고,
Figure pat00057
는 센서자체 오차이며, ω는 가우시간 노이즈를 나타낸다.here,
Figure pat00055
The
Figure pat00056
Lt; / RTI >
Figure pat00057
Is the sensor's own error, and [omega] is the Gaussian noise.

한편, 칼만필터의 업데이트 단계를 위한 측정 상태모델은 다음의 수학식 18과 같이 표현할 수 있다. On the other hand, the measurement state model for the update step of the Kalman filter can be expressed by the following equation (18).

Figure pat00058
Figure pat00058

여기에서, z와 x는 동일한 값이므로, H는 다음의 수학식 19와 같이 표현된다.Here, since z and x are the same value, H is expressed by the following equation (19).

Figure pat00059
Figure pat00059

따라서, 상기 측정 상태모델 z는 다음의 수학식 20과 같이 표현할 수 있다. Therefore, the measurement state model z can be expressed by the following equation (20).

Figure pat00060
Figure pat00060

여기서,

Figure pat00061
은 모션센서에서 추정한 속도를 나타내고,
Figure pat00062
은 속도의 초기값을 나타내며,
Figure pat00063
은 초기속도의 불확실성을 표현한 것이다. 또한,
Figure pat00064
는 광학식에서 추적한 위치값이고,
Figure pat00065
는 모션센서에서 추정한 위치값이며,
Figure pat00066
는 측정한 위치의 불확실성을 나타낸다. here,
Figure pat00061
Represents the velocity estimated by the motion sensor,
Figure pat00062
Represents the initial value of the velocity,
Figure pat00063
Represents the uncertainty of the initial velocity. Also,
Figure pat00064
Is the position value tracked in the optics,
Figure pat00065
Is a position value estimated by the motion sensor,
Figure pat00066
Represents the uncertainty of the measured position.

본 발명에서는 이러한 상태모델을 이용하여 칼만필터를 설계하는데, 도 8은 본 발명의 실시예에 따른 상태모델을 이용하여 칼만필터가 설계되는 과정을 나타낸 처리 흐름도이다. In the present invention, a Kalman filter is designed using the state model. FIG. 8 is a flowchart illustrating a process of designing a Kalman filter using a state model according to an embodiment of the present invention.

도 8에서, Q는 공정 잡음인 시스템 잡음 공분산 행렬이고, R은 측정 잡음 공분산 행렬을 나타낸다. 8, Q is a system noise covariance matrix, which is process noise, and R represents a measurement noise covariance matrix.

시간 갱신(Time Update)에서는 이전 시간에서의 x와, 두 시스템(광학식 모션캡쳐 시스템 및 센서식 모션캡쳐 시스템)의 출력값의 차이와, 센서식 모션캡쳐 시스템의 모션센서 출력값의 센서오차로 미분된 예측값을 구한다. 그리고, 모션센서에서 추정한 속도와 두 시스템의 위치 차이를 이용하여 측정치 갱신(Measurement Update)에서 측정값을 구한다. In the time update, the difference between the output x of the previous time and the output values of the two systems (optical motion capture system and the sen- ious motion capture system) and the sensor error of the motion-sensor output value of the sen- . Then, the measurement value is obtained from the measurement update using the speed estimated by the motion sensor and the positional difference between the two systems.

이렇게 구한 측정값에서 예측값을 빼줌으로서 오차

Figure pat00067
를 구하고, 이 값에 칼만이득(Kk)을 곱한 값과 이전 추정값을 더함으로서 최종 추정값
Figure pat00068
를 구하게 된다. 또한,
Figure pat00069
는 오차공분산으로 이 역시 업데이트되어 예측치 계산에 사용되게 된다. By subtracting the predicted value from the measured value thus obtained,
Figure pat00067
By adding the value obtained by multiplying this value by the Kalman gain K k and the previous estimated value,
Figure pat00068
. Also,
Figure pat00069
Is also an error covariance and is also updated to be used in the prediction calculation.

이와 같이 본 발명에서는 광학식 모션캡쳐 시스템에서 추정한 위치와 센서식 모션캡쳐 시스템에서 추정한 위치의 오차를 통합 칼만필터를 통해서 융합하고, 통합 칼만필터에서 추정한 오차를 모션센서로 피드백하여 모션센서의 오차를 보정함으로써 정확한 강체의 위치 추정이 가능해진다. 즉, 센서식 모션캡쳐 시스템에서 추정한 속도와 위치의 오차누적을 광학식 모션캡쳐 시스템에서 추적한 마커의 위치와 속도로 보상함으로써 정확한 모션측정이 가능해진다.As described above, according to the present invention, the position estimated by the optical motion capture system and the error of the position estimated by the senformant motion capture system are fused through the integrated Kalman filter, and the error estimated by the integrated Kalman filter is fed back to the motion sensor, By correcting the error, accurate position estimation of the rigid body becomes possible. In other words, accurate motion estimation is possible by compensating the error accumulation of speed and position estimated by the senformed motion capture system with the position and velocity of the marker tracked by the optical motion capture system.

본 발명은 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템의 출력값이 아닌, 두 시스템의 오차를 칼만필터의 입력값으로 가지는 오차모델을 설계하여 모션센서에서 나오는 출력값에 되먹임(feedback)함으로써 오차누적을 효과적으로 보상할 수 있다. 또한, 두 시스템의 최종 출력값을 보상할 뿐만 아니라, 모션센서의 센서 오차(자이로센서, 가속도센서 오차) 또한 칼만필터의 상태변수로 설계함으로써 시간갱신(Time Update) 단계에서 정확한 예측값을 추정할 수 있게 된다.The present invention designs an error model having an error value of two systems as an input value of a Kalman filter rather than an output value of an optical motion capture system and a sen- ious motion capture system, and feedbacks the error value to an output value from a motion sensor, You can compensate. In addition, not only the final output value of the two systems can be compensated, but also the sensor error (gyro sensor, acceleration sensor error) of the motion sensor can be designed as a state variable of the Kalman filter, do.

이러한 본 발명은 상술한 실시예에 한정되는 것은 아니며 본 발명이 속하는 기술 분야에서 통상의 지식을 갖는 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구 범위의 균등범위 내에서 다양한 수정 및 변형이 이루어질 수 있음은 물론이다. It is to be understood that the present invention is not limited to the above-described embodiment, and that various modifications and changes may be made by those skilled in the art without departing from the spirit and scope of the appended claims. Of course, can be achieved.

Claims (5)

센서식 모션캡쳐 시스템과 광학식 모션캡쳐 시스템의 강체(rigid body) 위치 추정 정보를 융합하여 강체의 위치를 추정하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법으로서,
(a) 상기 센서식 모션캡쳐 시스템에서 가속도센서와 자이로센서가 구비된 모션센서를 통하여 강체의 움직임을 측정하여 강체의 위치와 속도 및 자세를 추정하는 단계와;
(b) 상기 광학식 모션캡쳐 시스템에서 광학식 카메라를 통하여 강체에 부착된 마커를 촬영하여 강체의 이동을 측정하여 강체의 위치 및 속도를 추정하는 단계와;
(c) 통합 칼만필터에서 상기 광학식 모션캡쳐 시스템과 센서식 모션캡쳐 시스템의 강체 위치 및 속도 추정 차이값을 입력받아, 현재 입력되는 차이값과 이전 시간에 입력된 차이값과 비교하여 추정 오차를 산출하고, 산출된 추정 오차를 통하여 최종 추정값을 계산하여 강체의 현재 위치를 추정하는 것을 특징으로 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법.
There is provided a position estimation method of a hybrid motion capturing system for estimating a position of a rigid body by fusing rigid body position estimation information of an intelligent motion capture system and an optical motion capture system,
(a) estimating a position, a velocity, and a posture of a rigid body by measuring a motion of the rigid body through the motion sensor provided with the acceleration sensor and the gyro sensor in the sensed-format motion capture system;
(b) photographing a marker attached to a rigid body through the optical camera in the optical motion capture system to estimate the position and velocity of the rigid body by measuring the movement of the rigid body;
(c) receiving the rigid position and velocity estimation difference values of the optical motion capture system and the senformed motion capture system in an integrated Kalman filter, and calculating an estimation error by comparing the currently input difference value with the difference value input at the previous time And estimating a current position of the rigid body by calculating a final estimated value through the calculated estimation error.
제 1항 또는 제 2항에 있어서,
상기 칼만필터는 강체 위치에 대한 최종 추정값을 센서식 모션캡쳐 시스템에 피드백하여, 상기 센서식 모션캡쳐 시스템의 모션센서 오차 누적을 보상하도록 하는 것을 특징으로 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법.
3. The method according to claim 1 or 2,
Wherein the Kalman filter feeds back a final estimate of a rigid body position to a sen- ious format motion capture system to compensate for motion sensor error accumulation of the sen- ious format motion capture system.
제 2항에 있어서,
상기 통합 칼만필터는
이전 시간에서의 상기 광학식 모션캡쳐 시스템과 센서식 모션센서 시스템의 출력값 차이와 센서식 모션캡쳐 시스템의 모션센서 출력값 센서오차를 이용하여 예측값을 계산하고,
상기 센서식 모션캡쳐 시스템의 모션센서에서 추정한 강체의 속도와 상기 두 시스템의 위치 차이를 이용하여 측정값을 계산하며,
상기 구해진 측정값에서 예측값을 빼줌으로서 오차 값(
Figure pat00070
)을 계산하고, 상기 계산된 오차 값에 칼만이득(Kk)을 곱한 값과 이전 추정값을 더함으로서 최종 추정값(
Figure pat00071
)을 산출하는 것을 특징으로 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법.
3. The method of claim 2,
The integrated Kalman filter
A predicted value is calculated using a difference between an output value of the optical motion capturing system and a sen- ious format motion sensor system at a previous time and a motion sensor output value sensor error of a sen- ious motion capture system,
A measurement value is calculated using the velocity of the rigid body estimated by the motion sensor of the senformed motion capture system and the positional difference between the two systems,
By subtracting the predicted value from the obtained measured value, an error value (
Figure pat00070
), Adding the value obtained by multiplying the calculated error value by the Kalman gain K k and the previous estimated value,
Figure pat00071
) Is calculated based on the motion vector of the hybrid motion capture system.
제 1항 내지 제 3항 중 어느 한 항에 있어서,
상기 통합 칼만필터의 상태모델은 다음의 수학식과 같이 나타내는 것을 특징으로 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법.
[수학식]
Figure pat00072

(여기서, x는 광학식 모션캡쳐 시스템과 센서식 모션센서 시스템의 출력값 차이와 모션센서 출력값의 센서오차를 원소로 하는 입력값이고,
F는 시간(t)에 따라 에러를 전달하는 다이나믹 행렬로 위치 오차, 속도 오차, 자세 오차, 자이로센서 오차, 가속도센서 오차를 포함하며,
Gw(t)는 노이즈를 나타낸다)
4. The method according to any one of claims 1 to 3,
Wherein the state model of the integrated Kalman filter is expressed by the following equation.
[Mathematical Expression]
Figure pat00072

(Where x is an input value having an output error value of an optical motion capture system and a sensor of a motion sensor type and a sensor error of a motion sensor output value as elements,
F is a dynamic matrix that transmits errors according to time (t), including position error, velocity error, attitude error, gyro sensor error, and acceleration sensor error,
Gw (t) denotes noise)
제 1항 내지 제 3항 중 어느 한 항에 있어서,
상기 통합 칼만필터의 업데이트 단계를 위한 측정 상태모델은 다음의 수학식과 같이 나타내는 것을 특징으로 하는 하이브리드 모션캡쳐 시스템의 위치 추정 방법.
[수학식]
Figure pat00073

(여기서,
Figure pat00074
은 모션센서에서 추정한 속도를 나타내고,
Figure pat00075
은 속도의 초기값을 나타내며,
Figure pat00076
은 초기속도의 불확실성을 표현한 것이다. 또한,
Figure pat00077
는 광학식에서 추적한 위치값이고,
Figure pat00078
는 모션센서에서 추정한 위치값이며,
Figure pat00079
는 측정한 위치의 불확실성을 나타낸다)
4. The method according to any one of claims 1 to 3,
Wherein the measurement state model for the update step of the integrated Kalman filter is expressed as: < EMI ID = 17.0 >
[Mathematical Expression]
Figure pat00073

(here,
Figure pat00074
Represents the velocity estimated by the motion sensor,
Figure pat00075
Represents the initial value of the velocity,
Figure pat00076
Represents the uncertainty of the initial velocity. Also,
Figure pat00077
Is the position value tracked in the optics,
Figure pat00078
Is a position value estimated by the motion sensor,
Figure pat00079
Represents the uncertainty of the measured position)
KR1020160162077A 2016-11-30 2016-11-30 Method for position estimation of hybird motion capture system KR101950359B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160162077A KR101950359B1 (en) 2016-11-30 2016-11-30 Method for position estimation of hybird motion capture system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160162077A KR101950359B1 (en) 2016-11-30 2016-11-30 Method for position estimation of hybird motion capture system

Publications (2)

Publication Number Publication Date
KR20180062137A true KR20180062137A (en) 2018-06-08
KR101950359B1 KR101950359B1 (en) 2019-02-20

Family

ID=62600579

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160162077A KR101950359B1 (en) 2016-11-30 2016-11-30 Method for position estimation of hybird motion capture system

Country Status (1)

Country Link
KR (1) KR101950359B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020107312A1 (en) * 2018-11-29 2020-06-04 深圳市瑞立视多媒体科技有限公司 Rigid body configuration method and optical motion capturing method
WO2020116837A1 (en) * 2018-12-06 2020-06-11 (주)코어센스 Device for implementing motion on basis of convergence motion capture system, and method thereof
KR20200069218A (en) * 2018-12-06 2020-06-16 (주)코어센스 Motion capture apparatus using movement of human centre of gravity and method thereof
KR20200069220A (en) * 2018-12-06 2020-06-16 (주)코어센스 Appartus for implementing motion based convergence motion capture system and method thereof
KR20210042905A (en) * 2018-08-28 2021-04-20 도쿄 덴료쿠 홀딩스 가부시키가이샤 Space temperature scanner and how to display the space temperature
KR20210119654A (en) * 2020-03-25 2021-10-06 (주)코어센스 Method for removing errors in human motion implementation using tangential velocity vector
WO2022014805A1 (en) * 2020-07-17 2022-01-20 (주)코어센스 Virtual space mobile platform construction method via cross covariance 3d coordinate estimation
KR20220009836A (en) * 2020-07-16 2022-01-25 (주)코어센스 Motion capture system for virtual fire fighting and motion capture method using the same
KR20220090269A (en) * 2020-12-22 2022-06-29 주식회사 뉴메틱 Method and Server for Compensating Motion of 3D animation
KR102590257B1 (en) * 2023-05-03 2023-10-19 (주)한성컴퓨터 Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100761011B1 (en) * 2006-05-30 2007-09-21 학교법인 인하학원 Aiding inertial navigation system using a camera type sun sensor and method there of
KR101080078B1 (en) * 2009-12-08 2011-11-04 숭실대학교산학협력단 Motion Capture System using Integrated Sensor System
KR20130049610A (en) * 2011-11-04 2013-05-14 삼성전자주식회사 Mobile object and walking robot
KR101483713B1 (en) 2008-06-30 2015-01-16 삼성전자 주식회사 Apparatus and Method for capturing a motion of human

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100761011B1 (en) * 2006-05-30 2007-09-21 학교법인 인하학원 Aiding inertial navigation system using a camera type sun sensor and method there of
KR101483713B1 (en) 2008-06-30 2015-01-16 삼성전자 주식회사 Apparatus and Method for capturing a motion of human
KR101080078B1 (en) * 2009-12-08 2011-11-04 숭실대학교산학협력단 Motion Capture System using Integrated Sensor System
KR20130049610A (en) * 2011-11-04 2013-05-14 삼성전자주식회사 Mobile object and walking robot

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210042905A (en) * 2018-08-28 2021-04-20 도쿄 덴료쿠 홀딩스 가부시키가이샤 Space temperature scanner and how to display the space temperature
WO2020107312A1 (en) * 2018-11-29 2020-06-04 深圳市瑞立视多媒体科技有限公司 Rigid body configuration method and optical motion capturing method
WO2020116837A1 (en) * 2018-12-06 2020-06-11 (주)코어센스 Device for implementing motion on basis of convergence motion capture system, and method thereof
KR20200069218A (en) * 2018-12-06 2020-06-16 (주)코어센스 Motion capture apparatus using movement of human centre of gravity and method thereof
KR20200069220A (en) * 2018-12-06 2020-06-16 (주)코어센스 Appartus for implementing motion based convergence motion capture system and method thereof
KR20210119654A (en) * 2020-03-25 2021-10-06 (주)코어센스 Method for removing errors in human motion implementation using tangential velocity vector
KR20220009836A (en) * 2020-07-16 2022-01-25 (주)코어센스 Motion capture system for virtual fire fighting and motion capture method using the same
WO2022014805A1 (en) * 2020-07-17 2022-01-20 (주)코어센스 Virtual space mobile platform construction method via cross covariance 3d coordinate estimation
KR20220010304A (en) * 2020-07-17 2022-01-25 (주)코어센스 Method for Estimating 3D Position Using Cross Covariance
KR20220090269A (en) * 2020-12-22 2022-06-29 주식회사 뉴메틱 Method and Server for Compensating Motion of 3D animation
KR102590257B1 (en) * 2023-05-03 2023-10-19 (주)한성컴퓨터 Smart interactive white board apparatus using Wi-Fi location tracking technology and its control method

Also Published As

Publication number Publication date
KR101950359B1 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
KR101950359B1 (en) Method for position estimation of hybird motion capture system
US20210012520A1 (en) Distance measuring method and device
EP3679549B1 (en) Visual-inertial odometry with an event camera
US8761439B1 (en) Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
US11132810B2 (en) Three-dimensional measurement apparatus
CN109885080B (en) Autonomous control system and autonomous control method
EP3361948B1 (en) Integration of inertial tracking and position aiding for motion capture
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
KR101347838B1 (en) Motion capture device and associated method
US10322819B2 (en) Autonomous system for taking moving images from a drone, with target tracking and improved target location
CN109540126A (en) A kind of inertia visual combination air navigation aid based on optical flow method
CN108036785A (en) A kind of aircraft position and orientation estimation method based on direct method and inertial navigation fusion
US20120078510A1 (en) Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
US20180075609A1 (en) Method of Estimating Relative Motion Using a Visual-Inertial Sensor
CN110084832A (en) Correcting method, device, system, equipment and the storage medium of camera pose
KR20150088636A (en) Apparatus and method for estimating position
CN109238277B (en) Positioning method and device for visual inertial data depth fusion
JP2009074859A (en) Motion measuring device and position measuring device
CN111723624B (en) Head movement tracking method and system
CN110207693B (en) Robust stereoscopic vision inertial pre-integration SLAM method
CN113587934A (en) Robot, indoor positioning method and device and readable storage medium
EP3614341A1 (en) Apparatus, method and computer program for detecting the form of a deformable object
JP2005062083A (en) Survey system having function of position error correction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
R401 Registration of restoration