KR20200069218A - 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법 - Google Patents

인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법 Download PDF

Info

Publication number
KR20200069218A
KR20200069218A KR1020190140864A KR20190140864A KR20200069218A KR 20200069218 A KR20200069218 A KR 20200069218A KR 1020190140864 A KR1020190140864 A KR 1020190140864A KR 20190140864 A KR20190140864 A KR 20190140864A KR 20200069218 A KR20200069218 A KR 20200069218A
Authority
KR
South Korea
Prior art keywords
motion
gravity
center
human body
jump
Prior art date
Application number
KR1020190140864A
Other languages
English (en)
Other versions
KR102172362B1 (ko
Inventor
김민경
박진하
김충일
Original Assignee
(주)코어센스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)코어센스 filed Critical (주)코어센스
Priority to PCT/KR2019/016197 priority Critical patent/WO2020116836A1/ko
Publication of KR20200069218A publication Critical patent/KR20200069218A/ko
Application granted granted Critical
Publication of KR102172362B1 publication Critical patent/KR102172362B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 실시예에 따른 모션 캡쳐 장치는 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신하는 수신부, 상기 모션 측정 데이터에 기초하여 상기 측정 대상자에 대한 인체 모션을 프레임 별로 구성하고, 상기 각 프레임별로 상기 인체 모션의 무게 중심을 산출하는 무게 중심 산출부, 상기 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단하는 점프 판단부, 그리고 상기 점프 모션이 발생한 것으로 판단되면, 상기 무게 중심에 기초하여 상기 인체 모션의 점프 경로를 결정하고, 상기 결정된 점프 경로를 이용하여 가상 캐릭터의 모션을 구현하는 모션 구현부를 포함한다.

Description

인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법{MOTION CAPTURE APPARATUS USING MOVEMENT OF HUMAN CENTRE OF GRAVITY AND METHOD THEREOF}
실시 예는 모션 캡쳐 장치 및 그 방법에 관한 것이다.
모션 캡쳐(Motion Cature)란 신체에 센서를 부착시키거나, 적외선 카메라 등을 이용하는 방법으로 인체의 움직임을 파악하여 디지털 형태로 기록하는 작업을 말한다. 이러한 모션 캡쳐를 통해 얻어지는 모션 캡쳐 데이터는 디지털 콘텐츠로서, 애니메이션이나 영화 게임, 동작분석, 재활 등 다양하게 활용된다.
모션 캡쳐 시스템은 데이터를 추출하는 방식에 따라 광학식, 기계식, 센서식으로 구분될 수 있다. 광학식은 대상의 움직임을 측정하기 위해 소정의 부위에 마커를 부착한 후 다수의 카메라를 통해 촬영함으로써 위치 데이터를 추출하는 방식이다. 고속으로 촬영이 가능하고 대상의 움직임에 제약이 적다는 장점이 있으나, 장비가 매우 고가이고 마커가 가려지는 경우 데이터가 손실되는 단점이 있다. 기계식은 인체의 각 관절부위의 움직임을 기계장치 부착을 통해 캡처하는 방식으로, 제공되는 데이터는 실시간으로 추출된 관절별 회전데이터로서 매우 정확한 데이터를 제공 받을 수 있다. 그러나, 고중량의 기계 장치를 부착함에 따라 대상이 자연스러운 움직임에 제약을 받게 되고 이로 인해 동작데이터의 추출에도 한계가 있다. 센서식은 대상의 각 관절 부위에 자기장을 발생하는 센서를 부착하고 대상의 움직임에 따른 자기장의 변화를 측정하여 위치데이터를 추출하는 방식이다. 케이블로 인한 대상의 동작 제한 등의 문제점을 가지고 있으나, 최근 MEMS(Microelectromechanical systems) 기술과 무선 통신 기술이 발전함에 따라 이러한 문제점들이 해결되고 있다.
센서식 모션 캡쳐 시스템의 경우 위치 이동 연산에 이용되는 가속도 신호를 측정하기 위하여 가속도 센서를 필수적으로 포함한다. 가속도 신호를 적분하여 대상의 이동 거리 및 이동 속도 등을 산출하게 되는데, 가속도 센서에서 측정되는 바이어스로 인해 적분 시 오차가 누적되며, 이는 측정 오차로 이어지게 된다.
따라서, 이러한 가속도 센서에서 측정되는 바이어스로 인해 발생하는 적분 시 오차를 줄일 수 있는 방안이 요구된다.
실시 예는 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법을 제공한다.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.
본 발명의 실시예에 따른 모션 캡쳐 장치는 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신하는 수신부, 상기 모션 측정 데이터에 기초하여 상기 측정 대상자에 대한 인체 모션을 프레임 별로 구성하고, 상기 각 프레임별로 상기 인체 모션의 무게 중심을 산출하는 무게 중심 산출부, 상기 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단하는 점프 판단부, 그리고 상기 점프 모션이 발생한 것으로 판단되면, 상기 무게 중심에 기초하여 상기 인체 모션의 점프 경로를 결정하고, 상기 결정된 점프 경로를 이용하여 가상 캐릭터의 모션을 구현하는 모션 구현부를 포함한다.
상기 무게 중심 산출부는, 상기 인체 모션을 기 설정된 분절 영역 별로 구분하고, 상기 분절 영역 별로 무게 중심의 좌표를 산출하고, 상기 분절 영역 별로 산출된 무게 중심의 좌표에 기초하여 상기 인체 모션의 무게 중심의 좌표를 산출할 수 있다.
상기 무게 중심 산출부는,상기 분절 영역 별로 양 끝단의 좌표 정보를 산출하고, 상기 분절 영역 별로 설정된 제1 파라미터와 상기 좌표 정보를 이용하여 상기 분절 영역 별 무게 중심의 좌표를 산출하며, 상기 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 상기 인체 모션의 무게 중심의 좌표를 산출할 수 있다.
상기 점프 판단부는, 상기 모션 측정 데이터에 포함된 상기 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단하고, 상기 중력 방향의 가속도 값이 기 설정된 임계치 이상이면, 상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점을 검출하며, 상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 상기 점프 모션이 발생한 것으로 판단할 수 있다.
상기 모션 구현부는, 상기 인체 모션의 허리 위치와 상기 무게 중심 사이의 차이값을 산출하고, 상기 인체 모션의 둔부 위치를 상기 차이값만큼 이동시켜 상기 인체 모션을 보정하고, 상기 무게 중심의 이동 방향에 따라 상기 인체 모션의 이동 궤적을 산출하며, 상기 점프 모션이 발생한 시점부터 상기 가속도 신호를 적분하여 상기 인체 모션의 이동속도 및 이동 거리를 산출하고, 상기 인체 모션의 이동 궤적, 이동속도 및 이동 거리를 상기 보정된 인체 모션에 적용하여 상기 가상 캐릭터의 모션을 구현할 수 있다.
본 발명의 실시예에 따른 모션 캡쳐 방법은 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신하는 단계, 상기 모션 측정 데이터에 기초하여 상기 측정 대상자에 대한 인체 모션을 프레임 별로 구성하고, 상기 각 프레임별로 상기 인체 모션의 무게 중심을 산출하는 단계, 상기 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단하는 단계, 그리고 상기 점프 모션이 발생한 것으로 판단되면, 상기 무게 중심에 기초하여 상기 인체 모션의 점프 경로를 결정하고, 상기 결정된 점프 경로를 이용하여 가상 캐릭터의 모션을 구현하는 단계를 포함한다.
상기 인체 모션의 무게 중심을 산출하는 단계는, 상기 인체 모션을 기 설정된 분절 영역 별로 구분하는 단계, 상기 분절 영역 별로 무게 중심의 좌표를 산출하는 단계, 그리고 상기 분절 영역 별로 산출된 무게 중심의 좌표에 기초하여 상기 인체 모션의 무게 중심의 좌표를 산출하는 단계를 포함할 수 있다.
상기 분절 영역 별로 무게 중심의 좌표를 산출하는 단계는, 상기 분절 영역 별로 양 끝단의 좌표 정보를 산출하는 단계, 그리고 상기 분절 영역 별로 설정된 제1 파라미터와 상기 좌표 정보를 이용하여 상기 분절 영역 별 무게 중심의 좌표를 산출하는 단계를 포함하고, 상기 인체 모션의 무게 중심의 좌표를 산출하는 단계는, 상기 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 상기 인체 모션의 무게 중심의 좌표를 산출하는 단계를 포함할 수 있다.
상기 점프 모션이 발생하였는지 여부를 판단하는 단계는, 상기 모션 측정 데이터에 포함된 상기 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단하는 단계, 상기 중력 방향의 가속도 값이 기 설정된 임계치 이상이면, 상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점을 검출하는 단계, 그리고 상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 상기 점프 모션이 발생한 것으로 판단하는 단계를 포함할 수 있다.
상기 가상 캐릭터의 모션을 구현하는 단계는, 상기 인체 모션의 허리 위치와 상기 무게 중심 사이의 차이값을 산출하는 단계, 상기 인체 모션의 둔부 위치를 상기 차이값만큼 이동시켜 상기 인체 모션을 보정하는 단계, 상기 무게 중심의 이동 방향에 따라 상기 인체 모션의 이동 궤적을 산출하는 단계, 상기 점프 모션이 발생한 시점부터 상기 가속도 신호를 적분하여 상기 인체 모션의 이동속도 및 이동 거리를 산출하는 단계, 그리고 상기 인체 모션의 이동 궤적, 이동속도 및 이동 거리를 상기 보정된 인체 모션에 적용하여 상기 가상 캐릭터의 모션을 구현하는 단계를 포함할 수 있다.
실시 예에 따르면, 가속도 센서에서 측정되는 바이어스로 인한 적분시 오차를 최소화하여 높은 동작 구현 정확도를 제공할 수 있다.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 모션 캡쳐 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 서브 모듈의 배치를 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 모션 캡쳐 장치의 구성도이다.
도 4는 본 발명의 실시예에 따른 인체 모션 구현을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 무게 중심을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 분절 별 제1 파라미터를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 분절 별 무게 중심의 좌표를 산출하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 인체 모션의 무게 중심을 산출하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 점프 판단 과정을 설명하기 위한 도면이다.
도 10 및 도 11은 본 발명의 실시예에 따른 모션 구현 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른 모션 캡쳐 방법의 순서도이다.
도 13은 도 12의 S1230 단계를 상세하게 나타낸 순서도이다.
도 14는 도 12의 S1230 단계를 상세하게 나타낸 순서도이다.
도 15는 도 12의 S1250 단계를 상세하게 나타낸 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 모션 캡쳐 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 모션 캡쳐 시스템은 모션 센서 모듈(100) 및 모션 캡쳐 장치(300)를 포함할 수 있다.
모션 센서 모듈(100)은 측정 대상자의 움직임을 측정하여 모션 측정 데이터를 수집하기 위한 모듈을 의미할 수 있다. 측정 대상자가 다수인 경우, 모션 센서 모듈(100)은 복수일 수 있다. 모션 센서 모듈(100)은 복수의 서브 모듈(110)과 하나의 메인 모듈(120)을 포함할 수 있다.
우선, 복수의 서브 모듈(110)은 측정 대상자의 신체 각 부위에 부착되어 측정 대상자의 움직임을 측정하는 모션 측정 센서를 의미할 수 있다. 복수의 서브 모듈(110)은 머리, 팔, 허리, 다리 등 신체 각 부위에 부착될 수 있다.
각각의 서브 모듈(110)은 다양한 센서를 구비할 수 있다. 일 실시예에 따르면, 서브 모듈(110)은 3축의 자이로 센서, 3축 가속도 센서, 3축 지자기 센서 중 적어도 하나를 포함할 수 있다. 그리고, 서브 모듈(110)은 각 센서로부터 수신된 신호를 처리하기 위한 신호 처리부와 센서 동작을 위한 전원부, 메인 모듈(120)과 통신하기 위한 통신부를 더 포함할 수 있다.
다음으로, 메인 모듈(120)은 각 센서로부터 모션 측정 데이터를 수집한다. 모션 측정 데이터는 서브 모듈(110)에 포함된 센서에 따른 신호 정보를 포함할 수 있다. 예를 들어, 서브 모듈(110)이 3축 가속도 센서를 포함하는 경우, 모션 측정 데이터는 3축의 가속도 신호에 대한 정보를 포함할 수 있다. 복수의 서브 모듈(110)로부터 모션 측정 데이터를 수집하기 위하여, 메인 모듈(120)은 복수의 서브 모듈(110)과 1:N 통신이 가능하도록 설계될 수 있다. 메인 모듈(120)은 서브 모듈(110)과 유선으로 통신 연결될 수 있다.
메인 모듈(120)은 수집된 데이터를 주기적으로 통신 모듈(200)을 통해 모션 캡쳐 장치(300)로 전송한다. 예를 들어, 메인 모듈(120)은 10ms 단위로 수집된 데이터를 모션 캡쳐 장치(300)로 전송할 수 있다. 여기서, 통신 모듈(200)은 WiFi AP(WiFi Acess Point)을 의미할 수 있다.
모션 캡쳐 장치(300)는 통신 모듈(200)을 통해 수신된 모션 측정 데이터를 이용하여 가상 캐릭터의 움직임을 구현한다. 모션 캡쳐 장치(300)는 데이터를 저장하고 처리하기 위한 프로세서, 램 및 저장 장치 등을 포함할 수 있다. 예를 들어, 모션 캡쳐 장치(300)는 PC(personal computer)나 서버 등으로 구현될 수 있다. 모션 캡쳐 장치(300)에 대해서는 아래에서 도면을 통해 상세하게 살펴보도록 한다.
도 2는 본 발명의 실시예에 따른 서브 모듈의 배치를 설명하기 위한 도면이다.
본 발명의 실시예에 따르면, 복수의 서브 모듈(110) 각각은 기 설정된 분절(segment)별로 센서가 배치될 수 있다. 분절은 인체를 커다란 부위별로 구분한 부위를 의미할 수 있다. 예를 들어, 도 2에 도시된 것처럼, 분절은 머리, 몸통, 둔부, 목, 대퇴, 하퇴, 발, 상완, 하완, 손(0 내지 14)으로 구성될 수 있다. 이 경우, 서브 모듈(110)은 적어도 15개로 구성될 수 있으며, 각 분절에 적어도 하나의 서브 모듈(110)이 배치될 수 있다.
도 3은 본 발명의 실시예에 따른 모션 캡쳐 장치의 구성도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 모션 캡쳐 장치(300)는 수신부(310), 무게 중심 산출부(320), 점프 판단부(330) 및 모션 구현부(340)를 포함할 수 있다.
수신부(310)는 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신한다.
무게 중심 산출부(320)는 모션 측정 데이터에 기초하여 측정 대상자에 대한 인체 모션을 프레임 별로 구성하고, 각 프레임별로 인체 모션의 무게 중심을 산출한다.
인체 모션의 무게 중심을 산출하기 위하여, 무게 중심 산출부(320)는 인체 모션을 기 설정된 분절 영역 별로 구분하고, 분절 영역 별로 무게 중심의 좌표를 산출한다. 그리고 무게 중심 산출부(320)는 분절 영역 별로 산출된 무게 중심의 좌표에 기초하여 인체 모션의 무게 중심의 좌표를 산출한다. 구체적으로, 무게 중심 산출부(320)는 분절 영역 별로 양 끝단의 좌표 정보를 산출하고, 분절 영역 별로 설정된 제1 파라미터와 좌표 정보를 이용하여 분절 영역 별로 무게 중심의 좌표를 산출한다. 그리고, 무게 중심 산출부(320)는 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 인체 모션의 무게 중심의 좌표를 산출한다.
점프 판단부(330)는 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단한다.
구체적으로, 점프 판단부(330)는 모션 측정 데이터에 포함된 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단한다. 점프 판단부(330)는 중력 방향의 가속도 값이 기 설정된 임계치 이상이면, 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점을 검출하며, 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 점프 모션이 발생한 것으로 판단한다.
모션 구현부(340)는 점프 모션이 발생한 것으로 판단되면, 무게 중심에 기초하여 인체 모션의 점프 경로를 결정하고, 결정된 점프 경로를 이용하여 가상 캐릭터의 모션, 예를 들어 점프 모션을 구현한다.
구체적으로, 모션 구현부(340)는 인체 모션의 허리 위치와 무게 중심 사이의 차이값을 산출하고, 인체 모션의 둔부 위치를 산출된 차이값만큼 이동시켜 인체 모션을 보정한다. 그리고, 모션 구현부(340)는 무게 중심의 이동 방향에 따라 인체 모션의 이동 궤적을 산출하며, 점프 모션이 발생한 시점부터 가속도 신호를 적분하여 상기 인체 모션의 이동 속도 및 이동 거리를 산출한다. 모션 구현부(340)는 인체 모션의 이동 궤적, 이동 속도 및 이동 거리에 기초하여 가상 캐릭터의 점프 모션을 구현한다. 모션 구현부(340)는 인체 모션의 이동 궤적, 이동속도 및 이동 거리를 보정된 인체 모션에 적용하여 가상 캐릭터의 모션을 구현한다.
도 4는 본 발명의 실시예에 따른 인체 모션 구현을 설명하기 위한 도면이다.
무게 중심 산출부(320)는 모션 측정 데이터에 기초하여 측정 대상자에 대한 인체 모션을 프레임 별로 구성할 수 있다. 무게 중심 산출부(320)는 서브 모듈(110)의 자세 정보, 즉 각 서브 모듈(110)의 모션 측정 데이터를 가상의 인체 골격 프레임의 각 부위에 적용하여 인체 모션을 구성할 수 있다. 상세하게는, 무게 중심 산출부(320)는 모션 측정 데이터에 포함된 쿼터니언 값을 회전 행렬로 변환하여 관절의 위치를 계산한 후, 관절의 위치값(좌표값)을 가상의 인체 골격 프레임의 관절부에 적용하여 도 4에 도시된 것과 같은 인체 모션을 구성할 수 있다.
도 5는 본 발명의 실시예에 따른 무게 중심을 설명하기 위한 도면이다.
무게 중심 산출부(320)는 각 프레임별로 인체 모션의 무게 중심을 산출한다.
무게 중심(Centre of gravity)은 인체의 질량 중심을 의미할 수 있다. 인체의 무게 중심은 신체의 중심에 존재하나, 고정적이진 않다. 도 5에 도시된 것처럼, 사람의 움직임이나 자세에 따라서 무게 중심은 항상 변할 수 있다.
이러한 무게 중심은 인체의 각 부위에 분포된 질량의 평균 위치로 산출될 수 있다. 따라서, 인체 모션을 기 설정된 분절 영역 별로 구분하고, 분절 영역 별로 무게 중심을 산출할 수 있다.
도 6은 본 발명의 실시예에 따른 분절 별 제1 파라미터를 설명하기 위한 도면이다.
본 발명의 실시예에 따르면, 무게 중심 산출부(320)는 분절 영역 별 무게 중심의 좌표를 산출하는데 있어 분절 별로 설정된 제1 파라미터를 이용할 수 있다.
분절 별로 설정된 제1 파라미터는 각 분절의 원위에서 근위까지의 거리를 1로 가정 하였을 때, 근위에서 질량 중심까지의 거리를 의미할 수 있다. 여기서, 제1 파라미터는 사람의 신장 및 몸무게에 따라 다르게 설정될 수 있으며, 개인별로 최적화될 수 있다.
도 6 및 아래의 표 1은 제1 파라미터의 예시를 나타낸다.
분절 제1 파라미터(%)
머리 40.24
몸통 55.14
몸통 상부 70.01
몸통 하부 38.85
상완 57.72
전완 45.74
79.00
대퇴골 40.95
정강이 44.59
표 1 및 도 6은 제1 파라미터의 일례로서, 제1 파라미터는 상기에서 예시로 제시한 분절 이외에 다른 분절 영역을 더 포함할 수 있다.
도 7은 본 발명의 실시예에 따른 분절 별 무게 중심의 좌표를 산출하는 과정을 설명하기 위한 도면이다.
본 발명의 실시예에 따르면, 무게 중심 산출부(320)는 분절 영역 별로 양 끝단의 좌표 정보를 산출한다. 분절 영역별 양 끝단의 좌표 정보는 모션 측정 데이터를 통해 산출될 수 있다. 여기서, 양 끝단이란 분절의 원위 말단과 근위 말단을 의미할 수 있다. 양 끝단의 좌표정보는 원위 말단과 근위 말단의 중심 좌표를 의미할 수 있다. 그러면, 무게 중심 산출부(320)는 분절 별로 설정된 제1 파라미터와 좌표 정보를 이용하여 분절 영역 별 무게 중심의 좌표를 산출한다.
도 7을 참조하면, 분절의 무게 중심은 원위 말단의 중심과 근위 말단의 중심을 이은 가상의 선분 상에 위치할 수 있다. 여기서, 상기에서 설명한 제1 파라미터를 고려하면, 근위 말단(Proximal end)의 x축 좌표값(XP)과 분절의 무게 중심의 x축 좌표값(XCM)의 차이값과 원위 말단(Distal end)의 x축 좌표값(XD)과 분절의 무게 중심의 x축 좌표값(XCM)의 차이값의 비율은 [제1 파라미터(%cm):1-제1 파리미터(1-%cm)]가 된다. 그리고, 근위 말단(Proximal end)의 y축 좌표값(YP)과 분절의 무게 중심의 y축 좌표값(YCM)의 차이값과 원위 말단(Distal end)의 y축 좌표값(YD)과 분절의 무게 중심의 y축 좌표값(YCM)의 차이값의 비율은 [제1 파라미터(%cm):1-제1 파리미터(1-%cm)]이 된다.
이러한 기하학적 구조를 고려하면, 분절의 무게 중심은 아래의 수학식 1을 통해 산출될 수 있다.
Figure pat00001
여기서, (Xsc,Ysc)는 분절의 무게 중심의 좌표를 의미하고, Q1은 제1 파라미터를 의미하고, XD는 원위 말단의 X축 좌표값을 의미하고, XP는 근위 말단의 X축 좌표값을 의미하고, YD는 원위 말단의 Y축 좌표값을 의미하고, YP는 근위 말단의 Y축 좌표값을 의미한다.
상기의 수학식 1은 2차원 좌표를 기준으로 분절의 무게 중심의 좌표를 나타내고 있으나, 아래의 수학식 3과 같이 3차원 좌표로 확장 가능하다.
Figure pat00002
여기서, (X,Y,Z)는 분절의 무게 중심의 3차원 좌표를 의미하고, Q1은 제1 파라미터를 의미하고, XD는 원위 말단의 X축 좌표값을 의미하고, XP는 근위 말단의 X축 좌표값을 의미하고, YD는 원위 말단의 Y축 좌표값을 의미하고, YP는 근위 말단의 Y축 좌표값을 의미하고, ZD는 원위 말단의 Z축 좌표값을 의미하고, ZP는 근위 말단의 Z축 좌표값을 의미한다.
도 8은 본 발명의 실시예에 따른 인체 모션의 무게 중심을 산출하는 과정을 설명하기 위한 도면이다.
본 발명의 실시예에 따른 무게 중심 산출부(320)는 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 인체 모션의 무게 중심의 좌표를 산출한다.
인체 모션의 무게 중심의 좌표는 제2 파라미터(Q2)를 이용한 아래의 수학식 3을 통해 산출될 수 있다.
Figure pat00003
즉, 인체 모션의 무게 중심은 각 분절의 무게 중심 좌표에 각 분절의 제2 파라미터를 곱한 값을 합산한 값에 각 분절의 제2 파라미터를 합산한 값을 나눈 값으로 산출될 수 있다.
수학식 3을 3차원 좌표계로 확장하면, 아래의 수학식 4와 같이 나타낼 수 있다.
Figure pat00004
여기서, 제2 파라미터는 신체의 전체 질량에서 분절의 질량이 차지하는 비율을 의미한다. 이를 수학식으로 표현하면 아래의 수학식 5와 같이 나타낼 수 있다.
Figure pat00005
여기서, Q2는 제2 파라미터를 의미하고, MASSsegment는 분절의 질량을 의미하고, MASStotal은 신체의 전체 질량을 의미한다. 제2 파라미터는 각 분절별로 기 설정된 값이나, 대상자의 몸무게 등을 고려하여 상이하게 설정될 수 있다.
상기에서 설명한 것처럼 인체 모션의 무게 중심을 산출하면, 도 8에 도시된 것처럼 인체 모션의 형태에 따른 무게 중심을 산출할 수 있다.
도 9는 본 발명의 실시예에 따른 점프 판단 과정을 설명하기 위한 도면이다.
점프 판단부(330)는 가속도 신호를 이용한 판단 과정을 통해 점프 모션이 발생하였는지 여부를 판단할 수 있다. 이때, 가속도 신호는 z축 방향의 신호 값을 이용할 수 있다.
우선, 점프 판단부(330)는 모션 측정 데이터에 포함된 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단한다. 예를 들어, 도 8에서는 A 지점에서 임계치(0으로 설정)를 초과하는 상황이 발생하였으므로, 해당 조건을 만족한다. 그리고 점프 판단부(330)는 중력 방향의 가속도 값이 기 설정 된 임계치 이상이면, 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 여부를 판단한다. 예를 들어, A 지점이 검출되었으므로, 점프 판단부(330)는 가속도 값이 양의 값에서 음의 값으로 변하는 B시점을 판단한다.
그러면, 점프 판단부(330)는 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 점프 모션이 발생한 것으로 판단한다. 즉, A시점이 아닌 B 시점에서 점프 모션이 발생한 것으로 판단한다. 점프의 경우, 신체를 공중으로 띄우기 위해 도약 단계가 요구된다. 즉, 도약 단계는 몸을 공중에 띄우기 위한 사전 단계로서 점프 동작을 구성하는 단계이지만, 실질적으로 몸이 공중에 떠 있는 상태는 아니다. 본 발명의 실시예에서는 신체가 공중에 뜬 시점, 즉, 발가락이 바닥면으로부터 떨어진 시점에서 점프 모션이 발생하였다고 판단한다. 이와 같이, 도약 단계와 공중 자세 단계를 구분함으로써 공중 자세에서의 이동량 등을 정확히 산출할 수 있다.
도 10 및 도 11은 본 발명의 실시예에 따른 모션 구현 과정을 설명하기 위한 도면이다.
모션 구현부(340)는 인체 모션의 위치를 보정하고, 무게 중심에 기초하여 산출된 이동 궤적, 그리고 가속도 신호에 기초하여 산출된 이동속도 및 이동 거리를 이용하여 가상 캐릭터의 모션을 구현한다.
우선, 모션 구현부(340)는 인체 모션의 허리 위치(waist position)와 무게 중심(CM) 사이의 차이값을 산출한다. 예를 들어, 모션 구현부(340)는 무게 중심의 좌표값에서 인체 모션의 허리 위치의 좌표값을 뺀 값을 통해 인체 모션의 허리 위치와 무게 중심 사이의 차이값을 산출할 수 있다. 도 10에서는 인체 모션의 허리 위치와 무게 중심 사이의 차이값은 x축에서 dx, y축에서 dy만큼 발생한다.
그러면, 모션 구현부(340)는 인체 모션의 둔부 위치(Hip position)를 차이값(dx,dy)만큼 이동시켜 인체 모션의 위치를 보정한다. 예를 들어, 모션 구현부(340)는 인체 모션의 둔부 위치의 좌표값에 상기에서 계산된 차이값을 합산함으로써 인체 모션 위치를 보정할 수 있다.
다음으로, 모션 구현부(340)는 무게 중심의 이동 방향에 따라 인체 모션의 이동 궤적을 산출한다. 앞서 살펴본 것처럼, 무게 중심은 각 프레임별로 산출되므로, 각 프레임의 무게 중심의 좌표값을 연결함으로써 인체 모션의 이동 궤적이 산출될 수 있다.
다음으로 모션 구현부(340)는 점프 모션이 발생한 시점부터 가속도 신호를 적분하여 인체 모션의 이동속도 및 이동 거리를 산출한다. 가속도 신호의 적분은 점프 모션이 발생한 시점, 즉, 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에서부터 시작된다. 만약, 가속도 신호는 적분 과정에서 드리프트 오차가 발생하게 되는데 적분 기간이 길수록 드리프트 오차가 커지게 된다. 하지만, 본 발명에서와 같이 점프 모션이 발생한 시점부터 가속도 신호를 적분하게 되면, 드리프트 오차를 최소화할 수 있어 점프 모션에서의 이동속도 및 이동 거리의 산출 정확도를 향상시킬 수 있다. 가속도 신호의 적분은 착지 단계까지 수행될 수 있으며, 이는 중력 방향의 가속도 신호가 음의 값에서 양의 값으로 변하는 시점일 수 있다.
그러면, 모션 구현부(340)는 도 11에 도시된 것처럼 인체 모션의 이동 궤적, 이동속도 및 이동거리를 보정된 인체 모션에 적용하여 가상 캐릭터의 점프 모션을 구현할 수 있다.
도 12는 본 발명의 실시예에 따른 모션 캡쳐 방법의 순서도이다.
도 12를 참조하면, 우선, 수신부(310)는 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신한다(S1210).
그러면, 무게 중심 산출부(320)는 모션 측정 데이터에 기초하여 측정 대상자에 대한 인체 모션을 프레임 별로 구성한다(S1220).
그리고, 무게 중심 산출부(320)는 각 프레임별로 인체 모션의 무게 중심을 산출한다(S1230). 이를 위해, 무게 중심 산출부(320)는 인체 모션을 기 설정된 분절 영역 별로 구분하고, 분절 영역 별로 무게 중심을 산출하고, 분절 영역 별로 산출된 무게 중심에 기초하여 인체 모션의 무게 중심을 산출할 수 있다.
다음으로, 점프 판단부(330)는 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단한다(S1240).
점프 모션이 발생한 것으로 판단되면, 모션 구현부(340)는 무게 중심에 기초하여 인체 모션의 점프 경로를 결정하고, 결정된 점프 경로를 이용하여 가상 캐릭터의 모션을 구현한다(S1250).
도 13은 도 12의 S1230 단계를 상세하게 나타낸 순서도이다.
도 13을 참조하면, 우선, 무게 중심 산출부(320)는 분절 영역 별로 양 끝단의 좌표 정보를 산출한다(S1231).
그리고, 무게 중심 산출부(320)는 분절 영역 별로 설정된 제1 파라미터와 좌표 정보를 이용하여 분절 영역 별 무게 중심의 좌표를 산출한다(S1232).
그러면, 무게 중심 산출부(320)는 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 인체 모션의 무게 중심의 좌표를 산출한다(S1233).
도 14는 도 12의 S1230 단계를 상세하게 나타낸 순서도이다.
도 14를 참조하면, 점프 판단부(330)는 모션 측정 데이터에 포함된 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단한다(S1241). 중력 방향의 가속도 값이 기 설정된 임계치 미만인 경우, 점프 판단부(330)는 기 설정된 임계치 이상의 중력 방향의 가속도 값이 검출될 때까지 해당 과정을 반복할 수 있다.
중력 방향의 가속도 값이 기 설정된 임계치 이상이면, 점프 판단부(330)는 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점을 검출한다(S1242). 점프 판단부(330)는 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점이 검출될 때까지 반복하여 해당 조건을 판단할 수 있다.
점프 판단부(330)는 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 점프 모션이 발생한 것으로 판단한다(S1243).
도 15는 도 12의 S1250 단계를 상세하게 나타낸 순서도이다.
도 15를 참조하면, 모션 구현부(340)는 인체 모션의 허리 위치와 무게 중심 사이의 차이값을 산출한다(S1251).
그러면, 모션 구현부(340)는 인체 모션의 둔부 위치를 차이값만큼 이동시켜 인체 모션을 보정한다(S1252).
다음으로, 모션 구현부(340)는 무게 중심의 이동 방향에 따라 인체 모션의 이동 궤적을 산출한다(S1253). S1253 단계는 S1251 단계 및 S1252 단계의 수행 여부와 무관하게 진행될 수 있다. 즉, S1253 단계는 S1251 단계 및 S1252 단계와 동시에 진행될 수도 있고, 우선 진행될 수도 있다.
그리고, 모션 구현부(340)는 점프 모션이 발생한 시점부터 가속도 신호를 적분하여 인체 모션의 이동 속도 및 이동 거리를 산출한다(S1254). S1254 단계는 S1251 단계, S1252 단계 및 S1253 단계의 수행 여부와 무관하게 진행될 수 있다. 즉, S1254 단계는 S1251 단계, S1252 단계 및 S1253 단계와 동시에 진행될 수도 있고, 우선 진행될 수도 있다.
모션 구현부(340)는 인체 모션의 이동 궤적, 이동속도 및 이동거리를 보정된 인체 모션에 적용하여 가상 캐릭터의 모션을 구현한다(S1255).
본 발명의 실시예는 모션 캡쳐 방법을 실행시키기 위한 프로그램을 저장하는 기록매체로 구현될 수 있다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 모션 센서 모듈
110 : 서브 모듈
120 : 메인 모듈
200 : 통신 모듈
300 : 모션 캡쳐 장치
310 : 수신부
320 : 무게 중심 산출부
330 : 점프 판단부
340 : 모션 구현부

Claims (10)

  1. 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신하는 수신부,
    상기 모션 측정 데이터에 기초하여 상기 측정 대상자에 대한 인체 모션을 프레임 별로 구성하고, 상기 각 프레임별로 상기 인체 모션의 무게 중심을 산출하는 무게 중심 산출부,
    상기 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단하는 점프 판단부,
    상기 점프 모션이 발생한 것으로 판단되면, 상기 무게 중심에 기초하여 상기 인체 모션의 점프 경로를 결정하고, 상기 결정된 점프 경로를 이용하여 가상 캐릭터의 모션을 구현하는 모션 구현부를 포함하는 모션 캡쳐 장치.
  2. 제1항에 있어서,
    상기 무게 중심 산출부는,
    상기 인체 모션을 기 설정된 분절 영역 별로 구분하고,
    상기 분절 영역 별로 무게 중심의 좌표를 산출하고,
    상기 분절 영역 별로 산출된 무게 중심의 좌표에 기초하여 상기 인체 모션의 무게 중심의 좌표를 산출하는 모션 캡쳐 장치.
  3. 제2항에 있어서,
    상기 무게 중심 산출부는,
    상기 분절 영역 별로 양 끝단의 좌표 정보를 산출하고,
    상기 분절 영역 별로 설정된 제1 파라미터와 상기 좌표 정보를 이용하여 상기 분절 영역 별 무게 중심의 좌표를 산출하며,
    상기 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 상기 인체 모션의 무게 중심의 좌표를 산출하는 모션 캡쳐 장치.
  4. 제1항에 있어서,
    상기 점프 판단부는,
    상기 모션 측정 데이터에 포함된 상기 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단하고,
    상기 중력 방향의 가속도 값이 기 설정된 임계치 이상이면, 상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점을 검출하며,
    상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 상기 점프 모션이 발생한 것으로 판단하는 모션 캡쳐 장치.
  5. 제1항에 있어서,
    상기 모션 구현부는,
    상기 인체 모션의 허리 위치와 상기 무게 중심 사이의 차이값을 산출하고,
    상기 인체 모션의 둔부 위치를 상기 차이값만큼 이동시켜 상기 인체 모션을 보정하고,
    상기 무게 중심의 이동 방향에 따라 상기 인체 모션의 이동 궤적을 산출하며,
    상기 점프 모션이 발생한 시점부터 상기 가속도 신호를 적분하여 상기 인체 모션의 이동속도 및 이동 거리를 산출하고,
    상기 인체 모션의 이동 궤적, 이동속도 및 이동 거리를 상기 보정된 인체 모션에 적용하여 상기 가상 캐릭터의 모션을 구현하는 모션 캡쳐 장치.
  6. 측정 대상자의 신체 각 부위에 부착된 모션 측정 센서에 의해 측정된 모션 측정 데이터를 수신하는 단계,
    상기 모션 측정 데이터에 기초하여 상기 측정 대상자에 대한 인체 모션을 프레임 별로 구성하고, 상기 각 프레임별로 상기 인체 모션의 무게 중심을 산출하는 단계,
    상기 모션 측정 데이터에 포함된 가속도 신호의 크기에 기초하여 점프 모션이 발생하였는지 여부를 판단하는 단계,
    상기 점프 모션이 발생한 것으로 판단되면, 상기 무게 중심에 기초하여 상기 인체 모션의 점프 경로를 결정하고, 상기 결정된 점프 경로를 이용하여 가상 캐릭터의 모션을 구현하는 단계를 포함하는 모션 캡쳐 방법.
  7. 제6항에 있어서,
    상기 인체 모션의 무게 중심을 산출하는 단계는,
    상기 인체 모션을 기 설정된 분절 영역 별로 구분하는 단계,
    상기 분절 영역 별로 무게 중심의 좌표를 산출하는 단계, 그리고
    상기 분절 영역 별로 산출된 무게 중심의 좌표에 기초하여 상기 인체 모션의 무게 중심의 좌표를 산출하는 단계를 포함하는 모션 캡쳐 방법.
  8. 제7항에 있어서,
    상기 분절 영역 별로 무게 중심의 좌표를 산출하는 단계는,
    상기 분절 영역 별로 양 끝단의 좌표 정보를 산출하는 단계, 그리고
    상기 분절 영역 별로 설정된 제1 파라미터와 상기 좌표 정보를 이용하여 상기 분절 영역 별 무게 중심의 좌표를 산출하는 단계를 포함하고,
    상기 인체 모션의 무게 중심의 좌표를 산출하는 단계는,
    상기 분절 영역 별 무게 중심의 좌표와 각 분절 영역별로 설정된 제2 파라미터를 이용하여 상기 인체 모션의 무게 중심의 좌표를 산출하는 단계를 포함하는 모션 캡쳐 방법.
  9. 제6항에 있어서,
    상기 점프 모션이 발생하였는지 여부를 판단하는 단계는,
    상기 모션 측정 데이터에 포함된 상기 가속도 신호 중 중력 방향의 가속도 값이 기 설정된 임계치 이상인지 여부를 판단하는 단계,
    상기 중력 방향의 가속도 값이 기 설정된 임계치 이상이면, 상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점을 검출하는 단계, 그리고
    상기 중력 방향의 가속도 값이 양의 값에서 음의 값으로 변하는 시점에 상기 점프 모션이 발생한 것으로 판단하는 단계를 포함하는 모션 캡쳐 방법.
  10. 제6항에 있어서,
    상기 가상 캐릭터의 모션을 구현하는 단계는,
    상기 인체 모션의 허리 위치와 상기 무게 중심 사이의 차이값을 산출하는 단계,
    상기 인체 모션의 둔부 위치를 상기 차이값만큼 이동시켜 상기 인체 모션을 보정하는 단계,
    상기 무게 중심의 이동 방향에 따라 상기 인체 모션의 이동 궤적을 산출하는 단계,
    상기 점프 모션이 발생한 시점부터 상기 가속도 신호를 적분하여 상기 인체 모션의 이동속도 및 이동 거리를 산출하는 단계, 그리고
    상기 인체 모션의 이동 궤적, 이동속도 및 이동 거리를 상기 보정된 인체 모션에 적용하여 상기 가상 캐릭터의 모션을 구현하는 단계를 포함하는 모션 캡쳐 방법.
KR1020190140864A 2018-12-06 2019-11-06 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법 KR102172362B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/016197 WO2020116836A1 (ko) 2018-12-06 2019-11-22 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180156369 2018-12-06
KR1020180156369 2018-12-06

Publications (2)

Publication Number Publication Date
KR20200069218A true KR20200069218A (ko) 2020-06-16
KR102172362B1 KR102172362B1 (ko) 2020-10-30

Family

ID=71141432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190140864A KR102172362B1 (ko) 2018-12-06 2019-11-06 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102172362B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220121927A (ko) * 2021-02-24 2022-09-02 한국표준과학연구원 신체 밸런스와 운동 측정 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
KR20020095315A (ko) * 2001-06-14 2002-12-26 (주)한국아이엔디 격투동작센싱장치
KR20090060755A (ko) * 2007-12-10 2009-06-15 한국과학기술연구원 인간동작분석을 위한 인체모델 생성방법
KR20150025462A (ko) * 2013-08-29 2015-03-10 한양대학교 산학협력단 상호작용하는 캐릭터를 모델링 하는 방법 및 장치
KR20150075909A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 3차원 캐릭터 동작 편집방법 및 그 장치
KR20180062137A (ko) * 2016-11-30 2018-06-08 (주)코어센스 하이브리드 모션캡쳐 시스템의 위치 추정 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
KR20020095315A (ko) * 2001-06-14 2002-12-26 (주)한국아이엔디 격투동작센싱장치
KR20090060755A (ko) * 2007-12-10 2009-06-15 한국과학기술연구원 인간동작분석을 위한 인체모델 생성방법
KR20150025462A (ko) * 2013-08-29 2015-03-10 한양대학교 산학협력단 상호작용하는 캐릭터를 모델링 하는 방법 및 장치
KR20150075909A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 3차원 캐릭터 동작 편집방법 및 그 장치
KR20180062137A (ko) * 2016-11-30 2018-06-08 (주)코어센스 하이브리드 모션캡쳐 시스템의 위치 추정 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
분절법, 무게중심(Center of Gravity):네이버 블로그(2014.04.10.) 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220121927A (ko) * 2021-02-24 2022-09-02 한국표준과학연구원 신체 밸런스와 운동 측정 시스템

Also Published As

Publication number Publication date
KR102172362B1 (ko) 2020-10-30

Similar Documents

Publication Publication Date Title
US10679360B2 (en) Mixed motion capture system and method
US20100194879A1 (en) Object motion capturing system and method
JP6852673B2 (ja) センサ装置、センサシステム及び情報処理装置
KR101214227B1 (ko) 동작 추적 방법.
Zheng et al. Pedalvatar: An IMU-based real-time body motion capture system using foot rooted kinematic model
CN111353355B (zh) 动作追踪系统及方法
CN109284006B (zh) 一种人体运动捕获装置和方法
WO2023221524A1 (zh) 一种人体运动智能测量与数字训练系统
Kyrarini et al. Comparison of vision-based and sensor-based systems for joint angle gait analysis
CN110609621A (zh) 姿态标定方法及基于微传感器的人体运动捕获系统
US20180216959A1 (en) A Combined Motion Capture System
KR102172362B1 (ko) 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법
Li et al. Visual–inertial fusion-based human pose estimation: A review
TWI476733B (zh) 運動軌跡重建方法及其裝置
US20110166821A1 (en) System and method for analysis of ice skating motion
Ahmadi et al. A framework for comprehensive analysis of a swing in sports using low-cost inertial sensors
JP2009186244A (ja) 傾斜角度推定システム、相対角度推定システム及び角速度推定システム
KR102229071B1 (ko) 압전 센서를 이용한 모션 구현 장치 및 그 방법
WO2020116836A1 (ko) 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법
CN114469078B (zh) 一种基于光惯融合的人体运动检测方法
KR101950453B1 (ko) 센서 측정 기기의 착용위치 제안 장치 및 방법
Zhang et al. Ubiquitous human body motion capture using micro-sensors
KR102229070B1 (ko) 센서 방식 모션 캡쳐 시스템 기반 모션 캡쳐 장치 및 그 방법
JP5424224B2 (ja) 相対角度推定システム
Ogata et al. A robust position and posture measurement system using visual markers and an inertia measurement unit

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant