KR102239957B1 - 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치 - Google Patents

가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치 Download PDF

Info

Publication number
KR102239957B1
KR102239957B1 KR1020190144805A KR20190144805A KR102239957B1 KR 102239957 B1 KR102239957 B1 KR 102239957B1 KR 1020190144805 A KR1020190144805 A KR 1020190144805A KR 20190144805 A KR20190144805 A KR 20190144805A KR 102239957 B1 KR102239957 B1 KR 102239957B1
Authority
KR
South Korea
Prior art keywords
body part
motion
virtual
sphere
joint sphere
Prior art date
Application number
KR1020190144805A
Other languages
English (en)
Inventor
채영호
김성훈
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020190144805A priority Critical patent/KR102239957B1/ko
Priority to US16/691,332 priority patent/US11062496B2/en
Application granted granted Critical
Publication of KR102239957B1 publication Critical patent/KR102239957B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치가 개시된다. 가상 관절 구(sphere)를 모션 모델링 방법은, (a) 3D 가상 캐릭터를 모델링하는 단계-상기 3D 가상 캐릭터는 신체 부위별 가상 관절 구(sphere)가 설정됨; 및 (b) 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작의 진행에 따른 3D 가상 캐릭터의 타겟 신체 부위의 동작에 따른 궤적을 상기 타겟 신체 부위에 지정된 상기 가상 관절 구(sphere) 표면에 형성하는 단계를 포함한다.

Description

가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치{Virtual joint sphere based motion modeling method and device}
본 발명은 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치에 관한 것이다.
인간의 동작을 이해하고 공유하기에 가장 좋은 방식은 동작을 수행하는 사람과 같은 공간에서 직접 관찰하며 의견을 주고받는 것이다. 하지만 이는 거리가 떨어져 있어 직접 만나기 어렵거나, 여러 사람에게 동작을 공유해야 하는 경우 적용하기 어렵다. 이에, 동작을 녹화하고 영상의 형태로 동작을 공유하는 방식이 가장 보편적으로 사용되고 있다. 영상의 경우 한눈에 전체적인 동작을 이해하기 수월하다는 장점이 있지만 동작의 미묘한 차이를 파악하기 어려우며, 디지털 공간상에서의 수치적인 비교가 어렵다.
Motion Capture 영역에서는 IMU(Inertial Measurement Units)와 같은 센서를 활용하여 인간의 동작 데이터를 측정하고, 3D 소프트웨어를 통해 데이터를 실제 동작으로 재구성한다. Keyframe Animation은 이러한 동작 재구성에 가장 널리 사용되고 있으며 센서 데이터 없이도 전체 동작의 키 프레임을 설정하고 각 프레임 사이를 알고리즘을 통해 자동으로 보정하여 자연스러운 동작 구성이 가능하도록 한다. 하지만 Keyframe animation을 통해 재현된 동작은 실제 동작과는 미세한 부분에서 차이를 나타낸다. 실제 동작의 경우 인간의 근육과 중력의 작용으로 같은 동작을 반복하더라도 그 결과는 매번 같지 않다. 그렇기 때문에 Keyframe animation에서 알고리즘을 통해 정확하게 구현되는 동작은 실제 동작과 일치하지 않는다. 또한 알고리즘을 통한 보정방식에서는 동작이 복잡하고 길어질수록 실제 동작과의 차이가 벌어지게 되며 이를 보정하기 위해 사용자의 부담이 증가되는 단점이 있다.
Labanotation은 안무 동작을 다수의 수강생들에게 전달하기 위해 만들어진 동작 기록법이다. 음악에서 악보를 통해 기록하는 것과 같이 무보 위에 여러 가지 기호를 조합하여 신체 부위에 따라 배치하여 동작을 기록한다. 방향과 각도, 높이의 변화를 포함하여 손목 움직임의 변화까지 구분하는 것이 가능하다. Labanotation은 같은 무보를 사용하더라도 안무가의 자의적인 해석으로 동작이 구현된다. 따라서 처음 무보를 기록한 사람의 의도와 달리 해석하는 사람마다 다른 동작으로 구현되는 특징이 있다. 이는 30도 이하의 작은 각도 변화를 표현할 수 없고, 동작을 구성하는 미세한 차이를 전부 기록하여 전달할 수 없는 문제점이 있다.
(01) 대한민국공개특허공보 제10-2015-0041536호(2015.04.16.)
본 발명은 모션 캡쳐 기반 3D 가상 캐릭터의 모션을 모델링하는 모션 모델링 방법 및 그 장치를 제공하기 위한 것이다.
또한, 본 발명은 모션을 모델링함에 있어 동작에 따른 궤적을 시각적으로 표시할 수 있는 모션 모델링 방법 및 그 장치를 제공하기 위한 것이다.
본 발명의 일 측면에 따르면, 가상 관절 구(sphere)를 이용한 3D 가상 캐릭터의 모션 모델링 방법이 제공된다.
본 발명의 일 실시예에 따르면, (a) 3D 가상 캐릭터를 모델링하는 단계-상기 3D 가상 캐릭터는 신체 부위별 가상 관절 구(sphere)가 설정됨; 및 (b) 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작의 진행에 따른 3D 가상 캐릭터의 타겟 신체 부위의 동작에 따른 궤적을 상기 타겟 신체 부위에 지정된 상기 가상 관절 구(sphere) 표면에 형성하는 단계를 포함하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법이 제공될 수 있다.
상기 가상 관절 구(sphere)는 각각의 축을 기준으로 지정된 각도 단위로 영역이 구분될 수 있다.
상기 접촉점은 복수의 방향 영역을 포함하되, 상기 복수의 방향 영역은 지정된 각도 단위로 영역이 분할되되, 상기 신체 부위별 방향 벡터의 방향에 따라 상기 복수의 방향 영역의 분할된 영역에 상이한 시각 정보 형태로 표시될 수 있다.
상기 (b) 단계 이후에, 상기 타겟 신체 부위의 계층 구조상 하위 계층에 연결된 신체 부위의 가상 관절 구(sphere)도 상기 타겟 신체 부위의 동작에 따라 동시에 움직이는 단계를 더 포함할 수 있다.
상기 타겟 신체 부위에 지정된 상기 가상 관절 구(sphere) 표면에는 상기 타겟 신체 부위에 연결된 상위 계층의 신체 부위의 궤적의 회전값을 반영하여 상기 타겟 신체 부위에 지정된 상기 가상 관절 구(sphere) 표면에 형성될 수 있다.
본 발명의 다른 실시예에 따르면, (a) 사람의 신체 부위에 부착된 센서로부터 특정 동작에 따른 신체 부위별 회전 데이터를 획득하는 단계; 및 (b) 상기 신체 부위별 회전 데이터를 이용하여 상기 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작의 진행에 따른 3D 가상 캐릭터의 타겟 신체 부위의 동작에 따른 궤적을 상기 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면에 형성하는 단계를 포함하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법이 제공될 수 있다.
상기 (a) 단계 이전에, 초기 자세에서 상기 센서로부터 획득되는 회전 데이터를 이용하여 초기 보정값 및 방향 보정값을 각각 도출하는 단계를 더 포함하되, 상기 (b) 단계에서의 상기 회전 데이터는 상기 초기 보정값 및 상기 방향 보정값이 적용된 동작 회전값이다.
상기 (b) 단계에서, 상기 초기 자세에서의 각 신체 부위의 뼈대 방향 벡터(
Figure 112019116315584-pat00001
)와 상기 신체 부위별 회전 데이터를 이용하여 신체 부위별 방향 벡터(
Figure 112019116315584-pat00002
)를 도출하는 단계; 및 상기 특정 동작에 따른 상기 신체 부위별 방향 벡터가 상기 가상 관절 구(sphere) 표면에 만나는 접촉점을 표시하여 상기 궤적을 형성하는 단계를 포함할 수 있다.
본 발명의 다른 측면에 따르면, 가상 관절 구(sphere)를 이용한 3D 가상 캐릭터의 모션 모델링을 위한 장치가 제공된다.
본 발명의 일 실시예에 따르면, 적어도 하나의 명령어를 저장하는 메모리; 상기 메모리에 저장된 명령어를 실행하는 프로세서를 포함하되, 상기 프로세서에 의해 실행된 명령어는, (a) 3D 가상 캐릭터를 모델링하는 단계-상기 3D 가상 캐릭터는 신체 부위별 가상 관절 구(sphere)가 설정됨; 및 (b) 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작의 진행에 따른 3D 가상 캐릭터의 타겟 신체 부위의 동작에 따른 궤적을 상기 타겟 신체 부위에 지정된 상기 가상 관절 구(sphere) 표면에 형성하는 단계를 수행하는 것을 특징으로 하는 모델링 장치가 제공될 수 있다.
본 발명의 다른 실시예에 따르면, 적어도 하나의 명령어를 저장하는 메모리; 상기 메모리에 저장된 명령어를 실행하는 프로세서를 포함하되, 상기 프로세서에 의해 실행된 명령어는, (a) 사람의 신체 부위에 부착된 센서로부터 특정 동작에 따른 신체 부위별 회전 데이터를 획득하는 단계; 및 (b) 상기 신체 부위별 회전 데이터를 이용하여 상기 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작의 진행에 따른 3D 가상 캐릭터의 타겟 신체 부위의 동작에 따른 궤적을 상기 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면에 형성하는 단계를 수행하는 것을 특징으로 하는 모델링 장치가 제공될 수 있다.
본 발명의 일 실시예에 따른 모션 모델링 방법 및 그 장치를 제공함으로써, 모션 캡쳐 기반 3D 가상 캐릭터의 모션을 모델링할 수 있다.
또한, 본 발명은 모션을 모델링함에 있어 동작에 따른 궤적을 시각적으로 표시할 수 있다.
도 1 및 도 2는 본 발명의 일 실시예에 따른 3D 가상 캐릭터의 기본 구조를 설명하기 위해 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 오른손 부위의 동작 추적 수식을 예시한 도면.
도 4는 본 발명의 일 실시예에 따른 가상 캐릭터의 모션 모델링 방법을 나타낸 순서도.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 동작에 따른 궤적을 설명하기 위해 도시한 도면.
도 8 및 도 9는 본 발명의 일 실시예에 따른 접촉점을 설명하기 위해 도시한 도면.
도 10은 본 발명의 다른 실시예에 따른 가상 캐릭터의 모션 모델링 방법을 나타낸 순서도.
도 11은 본 발명의 일 실시예에 따른 모델링 장치의 내부 구성을 개략적으로 도시한 블록도.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.
도 1 및 도 2를 참조하여, 3D 가상 캐릭터의 3D 가상 캐릭터의 기본 구조에 대해 간략하게 설명하기로 한다.
모델링된 3D 가상 캐릭터는 도 1에 도시된 바와 같이 15개의 주요 신체 부위와 1개의 전역 좌표계를 가지며, 모델링된다. 이로 인해, 3D 가상 캐릭터는 16개 신체 부위에 대한 회전축 상관관계가 각각 정의된다.
신체 부위별 회전축은 도 2에 도시된 바와 같다. 도 1 및 도 2는 이해와 설명의 편의를 도모하기 위해 3D 가상 캐릭터의 신체 부위의 계층 구조를 예시한 일 예일 뿐이며, 구현 방법에 따라 계층 구조는 상이할 수도 있음은 당연하다.
도 1 및 도 2에서 도시된 바와 같이, 3D 가상 캐릭터의 전역 좌표계는 Z축이 정면이며, Y축이 위쪽을 가리키는 왼손 좌표계 방식을 기반으로 한다. 또한, 각 신체 부위의 로컬 좌표계(Local coordinate System) 상태를 기호와 함께 표시하면 도 1 및 도 2에 도시된 바와 같다.
본 발명의 일 실시예에 따른 3D 가상 캐릭터는 도 1 및 도 2에 도시된 바와 같이, 신체 부위의 계층 구조를 기반으로 모델링되며, 이로 인해 상위 계층에 위치한 신체 부위의 움직임이 연결된 하위 계층 신체 부위에 영향을 미치게 된다.
본 발명의 일 실시예에 따르면, 신체 부위에 부착된 센서로부터 획득된 회전 데이터는 쿼터니온 표현 방식으로 표현될 수 있다. 쿼터니온 표현 방식은
Figure 112019116315584-pat00003
4가지 요소로 구성된다. 여기서,
Figure 112019116315584-pat00004
는 회전 각을 나타내며,
Figure 112019116315584-pat00005
는 회전 축 벡터를 나타낸다.
이와 같이, 쿼터니온 표현 방식을 이용함으로써 임의의 회전에 대한 짐벌락 문제 없이 정확한 결과를 계산할 수 있는 이점이 있다.
본 발명의 일 실시예에서는 쿼터니온을 이용하여 각 신체 부위의 회전값을 계산한 후 모션을 구현하였다.
3D 모델링의 기본 자세를 T-pose로 가정하고, 각 신체 부위의 회전을 계산하기 위한 수식을 Q와 q 두 종류의 기호를 사용하여 정의하기로 한다.
Q는 T-pose에서 현재 신체 부위와 현재 신체 부위의 바로 위 단계(상위) 신체 부위의 로컬 좌표계 차이를 쿼터니언으로 나타낸 것이다. 예를 들어, 도 2를 참조하여, Q4는 Right Upper Arm 부위의 로컬 좌표계 차이를 나타낸다. C4는 상위 부위에 해당하는 C2와 z축으로 -90도 회전한 차이가 나타나기 때문에, Q4=(0.707, 0, 0, -707)로 계산될 수 있다.
다른 예를 들어, Q5는 상위 부위인 C4와 로컬 좌표계가 같기 때문에, Q5=(1,0,0, 0)으로 계산될 수 있다. 3D 모델링시 각 신체 부위 사이에 다른 뼈대가 추가 되어 있을 수 있기 때문에 로컬 좌표계의 회전 값이 전부 동일하지 않은 문제점이 있다. 그러나, 각 신체 부위별 Q값을 계산해 놓는 경우, 모델링에 관계 없이 전신의 움직임을 구현하는 것이 가능해진다.
q는 신체의 움직임이 발생할 경우, 각 신체 부위에 할당되며, 회전값의 변화를 의미하는 쿼터니언 기호이다. 예를 들어, 오른손 부위 C6를 예로 든 동작 추적 과정은 도 3과 같이 나타낼 수 있다. 즉, 도 3의 Right Hand Rotation 수식은 오른쪽에서 왼쪽 방향으로 이루어진다. 따라서, 엉덩이의 회전이 전신의 방향을 결정한다고 가정할 때, 엉덩이의 회전을 계산한 이후 허리, 어깨, 팔 순서로 연쇄적인 회전 움직임이 계산될 수 있다.
도 1 내지 도 3의 설명에 의해 3D 가상 캐릭터의 기본 구조에 대해서는 이해가 되었을 것인바, 가상 캐릭터의 모션을 모델링하는 방법에 대해 하기에서 보다 상세히 설명하기로 한다.
도 4는 본 발명의 일 실시예에 따른 가상 관절 구(sphere)를 이용한 가상 캐릭터의 모션 모델링 방법을 설명하기 위해 도시한 순서도이며, 도 5 내지 도 7은 본 발명의 일 실시예에 따른 동작에 따른 궤적을 설명하기 위해 도시한 도면이고, 도 8 및 도 9는 본 발명의 일 실시예에 따른 접촉점을 설명하기 위해 도시한 도면이다.
단계 410에서 모델링 장치(100)는 3D 가상 캐릭터를 모델링한다.
3D 가상 캐릭터는 도 1 내지 도 3에서 설명한 바와 같이, 각각의 신체 부위가 계층 구조를 가지도록 형성되며, 각각의 신체 부위에는 가상 관절 구(sphere)가 형성되어 있다. 여기서, 가상 관절 구(sphere)는 각각의 신체 부위의 가동 범위에 따라 상이한 자유도로 형성될 수 있다. 또한, 각각의 신체 부위에 형성되는 가상 관절 구(sphere)의 크기는 표현하고자 하는 신체 부위의 가동 범위에 따라 상이하게 설정될 수도 있음은 당연하다.
단계 415에서 모델링 장치(100)는 특정 동작에 따른 3D가상 캐릭터의 모션을 모델링함에 있어, 해당 특정 동작의 진행에 따라 움직이는 3D 가상 캐릭터의 타겟 신체 부위의 동작에 따른 궤적을 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면에 형성한다.
즉, 모델링 장치(100)는 각 신체 부위의 가상 관절 구(sphere) 표면에서 만나는 접촉점들을 해당 가상 관절 구(sphere) 표면에 형성하여 특정 동작에 따른 신체 부위의 궤적을 시각화할 수 있다.
도 5는 본 발명의 일 실시예에 따른 초기 자세(차렷 자세)에서 어깨 부위만을 약 90도 회전 시킬 때의 관절 상태 차이(궤적)를 설명하기 위해 도시한 도면이다. 도 5에서 보여지는 바와 같이, 초기 자세에서 어깨 부위만 약 90도 회전하는 경우, Lower Arm과 Hand 부위는 동일하게 움직이기 때문에 궤적 변화가 나타나지 않음을 알 수 있다.
도 6은 본 발명의 일 실시예에 따른 Lower Arm과 Hand 부위를 90도씩 이어서 회전시킬 때의 궤적(trajectory) 차이를 도시한 도면이다. 도 6에서 보여지는 바와 같이, Lower Arm과 Hand 부위를 90도씩 이어서 회전시키는 경우, 각 부위가 접촉하는 지점에서의 궤적이 형성되는 것을 알 수 있다.
도 5 및 도 6에서 각 신체 부위의 궤적은 해당 신체 부위의 움직임만을 체크하기 때문에 로컬 좌표계 기준의 회전값에 다라 관절을 회전시킨 것과 같은 의미를 가진다. 따라서, 특정 신체 부위(관절)에서 발생하는 모든 움직임의 변화를 측정하기 위해서는 각 신체 부위에 영향을 미치는 상위 부위를 포함하여 글로벌 회전값을 계산할 필요가 있다.
동일한 프레임 구간에서 각 궤적의 로컬 회전값을 계산하기 위해 0번째 접촉점과 i번째 접촉점으로부터의 회전값을 계산하고, 각각
Figure 112019116315584-pat00006
로 정의하기로 한다.
이후, 신체의 계층 구조에 따라 영향을 받는 상위 부위의 회전값을 순서대로 계산한다. 예를 들어, 몸통은 고정된 상태에서 팔만 움직이는 경우, 손목의 전체 회전방향을 체크하기 위해
Figure 112019116315584-pat00007
3가지가 필요하며, 각 회전값들은 로컬 좌표계 기준의 회전값이므로,
Figure 112019116315584-pat00008
로 계산이 이루어진다. 따라서, 최정 누적된 회전값을 토대로 손목의 모든 움직임을 궤적 패턴으로 표현하면, 도 7과 같이 나타낼 수 있다.
도 8은 가상 관절 구(sphere) 표면을 도시한 도면이다. 도 8에서 보여지는 바와 같이, 가상 관절 구(sphere)는 각각의 축을 중심으로 90도 간격으로 복수의 영역으로 구획되며, 각각의 영역은 다시금 10도 단위로 구획되어 분할될 수 있다.
예를 들어, 도 8에서 위 아래의 높이 변화는 파란색 Z축을 따라 표현되며, 이외의 수평 움직임은 앞, 뒤, 좌, 우의 4가지 방향 움직임으로 표현될 수 있다. 이에, 도 7에서 보여지는 바와 같이, 가상 관절 구(shere)의 각각의 영역은 각 기호(Front, Back, Up, Down, Left, Right)를 의미하는 기호를 포함하며, 각각의 기호옆에 각도를 표시하여 각각의 영역이 구분되어 있다.
이로 인해, 연속된 두 기호에 붙어 있는 숫자는 앞쪽 기호의 영역에서 뒤쪽 기호의 영역으로 이동한 각도를 표현할 수 있다. 예를 들어, U2FL2 패턴의 경우 위쪽으로 20도, 앞쪽에서 왼쪽 방향으로 20도 회전한 위치에 위치하였음을 의미하게 된다. 따라서 연속적으로 변화하는 패턴의 위치를 기호를 통해 직관적으로 인지하여 어떤 동작이 이루어졌는지 쉽게 파악할 수 있는 이점이 있다.
가상 캐릭터의 각각의 신체 부위는 도 5 내지 도 9에 도시된 바와 같이 가상 관절 구(sphere)가 지정된다. 여기서, 가상 관절 구(sphere)의 크기는 신체 부위의 가동 범위에 따라 상이하게 지정될 수 있다. 즉, 가상 관절 구(sphere)의 가동 범위는 신체 범위의 크기에 따라 상이하게 설정될 수 있다.
신체 부위별 도출된 방향 벡터를 이용하여 가상 캐릭터의 모션을 모델링함에 있어, 각 관절이 가상 관절 구(sphere) 표면에서 만나는 접촉점들을 궤적으로 표현함으로써, 초기 자세에서부터 순차적으로 움직임의 변화를 시각적으로 표현이 가능하도록 할 수 있다.
여기서, 접촉점은 복수의 방향 영역을 포함하며, 각각의 방향 영역은 지정된 각도 단위로 영역이 구분될 수 있다. 이에 대해 보다 상세히 설명하면, 각각의 신체 부위별 가상 관절 구(sphere)의 표면에 형성되는 접촉점은 원형 패턴으로 형성될 수 있다. 예를 들어, 접촉점이 원형 패턴으로 형성되는 경우, 접촉점은 2개의 영역으로 구분될 수 있다. 제1 영역은 시계 방향 영역이고, 제2 영역은 반시계 방향 영역일 수 있다. 각각의 영역은 0 ~ 180도 사이로 정의되며, 15도 간격으로 12개 서브 영역으로 구획 분할될 수 있다.
따라서, 도출된 신체 부위별 방향 벡터에 기반하여 접촉점은 시계 방향 또는 반시계 방향으로 영역이 채워지며 시각적으로 표시될 수 있다. 물론, 신체 부위별 방향 벡터가 회전하지 않은 경우, 접촉점에 분할된 영역은 채워지지 않을 수도 있음은 당연하다.
도 9는 본 발명의 다른 실시예에 따른 모션 모델링에 따른 가상 관절 구(sphere) 표면을 도시한 도면으로, 도 8의 궤적을 형성하는 각각의 접촉점은 패턴 영역이 채워지지 않은 것을 알 수 있다. 도 8의 형성된 가상 관절 구(sphere) 표면에 형성된 접촉점을 통해 관절 방향으로의 회전이 이루어지지 않은 것을 알 수 있다.
도 9는 도 8과 동일한 동작이되, 관절 방향으로의 회전이 포함된 동작에 따른 궤적을 표시한 것이다. 도 8과 동일하게 상박 부위를 90도 회전하지만 손목이 회전하여 손등이 위쪽 방향을 향하게 된다. 따라서, 해당 동작은 손목을 반시계 방향으로 회전하는 움직임이기 때문에 도 8의 궤적을 형성하는 접촉점의 패턴 상에서 점차 반시 방향으로 영역이 확장되는 것을 알 수 있다. 이후, 하박 부위를 다시 회전하며 다시 원상태로 돌아가는 동작이 이루어지고 손목은 시계 방향으로 회전하는 동작에 의해, 위쪽으로 이동하는 접촉점의 패턴 영역이 점차 줄어들며 결과적으로 도 8과 동일한 빈 영역의 접촉점 패턴이 이어지는 것을 알 수 있다.
이와 같이, 본 발명의 일 실시예에서는 궤적을 형성하는 가상 관절 구(sphere) 표면상의 접촉점을 복수의 방향 영역을 가지도록 영역을 구획하며, 각각의 방향 영역을 다시 세분화하여 15도 각도 단위로 분할 구획함으로써 관절의 회전 방향도 파악이 가능하도록 할 수 있다.
도 10은 본 발명의 다른 실시예에 따른 센서를 이용한 가상 캐릭터의 모션 모델링 방법을 설명하기 위해 도시한 순서도이다.
단계 1010에서 모델링 장치(100)는 초기 보정값 및 방향 보정값을 도출한다.
모션 캡쳐를 위해 사용자의 신체 부위 각각에 센서가 부착되며, 특정 동작에 따라 센서에서 출력되는 데이터를 이용하여 3D 가상 캐릭터의 모션을 모델링할 수 있다. 이때, 사람의 신체 부위에 부착되는 센서는 신체에 부착되는 방향에 따라 사용자가 동일한 동작을 취하더라도 상이한 값을 출력할 수 있다. 예를 들어, 센서는 IMU 센서일 수 있다.
따라서, 모션 캡쳐를 통한 가상 캐릭터의 모션을 모델링하기 전에, 센서에 대한 초기화 과정이 선행되어야 한다.
본 발명의 일 실시예에서는 초기 자세(예를 들어, 차렷 자세)에서의 센서로부터 획득되는 회전 데이터를 이용하여 초기 보정값을 도출할 수 있다.
본 발명의 일 실시예에서는 IMU 센서가 현재의 회전 상태에 대한 회전 데이터를 전역 좌표계(global coordination) 기준으로 출력하는 것을 가정하기로 한다. 본 발명의 일 실시예에서는 IMU 센서로부터 출력되는 회전 데이터가 쿼터니언 데이터인 것을 가정하기로 한다.
IMU 센서는 신체에 부착되는 방향에 따라 같은 동작을 취하더라도 서로 다른 값을 출력할 수 있다. 따라서, 본 발명의 일 실시예에서는 IMU 센서로부터 출력되는 회전 데이터를 그대로 이용하는 것이 아니라 초기 상태(초기 자세)에서 출력된 IMU 센서의 회전 데이터를 기반으로 이후에 특정 동작에 따라 각 프레임에서 출력되는 회전 데이터를 보정하여 이용할 수 있다.
본 발명의 일 실시예에서는 이 과정을 편의상 센서 초기화 과정이라 칭하기로 한다.
센서의 초기화 또는 동기화를 위해, 신체 부위에 IMU 센서가 부착된 상태에서, 사용자는 초기 자세(예를들어, 차렷 자세)를 취할 수 있다.
이해와 설명의 편의를 도모하기 위해, 초기 자세에서 획득된 회전 데이터(즉, 초기화 데이터)를
Figure 112019116315584-pat00009
라 정의하기로 한다.
또한, 사용자의 동작에 따라 각각의 프레임에서 획득되는 회전 데이터를 편의상
Figure 112019116315584-pat00010
라 정의하기로 한다.
따라서, 초기화 데이터의 역값(inverse)을 각 프레임에서 획득되는 회전 데이터에 곱함으로써 전체 센서를 초기화(동기화)하는 것과 동일한 효과를 획득할 수 있다.
다시 정리하면, 모델링 장치(100)는 초기 자세 이후에 센서로부터 획득되는 회전 데이터를 초기 데이터를 이용하여 보정한다. 이를 수학식으로 나타내면 수학식 1과 같다.
Figure 112019116315584-pat00011
결과적으로,
Figure 112019116315584-pat00012
는 초기 자세(차렷 자세)와 i번째 동작 사이의 전역 좌표계의 회전값 차이를 의미한다.
또한, 센서의 동기화 이후에 사용자가 바라보는 방향에 따라 센서의 회전 데이터가 달라지게 된다. 따라서, 사용자의 현재 방향에 관계없이 전체 센서를 한 가지 방향 기준으로 일치시키는 과정이 선행되어야 한다.
사용자의 현재 방향을 측정하기 위해 허리 부위에 센서를 부착하고 정면 방향에서의 회전 데이터를 측정한다. 또한, 사용자가 북쪽을 바라 볼때의 센서의 회전 데이터(
Figure 112019116315584-pat00013
)와 현재 사용자의 정면 방향(
Figure 112019116315584-pat00014
)에서의 센서의 회전 데이터를 출력한 후 북쪽을 바라볼때의 회전 데이터(
Figure 112019116315584-pat00015
)의 역값(inverse)을 이용하여 방향 보정값을 도출한다.
이를 수학식으로 나타내면, 수학식 2와 같다.
Figure 112019116315584-pat00016
단계 1015에서 모델링 장치(100)는 신체 부위에 부착된 센서로부터 특정 동작에 따른 신체 관절 부위별 회전 데이터를 획득한다.
단계 1020에서 모델링 장치(100)는 신체 관절 부위별 회전 데이터에 초기 보정값과 동작 보정값을 반영하여 신체 관절 부위별 동작 회전값을 도출한다.
초기 보정값과 방향 보정값이 도출되면, 초기 자세 이후 특정 동작에 따라 각 센서로부터 획득되는 회전 데이터를 보정하여 동작 회전값을 도출할 수 있다. 이를 수학식으로 나타내면 수학식 3과 같다.
Figure 112019116315584-pat00017
결과적으로, 모션 캡쳐를 위해 초기 자세 이후에 각 프레임마다 센서에서 출력되는 회전 데이터는 수학식 3과 같이, 초기 보정값과 방향 보정값에 의해 보정되어 가상 캐릭터의 각 관절에 적용될 수 있다.
단계 1025에서 모델링 장치(100)는 신체 부위별 동작 회전값을 이용하여 신체 부위별 방향 벡터(
Figure 112019116315584-pat00018
)를 각각 도출한다.
상술한 바에 의해, 신체 부위별 동작 회전값이 각각 도출되면, 본 발명의 일 실시예에 따른 모델링 장치(100)는 초기 상태(자세)의 신체 부위별 뼈대 방향(
Figure 112019116315584-pat00019
)을 이용하여 동작 수행 이후의 방향 벡터(
Figure 112019116315584-pat00020
)를 도출할 수 있다.
이를 수학식으로 나타내면, 수학식 4와 같다.
Figure 112019116315584-pat00021
단계 1030에서 모델링 장치(100)는 도출된 방향 벡터를 이용하여 가상 캐릭터의 각 신체 부위에 지정된 가상 관절 구(sphere) 표면에 신체 부위에 동작이 진행됨에 따라 움직인 궤적을 형성한다.
각 신체 부위에 지정된 가상 관절 구(sphere)에 대해서는 이미 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.
도 11은 본 발명의 일 실시예에 따른 모델링 장치의 내부 구성을 개략적으로 도시한 블록도이다.
도 11을 참조하면, 본 발명의 일 실시예에 따른 모델링 장치(100)는 메모리(1110) 및 프로세서(1120)를 포함하여 구성된다.
메모리(1110)는 적어도 하나의 명령어들이 저장된다.
프로세서(1120)는 메모리에 저장된 명령어들을 실행하기 위한 수단이다.
프로세서(1120)에 의해 실행된 명령어들은 도 4 내지 도 10를 참조하여 설명한 바와 같이 각각의 신체 부위에 가상 관절 구(sphere)를 형성한 후 각 신체 부위의 동작에 따른 동작 회전값과 방향 벡터를 각각 도출한 후 이를 기반으로 가상 관절 구의 표면에서 만나는 접촉점을 표시하여 동작에 따른 궤적을 형성하여 시각적으로 출력할 수 있다. 이는 이미 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.
본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100: 모델링 장치
1110: 메모리
1120: 프로세서

Claims (11)

  1. (a) 3D 가상 캐릭터를 모델링하는 단계-상기 3D 가상 캐릭터는 신체 부위별 가상 관절 구(sphere)가 설정됨; 및
    (b) 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작 진행에 상응하여 3D 가상 캐릭터의 타겟 신체 부위 움직임에 따라 상기 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면과 만나는 접촉점들을 표시하여 상기 특정 동작에 따른 궤적을 형성하는 단계를 포함하되,
    상기 접촉점들은 각각 복수의 방향 영역을 포함하되, 각각의 방향 영역은 지정된 각도 단위로 영역이 각각 분할되되, 신체 부위의 방향 벡터에 따른 방향 영역의 분할된 영역에 상이한 시각 정보 형태로 표시되는 것을 특징으로 하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  2. 제1 항에 있어서,
    상기 가상 관절 구(sphere)는 각각의 축을 기준으로 지정된 각도 단위로 영역이 구분되는 것을 특징으로 하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  3. 삭제
  4. 제1 항에 있어서,
    상기 (b) 단계 이후에,
    상기 타겟 신체 부위의 계층 구조상 하위 계층에 연결된 신체 부위의 가상 관절 구(sphere)도 상기 타겟 신체 부위의 동작에 따라 동시에 움직이는 단계를 더 포함하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  5. 제1 항에 있어서,
    상기 가상 관절 구(sphere) 표면에 형성되는 궤적은,
    상기 타겟 신체 부위에 연결된 상위 계층의 신체 부위의 궤적에 따른 회전값을 더 반영하여 형성되는 것을 특징으로 하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  6. (a) 사람의 신체 부위에 부착된 센서로부터 특정 동작에 따른 신체 부위별 회전 데이터를 획득하는 단계; 및
    (b) 상기 신체 부위별 회전 데이터를 이용하여 상기 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작 진행에 상응하여 3D 가상 캐릭터의 타겟 신체 부위 움직임에 따라 상기 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면과 만나는 접촉점들을 표시하여 상기 특정 동작에 따른 궤적을 형성하는 단계를 포함하되,
    상기 접촉점들은 각각 복수의 방향 영역을 포함하되, 각각의 방향 영역은 지정된 각도 단위로 영역이 각각 분할되되, 신체 부위의 방향 벡터에 따른 방향 영역의 분할된 영역에 상이한 시각 정보 형태로 표시되는 것을 특징으로 하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  7. 제6 항에 있어서,
    상기 (a) 단계 이전에,
    초기 자세에서 상기 센서로부터 획득되는 회전 데이터를 이용하여 초기 보정값 및 방향 보정값을 각각 도출하는 단계를 더 포함하되,
    상기 (b) 단계에서의 상기 회전 데이터는 상기 초기 보정값 및 상기 방향 보정값이 적용된 동작 회전값인 것을 특징으로 하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  8. 제7 항에 있어서,
    상기 (b) 단계에서,
    상기 초기 자세에서의 각 신체 부위의 뼈대 방향 벡터(
    Figure 112020123016278-pat00022
    )와 상기 신체 부위별 회전 데이터를 이용하여 신체 부위별 방향 벡터(
    Figure 112020123016278-pat00023
    )를 도출하는 단계; 및
    상기 특정 동작에 따른 상기 신체 부위별 방향 벡터가 상기 가상 관절 구(sphere) 표면에 만나는 접촉점을 표시하여 상기 궤적을 형성하는 단계를 포함하는 것을 특징으로 하는 가상 관절 구(sphere)를 이용한 모션 모델링 방법.
  9. 제1 항, 제2항, 제4항 내지 제8 항 중 어느 하나의 항에 따른 방법을 수행하기 위한 프로그램 코드를 기록한 컴퓨터로 판독 가능한 기록매체.
  10. 적어도 하나의 명령어를 저장하는 메모리; 및
    상기 메모리에 저장된 명령어를 실행하는 프로세서를 포함하되,
    상기 프로세서에 의해 실행된 명령어는,
    (a) 3D 가상 캐릭터를 모델링하는 단계-상기 3D 가상 캐릭터는 신체 부위별 가상 관절 구(sphere)가 설정됨; 및
    (b) 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작 진행에 상응하여 3D 가상 캐릭터의 타겟 신체 부위 움직임에 따라 상기 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면과 만나는 접촉점들을 표시하여 상기 특정 동작에 따른 궤적을 형성하는 단계를 수행하되,
    상기 접촉점들은 각각 복수의 방향 영역을 포함하되, 각각의 방향 영역은 지정된 각도 단위로 영역이 각각 분할되되, 신체 부위의 방향 벡터에 따른 방향 영역의 분할된 영역에 상이한 시각 정보 형태로 표시되는 것을 특징으로 하는 모델링 장치.
  11. 적어도 하나의 명령어를 저장하는 메모리;
    상기 메모리에 저장된 명령어를 실행하는 프로세서를 포함하되,
    상기 프로세서에 의해 실행된 명령어는,
    (a) 사람의 신체 부위에 부착된 센서로부터 특정 동작에 따른 신체 부위별 회전 데이터를 획득하는 단계; 및
    (b) 상기 신체 부위별 회전 데이터를 이용하여 상기 특정 동작에 따른 3D 가상 캐릭터의 모션을 재구성함에 있어, 상기 특정 동작 진행에 상응하여 3D 가상 캐릭터의 타겟 신체 부위 움직임에 따라 상기 타겟 신체 부위에 지정된 가상 관절 구(sphere) 표면과 만나는 접촉점들을 표시하여 상기 특정 동작에 따른 궤적을 형성하는 단계를 수행하되,
    상기 접촉점들은 각각 복수의 방향 영역을 포함하되, 각각의 방향 영역은 지정된 각도 단위로 영역이 각각 분할되되, 신체 부위의 방향 벡터에 따른 방향 영역의 분할된 영역에 상이한 시각 정보 형태로 표시되는 것을 특징으로 하는 모델링 장치.
KR1020190144805A 2019-11-13 2019-11-13 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치 KR102239957B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190144805A KR102239957B1 (ko) 2019-11-13 2019-11-13 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치
US16/691,332 US11062496B2 (en) 2019-11-13 2019-11-21 Motion modeling method and device using virtual joint sphere

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190144805A KR102239957B1 (ko) 2019-11-13 2019-11-13 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR102239957B1 true KR102239957B1 (ko) 2021-04-13

Family

ID=75482602

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190144805A KR102239957B1 (ko) 2019-11-13 2019-11-13 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치

Country Status (2)

Country Link
US (1) US11062496B2 (ko)
KR (1) KR102239957B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150041536A (ko) 2013-10-08 2015-04-16 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
KR20150089980A (ko) * 2015-07-09 2015-08-05 중앙대학교 산학협력단 아바타 동작 생성 방법 및 이를 수행하기 위한 컴퓨팅 디바이스
KR20150142796A (ko) * 2014-06-11 2015-12-23 현대자동차주식회사 로봇의 팔꿈치 제어시스템 및 그 제어방법
KR20170061294A (ko) * 2015-11-26 2017-06-05 전자부품연구원 3d 가상 캐릭터의 어깨 움직임 정보 생성방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1846115A4 (en) * 2005-01-26 2012-04-25 Bentley Kinetics Inc METHOD AND SYSTEM FOR ANALYZING AND TEACHING ATHLETIC MOVEMENT
US20060274070A1 (en) * 2005-04-19 2006-12-07 Herman Daniel L Techniques and workflows for computer graphics animation system
JP2010170279A (ja) * 2009-01-21 2010-08-05 Namco Bandai Games Inc 骨格動作制御システム、プログラムおよび情報記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150041536A (ko) 2013-10-08 2015-04-16 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
KR20150142796A (ko) * 2014-06-11 2015-12-23 현대자동차주식회사 로봇의 팔꿈치 제어시스템 및 그 제어방법
KR20150089980A (ko) * 2015-07-09 2015-08-05 중앙대학교 산학협력단 아바타 동작 생성 방법 및 이를 수행하기 위한 컴퓨팅 디바이스
KR20170061294A (ko) * 2015-11-26 2017-06-05 전자부품연구원 3d 가상 캐릭터의 어깨 움직임 정보 생성방법

Also Published As

Publication number Publication date
US20210142545A1 (en) 2021-05-13
US11062496B2 (en) 2021-07-13

Similar Documents

Publication Publication Date Title
US8217995B2 (en) Providing a collaborative immersive environment using a spherical camera and motion capture
US8615383B2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave
Zhang et al. A novel hierarchical information fusion method for three-dimensional upper limb motion estimation
CA2662318C (en) Immersive collaborative environment using motion capture, head mounted display, and cave
JP2020042476A (ja) 関節位置の取得方法及び装置、動作の取得方法及び装置
US20130285903A1 (en) Virtual desktop coordinate transformation
JPH0689342A (ja) 動画像処理装置
WO2001033508A1 (en) Automatic generation of animation of synthetic characters
US20140267312A1 (en) Method and system for directly manipulating the constrained model of a computer-generated character
JP2010257081A (ja) 画像処理方法及び画像処理装置
Haslwanter 3D Kinematics
CN109781104A (zh) 运动姿态确定及定位方法、装置、计算机设备及介质
US9652879B2 (en) Animation of a virtual object
Zou et al. Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking
ES2725128B2 (es) Método implementado por ordenador, sistema y producto del programa de ordenador para simular el comportamiento de una mano que interactúa con objetos en un entorno virtual.
Valentini Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects
KR102239957B1 (ko) 가상 관절 구(sphere)를 이용한 모션 모델링 방법 및 그 장치
Chakravarthi et al. Scenario-based sensed human motion editing and validation through the motion-sphere
CN108830928A (zh) 三维模型的映射方法、装置、终端设备和可读存储介质
JP3668168B2 (ja) 動画像処理装置
KR20210105484A (ko) 문화유적복원 실감 장치
JP3973995B2 (ja) アニメーション作成システム
JP3790253B2 (ja) 動画像処理装置
CN117503120B (zh) 人体姿态估计方法及系统
CN109002163A (zh) 三维交互姿势采样方法、装置、计算机设备及存储介质