KR101527792B1 - 상호작용하는 캐릭터를 모델링 하는 방법 및 장치 - Google Patents
상호작용하는 캐릭터를 모델링 하는 방법 및 장치 Download PDFInfo
- Publication number
- KR101527792B1 KR101527792B1 KR1020130103369A KR20130103369A KR101527792B1 KR 101527792 B1 KR101527792 B1 KR 101527792B1 KR 1020130103369 A KR1020130103369 A KR 1020130103369A KR 20130103369 A KR20130103369 A KR 20130103369A KR 101527792 B1 KR101527792 B1 KR 101527792B1
- Authority
- KR
- South Korea
- Prior art keywords
- characters
- motion
- pendulum model
- inverted pendulum
- path
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
상호작용하는 캐릭터를 모델링 하는 방법 및 장치에 관한 것으로서, 모션캡쳐된 두 캐릭터의 동작데이터를 입력받고, 두 캐릭터의 공간적 관계가 유지되도록 동작데이터를 역진자 모델로 맵핑하고, 동작데이터와 역진자 모델로부터 두 캐릭터의 동작을 제어할 수 있는 참조 경로를획득하고, 역진자 모델의 상태를 고려하여 참조 경로를 두 캐릭터의 움직임으로 전이시키며, 전이된 움직임을 추적함으로써, 두 캐릭터의 실시간 동작을 생성한다.
Description
본 발명은 캐릭터를 모델링 하는 기술에 관한 것으로, 특히 두 캐릭터의 공간적 관계가 유지되도록 입력받은 동작데이터를 역진자 모델로 맵핑하고, 상기 역진자 모델로부터 참조 경로를 획득하며, 참조 경로로부터 전이된 움직임을 추적함으로써, 캐릭터를 모델링 하는 방법 및 장치에 관한 것이다.
게임 산업의 발전과 아울러 게임 하드웨어와 그래픽 엔진이 발전함에 따라 지금의 게임그래픽은 대부분 3D로 제작되고 있다. 이것은 소비자의 요구가 보다 현실감을 줄 수 있는 게임 콘텐츠를 요구하고 있기 때문이다. PS3와 XBOX360으로 대표되는 가정용 게임기 플랫폼은 풀HD 시대를 맞이하여 1080P로 출력되는 3D게임을 즐길 수 있도록 개발되었고, GPU(Graphics Processiong Unit)는 3D 처리 속도를 기반으로 발전을 하고 있다. 게임그래픽 하드웨어의 3D 지향적 발전은 보다 현실적이고 화려한 효과를 만든다는 공통 목표를 갖고 있다.
아울러 이러한 발전 방향과 발맞추어 3D 게임 및 애니메이션 분야에서도 현실감에 대한 요구 사항이 점점 커질 수밖에 없다. 따라서, 이것을 충족시켜주는 다양한 기술에 관한 연구가 필요하다. 현재 모션캡쳐 기술은 의학, 공학 등에서 활용되고 있으며 영화와 게임 등 엔터테인먼트 분야에서도 널리 사용되고 있다. 특히, 영화에서 그 활용이 두드러지며, 게임에서도 드라마틱하고 현실감 있는 게임을 즐길 수 있도록 모션캡쳐가 활용되었다.
한편, 이하에서 인용되는 선행기술 문헌에는 모션캡쳐 시스템을 활용하여 게임 캐릭터 애니메이션을 생성하는 기술을 소개하고 있다. 모션캡쳐 장비 및 사용 소프트웨어에 따라 약간의 차이가 있으나 일반적인 작업 과정은 캐릭터를 모델링하기, 모션캡쳐 데이터 획득, 모션 데이터 편집 및 후처리, 캐릭터 모델에 모션 데이터를 연결하기 등의 순서로 이루어진다. 하지만, 이러한 종래의 모션캡쳐 시스템은 다수의 캐릭터를 다룰 경우, 캐릭터 간의 관계(relation)를 고려하지 않으므로 동작이 부자연스럽고, 수행중인 단위 동작이 끝날 때까지 다른 외부 자극이나 사용자의 입력 신호에 즉각적인 반응을 나타낼 수 없었다.
이와 같은 관점에서, 모션캡쳐를 통해 다수의 캐릭터를 모델링 하기 위해서는 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계(spatial relation)를 고려하여 생성하는 기술적 수단이 필요하다는 사실을 알 수 있다.
모션캡쳐 시스템을 활용한 게임 캐릭터 애니메이션, 이용희, 정보과학회논문지 제24권 제2호 통권 제201호, 2006.2
따라서, 본 발명이 해결하고자 하는 첫 번째 과제는 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계를 고려하여 생성할 수 있는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 두 번째 과제는 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계를 고려하여 생성할 수 있는 장치을 제공하는 것이다.
본 발명의 첫 번째 과제를 달성하기 위하여, 모션캡쳐(motion capture)된 두 캐릭터(character)의 동작데이터를 입력받는 단계; 상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델(inverted pendulum model)로 맵핑(mapping)하는 단계; 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조(reference) 경로를 획득하는 단계; 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이(translation)시키는 단계; 및 상기 전이된 움직임을 추적(tracking)함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링(modeling) 하는 방법을 제공한다.
본 발명의 일 실시예에 의하면, 상기 두 캐릭터 각각에 대한 역진자 모델이 일정 거리를 유지하도록 탄성적으로 상호 연결(coupled)되어 맵핑됨으로써, 상기 두 캐릭터의 공간적 관계가 유지 되도록 하는 것을 특징으로 하는 캐릭터를 모델링 하는 방법일 수 있다.
또한, 상기 참조 경로를 획득하는 단계는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터(parameter)를 획득하는 단계; 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하는 단계; 및 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.
본 발명의 다른 실시예에 의하면, 상기 제어 파라미터는, 상대방을 바라보는 방향을 정면백터(facing vector)로 지정하며, 상대방을 회피하려는 방향을 회피백터(avoiding vector)로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수(coefficient)로부터 획득되는 것을 특징으로 하는 캐릭터를 모델링 하는 방법일 수 있다.
본 발명의 또 다른 실시예에 의하면, 상기 경로 파라미터를 획득하는 단계는, 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하는 단계; 및 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.
본 발명의 또 다른 실시예에 의하면, 상기 참조 경로를 움직임으로 전이시키는 단계는, 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 변형 시키는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.
본 발명의 또 다른 실시예에 의하면, 상기 실시간 동작을 생성하는 단계는,상기 두 캐릭터에 대한 관절 각도를 추적하며, 상기 추적을 통해 관절을 제어함으로써, 상기 두 캐릭터에 대한 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.
본 발명의 두 번째 과제를 달성하기 위하여, 모션캡쳐된 두 캐릭터의 동작데이터를 입력받는 입력부; 상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델로 맵핑 하고, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득하며, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 전이 시키는 처리부; 및 상기 전이된 움직임에 대한 상기 두 캐릭터의 관절 각도를 추적함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 생성부를 포함하되, 상기 처리부는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터를 획득하고, 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하며, 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치를 제공한다.
본 발명의 일 실시예에 의하면, 상기 처리부는, 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치일 수 있다.
또한, 상기 제어 파라미터는, 상대방을 바라보는 방향을 정면백터로 지정하며, 상대방을 회피하려는 방향을 회피백터로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수로부터 상기 제어 파라미터를 획득할 수 있는 것을 특징으로 하는 캐릭터 모델링 장치일 수 있다.
본 발명에 따르면, 두 캐릭터에 대한 모션캡쳐 데이터를 역진자 모델로 맵핑하고, 모션캡쳐 데이터와 역진자 모델로부터 참조 경로를 획득하며, 역진자 모델의 상태를 고려하여 참조 경로를 두 캐릭터의 움직임으로 전이시킴으로써, 움직임을 추적하여 상호작용하는 두 캐릭터의 동작을 생성할 수 있다. 또한, 두 캐릭터에 대한 방향 성분이 포함된 제어 파라미터를 획득하고, 제어 파라미터로부터 경로 파라미터를 획득하며, 경로 파라미터에 기초하여 참조 경로를 획득함으로써, 참조 경로를 고려하여 상호작용하는 두 캐릭터의 동작을 생성할 수 있다.
도 1은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 방법을 도시한 흐름도이다.
도 2는 본 발명의 다른 실시예에 따른 참조 경로를 획득하는 방법을 도시한 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 역진자 모델의 제어 파라미터를 도시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 경로 데이터와 역진자 모델로부터 경로 파라미터를 획득하는 과정을 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 경로 파라미터에 기초하여 획득한 참조 경로를 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 동작 계획의 과정을 도시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 기구학적 맵핑의 과정을 세부적으로 도시한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 동작을 분석하는 과정을 세부적으로 도시한 도면이다.
도 9는 본 발명의 다른 실시예에 따른 동작을 생성하는 과정을 세부적으로 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 캐릭터 모델링 장치를 도시한 블럭도이다.
도 2는 본 발명의 다른 실시예에 따른 참조 경로를 획득하는 방법을 도시한 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 역진자 모델의 제어 파라미터를 도시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 경로 데이터와 역진자 모델로부터 경로 파라미터를 획득하는 과정을 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 경로 파라미터에 기초하여 획득한 참조 경로를 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 동작 계획의 과정을 도시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 기구학적 맵핑의 과정을 세부적으로 도시한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 동작을 분석하는 과정을 세부적으로 도시한 도면이다.
도 9는 본 발명의 다른 실시예에 따른 동작을 생성하는 과정을 세부적으로 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 캐릭터 모델링 장치를 도시한 블럭도이다.
본 발명의 실시예들을 설명하기에 앞서, 기존의 모델 캡쳐를 이용하여 다수의 캐릭터의 동작을 실시간으로 생성할 때 발생하는 문제점들을 검토한 후, 이들 문제점을 해결하기 위해 본 발명의 실시예들이 채택하고 있는 기술적 수단을 개괄적으로 소개하도록 한다.
기존의 모션캡쳐를 이용하여 두 캐릭터의 동작을 생성하는 방법은, 각각의 캐릭터의 동작을 작은 세부 단위 동작들로 자르고, 상기 잘려진 단위 동작을 연결하여 동작을 생성하는 것이 일반적인 방법이다. 여기서, 상기 세부 단위 동작들은 발차기를 예로 들어, 디딤발 딛기, 발 올리기, 발 내리기, 및 제자리로 돌아오기로 나눠질 수 있다. 하지만, 두 캐릭터의 동작 생성의 경우에는 하나의 캐릭터뿐만이 아니라 상대 캐릭터의 동작까지도 함께 고려하여 동작을 생성해야 한다. 따라서, 하나의 단위 동작에서 다른 단위 동작으로의 변화가 다양하게 이루어지지 않고, 동일한 패턴의 동작을 반복하는 경향을 보이게 됨으로써, 다양한 동작을 생성하기 어렵다. 또한, 하나의 단위 동작에서 다른 단위 동작으로의 변화를 다양하게 하기 위해 동일하지 않은 상황의 두 동작을 임의로 붙이게 되면, 물리적으로 불가능한 동작들을 생성하여 캐릭터의 동작이 부자연스러워 보이게 된다. 더불어, 반응 속도 측면에서도 현재 선택되어 수행중인 단위 동작이 있으면, 수행중인 단위 동작이 끝날 때까지 다른 외부 자극이나 사용자의 입력 신호에 즉각적인 반응을 보일 수 없게 된다.
기존의 물리모델을 이용한 캐릭터 애니메이션의 경우 역시, 다수의 캐릭터를 다룰지라도 각각의 캐릭터 간의 관계(relation)를 고려하지 않았다. 즉, 두 캐릭터의 동작에 대한 물리 법칙과 캐릭터 간의 공간 관계(spatial relation)를 고려하여 두 캐릭터의 동작을 생성하는 기술적 수단이 현재까지는 없는 상태이다. 또한, 물리 모델과 모션캡쳐 동작을 동시에 이용하여 캐릭터 애니메이션을 하는 기존 연구에서는 걷거나, 뛰는 동작 등의 자유도(DOF: Degree of freedom)가 낮은 동작을 주로 다루어 왔으며, 각각의 캐릭터 사이의 관계에 대한 모델링이 고려되지 않았다.
따라서, 본 발명은 모션캡쳐된 동작 데이터로부터 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계를 고려하여 생성할 수 있는 기술적 수단을 제안하고자 한다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 구체적으로 설명하도록 한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
도 1은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 방법을 도시한 흐름도로서, 적어도 하나의 프로세서(processor)를 포함한 캐릭터 모델링 장치에 의해 수행될 수 있다.
S110 단계에서, 모션캡쳐(motion capture)된 두 캐릭터의 동작 데이터를 입력받는다.
보다 구체적으로, 모션캡쳐 시스템을 통해 실시간으로 동작을 생성하고자 하는 캐릭터의 동작을 캡쳐함으로써, 상기 모션캡쳐로부터 도출된 동작 데이터를 입력 받는다.
여기서, 실시간 동작을 캡쳐 하는데 사용되는 상기 모션캡쳐 방법에는 음향식, 기계식, 자기식, 및 광학식이 있다. 동작 캡쳐의 각 기법을 구별 짓는 요인들로는 데이터의 정확도, 샘플링 속도, 연기자에게 허용되는 동작의 자유 각도, 샘플링 포인트의 수, 및 동시에 캡쳐할 수 있는 모션캡쳐할 수 있는 연기자의 수 등이 있을 수 있다.
상기 음향식 모션캡쳐(Acoustic motion capture)는, 초음파 발생장치와 3개의 수신 장치로 구성된 장비를 연기자의 각 관절에 부착시킨 후 각 장치에서 발생한 초음파가 수신 장치에 수신되기까지 걸린 시간과 이때의 소리속도를 이용해 발생장치에서 수신 장치까지의 거리를 계산한다. 여기서, 각 전송 장치의 3차원 공간상의 위치는 3개의 수신 장치에서 각각 계산된 값을 이용하여 구할 수 있다.
상기 기계식 모션캡쳐(Mechanic motion capture)는 연기자의 관절 움직임을 측정하기 위한 전위차계(Potentiometer)와 슬라이더(Slider)의 복합체로 구성되어 있다. 상기 기계식 모션캡쳐 시스템은 자기장이나 원하지 않는 반사 등으로 인한 영향을 받지 않는 절대적인 측정 장치이다. 따라서, 초기 셋업(Calibration) 과정이 거의 필요 없으며 매우 높은 샘플링 빈도로 동작 데이터를 획득할 수 있다는 장점이 있다. 그러나, 이 시스템은 매우 부담이 되는 기계장치를 연기자의 몸에 부착해야 하므로, 상기 연기자의 자연스러운 동작을 연출할 수 없고, 기계 장치가 연기자의 각 관절에 얼마나 정확하게 위치했는지에 따라 동작 데이터의 정확도가 달라진다는 단점이 있을 수 있다. 따라서, 상기 기계식 모션캡쳐는 기존의 애니메이션 제작기술인 키프레임 방식 및 동작제어 방식과 함께 사용되어 키프레임(Key frame)이나 스텝 동작의 생성에 이용될 수 있다.
상기 자기식 모션캡쳐(Magnetic motion capture)는 연기자의 각 관절 부위에 자기장을 계측할 수 있는 센서를 부착하고 자기장 발생장치 근처에서 연기자가 움직일 때 각 센서에서 측정하는 자기장의 변화를 다시 공간적인 변화량으로 계산하여 움직임을 측정하는 방식이다. 여기서, 각 센서와 자기장 발생장치 및 본체는 케이블로 연결되어 있다. 상기 자기식 모션캡쳐는 가격이 저렴하고, 운용이 쉽고 장비 자체 외의 시설 투자가 필요 없다는 장점을 갖는다. 또한, 필요한 숫자만큼 센서를 구입하여 사용하게 되므로 불필요한 투자를 하지 않아도 된다. 반면, 상기 자기식 모션캡쳐 시스템의 경우 가장 큰 단점은 센서를 연기자의 몸에 부착할 시에 발생되는 센서 본체와 연결된 수많은 케이블로 인한 문제이다. 상기 케이블들은 연기자의 동작에 제한을 주고 이것으로 인해 복잡하고 빠른 움직임을 자연스럽게 표현하는 것을 불가능하게 한다. 몇몇 회사들은 케이블이 필요 없는 무선 자기식 모션캡쳐 시스템을 개발하여 판매하고 있지만 역시 연기자의 신체에 송신기를 부착하지 않으면 안되는 단점을 갖고 있다. 따라서, 상기 자기식 모션캡쳐는 간단한 동작 등을 캡쳐 하는데 적당하다.
상기 광학식 모션캡쳐(Optical motion capture)는 빛, 카메라, 및 반사점(Reflective dots)을 이용하여 3차원 공간에서 동작의 위치를 결정한다. 즉, 상기 광학식 모션캡쳐는 연기자의 몸에 부착된 캡쳐 센서로부터 정보를 읽어 들이는 카메라들을 설치하고, 상기 캡쳐 센서들이 2차원 위치를 제공하면, 모션캡쳐 소프트웨어가 3D 데이터로 계산한다. 상기 광학식 모션캡쳐의 장점은 상기 자기식 모션캡쳐와 달리 금속에 의해 영향을 받지 않고, 동작에 제한이 없어 자유로울 뿐 아니라 2명 이상이 연기할 경우 편리하며, 스포츠 선수의 동작과 같이 매우 빠른 움직임 등을 캡쳐할 때도 유용하다. 또한, 연기자에게 부착되는 마커의 크기가 작고 케이블로도 연결되지 않으며 개수가 제한되지 않아 연기자가 움직임을 수행하는 동안 자유로움을 제공하며, 움직임의 아주 미세한 묘사까지도 가능하게 할 수 있다. 상기 광학식 모션캡쳐는 상기 음향식, 기계식, 및 자기식 모션캡쳐와 비교하여 넓은 범위에서 캡쳐가 가능하며, 캡쳐 정밀도의 면에서도 높다. 반면, 상기 광학식 모션캡쳐는 센서들이 카메라들이 추적할 수 없게 가려지는 경우 동작 데이터를 놓치는 현상이 발생할 수 있다. 상기 동작 데이터를 놓칠 경우 3차원 좌표를 얻는 것이 불가능하고, 상기 3차원 좌표를 얻는 것이 불가능할 경우 많은 사후 처리 과정을 필요로 하게 됨으로써, 실시간 처리가 불가능하게 되거나 모션캡쳐 과정을 더울 복잡하게 만들어 전체의 성능을 떨어 뜨리는 요인이 될 수 있다.
S110 단계에서 모션캡쳐된 두 캐릭터의 동작데이터를 입력받음에 있어서, 상기 모션캡쳐에 사용된 방법은 음향식, 기계식, 자기식, 및 광학식의 모션캡쳐 방법 중 한가지의 방법으로 제한되지 않으며, 음향식, 기계식, 자기식, 및 광학식의 모션캡쳐 방법 모두 사용할 수 있다.
S120 단계에서 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델(inverted pendulum model)로 맵핑(mapping)한다.
보다 구체적으로, S110 단계에서 입력받은 동작데이터를 상기 두 캐릭터 각각에 대한 역진자 모델이 일정 거리를 유지하도록 탄성적으로 상호 연결(coupled)되어 맵핑됨으로써, 상기 두 캐릭터의 공간적 관계가 유지 되도록 한다.
여기서, 상기 역진자 모델은 상기 캐릭터의 전체 질량에 해당하는 총 질량 중심을 나타내는 무게중심(COM: center of mass)을 구하고, 상기 무게중심을 이용하여 보행 동역학식을 점질량에 대한 운동 방정식으로 단순화시킨 모델일 수 있다. 역진자 모델을 사용하여, 캐릭터 또는 로봇의 동작을 생성할 수 있으며, 상기 역진자 모델은 주변의 방해 작용이 있더라도 균형을 유지할 수 있다. 상기 균형을 유지할 수 있는 특징은 사람이 균형을 유지하는 모습과 흡사하며, 캐릭터 혹은 로봇의 걷거나 뛰는 동작을 상기 역진자 모델로 표현함으로써, 걷거나 뛰면서 중심을 잡는 행동 등에 사용할 수 있다. 하지만, 종래의 역진자 모델은 일반적으로 걷는 행동 등의 단순한 동작에 사용되었으며, 캐릭터의 동작을 역진자 모델로 맵핑할 경우 무게중심과 ZMP(zero movement point)를 사용하였다. 하지만, 상기 ZMP를 사용할 경우 캐릭터의 두 발이 땅에 붙어 있지 않으면, 상기 캐릭터의 동작에 대한 정의가 되지 않는 단점이 있다. 따라서, 본 발명은 모션캡쳐된 동작데이터를 역진자 모델로 맵핑함에 있어서, 기존의 상기 무게중심과 상기 ZMP를 사용하지 않고, 상기 무게중심과 모멘텀(momentum)을 사용함으로써, 상기 캐릭터의 두 발이 땅에서 떨어진 상황에서도 상기 캐릭터의 움직임을 정의할 수 있다. 또한, 상기 무게중심과 상기 ZMP를 사용하여 역진자 모델을 생성함으로써, 상기 두 캐릭터가 상호작용을 하는 다양한 동작을 생성하고 상기 두 캐릭터가 물리법칙에 위배 되지 않도록 다양한 패턴의 동작을 생성할 수 있다.
S130 단계에서, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득한다.
보다 구체적으로, S110 단계에서 입력받은 동작데이터와 S120 단계에서 생성된 역진자 모델로부터 상기 두 캐릭터의 참조 경로를 획득하며, 상기 참조 경로를 획득하는 것은 이하에서 도 2를 통해 설명하고자 한다.
도 2는 본 발명의 다른 실시예에 따른 참조 경로를 획득하는 방법을 도시한 흐름도이다.
S210 단계에서, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터(parameter)를 획득한다. 여기서, 상기 제어 파라미터는 이하에서 도 3을 통해 설명하고자 한다.
도 3은 본 발명의 다른 실시예에 따른 역진자 모델의 제어 파라미터를 도시한 도면이다.
보다 구체적으로, 두 캐릭터에 대한 각각의 역진자 모델이 서로 직면한다고 가정할 때, 상대방을 바라보는 방향을 정면백터(facing vector)(33)로 지정하며, 상대방을 회피하려는 방향을 회피백터(avoiding vector)(34)로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수(coefficient)로부터 상기 제어 파라미터를 획득할 수 있다. 여기서, 제 1 역진자 모델(31)이 제 2 역진자 모델(32)을 바라보는 정면백터(33)가 이고, 제 1 역진자 모델(31)이 제 2 역진자 모델(32)을 회피하는 회피백터(34)가 이고, 제 2 역진자 모델(32)이 제 1 역진자 모델(31)을 바라보는 정면백터(33)가 이고, 제 2 역진자 모델(32)이 제 1 역진자 모델(31)을 회피하는 회피백터(34)가 이고, normalize가 백터에 대한 정규화이고, 이 제 1 역진자 모델(31)의 무게중심이고, 이 제 2 역진자 모델(32)의 무게중심이고, 는 Y축를 표현한 유닛 백터로서 바닥으로부터 수직 성분 백터일때, 지역 좌표(Local coordinate)는 다음과 같이 표현할 수 있다.
또한, 가 제 1 역진자 모델(31)의 속도이고, 가 제 2 역진자 모델(32)의 속도이고, , 이 제 1 역진자 모델(31)의 방향 파라미터이고, , 이제 2 역진자 모델(32)의 방향 파라미터일 때, 제 1 역진자 모델(31)과 제 2 역진자 모델(32)에 대한 속도를 구하는 것은 다음과 같이 표현할 수 있다.
이제 다시 도 2로 돌아가 S210 단계 이후를 설명하도록 한다.
S220 단계에서, S210 단계의 제어 파라미터로부터 모션캡쳐된 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득한다. 역기서, 상기 경로 파라미터를 획득하는 과정은 이하에서 도 4를 통해 설명하도록 한다.
도 4는 본 발명의 다른 실시예에 따른 경로 데이터와 역진자 모델로부터 경로 파라미터를 획득하는 과정을 도시한 도면이다.
보다 구체적으로, 모션캡쳐된 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하기 위하여 공간관계모델(spatial relation model)을 통해 경로 파라미터를 획득할 수 있다. 여기서, 공간관계모델은 상기 역진자 모델의 움직임을 표현할 수 있고, 상기 역진자 모델 간의 관계를 표현하고, 캐릭터 포즈에 대한 균형을 표현하며, 캐릭터에 대한 풋스텝의 변화를 표현할 수 있다.
또한, 가 제 1 캐릭터(43)에 대한 무게중심이고, 가 제 2 캐릭터(44)에 대한 무게중심이고, 가 제 1 역진자 모델(31)의 무게중심이고, 가 제 2 역진자 모델(32)의 무게중심이고, 가 이고, 가 이고, 는 제 1 캐릭터가 제 2 캐릭터를 바라보는 성분에 수직한 방향으로의 속도, 즉 두 캐릭터 사이의 각속도를 의미하고, 이 각속도는 로 회피방향의 속도와 제 2 캐릭터와의 거리를 사용하여 계산되고, 는 제 1 역진자가 제 2 역진자를 바라보는 성분에 수직한 방향으로의 속도, 즉 두 캐릭터 사이의 각속도를 의미하고, 로 회피방향의 속도와 제 2 역진자와의 거리를 사용하여 계산되고, 를 1이라 가정하고, 가 이고, 가 일 때, 모션캡쳐된 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하기 위한 공간관계모델은 다음과 같이 표현할 수 있다.
이제 다시 도 2로 돌아가 S220 단계 이후를 설명하도록 한다.
S230 단계에서, S220 단계에서 획득한 경로 파라미터에 기초하여 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득한다. 여기서, 상기 참조 경로를 획득하는 것은 이하에서 도 5를 통해 설명하도록 한다.
도 5는 본 발명의 다른 실시예에 따른 경로 파라미터에 기초하여 획득한 참조 경로를 도시한 도면이다.
보다 구체적으로, 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 참조 경로를 획득할 수 있다. 여기서 상기 목적함수는 상기 역진자모델의 무게 중심이 이동하는 경로가 모션 캡쳐로부터 획득한 동작데이터의 무게중심의 경로와 유사하게 움직이도록 하는 상기 역진자 모델에 가해지는 상기 제어 파라미터를 획득하는 것을 목표로 한다. 상기 목표를 달성하기 위해 상기 두 캐릭터에 대한 역진자모델의 정면 방향과 회피하는 방향의 목표속도인 총 4개의 디멘션(dimension)파라미터를 변경해 가면서 상기 제어 파라미터에 가장 적합한 시간에 따라 변하는 파라미터를 찾음으로써 함으로써, 참조 경로를 획득할 수 있으며, 다음과 같이 표현할 수 있다.
여기서, project는 y축으로의 프로젝션(projection)을 의미하며, argmin은 상기 목적함수의 결과인 에러값이 최소가 되게 하는 목표속도를 찾는 것일 수 있다.
이제 다시 도 1로 돌아가 S130 단계 이후를 설명하도록 한다.
S140 단계에서, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이(translation)시킨다. 여기서, 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이시키는 것은 이하에서 도 6을 통해 설명하도록 한다.
도 6은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 동작 계획의 과정을 도시한 도면이다.
보다 구체적으로, 모션캡쳐된 동작데이터에 기초하여 맵핑된 역진자 모델의 상태를 고려하여 상기 역진자 모델이 상호작용하여 동작하도록 하는 참조 경로를 획득 할 수 있다. 이제, 상기 참조 경로를 기구학적 맵핑을 통해 상호작용하는 두 캐릭터의 경로를 획득할 수 있다. 여기서, 상기 기구학적 맵핑은 이하에서 도 7을 통해 설명하도록 한다.
도 7은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 기구학적 맵핑의 과정을 세부적으로 도시한 도면이다.
보다 구체적으로, 스태핑 추정(stepping estimation)에서는 발을 딛는 위치를 추정할 수 있다. 상기 발을 딛는 위치를 추정하기 위해 모션캡처 데이터로부터 획득한 동작데이터에 대한 캐릭터의 발이 땅에 닿으면, 상기 캐릭터의 발이 땅에 닿을 때 상기 발의 움직임이 없으므로, 상기 역진자 모델과의 상대적 위치를 획득할 수 있다. 상기 획득한 발의 위치는 상기 생성된 역진자모델의 위치와 방향에 맞게 회전함으로써, 새로운 동작에서의 발을 딛는 위치를 생성할 수 있다. 이후, 연속적인 발의 위치를 생성하기 위해서 다음에 동일한 발이 다음 번에 딛는 위치를 고려하여 상기 다음 번에 딛는 위치의 발과 이전의 발의 위치인 그 사이를 연결함으로써, 연속적으로 발을 딛는 위치를 생성할 수 있다. 하지만, 만약 동작 생성시에 생성된 동작의 길이가 다음에 발을 딛는 위치가 나올 정도로 충분히 길지 않으면, 다음 발의 위치를 추출할 수 없게 될 수 있다. 또한, 다음 발의 위치를 추출하기 위해 생성되는 동작 데이터의 길이를 늘리게 되면 상대방과의 상호작용으로 인한 자세 변형 속도인 동작의 반응속도가 늦어지는 문제점이 발생할 수 있다. 상기의 문제점을 해결하기 위해 동작 분석단계에서 현재 추출한 발의 위치와 해당 발 다음 번에 딛는 시간을 함께 저장하고, 그 시간만큼 상기 역진자 모델을 더 움직여서 다음 발의 위치를 추정할 수 있다. 상기 추정하여 생성한 발의 위치를 맞게 하체의 역기구학(Inverse Kinematics)을 풀고, 상기 발 딛는 위치에 맞게 다리 관절의 위치를 획득할 수 있다.
이제 다시 도 1로 돌아가 S140 단계 이후를 설명하도록 한다.
S150 단계에서, S140 단계에서 전이된 움직임을 추적(tracking)함으로써 상기 두 캐릭터의 실시간 동작을 생성한다.
보다 구체적으로, 상기 두 캐릭터에 대한 관절 각도를 추적하며, 상기 추적을 통해 관절을 제어함으로써, 상기 두 캐릭터에 대한 실시간 동작을 생성할 수 있다.
또한, 도 1은 크게 동작을 분석하는 단계와 동작을 생성하는 단계로 나눌 수 있고, 상기 동작을 분석하는 단계에서는 모션캡쳐 장비로부터 두사람의 동작을 사용하여서 캡쳐한 동작을 본 발명이 제안한 물리 모델로 맵핑 함으로써, 커플링된 역진자 경로 생성기를 만드는 단계일 수 있다. 상기 동작 생성 단계는 상기 커플링된 경로 생성기로부터 실시간으로 역진자 모델들의 경로가 생성되면, 상기 역진자 경로에 맞게 캐릭터의 동작을 재구성하여 생성하는 단계일 수 있다. 여기서, 상기 동작을 분석하는 단계는 이하에서 도 8을 통해 상세하게 설명하도록 한다.
도 8은 본 발명의 다른 실시예에 따른 동작을 분석하는 과정을 세부적으로 도시한 도면이다. 여기서, 커플링된 역진자 경로 생성기는 도 1의 S110 단계 내지 S120 단계와 대응될 수 있다.
보다 구체적으로, 동작 분석 단계는 모션캡쳐 장비를 이용하여 두 사람의 동작 경로를 획득할 수 있다. 상기 획득한 두 사람의 캡쳐 동작은 무게중심, 모멘텀의 이동 경로에 대한 함수로의 분석을 통하여 역진자 모델로 맵핑될 수 있다. 여기서, 추가로 고려해야할 부분은 상기 두 사람의 동작을 다루기 때문에 분석한 상기 두 사람의 이동 경로는 상기 두 사람 간의 공간적 관계를 유지해야 한다. 따라서, 상기 두 사람 간의 공간적 관계를 유지하도록 상기 역진자 모델을 커플링 해주는 과정이 필요할 수 있다.
상기 역진자 모델은 두 개의 주요한 백터 성분을 사용할 수 있다. 첫 번째는 상대방을 바라보는 방향의 백터이고, 두 번째는 상대방과 정면으로 마주치지 않으려는 방향의 백터이며, 상기 백터들은 각각 정면백터와 회피백터라 정할 수 있다. 상기 정면백터와 상기 회피백터는 유닛 백터로서 방향 성분만 갖으며, 상기 정면백터와 상기 회피백터의 계수는 상기 커플링된 역진자 모델의 제어 파라미터이므로 상기 역진자 모델의 동작 패턴을 결정할 수 있다. 상기 파라미터는 상기 캡쳐된 동작과 상기 역진자 모델을 무게중심과 모멘텀의 차이를 목적함수로 설정함으로써 최적화 문제의 값을 도출하며, 상기 캡쳐 동작과 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 파라미터를 찾을 수 있다. 상기 캡쳐 동작과 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 파라미터를 찾는 과정을 통해 결과적으로 커플링된 역진자 모델의 경로를 실시간으로 생성하는 모듈을 만들 수 있고, 상기 모듈을 커플링된 역진자 경로 생성기라고 할 수 있다. 결론적으로, 상기 동작 분석 단계를 통해 제어하려는 상기 캐릭터의 동작의 참조가 되는 역진자 경로를 생성할 수 있다.
상기 동작 생성 단계는 이하에서 도 9를 통해 설명하도록 한다.
도 9는 본 발명의 다른 실시예에 따른 동작을 생성하는 과정을 세부적으로 도시한 도면으로서, 커플링된 역진자 경로 생성기로부터 생성된 경로와 현재 역진자 모델의 상태를 고려하여 캐릭터의 동작을 맞춰주고, 상기 동작을 추적함으로써, 캐릭터 애니메이션을 하는 단계일 수 있다.
보다 구체적으로, 캡쳐된 동작데이터를 이용하여 두 캐릭터 행동에 대한 모션 그래프를 만들 수 있다. 상기 모션 그래프는 동작을 실시간으로 생성하고, 상기 생성된 동작은 상기 동작 분석 단계를 통해 획득한 역진자 모델의 무게중심에 맞춰서 전이시킬 수 있다. 여기서, 상기 캐릭터가 쓰러지지 않도록 균형을 유지하는 것이 중요하고, 균형을 유지하기 위해 상기 캐릭터가 발을 딛는 위치를 상황에 맞게 조절하는 것이 필요하다. 이때, 상기 상황은 상기 캐릭터의 몸이 기울어진 수치를 뜻하고, 상기 캐릭터의 몸이 기울어진 정도는 역진자 모델의 기울어진 수치를 측정함으로써 알 수 있다. 또한, 상기 캐릭터의 발자국은 상기 모션캡쳐 데이터로부터 획득할 수 있고, 상기 획득한 발자국에 맞게 캐릭터의 IK를 풀어서 상기 캐릭터의 하체 동작을 생성할 수 있다. 이제, 상기 모션 그래프에서 생성한 동작의 무게중심을 상기 역진자 모델의 무게중심에 맞게 할당해 주면, 상기 캐릭터의 동작 및 상기 동작에 따른 관절의 각도를 획득할 수 있다. 상기 관절 각도를 추적하여 상기 관절을 제어함으로써, 실시간으로 상호작용하는 두 캐릭터의 동작을 생성할 수 있다.
도 10은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 캐릭터 모델링 장치를 도시한 블럭도로서, 캐릭터 모델링 장치(50)는 앞서 기술한 도 1 내지 도 9의 각 과정에 대응하는 구성을 포함한다. 따라서, 여기서는 설명의 중복을 피하기 위해 하드웨어 장치를 중심으로 그 기능을 약술하도록 한다.
입력부(51)는 모션캡쳐된 두 캐릭터의 동작데이터를 입력받는다.
처리부(52)는 상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델로 맵핑 하고, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득하며, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 전이시킨다.
생성부(53)는 상기 전이된 움직임에 대한 상기 두 캐릭터의 관절 각도를 추적함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 생성 한다.
또한, 처리부(52)는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터를 획득하고, 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하며, 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득한다. 여기서, 상기 제어 파라미터는, 상대방을 바라보는 방향을 정면백터로 지정하며, 상대방을 회피하려는 방향을 회피백터로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수로부터 상기 제어 파라미터를 획득한다.
또한, 처리부(52)는, 상기 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득한다.
상기된 본 발명의 실시예들에 따르면, 두 캐릭터에 대한 모션캡쳐 데이터를 역진자 모델로 맵핑하고, 모션캡쳐 데이터와 역진자 모델로부터 참조 경로를 획득하며, 역진자 모델의 상태를 고려하여 참조 경로를 두 캐릭터의 움직임으로 전이시킴으로써, 움직임을 추적하여 상호작용하는 두 캐릭터의 동작을 생성할 수 있다. 또한, 높은 자유도를 가진 두 캐릭터의 동작을 물리 법칙을 고려하여 생성할 수 있고, 캡쳐된 동작 외에 새로운 동작도 생성할 수 있으며, 동작 반응 속도가 뛰어나고 생성된 동작의 품질도 높을 수 있다.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
31 : 제 1 역진자 모델
32 : 제 2 역진자 모델
43 : 제 1 캐릭터
44 : 제 2 캐릭터
50 : 캐릭터 모델링 장치
51 : 입력부
52 : 처리부
53 : 생성부
32 : 제 2 역진자 모델
43 : 제 1 캐릭터
44 : 제 2 캐릭터
50 : 캐릭터 모델링 장치
51 : 입력부
52 : 처리부
53 : 생성부
Claims (10)
- 모션캡쳐(motion capture)된 두 캐릭터(character)의 동작데이터를 입력받는 단계;
상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 탄성적으로 상호 연결(coupled)된 역진자 모델(inverted pendulum model)로 맵핑(mapping)하는 단계;
상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조(reference) 경로를 획득하는 단계;
상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이(translation)시키는 단계; 및
상기 전이된 움직임을 추적(tracking)함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링(modeling) 하는 방법. - 제 1 항에 있어서,
상기 두 캐릭터 각각에 대한 역진자 모델이 일정 거리를 유지하도록 탄성적으로 상호 연결(coupled)되어 맵핑됨으로써, 상기 두 캐릭터의 공간적 관계가 유지 되도록 하되, 무게중심(COM: center of mass)과 모멘텀(momentum)을 사용하여 상기 캐릭터의 움직임을 정의하는 것을 특징으로 하는 캐릭터를 모델링 하는 방법. - 제 1 항에 있어서,
상기 참조 경로를 획득하는 단계는,
상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터(parameter)를 획득하는 단계;
상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하는 단계; 및
상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법. - 제 3 항에 있어서,
상기 제어 파라미터는,
상대방을 바라보는 방향을 정면백터(facing vector)로 지정하며, 상대방을 회피하려는 방향을 회피백터(avoiding vector)로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수(coefficient)로부터 획득되는 것을 특징으로 하는 캐릭터를 모델링 하는 방법. - 제 3 항에 있어서,
상기 경로 파라미터를 획득하는 단계는,
모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하는 단계; 및
상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법. - 제 1 항에 있어서,
상기 참조 경로를 움직임으로 전이시키는 단계는,
상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 변형 시키는 단계를 포함하는 캐릭터를 모델링 하는 방법. - 제 1 항에 있어서,
상기 실시간 동작을 생성하는 단계는,
상기 두 캐릭터에 대한 관절 각도를 추적하며, 상기 추적을 통해 관절을 제어함으로써, 상기 두 캐릭터에 대한 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링 하는 방법. - 모션캡쳐된 두 캐릭터의 동작데이터를 입력받는 입력부;
상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 탄성적으로 상호 연결(coupled)된 역진자 모델로 맵핑 하고, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득하며, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 전이시키는 처리부; 및
상기 전이된 움직임에 대한 상기 두 캐릭터의 관절 각도를 추적함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 생성부를 포함하되,
상기 처리부는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터를 획득하고, 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하며, 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하되, 무게중심(COM: center of mass)과 모멘텀(momentum)을 사용하여 상기 캐릭터의 움직임을 정의하는 것을 특징으로 하는 캐릭터 모델링 장치. - 제 8 항에 있어서,
상기 처리부는,
모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치. - 제 8 항에 있어서,
상기 제어 파라미터는,
상대방을 바라보는 방향을 정면백터로 지정하며, 상대방을 회피하려는 방향을 회피백터로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수로부터 상기 제어 파라미터를 획득할 수 있는 것을 특징으로 하는 캐릭터 모델링 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130103369A KR101527792B1 (ko) | 2013-08-29 | 2013-08-29 | 상호작용하는 캐릭터를 모델링 하는 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130103369A KR101527792B1 (ko) | 2013-08-29 | 2013-08-29 | 상호작용하는 캐릭터를 모델링 하는 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150025462A KR20150025462A (ko) | 2015-03-10 |
KR101527792B1 true KR101527792B1 (ko) | 2015-06-12 |
Family
ID=53021693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130103369A KR101527792B1 (ko) | 2013-08-29 | 2013-08-29 | 상호작용하는 캐릭터를 모델링 하는 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101527792B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102172362B1 (ko) * | 2018-12-06 | 2020-10-30 | (주)코어센스 | 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법 |
WO2020116836A1 (ko) * | 2018-12-06 | 2020-06-11 | (주)코어센스 | 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법 |
KR102317949B1 (ko) * | 2020-02-10 | 2021-10-27 | 한국과학기술원 | 객체의 모션을 생성하는 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110033864A (ko) * | 2008-07-22 | 2011-03-31 | 소니 온라인 엔터테인먼트 엘엘씨 | 시뮬레이션에서의 물리 상호작용을 위한 시스템 및 방법 |
KR101053395B1 (ko) * | 2009-06-11 | 2011-08-01 | 서울대학교산학협력단 | 동기화된 복수의 캐릭터의 동작 편집 시스템 및 방법 |
-
2013
- 2013-08-29 KR KR1020130103369A patent/KR101527792B1/ko not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110033864A (ko) * | 2008-07-22 | 2011-03-31 | 소니 온라인 엔터테인먼트 엘엘씨 | 시뮬레이션에서의 물리 상호작용을 위한 시스템 및 방법 |
KR101053395B1 (ko) * | 2009-06-11 | 2011-08-01 | 서울대학교산학협력단 | 동기화된 복수의 캐릭터의 동작 편집 시스템 및 방법 |
Non-Patent Citations (1)
Title |
---|
Control Systems for Human Running using an Inverted Pendulum Model and a Reference Motion Capture Sequence (2010) * |
Also Published As
Publication number | Publication date |
---|---|
KR20150025462A (ko) | 2015-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101881620B1 (ko) | 게임플레이에서의 3차원 환경 모델 사용 | |
KR101812379B1 (ko) | 포즈를 추정하기 위한 방법 및 장치 | |
CN103578135B (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统及实现方法 | |
EP4307233A1 (en) | Data processing method and apparatus, and electronic device and computer-readable storage medium | |
Brubaker et al. | Physics-based person tracking using simplified lower-body dynamics | |
CN108369478A (zh) | 用于交互反馈的手部跟踪 | |
AU2011203028B1 (en) | Fully automatic dynamic articulated model calibration | |
KR20120020138A (ko) | 골격 데이터를 게임 아바타에 실시간으로 리타게팅하는 방법 | |
US8724849B2 (en) | Information processing device, information processing method, program, and information storage medium | |
CN203630822U (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统 | |
JP7490142B2 (ja) | 姿勢の脱曖昧化 | |
KR101527792B1 (ko) | 상호작용하는 캐릭터를 모델링 하는 방법 및 장치 | |
WO2022103680A1 (en) | Binocular pose prediction | |
US9652879B2 (en) | Animation of a virtual object | |
KR20020017576A (ko) | 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법 | |
Schönauer et al. | Wide area motion tracking using consumer hardware | |
US20230290101A1 (en) | Data processing method and apparatus, electronic device, and computer-readable storage medium | |
Yang et al. | Digitalization of Three-Dimensional Human Bodies: A Survey | |
CN116485953A (zh) | 数据处理方法、装置、设备和可读存储介质 | |
KR20200057572A (ko) | 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법 | |
US20220028144A1 (en) | Methods and systems for generating an animation control rig | |
Zeng et al. | Motion capture and reconstruction based on depth information using Kinect | |
KR20170119895A (ko) | 게임엔진을 이용한 영상제작 시스템 | |
Rebecchi | Enhanced particle filter with environment reconstruction for human pose estimation in human-robot interaction | |
Basori et al. | Performance driven-biped control for animated human model with motion synthesis data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |