KR20150025462A - Method and apparatus for modeling interactive character - Google Patents
Method and apparatus for modeling interactive character Download PDFInfo
- Publication number
- KR20150025462A KR20150025462A KR20130103369A KR20130103369A KR20150025462A KR 20150025462 A KR20150025462 A KR 20150025462A KR 20130103369 A KR20130103369 A KR 20130103369A KR 20130103369 A KR20130103369 A KR 20130103369A KR 20150025462 A KR20150025462 A KR 20150025462A
- Authority
- KR
- South Korea
- Prior art keywords
- characters
- motion
- pendulum model
- inverted pendulum
- path
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 캐릭터를 모델링 하는 기술에 관한 것으로, 특히 두 캐릭터의 공간적 관계가 유지되도록 입력받은 동작데이터를 역진자 모델로 맵핑하고, 상기 역진자 모델로부터 참조 경로를 획득하며, 참조 경로로부터 전이된 움직임을 추적함으로써, 캐릭터를 모델링 하는 방법 및 장치에 관한 것이다.In particular, the present invention relates to a technique for modeling a character, and more particularly, to a technique for modeling a character, in particular, a method of mapping a motion data input to maintain a spatial relationship between two characters to an inverted pendulum model, acquiring a reference path from the inverted pendulum model, To a method and apparatus for modeling a character.
게임 산업의 발전과 아울러 게임 하드웨어와 그래픽 엔진이 발전함에 따라 지금의 게임그래픽은 대부분 3D로 제작되고 있다. 이것은 소비자의 요구가 보다 현실감을 줄 수 있는 게임 콘텐츠를 요구하고 있기 때문이다. PS3와 XBOX360으로 대표되는 가정용 게임기 플랫폼은 풀HD 시대를 맞이하여 1080P로 출력되는 3D게임을 즐길 수 있도록 개발되었고, GPU(Graphics Processiong Unit)는 3D 처리 속도를 기반으로 발전을 하고 있다. 게임그래픽 하드웨어의 3D 지향적 발전은 보다 현실적이고 화려한 효과를 만든다는 공통 목표를 갖고 있다.As the game industry develops and game hardware and graphics engines evolve, most of the current game graphics are being produced in 3D. This is because consumer demands demand game contents that can give more realism. PS3 and XBOX360 have been developed to enjoy 3D games output at 1080P in full HD era, and GPU (Graphics Procession Unit) is developing based on 3D processing speed. The 3D-oriented development of game graphics hardware has a common goal of creating more realistic and brilliant effects.
아울러 이러한 발전 방향과 발맞추어 3D 게임 및 애니메이션 분야에서도 현실감에 대한 요구 사항이 점점 커질 수밖에 없다. 따라서, 이것을 충족시켜주는 다양한 기술에 관한 연구가 필요하다. 현재 모션캡쳐 기술은 의학, 공학 등에서 활용되고 있으며 영화와 게임 등 엔터테인먼트 분야에서도 널리 사용되고 있다. 특히, 영화에서 그 활용이 두드러지며, 게임에서도 드라마틱하고 현실감 있는 게임을 즐길 수 있도록 모션캡쳐가 활용되었다. In addition, there is a growing demand for realism in the field of 3D games and animation in keeping with these developments. Therefore, it is necessary to study various technologies that satisfy this. Currently, motion capture technology is used in medicine, engineering, etc., and it is widely used in entertainment fields such as movies and games. In particular, motion capture has been utilized so that it can be used in movies and enjoy dramatic and realistic games in games.
한편, 이하에서 인용되는 선행기술 문헌에는 모션캡쳐 시스템을 활용하여 게임 캐릭터 애니메이션을 생성하는 기술을 소개하고 있다. 모션캡쳐 장비 및 사용 소프트웨어에 따라 약간의 차이가 있으나 일반적인 작업 과정은 캐릭터를 모델링하기, 모션캡쳐 데이터 획득, 모션 데이터 편집 및 후처리, 캐릭터 모델에 모션 데이터를 연결하기 등의 순서로 이루어진다. 하지만, 이러한 종래의 모션캡쳐 시스템은 다수의 캐릭터를 다룰 경우, 캐릭터 간의 관계(relation)를 고려하지 않으므로 동작이 부자연스럽고, 수행중인 단위 동작이 끝날 때까지 다른 외부 자극이나 사용자의 입력 신호에 즉각적인 반응을 나타낼 수 없었다.On the other hand, the prior art cited below introduces a technique for generating a game character animation using a motion capture system. Although there are some differences according to the motion capture device and the used software, the general work process is performed in order of modeling the character, acquiring the motion capture data, editing and post-processing the motion data, and connecting the motion data to the character model. However, in the conventional motion capture system, when a plurality of characters are handled, the operation is unnatural because the relation between the characters is not taken into account, and an external stimulus or an immediate response to a user's input signal .
이와 같은 관점에서, 모션캡쳐를 통해 다수의 캐릭터를 모델링 하기 위해서는 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계(spatial relation)를 고려하여 생성하는 기술적 수단이 필요하다는 사실을 알 수 있다.From such a viewpoint, it can be seen that a technical means for generating a motion of a plurality of characters in consideration of a spatial relation between a physical rule and a character is necessary to model a plurality of characters through motion capture.
따라서, 본 발명이 해결하고자 하는 첫 번째 과제는 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계를 고려하여 생성할 수 있는 방법을 제공하는 것이다.Accordingly, a first object of the present invention is to provide a method of generating an action of a plurality of characters in consideration of a physical relationship between a physical rule and a character.
본 발명이 해결하고자 하는 두 번째 과제는 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계를 고려하여 생성할 수 있는 장치을 제공하는 것이다.A second problem to be solved by the present invention is to provide a device capable of generating an action of a plurality of characters in consideration of a physical relationship between a physical rule and a character.
본 발명의 첫 번째 과제를 달성하기 위하여, 모션캡쳐(motion capture)된 두 캐릭터(character)의 동작데이터를 입력받는 단계; 상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델(inverted pendulum model)로 맵핑(mapping)하는 단계; 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조(reference) 경로를 획득하는 단계; 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이(translation)시키는 단계; 및 상기 전이된 움직임을 추적(tracking)함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링(modeling) 하는 방법을 제공한다.In order to accomplish the first object of the present invention, there is provided a method of operating a mobile terminal, comprising the steps of: receiving motion data of two characters captured with motion capture; Mapping the operation data to an inverted pendulum model so that the spatial relationship of the two characters is maintained; Obtaining a reference path for controlling the operation of the two characters from the operation data and the inverted pendulum model; Translating the reference path into motion of the two characters in consideration of the state of the inverted pendulum model; And generating a real-time motion of the two characters by tracking the transitional movement. The present invention also provides a method of modeling a character.
본 발명의 일 실시예에 의하면, 상기 두 캐릭터 각각에 대한 역진자 모델이 일정 거리를 유지하도록 탄성적으로 상호 연결(coupled)되어 맵핑됨으로써, 상기 두 캐릭터의 공간적 관계가 유지 되도록 하는 것을 특징으로 하는 캐릭터를 모델링 하는 방법일 수 있다.According to an embodiment of the present invention, an inverted pendulum model for each of the two characters is resiliently coupled and mapped so as to maintain a predetermined distance, thereby maintaining a spatial relationship between the two characters It can be a way to model a character.
또한, 상기 참조 경로를 획득하는 단계는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터(parameter)를 획득하는 단계; 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하는 단계; 및 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.The obtaining of the reference path may include obtaining a control parameter including direction components of the inverse pendulum model for the two characters; Obtaining a path parameter for moving the inverted pendulum model from the control parameter in the same pattern as the operation data; And obtaining the reference path based on the path parameter.
본 발명의 다른 실시예에 의하면, 상기 제어 파라미터는, 상대방을 바라보는 방향을 정면백터(facing vector)로 지정하며, 상대방을 회피하려는 방향을 회피백터(avoiding vector)로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수(coefficient)로부터 획득되는 것을 특징으로 하는 캐릭터를 모델링 하는 방법일 수 있다.According to another embodiment of the present invention, the control parameter designates a direction in which the other party is viewed as a facing vector, and a direction in which the other party is to be avoided is designated as an avoiding vector, And is obtained from a coefficient of the avoiding vector.
본 발명의 또 다른 실시예에 의하면, 상기 경로 파라미터를 획득하는 단계는, 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하는 단계; 및 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.According to another embodiment of the present invention, the step of acquiring the path parameter includes: setting a difference between the motion data of the two motion-captured characters and the inverted pendulum model as an objective function; And obtaining the path parameter from a value derived based on the objective function.
본 발명의 또 다른 실시예에 의하면, 상기 참조 경로를 움직임으로 전이시키는 단계는, 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 변형 시키는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다.According to another embodiment of the present invention, the step of transitioning the reference path to motion may be a method of modeling the character including the step of deforming the reference path to correspond to the center of gravity of the inverse pendulum model.
본 발명의 또 다른 실시예에 의하면, 상기 실시간 동작을 생성하는 단계는,상기 두 캐릭터에 대한 관절 각도를 추적하며, 상기 추적을 통해 관절을 제어함으로써, 상기 두 캐릭터에 대한 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링 하는 방법일 수 있다. According to another embodiment of the present invention, the step of generating the real-time motion may comprise the steps of: tracking joint angles for the two characters, controlling the joints through the tracking, As shown in FIG.
본 발명의 두 번째 과제를 달성하기 위하여, 모션캡쳐된 두 캐릭터의 동작데이터를 입력받는 입력부; 상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델로 맵핑 하고, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득하며, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 전이 시키는 처리부; 및 상기 전이된 움직임에 대한 상기 두 캐릭터의 관절 각도를 추적함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 생성부를 포함하되, 상기 처리부는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터를 획득하고, 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하며, 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치를 제공한다.In order to accomplish the second object of the present invention, there is provided an apparatus comprising: an input unit for receiving motion data of two motion-captured characters; Mapping the operation data to an inverted pendulum model so as to maintain a spatial relationship between the two characters, obtaining a reference path capable of controlling operations of the two characters from the operation data and the inverted pendulum model, A processing unit for shifting the reference path to correspond to the center of gravity of the inverted pendulum model in consideration of the state; And a generation unit for generating a real-time motion of the two characters by tracking joint angles of the two characters with respect to the transitioned motion, wherein the processing unit is configured to generate a control parameter including a direction component of the inverse pendulum model for the two characters Obtains a path parameter for moving the inverted pendulum model from the control parameter in the same pattern as the operation data, and obtains the reference path based on the path parameter. do.
본 발명의 일 실시예에 의하면, 상기 처리부는, 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치일 수 있다.According to an embodiment of the present invention, the processing unit sets the difference between the motion data of the two motion-captured characters and the inverted pendulum model as an objective function, and obtains the path parameter from a value derived based on the objective function The character modeling apparatus may be a character modeling apparatus.
또한, 상기 제어 파라미터는, 상대방을 바라보는 방향을 정면백터로 지정하며, 상대방을 회피하려는 방향을 회피백터로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수로부터 상기 제어 파라미터를 획득할 수 있는 것을 특징으로 하는 캐릭터 모델링 장치일 수 있다.It is also possible that the control parameter specifies the direction in which the other party is viewed by the front vector and the direction in which the other party is to be avoided by the avoidance vector so as to obtain the control parameter from the coefficients of the front vector and the avoiding vector And a character modeling device.
본 발명에 따르면, 두 캐릭터에 대한 모션캡쳐 데이터를 역진자 모델로 맵핑하고, 모션캡쳐 데이터와 역진자 모델로부터 참조 경로를 획득하며, 역진자 모델의 상태를 고려하여 참조 경로를 두 캐릭터의 움직임으로 전이시킴으로써, 움직임을 추적하여 상호작용하는 두 캐릭터의 동작을 생성할 수 있다. 또한, 두 캐릭터에 대한 방향 성분이 포함된 제어 파라미터를 획득하고, 제어 파라미터로부터 경로 파라미터를 획득하며, 경로 파라미터에 기초하여 참조 경로를 획득함으로써, 참조 경로를 고려하여 상호작용하는 두 캐릭터의 동작을 생성할 수 있다.According to the present invention, the motion capture data for two characters is mapped to an inverted pendulum model, the reference path is obtained from the motion capture data and the inverted pendulum model, and the reference path is defined as the movement of the two characters By transitioning, it is possible to track the movement and generate the actions of two interacting characters. Further, by obtaining the control parameters including the direction components for the two characters, obtaining the path parameters from the control parameters, and obtaining the reference paths based on the path parameters, the operations of the two characters interacting in consideration of the reference path Can be generated.
도 1은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 방법을 도시한 흐름도이다.
도 2는 본 발명의 다른 실시예에 따른 참조 경로를 획득하는 방법을 도시한 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 역진자 모델의 제어 파라미터를 도시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 경로 데이터와 역진자 모델로부터 경로 파라미터를 획득하는 과정을 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 경로 파라미터에 기초하여 획득한 참조 경로를 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 동작 계획의 과정을 도시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 기구학적 맵핑의 과정을 세부적으로 도시한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 동작을 분석하는 과정을 세부적으로 도시한 도면이다.
도 9는 본 발명의 다른 실시예에 따른 동작을 생성하는 과정을 세부적으로 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 캐릭터 모델링 장치를 도시한 블럭도이다.1 is a flow chart illustrating a method for generating an action of two interacting characters in accordance with an embodiment of the present invention.
2 is a flow chart illustrating a method for obtaining a reference path in accordance with another embodiment of the present invention.
3 is a diagram showing control parameters of an inverted pendulum model according to another embodiment of the present invention.
4 is a diagram illustrating a process of obtaining path parameters from path data and an inverted pendulum model according to another embodiment of the present invention.
5 is a view showing reference paths obtained based on path parameters according to another embodiment of the present invention.
FIG. 6 is a diagram illustrating a process of an action plan for creating an action of two interacting characters according to another embodiment of the present invention.
FIG. 7 is a detailed view illustrating a process of kinematic mapping for generating an operation of two interacting characters according to another embodiment of the present invention.
8 is a detailed view illustrating a process of analyzing an operation according to another embodiment of the present invention.
9 is a detailed view illustrating a process of generating an operation according to another embodiment of the present invention.
FIG. 10 is a block diagram illustrating a character modeling apparatus for generating an action of two interacting characters according to an embodiment of the present invention.
본 발명의 실시예들을 설명하기에 앞서, 기존의 모델 캡쳐를 이용하여 다수의 캐릭터의 동작을 실시간으로 생성할 때 발생하는 문제점들을 검토한 후, 이들 문제점을 해결하기 위해 본 발명의 실시예들이 채택하고 있는 기술적 수단을 개괄적으로 소개하도록 한다.Prior to describing the embodiments of the present invention, after investigating the problems that arise when generating the operations of a plurality of characters in real time using the existing model capture, the embodiments of the present invention This section provides a general introduction to the technical means that
기존의 모션캡쳐를 이용하여 두 캐릭터의 동작을 생성하는 방법은, 각각의 캐릭터의 동작을 작은 세부 단위 동작들로 자르고, 상기 잘려진 단위 동작을 연결하여 동작을 생성하는 것이 일반적인 방법이다. 여기서, 상기 세부 단위 동작들은 발차기를 예로 들어, 디딤발 딛기, 발 올리기, 발 내리기, 및 제자리로 돌아오기로 나눠질 수 있다. 하지만, 두 캐릭터의 동작 생성의 경우에는 하나의 캐릭터뿐만이 아니라 상대 캐릭터의 동작까지도 함께 고려하여 동작을 생성해야 한다. 따라서, 하나의 단위 동작에서 다른 단위 동작으로의 변화가 다양하게 이루어지지 않고, 동일한 패턴의 동작을 반복하는 경향을 보이게 됨으로써, 다양한 동작을 생성하기 어렵다. 또한, 하나의 단위 동작에서 다른 단위 동작으로의 변화를 다양하게 하기 위해 동일하지 않은 상황의 두 동작을 임의로 붙이게 되면, 물리적으로 불가능한 동작들을 생성하여 캐릭터의 동작이 부자연스러워 보이게 된다. 더불어, 반응 속도 측면에서도 현재 선택되어 수행중인 단위 동작이 있으면, 수행중인 단위 동작이 끝날 때까지 다른 외부 자극이나 사용자의 입력 신호에 즉각적인 반응을 보일 수 없게 된다.The conventional method of generating motion of two characters using motion capture is a general method in which the motion of each character is cut into small unit operations and the motion is generated by connecting the cut motion. Herein, the sub-unit operations can be divided into steps of kicking, stepping, kicking, kicking, and returning to the place, for example. However, in the case of creating an action for two characters, it is necessary to create an action by considering not only one character but also the action of the other character. Therefore, the variation from one unit operation to another unit operation does not vary, and it tends to repeat the same pattern operation, so that it is difficult to generate various operations. In addition, if two operations in a non-identical state are arbitrarily given in order to vary the variation from one unit operation to another, the operations of the character appear unnatural by generating physically impossible operations. In addition, in terms of the reaction rate, if there is currently selected unit operation being performed, it will not be possible to immediately react to another external stimulus or user's input signal until the unit operation is completed.
기존의 물리모델을 이용한 캐릭터 애니메이션의 경우 역시, 다수의 캐릭터를 다룰지라도 각각의 캐릭터 간의 관계(relation)를 고려하지 않았다. 즉, 두 캐릭터의 동작에 대한 물리 법칙과 캐릭터 간의 공간 관계(spatial relation)를 고려하여 두 캐릭터의 동작을 생성하는 기술적 수단이 현재까지는 없는 상태이다. 또한, 물리 모델과 모션캡쳐 동작을 동시에 이용하여 캐릭터 애니메이션을 하는 기존 연구에서는 걷거나, 뛰는 동작 등의 자유도(DOF: Degree of freedom)가 낮은 동작을 주로 다루어 왔으며, 각각의 캐릭터 사이의 관계에 대한 모델링이 고려되지 않았다.In the case of the character animation using the existing physical model, the relation between the respective characters is not considered, even if the character is handled. In other words, there is no technical means for generating the motion of the two characters considering the spatial relation between the physical laws and the characters of the two characters. In addition, existing researches that use character modeling and motion capture simultaneously have been dealing with low degrees of freedom (DOF), such as walking and running, Modeling was not considered.
따라서, 본 발명은 모션캡쳐된 동작 데이터로부터 다수 캐릭터의 동작을 물리 법칙과 캐릭터 간의 공간 관계를 고려하여 생성할 수 있는 기술적 수단을 제안하고자 한다.Accordingly, the present invention proposes a technical means for generating an operation of a plurality of characters from the motion-captured motion data in consideration of a spatial relation between a physical rule and a character.
이하에서는 도면을 참조하여 본 발명의 실시예들을 구체적으로 설명하도록 한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.
도 1은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 방법을 도시한 흐름도로서, 적어도 하나의 프로세서(processor)를 포함한 캐릭터 모델링 장치에 의해 수행될 수 있다.FIG. 1 is a flow chart illustrating a method of generating an action of two interacting characters according to an embodiment of the present invention, and may be performed by a character modeling apparatus including at least one processor.
S110 단계에서, 모션캡쳐(motion capture)된 두 캐릭터의 동작 데이터를 입력받는다.In operation S110, the motion data of the two characters captured by motion capture is input.
보다 구체적으로, 모션캡쳐 시스템을 통해 실시간으로 동작을 생성하고자 하는 캐릭터의 동작을 캡쳐함으로써, 상기 모션캡쳐로부터 도출된 동작 데이터를 입력 받는다.More specifically, motion data derived from the motion capturing is received by capturing an operation of a character who wants to generate an motion in real time through a motion capture system.
여기서, 실시간 동작을 캡쳐 하는데 사용되는 상기 모션캡쳐 방법에는 음향식, 기계식, 자기식, 및 광학식이 있다. 동작 캡쳐의 각 기법을 구별 짓는 요인들로는 데이터의 정확도, 샘플링 속도, 연기자에게 허용되는 동작의 자유 각도, 샘플링 포인트의 수, 및 동시에 캡쳐할 수 있는 모션캡쳐할 수 있는 연기자의 수 등이 있을 수 있다.Here, the motion capture methods used to capture real-time motion include acoustic, mechanical, magnetic, and optical. Factors that distinguish each technique of motion capture include the accuracy of the data, the sampling rate, the degree of freedom of motion allowed to the actor, the number of sampling points, and the number of actors capable of capturing simultaneously motion capture .
상기 음향식 모션캡쳐(Acoustic motion capture)는, 초음파 발생장치와 3개의 수신 장치로 구성된 장비를 연기자의 각 관절에 부착시킨 후 각 장치에서 발생한 초음파가 수신 장치에 수신되기까지 걸린 시간과 이때의 소리속도를 이용해 발생장치에서 수신 장치까지의 거리를 계산한다. 여기서, 각 전송 장치의 3차원 공간상의 위치는 3개의 수신 장치에서 각각 계산된 값을 이용하여 구할 수 있다.The acoustic motion capture is a process of attaching equipment consisting of an ultrasonic wave generating device and three receiving devices to each joint of a performer and then measuring the time taken for the ultrasonic waves generated in each device to be received by the receiving device, The speed is used to calculate the distance from the generator to the receiver. Here, the positions on the three-dimensional space of each transmission apparatus can be obtained by using the values calculated by the three reception apparatuses.
상기 기계식 모션캡쳐(Mechanic motion capture)는 연기자의 관절 움직임을 측정하기 위한 전위차계(Potentiometer)와 슬라이더(Slider)의 복합체로 구성되어 있다. 상기 기계식 모션캡쳐 시스템은 자기장이나 원하지 않는 반사 등으로 인한 영향을 받지 않는 절대적인 측정 장치이다. 따라서, 초기 셋업(Calibration) 과정이 거의 필요 없으며 매우 높은 샘플링 빈도로 동작 데이터를 획득할 수 있다는 장점이 있다. 그러나, 이 시스템은 매우 부담이 되는 기계장치를 연기자의 몸에 부착해야 하므로, 상기 연기자의 자연스러운 동작을 연출할 수 없고, 기계 장치가 연기자의 각 관절에 얼마나 정확하게 위치했는지에 따라 동작 데이터의 정확도가 달라진다는 단점이 있을 수 있다. 따라서, 상기 기계식 모션캡쳐는 기존의 애니메이션 제작기술인 키프레임 방식 및 동작제어 방식과 함께 사용되어 키프레임(Key frame)이나 스텝 동작의 생성에 이용될 수 있다.Mechanic motion capture is a composite of a potentiometer and a slider to measure the motion of the actor's joints. The mechanical motion capture system is an absolute measurement device that is not affected by magnetic fields or unwanted reflections. Therefore, there is an advantage that the initial set-up (calibration) process is hardly required and operation data can be obtained with a very high sampling frequency. However, this system can not produce the natural action of the actor, because it requires attaching a very burdensome machine to the actor's body, and the accuracy of the motion data varies depending on how precisely the machine is positioned in each joint of the actor May have disadvantages. Therefore, the mechanical motion capturing can be used together with a key frame method and an operation control method, which are known animation production techniques, and can be used to generate a key frame or a step operation.
상기 자기식 모션캡쳐(Magnetic motion capture)는 연기자의 각 관절 부위에 자기장을 계측할 수 있는 센서를 부착하고 자기장 발생장치 근처에서 연기자가 움직일 때 각 센서에서 측정하는 자기장의 변화를 다시 공간적인 변화량으로 계산하여 움직임을 측정하는 방식이다. 여기서, 각 센서와 자기장 발생장치 및 본체는 케이블로 연결되어 있다. 상기 자기식 모션캡쳐는 가격이 저렴하고, 운용이 쉽고 장비 자체 외의 시설 투자가 필요 없다는 장점을 갖는다. 또한, 필요한 숫자만큼 센서를 구입하여 사용하게 되므로 불필요한 투자를 하지 않아도 된다. 반면, 상기 자기식 모션캡쳐 시스템의 경우 가장 큰 단점은 센서를 연기자의 몸에 부착할 시에 발생되는 센서 본체와 연결된 수많은 케이블로 인한 문제이다. 상기 케이블들은 연기자의 동작에 제한을 주고 이것으로 인해 복잡하고 빠른 움직임을 자연스럽게 표현하는 것을 불가능하게 한다. 몇몇 회사들은 케이블이 필요 없는 무선 자기식 모션캡쳐 시스템을 개발하여 판매하고 있지만 역시 연기자의 신체에 송신기를 부착하지 않으면 안되는 단점을 갖고 있다. 따라서, 상기 자기식 모션캡쳐는 간단한 동작 등을 캡쳐 하는데 적당하다.In the magnetic motion capture, a sensor capable of measuring a magnetic field is attached to each joint of the actor, and when the actor moves near the magnetic field generator, And calculating the motion. Here, each of the sensors, the magnetic field generator, and the main body are connected by a cable. The magnetic motion capture is advantageous in that it is inexpensive, easy to operate, and requires no facility investment other than the equipment itself. In addition, unnecessary investment is not required because the necessary number of sensors are purchased and used. On the other hand, in the case of the magnetic motion capture system, the biggest drawback is a problem due to a large number of cables connected to the sensor body when attaching the sensor to the actor's body. The cables limit the actor's motion and make it impossible to express complex and fast movements naturally. Some companies have developed and marketed wireless magnetic motion capture systems that do not require a cable, but they also have the disadvantage of having to attach a transmitter to the performer's body. Therefore, the magnetic motion capture is suitable for capturing a simple operation or the like.
상기 광학식 모션캡쳐(Optical motion capture)는 빛, 카메라, 및 반사점(Reflective dots)을 이용하여 3차원 공간에서 동작의 위치를 결정한다. 즉, 상기 광학식 모션캡쳐는 연기자의 몸에 부착된 캡쳐 센서로부터 정보를 읽어 들이는 카메라들을 설치하고, 상기 캡쳐 센서들이 2차원 위치를 제공하면, 모션캡쳐 소프트웨어가 3D 데이터로 계산한다. 상기 광학식 모션캡쳐의 장점은 상기 자기식 모션캡쳐와 달리 금속에 의해 영향을 받지 않고, 동작에 제한이 없어 자유로울 뿐 아니라 2명 이상이 연기할 경우 편리하며, 스포츠 선수의 동작과 같이 매우 빠른 움직임 등을 캡쳐할 때도 유용하다. 또한, 연기자에게 부착되는 마커의 크기가 작고 케이블로도 연결되지 않으며 개수가 제한되지 않아 연기자가 움직임을 수행하는 동안 자유로움을 제공하며, 움직임의 아주 미세한 묘사까지도 가능하게 할 수 있다. 상기 광학식 모션캡쳐는 상기 음향식, 기계식, 및 자기식 모션캡쳐와 비교하여 넓은 범위에서 캡쳐가 가능하며, 캡쳐 정밀도의 면에서도 높다. 반면, 상기 광학식 모션캡쳐는 센서들이 카메라들이 추적할 수 없게 가려지는 경우 동작 데이터를 놓치는 현상이 발생할 수 있다. 상기 동작 데이터를 놓칠 경우 3차원 좌표를 얻는 것이 불가능하고, 상기 3차원 좌표를 얻는 것이 불가능할 경우 많은 사후 처리 과정을 필요로 하게 됨으로써, 실시간 처리가 불가능하게 되거나 모션캡쳐 과정을 더울 복잡하게 만들어 전체의 성능을 떨어 뜨리는 요인이 될 수 있다.The optical motion capture locates motion in three-dimensional space using light, camera, and reflex dots. That is, the optical motion capture installs cameras that read information from a capture sensor attached to the body of the actor, and when the capture sensors provide a two-dimensional position, the motion capture software calculates 3D data. Unlike the magnetic motion capturing, the optical motion capturing is advantageous not only because it is not affected by the metal, but because there is no restriction on the motion, it is convenient when two or more people are acting, It is also useful for capturing. Also, since the size of the marker attached to the actor is small, it is not connected to the cable, and the number is not limited, the actor can freely move while performing the motion, and even the minute description of the motion can be made possible. The optical motion capture is capable of capturing in a wide range as compared with the acoustic, mechanical, and magnetic motion capturing, and is also high in terms of capture accuracy. On the other hand, the optical motion capture may cause the motion data to be missed when the sensors are blocked from being tracked by the cameras. It is impossible to obtain the three-dimensional coordinates when the operation data is missed, and when it is impossible to obtain the three-dimensional coordinates, a large number of post-processing steps are required, so that the real-time processing becomes impossible or complicates the motion capturing process. This can be a factor in performance degradation.
S110 단계에서 모션캡쳐된 두 캐릭터의 동작데이터를 입력받음에 있어서, 상기 모션캡쳐에 사용된 방법은 음향식, 기계식, 자기식, 및 광학식의 모션캡쳐 방법 중 한가지의 방법으로 제한되지 않으며, 음향식, 기계식, 자기식, 및 광학식의 모션캡쳐 방법 모두 사용할 수 있다.In the step of receiving the motion data of the two characters captured in step S110, the method used for the motion capture is not limited to one of the methods of the acoustic, mechanical, magnetic, and optical motion capturing methods, , Mechanical, magnetic, and optical motion capture methods.
S120 단계에서 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델(inverted pendulum model)로 맵핑(mapping)한다.The operation data is mapped to an inverted pendulum model so that the spatial relationship between the two characters is maintained in step S120.
보다 구체적으로, S110 단계에서 입력받은 동작데이터를 상기 두 캐릭터 각각에 대한 역진자 모델이 일정 거리를 유지하도록 탄성적으로 상호 연결(coupled)되어 맵핑됨으로써, 상기 두 캐릭터의 공간적 관계가 유지 되도록 한다. More specifically, the operation data input in operation S110 are resiliently coupled and mapped so that the inverted pendulum models for the two characters maintain a predetermined distance, thereby maintaining the spatial relationship between the two characters.
여기서, 상기 역진자 모델은 상기 캐릭터의 전체 질량에 해당하는 총 질량 중심을 나타내는 무게중심(COM: center of mass)을 구하고, 상기 무게중심을 이용하여 보행 동역학식을 점질량에 대한 운동 방정식으로 단순화시킨 모델일 수 있다. 역진자 모델을 사용하여, 캐릭터 또는 로봇의 동작을 생성할 수 있으며, 상기 역진자 모델은 주변의 방해 작용이 있더라도 균형을 유지할 수 있다. 상기 균형을 유지할 수 있는 특징은 사람이 균형을 유지하는 모습과 흡사하며, 캐릭터 혹은 로봇의 걷거나 뛰는 동작을 상기 역진자 모델로 표현함으로써, 걷거나 뛰면서 중심을 잡는 행동 등에 사용할 수 있다. 하지만, 종래의 역진자 모델은 일반적으로 걷는 행동 등의 단순한 동작에 사용되었으며, 캐릭터의 동작을 역진자 모델로 맵핑할 경우 무게중심과 ZMP(zero movement point)를 사용하였다. 하지만, 상기 ZMP를 사용할 경우 캐릭터의 두 발이 땅에 붙어 있지 않으면, 상기 캐릭터의 동작에 대한 정의가 되지 않는 단점이 있다. 따라서, 본 발명은 모션캡쳐된 동작데이터를 역진자 모델로 맵핑함에 있어서, 기존의 상기 무게중심과 상기 ZMP를 사용하지 않고, 상기 무게중심과 모멘텀(momentum)을 사용함으로써, 상기 캐릭터의 두 발이 땅에서 떨어진 상황에서도 상기 캐릭터의 움직임을 정의할 수 있다. 또한, 상기 무게중심과 상기 ZMP를 사용하여 역진자 모델을 생성함으로써, 상기 두 캐릭터가 상호작용을 하는 다양한 동작을 생성하고 상기 두 캐릭터가 물리법칙에 위배 되지 않도록 다양한 패턴의 동작을 생성할 수 있다. Here, the inverse pendulum model obtains a center of mass (COM) representing a total mass center corresponding to the total mass of the character, and simplifies the gait kinematical expression as an equation of motion for the point mass using the center of gravity . By using the inverted pendulum model, an operation of a character or a robot can be generated, and the inverted pendulum model can maintain a balance even if there is an obstructing action in the vicinity. The characteristic that can maintain the above balance is similar to a state in which a person maintains a balance, and can be used for walking or running and centering action by expressing a walking or running motion of a character or a robot using the inverted pendulum model. However, the conventional inverted pendulum model is generally used for simple motion such as walking behavior, and the center of gravity and zero movement point (ZMP) are used for mapping the character's motion to the inverted pendulum model. However, when the ZMP is used, there is a disadvantage in that it is not possible to define the behavior of the character unless the two feet of the character are attached to the ground. Accordingly, in the present invention, when the motion-captured motion data is mapped to the inverted pendulum model, the center of gravity and the momentum are used without using the existing center of gravity and the ZMP, It is possible to define the movement of the character even in a situation where the player is away from the player. In addition, by generating an inverse pendulum model using the center of gravity and the ZMP, various operations can be generated in which the two characters interact with each other, and various patterns of operations can be generated such that the two characters do not violate the physical laws .
S130 단계에서, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득한다.In step S130, a reference path capable of controlling the operations of the two characters is obtained from the operation data and the inverted pendulum model.
보다 구체적으로, S110 단계에서 입력받은 동작데이터와 S120 단계에서 생성된 역진자 모델로부터 상기 두 캐릭터의 참조 경로를 획득하며, 상기 참조 경로를 획득하는 것은 이하에서 도 2를 통해 설명하고자 한다.More specifically, the reference path of the two characters is obtained from the operation data input in step S110 and the inverted pendulum model generated in step S120, and obtaining the reference path will be described with reference to FIG.
도 2는 본 발명의 다른 실시예에 따른 참조 경로를 획득하는 방법을 도시한 흐름도이다.2 is a flow chart illustrating a method for obtaining a reference path in accordance with another embodiment of the present invention.
S210 단계에서, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터(parameter)를 획득한다. 여기서, 상기 제어 파라미터는 이하에서 도 3을 통해 설명하고자 한다.In step S210, a control parameter including the direction component of the inverse pendulum model for the two characters is obtained. Here, the control parameters are described below with reference to FIG.
도 3은 본 발명의 다른 실시예에 따른 역진자 모델의 제어 파라미터를 도시한 도면이다.3 is a diagram showing control parameters of an inverted pendulum model according to another embodiment of the present invention.
보다 구체적으로, 두 캐릭터에 대한 각각의 역진자 모델이 서로 직면한다고 가정할 때, 상대방을 바라보는 방향을 정면백터(facing vector)(33)로 지정하며, 상대방을 회피하려는 방향을 회피백터(avoiding vector)(34)로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수(coefficient)로부터 상기 제어 파라미터를 획득할 수 있다. 여기서, 제 1 역진자 모델(31)이 제 2 역진자 모델(32)을 바라보는 정면백터(33)가 이고, 제 1 역진자 모델(31)이 제 2 역진자 모델(32)을 회피하는 회피백터(34)가 이고, 제 2 역진자 모델(32)이 제 1 역진자 모델(31)을 바라보는 정면백터(33)가 이고, 제 2 역진자 모델(32)이 제 1 역진자 모델(31)을 회피하는 회피백터(34)가 이고, normalize가 백터에 대한 정규화이고, 이 제 1 역진자 모델(31)의 무게중심이고, 이 제 2 역진자 모델(32)의 무게중심이고, 는 Y축를 표현한 유닛 백터로서 바닥으로부터 수직 성분 백터일때, 지역 좌표(Local coordinate)는 다음과 같이 표현할 수 있다.More specifically, when it is assumed that the inverse pendulum models of the two characters face each other, the direction of looking at the other is designated as a facing vector 33, and the direction of avoiding the other is designated as avoiding vector vector (34), the control parameter can be obtained from the coefficients of the front vector and the avoidance vector. Here, the front inverters 33, in which the first
또한, 가 제 1 역진자 모델(31)의 속도이고, 가 제 2 역진자 모델(32)의 속도이고, , 이 제 1 역진자 모델(31)의 방향 파라미터이고, , 이제 2 역진자 모델(32)의 방향 파라미터일 때, 제 1 역진자 모델(31)과 제 2 역진자 모델(32)에 대한 속도를 구하는 것은 다음과 같이 표현할 수 있다.Also, Is the velocity of the first
이제 다시 도 2로 돌아가 S210 단계 이후를 설명하도록 한다.Returning now to FIG. 2, step S210 and subsequent steps will be described.
S220 단계에서, S210 단계의 제어 파라미터로부터 모션캡쳐된 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득한다. 역기서, 상기 경로 파라미터를 획득하는 과정은 이하에서 도 4를 통해 설명하도록 한다.In step S220, a path parameter for moving the inverted pendulum model in the same pattern as the motion-captured motion data is obtained from the control parameter in step S210. The process of obtaining the path parameter in the reverse direction will be described with reference to FIG.
도 4는 본 발명의 다른 실시예에 따른 경로 데이터와 역진자 모델로부터 경로 파라미터를 획득하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of obtaining path parameters from path data and an inverted pendulum model according to another embodiment of the present invention.
보다 구체적으로, 모션캡쳐된 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하기 위하여 공간관계모델(spatial relation model)을 통해 경로 파라미터를 획득할 수 있다. 여기서, 공간관계모델은 상기 역진자 모델의 움직임을 표현할 수 있고, 상기 역진자 모델 간의 관계를 표현하고, 캐릭터 포즈에 대한 균형을 표현하며, 캐릭터에 대한 풋스텝의 변화를 표현할 수 있다.More specifically, the path parameter may be obtained through a spatial relation model to move the inverted pendulum model in the same pattern as the motion-captured motion data. Here, the spatial relationship model can express the motion of the inverted pendulum model, express the relationship between the inverted pendulum models, express the balance of the character pose, and express the change of the foot step with respect to the character.
또한, 가 제 1 캐릭터(43)에 대한 무게중심이고, 가 제 2 캐릭터(44)에 대한 무게중심이고, 가 제 1 역진자 모델(31)의 무게중심이고, 가 제 2 역진자 모델(32)의 무게중심이고, 가 이고, 가 이고, 는 제 1 캐릭터가 제 2 캐릭터를 바라보는 성분에 수직한 방향으로의 속도, 즉 두 캐릭터 사이의 각속도를 의미하고, 이 각속도는 로 회피방향의 속도와 제 2 캐릭터와의 거리를 사용하여 계산되고, 는 제 1 역진자가 제 2 역진자를 바라보는 성분에 수직한 방향으로의 속도, 즉 두 캐릭터 사이의 각속도를 의미하고, 로 회피방향의 속도와 제 2 역진자와의 거리를 사용하여 계산되고, 를 1이라 가정하고, 가 이고, 가 일 때, 모션캡쳐된 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하기 위한 공간관계모델은 다음과 같이 표현할 수 있다.Also, Is the center of gravity for the
이제 다시 도 2로 돌아가 S220 단계 이후를 설명하도록 한다.Now return to FIG. 2 again to explain step S220 and subsequent steps.
S230 단계에서, S220 단계에서 획득한 경로 파라미터에 기초하여 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득한다. 여기서, 상기 참조 경로를 획득하는 것은 이하에서 도 5를 통해 설명하도록 한다.In step S230, based on the path parameters acquired in step S220, a reference path capable of controlling the operations of the two characters is obtained. Here, obtaining the reference path will be described with reference to FIG.
도 5는 본 발명의 다른 실시예에 따른 경로 파라미터에 기초하여 획득한 참조 경로를 도시한 도면이다.5 is a view showing reference paths obtained based on path parameters according to another embodiment of the present invention.
보다 구체적으로, 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 참조 경로를 획득할 수 있다. 여기서 상기 목적함수는 상기 역진자모델의 무게 중심이 이동하는 경로가 모션 캡쳐로부터 획득한 동작데이터의 무게중심의 경로와 유사하게 움직이도록 하는 상기 역진자 모델에 가해지는 상기 제어 파라미터를 획득하는 것을 목표로 한다. 상기 목표를 달성하기 위해 상기 두 캐릭터에 대한 역진자모델의 정면 방향과 회피하는 방향의 목표속도인 총 4개의 디멘션(dimension)파라미터를 변경해 가면서 상기 제어 파라미터에 가장 적합한 시간에 따라 변하는 파라미터를 찾음으로써 함으로써, 참조 경로를 획득할 수 있으며, 다음과 같이 표현할 수 있다.More specifically, the difference between the motion data of the two motion-captured characters and the inverted pendulum model may be set as an objective function, and the reference path may be obtained from a value derived based on the objective function. Wherein the objective function is to obtain the control parameter to be applied to the inverted pendulum model such that the path through which the center of gravity of the inverted pendulum model moves is similar to the path of the center of gravity of the operation data obtained from the motion capture, . In order to accomplish the above object, a total of four dimension parameters, which are target velocities of the inverse direction and the avoidance direction, of the inverted pendulum model for the two characters are changed, and a parameter which varies with time most suitable for the control parameter is found Thus, the reference path can be obtained and can be expressed as follows.
여기서, project는 y축으로의 프로젝션(projection)을 의미하며, argmin은 상기 목적함수의 결과인 에러값이 최소가 되게 하는 목표속도를 찾는 것일 수 있다.Here, project denotes projection on the y-axis, and argmin may be to find a target velocity that minimizes the error value resulting from the objective function.
이제 다시 도 1로 돌아가 S130 단계 이후를 설명하도록 한다.Returning now to FIG. 1, step S130 and subsequent steps will be described.
S140 단계에서, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이(translation)시킨다. 여기서, 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이시키는 것은 이하에서 도 6을 통해 설명하도록 한다.In step S140, the reference path is translated into the motion of the two characters in consideration of the state of the inverted pendulum model. Here, the transition of the reference path to the motion of the two characters will be described with reference to FIG.
도 6은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 동작 계획의 과정을 도시한 도면이다.FIG. 6 is a diagram illustrating a process of an action plan for creating an action of two interacting characters according to another embodiment of the present invention.
보다 구체적으로, 모션캡쳐된 동작데이터에 기초하여 맵핑된 역진자 모델의 상태를 고려하여 상기 역진자 모델이 상호작용하여 동작하도록 하는 참조 경로를 획득 할 수 있다. 이제, 상기 참조 경로를 기구학적 맵핑을 통해 상호작용하는 두 캐릭터의 경로를 획득할 수 있다. 여기서, 상기 기구학적 맵핑은 이하에서 도 7을 통해 설명하도록 한다.More specifically, it is possible to obtain a reference path that allows the inverted pendulum model to interact and operate based on the state of the inverted pendulum model mapped based on the motion-captured motion data. Now, the path of the two characters interacting through the kinematic mapping of the reference path can be obtained. Here, the kinematic mapping will be described with reference to FIG.
도 7은 본 발명의 다른 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하기 위한 기구학적 맵핑의 과정을 세부적으로 도시한 도면이다.FIG. 7 is a detailed view illustrating a process of kinematic mapping for generating an operation of two interacting characters according to another embodiment of the present invention.
보다 구체적으로, 스태핑 추정(stepping estimation)에서는 발을 딛는 위치를 추정할 수 있다. 상기 발을 딛는 위치를 추정하기 위해 모션캡처 데이터로부터 획득한 동작데이터에 대한 캐릭터의 발이 땅에 닿으면, 상기 캐릭터의 발이 땅에 닿을 때 상기 발의 움직임이 없으므로, 상기 역진자 모델과의 상대적 위치를 획득할 수 있다. 상기 획득한 발의 위치는 상기 생성된 역진자모델의 위치와 방향에 맞게 회전함으로써, 새로운 동작에서의 발을 딛는 위치를 생성할 수 있다. 이후, 연속적인 발의 위치를 생성하기 위해서 다음에 동일한 발이 다음 번에 딛는 위치를 고려하여 상기 다음 번에 딛는 위치의 발과 이전의 발의 위치인 그 사이를 연결함으로써, 연속적으로 발을 딛는 위치를 생성할 수 있다. 하지만, 만약 동작 생성시에 생성된 동작의 길이가 다음에 발을 딛는 위치가 나올 정도로 충분히 길지 않으면, 다음 발의 위치를 추출할 수 없게 될 수 있다. 또한, 다음 발의 위치를 추출하기 위해 생성되는 동작 데이터의 길이를 늘리게 되면 상대방과의 상호작용으로 인한 자세 변형 속도인 동작의 반응속도가 늦어지는 문제점이 발생할 수 있다. 상기의 문제점을 해결하기 위해 동작 분석단계에서 현재 추출한 발의 위치와 해당 발 다음 번에 딛는 시간을 함께 저장하고, 그 시간만큼 상기 역진자 모델을 더 움직여서 다음 발의 위치를 추정할 수 있다. 상기 추정하여 생성한 발의 위치를 맞게 하체의 역기구학(Inverse Kinematics)을 풀고, 상기 발 딛는 위치에 맞게 다리 관절의 위치를 획득할 수 있다.More specifically, stepping estimation can estimate the footing position. When the foot of the character with respect to the motion data acquired from the motion capture data for estimating the footing position does not move when the foot of the character touches the ground, the relative position with respect to the inverted pendulum model Can be obtained. The obtained foot position can be rotated in accordance with the position and direction of the generated inverted pendulum model, thereby generating a footing position in a new operation. Thereafter, in order to generate a continuous foot position, the position of the next foot is compared with the position of the previous foot, taking into consideration the position where the next foot is next, can do. However, if the length of the motion generated at the time of motion generation is not long enough to allow the next footing position to be reached, the position of the next foot may not be extracted. Further, if the length of the operation data generated for extracting the position of the next foot is increased, the reaction speed of the operation, which is the posture deformation speed due to the interaction with the other party, may be delayed. In order to solve the above problem, the position of the next foot can be estimated by storing the foot position currently extracted in the motion analysis step and the time that is next to the foot, and further moving the inverse pendulum model by that time. The inverse kinematics of the lower body can be released to match the position of the foot produced by the estimation, and the position of the leg joint can be obtained according to the position of the foot.
이제 다시 도 1로 돌아가 S140 단계 이후를 설명하도록 한다.Returning now to FIG. 1, step S140 and subsequent steps will be described.
S150 단계에서, S140 단계에서 전이된 움직임을 추적(tracking)함으로써 상기 두 캐릭터의 실시간 동작을 생성한다.In step S150, the real-time motion of the two characters is generated by tracking the moved motion in step S140.
보다 구체적으로, 상기 두 캐릭터에 대한 관절 각도를 추적하며, 상기 추적을 통해 관절을 제어함으로써, 상기 두 캐릭터에 대한 실시간 동작을 생성할 수 있다.More specifically, the joint angles for the two characters can be tracked, and the joints can be controlled through the tracking to generate real-time motion for the two characters.
또한, 도 1은 크게 동작을 분석하는 단계와 동작을 생성하는 단계로 나눌 수 있고, 상기 동작을 분석하는 단계에서는 모션캡쳐 장비로부터 두사람의 동작을 사용하여서 캡쳐한 동작을 본 발명이 제안한 물리 모델로 맵핑 함으로써, 커플링된 역진자 경로 생성기를 만드는 단계일 수 있다. 상기 동작 생성 단계는 상기 커플링된 경로 생성기로부터 실시간으로 역진자 모델들의 경로가 생성되면, 상기 역진자 경로에 맞게 캐릭터의 동작을 재구성하여 생성하는 단계일 수 있다. 여기서, 상기 동작을 분석하는 단계는 이하에서 도 8을 통해 상세하게 설명하도록 한다.In addition, FIG. 1 can be roughly divided into a step of analyzing an operation and a step of generating an operation, and in the step of analyzing the operation, an operation captured using motion of two persons from a motion capture device is referred to as a physical model proposed by the present invention Thereby creating a coupled inverted pendulum path generator. The operation generating step may be a step of reconstructing the motion of the character according to the inverted pendulum path when the path of the inverted pendulum models is generated in real time from the coupled path generator. Hereinafter, the step of analyzing the operation will be described in detail with reference to FIG.
도 8은 본 발명의 다른 실시예에 따른 동작을 분석하는 과정을 세부적으로 도시한 도면이다. 여기서, 커플링된 역진자 경로 생성기는 도 1의 S110 단계 내지 S120 단계와 대응될 수 있다.8 is a detailed view illustrating a process of analyzing an operation according to another embodiment of the present invention. Here, the coupled inverted pendulum path generator may correspond to steps S110 to S120 in FIG.
보다 구체적으로, 동작 분석 단계는 모션캡쳐 장비를 이용하여 두 사람의 동작 경로를 획득할 수 있다. 상기 획득한 두 사람의 캡쳐 동작은 무게중심, 모멘텀의 이동 경로에 대한 함수로의 분석을 통하여 역진자 모델로 맵핑될 수 있다. 여기서, 추가로 고려해야할 부분은 상기 두 사람의 동작을 다루기 때문에 분석한 상기 두 사람의 이동 경로는 상기 두 사람 간의 공간적 관계를 유지해야 한다. 따라서, 상기 두 사람 간의 공간적 관계를 유지하도록 상기 역진자 모델을 커플링 해주는 과정이 필요할 수 있다. More specifically, the motion analysis step can acquire the motion paths of two persons using the motion capture device. The obtained two-person capturing operation can be mapped to the inverted pendulum model through analysis as a function of the center of gravity and the movement path of the momentum. Here, since the part to be further considered deals with the operation of the two persons, the movement path of the two persons analyzed should maintain the spatial relationship between the two persons. Therefore, a process of coupling the inverted pendulum model to maintain the spatial relationship between the two persons may be required.
상기 역진자 모델은 두 개의 주요한 백터 성분을 사용할 수 있다. 첫 번째는 상대방을 바라보는 방향의 백터이고, 두 번째는 상대방과 정면으로 마주치지 않으려는 방향의 백터이며, 상기 백터들은 각각 정면백터와 회피백터라 정할 수 있다. 상기 정면백터와 상기 회피백터는 유닛 백터로서 방향 성분만 갖으며, 상기 정면백터와 상기 회피백터의 계수는 상기 커플링된 역진자 모델의 제어 파라미터이므로 상기 역진자 모델의 동작 패턴을 결정할 수 있다. 상기 파라미터는 상기 캡쳐된 동작과 상기 역진자 모델을 무게중심과 모멘텀의 차이를 목적함수로 설정함으로써 최적화 문제의 값을 도출하며, 상기 캡쳐 동작과 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 파라미터를 찾을 수 있다. 상기 캡쳐 동작과 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 파라미터를 찾는 과정을 통해 결과적으로 커플링된 역진자 모델의 경로를 실시간으로 생성하는 모듈을 만들 수 있고, 상기 모듈을 커플링된 역진자 경로 생성기라고 할 수 있다. 결론적으로, 상기 동작 분석 단계를 통해 제어하려는 상기 캐릭터의 동작의 참조가 되는 역진자 경로를 생성할 수 있다.The inverse pendulum model can use two major vector components. The first is the vector in the direction of looking at the other, the second is the vector in the direction of not facing the other side, and the vectors can be defined as front vector and avoid vector. The front vector and the avoidance vector have only directional components as a unit vector, and the coefficients of the front vector and the avoidance vector are control parameters of the coupled inverted pendulum model, so that the operation pattern of the inverted pendulum model can be determined. Wherein the parameter derives the value of the optimization problem by setting the captured motion and the inverse pendulum model as the objective function as the difference between the center of gravity and the momentum and sets a parameter for moving the inverse pendulum model in the same pattern as the capture motion Can be found. A module for generating a path of the coupled inverted pendulum model in real time through a process of finding a parameter for moving the inverted pendulum model in the same pattern as the capturing operation can be made, Path generator. As a result, an inverted pendulum path that is a reference of the motion of the character to be controlled can be generated through the motion analysis step.
상기 동작 생성 단계는 이하에서 도 9를 통해 설명하도록 한다.The operation generating step will be described below with reference to FIG.
도 9는 본 발명의 다른 실시예에 따른 동작을 생성하는 과정을 세부적으로 도시한 도면으로서, 커플링된 역진자 경로 생성기로부터 생성된 경로와 현재 역진자 모델의 상태를 고려하여 캐릭터의 동작을 맞춰주고, 상기 동작을 추적함으로써, 캐릭터 애니메이션을 하는 단계일 수 있다.9 is a detailed view illustrating a process of generating an action according to another embodiment of the present invention. The action of the character is adjusted in consideration of the path generated from the coupled inverted pendulum path generator and the state of the current inverted pendulum model , And performing the character animation by tracking the operation.
보다 구체적으로, 캡쳐된 동작데이터를 이용하여 두 캐릭터 행동에 대한 모션 그래프를 만들 수 있다. 상기 모션 그래프는 동작을 실시간으로 생성하고, 상기 생성된 동작은 상기 동작 분석 단계를 통해 획득한 역진자 모델의 무게중심에 맞춰서 전이시킬 수 있다. 여기서, 상기 캐릭터가 쓰러지지 않도록 균형을 유지하는 것이 중요하고, 균형을 유지하기 위해 상기 캐릭터가 발을 딛는 위치를 상황에 맞게 조절하는 것이 필요하다. 이때, 상기 상황은 상기 캐릭터의 몸이 기울어진 수치를 뜻하고, 상기 캐릭터의 몸이 기울어진 정도는 역진자 모델의 기울어진 수치를 측정함으로써 알 수 있다. 또한, 상기 캐릭터의 발자국은 상기 모션캡쳐 데이터로부터 획득할 수 있고, 상기 획득한 발자국에 맞게 캐릭터의 IK를 풀어서 상기 캐릭터의 하체 동작을 생성할 수 있다. 이제, 상기 모션 그래프에서 생성한 동작의 무게중심을 상기 역진자 모델의 무게중심에 맞게 할당해 주면, 상기 캐릭터의 동작 및 상기 동작에 따른 관절의 각도를 획득할 수 있다. 상기 관절 각도를 추적하여 상기 관절을 제어함으로써, 실시간으로 상호작용하는 두 캐릭터의 동작을 생성할 수 있다.More specifically, the captured motion data can be used to create a motion graph for two character behaviors. The motion graph may generate an operation in real time, and the generated operation may be transferred according to the center of gravity of the inverted pendulum model obtained through the operation analysis step. Here, it is important to maintain balance so that the character does not collapse, and it is necessary to adjust the position of the character's foot in order to maintain balance. At this time, the above-mentioned situation refers to a value at which the body of the character is inclined, and the degree to which the character's body is inclined can be known by measuring the inclined value of the inverted pendulum model. In addition, the footprint of the character can be obtained from the motion capture data, and the IK of the character can be solved according to the obtained footprint to generate the lower body motion of the character. Now, if the center of gravity of the motion generated in the motion graph is allocated to the center of gravity of the inverse pendulum model, the motion of the character and the angle of the joint according to the motion can be obtained. By tracking the joint angles and controlling the joints, it is possible to generate the operations of two characters interacting in real time.
도 10은 본 발명의 일 실시예에 따른 상호작용하는 두 캐릭터의 동작을 생성하는 캐릭터 모델링 장치를 도시한 블럭도로서, 캐릭터 모델링 장치(50)는 앞서 기술한 도 1 내지 도 9의 각 과정에 대응하는 구성을 포함한다. 따라서, 여기서는 설명의 중복을 피하기 위해 하드웨어 장치를 중심으로 그 기능을 약술하도록 한다. FIG. 10 is a block diagram showing a character modeling apparatus for generating an operation of two characters interacting with each other according to an embodiment of the present invention. The
입력부(51)는 모션캡쳐된 두 캐릭터의 동작데이터를 입력받는다.The
처리부(52)는 상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델로 맵핑 하고, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득하며, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 전이시킨다.The
생성부(53)는 상기 전이된 움직임에 대한 상기 두 캐릭터의 관절 각도를 추적함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 생성 한다.The
또한, 처리부(52)는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터를 획득하고, 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하며, 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득한다. 여기서, 상기 제어 파라미터는, 상대방을 바라보는 방향을 정면백터로 지정하며, 상대방을 회피하려는 방향을 회피백터로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수로부터 상기 제어 파라미터를 획득한다.The
또한, 처리부(52)는, 상기 모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득한다.In addition, the
상기된 본 발명의 실시예들에 따르면, 두 캐릭터에 대한 모션캡쳐 데이터를 역진자 모델로 맵핑하고, 모션캡쳐 데이터와 역진자 모델로부터 참조 경로를 획득하며, 역진자 모델의 상태를 고려하여 참조 경로를 두 캐릭터의 움직임으로 전이시킴으로써, 움직임을 추적하여 상호작용하는 두 캐릭터의 동작을 생성할 수 있다. 또한, 높은 자유도를 가진 두 캐릭터의 동작을 물리 법칙을 고려하여 생성할 수 있고, 캡쳐된 동작 외에 새로운 동작도 생성할 수 있으며, 동작 반응 속도가 뛰어나고 생성된 동작의 품질도 높을 수 있다.According to the embodiments of the present invention described above, the motion capture data for the two characters is mapped to the inverted pendulum model, the reference path is obtained from the motion capture data and the inverted pendulum model, To two character movements, it is possible to track the movements and generate the actions of the two characters interacting with each other. In addition, it is possible to generate two characters having a high degree of freedom in consideration of the physical laws, to generate a new operation in addition to the captured operation, to have excellent operation reaction speed, and to have high quality of generated operation.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the embodiments of the present invention can be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described above with reference to various embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
31 : 제 1 역진자 모델
32 : 제 2 역진자 모델
43 : 제 1 캐릭터
44 : 제 2 캐릭터
50 : 캐릭터 모델링 장치
51 : 입력부
52 : 처리부
53 : 생성부31: First Inverted Pendulum Model
32: Second Inverse Pendulum Model
43: First character
44: Second character
50: Character modeling device
51: Input unit
52:
53: Generator
Claims (10)
상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델(inverted pendulum model)로 맵핑(mapping)하는 단계;
상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조(reference) 경로를 획득하는 단계;
상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 두 캐릭터의 움직임으로 전이(translation)시키는 단계; 및
상기 전이된 움직임을 추적(tracking)함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링(modeling) 하는 방법.The method comprising the steps of: receiving motion data of two characters that are motion-captured;
Mapping the operation data to an inverted pendulum model so that the spatial relationship of the two characters is maintained;
Obtaining a reference path for controlling the operation of the two characters from the operation data and the inverted pendulum model;
Translating the reference path into motion of the two characters in consideration of the state of the inverted pendulum model; And
And generating real-time motion of the two characters by tracking the transitional movement. ≪ Desc / Clms Page number 19 >
상기 두 캐릭터 각각에 대한 역진자 모델이 일정 거리를 유지하도록 탄성적으로 상호 연결(coupled)되어 맵핑됨으로써, 상기 두 캐릭터의 공간적 관계가 유지 되도록 하는 것을 특징으로 하는 캐릭터를 모델링 하는 방법.The method according to claim 1,
Wherein the inverse pendulum models of the two characters are coupled in a resilient manner so as to maintain a predetermined distance so that the spatial relationship of the two characters is maintained.
상기 참조 경로를 획득하는 단계는,
상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터(parameter)를 획득하는 단계;
상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하는 단계; 및
상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법.The method according to claim 1,
Wherein the step of acquiring the reference path comprises:
Obtaining a control parameter including direction components of the inverse pendulum model for the two characters;
Obtaining a path parameter for moving the inverted pendulum model from the control parameter in the same pattern as the operation data; And
And obtaining the reference path based on the path parameter.
상기 제어 파라미터는,
상대방을 바라보는 방향을 정면백터(facing vector)로 지정하며, 상대방을 회피하려는 방향을 회피백터(avoiding vector)로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수(coefficient)로부터 획득되는 것을 특징으로 하는 캐릭터를 모델링 하는 방법.The method of claim 3,
Wherein the control parameter comprises:
Wherein the direction vector is obtained from a coefficient of the front vector and the avoidance vector by designating a direction in which the other party is viewed as a facing vector and a direction in which the other party is avoided as an avoiding vector, How to model a character.
상기 경로 파라미터를 획득하는 단계는,
모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하는 단계; 및
상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 단계를 포함하는 캐릭터를 모델링 하는 방법.The method of claim 3,
Wherein obtaining the path parameter comprises:
Setting a difference between the motion data of the two motion-captured characters and the inverted pendulum model as an objective function; And
And obtaining the path parameter from a value derived based on the objective function.
상기 참조 경로를 움직임으로 전이시키는 단계는,
상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 변형 시키는 단계를 포함하는 캐릭터를 모델링 하는 방법.The method according to claim 1,
Wherein transitioning the reference path to motion comprises:
And modifying the reference path to correspond to the center of gravity of the inverted pendulum model.
상기 실시간 동작을 생성하는 단계는,
상기 두 캐릭터에 대한 관절 각도를 추적하며, 상기 추적을 통해 관절을 제어함으로써, 상기 두 캐릭터에 대한 실시간 동작을 생성하는 단계를 포함하는 캐릭터를 모델링 하는 방법.The method according to claim 1,
Wherein the generating the real-
Tracking joint angles for the two characters, and controlling the joints by tracing to generate a real-time motion for the two characters.
상기 두 캐릭터의 공간적 관계가 유지되도록 상기 동작데이터를 역진자 모델로 맵핑 하고, 상기 동작데이터와 상기 역진자 모델로부터 상기 두 캐릭터의 동작을 제어할 수 있는 참조 경로를 획득하며, 상기 역진자 모델의 상태를 고려하여 상기 참조 경로를 상기 역진자 모델의 무게중심에 대응되도록 전이시키는 처리부; 및
상기 전이된 움직임에 대한 상기 두 캐릭터의 관절 각도를 추적함으로써 상기 두 캐릭터의 실시간 동작을 생성하는 생성부를 포함하되,
상기 처리부는, 상기 두 캐릭터에 대한 역진자 모델의 방향 성분이 포함된 제어 파라미터를 획득하고, 상기 제어 파라미터로부터 상기 동작데이터와 동일한 패턴으로 상기 역진자 모델이 움직이도록 하는 경로 파라미터를 획득하며, 상기 경로 파라미터에 기초하여 상기 참조 경로를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치.An input unit for receiving motion data of two motion-captured characters;
Mapping the operation data to an inverted pendulum model so as to maintain a spatial relationship between the two characters, obtaining a reference path capable of controlling operations of the two characters from the operation data and the inverted pendulum model, A processing unit for shifting the reference path to correspond to the center of gravity of the inverted pendulum model in consideration of the state; And
And a generation unit for generating a real-time motion of the two characters by tracking joint angles of the two characters with respect to the transitional movement,
Wherein the processing unit obtains a control parameter including direction components of the inverse pendulum model for the two characters and obtains a path parameter for moving the inverse pendulum model from the control parameter in the same pattern as the operation data, And obtains the reference path based on the path parameter.
상기 처리부는,
모션캡쳐된 두 캐릭터의 동작데이터와 상기 역진자 모델의 차이를 목적함수로 설정하고, 상기 목적함수에 기초하여 도출되는 값으로부터 상기 경로 파라미터를 획득하는 것을 특징으로 하는 캐릭터 모델링 장치.9. The method of claim 8,
Wherein,
And sets the difference between the motion data of the two motion-captured characters and the inverted pendulum model as an objective function, and obtains the path parameter from a value derived based on the objective function.
상기 제어 파라미터는,
상대방을 바라보는 방향을 정면백터로 지정하며, 상대방을 회피하려는 방향을 회피백터로 지정함으로써, 상기 정면백터와 상기 회피백터의 계수로부터 상기 제어 파라미터를 획득할 수 있는 것을 특징으로 하는 캐릭터 모델링 장치.9. The method of claim 8,
Wherein the control parameter comprises:
Wherein the control parameter can be obtained from a coefficient of the front vector and the avoidance vector by designating the direction in which the other party is viewed as a front vector and the direction in which the other party is to be avoided as the avoidance vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130103369A KR101527792B1 (en) | 2013-08-29 | 2013-08-29 | Method and apparatus for modeling interactive character |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130103369A KR101527792B1 (en) | 2013-08-29 | 2013-08-29 | Method and apparatus for modeling interactive character |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150025462A true KR20150025462A (en) | 2015-03-10 |
KR101527792B1 KR101527792B1 (en) | 2015-06-12 |
Family
ID=53021693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130103369A KR101527792B1 (en) | 2013-08-29 | 2013-08-29 | Method and apparatus for modeling interactive character |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101527792B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116836A1 (en) * | 2018-12-06 | 2020-06-11 | (주)코어센스 | Motion capture device using movement of center of gravity of human body and method therefor |
KR20200069218A (en) * | 2018-12-06 | 2020-06-16 | (주)코어센스 | Motion capture apparatus using movement of human centre of gravity and method thereof |
KR20210101608A (en) * | 2020-02-10 | 2021-08-19 | 한국과학기술원 | Method and apparatus for generating motion of an object |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010011770A2 (en) * | 2008-07-22 | 2010-01-28 | Sony Online Entertainment Llc | System and method for physics interactions in a simulation |
KR101053395B1 (en) * | 2009-06-11 | 2011-08-01 | 서울대학교산학협력단 | Motion Editing System and Method of Multiple Characters Synchronized |
-
2013
- 2013-08-29 KR KR1020130103369A patent/KR101527792B1/en not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116836A1 (en) * | 2018-12-06 | 2020-06-11 | (주)코어센스 | Motion capture device using movement of center of gravity of human body and method therefor |
KR20200069218A (en) * | 2018-12-06 | 2020-06-16 | (주)코어센스 | Motion capture apparatus using movement of human centre of gravity and method thereof |
KR20210101608A (en) * | 2020-02-10 | 2021-08-19 | 한국과학기술원 | Method and apparatus for generating motion of an object |
Also Published As
Publication number | Publication date |
---|---|
KR101527792B1 (en) | 2015-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101881620B1 (en) | Using a three-dimensional environment model in gameplay | |
CN103578135B (en) | The mutual integrated system of stage that virtual image combines with real scene and implementation method | |
KR101812379B1 (en) | Method and apparatus for estimating a pose | |
JP2024519940A (en) | Data processing method, device, data processing system, electronic device and computer program | |
CN108369478A (en) | Hand Tracking for Interactive Feedback | |
US20120194645A1 (en) | Living room movie creation | |
AU2011203028B1 (en) | Fully automatic dynamic articulated model calibration | |
KR20120020138A (en) | Real time retargeting of skeletal data to game avatar | |
US20110216946A1 (en) | Information processing device, information processing method, program, and information storage medium | |
CN203630822U (en) | Virtual image and real scene combined stage interaction integrating system | |
JP7490142B2 (en) | De-ambiguating attitudes | |
WO2022103680A1 (en) | Binocular pose prediction | |
KR101527792B1 (en) | Method and apparatus for modeling interactive character | |
US9652879B2 (en) | Animation of a virtual object | |
KR20020017576A (en) | System and method for motion capture using camera image | |
Schönauer et al. | Wide area motion tracking using consumer hardware | |
KR20200057572A (en) | Hand recognition augmented reality-intraction apparatus and method | |
US20230290101A1 (en) | Data processing method and apparatus, electronic device, and computer-readable storage medium | |
Yang et al. | Digitalization of Three-Dimensional Human Bodies: A Survey | |
US20220028144A1 (en) | Methods and systems for generating an animation control rig | |
Zeng et al. | Motion capture and reconstruction based on depth information using Kinect | |
KR20170119895A (en) | Video production system using game engine | |
US20210390750A1 (en) | Skeleton model update apparatus, skeleton model update method, and program | |
Rebecchi | Enhanced particle filter with environment reconstruction for human pose estimation in human-robot interaction | |
Huynh et al. | A framework for cost-effective communication system for 3D data streaming and real-time 3D reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |