KR20100138591A - Motion retargetting system and its using method based on character's physical properties - Google Patents

Motion retargetting system and its using method based on character's physical properties Download PDF

Info

Publication number
KR20100138591A
KR20100138591A KR1020090057184A KR20090057184A KR20100138591A KR 20100138591 A KR20100138591 A KR 20100138591A KR 1020090057184 A KR1020090057184 A KR 1020090057184A KR 20090057184 A KR20090057184 A KR 20090057184A KR 20100138591 A KR20100138591 A KR 20100138591A
Authority
KR
South Korea
Prior art keywords
motion
character
data
motion data
joint
Prior art date
Application number
KR1020090057184A
Other languages
Korean (ko)
Inventor
신인섭
김형석
Original Assignee
주식회사 스페이스일루젼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스페이스일루젼 filed Critical 주식회사 스페이스일루젼
Priority to KR1020090057184A priority Critical patent/KR20100138591A/en
Publication of KR20100138591A publication Critical patent/KR20100138591A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A motion re-targeting system based on character's physical properties and a method for using the system are provided to convert motion of a human body into physical properties of a character, thereby generating motion data of high quality. CONSTITUTION: A motion data unit stores motion data. A character parameter data unit(220) stores physical information of a character to which the motion data is applied. A motion deformation engine unit(230) uses the motion data and the physical information of the character to produce deformed motion data.

Description

캐릭터의 물리적 속성에 기반한 모션리타겟팅 시스템 및 그 이용방법 {Motion retargetting system and Its using method based on character's physical properties} Motion retargetting system and Its using method based on character's physical properties}

본 발명은 모션리타겟팅(motion retargetting) 시스템 및 모션리타겟팅 방법에 관한 것으로서, 모션캡쳐데이터(motion capture data)에 인체의 물리적 속성에 관한 정보를 부가하여 모션데이터를 생성한 후, 캐릭터의 물리적 정보를 이용하여 보다 높은 품질의 모션데이터를 생성하는 기술에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion retargeting system and a method for retargeting a motion. After generating motion data by adding information about physical properties of a human body to motion capture data, the physical information of the character is generated. The present invention relates to a technique for generating motion data of higher quality by using.

최근 컴퓨터 그래픽 기술 및 가상 현실 기술이 발달함에 따라 실제 사람 또는 캐릭터의 움직임 등을 각종 컨텐츠에 적용하는 사례가 확산되고 있다.Recently, with the development of computer graphics technology and virtual reality technology, a case of applying a motion of a real person or a character to various contents has been spreading.

여기서 가상현실(virtual reality)이란 컴퓨터를 이용해 구축한 사이버 공간내 인간의 오감을 통한 상호작용을 실현하여 현실세계에서의 활동이나 공간적, 물리적 제약에 의해 직접 경험하지 못하는 상황을 간접 체험할 수 있도록 하는 정보활동의 새로운 패러다임이다.In this case, virtual reality means that humans can interact with the five senses in cyberspace built using computers to indirectly experience situations that cannot be directly experienced by activities in the real world or by spatial and physical constraints. It is a new paradigm of information activity.

이러한 가상현실 기술은 여러가지 분야에서 적용이 시도되고 있는데, 예를 들면, 멀티미디어 콘텐츠, 전자게임, 영화, 각종 교육 및 훈련 시스템 등이 있다. 상기 각 분야 중 영화와 게임산업이 발전하고 3차원의 모델링과 랜더링, 에니메이션 기법들이 도입되기 시작하면서 보다 자연스러운 동작을 생성할 수 있는 기술에 관심이 집중되고 있다.Such virtual reality technology has been tried in various fields, for example, multimedia contents, electronic games, movies, various education and training systems and the like. As the film and game industries develop and three-dimensional modeling, rendering, and animation techniques are introduced, interest in technologies that can generate more natural motions is focused.

최근에는 자연스러운 동작 데이터를 빠르고 사실감 있게 얻기 위하여 사람의 동작을 그대로 캡쳐(capture)하고, 수치화된 동작 데이터를 컴퓨터에 입력하고, 이 동작 데이터를 이용해 캐릭터를 움직이게 하는 모션캡쳐 기술이 도입되고 있다.Recently, in order to obtain natural motion data quickly and realistically, motion capture technology has been introduced that captures human motion as it is, inputs numerical motion data into a computer, and moves a character using the motion data.

일반적으로, 모션캡쳐(motion capture)기법은 실세계의 캐릭터의 움직임을 특수 카메라로 포착하여 컴퓨터상의 가상캐릭터에 적용하는 동작생성기법 중 하나로서, 다른 동작생성기법과는 다르게 실제 세계의 캐릭터의 동작을 그대로 재현할 수 있다는데 큰 이점이 있다. In general, motion capture technique is one of motion generation techniques that capture the movement of the character of the real world with a special camera and apply it to a virtual character on the computer. Unlike other motion generation techniques, the motion of the character of the real world is as it is. There is a big advantage to being able to reproduce.

모션캡쳐는 사람이나 동물, 생물, 기계등과 같은 물체의 움직임을 컴퓨터가 사용가능한 형태로 기록하는 것을 말한다. 모션캡쳐시스템의 장점으로 기존의 키 프레임 방식으로는 영상표현이 어려운 인간이나 동물의 사실적인 움직임, 큰 스케일, 많은 경제적 부담이 소요되는 부분 등에 도입되어 새로운 표현 가능성을 보여주고 있어 디지털 엔터테인먼트 영역에서 게임을 중심으로 영화, TV, 광고, 다큐멘 터리, 뮤직비디오 등 점차 그 활용 빈도가 증가하고 있다. Motion capture refers to recording the movement of an object such as a person, animal, creature, or machine in a form usable by a computer. The advantage of the motion capture system is the introduction of realistic expressions of humans and animals, large scales, and a lot of economic burden, which are difficult to express with the existing key frame method. Increasingly, the frequency of use is increasing, including movies, TV, commercials, documentaries, and music videos.

이와 같이, 실제 사람의 동작 등을 캡쳐하여 컴퓨터 그래픽에서 사용하는 형태로 데이터화 한 것이 모션캡쳐데이터 또는 모션데이터가 되는데, 모션캡쳐데이터를 캐릭터에 적용하는 모션리타겟팅(motion retargetting) 기술이 애니메이션 제작등에 적극 활용되고 있다. As such, motion capture data or motion data is captured by capturing real human motions and used in computer graphics, and motion retargeting technology that applies motion capture data to a character is used for animation production. It is actively utilized.

그러나 모션캡쳐데이터는 캐릭터 애니메이션 또는 게임을 제작에 있어서 고품질의 애니메이션 영상을 얻는 렌더링 기술의 적용에 있어서는 뛰어나지만, 동작을 애니메이션의 품질에 맞게 표현하는 부분이 부족한 것이 현실이다. 일반적으로 모션캡쳐데이터를 캐릭터의 고유한 특성에 맞도록 적용하는 부분이 쉽지 않은 문제점이 있기 때문이다. However, although motion capture data is excellent in the application of rendering technology for obtaining high quality animation images in character animation or game production, the reality of lacking a part for expressing motions in accordance with the quality of animation. In general, there is a problem in that it is not easy to apply motion capture data to fit the unique characteristics of the character.

모션캡쳐기술에 있어 중요한 문제는 중량의 배분, 무게감, 과장된 동작의 표현가능여부 등이라고 할 수 있는데, 종래의 기술에 의하면, 인체의 동작을 표현하는 연기자들이 만화캐릭터와 같이 과장된 동작을 연기할 수 없는 문제점이 있었고, 인체로부터 얻은 모션캡쳐데이터를 신체비례가 다른 캐릭터에 적용했을 때 중량감의 표현 등에 있어서 한계가 있는 것이 현실이었다. The important issues in motion capture technology are weight distribution, weight, and exaggeration of exaggerated motion. According to the conventional technology, actors expressing human body motion can exaggerate motion like cartoon characters. There was no problem, and when the motion capture data obtained from the human body was applied to a character with different body proportions, there was a limit in the expression of the weight.

종래의 모션리타겟팅 방법은 데이터의 회전값을 그대로 캐릭터의 관절에 적 용하되, 외부와의 관계에 따라 역운동학(Inverse Kinematics: IK)을 이용하여 주어진 조건을 만족하도록 변형하는 것이다. 즉, 걷는 동작에서 발이 바닥과 미끄러지지 않도록 제한을 두고 이를 만족하도록 역운동학(Inverse Kinematics: IK)을 이용한 관절의 새로운 회전값을 얻는 것이라 할 수 있다. Conventional motion retargeting method is to apply the rotation value of the data to the joints of the character as it is, to transform to meet the given conditions using inverse kinematics (IK) according to the relationship with the outside. In other words, it is possible to obtain a new rotation value of the joint using inverse kinematics (IK) so that the foot is not slipped from the floor in the walking motion and this is satisfied.

이러한 방법은 관절의 움직임을 임의로 제한조건에 맞도록 수정하므로, 부분적으로 부자연스러운 움직임이 나타나게 되는 문제점과, 이를 부분적으로 동작을 필터링(filtering) 또는 블랜딩(blending)하는 동작보정이 필요한 바, 모션리타겟팅 방법이 복잡하고 보정절차가 필요한 문제점이 있었다. This method modifies the motion of the joints to fit the constraints arbitrarily, resulting in a partly unnatural motion and the need for motion correction to partially filter or blend the motion. There was a problem that the targeting method was complicated and the correction procedure was required.

따라서, 모션리타겟팅 방법에 있어서, 인체로부터 얻은 모션캡쳐데이터를 신체비례가 다른 캐릭터에 적용했을 때에도 캐릭터의 중량감의 표현, 자연스러운 움직임 등을 보장하는 모션리타겟팅방법이 필요하며, 또한 모션리타겟팅 방법이 보정절차 등 별도의 복잡한 제작절차를 요구하지 않는 간편한 제작방법이 요구되고 있다. Therefore, in the motion retargeting method, a motion retargeting method for guaranteeing the expression of the weight of a character, natural movement, etc. is required even when motion capture data obtained from the human body is applied to a character having different body proportions, and also a motion retargeting method. There is a need for a simple manufacturing method that does not require a separate complicated manufacturing procedure such as the correction procedure.

본 발명은 모션리타겟팅(motion retargetting) 시스템 및 그 이용방법에 관한 것인데, 전술한 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 모션캡쳐데이터에 인체의 물리적속성에 관한 정보를 부가하고, 캐릭터 및 캐릭터가 적용될 외부요소영향을 고려하여 실제와 가까운 고품질의 모션데이터를 생성하는데 그 목적이 있다. The present invention relates to a motion retargeting system and a method of using the same, which are designed to solve the above-described problems of the prior art, and include information on a physical attribute of a human body to motion capture data, and a character and The purpose is to generate high quality motion data close to reality in consideration of the influence of external factors to which a character is applied.

또한 본 발명은 종래의 모션리타겟팅방법의 난해함과 복잡성을 해결하여 보다 더 간편하고 편리하게 고품질의 모션데이터를 생성하여 애니메이션 제작을 용이하게 하는데 그 목적이 있다. In addition, the present invention is to solve the difficulty and complexity of the conventional motion retargeting method to create high-quality motion data more easily and conveniently to facilitate animation production.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical objects to be achieved by the present invention are not limited to the above-mentioned technical problems, and other technical subjects which are not mentioned can be clearly understood by those skilled in the art from the description of the present invention .

상술한 목적을 달성하기 위한 본 발명의 일 실시형태에 따르면, 모션데이터를 저장하는 모션데이터부, 상기 모션데이터를 적용할 캐릭터의 물리적 정보를 저장하는 캐릭터파라미터 데이터부 및 상기 모션데이터와 상기 캐릭터의 물리적 정보 를 이용하여 변형된 모션데이터를 산출하는 모션변형엔진부를 포함하는 모션리타겟팅 시스템으로 구성된다. According to an embodiment of the present invention for achieving the above object, a motion data unit for storing motion data, a character parameter data unit for storing physical information of the character to apply the motion data and the motion data of the character It consists of a motion retargeting system including a motion deformation engine to calculate the modified motion data using physical information.

본 발명은 모션데이터를 저장하는 모션데이터부를 포함한다. The present invention includes a motion data unit for storing motion data.

본 발명에서 상기 모션데이터는 인체의 동작을 디지털화하여 얻은 모션캡쳐데이터에 인체의 키,무게,관절의 위치,관절의 길이, 관절의 무게중심위치 및 관절의 관성모멘텀의 정보를 부가하는 것으로 이루어지는 것을 특징으로 것을 포함한다. In the present invention, the motion data consists of adding information of the height, weight, position of the joint, length of the joint, center of gravity of the joint and moment of inertia of the joint to the motion capture data obtained by digitizing the motion of the human body. Includes as a feature.

상기 모션데이터는 인체의 동작을 디지털화하여 얻은 모션캡쳐 데이터에 인체의 물리적인 정보 즉, 무게, 키, 관절의 길이, 관절의 무게중심위치, 관절의 관성모멘텀 등의 정보를 부가하여 이루어질 수 있다. 즉, 모션캡쳐데이터를 관절의 질량, 관절의 길이, 질량중심(Center of Mass), 질량 모멘텀(Moment of Inertia)과 같은 물리량들로 재해석하여 분해한 후, 이 동작을 캐릭터에 적용할 때, 해당 캐릭터의 물성치가 적용된 모션데이터를 생성할 수 있게 된다. The motion data may be made by adding physical information of the human body, that is, weight, height, length of a joint, a center of gravity of a joint, and moment of inertia of the joint to motion capture data obtained by digitizing the motion of the human body. That is, when motion capture data is reinterpreted and decomposed into physical quantities such as the mass of the joint, the length of the joint, the center of mass, and the moment of inertia, the motion capture data is applied to the character. It is possible to generate motion data to which the properties of the character are applied.

상기 모션데이터는 인체의 관절의 정보를 구성하는 형상부분과 관절의 회전을 구성하는 동작부분으로 구성될 수 있으며, BVH 또는 HTR형식의 확장자를 가진 파일로 저장될 수 있다. The motion data may include a shape portion constituting the joint information of the human body and an operation portion constituting the rotation of the joint, and may be stored as a file having an extension of BVH or HTR format.

i) 형상부분은 인체의 주요관절의 기본 형태정보로 T자형태의 기본자세 정보가 담겨져 있으며, 관절의 정보는 부모관절과의 상대적인 위치값으로 기술되는데, 부모관절은 자식관절을 여러 개 가질 수 있으나, 자식관절은 부모관절을 1개만 가질 수 있다. 여기서 부모관절은 몸통에 가까운 쪽의 관절, 즉 어깨, 골반, 척추 등의 관절을 의미하며, 자식관절이란 부모관절로부터 몸통에서 먼 쪽의 관절을 의미하는데, 즉 부모관절이 어깨관절이라면, 자식관절은 팔꿈치, 손목 등이 이에 해당된다. i) The shape part is the basic shape information of the main joints of the human body and contains basic posture information of the T-shape, and the joint information is described as a position value relative to the parent joint, and the parent joint may have multiple child joints. However, a child joint can have only one parent joint. Here, the parent joint refers to a joint near the torso, that is, a joint such as a shoulder, pelvis, and spine, and the child joint refers to a joint far from the torso from the parent joint, that is, if the parent joint is a shoulder joint, the child joint This is the elbow, wrist, and the like.

ii) 동작부분은 관절의 회전값에 의해 표현될 수 있는데, 각각의 관절이 회전하는 값은 X,Y,Z축으로 회전하는 오일러 회전값으로 기술될 수 있다. 한 순간의 회전값이 21개 기록될 수 있으며, 또 다음의 회전값이 기록되는 방식으로 초당 30개의 정보가 기록될 수 있다. ii) The moving part can be expressed by the rotation value of the joint. The rotation value of each joint can be described as the Euler rotation value rotating in the X, Y, and Z axes. Twenty-one rotational values can be recorded, and thirty information per second can be recorded in such a manner that the next rotational value is recorded.

따라서, 형상부분과 동작부분으로 구성되는 모션데이터는 캐릭터의 각 관절에 적용되어 애니메이션으로 표현될 수 있다. 또한 캐릭터의 체형적분류에 따라 뚱뚱한 캐릭터, 난장이 캐릭터 등과 같이 기본형태인 T자형태의 골격과 크기차이가 나는 캐릭터라도 후술할 모션변형엔진부에 의해 모션변형을 수행하여 캐릭터의 고유한 특성에 맞게 변형된 모션데이터를 생성할 수 있다. Therefore, the motion data consisting of the shape portion and the motion portion may be applied to each joint of the character to be represented by animation. In addition, depending on the character's body classification, even if the character has a difference in size from the basic T-shape, such as a fat character or a dwarf character, the motion transformation engine performs motion transformation by the motion deformation engine to be described later to suit the unique characteristics of the character. The modified motion data can be generated.

본 발명은 상기 모션데이터를 적용할 캐릭터의 물리적 정보를 저장하는 캐릭 터파라미터 데이터부를 포함한다. The present invention includes a character parameter data unit for storing physical information of a character to which the motion data is to be applied.

상기 캐릭터의 물리적 정보는 캐릭터 파라미터를 의미하는데, 이는 모션데이터 형상부분에 해당하는 정보를 더욱 확장하여 관절의 위치 뿐만 아니라 관절의 길이, 관절의 질량, 무게중심, 관절이 차지하는 부피, 회전질량(관성 모멘텀)과 같은 물리적 속성들을 포함하는 정보를 의미한다. 즉, 모션데이터의 동작부분이 적용된 애니메이션을 그대로 캐릭터에 적용하기 전에 비교될 핵심적인 정보를 담는다고 할 수 있다. The physical information of the character means a character parameter, which expands the information corresponding to the shape of the motion data to further expand the position of the joint, the joint length, the mass of the joint, the center of gravity, the volume of the joint, and the rotational mass (inertia). Information including physical properties such as momentum). That is, it can be said that it contains essential information to be compared before the animation to which the motion part of the motion data is applied to the character.

또한, 캐릭터의 파라미터는 캐릭터의 체형적 분류와 외부요소영향에 의한 파라미터들을 분류하여 캐릭터 파라미터 데이터부에 저장할 수 있다. In addition, the parameter of the character may be classified into parameters according to the physical classification of the character and the influence of external factors may be stored in the character parameter data unit.

체형적 분류란, 캐릭터의 체형에 따라 분류한 것으로서, 예를 들면 뚱뚱한 캐릭터, 홀쭉한 캐릭터, 거인 캐릭터, 난장이 캐릭터, 신체일부가 과장된 캐릭터 등으로 분류하여 파라미터를 입력하고 저장할 수 있다. The physical classification is classified according to the body type of the character. For example, the physical classification may be classified into a fat character, a slender character, a giant character, a dwarf character, a character whose body part is exaggerated, and the like to input and store parameters.

외부요소영향에 의한 파라미터란, 모자, 운동화, 하이힐, 운동복, 정장 등 의류 및 잡화 등과 칼, 방패, 도끼, 총 등 캐릭터가 지닐수 있는 도구 등 및 땅, 강, 바다, 산 등 캐릭터가 활동할 공간등에 대한 파라미터를 의미할 수 있다. Parameters due to external factors, such as hats, sneakers, high heels, sportswear, suits, and other miscellaneous goods, tools such as swords, shields, axes, guns, etc. It may mean a parameter for such.

따라서, 이러한 캐릭터 파라미터를 모션변형엔진부에 입력하면, 캐릭터 파라미터를 고려한 모션데이터를 계산하여 변형된 모션데이터를 생성할 수 있게 된다. Therefore, when the character parameter is input to the motion deformation engine, the motion data considering the character parameter may be calculated to generate the modified motion data.

본 발명은 상기 모션데이터와 상기 캐릭터의 물리적 정보를 이용하여 변형된 모션데이터를 산출하는 모션변형엔진부를 포함한다. The present invention includes a motion deformation engine that calculates modified motion data using the motion data and the physical information of the character.

상기 모션변형엔진부는 모션데이터를 적용한 캐릭터의 동작에 있어서, 캐릭터의 운동 속도, 운동량, 각운동량 등 물리적 속성에 기반한 운동량 등을 측정하여 실제 운동과 위반하는 부분을 보정하여 실제 운동에 근사한 모션데이터를 생성하는 역할을 수행한다. In the motion of the character to which the motion data is applied, the motion deformation engine measures the amount of movement based on physical properties such as the speed of movement of the character, the amount of movement, the angular movement, and the like to compensate for the violation of the actual movement to generate motion data that is close to the actual movement. It plays a role.

즉, 모션데이터를 변형하는 모션변형엔진부는 모션데이터부로부터 모션데이터를 입력받고, 캐릭터 파라미터 데이터부로부터 입력된 캐릭터의 파라미터를 이용하여 , 캐릭터 애니메이션으로 직접 적용할 수 있도록 캐릭터에 특화고 새롭게 변형된 모션데이터를 산출할 수 있다. That is, the motion transformation engine that transforms the motion data receives the motion data from the motion data unit and uses the parameter of the character input from the character parameter data unit so that it can be directly applied to the character animation. Motion data can be calculated.

본 발명에서 상기 모션변형엔진부는, 상기 모션데이터를 상기 캐릭터에 적용하여 물리적 정보를 계산하는 계산부 및 상기 물리적 정보에 캐릭터에 적용할 외부요소의 영향에 의한 제한조건을 이용하여 모션데이터를 변형하는 모션변형부를 포함한다. In the present invention, the motion deformation engine unit, using the calculation unit for calculating the physical information by applying the motion data to the character and modifying the motion data using the constraints caused by the influence of external factors to be applied to the character to the physical information. It includes a motion deformation unit.

모션변형엔진부는 관절의 운동을 분석하는 계산부와 계산된 정보로부터 관절의 회전값을 얻는 모션변형부로 구성될 수 있다. The motion deformation engine unit may include a calculation unit analyzing the motion of the joint and a motion deformation unit obtaining the rotation value of the joint from the calculated information.

상기 계산부는 모션데이터를 적용한 캐릭터의 운동 동작에 있어서, 캐릭터의 각 관절마다 운동속도, 운동에너지, 각운동에너지, 운동량, 각운동량 등의 물리적 정보를 획득한 후 외부영향요소에 의한 제한조건을 입력하여 모션데이터를 변형하고, 변형된 동작을 이용하여 캐릭터의 각 관절의 회전값을 추출하는 역할을 수행할 수 있다. 즉, 모션데이터 각 관절의 운동을 캐릭터 관절의 속성으로 변환하여 적용하는 방법으로 캐릭터에 적용하여, 애니메이션 동작을 물리적으로 유의미하게 유지하도록 적용하는 것이라고 할 수 있다. In the motion of the character to which the motion data is applied, the calculation unit obtains physical information such as motion speed, motion energy, angular motion energy, momentum, and angular motion for each joint of the character, and inputs a constraint condition by an external influence factor. The motion data may be transformed and the rotation value of each joint of the character may be extracted using the transformed motion. That is, the motion data may be applied to the character by converting the motion of each joint into attributes of the character joint and applying the animation motion to keep it physically significant.

상기 외부영향요소란, 모자, 운동화, 하이힐, 운동복, 정장 등 캐릭터가 착용하는 의류 및 잡화 등과 칼, 방패, 도끼, 총 등 캐릭터가 지닐수 있는 도구 등 및 캐릭터가 활동하는 공간, 즉 콘크리트지반, 흙으로 구성된 토양, 물속, 공중 등 주변환경에 대한 요소를 의미할 수 있다. 이러한 외부영향요소에 의한 제한조건을 탐색하여 입력하면 모션데이터의 변형이 가능해진다. The external influence element is a hat, sneakers, high heels, sportswear, suits and other items worn by the character, such as a knife, a shield, an axe, a gun and other tools that the character can carry, such as a concrete ground, It can refer to elements of the surrounding environment such as soil composed of soil, water, and air. Detecting and inputting a constraint caused by such an external influence element enables the transformation of motion data.

예컨대, 부드러운 흙으로 구성된 토양에 착지하는 캐릭터의 동작은 부드러운 착지감을 느끼도록 표현하는 것이 가능해지고, 딱딱한 콘크리트지반으로 구성된 곳에 착지하는 캐릭터의 동작은 딱딱한 충격이 느껴지도록 표현하는 것이 가능해진다. For example, the character's motion landing on the soil composed of soft soil can be expressed to feel a soft landing feeling, and the character's motion landing on a place composed of hard concrete ground can be expressed to feel hard impact.

상기 모션변형부는, 계산부에서 캐릭터의 각 관절의 회전값을 추출하는 단계까지 계산을 마친후, 각 관절의 회전값을 캐릭터에 직접 적용하여 변형된 모션데 이터를 출력하고 저장하는 역할을 수행할 수 있다. 즉, 변형된 모션데이터를 최종적으로 생성하고 저장하여 애니메이션 제작에 직접 활용할 수 있다. The motion transformation unit performs a role of outputting and storing the modified motion data by directly applying the rotation value of each joint to the character after the calculation is completed until the step of extracting the rotation value of each joint of the character. Can be. In other words, the deformed motion data can be finally generated and stored and used directly in animation production.

본 발명은 모션리타겟팅 시스템 및 그 이용방법에 관한 발명인데, 모션리타겟팅이란 애니메이션 등에 등장하는 캐릭터 등에 모션캡쳐 데이터를 적용하는 방법을 의미한다고 볼 수 있다. The present invention relates to a motion retargeting system and a method of using the same, wherein motion retargeting refers to a method of applying motion capture data to a character appearing in an animation or the like.

본 발명은 인체의 동작으로부터 얻은 모션캡쳐 데이터에 인체의 물리적 정보를 부가한 모션데이터를 모션데이터부에 저장하는 단계, 상기 모션데이터를 적용할 캐릭터의 물리적 정보를 캐릭터파라미터 데이터부에 저장하는 단계, 모션변형엔진부에 상기 모션데이터와 상기 캐릭터의 물리적 정보를 입력하는 단계 및 상기 모션변형엔진부에서 상기 입력된 모션데이터와 캐릭터의 물리적 정보를 이용하여 변형된 모션데이터를 산출하는 단계를 포함하는 모션리타겟팅 방법을 포함한다. The present invention comprises the steps of storing the motion data in which the physical information of the human body is added to the motion capture data obtained from the motion of the human body in the motion data unit, the physical information of the character to apply the motion data to the character parameter data unit, Inputting the motion data and the physical information of the character to a motion deformation engine and calculating the modified motion data using the input motion data and the physical information of the character to the motion deformation engine. Retargeting method.

본 발명에서 상기 모션변형엔진부에서 상기 입력된 모션데이터와 캐릭터정보를 이용하여 변형된 모션데이터를 산출하는 단계는, 상기 모션데이터를 캐릭터에 적용하여 캐릭터의 동작을 얻는 단계, 상기 캐릭터의 각 관절을 기준으로 하는 물리적 정보를 얻는 단계, 상기 캐릭터를 적용할 외부요소의 영향에 의한 제한조건을 입력하는 단계, 상기 캐릭터에 상기 제한조건을 적용하는 단계 및 상기 제한조건이 적용된 캐릭터의 변형된 동작을 이용하여 캐릭터의 모든 관절의 회전값을 추출하는 단계를 포함하는 것을 특징으로 하는 모션리타켓팅 방법을 포함한다. In the present invention, the step of calculating the transformed motion data using the input motion data and the character information in the motion transformation engine unit, the step of obtaining the motion of the character by applying the motion data to the character, each joint of the character Obtaining physical information based on the following, inputting a constraint caused by the influence of an external element to which the character is to be applied, applying the constraint to the character, and deformed motion of the character to which the constraint is applied. Motion retargeting method comprising the step of extracting the rotation values of all the joints of the character using.

본 발명은 상기 제한조건이 적용된 캐릭터의 변형된 동작을 이용하여 캐릭터의 모든 관절의 회전값을 추출하는 단계후에, 캐릭터의 변형된 모션데이터를 산출하여 저장하는 단계를 더 포함하는 것을 특징으로 하는 모션리타겟팅 방법을 포함한다. The present invention further includes the step of calculating and storing the deformed motion data of the character after extracting rotation values of all joints of the character using the deformed motion of the character to which the constraint is applied. Retargeting method.

상기의 과정을 종합하면 인체의 각 부분을 개별적인 물체의 연결로 모형화하여 모든 관절의 운동으로 보고, 모션캡쳐데이터를 적용할 때, 인체의 운동을 힘과 토크, 운동에너지와 회전운동으로 분해한 연후에 적용할 캐릭터의 물리적 속성으로 바꿔서 실제 캐릭터에 맞는 운동으로 구성하는 방법이라고 할 수 있다. To sum up the above process, each part of the human body is modeled by the connection of individual objects and viewed as the motion of all joints, and when motion capture data is applied, the human body is decomposed into force and torque, kinetic energy and rotational motion. It can be said to change the physical properties of the character to be applied to the exercise to configure the movement for the actual character.

본 발명은 전술한 모션리타겟팅방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체를 포함한다. The present invention includes a computer readable recording medium for recording a computer program for executing the above-described motion retargeting method.

본 발명에 의하여, 종래기술과 달리 인체의 각 부분을 개별적인 물체의 연결로 모형화하여 모든 관절의 운동으로 보고, 모션캡쳐로 얻은 데이터를 적용할 때, 인체의 운동을 힘과 토크, 운동에너지와 회전운동으로 분해한 연후에 적용할 캐릭터의 물리적 속성으로 바꿔서 실제 캐릭터에 맞는 운동으로 구성하므로, 고품질의 모션데이터가 생성될 수 있는 효과가 있다. According to the present invention, unlike the prior art, each part of the human body is modeled by the connection of individual objects to see the motion of all joints, and when applying the data obtained by motion capture, the motion of the human body is the force and torque, kinetic energy and rotation Since it is composed of the motion suitable for the actual character by changing the physical property of the character to be applied after the decomposition into motion, there is an effect that high-quality motion data can be generated.

또한, 본 발명에 의하면, 캐릭터의 물리적인 속성을 반영하여 모션데이터를 생성하므로, 모션데이터를 캐릭터의 특성에 맞게 변형하여 적용할 수 있고, 캐릭터의 동작의 무게감등이 더해지는 효과를 반영하게 되어 보다 사실감있는 캐릭터의 제작이 가능해지며, 모션데이터를 이용한 애니메이션 제작의 활용범위가 넓어진다.In addition, according to the present invention, since the motion data is generated by reflecting the physical properties of the character, the motion data can be modified and applied according to the characteristics of the character, and the effect of adding the weight of the character's motion is reflected. The production of realistic characters becomes possible, and the range of application of animation production using motion data is expanded.

본 발명에 의하여, 모션데이터를 변형하는 방법에 있어서 운동방정식을 이용하여 계산하고, 계산에 이용할 캐릭터의 속성을 파라미터로 추출하여 모션변형엔진부가 변형된 모션데이터를 자동적으로 생성하므로 애니메이션 제작의 시간과 비용이 획기적으로 단축되는 효과가 있다. According to the present invention, in the method of transforming motion data, it is calculated using a motion equation, the property of the character to be used for calculation is extracted as a parameter, and the motion deformation engine automatically generates modified motion data. The cost is dramatically reduced.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only one of the most preferred embodiments of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

도 1은 본 발명의 일실시예에 따른, 모션리타겟팅방법을 나타낸 순서도이다.1 is a flowchart illustrating a motion retargeting method according to an embodiment of the present invention.

먼저 인체의 동작을 디지털화하여 얻은 모션캡쳐 데이터에 인체의 물리적인 정보 즉, 무게, 키, 관절의 길이, 무게중심위치, 관절의 관성모멘텀 등의 정보를 부가하여 생성된 모션데이터를 모션데이터부에 저장하는 단계를 밟는다.(S101)First, motion data generated by digitizing the motion of the human body is added to physical information of the human body, such as weight, height, joint length, center of gravity position, moment of inertia of the joint, and the like. Steps to save is performed (S101).

이후 캐릭터의 관절의 위치 뿐만 아니라 관절의 길이, 관절의 질량, 무게중심, 관절이 차지하는 부피, 회전질량과 같은 물리적 속성들을 포함하는 캐릭터의 물리적 정보, 즉 캐릭터파라미터를 캐릭터 파라미터 데이터부에 저장하는 단계를 밟는다.(S102)Thereafter, storing the physical information of the character, that is, the character parameter, including the physical properties such as the joint length, the joint mass, the center of gravity, the volume occupied by the joint, and the rotational mass, as well as the position of the character joint, in the character parameter data unit. Step on (S102)

이러한 단계를 거친후, 모션엔진변형부에 상기 모션데이터부의 모션데이터와 상기 캐릭터 파라미터 데이터부의 캐릭터의 물리적정보를 입력하는 단계를 거치게 되면(S103), 본격적인 모션데이터 변형과정이 시작되게 된다.After such a step, when the motion data of the motion data unit and the physical information of the character parameter of the character parameter data unit is input to the motion engine deformation unit (S103), the full-scale motion data transformation process is started.

먼저, 상기 입력된 모션데이터와 캐릭터정보는 모션엔진변형부가 포함하는 계산부에 전송되는데, 계산부에서 모션데이터를 적용한 캐릭터의 동작정보를 얻는 단계를 거치게 된다. (S104) First, the input motion data and character information are transmitted to a calculation unit including a motion engine deformation unit, and the calculation unit obtains motion information of a character to which the motion data is applied. (S104)

이후 상기 캐릭터의 운동정보에 기반하여 캐릭터의 관절마다 속도, 운동에너지, 각운동에너지, 운동량, 각운동량 등의 물리적 정보를 얻는 단계를 거치게 된다.(S105)Thereafter, the physical information, such as speed, kinetic energy, angular exercise energy, exercise amount, and angular exercise amount, is obtained for each joint of the character based on the exercise information of the character.

이후 캐릭터 및 캐릭터에 적용할 외부요소의 영향에 의한 제한조건을 탐색하고 입력하는 단계를 거치게 되는데(S106), 상기 외부영향요소란, 모자, 운동화, 하이힐, 운동복, 정장 등 캐릭터가 착용하는 의류 및 잡화 등과 칼, 방패, 도끼, 총 등 캐릭터가 지닐수 있는 도구 등 및 캐릭터가 활동하는 공간, 즉 콘크리트지반, 흙으로 구성된 토양, 물속, 공중 등 주변환경에 대한 요소를 의미할 수 있다. 이러한 외부영향요소에 의한 제한조건을 탐색하여 입력하면, 이러한 조건하에서 자연스러운 동작을 할 수 있는 캐릭터에 적용이 가능한 변형 모션데이터의 생성이 가능해진다. Thereafter, a step of searching for and inputting the constraints caused by the influence of the character and the external elements to be applied to the character is performed (S106). Miscellaneous goods and tools such as knives, shields, axes, guns, etc., which can be carried by the character, and the space in which the character is active, that is, elements such as concrete ground, soil composed of soil, water, and the surrounding environment such as the air. Searching for and inputting the constraints caused by these external influence factors, it is possible to generate the deformation motion data applicable to the character that can perform a natural motion under these conditions.

이와 같은 과정을 거쳐서, 모션데이터가 적용된 캐릭터에 상기 제한조건을 적용하는 단계를 거치게 되는데(S107), 이 과정에서 제한조건을 고려한 모션데이터의 생성뿐만 아니라, 상기 캐릭터의 각 관절을 기준으로 하는 물리적 정보와 실제 현실에서의 같은 중량을 가진 물체의 운동에 대한 물리적정보를 비교하여 실제 운동에 근접하도록 보정이 자동적으로 수행되고, 또한 상기 제한요소를 고려하여 모션데이터를 변형할 수 있다. Through such a process, the step of applying the constraint condition to the character to which the motion data is applied is performed (S107). In this process, not only the generation of motion data in consideration of the constraint condition, but also physical reference based on each joint of the character. Compensation is automatically performed to be closer to the actual motion by comparing the information with the physical information about the motion of the object having the same weight in the real world, and the motion data may be modified in consideration of the above limiting factor.

이후, 변형된 동작을 이용하여 캐릭터의 모든 관절의 회전값을 추출하는 단계를 거친 후 (S108), 상기 모든 관절의 회전값을 다시 한 번 캐릭터에 적용하여 변형된 모션데이터를 산출하고 이를 출력하여 저장하는 단계(S109)를 거치면, 본 발명의 일실시예에 의한 모션리타겟팅 방법의 수행이 완료되게 된다. Then, after extracting the rotation values of all the joints of the character by using the deformed motion (S108), by applying the rotation values of all the joints to the character once again to calculate and output the modified motion data After the step of storing (S109), the execution of the motion retargeting method according to an embodiment of the present invention is completed.

도 2는 본 발명의 일실시예에 따른, 모션리타겟팅 시스템의 구성을 나타낸 구성도이다.2 is a block diagram showing the configuration of a motion retargeting system according to an embodiment of the present invention.

모션데이터부(210)은 인체의 동작으로부터 얻은 모션캡쳐 데이터에 인체의 키, 무게, 관절의 위치, 관절의 길이, 관절의 무게중심위치, 관절의 관성모멘텀의 정보를 부가하는 것으로 이루어지는 모션데이터를 저장하고 이를 모션변형엔진부(230)의 계산부(240)로 전송하는 역할을 수행할 수 있다. The motion data unit 210 adds motion data including information of the height, weight, joint position, joint length, joint center of gravity position, and moment of inertia of the joint to motion capture data obtained from the human body. It stores and transmits it to the calculation unit 240 of the motion deformation engine 230.

캐릭터파라미터 데이터부(220)는 캐릭터의 관절의 위치 뿐만 아니라 관절의 길이, 관절의 질량, 무게중심, 관절이 차지하는 부피, 회전질량(관성 모멘텀)과 같은 물리적 속성들에 관한 캐릭터정보를 저장하며, 이를 모션변형엔진부(230)의 계산부(240)에 전송하는 역할을 수행할 수 있다. The character parameter data unit 220 stores character information about physical properties such as the position of the character as well as the length of the joint, the mass of the joint, the center of gravity, the volume occupied by the joint, and the rotational mass (inertia momentum). It may serve to transmit this to the calculation unit 240 of the motion deformation engine 230.

모션변형엔진부(230)는 모션데이터를 적용한 캐릭터의 운동속도, 운동량, 각운동량 등 물리적 속성에 기반한 운동량 등을 측정하여 실제 운동과 위반하는 부분 을 보정하여 실제 운동에 근사한 모션데이터를 생성하는 역할을 수행할 수 있다. The motion transformation engine 230 measures motions based on physical properties such as motion speed, motion amount, angular motion amount of the character to which motion data is applied, and corrects violations with actual motion to generate motion data approximating actual motion. Can be done.

모션변형엔진부(230)은 계산부(240)와 모션변형부(250)를 포함할 수 있는데, 계산부(240)은 모션데이터를 적용한 캐릭터의 운동에 있어서, 캐릭터의 각 관절마다 속도, 운동에너지, 각운동에너지, 운동량, 각운동량 등의 물리적 정보를 획득한 후 외부환경에 의한 제한조건을 입력하여 모션데이터를 변형하고, 변형된 동작을 이용하여 캐릭터의 각 관절의 회전값을 추출하는 역할을 수행할 수 있다. The motion deformation engine 230 may include a calculation unit 240 and a motion deformation unit 250. In the motion of the character to which the motion data is applied, the calculation unit 240 includes a speed and a motion for each joint of the character. After acquiring physical information such as energy, angular kinetic energy, momentum, and angular momentum, input constraints by external environment to transform motion data, and extract the rotation value of each joint of the character using the modified motion. Can be done.

모션변형부(250)는 캐릭터의 각 관절의 회전값을 캐릭터에 다시 한번 적용하여 최종적으로 변형된 모션데이터를 출력하고 저장하는 역할을 수행할 수 있다.The motion transformation unit 250 may serve to output and store the finally deformed motion data by applying the rotation value of each joint of the character to the character once again.

이와 같은 과정을 거쳐 출력된 변형된 모션데이터(260)는 캐릭터의 무게감, 동작의 균형, 모션캡쳐에 의한 정교한 느낌이 그대로 표현되는 고품질의 모션데이터이므로 직접적으로 간편하게 애니메이션 제작 등에 활용될 수 있다. The deformed motion data 260 output through the above process is high quality motion data in which the weight of the character, the balance of motion, and the precise feeling by motion capture are expressed.

도 3은 본 발명의 일실시예에 따른, 모션데이터의 형상과 클립정보창을 나타낸 예시도이다.3 is an exemplary view showing a shape of a motion data and a clip information window according to an embodiment of the present invention.

모션데이터의 형상(320)은 인체의 주요관절의 기본 형태정보로 T자형태의 기본자세 정보가 담겨져 있으며, 관절의 정보는 부모관절과 자식관절의 상대적인 위치값으로 기술될 수 있다. The shape 320 of the motion data includes basic posture information of the T-shape as basic form information of the main joints of the human body, and the joint information may be described as a relative position value of the parent joint and the child joint.

클립정보창(310)은 모션데이터의 형상(320)에 있어서, 각 관절부분을 지정할 수 있는 정보창을 나타내는데, 사용자는 모션데이터의 형상(320)의 각 관절부분을 지정하여 필요한 동작을 생성할 수 있다. The clip information window 310 displays an information window for designating each joint part in the shape 320 of the motion data. The user may designate each joint part of the shape 320 of the motion data to generate a required motion. .

도 4는 본 발명의 일실시예에 따른, 모션데이터가 동작되는 형상을 나타낸 예시도이다.4 is an exemplary view illustrating a shape in which motion data is operated according to an embodiment of the present invention.

모션데이터의 동작은 상기 클립정보창(310)을 통해서 사용자가 지정하여 필요한 동작을 생성할 수 있으며, 동작부분은 관절의 회전값에 의해 표현될 수 있는데, 각각의 관절이 회전하는 값은 X,Y,Z축으로 회전하는 오일러 회전값으로 기술될 수 있다. 한 순간의 회전값이 21개 기록될 수 있으며, 또 다음의 회전값이 기록되는 방식으로 초당 30개의 정보가 기록될 수 있다. The motion data can be designated by the user through the clip information window 310 to generate the required motion, and the motion part can be expressed by the rotation value of the joints. It can be described as Euler rotation value rotating in the Z axis. Twenty-one rotational values can be recorded, and thirty information per second can be recorded in such a manner that the next rotational value is recorded.

도 5는 본 발명의 일실시예에 따른, 모션데이터와 캐릭터를 이용하여 합성된 애니메이션 캐릭터를 나타낸 예시도이다.5 is an exemplary diagram illustrating an animated character synthesized using motion data and a character according to an embodiment of the present invention.

사용자가 자신이 필요로 하는 모션데이터의 형상(510)을 생성하고, 캐릭터(520)자체의 물리적 속성 및 외부영향요소에 의한 제한조건을 고려하여, 최종적으로 에니메이션 캐릭터(530)을 생성해 낼 수 있다. The user can create the shape 510 of the motion data required by the user, and finally, the animation character 530 can be generated in consideration of the constraints caused by the physical properties of the character 520 and external influence factors. have.

도 6은 본 발명의 일실시예에 따른, 캐릭터의 관절의 상대적 위치와 무게중심을 표시한 예시도이다. 6 is an exemplary view showing the relative position and the center of gravity of the joint of the character according to an embodiment of the present invention.

캐릭터의 파라미터는 관절의 위치 뿐만 아니라 관절의 길이, 관절의 질량, 관절의 무게중심, 관절이 차지하는 부피, 회전질량(관성 모멘텀)과 같은 물리적 속성들을 포함하는 정보인데, 모션데이터의 적용과 더불어 캐릭터 파라미터가 고려됨으로 인해 고품질의 캐릭터 에니메이션이 생성될 수 있다. 도 6에서는 각각의 캐릭터 애니메이션들의 관절의 무게중심(610)을 표시하고 있다. A parameter of a character is information including not only the position of the joint but also physical properties such as the joint length, the mass of the joint, the center of gravity of the joint, the volume occupied by the joint, and the rotational mass (inertia momentum). Due to the parameters being considered, high quality character animation can be generated. In FIG. 6, the center of gravity 610 of the joint of each character animation is displayed.

이상 본 발명의 구체적 실시형태와 관련하여 본 발명을 설명하였으나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 범위를 벗어나지 않고 설명된 실시형태를 변경 또는 변형할 수 있으며, 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.The present invention has been described above in connection with specific embodiments of the present invention, but this is only an example and the present invention is not limited thereto. Those skilled in the art can change or modify the described embodiments without departing from the scope of the present invention, and within the equivalent scope of the technical spirit of the present invention and the claims to be described below. Various modifications and variations are possible.

도 1은 본 발명의 일실시예에 따른, 모션리타겟팅 방법을 나타낸 순서도.1 is a flowchart illustrating a motion retargeting method according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른, 모션리타겟팅 시스템의 구성을 나타낸 구성도.Figure 2 is a block diagram showing the configuration of a motion retargeting system according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 따른, 모션데이터의 형상과 클립정보창을 나타낸 예시도.3 is an exemplary view showing a shape of a motion data and a clip information window according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따른, 모션데이터가 동작되는 형상을 나타낸 예시도.4 is an exemplary view showing a shape in which motion data is operated according to an embodiment of the present invention.

도 5는 본 발명의 일실시예에 따른, 모션데이터와 캐릭터를 이용하여 합성된 애니메이션 캐릭터를 나타낸 예시도.5 is an exemplary diagram illustrating an animated character synthesized using motion data and a character according to an embodiment of the present invention.

도 6은 본 발명의 일실시예에 따른, 캐릭터의 관절의 상대적 위치와 무게중심을 표시한 예시도. 6 is an exemplary view showing the relative position and the center of gravity of the joint of the character according to an embodiment of the present invention.

{도면의 주요부호에 대한 설명}{Description of major symbols in the drawing}

210: 모션데이터부210: motion data part

220: 캐릭터파라미터 데이터부220: character parameter data portion

230: 모션변형엔진부230: motion deformation engine unit

240: 계산부240: calculation unit

250: 모션변형부250: motion deformation

260: 변형된 모션데이터260: deformed motion data

310: 클립정보창310: Clip Information Window

320, 510: 모션데이터의 형상320, 510: shape of motion data

520: 캐릭터의 형상520: the shape of the character

530: 애니메이션 캐릭터의 형상530: shape of the animated character

610: 캐릭터의 관절의 무게중심610: center of gravity of the character's joints

Claims (7)

모션데이터(motion data)를 저장하는 모션데이터부;A motion data unit for storing motion data; 상기 모션데이터를 적용할 캐릭터의 물리적 정보를 저장하는 캐릭터파라미터 데이터부; 및A character parameter data unit for storing physical information of a character to which the motion data is to be applied; And 상기 모션데이터와 상기 캐릭터의 물리적 정보를 이용하여 변형된 모션데이터를 산출하는 모션변형엔진부;A motion deformation engine unit configured to calculate modified motion data using the motion data and the physical information of the character; 를 포함하는 모션리타겟팅(motion retargetting) 시스템. Motion retargeting system comprising a. 제 1항에 있어서, 상기 모션데이터는, The method of claim 1, wherein the motion data, 인체의 동작을 디지털화하여 얻은 모션캡쳐데이터에 인체의 키,무게,관절의 위치,관절의 길이, 관절의 무게중심위치 및 관절의 관성모멘텀의 정보를 부가하는 것으로 이루어지는 것을 특징으로 하는 모션리타켓팅 시스템.Motion retargeting system comprising adding information of height, weight, position of joint, length of joint, center of gravity of joint and moment of inertia of joint to motion capture data obtained by digitizing the movement of human body . 제 1항에 있어서, 상기 모션변형엔진부는,The method of claim 1, wherein the motion deformation engine unit, 상기 모션데이터를 상기 캐릭터에 적용하여 물리적 정보를 계산하는 계산부; 및 A calculator for calculating physical information by applying the motion data to the character; And 상기 물리적 정보에 캐릭터에 적용할 외부요소의 영향에 의한 제한조건을 이 용하여 모션데이터를 변형하는 모션변형부;A motion transformation unit for transforming the motion data using a constraint condition caused by an influence of an external element to be applied to the character to the physical information; 를 포함하는 것을 특징으로 하는 모션리타겟팅 시스템.Motion retargeting system comprising a. 인체의 동작으로부터 얻은 모션캡쳐데이터에 인체의 물리적 정보를 부가한 모션데이터를 모션데이터부에 저장하는 단계;Storing motion data in which motion information including the physical information of the human body is added to the motion capture data obtained from the motion of the human body; 상기 모션데이터를 적용할 캐릭터의 물리적 정보를 캐릭터파라미터 데이터부에 저장하는 단계;Storing physical information of a character to which the motion data is to be applied to a character parameter data unit; 모션변형엔진부에 상기 모션데이터와 상기 캐릭터의 물리적 정보를 입력하는 단계; 및Inputting physical information of the motion data and the character into a motion deformation engine; And 상기 모션변형엔진부에서 상기 입력된 모션데이터와 캐릭터의 물리적 정보를 이용하여 변형된 모션데이터를 산출하는 단계;Calculating modified motion data by using the input motion data and physical information of a character in the motion deformation engine unit; 를 포함하는 모션리타겟팅 방법.Motion retargeting method comprising a. 제 4항에 있어서, 상기 모션변형엔진부에서 상기 입력된 모션데이터와 캐릭터정보를 이용하여 변형된 모션데이터를 산출하는 단계는,The method of claim 4, wherein the calculating of the modified motion data by using the input motion data and the character information by the motion deformation engine comprises: 상기 모션데이터를 캐릭터에 적용하여 캐릭터의 동작을 얻는 단계;Obtaining the motion of the character by applying the motion data to the character; 상기 캐릭터의 각 관절을 기준으로 하는 물리적 정보를 얻는 단계;Obtaining physical information based on each joint of the character; 상기 캐릭터를 적용할 외부요소의 영향에 의한 제한조건을 입력하는 단계; Inputting a constraint caused by an influence of an external element to which the character is applied; 상기 캐릭터에 상기 제한조건을 적용하는 단계; 및 Applying the constraint to the character; And 상기 제한조건이 적용된 캐릭터의 변형된 동작을 이용하여 캐릭터의 모든 관절의 회전값을 추출하는 단계;Extracting rotation values of all joints of the character using the deformed motion of the character to which the constraint is applied; 를 포함하는 것을 특징으로 하는 모션리타겟팅 방법.Motion retargeting method comprising a. 제 5항에 있어서, 상기 제한조건이 적용된 캐릭터의 변형된 동작을 이용하여 캐릭터의 모든 관절의 회전값을 추출하는 단계후에,The method of claim 5, wherein after extracting rotation values of all the joints of the character using the modified motion of the character to which the constraint is applied, 캐릭터의 변형된 모션데이터를 산출하여 저장하는 단계를 더 포함하는 것을 특징으로 하는 모션리타겟팅 방법.Motion retargeting method comprising the step of calculating and storing the modified motion data of the character. 제 4항 내지 제6항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium for recording a computer program for executing the method according to any one of claims 4 to 6.
KR1020090057184A 2009-06-25 2009-06-25 Motion retargetting system and its using method based on character's physical properties KR20100138591A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090057184A KR20100138591A (en) 2009-06-25 2009-06-25 Motion retargetting system and its using method based on character's physical properties

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090057184A KR20100138591A (en) 2009-06-25 2009-06-25 Motion retargetting system and its using method based on character's physical properties

Publications (1)

Publication Number Publication Date
KR20100138591A true KR20100138591A (en) 2010-12-31

Family

ID=43512051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090057184A KR20100138591A (en) 2009-06-25 2009-06-25 Motion retargetting system and its using method based on character's physical properties

Country Status (1)

Country Link
KR (1) KR20100138591A (en)

Similar Documents

Publication Publication Date Title
Ichim et al. Phace: Physics-based face modeling and animation
Schumacher et al. Efficient simulation of example-based materials
Ersotelos et al. Building highly realistic facial modeling and animation: a survey
Magnenat-Thalmann Modeling and simulating bodies and garments
Guerra-Filho et al. The human motion database: A cognitive and parametric sampling of human motion
US9196074B1 (en) Refining facial animation models
Magnenat-Thalmann et al. 3d web-based virtual try on of physically simulated clothes
JP2019204476A (en) Image creation device, image creation method, and program
Al Borno et al. Robust Physics‐based Motion Retargeting with Realistic Body Shapes
JP2008140385A (en) Real-time representation method and device of skin wrinkle at character animation time
Li et al. Enriching triangle mesh animations with physically based simulation
Schleicher et al. BASH: Biomechanical Animated Skinned Human for Visualization of Kinematics and Muscle Activity.
Li et al. Soft articulated characters in projective dynamics
Kobayashi et al. Motion Capture Dataset for Practical Use of AI-based Motion Editing and Stylization
Chaudhry et al. Character skin deformation: A survey
CN115035269A (en) Three-dimensional garment deformation prediction method based on variational self-encoder
KR102237089B1 (en) Method for Calculating Skinning Weight of 3D Character Based on Musculoskeletal Structure
Assassi et al. Dynamic skin deformation based on biomechanical modeling
KR20100138591A (en) Motion retargetting system and its using method based on character's physical properties
Tejera et al. Space-time editing of 3d video sequences
Lyard et al. Motion adaptation based on character shape
KR20120009791A (en) Systems and methods for modifying Motion Data
Xia et al. Recent advances on virtual human synthesis
Fratarcangeli Computational models for animating 3d virtual faces
Dovramadjiev Motion capture (MoCAP) and 3D computer design for ergonomics needs

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application