KR100370369B1 - On-line Motion Retargetting of a Virtual Character - Google Patents

On-line Motion Retargetting of a Virtual Character Download PDF

Info

Publication number
KR100370369B1
KR100370369B1 KR10-2000-0048428A KR20000048428A KR100370369B1 KR 100370369 B1 KR100370369 B1 KR 100370369B1 KR 20000048428 A KR20000048428 A KR 20000048428A KR 100370369 B1 KR100370369 B1 KR 100370369B1
Authority
KR
South Korea
Prior art keywords
virtual character
real
motion
foot
posture
Prior art date
Application number
KR10-2000-0048428A
Other languages
Korean (ko)
Other versions
KR20020015234A (en
Inventor
신성용
신현준
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR10-2000-0048428A priority Critical patent/KR100370369B1/en
Publication of KR20020015234A publication Critical patent/KR20020015234A/en
Application granted granted Critical
Publication of KR100370369B1 publication Critical patent/KR100370369B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 가상 캐릭터의 실시간 동작변환방법에 관한 것으로서, 더 상세하게는 실제 사람의 동작을 가상 캐릭터에 대입함으로써 실시간으로 가상 캐릭터 애니메이션을 생성할 수 있는 연기 기반 애니메이션에서 실시간으로 동작을 변환하여 실제 사람과 가상 캐릭터의 크기가 서로 다른 경우에도 가상 캐릭터에 적합한 자연스러운 동작을 실시간으로 생성할 수 있는 가상 캐릭터의 실시간 동작변환방법에 관한 것이다.The present invention relates to a method for transforming a real-time motion of a virtual character, and more particularly, by converting a motion in real time from a smoke-based animation that can generate a virtual character animation in real time by substituting the motion of a real person into a virtual character. The present invention relates to a real-time motion conversion method of a virtual character that can generate a natural motion suitable for the virtual character in real time even if the size and the virtual character are different.

본 발명의 동작변환방법은 실제 사람의 동작에서 포착된 손, 발의 위치와 관절각의 중요도를 실시간으로 분석하는 동작분석 단계(10)와,The motion conversion method of the present invention is a motion analysis step (10) for analyzing in real time the importance of the position of the hand and foot and the joint angle captured in the motion of a real person,

각각의 중요도에 따라 역운동학 기법을 이용하여 가상 캐릭터(30)의 손(38), 발(40)의 위치와 관절각을 유지하는 자세를 생성하는 자세생성 단계(20)를 포함하여 구성된다.It comprises a posture generation step 20 for generating a posture that maintains the position and joint angle of the hand 38, the foot 40 of the virtual character 30 using the inverse kinematics technique according to each importance.

본 발명에 의하면 방송등에서 그 수효가 증가하고 있는 실시간 가상 캐릭터의 동작을 효과적으로 제어할 수 있고, 특히 다양한 가상 캐릭터의 자연스러운 동작을 실시간으로 생성할 수 있는 효과가 있다.According to the present invention, it is possible to effectively control the motion of a real-time virtual character whose number is increasing in broadcasting and the like, and in particular, there is an effect of generating a natural motion of various virtual characters in real time.

Description

가상 캐릭터의 실시간 동작변환방법 {On-line Motion Retargetting of a Virtual Character}On-line Motion Retargetting of a Virtual Character}

본 발명은 가상 캐릭터의 실시간 동작변환방법에 관한 것으로서, 더 상세하게는 실제 사람의 동작을 가상 캐릭터에 대입함으로써 실시간으로 가상 캐릭터 애니메이션을 생성할 수 있는 연기 기반 애니메이션에서 실시간으로 동작을 변환하여 실제 사람과 가상 캐릭터의 크기가 서로 다른 경우에도 가상 캐릭터에 적합한 자연스러운 동작을 실시간으로 생성할 수 있는 가상 캐릭터의 실시간 동작변환방법에 관한 것이다.The present invention relates to a method for transforming a real-time motion of a virtual character, and more particularly, by converting a motion in real time from a smoke-based animation that can generate a virtual character animation in real time by substituting the motion of a real person into a virtual character. The present invention relates to a real-time motion conversion method of a virtual character that can generate a natural motion suitable for the virtual character in real time even if the size and the virtual character are different.

연기 기반 애니메이션은 실제 사람의 동작을 가상 캐릭터(Virtual Character)에 대입함으로써 실시간으로 가상 캐릭터 애니메이션(animation)을 생성한다.Smoke-based animation creates virtual character animations in real time by substituting real human motion into a virtual character.

이러한 연기 기반 애니메이션은 생방송 쇼 등에서 실시간 가상 캐릭터 애니메이션이 필요한 분야에, 또 게임이나 가상 현실 등의 비실시간 가상 캐릭터 애니메이션 분야에 널리 응용하여 사용할 수 있는 것이다.Such acting-based animations can be widely used in fields requiring real-time virtual character animation in live shows, and in non-real-time virtual character animation fields such as games and virtual reality.

이를 위해서는 연기 기반 애니메이션에서 실시간으로 동작을 변환하여 실제 사람과 가상 캐릭터의 크기가 서로 다른 경우에도 가상 캐릭터에 적합한 자연스러운 동작을 실시간으로 생성할 수 있어야 한다.To do this, it is necessary to convert motion in real time from a smoke-based animation to generate natural motion suitable for a virtual character in real time even if the size of the real person and the virtual character are different.

종래의 연기 기반 애니메이션에서는 실제 사람의 주요 부위의 각도를 측정하여 그 값을 그대로 가상 캐릭터에 대입했었다.In the conventional smoke-based animation, the angle of the main part of the real person was measured and the value was directly substituted into the virtual character.

T. Molet, R. Boulic 및 D. Thalmann의 논문(Human Motion Capture Driven by Orientation Measurements,PRESENCE, 1999, 8(2), p187-203)에 의하면 실제 사람의 관절각을 이용하여 크기가 비슷한 가상 캐릭터의 동작을 실시간으로 생성하였다.According to T. Molet, R. Boulic and D. Thalmann's papers (Human Motion Capture Driven by Orientation Measurements, PRESENCE , 1999, 8 (2), p187-203), virtual characters of similar size using real human joint angles Was generated in real time.

하지만 도 1에서 알 수 있듯이 가상 캐릭터(30)의 팔(34), 다리(36)의 길이가 다르면 가상 캐릭터(30)의 발(40)이 미끄러지는 등의 문제점이 나타난다.However, as shown in FIG. 1, when the lengths of the arms 34 and the legs 36 of the virtual character 30 are different, problems such as the foot 40 of the virtual character 30 slide.

이런 문제를 해결하기 위하여 실제 사람의 팔, 다리 길이와 유사하게 가상 캐릭터(30)의 팔(34), 다리(36) 길이를 제작하였으나, 결과적으로 사람과 크기가 다른 가상 캐릭터(30)를 사용하지 못하는 제한점을 갖게 되었다.In order to solve this problem, the length of the arm 34 and the leg 36 of the virtual character 30 is similar to the length of the arm and leg of a real person, but as a result, a virtual character 30 having a different size from the person is used. I have a limitation that I can't.

상기한 바와 같이, 팔(34), 다리(36)의 길이 차이에 의해서 나타나는 문제점이 가상 캐릭터(30)의 손(38)과 발(40)의 위치가 실제 사람과 다르다는 데 기인하여 실제 사람의 손, 발의 위치를 포착하고 그 위치에 가상 캐릭터(30)의 손(38)과 발(40)이 도달하게 하는 연구가 진행되어 발표되고 있다.As described above, the problem caused by the difference in the length of the arm 34 and the leg 36 is due to the fact that the position of the hand 38 and the foot 40 of the virtual character 30 is different from that of the real person. Research has been conducted to announce the position of the hand and foot and allow the hand 38 and the foot 40 of the virtual character 30 to reach the position.

즉 사람과 형태가 다른 가상 캐릭터(30)에 실제 사람의 동작을 실시간으로 대입하기 위해 주요 부위의 각도 뿐만 아니라 손(38), 발(40)의 위치를 고려하였다.That is, not only the angle of the main part but also the positions of the hands 38 and the foot 40 were considered in order to substitute the actual human motion to the virtual character 30 having a different form from the person.

최광진(Kwang-Jin Choi) 및 고형석(Hyeong-Seok Ko)의 논문(On-line Motion Retargetting,Proceedings of Pacific Graphics'99, p32-42)에 의하면, 실제 사람의 손, 발의 위치를 보존하도록 동작을 생성한다.According to Kwang-Jin Choi and Hyeong-Seok Ko, On-line Motion Retargetting, Proceedings of Pacific Graphics '99, p32-42, Create

이때 손(38), 발(40)의 위치가 변하지 않는 범위에서 관절각을 실제 사람과 비슷하게 함으로써 자연스러운 동작을 실시간으로 얻는다.At this time, the natural motion is obtained in real time by making the joint angle similar to a real person in the range where the positions of the hand 38 and the foot 40 do not change.

이는 실제 사람의 손, 발의 위치를 보존하기 때문에 팔(34), 다리(36)의 길이가 다른 가상 캐릭터(30)를 사용하더라도 도 1의 발(40)이 미끄러지는 등의 문제점은 발생되지 않는다.Since it preserves the position of the actual human hand and foot, even if the virtual character 30 having different lengths of the arm 34 and the leg 36 is used, there is no problem such as the foot 40 of FIG. 1 slipping. .

그러나 항상 손(38)과 발(40)의 위치를 보존하도록 하면, 오히려 동작이 부자연스러워지는 경우가 발생한다.However, if the position of the hand 38 and the foot 40 is always preserved, the operation may be unnatural.

예를 들어 도 2에서처럼 팔(34), 다리(36)가 짧은 가상 캐릭터(30)의 손(38)의 위치를 보존하기 위해 팔(34)이 부자연스럽게 굽혀지는 부자연스러운 동작이 나타난다.For example, as shown in FIG. 2, an unnatural operation is shown in which the arm 34 is bent unnaturally in order to preserve the position of the hand 38 of the virtual character 30 having a short arm 34 and a leg 36.

또한 비실시간으로 동작을 변형하는 연구 결과도 많이 있었다.There have also been many studies that transform behavior in non-real time.

Michael Gleicher의 논문(Retargetting Motion to New Characters,Proceedings of SIGGRAPH 98, 1998, p32-42)에 의하면, 실제 사람과 크기가 다른 가상 캐릭터(30)에 대입하기 위해서 손(38), 발(40)의 위치가 유지되어야하는 순간에 제한조건을 지정하고 동작을 부드럽게 변형시켰다.According to Michael Gleicher's paper (Retargetting Motion to New Characters, Proceedings of SIGGRAPH 98 , 1998, p32-42), the hand (38), foot (40) of At the moment the position should be maintained, we specified constraints and smoothed the motion.

상기 논문에서처럼 특정시간에 손(38)과 발(40)의 위치를 보존하도록 제한조건을 가하고, 제한조건을 만족하도록 동작을 부드럽게 변화시키는 방법은 실제 사람과 가상 캐릭터(30)의 크기 차이에 의해 나타나는 문제점을 해결할 뿐 아니라 동작의 자연스러움을 유지할 수 있는 장점을 가진다.As in the above paper, a method of applying a constraint to preserve the position of the hand 38 and the foot 40 at a specific time and smoothly changing the motion to satisfy the constraint is based on the difference between the size of the real person and the virtual character 30. It not only solves the problem that appears but also has the advantage of maintaining the naturalness of the operation.

그러나 상기 방법은 일련의 동작 자체가 주어졌을 때 이를 조작하기 때문에 미래의 동작을 미리 알 수 없는 실시간 연기 기반 애니메이션에는 적용할 수 없었다.However, the method could not be applied to real-time smoke-based animation where future movements are unknown because they manipulate them when a series of movements are given.

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 현재 방송등에서 그 수효가 증가하고 있는 실시간 가상 캐릭터의 동작을 효과적으로 제어할 수있고, 특히 실제 사람과 크기가 다른 가상 캐릭터를 사용할 때 나타나는 문제점을 해결함으로써 다양한 가상 캐릭터의 자연스러운 동작을 실시간으로 생성할 수 있는 가상 캐릭터의 실시간 동작변환방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-described problems, and can effectively control the operation of the real-time virtual character that is increasing in number in the current broadcast, and especially the problem that appears when using a virtual character different from the actual person It is an object of the present invention to provide a real-time motion conversion method of a virtual character that can generate a natural motion of various virtual characters in real time.

본 발명의 동작변환방법은 실시간으로 입력되는 자세를 분석하여 주요 부분의 각도와 손, 발의 위치중 어떤 정보를 높은 비중으로 사용할 지를 판단하여 가상 캐릭터의 자세를 결정하는 것이다.The motion conversion method of the present invention is to determine the posture of the virtual character by analyzing the posture input in real time to determine what information of the angle of the main part and the position of the hand and foot to use a high specific gravity.

즉, 본 발명에 의하면 실제 사람의 동작에서 포착된 손, 발의 위치와 관절각의 중요도를 실시간으로 분석하고, 각각의 중요도에 따라 손, 발의 위치와 관절각을 유지하는 최종적인 동작을 생성한다.That is, according to the present invention, the importance of the positions of the hands and feet and the joint angles captured in the motion of the real person is analyzed in real time, and the final motions of maintaining the positions and the joint angles of the hands and the feet are generated according to the respective importances.

도 1은 종래 주요부위의 각도만을 이용한 가상 캐릭터의 연속동작 모습이다.1 is a continuous operation of the virtual character using only the angle of the conventional main portion.

도 2는 종래 손, 발의 위치를 대입한 가상 캐릭터의 연속동작 모습이다.2 is a continuous operation of the virtual character substituted the position of the conventional hand and foot.

도 3은 본 발명에 따른 동작변환방법의 블록도이다.3 is a block diagram of an operation conversion method according to the present invention.

도 4는 본 발명에 따른 가상 캐릭터의 연속동작 모습이다.4 is a continuous operation of the virtual character according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 동작분석 단계 20 : 자세생성 단계10: motion analysis step 20: posture generation step

22 : 중심위치 계산 24 : 몸통자세 계산22: center position calculation 24: body position calculation

26 : 팔,다리자세 계산 30 : 가상 캐릭터26: arm and leg posture calculation 30: virtual character

32 : 몸통 34 : 팔32: Torso 34: Arm

36 : 다리 38 : 손36: leg 38: hand

40 : 발40: foot

이하 본 발명을 첨부된 도면 도 3 및 도 4를 참고로 하여 설명하면 다음과 같다.Hereinafter, the present invention will be described with reference to FIGS. 3 and 4.

도 3은 본 발명에 따른 동작변환방법의 블록도이다.3 is a block diagram of an operation conversion method according to the present invention.

도 4는 본 발명에 따른 가상 캐릭터의 연속동작 모습이다.4 is a continuous operation of the virtual character according to the present invention.

먼저 본 발명은 실제 사람의 동작에서 포착된 손, 발의 위치와 관절각의 중요도를 실시간으로 분석하는 동작분석 단계(10)와,First, the present invention is a motion analysis step (10) for analyzing in real time the importance of the position of the hand and foot and the joint angle captured in the motion of a real person,

각각의 중요도에 따라 역운동학 기법을 이용하여 가상 캐릭터(30)의 손(38), 발(40)의 위치와 관절각을 유지하는 자세를 생성하는 자세생성 단계(20)로 이루어진다.The posture generation step 20 generates a posture that maintains the position and the joint angle of the hand 38 and the foot 40 of the virtual character 30 using the inverse kinematics technique according to each importance.

상기 동작분석 단계(10)에서는 실제 사람의 주요 부분의 각도를 유지하는 자세와 손, 발의 위치를 유지하는 자세를 어떤 비율로 사용해야 할지를 결정한다.In the motion analysis step (10) it is determined in which proportion to use the posture to maintain the angle of the actual part of the actual person and the posture to maintain the position of the hands, feet.

실제 사람이나 가상 캐릭터의 팔, 다리의 길이 차이 때문에 발생하는 부자연스러운 동작은 실제 사람이 바닥이나 외부 물체 등을 딛거나 만지는 상호작용이 있을 때 나타나는 것으로, 외부 물체와 상호작용 여부를 판단하여 상호작용 가능성이 높으면 손, 발의 위치를 주로 사용하고, 상호작용의 가능성이 적으면 주요부위의 각도를 더 큰 비중으로 이용하여 자연스러운 동작을 생성할 수 있다.Unnatural behavior caused by differences in the lengths of arms or legs of a real person or a virtual character occurs when a real person touches or touches a floor or an external object. If the probability is high, the position of the hand and foot is mainly used, and if there is little possibility of interaction, the angle of the major part is used as the greater specific gravity to generate the natural motion.

상호작용의 가능성은 사전 등록된 환경에의 외부 물체들과 실제 사람의 손, 발의 위치 사이의 거리를 이용하여 계산한다.The probability of interaction is calculated using the distance between the external objects in the pre-registered environment and the position of the actual human hand and foot.

각각의 손, 발에 대하여 등록된 외부 물체와의 거리를 구하고, 이들 중 최소값을 손, 발과 외부 물체와의 거리로 생각한다.For each hand and foot, the distance between the registered external object is obtained, and the minimum value of these is considered as the distance between the hand, foot and the external object.

거리가 충분히 멀면 상호작용의 가능성이 거의 없는 것으로 보고, 거리가 가까우면 상호작용 가능성이 높은 것으로 판단한다.If the distance is far enough, there is little possibility of interaction, and if the distance is close, the probability of interaction is high.

상기 자세생성 단계(20)는 상기에서 얻어진 상호 작용가능성에 따라서 각각의 관절각과 손(38), 발(40)의 위치를 유지하는 자세를 역운동학 기법을 이용하여 생성하는 단계이다.The posture generation step 20 is a step of generating postures to maintain the position of each joint angle, the hand 38, the foot 40 according to the interaction possibility obtained by using the inverse kinematics technique.

상기 역운동학 기법이 종래에는 손, 발의 위치가 주어졌을 때 이를 가장 정확하게 일치시키는 자세를 생성하는 반면에, 본 발명에서는 중요도에 따라서 관절각과 손(38), 발(40)의 위치를 적절히 유지하는 자세를 생성한다.While the inverse kinematics technique conventionally generates a posture that most accurately matches a given position of the hand and foot, in the present invention, the position of the joint angle and the hand 38 and the foot 40 are properly maintained according to the importance. Create a posture.

또한 종래의 비교적 많은 계산을 필요로 하는 역운동학 문제를, 본 발명에서는 중심위치 계산(22), 팔 다리의 자세 계산(26), 몸통의 자세 계산(24)으로 나누고 각각을 효율적으로 처리함으로써 실시간으로 가상 캐릭터(30)의 자세를 생성한다.In addition, in the present invention, the inverse kinematics problem requiring a relatively large number of calculations is divided into a center position calculation 22, an arm position calculation 26 and a body position calculation 24, and each of them is efficiently processed in real time. To generate the posture of the virtual character 30.

상기 중심위치 계산(22)에서는 가상 캐릭터(30)가 팔(34)과 다리(36)만을 움직여 손(38), 발(40)이 주어진 위치에 도달할 수 있도록 가상 캐릭터(30)의 위치를 움직인다.In the center position calculation 22, the virtual character 30 moves only the arms 34 and 36 to adjust the position of the virtual character 30 so that the hand 38 and the foot 40 can reach a given position. Move.

팔(34)과 다리(36)만을 움직여 손(38), 발(40)이 주어진 위치에 도달할 수 있도록 하는 가상 캐릭터(30) 중심위치의 범위는 구로 표현되고, 각각의 손(38), 발(40)에 해당하는 구들의 교집합 속에 가상 캐릭터(30)의 중심이 포함되게 함으로써 원하는 중심의 위치가 계산된다.The range of the center position of the virtual character 30, which moves only the arm 34 and the leg 36 so that the hand 38 and the foot 40 reach a given position, is represented by a sphere, and each hand 38, The position of the desired center is calculated by including the center of the virtual character 30 in the intersection of the spheres corresponding to the foot 40.

이때, 각각의 구의 크기를 상호작용 가능성에 따라 조정하여 상호작용 가능성이 낮은 손(38), 발(40)이 주어진 위치에 도달하게 하기 위해 가상 캐릭터(30)의 위치를 무리하게 움직이는 것을 방지함이 바람직하다.At this time, the size of each sphere is adjusted according to the possibility of interaction to prevent excessive movement of the position of the virtual character 30 so that the hand 38 and the foot 40 having low interaction potential reach a given position. This is preferred.

상기 몸통자세 계산(24)은 가상 캐릭터(30)의 중심의 위치가 결정되었음에도 불구하고 손(38), 발(40)이 주어진 위치에 도달할 수 없는 경우에 몸통(32)의 자세, 즉 중심의 위치와 몸의 방향, 허리의 자세를 수정하는 것이다.The torso posture calculation 24 calculates the posture, i.e., the center of the torso 32 when the hand 38 and the foot 40 cannot reach a given position even though the position of the center of the virtual character 30 is determined. To correct the position and orientation of the body, posture of the waist.

몸통(32)의 자세 역시 팔(34)과 다리(36)만을 움직여 손(38)과 발(40)이 주어진 위치에 도달할 수 있도록 조정한다.The position of the torso 32 is also adjusted to move only the arms 34 and legs 36 so that the hands 38 and 40 can reach a given position.

이때 몸통(32)의 각 관절의 움직임은 서로 복잡하게 연관되어 있기 때문에 수치적인 최적화 방법을 이용하여 최종적인 몸통(32)의 자세를 계산해야 된다.At this time, since the movements of the joints of the trunk 32 are complicatedly related to each other, the posture of the final trunk 32 should be calculated using a numerical optimization method.

본 발명에서는 중심의 자세가 사전에 적절히 계산되었고, 몸통을 이루는 제한적인 관절들에 대해서만 최적화를 수행하기 때문에 몸통(32)의 자세가 빠르게 계산된다.In the present invention, the posture of the torso 32 is quickly calculated because the central posture is properly calculated in advance, and optimization is performed only for the limited joints forming the torso.

이때, 상호작용 가능성이 낮은 손(38), 발(40)은 주어진 위치에 도달할 수 없는 경우에도 수치적 최적화를 종료하게 함으로써 불필요하게 몸통(32)의 자세를 수정하는 것을 방지함이 바람직하다.At this time, it is preferable that the hand 38 and the foot 40 having low interaction potential prevent unnecessary modification of the posture of the torso 32 by ending the numerical optimization even when the given position cannot be reached. .

상기 팔, 다리자세 계산(26)에서는 어깨와 팔꿈치를 움직여 손(38)을 주어진 위치에 놓이도록 하고 고관절(股關節)과 무릎을 움직여 발(40)을 위치시킨다.The arm and leg position calculation 26 moves the shoulders and elbows so that the hand 38 is placed in a given position and the hips and knees are moved to position the foot 40.

일반적으로 손(38)과 발(40)의 방향만으로 어깨나 고관절의 관절각을 결정할 수 없기 때문에, 본 발명에서는 손(38)과 발(40)의 위치를 원하는 위치에 도달하게 하는 동시에 실제 사람의 어깨 및 고관절의 관절각과 가장 근사한 관절각을 계산하여 팔(34), 다리(36)의 자세를 생성한다.In general, since the joint angle of the shoulder or the hip joint cannot be determined only by the direction of the hands 38 and 40, the present invention allows the position of the hands 38 and 40 to reach a desired position. By calculating the joint angles of the shoulder and hip joint and the most close joint angle of the arm 34, the legs 36 to generate the posture.

마지막으로 역운동학을 통해 계산한 팔(34), 다리(36)자세와 실제 사람의 관절각을 그대로 유지하는 팔(34), 다리(36)자세를 혼합하여 가상 캐릭터(30)의 최종적인 자세를 얻는다.Finally, the posture of the virtual character 30 is mixed by the arm 34 and the leg 36, which are calculated through inverse kinematics, and the arm 34 and the leg 36, which maintain the joint angle of a real person. Get

두 자세의 팔(34), 다리(36) 관절각들을 보간(interpolation)하여 자세를 혼합한다.The postures are mixed by interpolating the joint angles of the arms 34 and 36 of the two postures.

본 발명에서는 각각의 관절각을 단위 쿼터니온(unit quaternion)으로 나타내고 선형 구면 보간(spherical linear interpolation)을 이용하여 두 관절각을 보간한다.In the present invention, each joint angle is represented by unit quaternion and the two joint angles are interpolated using spherical linear interpolation.

이때 각각의 손(38)과 발(40)의 상호작용 가능성을 보간 계수(interpolationparameter)로 이용함으로써 상호작용이 있을 때는 팔(34), 다리(36)의 길이 차이 때문에 나타나는 문제를 해결할 수 있고 그렇지 않은 경우에는 실제 사람의 자세를 그대로 유지할 수 있다.At this time, by using the interaction possibility of each hand 38 and the foot 40 as an interpolation parameter, the problem caused by the difference in the length of the arms 34 and the legs 36 when there is interaction can be solved. If you do not, you can maintain the real human posture.

상술하게 본 발명을 구현하여 동작의 분석과 역운동학에 필요한 시간은 최소 5.2ms에서 최대 5.6ms로 나타났다.As described above, the time required for analyzing the motion and inverse kinematics by implementing the present invention was found to be at least 5.2 ms and at most 5.6 ms.

이상에서 살펴본 바와 같이 본 발명에 의하면, 실제 사람의 동작을 분석하고 그 결과에 따라서 적응적으로 동작을 변형하며 또 역운동학 기법을 가속화시킴으로써 실제 사람과 크기가 다른 가상 캐릭터의 자연스러운 동작을 실시간으로 생성할 수 있는 효과가 있다.As described above, according to the present invention, a natural motion of a virtual character having a different size from a real person is generated in real time by analyzing the motion of a real person, adaptively transforming the motion according to the result, and accelerating the inverse kinematics technique. It can work.

본 발명에 의하면 상호작용 가능성이 높은 발의 경우에는 실제 사람의 발의 위치를 보존하기 때문에 종래에서 처럼 미끄러지는 문제점이 발생하지 않고, 손의 경우에는 상호작용 가능성이 낮기 때문에 팔의 관절각을 유지하여 종래에서 처럼 어색하게 굽어지지 않고 자연스러운 자세를 얻을 수 있는 효과가 있다.According to the present invention, in the case of the foot having a high possibility of interaction, since the position of the actual human foot is preserved, the problem of slipping does not occur as in the prior art, and in the case of the hand, since the possibility of interaction is low, the joint angle of the arm is maintained by As you can see, it does not bend awkwardly, so you can get a natural posture.

본 발명을 구현하는 데 소요되는 시간은 5.2ms∼5.6ms로 생방송 등과 같이 실시간으로 동작을 변형해야 하는 응용분야에도 효과적으로 사용될 수 있으며, 랜더링이나 캐릭터 변형 등의 사실적인 애니메이션을 위한 추가적인 처리가 이루어 질 시간이 확보되어 양질의 애니메이션을 생성할 수 있는 효과가 있다.The time required to implement the present invention is 5.2ms to 5.6ms, which can be effectively used for applications that need to change motion in real time, such as live broadcasting, and further processing for realistic animations such as rendering or character deformation can be performed. The time is secured, and the effect is that a good animation can be generated.

Claims (4)

실제 사람의 동작에서 손, 발의 위치와 외부환경과의 거리를 측정하여 그 거리가 크면 상호작용의 가능성을 낮게 평가하고, 거리가 적으면 상호작용의 가능성을 높게 평가하여 손, 발의 위치와 관절각의 중요도를 실시간으로 분석하는 동작분석 단계(10)와,In real human movements, the distance between hands and feet and the external environment is measured. If the distance is large, the possibility of interaction is low. If the distance is small, the possibility of interaction is highly evaluated. Motion analysis step (10) for analyzing the importance of the real-time, 상기 각각의 중요도에 따라 역운동학 기법을 이용하여 상호작용의 가능성이 높으면 가상 캐릭터(30)의 손(38), 발(40)의 위치를 유지하게 하고, 상호작용의 가능성이 적으면 관절각의 각도를 유지하게 하는 자세를 생성하는 자세생성 단계(20)를 포함하는 가상 캐릭터의 실시간 동작변환방법.If the possibility of interaction is high using the inverse kinematics technique according to the importance of each of the above, the position of the hand 38 and the foot 40 of the virtual character 30 is maintained. Real-time motion conversion method of the virtual character comprising a posture generation step 20 of generating a posture to maintain the angle. 삭제delete 청구항 1에 있어서, 상기 역운동학의 문제를 가상 캐릭터(30)가 팔(34)과 다리(36)만을 움직여 손(38), 발(40)이 주어진 위치에 도달할 수 있도록 가상 캐릭터(30)의 중심위치를 움직이는 중심위치 계산(22)과,The virtual character 30 according to claim 1, wherein the problem of inverse kinematics allows the virtual character 30 to move only the arms 34 and 36 so that the hands 38 and the feet 40 can reach a given position. Calculation of the center position of the center of gravity (22), 팔(34)과 다리(36)만을 움직여 손(38)과 발(40)이 주어진 위치에 도달할 수 있도록 몸통(32)의 자세를 수정하는 몸통자세 계산(24)과,Torso posture calculation 24 which moves only the arm 34 and the leg 36 to correct the posture of the torso 32 so that the hand 38 and the foot 40 can reach a given position, 어깨와 팔꿈치를 움직여 손(38)이 주어진 위치에 놓이도록 하고 고관절과 무릎을 움직여 발(40)을 위치시키는 팔,다리자세 계산(26)으로 나누어 해결함을 특징으로 하는 가상 캐릭터의 실시간 동작변환방법.Real-time motion transformation of a virtual character, characterized by moving the shoulders and elbows so that the hand (38) is placed in a given position and the hips and knees are moved to the arm and the leg posture calculation (26) to position the foot 40. Way. 청구항 3에 있어서, 상기 팔,다리자세 계산(26)에서 손(38)과 발(40)을 원하는 위치에 도달하게 하는 동시에 실제 사람의 어깨 및 고관절에의 관절각과 가장 가까운 관절각을 계산하여 팔(34), 다리(36)의 자세를 생성함을 특징으로 하는 가상 캐릭터의 실시간 동작변환방법.The arm and leg position calculation 26 of claim 3, the arm 38 and the foot 40 to reach the desired position while at the same time calculates the joint angle closest to the joint angle to the shoulder and hip joint of the actual human arm (34), a method of converting a real-time motion of the virtual character, characterized in that the posture of the leg 36 is generated.
KR10-2000-0048428A 2000-08-21 2000-08-21 On-line Motion Retargetting of a Virtual Character KR100370369B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0048428A KR100370369B1 (en) 2000-08-21 2000-08-21 On-line Motion Retargetting of a Virtual Character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0048428A KR100370369B1 (en) 2000-08-21 2000-08-21 On-line Motion Retargetting of a Virtual Character

Publications (2)

Publication Number Publication Date
KR20020015234A KR20020015234A (en) 2002-02-27
KR100370369B1 true KR100370369B1 (en) 2003-01-30

Family

ID=19684288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0048428A KR100370369B1 (en) 2000-08-21 2000-08-21 On-line Motion Retargetting of a Virtual Character

Country Status (1)

Country Link
KR (1) KR100370369B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100478721B1 (en) * 2002-07-15 2005-03-24 한국과학기술원 On-line locomotion generation based on motion blending
KR100507780B1 (en) 2002-12-20 2005-08-17 한국전자통신연구원 Apparatus and method for high-speed marker-free motion capture
KR100701010B1 (en) * 2005-12-09 2007-03-29 한국전자통신연구원 Data Broadcasting System and Method interlocked with the Internet using the Virtual Studio
KR100896130B1 (en) * 2007-12-13 2009-05-07 에스케이 텔레콤주식회사 Method and system for playing motion animation of virtal character
KR101977893B1 (en) 2015-04-28 2019-05-16 동서대학교 산학협력단 Digital actor managing method for image contents
KR20180071833A (en) 2016-12-20 2018-06-28 박홍식 Computer interface management system by 3D digital actor

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200162A (en) * 1993-12-29 1995-08-04 Namco Ltd Virtual reality experience device and game machine using the same
JPH08329272A (en) * 1995-12-30 1996-12-13 Kongouzen Souhonzan Shiyourinji Animation generator method
JPH1049701A (en) * 1996-08-06 1998-02-20 Hitachi Ltd Method for fetching operation of articulated structural body
KR19990015435A (en) * 1997-08-06 1999-03-05 윤종용 Motion capture device and method using sensor panel
JP2000163178A (en) * 1998-11-26 2000-06-16 Hitachi Ltd Interaction device with virtual character and storage medium storing program generating video of virtual character
KR20000037781A (en) * 1998-12-02 2000-07-05 정선종 Body modeling method for character animation
KR20000050109A (en) * 2000-05-16 2000-08-05 이미란 A method for producing facial active animation on a network
KR20010000836A (en) * 2000-10-23 2001-01-05 백흥재 Method of Providing Dance Education Services in the Internet
KR20010057880A (en) * 1999-12-23 2001-07-05 오길록 Animation method for walking motion variation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200162A (en) * 1993-12-29 1995-08-04 Namco Ltd Virtual reality experience device and game machine using the same
JPH08329272A (en) * 1995-12-30 1996-12-13 Kongouzen Souhonzan Shiyourinji Animation generator method
JPH1049701A (en) * 1996-08-06 1998-02-20 Hitachi Ltd Method for fetching operation of articulated structural body
KR19990015435A (en) * 1997-08-06 1999-03-05 윤종용 Motion capture device and method using sensor panel
JP2000163178A (en) * 1998-11-26 2000-06-16 Hitachi Ltd Interaction device with virtual character and storage medium storing program generating video of virtual character
KR20000037781A (en) * 1998-12-02 2000-07-05 정선종 Body modeling method for character animation
KR20010057880A (en) * 1999-12-23 2001-07-05 오길록 Animation method for walking motion variation
KR20000050109A (en) * 2000-05-16 2000-08-05 이미란 A method for producing facial active animation on a network
KR20010000836A (en) * 2000-10-23 2001-01-05 백흥재 Method of Providing Dance Education Services in the Internet

Also Published As

Publication number Publication date
KR20020015234A (en) 2002-02-27

Similar Documents

Publication Publication Date Title
Kennaway Synthetic animation of deaf signing gestures
Bodenheimer et al. The process of motion capture: Dealing with the data
Kallmann Analytical inverse kinematics with body posture control
Shin et al. Computer puppetry: An importance-based approach
Hyun et al. Sweep-based human deformation
US8498849B1 (en) Wrinkle simulation on fabric based on three arm joint angles
Yang et al. Curve skeleton skinning for human and creature characters
Aydin et al. Database guided computer animation of human grasping using forward and inverse kinematics
Molla et al. Egocentric mapping of body surface constraints
JP3668663B2 (en) Motion input method and apparatus in virtual space and recording medium recording the motion input program
KR100370369B1 (en) On-line Motion Retargetting of a Virtual Character
Nedel et al. Anatomic modeling of deformable human bodies
Sousa et al. Humanized robot dancing: humanoid motion retargeting based in a metrical representation of human dance styles
Hyun et al. Modeling and deformation of arms and legs based on ellipsoidal sweeping
Choi et al. Processing motion capture data to achieve positional accuracy
Starck et al. Animated statues
Kennaway Avatar-independent scripting for real-time gesture animation
Oliveira et al. Animating scanned human models
Lam et al. Motion editing with data glove
Nebel Keyframe interpolation with self-collision avoidance
Baek et al. Motion evaluation for VR-based motion training
Yoon et al. Transferring skin weights to 3D scanned clothes
Yang et al. Automatic muscle generation for character skin deformation
Sato et al. 3D freeform design: interactive shape deformations by the use of CyberGlove
Boulic et al. A comparison of design strategies for 3D human motions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110104

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee