KR20000074633A - Real-time virtual character system - Google Patents

Real-time virtual character system Download PDF

Info

Publication number
KR20000074633A
KR20000074633A KR1019990018697A KR19990018697A KR20000074633A KR 20000074633 A KR20000074633 A KR 20000074633A KR 1019990018697 A KR1019990018697 A KR 1019990018697A KR 19990018697 A KR19990018697 A KR 19990018697A KR 20000074633 A KR20000074633 A KR 20000074633A
Authority
KR
South Korea
Prior art keywords
virtual character
motion
unit
camera
joint
Prior art date
Application number
KR1019990018697A
Other languages
Korean (ko)
Other versions
KR100301962B1 (en
Inventor
변혜원
김희정
윤여천
신현준
김태훈
신성용
Original Assignee
박권상
한국방송공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박권상, 한국방송공사 filed Critical 박권상
Priority to KR1019990018697A priority Critical patent/KR100301962B1/en
Publication of KR20000074633A publication Critical patent/KR20000074633A/en
Application granted granted Critical
Publication of KR100301962B1 publication Critical patent/KR100301962B1/en

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R13/00Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
    • H01R13/44Means for preventing access to live contacts
    • H01R13/447Shutter or cover plate
    • H01R13/453Shutter or cover plate opened by engagement of counterpart
    • H01R13/4532Rotating shutter
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R13/00Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
    • H01R13/73Means for mounting coupling parts to apparatus or structures, e.g. to a wall
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R2103/00Two poles

Abstract

PURPOSE: A real-time imaginary character system is to smoothly interlock a motion and a facial expression of a performer with an imaginary character and a background graphic set, and control the motion and an expression of the imaginary character in real time using a facial image of the performer. CONSTITUTION: A real-time imaginary character system comprises a body motion controller(1) for controlling a joint motion of an imaginary character according to the joint motion of a performer, a hand motion controller(2) for extracting bending information of a finger joint of the performer to control a hand motion of the imaginary character, a facial expression controller(3) for analyzing a facial expression of the performer input from a camera to produce the facial expression of the imaginary character, a camera system(4) for generating motion data of the camera and then transmitting the data to a graphic workstation, a camera motion interlocking portion(5) for interlocking a motion of the imaginary character and a background graphic set with the motion of the camera, and an image synthesizing portion(6) for synthesizing the imaginary character and the background graphic set with an image output from the camera.

Description

실시간 가상캐릭터 시스템 {Real-time virtual character system}Real-time virtual character system

본 발명은 실시간 가상캐릭터 시스템에 관한 것으로, 더욱 상세히는 동작 연기자의 몸 관절에 부착된 3차원 센서를 통해 읽어들인 동작 정보를 이용하여 가상캐릭터의 몸동작을 실시간으로 제어하고, 표정 캡쳐용 카메라를 이용하여 표정 연기자의 얼굴 이미지를 읽어 들인 후 이를 이용하여 가상캐릭터의 얼굴 표정을 실시간으로 제어할 뿐 아니라, 가상캐릭터와 배경 그래픽 세트를 카메라 움직임에 연동시키면서 크로마키 판넬(chroma key panel)이라고 불리는 특수한 스크린(대부분 청색이다) 앞에 위치한 진행자와 자연스럽게 합성할 수 있도록 발명한 것이다.The present invention relates to a real-time virtual character system, and more particularly, to control the motion of the virtual character in real time using motion information read through the three-dimensional sensor attached to the body joint of the performer, using a camera for capturing facial expressions Reads the facial image of the performer's face and uses it to control the facial expression of the virtual character in real time, as well as linking the virtual character and the set of background graphics to the camera movement, and using a special screen called chroma key panel. It was invented so that it could be naturally synthesized with the presenter (mostly blue).

종래의 가상캐릭터 시스템은 사전제작에 의해 가상캐릭터의 몸동작과 얼굴표정을 생성하기 때문에 가상캐릭터를 TV 생방송에 등장시켜 다른 출연자와 대화를 하거나 함께 춤을 추는 실시간 응용에는 매우 어렵고 단지 정해진 시나리오대로 동작을 연출하는 수동적인 가상캐릭터 기능만 가능하다.The conventional virtual character system generates the virtual character's motion and facial expression by pre-production, so it is very difficult for real-time applications where the virtual character appears on TV live broadcasts to talk or dance with other performers and only operate according to a predetermined scenario. Only passive virtual characters can be produced.

이와 같은 사전제작에 의한 방법은 많은 제작시간을 투자하여 가상캐릭터를 실제 인간과 매우 흡사하고 정교하게 제작할 수 있지만 프레임별로 가상캐릭터를 애니메이션을 하여야 하므로 제작 시간이 많이 걸리고 TV 생방송에 적용하기가 어렵다.The pre-production method can invest a lot of production time to produce a virtual character very similar to a real human being, but it requires a lot of animation time for each frame, making it difficult to apply to TV live broadcasting.

또한 종래의 가상캐릭터 시스템은 가상캐릭터와 배경 그래픽 세트를 카메라 움직임(팬, 틸트, 줌, 위치이동)과 연동시킬 수 있는 기능이 없으므로 카메라 움직임에 따라 가상캐릭터와 배경 그래픽 세트를 진행자의 움직임과 자연스럽게 일치시킬 수 없다.In addition, the conventional virtual character system does not have the function of linking the virtual character and the background graphic set with the camera movement (pan, tilt, zoom, position movement), so that the virtual character and the background graphic set are naturally connected to the presenter's movement according to the camera movement. Cannot match.

즉, 카메라를 이용하여 진행자를 촬영할 때 카메라의 움직임 데이터를 가상캐릭터와 배경 그래픽 세트의 움직임에 적용할 수가 없다.That is, when photographing the presenter using the camera, the motion data of the camera cannot be applied to the motion of the virtual character and the background graphic set.

그러나, 상기와 같은 문제점들을 해결하기 위해 최근 외국에서는 실시간 가상캐릭터 시스템을 개발하고 있으며, 가상캐릭터 몸동작 제어, 손동작 제어, 얼굴표정 제어, 카메라 연동 기능을 전부 통합하거나 혹은 부분적인 기능을 통합한 제품이 발표되고 있다.However, in order to solve the above problems, foreign countries have recently developed a real-time virtual character system, and a product which integrates all or partly functions of virtual character gesture control, hand gesture control, facial expression control, and camera interworking functions is being developed. It is announced.

따라서, 본 발명은 상기와 같은 종래 문제점을 해결하기 위하여 안출한 것으로, 실제 연기자의 동작과 표정을 포착하고 이를 대입함으로써 가상캐릭터 움직임을 실시간으로 제어하고, 가상캐릭터와 배경 그래픽 세트를 카메라 움직임에 연동시키면서 이를 진행자와 자연스럽게 합성할 수 있도록 하는 실시간 가상캐릭터 시스템을 제공하는데 그 목적이 있다.Accordingly, the present invention has been made to solve the above-mentioned conventional problem, and controls the movement of the virtual character in real time by capturing and substituting the motion and expression of the actual actor, and interlocking the virtual character and the background graphic set with the camera movement. The purpose is to provide a real-time virtual character system that can be synthesized naturally with the host.

이러한 본 발명의 목적은, 동작 연기자의 몸 움직임에 따라 가상캐릭터의 동작을 자연스럽게 움직이는 몸동작 제어부와; 동작연기자의 손 움직임에 따라 가상캐릭터의 손을 움직이는 손동작 제어부와; 표정 캡쳐용 카메라를 이용하여 입력한 표정 연기자의 얼굴 이미지를 이용하여 가상캐릭터의 얼굴 표정을 표현하는 얼굴 표정 제어부와; 카메라 움직임 데이터를 생성하여 그래픽 워크스테이션에 전달하는 카메라 시스템과; 가상캐릭터와 배경 그래픽 세트를 카메라 움직임과 연동시키는 카메라 움직임 연동부와; 가상캐릭터와 배경 그래픽 세트를 크로마키 판넬 앞에 위치한 진행자와 자연스럽게 합성할 수 있는 영상 합성부로 구성된 실기간 가상캐릭터 시스템에 있어서,The object of the present invention, the motion control unit for naturally moving the motion of the virtual character in accordance with the body movement of the performer; A hand motion control unit which moves a hand of the virtual character in accordance with the hand movement of the motion actor; A facial expression control unit for expressing a facial expression of the virtual character by using the facial image of the facial expression performer input using the facial expression capture camera; A camera system for generating camera motion data and transmitting it to a graphics workstation; A camera movement linker for linking the virtual character and the background graphic set with the camera movement; In the real-time virtual character system consisting of a video synthesizer that can naturally synthesize the virtual character and the background graphic set with the presenter located in front of the chroma key panel,

상기 몸동작 제어부는 동작 연기자의 관절에 부착한 동작 포착 장비의 3차원 센서를 이용하여 관절의 위치와 회전 정보를 알아내는 몸동작 포착부와; 포착된 관절 움직임 데이터를 대입하여 가상캐릭터의 관절을 자연스럽게 움직이는 몸동작 대입부로 구성하고, 손동작 제어부는 동작 연기자의 손에 장착된 장갑 모양의 손 움직임 포착 장비로부터 손가락 마디의 구부림 정보를 알아내는 손동작 포착부와; 포착된 손가락 정보를 대입하여 가상캐릭터의 손가락 관절을 움직이게 하는 손동작 대입부로 구성하고, 얼굴 표정 제어부는 연기자의 얼굴 표정을 입력하기 위한 표정 캡쳐용 카메라와; 입력된 얼굴 영상으로부터 각 얼굴 부분의 모양을 함축적으로 포함한 특징점들의 변위를 얻는 표정 포착부와; 얼굴 특징점들로부터 가상캐릭터의 얼굴 제어점을 변형시키는 표정 대입부로 구성하고, 영상 합성부는 가상캐릭터와 배경 그래픽 세트를 카메라 출력과 합성할 때 그래픽 워크스테이션의 그래픽 처리 속도만큼 카메라 출력을 딜레이 시키는 프레임 딜레이부와; 카메라 출력 영상의 청색 부분을 제거한 후, 그 자리에 그래픽 워크스테이션의 출력 부분을 채움으로써 자연스러운 합성 화면을 만들어 내는 크로마키어부로 구성함으로써 달성할 수 있다.The gesture control unit may include: a gesture capture unit which detects joint position and rotation information by using a three-dimensional sensor of the movement capture device attached to the joint of the performer; Hand motion capture unit which is composed of a body motion insertion unit that moves the joints of the virtual character naturally by substituting the captured joint motion data, and the hand motion control unit detects the bending information of the finger node from the glove-shaped hand motion capture device mounted on the motion actor's hand. Wow; A hand gesture substitution unit for moving the finger joint of the virtual character by substituting captured finger information, the facial expression control unit comprising: an expression capturing camera for inputting an actor's facial expression; An expression capture unit for obtaining displacements of feature points implicitly including the shape of each face part from the input face image; It consists of facial expression substitution that transforms the face control point of the virtual character from the facial feature points, and the image synthesizing unit delays the camera output as much as the graphics processing speed of the graphics workstation when composing the virtual character and the background graphic set with the camera output. Wow; This can be achieved by removing the blue portion of the camera output image and then configuring the chromakey portion to create a natural composite screen by filling the output portion of the graphics workstation in place.

따라서 실시간으로 연기자의 몸동작, 손 움직임 그리고 얼굴 표정을 포착하여 가상캐릭터의 몸동작과 얼굴 표정으로 연결함으로써 가상캐릭터를 생방송에 출연시켜 출연자와 상호작용이 있는 동작이 가능하며, 카메라 움직임에 연동시킬 수 있으므로 자연스럽게 가상캐릭터를 출연자와 합성할 수 있는 것이다.Therefore, by capturing the body movements, hand movements and facial expressions of the actors in real time and connecting them with the body movements and facial expressions of the virtual characters, the virtual characters appear live and can interact with the performers. Naturally, virtual characters can be synthesized with performers.

도 1은 본 발명 장치의 전체 블록 구성도1 is an overall block diagram of an apparatus of the present invention

도 2는 도 1중 몸동작 제어부와 손동작 제어부의 블록 구성도2 is a block diagram illustrating a gesture control unit and a hand control unit in FIG. 1;

도 3은 도 1중 얼굴표정 제어부와 영상 합성부의 블록 구성도FIG. 3 is a block diagram illustrating a face expression control unit and an image synthesis unit in FIG. 1.

도 4는 본 발명 방법에 의해 관절 크기가 서로 다른 2가지의 가상캐릭터에 대한 동작 대입 결과를 나타내는 화면의 예시도Figure 4 is an exemplary view showing a screen showing the result of the substitution of motion for two virtual characters having different joint sizes by the method of the present invention

도 5는 본 발명 방법에 의해 얼굴 표정 포착의 5단계를 설명하는 과정도5 is a flowchart illustrating five steps of capturing a facial expression by the method of the present invention.

도 6은 본 발명 방법에 의해 얼굴 표정 정보의 대입 결과를 나타내는 화면의 예시도6 is an exemplary view showing a screen showing a result of substitution of facial expression information by the method of the present invention.

도면중 주요 부분에 대한 부호의 설명Explanation of symbols for main parts in the drawings

1: 몸동작 제어부 2: 손동작 제어부1: gesture controller 2: gesture controller

3: 얼굴표정 제어부 4: 카메라 시스템3: facial expression control unit 4: camera system

5: 카메라 움직임 연동부 6: 영상 합성부5: camera movement linkage 6: image synthesis section

11: 몸동작 포착부 12: 몸동작 대입부11: gesture capture 12: gesture assignment

21: 손동작 포착부 22: 손동작 대입부21: hand gesture capture portion 22: hand gesture assignment

31: 표정 캡쳐용 카메라 32: 표정 포착부31: camera for capturing facial expressions 32: expression capturing unit

33: 표정 대입부 61: 프레임 딜레이부33: Expression assignment part 61: Frame delay part

62: 크로마키어부 121: 중심위치 생성부62: chroma key portion 121: center position generating portion

122: 지역적 역운동학부 123: 상호작용 가능성 추출부122: regional inverse kinematics 123: interaction possibility extraction unit

124: 동작 혼합부 321: 표정 추출부124: motion mixing unit 321: facial expression extracting unit

322: 머리 추적부322: head tracker

이하 본 발명의 바람직한 실시 예를 첨부된 도면에 의해 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명 장치의 전체 블록 구성도를 나타낸 것이고, 도 2는 도 1중 몸동작 제어부와 손동작 제어부를 나타낸 것이고, 도 3은 도 1중 얼굴 표정 제어부와 영상 합성부를 나타낸 것이고, 도 4는 관절 크기가 서로 다른 2가지의 가상캐릭터에 대한 동작대입 예시도를 나타낸 것이고, 도 5는 얼굴 표정 포착의 5단계를 설명한 예시도를 나타낸 것이며, 도 6은 얼굴표정 정보를 대입한 결과의 예시도를 나타낸 것이다.1 is a block diagram showing the overall block diagram of the apparatus of the present invention, FIG. 2 is a gesture control unit and a hand control unit in FIG. 1, FIG. 3 is a face expression control unit and an image synthesizer in FIG. 1, and FIG. 4 is a joint. FIG. 5 illustrates an example of operation substitution for two virtual characters having different sizes, FIG. 5 illustrates an example diagram illustrating five steps of capturing facial expressions, and FIG. 6 illustrates an example diagram of results of substituting facial expression information. It is shown.

이에 따르면, 연기자 관절의 움직임에 따라 가상캐릭터의 관절 움직임을 제어하는 몸동작 제어부(1)와; 동작 연기자의 손가락 마디의 구부림 정보를 추출하여 손의 움직임을 제어하는 손동작 제어부(2)와; 표정 포착용 카메라로부터 입력된 표정 연기자의 얼굴 표정을 분석하여 가상캐릭터 표정을 생성하는 얼굴 표정 제어부(3)와; 카메라 움직임 데이터를 생성하여 그래픽 워크스테이션에 전달하는 카메라 시스템(4)과; 가상캐릭터와 배경세트의 움직임을 카메라 움직임에 연동시키는 카메라 움직임 연동부(5)와; 가상캐릭터와 배경 그래픽 세트를 카메라 영상과 합성하는 영상 합성부(6)으로 구성된 실시간 가상캐릭터 시스템에 있어서,According to this, the motion control unit (1) for controlling the joint movement of the virtual character in accordance with the movement of the actor joint; A hand motion control unit 2 for controlling the movement of the hand by extracting bending information of the finger node of the performer; A facial expression control unit 3 for generating a virtual character expression by analyzing a facial expression of an expression performer input from an expression capturing camera; A camera system 4 for generating and transferring camera motion data to a graphics workstation; A camera motion linking unit 5 for linking the motion of the virtual character and the background set to the camera movement; In the real-time virtual character system composed of a virtual character and an image synthesizing unit (6) for combining a set of background graphics with a camera image,

상기 몸동작 제어부(1)는 동작 연기자의 관절에 부착한 동작 포착 장비의 3차원 센서를 이용하여 관절의 위치와 회전 정보를 알아내는 몸동작 포착부(11)와; 포착된 관절 움직임 데이터를 대입하여 가상캐릭터의 관절을 자연스럽게 움직이는 몸동작 대입부(12)로 구성한다.The gesture control unit 1 includes a gesture capture unit 11 for finding out the position and rotation information of the joint using a three-dimensional sensor of the movement capture device attached to the joint of the performer; Substituting the captured joint motion data is composed of the motion substitution part 12 which naturally moves the joint of the virtual character.

상기 몸동작 대입부(12)는 가상캐릭터의 크기나 모양이 실제 연기자와 다를 경우에 가상캐릭터의 말단 위치인 손과 다리의 위치가 왜곡되는 현상이 발생되므로 가상캐릭터의 손과 다리를 실제 연기자의 말단과 같은 위치에 놓이기 위해 가상캐릭터 중심인 골반의 위치를 결정하는 중심위치 생성부(121)와; 가상캐릭터의 말단이 지정된 위치에 도달할 수 있도록 어깨, 팔꿈치, 고관절, 무릎의 관절각을 결정하는 지역적 역운동학부(122)와; 가상캐릭터의 말단과 주변 환경 사이의 상호 가능성을 판단하는 상호작용 가능성 추출부(123)와; 상기 중심위치 생성부(121)와 지역적 역운동학부(122)와 상호작용 가능성 추출부(123)의 결과를 종합하여 상호 가능성이 적으면 관절각 기반의 동작의 비중을 크게 하고 거리가 가까워질수록 말단위치에 근거한 동작에 큰 가중치를 할당하여 가상캐릭터의 몸중심과 관절의 움직임을 생성하는 동작 혼합부(124)로 구성된 것을 특징으로 한다.When the size or shape of the virtual character is different from the actual performer, the motion substitution part 12 may distort the position of the hand and leg, which are the distal positions of the virtual character, so that the hands and legs of the virtual character are distal to the actual performer. A center position generating unit 121 for determining a position of the pelvis, which is the center of the virtual character, to be placed at the same position as that of the virtual character; A local inverse kinematics unit 122 that determines joint angles of the shoulders, elbows, hips, and knees so that the ends of the virtual characters reach a designated position; An interaction possibility extraction unit 123 for determining mutual possibilities between the terminal of the virtual character and the surrounding environment; By combining the results of the central position generating unit 121, the regional inverse kinematics unit 122 and the interaction possibility extracting unit 123, the smaller the mutual probability, the greater the weight of the joint angle-based motion and the closer the distance is. It is characterized by consisting of a motion mixing unit 124 for generating a movement of the body center and joint of the virtual character by assigning a large weight to the motion based on the distal position.

손동작 제어부(2)는 센서가 부착된 장갑 모양의 손 움직임 포착 장비로부터 손가락 마디의 구부림 정보를 알아내는 손동작 포착부(21)와; 포착된 손가락 정보를 대입하여 가상캐릭터의 손가락 관절을 움직이게 하는 손동작 대입부(22)로 구성된 것을 특징으로 한다.The hand motion control unit 2 includes a hand motion capture unit 21 for detecting bending information of a finger node from a glove-shaped hand motion capture device equipped with a sensor; Characterized in that it consists of a hand motion substitution unit 22 for moving the finger joint of the virtual character by substituting the captured finger information.

얼굴 표정 제어부(3)는 연기자의 얼굴 표정을 입력하기 위한 표정 캡쳐용 카메라(31)와; 입력된 얼굴 영상으로부터 각 얼굴 부분의 모양을 함축적으로 포함한 특징점들의 변위를 실시간으로 얻는 표정 포착부(32)와; 얼굴 특징점들로부터 가상캐릭터의 얼굴 제어점을 변형시키는 표정 대입부(33)로 구성한다.The facial expression control unit 3 includes an expression capturing camera 31 for inputting an actor's facial expression; An expression capture unit 32 which obtains displacements of feature points in real time including the shape of each face part from an input face image in real time; It consists of the expression substitution part 33 which deforms the face control point of a virtual character from facial feature points.

이때, 표정 포착부(32)는 입력된 얼굴 영상을 이용하여 얼굴의 특징점인 입, 눈, 눈썹 그리고 턱이 이루고 있는 특징점들의 위치를 찾아내는 표정 추출부(321)와; 실제 연기자의 머리가 움직이면 영상에 나타난 얼굴 모양이 바뀌므로 머리의 움직임을 추적하는 머리 추적부(322)로 구성한다.In this case, the expression capture unit 32 includes an expression extractor 321 for finding the positions of the feature points formed by the mouth, eyes, eyebrows, and jaws, which are the feature points of the face, using the input face image; As the actual actor's head moves, the shape of the face shown in the image changes, so the head tracking unit 322 tracks the movement of the head.

영상 합성부(6)는 가상캐릭터와 배경 그래픽 세트를 카메라 출력 영상과 합성할 때 그래픽 워크스테이션의 그래픽 처리 속도만큼 카메라 출력 영상을 딜레이 시키는 프레임 딜레이부(61)와; 카메라 출력의 청색 부분을 제거한 후, 그 자리에 그래픽 워크스테이션의 출력 부분을 채움으로써 자연스러운 합성 화면을 만들어 내는 크로마키어부(62)로 구성한다.The image synthesizing unit 6 includes a frame delay unit 61 for delaying the camera output image by the graphics processing speed of the graphic workstation when synthesizing the virtual character and the background graphic set with the camera output image; After removing the blue portion of the camera output, it fills in the output portion of the graphics workstation in place and constitutes a chroma key portion 62 that produces a natural composite screen.

이와 같이 구성된 본 발명 장치의 작용 효과를 상세히 설명하면 다음과 같다.Referring to the effect of the device of the present invention configured as described in detail as follows.

먼저, 가상캐릭터의 몸동작 제어부(1)는 동작 포착 장비로부터 얻어진 동작 정보들을 가상캐릭터 모델에 대입하여 동작 움직임을 생성한다.First, the motion controller 1 of the virtual character generates motion motion by substituting motion information obtained from motion capture equipment into the virtual character model.

동작 포착 장비는 자기장을 이용하여 14개 센서 각각에 대해 회전 각도와 위치를 이더넷(ethernet)을 통해 그래픽 워크스테이션에 초당 최대 144회 보낸다.The motion capture device uses a magnetic field to send the rotation angle and position for each of the 14 sensors to the graphics workstation up to 144 times per second via Ethernet.

동작 포착 장비에서 제공하는 관절의 방향에 관한 정보를 가상캐릭터에 단순히 대입하게 되면 연기자의 자연스러운 동작을 유지할 수는 있지만 가상캐릭터의 말단 위치가 왜곡되는 현상이 발생하게 된다.Simply inserting information about the direction of the joint provided by the motion capture device into the virtual character may maintain the actor's natural motion, but the distal position of the virtual character may be distorted.

즉, 손과 발의 위치가 변함으로써 바닥에 닿아있어야 할 가상캐릭터의 발이 바닥에서 미끄러지거나 바닥을 뚫고 들어가고, 물체를 손으로 집을 때 손이 물체에 닿지 않거나 물체 속으로 들어가는 문제점이 빈번히 발생된다.That is, as the position of the hand and the foot changes, the virtual character's foot, which should be on the floor, slides or penetrates the floor, and when the object is picked up by hand, the hand does not touch the object or enters into the object frequently.

이런 현상은 가상캐릭터의 크기나 모양이 실제 연기자와 다를 경우 특히 심하게 발생된다.This is especially true if the size or shape of the virtual character is different from the actual actor.

이에 반해 동작 포착 장비에서 제공하는 관절의 위치에 관한 정보 즉 실제 연기자의 각 말단 위치를 사상캐릭터에 그대로 적용하면 말단위치의 왜곡이 적은 동작을 생성할 수 있지만 자연스러운 동작을 유지할 수가 없다.On the other hand, if the information about the position of the joint provided by the motion capturing device, that is, each end position of the actual performer is applied to the mapping character as it is, it is possible to generate the movement with less distortion of the end position, but cannot maintain the natural movement.

따라서 몸동작 대입부(12)에서는 실제 연기자의 각 말단과 미리 정의된 환경의 상호작용 여부를 판단하고, 상호작용의 가능성이 높으면 말단의 위치를 대입한 동작의 비중을 크게 하고, 그렇지 않으면 실제 연기자의 각 관절각의 대입한 동작을 보다 큰 비중으로 혼합하면 두 경우 모두에 있어서 비교적 자연스러운 동작을 생성할 수 있다.Therefore, the gesture substitution part 12 determines whether each end of the actual actor interacts with the predefined environment, and if the possibility of interaction is high, the weight of the motion that substitutes the position of the end is increased, otherwise the actual actor's Mixing the substituted motion of each joint angle to a greater specific gravity can produce relatively natural motion in both cases.

이를 위해 몸동작 대입부(12)에서는 가상캐릭터의 중심위치를 조절하는 중심위치 생성부(121)와; 말단의 위치를 대입하여 역운동학을 이용한 관절각을 계산하는 지역적 역운동학부(122)와; 각 말단과 환경의 상호작용 여부를 판단하는 상호작용 가능성 추출부(123)와; 결과를 혼합하여 동작을 생성하는 동작 혼합부(124)로 구성하였다.To this end, the motion substitution unit 12 includes a center position generating unit 121 for adjusting the center position of the virtual character; A local inverse kinematics unit 122 for calculating joint angles using inverse kinematics by substituting the position of the terminal; An interaction possibility extraction unit 123 for determining whether each terminal interacts with the environment; It consists of a motion mixing unit 124 for mixing the results to generate a motion.

중심위치 생성부(121)의 가상캐릭터 중심위치 조절은 가상캐릭터의 말단을 실제 연기자의 말단과 같은 위치에 놓이게 하기 위해 실시하는 것이다.The virtual character center position adjustment of the center position generating unit 121 is performed to bring the end of the virtual character to the same position as the end of the actual actor.

가상캐릭터의 중심 위치, 즉 골반 중심의 위치를 결정하는데 있어서 고려해야 할 점은 먼저 실제 연기자의 골반 중심의 위치를 가급적 유지하는 것이며, 가상캐릭터의 골반 중심 위치를 구하기 위해 각 말단이 도달할 수 있는 범위를 알아야 한다.In determining the virtual position of the virtual character, that is, the position of the pelvis center, the first consideration is to keep the position of the pelvic center of the actual actor as much as possible, and the range that each end can reach to obtain the virtual character's pelvic center position. You should know

팔이나 다리에서 어깨나 고관절의 위치가 결정되었을 때 손과 발이 도달할 수 있는 범위는 각각 구의 형태로 나타나며, 이는 어깨나 고관절, 즉 지주(pivot)를 중심으로 하고 팔과 다리를 완전히 뻗었을 때의 길이를 반지름으로 하는 구를 의미하는데 이를 말단의 범위 구 라고 한다.When the position of the shoulder or hip in the arm or leg is determined, the range of reach of the hands and feet is shown in the form of a sphere, each of which is centered around the shoulder or hip, or pivot, and when the arms and legs are fully extended. Means a sphere whose radius is, which is called the range sphere at the end.

각 말단의 위치가 주어졌을 때 골반 중심을 범위 구 내부에 위치하게 하면 말단이 지정한 위치에 도달하게 할 수 있으므로 모든 말단이 지정한 장소에 위치하게 하기 위해서는 각 말단에 의해 얻어지는 네 개의 구의 교집합에 골반 중심을 위치시켜야 한다.Given the position of each end, placing the pelvic center within the sphere of the sphere allows the end to reach the specified position, so in order to have all the ends at the specified place, the pelvic center is the intersection of the four spheres obtained by each end. Should be located.

네 개의 구의 교집합이 존재하지 않을 경우에는 비교적 중요하지 않은 말단에서 얻어진 범위 구를 제거하여 나머지 말단의 조건을 만족하게 한다.If there is no intersection of four spheres, the range spheres obtained at relatively insignificant ends are removed to satisfy the remaining end conditions.

말단의 위치를 반드시 유지해야 하는 경우는 말단이 외부 물체와 상호작용 할 가능성이 높은 경우이기 때문에 비교적 상호작용의 가능성이 적은 말단에 의한 범위 구를 제거하며, 교집합이 나타날 때까지 범위 구를 제거하여 최종적으로 골반의 존재 범위를 구할 수 있다.If the position of the terminal must be maintained, the terminal is likely to interact with an external object, so the range sphere by the terminal that is less likely to interact is removed, and the range sphere is removed until the intersection appears. Finally, the range of presence of the pelvis can be obtained.

지역적 역운동학부(122)의 관절각 계산은 역운동학을 이용하여 말단 위치에 대한 관절각을 구하는 것이다.The joint angle calculation of the regional inverse kinematics 122 calculates the joint angle with respect to the distal position using the inverse kinematics.

역운동학을 인체에 적용하면 비교적 계산 시간이 많이 걸리므로 본 발명에서는 적용 범위를 팔과 다리로 제한하고 국지적으로 관절각을 계산함으로써 보다 빠르게 말단의 위치를 기반으로 하는 동작을 생성한다.Applying inverse kinematics to the human body takes a relatively long time to calculate, the present invention limits the scope of application to the arms and legs and locally calculates the joint angle to generate motion based on the position of the distal end more quickly.

역운동학으로 얻어진 관절각은 여러 종류가 나오 수 있으므로 실제 연기자의 관절각과 위치를 참조하여 가급적 실제 연기자의 관절각과 비슷한 동작을 생성한다.Since there are many kinds of joint angles obtained by inverse kinematics, the joint angles and positions of actual performers are referred to to generate motions similar to those of actual performers.

상호작용 가능성 추출부(123)의 상호작용 여부는 각 말단에 대하여 정의된 모든 환경과의 거리를 계산하고 이를 이용하여 상호 작용의 가능성을 계산한다.Whether or not the interaction possibility extraction unit 123 interacts calculates the distance from all environments defined for each end and calculates the possibility of interaction using the same.

실제 연기자의 동작에서 상호작용의 여부를 알아내기 위해서 먼저 상호작용의 대상이 되는 환경의 위치를 지정하여야 하며, 환경의 물체들이 비교적 간단한 형태의 기하 구조로 표현할 수 있기 때문에 빠르게 말단과 물체들과의 거리를 계산할 수 있다.In order to find out whether there is an interaction in the actual actor's motion, the location of the environment to be interacted with must first be specified, and since the objects of the environment can be represented by a relatively simple geometric structure, The distance can be calculated.

각각의 물체들과 말단의 거리가 얻어지면, 상호 작용 가능성을 계산할 수 있고, 상호 작용 가능성들 중 가장 큰 값이 말단이 상호 작용할 가능성이 된다.Once the distance between the end of each object and the end is obtained, the possibility of interaction can be calculated, and the largest value of the possibilities of interaction becomes the possibility of the end interacting.

동작 혼합부(124)의 혼합된 동작 생성은 외부 환경과의 상호 작용 가능성이 작으면 실제 연기자의 관절각을 중심으로 생성된 동작을 우선으로 하고, 그 값이 크면 말단의 위치에서 생성된 동작의 비중을 크게 하여 혼합하는 것으로, 적절한 동작 혼합은 두가지 경우에 있어서 비교적 자연스러운 동작을 얻는다.The mixed motion generation of the motion mixing unit 124 gives priority to the motion generated around the actual actor's joint angle when the possibility of interaction with the external environment is small, and when the motion mixing part 124 has a large value, By mixing with specific gravity, proper motion mixing results in a relatively natural motion in both cases.

관절각을 혼합하기 전에 먼저 골반의 방향과 몸통, 목, 머리 등의 관절각은 실제 연기자의 관절각을 그대로 대입하고, 나머지 사지의 각 관절각은 두 동작을 혼합한다.Before mixing the joint angles, the joint angles of the pelvis and the trunk, neck, head, etc. are substituted for the actual actor's joint angles, and each joint angle of the remaining limbs mixes the two movements.

도 4는 공을 던지는 동작을 관절의 비율이 크게 다른 두 가지 가상캐릭터에 대입한 결과를 나타내는 예시도로써, 관절의 차이에서 발생되는 말단위치의 왜곡 현상을 제거하고 가상캐릭터 중심위치를 조절할 뿐 아니라 관절각을 적절히 변화시켜 자유스러운 동작을 생성을 나타내고 있다.4 is an exemplary view showing the result of substituting the ball throwing motion to two virtual characters having significantly different joint ratios, as well as removing the distorted distal position caused by the joint difference and adjusting the virtual character center position. The joint angle is properly changed to generate a free motion.

한편, 얼굴 표정 제어부(3)에서는 표정 캡쳐용 카메라를 이용하여 입력된 연기자의 얼굴 표정을 분석하여 얼굴 부분의 모양을 함축적으로 포함한 특징점들의 변위를 알아내고, 변형된 얼굴 특징점들로부터 가상캐릭터의 얼굴 제어점을 변형하여 표정을 생성한다.On the other hand, the facial expression control unit 3 analyzes the facial expression of the performer input by using a facial expression capture camera to find the displacement of the feature points including the shape of the face part, and the face of the virtual character from the modified face feature points Create control expressions by modifying control points.

이를 위해 표정 포착부(32)에서는 얼굴 각 부분의 모양을 나타내는 특징점들의 변위를 구하고, 연기자의 머리가 움직이면 영상에 나타난 얼굴 모양이 바뀌게 되므로 얼굴 표정을 정확히 얻기 위한 머리 움직임을 추적한다.To this end, the expression capture unit 32 obtains displacements of the feature points representing the shape of each part of the face, and tracks the head movement to obtain the facial expression accurately because the face shape shown in the image is changed when the actor's head moves.

특징점들의 변위를 구하기 위해 표정 추출부(321)는 입력영상을 쉽게 표정을 얻을 수 있는 영상으로 변환하고, 변환된 영상으로부터 얼굴 각 부분의 모양을 나타내는 곡선을 얻은 뒤, 그 곡선들로부터 추출한 특징점들의 변위를 얻는다.In order to obtain the displacement of the feature points, the expression extractor 321 converts the input image into an image that can easily obtain an expression, obtains a curve representing the shape of each face from the converted image, and then extracts the feature points extracted from the curves. Get displacement.

실제 연기자나 조명 등의 환경이 바뀌더라도 영상으로부터 얼굴 각 부분을 쉽게 찾기 위해 영상의 색 정보를 변형하여 얼굴 각 부분과 주변 피부의 명도 차가 심한 명암 영상(gray-scale image)을 얻은 뒤, 변환된 영상으로부터 얼굴 각 부분의 모양을 구분한다.Even if the environment of the actor or lighting changes, the color information of the image is modified to easily find each part of the face from the image to obtain a gray-scale image having a large difference in brightness between each part and the surrounding skin. The shape of each part of the face is identified from the image.

그리고 얼굴 각 부분의 외곽선을 나타내는 간단한 매개 함수 곡선을 찾아낸 후 특징점들을 추출한다.Then, we find a simple parametric curve representing the outline of each face and extract the feature points.

표정 추출 대상은 입, 눈, 눈썹, 그리고 턱이 해당되는데, 입은 입술과 피부의 경계선, 눈은 속눈썹이 이루는 눈꺼풀의 모양, 눈썹은 눈썹 아래 부분이 이루는 곡선, 그리고 턱은 턱의 외곽선에 대한 곡선을 찾음으로써 얼굴 각 부분의 모양을 얻을 수 있다.Expression targets include mouth, eyes, eyebrows, and chin, mouth lip and skin borders, eye shape of eyelids formed by eyelashes, eyebrows curves under the eyebrows, and chin curves around the outline of the chin. By finding the shape of each part of the face can be obtained.

영상의 외곽선을 나타내는 곡선이 에너지를 갖고, 그 에너지가 얼굴 각 부분의 경계선에 가까울수록 낮아진다면, 에너지 최소화법(energy minimization)을 이용하여 외곽선의 모양을 나타내는 곡선을 얻을 수 있다.If the curve representing the outline of the image has energy, and the energy decreases as it approaches the boundary of each part of the face, a curve representing the shape of the outline may be obtained using energy minimization.

그러나 명도 변화율에 의한 에너지만을 이용하면, 찾고자 하는 외곽선과 비슷한 모양을 갖지만, 그 외곽선과는 전혀 다른 것을 찾을 수도 있는데, 예를 들어 입술의 바깥 선을 찾을 때, 입술의 안쪽 선을 찾을 수도 있다.However, if you use only the energy of the rate of change of brightness, you can find something similar to the outline you are looking for, but it is completely different from the outline you are looking for, for example, when you look for the outer line of the lips, you can find the inner line of the lips.

따라서, 곡선이 정확한 부분에 위치하게 하기 위해 명도 변화율에 의한 에너지 외에 얼굴 각 부분의 명도 정보를 이용하여 생성된 곡선의 내부와 외부 차감 곡선을 함께 사용한다.Therefore, in order to position the curve at the correct part, the inner and outer subtraction curves of the curve generated by using the brightness information of each part in addition to the energy due to the brightness change rate are used together.

머리 추적부(322)는 표정의 변화에 거의 영향을 받지 않는 점들을 기준점으로 정하여, 이들의 상관 관계를 이용하여 각각의 3차원 좌표를 얻음으로써 움직임을 추적한다.The head tracking unit 322 sets the points which are hardly influenced by the change of the facial expression as reference points, and tracks the movement by obtaining each three-dimensional coordinates using these correlations.

안정적인 머리 추적 결과를 얻기 위해 여러 개의 기준점들 중 세 개를 선택하여 추적 결과를 얻는 과정을 반복하고, 각각의 추적 결과에 대한 안정적인 값을 구한다.In order to obtain a stable head tracking result, three of the reference points are selected and the process of obtaining the tracking result is repeated, and a stable value for each tracking result is obtained.

세 개의 기준점으로는 눈의 양 옆 끝점과 콧구멍으로 정의하였고, 이들 세 점을 이용한 추적은 위치 관계를 만족하는 점을 유일하게 결정하지 못하지만, 위치 관계 외에 머리 움직임에서 위치, 속도, 방향이 급격하게 일어나지 않는다는 성질을 함께 이용하여 이들의 변화가 가장 적은 해를 선택하여 올바른 3차원 좌표를 구한다.The three reference points were defined as the end points of the eyes and the nostrils, and the tracking using these three points does not uniquely determine the point that satisfies the positional relationship. Using the property of not happening together, we select the solution that has the least change and get the correct three-dimensional coordinates.

도 5는 상기 표정 포착부(32)에서 실제 연기자의 표정을 포착하는 과정을 나타낸다.5 illustrates a process of capturing the actual actor's expression in the facial expression capture unit 32.

한편, 표정 대입부(33)에서는 연기자 얼굴에 포착한 특징점의 변위로 이용하여 가상 캐릭터의 표정을 제어하는데, 특징점과 제어점의 변위가 서로 선형적이라는 사실에 착안하여 빠르고 유연하게 이들을 대응시키기 위해 선형 대응 함수를 이용한다.On the other hand, in the expression substitution unit 33 controls the facial expression of the virtual character using the displacement of the feature points captured on the actor's face, paying attention to the fact that the displacements of the feature points and the control points are linear with each other, to quickly and flexibly match them. Use the corresponding function.

선형 대응 함수를 이용하면 특징점과 제어점 간에 존재하는 크기의 차이를 보정할 수 있는데, 이때 정의역은 특징점들의 변위이고, 치역은 제어점들의 변위이다. 선형 대응 함수는 특징점들의 가중치를 구성 요소로 하는 행렬로 표현되며, 포착된 특징점 정보가 입력되었을 때, 선형 대응 함수를 나타내는 행렬을 곱하여 제어점 정보를 계산할 수 있다.The linear correspondence function can be used to correct for the difference in magnitude between the feature point and the control point, where the domain is the displacement of the feature points and the range is the displacement of the control points. The linear correspondence function is expressed as a matrix having the weights of the feature points, and when the captured feature point information is input, the control point information may be calculated by multiplying the matrix representing the linear correspondence function.

특징점 정보가 입력되었을 때, 선형 대응 함수를 곱한 제어점 정보= A x로 계산할 수 있다.Feature Point Information Is a linear correspondence function Control point information multiplied by = A x Can be calculated as

이러한 대응은 그 정의역과 치역이 제한되어 있지 않기 때문에 특징점과 제어점의 개수가 다른 경우에도 이용될 수 있으며, 또한축 방향의 변위를 추가하면 제어점의 3차원적인 움직임도 인위적으로 생성할 수 있다.This correspondence can be used even when the number of feature points and control points is different because the domain and the range are not limited. on Adding an axial displacement can also artificially create three-dimensional movement of the control point.

이때, 몇 개의 중요한 표정을 샘플로 주는 훈련 과정이 필요한데, 이 훈련 과정은 실제 연기자의 특징적인 표정 샘플에 대하여 가상 캐릭터가 그 표정을 가장 잘 나타내게 하도록 제어점의 변위를 선택하는 것이다.At this point, a training process is required to sample some important facial expressions. This training process selects the displacement of the control point so that the virtual character best represents the facial expressions of the characteristic facial expressions of the actual actor.

실제 연기자의 표정과 가상 캐릭터의 표정은 오로지 행렬로 정의되는 대응 함수에 의해 결정되기 때문에 훈련과정을 통해 대응 함수를 적절하게 구성하여 표정을 과장시키거나 완화시킨다.Since the expressions of the actual performer and the expression of the virtual character are determined only by the corresponding function defined by the matrix, the training function is appropriately configured to exaggerate or alleviate the expression.

제어점의 변위를 이용한 얼굴 표정 변형은 곡선의 변형기법을 이용하였는데, 얼굴에 있는 눈, 입술, 턱 등 대부분이 곡선으로 이루어져 있는 점을 감안하면 얼굴의 변형을 제어하는데 곡선이 매우 적합한 수단임을 알 수 있다.Deformation of facial expression using displacement of control point is using curve transformation method. Given that most eyes, lips and chin on the face are composed of curves, it can be seen that curve is a very suitable means to control the deformation of face. have.

표정 제어점을 매개변수 곡선(parametric curve)에 적용하면 매개변수(parametric curve) 특성에 의해 제어점이 곡선 위에 놓이지 않기 때문에 직접 제어를 할 수 없다.When the facial expression control point is applied to a parametric curve, direct control is not possible because the control point is not placed on the curve by the parametric curve characteristic.

따라서 B 스플라인(B-spline) 곡선 보간법을 사용하여 표정 제어점이 모두 곡선을 통과하게 하였으며 제어점에 의해 곡선을 직접 제어하였다.Therefore, the B-spline curve interpolation method was used to make all the expression control points pass through the curve, and the curve was directly controlled by the control point.

도 6은 포착된 실제 연기자의 표정을 가상캐릭터에 대입한 결과를 나타낸 것으로써, 실제 연기자의 표정과 가상캐릭터의 표정이 일치됨을 알 수 있다.6 shows the result of substituting the captured actual actor's expression into the virtual character, and it can be seen that the expression of the actual actor's expression matches that of the virtual character.

이상에서 설명한 바와 같이 본 발명에 의하면, 동작 연기자의 동작 정보와 표정 연기자의 얼굴 영상을 이용하여 가상캐릭터의 몸 동작과 얼굴 표정을 실시간으로 제어할 뿐 아니라, 가상캐릭터와 배경 그래픽 세트를 카메라 움직임에 연동시키면서 크로마키 판넬(chroma key panel) 앞에 위치한 진행자와 자연스럽게 합성하는 실시간 가상캐릭터 시스템을 개발함으로써, 사전 제작 기법으로 가상캐릭터를 생성하는 시스템과는 달리 가상캐릭터를 TV 생방송에 등장시켜 다른 출연자와 대화를 하거나 함께 춤을 추는 실시간 응용이 가능하고, 연기자와 가상캐릭터의 체형 차이를 극복하는 몸동작 대입 기법을 이용하여 새로운 가상캐릭터 모델을 쉽게 적용할 수 있는 잇점이 있다.As described above, according to the present invention, the motion information and the facial expression of the virtual character are not only controlled in real time by using the motion information of the actor and the facial image of the facial expression actor, but the virtual character and the background graphic set are controlled by the camera movement. By developing a real-time virtual character system that naturally combines with a host located in front of a chroma key panel while interlocking, unlike a system that creates a virtual character using a pre-production technique, a virtual character appears on TV live and communicates with other performers. It is possible to apply the new virtual character model easily by using the real-time application that can perform the dance or dance together, and the body substitution technique that overcomes the difference in body type between the actor and the virtual character.

Claims (3)

연기자 관절의 움직임에 따라 가상캐릭터의 관절 움직임을 제어하는 몸동작 제어부(1)와; 동작 연기자의 손가락 마디의 구부림 정보를 추출하여 손의 움직임을 제어하는 손동작 제어부(2)와; 카메라로부터 입력된 표정 연기자의 얼굴표정을 분석하여 가상캐릭터 얼굴 표정을 생성하는 얼굴 표정 제어부(3)와; 카메라 움직임 데이터를 생성하여 그래픽 워크스테이션에 전달하는 카메라 시스템(4)과; 가상캐릭터와 배경 그래픽 세트의 움직임을 카메라 움직임에 연동시키는 카메라 움직임 연동부(5)와; 가상캐릭터와 배경 그래픽 세트를 카메라 출력 영상과 합성하는 영상 합성부(6)으로 구성된 실시간 가상캐릭터 시스템에 있어서,A gesture controller 1 for controlling joint movement of the virtual character according to the movement of the actor joint; A hand motion control unit 2 for controlling the movement of the hand by extracting bending information of the finger node of the performer; A facial expression control unit 3 for analyzing a facial expression of an expression performer input from a camera to generate a virtual character facial expression; A camera system 4 for generating and transferring camera motion data to a graphics workstation; A camera motion linking unit 5 for linking the motion of the virtual character and the background graphic set to the camera motion; In the real-time virtual character system composed of a virtual character and an image synthesizing unit (6) for combining a set of background graphics with the camera output image, 상기 몸동작 제어부(1)는 동작 연기자의 관절에 부착한 동작 포착 장비의 3차원 센서를 이용하여 관절의 위치와 회전 정보를 알아내는 몸동작 포착부(11)와; 포착된 관절 움직임 데이터를 대입하여 가상캐릭터의 관절을 자연스럽게 움직이는 몸동작 대입부(12)로 구성하고, 손동작 제어부(2)는 센서가 부착된 장갑 모양의 손 움직임 포착 장비로부터 손가락 마디의 구부림 정보를 알아내는 손동작 포착부(21)와; 포착된 손가락 정보를 대입하여 가상캐릭터의 손가락 관절을 움직이게 하는 손동작 대입부(22)로 구성하고, 얼굴 표정 제어부(3)는 연기자의 얼굴 표정을 입력하기 위한 표정 캡쳐용 카메라(31)와; 입력된 얼굴 영상으로부터 각 얼굴 부분의 모양을 함축적으로 포함하고 있는 특징점들의 변위를 얻는 표정 포착부(32)와; 얼굴 특징점들로부터 가상캐릭터의 얼굴 제어점을 변형시키는 표정 대입부(33)로 구성한 것을 특징으로 한 실시간 가상캐릭터 시스템.The gesture control unit 1 includes a gesture capture unit 11 for finding out the position and rotation information of the joint using a three-dimensional sensor of the movement capture device attached to the joint of the performer; Consists of the captured joint motion data to the motion substitution part 12 to naturally move the joints of the virtual character, the hand motion control unit 2 obtains the bending information of the fingertips from the glove-shaped hand motion capture device with a sensor A hand gesture catcher 21 for emitting; And a hand gesture substitution unit 22 for moving the finger joint of the virtual character by substituting captured finger information, and the facial expression control unit 3 includes a facial expression capture camera 31 for inputting an actor's facial expression; An expression capture unit 32 for obtaining displacements of feature points implicitly including the shape of each face part from the input face image; A real-time virtual character system comprising a facial expression substitution unit (33) for deforming a face control point of a virtual character from facial feature points. 청구항 1에 있어서, 상기 몸동작 대입부(12)는 가상캐릭터의 크기나 모양이 실제 연기자와 다를 경우에 가상캐릭터의 말단 위치인 손과 다리의 위치가 왜곡되는 현상이 발생되므로 가상캐릭터의 손과 다리를 실제 연기자의 말단과 같은 위치에 놓이기 위해 가상캐릭터 중심인 골반의 위치를 결정하는 중심위치 생성부(121)와; 가상캐릭터의 말단을 지정된 위치에 도달할 수 있도록 어깨, 팔꿈치, 고관절, 무릎의 관절각을 결정하는 지역적 역운동학부(122)와; 가상캐릭터의 말단과 주변 환경 사이의 상호 가능성을 판단하는 상호작용 가능성 추출부(123)와; 상기 중심위치 생성부(121)와 지역적 역운동학부(122)와 상호작용 가능성 추출부(123)의 결과를 종합하여 상호 가능성이 적으면 관절각 기반의 동작의 비중을 크게 하고 거리가 가까워질수록 말단위치에 근거한 동작에 큰 가중치를 할당하여 가상캐릭터의 몸중심과 관절의 움직임을 생성하는 동작 혼합부(124)로 구성된 것을 특징으로 하는 실시간 가상캐릭터 시스템.The method according to claim 1, wherein the motion substitution part 12 is the position of the virtual character's hand and leg is distorted when the size or shape of the virtual character is different from the actual actor, so the hands and legs of the virtual character A center position generating unit 121 for determining a position of the pelvis that is the center of the virtual character so as to be located at the same position as the end of the actual performer; A local inverse kinematics unit 122 that determines joint angles of the shoulders, elbows, hips, and knees so that the end of the virtual character can reach a designated position; An interaction possibility extraction unit 123 for determining mutual possibilities between the terminal of the virtual character and the surrounding environment; By combining the results of the central position generating unit 121, the regional inverse kinematics unit 122 and the interaction possibility extracting unit 123, the smaller the mutual probability, the greater the weight of the joint angle-based motion and the closer the distance is. Real-time virtual character system comprising a motion mixing unit 124 for generating a movement of the body and the joint of the virtual character by assigning a large weight to the motion based on the end position. 청구항 1에 있어서, 상기 표정 포착부(32)는 입력된 얼굴 영상을 이용하여 얼굴의 특징점인 입, 눈, 눈썹 그리고 턱이 이루고 있는 특징점들의 위치를 찾아내는 표정 추출부(321)와; 실제 연기자의 머리가 움직이면 영상에 나타난 얼굴 모양이 바뀌므로 머리의 움직임을 추적하는 머리 추적부(322)로 구성된 것을 특징으로 하는 실시간 가상캐릭터 시스템.The method of claim 1, wherein the expression capture unit 32 comprises: an expression extracting unit 321 for finding the position of the feature points formed by the mouth, eyes, eyebrows and chin which are the feature points of the face using the input face image; Real-time virtual character system, characterized in that consisting of a head tracking unit 322 for tracking the movement of the head because the face shape shown in the image changes when the head of the actual performer moves.
KR1019990018697A 1999-05-24 1999-05-24 Real-time virtual character system KR100301962B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990018697A KR100301962B1 (en) 1999-05-24 1999-05-24 Real-time virtual character system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990018697A KR100301962B1 (en) 1999-05-24 1999-05-24 Real-time virtual character system

Publications (2)

Publication Number Publication Date
KR20000074633A true KR20000074633A (en) 2000-12-15
KR100301962B1 KR100301962B1 (en) 2001-09-26

Family

ID=19587405

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990018697A KR100301962B1 (en) 1999-05-24 1999-05-24 Real-time virtual character system

Country Status (1)

Country Link
KR (1) KR100301962B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020017009A (en) * 2000-08-28 2002-03-07 박기봉 Moving picture circuit board
KR20020059078A (en) * 2000-12-30 2002-07-12 윤세영 Method for establishing 3d-character having multi-layer and computer record medium including a program regarding the same
KR100422470B1 (en) * 2001-02-15 2004-03-11 비쥬텍쓰리디(주) Method and apparatus for replacing a model face of moving image
WO2004051576A1 (en) * 2002-12-03 2004-06-17 Good N Joy Co., Ltd. Method for manufacturing and supplying animation composed with real picture
KR100701010B1 (en) * 2005-12-09 2007-03-29 한국전자통신연구원 Data Broadcasting System and Method interlocked with the Internet using the Virtual Studio
US7239718B2 (en) 2002-12-20 2007-07-03 Electronics And Telecommunications Research Institute Apparatus and method for high-speed marker-free motion capture
US7869646B2 (en) 2005-12-01 2011-01-11 Electronics And Telecommunications Research Institute Method for estimating three-dimensional position of human joint using sphere projecting technique
KR102412595B1 (en) * 2021-09-09 2022-06-24 주식회사 치즈앤 Method and device for providing special film production service using 3d character

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200052812A (en) 2019-06-20 2020-05-15 (주)셀빅 Activity character creating method in virtual environment
KR102343562B1 (en) 2019-09-20 2021-12-27 (주)셀빅 Activity character creating method in virtual environment based on sketch character

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020017009A (en) * 2000-08-28 2002-03-07 박기봉 Moving picture circuit board
KR20020059078A (en) * 2000-12-30 2002-07-12 윤세영 Method for establishing 3d-character having multi-layer and computer record medium including a program regarding the same
KR100422470B1 (en) * 2001-02-15 2004-03-11 비쥬텍쓰리디(주) Method and apparatus for replacing a model face of moving image
WO2004051576A1 (en) * 2002-12-03 2004-06-17 Good N Joy Co., Ltd. Method for manufacturing and supplying animation composed with real picture
US7239718B2 (en) 2002-12-20 2007-07-03 Electronics And Telecommunications Research Institute Apparatus and method for high-speed marker-free motion capture
US7869646B2 (en) 2005-12-01 2011-01-11 Electronics And Telecommunications Research Institute Method for estimating three-dimensional position of human joint using sphere projecting technique
KR100701010B1 (en) * 2005-12-09 2007-03-29 한국전자통신연구원 Data Broadcasting System and Method interlocked with the Internet using the Virtual Studio
KR102412595B1 (en) * 2021-09-09 2022-06-24 주식회사 치즈앤 Method and device for providing special film production service using 3d character

Also Published As

Publication number Publication date
KR100301962B1 (en) 2001-09-26

Similar Documents

Publication Publication Date Title
Mueller et al. Real-time hand tracking under occlusion from an egocentric rgb-d sensor
Achenbach et al. Fast generation of realistic virtual humans
KR102577472B1 (en) Apparatus and method for generating synthetic learning data for motion recognition
Bodenheimer et al. The process of motion capture: Dealing with the data
KR101711736B1 (en) Feature extraction method for motion recognition in image and motion recognition method using skeleton information
US7068277B2 (en) System and method for animating a digital facial model
KR101323966B1 (en) A system and method for 3D space-dimension based image processing
US6130677A (en) Interactive computer vision system
CN108564643B (en) Performance capture system based on UE engine
US20030020718A1 (en) Approximating motion using a three-dimensional model
KR20000017755A (en) Method for Acquisition of Data About Motion
KR100301962B1 (en) Real-time virtual character system
Yonemoto et al. Real-time human motion analysis and IK-based human figure control
WO2021240848A1 (en) Three-dimensional avatar generation device, three-dimensional avatar generation method, and three-dimensional avatar generation program
Umenhoffer et al. Facial animation retargeting framework using radial basis functions
KR20150044243A (en) Electronic learning apparatus and method for controlling contents by hand avatar
JP3860287B2 (en) Motion extraction processing method, motion extraction processing device, and program storage medium
Xing et al. Markerless motion capture of human body using PSO with single depth camera
Wilhelms et al. Human motion from active contours
Yonemoto et al. Real-time visually guided human figure control using IK-based motion synthesis
Maxwell Graphical marionette: a modern-day Pinocchio
Rose et al. The process of motion capture: Dealing with the data
Lee et al. Making h-anim bodies
CN112215928A (en) Motion capture method based on visual image and digital animation production method
KR20230146272A (en) Character creating system based on 3d graphics of background data for AI training

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100331

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee