KR100512565B1 - Method for automatic animation of three dimensions scan face data - Google Patents

Method for automatic animation of three dimensions scan face data Download PDF

Info

Publication number
KR100512565B1
KR100512565B1 KR10-2003-0055708A KR20030055708A KR100512565B1 KR 100512565 B1 KR100512565 B1 KR 100512565B1 KR 20030055708 A KR20030055708 A KR 20030055708A KR 100512565 B1 KR100512565 B1 KR 100512565B1
Authority
KR
South Korea
Prior art keywords
data
face
animation
generating
model
Prior art date
Application number
KR10-2003-0055708A
Other languages
Korean (ko)
Other versions
KR20030070578A (en
Inventor
김수균
김창헌
Original Assignee
학교법인고려중앙학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인고려중앙학원 filed Critical 학교법인고려중앙학원
Priority to KR10-2003-0055708A priority Critical patent/KR100512565B1/en
Publication of KR20030070578A publication Critical patent/KR20030070578A/en
Application granted granted Critical
Publication of KR100512565B1 publication Critical patent/KR100512565B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

본 발명은 3차원 얼굴 모델의 레인지 스캔 데이터를 사용하여 얼굴에서의 특징 점을 찾아 특징-유지 간략화를 수행하고, 그 간략화된 얼굴 모델을 통해 얼굴 애니메이션을 수행하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법에 관한 것으로서, 이러한 본 발명은, 3차원 얼굴 스캔 데이터를 입력 데이터로 하여 텍스처 이미지로부터 윤곽선을 검출하고, 그 검출된 윤곽선과 기하학 모델이 가지고 있는 텍스처 좌표를 통해 기하학 모델에서의 특징 점을 추출하며, 추출된 특징 점에 가중치를 주고 기하학 모델에서의 Quadric error를 구해 입력 개수만큼 특징 점을 유지하며 얼굴 모델의 간략화를 수행한다. 또한, 간략화된 얼굴 모델을 애니메이션 하기 위해 expression retargeting을 적용하여 원하는 애니메이션을 수행하며, 애니메이션시 스캔 모델은 입이 벌어지지 않으므로 입술을 분리하고 애니메이션을 적용함으로써 실제와 유사한 에니메이션이 이루어지도록 한다.The present invention uses the range scan data of a three-dimensional face model to find feature points in a face, perform feature-maintaining simplification, and perform an animation of a three-dimensional scan face data using the simplified face model. The present invention relates to detecting contours from a texture image using three-dimensional face scan data as input data, and extracting feature points from a geometric model through the detected contours and texture coordinates of the geometric model. Then, we weight the extracted feature points, obtain quadric errors in the geometric model, keep the feature points as many as the number of inputs, and simplify the face model. Also, in order to animate a simplified face model, expression retargeting is applied to perform a desired animation.As a scan model does not open a mouth during animation, the lips are separated and an animation is applied to make an animation similar to the reality.

Description

3차원 스캔 얼굴 데이터의 자동 애니메이션 방법{Method for automatic animation of three dimensions scan face data} Method for automatic animation of three dimensions scan face data}

본 발명은 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법에 관한 것으로서, 특히 3차원 얼굴 모델의 레인지 스캔 데이터를 사용하여 얼굴에서의 특징점을 찾아 유지 및 간략화를 수행하고, 그 간략화된 얼굴 모델을 통해 얼굴 애니메이션을 수행하도록 한 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법에 관한 것이다.The present invention relates to an automatic animation method of three-dimensional scan face data, and in particular, finds and maintains feature points on a face using range scan data of a three-dimensional face model, and performs face animation through the simplified face model. It relates to an automatic animation method of the three-dimensional scan face data to perform.

일반적으로 애니메이션(Animation)은, 컴퓨터 내부에서 생성된 일련의 화상을 디스플레이 화면상에 연속적으로 표시하여, 흡사 움직이고 있는 것과 같이 보이도록 하는 기법, 또는 이와 같은 영상을 말한다. 최근에는 컴퓨터 보조 학습(CAI)등에서도 학습자의 이해를 높이기 위해 이러한 애니메이션 기법을 사용하여 복잡하고 어려운 문제의 해설에 시각적효과(視覺的效果)를 주고 있다.In general, animation refers to a technique for continuously displaying a series of images generated inside a computer on a display screen so that the image looks similar to moving, or such an image. Recently, in computer aided learning (CAI), such animation techniques have been used to enhance the understanding of learners, giving visual effects to the explanation of complex and difficult problems.

인간의 얼굴을 컴퓨터를 이용하여 모델링하는 과정에서 자연스럽지 못한 얼굴을 생성하지 않기 위해서는 고도의 전문성과 많은 시간 투자와 수작업이 요구된다. 실시간 얼굴 애니메이션에 있어서의 어려운 점은 많은 얼굴 모델의 데이터를 줄이는 문제와 데이터를 줄이는 과정에서 얼굴의 특징을 나타내는 눈, 눈썹, 코, 입을 유지하면서 데이터 수를 최대한 사용자가 원하는 단계까지 줄여주는 문제 및 데이터를 줄였을 때 텍스처 이미지가 일그러지지 않게 하는 것이다.The process of modeling a human face using a computer requires a high degree of expertise, a lot of time, and a lot of manual work to avoid creating an unnatural face. Difficulties with real-time facial animation include the problem of reducing the data of many face models, and reducing the number of data to the desired level while maintaining the eyes, eyebrows, nose, and mouth that characterize the face in the process of reducing the data. This is to ensure that the texture image is not distorted when the data is reduced.

자연스러운 얼굴의 애니메이션을 위해서는 숙련된 디자이너의 장시간의 수작업을 필요로 한다. 새로운 모델을 생성할 때 혹은 새로운 표정을 추가할 때마다 디자이너는 표정을 만드는 작업을 반복해야만 한다. Natural facial animation requires a long time by a skilled designer. Whenever a new model is created or a new facial expression is added, the designer has to repeat creating the facial expression.

종래의 3차원 애니메이션 기술은, 스캐닝된 입력 얼굴 모델을 직접 사용하지 않고 변형된 모델을 사용함으로써 모델의 실제 품질이 떨어지고, 특징점의 개수도 200여개가 되는 등의 문제점을 안고 있었다.Conventional three-dimensional animation technology has a problem that the actual quality of the model is reduced by using the deformed model instead of directly using the scanned input face model, and the number of feature points is about 200.

또한, 새로운 모델을 직접 사용하는 방법도 있는 데, 이 경우 입술 경계선이 존재하고 경계점의 위치와 개수가 동일해야 한다는 제약을 갖고 있다.There is also a way to use the new model directly, in which case the lip boundary must exist and the location and number of boundary points must be the same.

따라서 본 발명은 상기와 같은 종래 얼굴 애니메이션에서 발생하는 새로운 얼굴을 만드는데 많은 소요시간이 필요하고, 새로운 표정을 만드는데 많은 시간이 소요되며, 입술의 경계선이 있어야만 애니메이션이 가능하다는 등의 제반 문제점을 해결하기 위해서 제안된 것으로서,Therefore, the present invention takes a lot of time to create a new face that occurs in the conventional face animation as described above, takes a lot of time to create a new expression, to solve all the problems such that the animation is possible only when there is a border of the lips. As proposed for

본 발명의 목적은, 3차원 얼굴 모델의 레인지 스캔 데이터를 사용하여 얼굴에서의 특징점을 찾아 유지 및 간략화를 수행하고, 그 간략화된 얼굴 모델을 통해 얼굴 애니메이션을 수행하도록 한 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법을 제공하는 데 있다.An object of the present invention is to automatically find and maintain feature points on a face using range scan data of a three-dimensional face model, and to perform face animation through the simplified face model. To provide a way to animate.

상기와 같은 목적을 달성하기 위한 본 발명에 의한 "3차원 스캔 얼굴 데이터의 자동 애니메이션 방법"은,The "automatic animation method of the three-dimensional scan face data" according to the present invention for achieving the above object,

레인지 스캔 데이터를 간략화하여 모델링 시간을 줄이고, 모션 캡쳐 데이터를 이용하여 애니메이션의 작업시간을 줄여주고, 입술 경계선을 자동으로 생성하므로 써 자연스런 애니메이션이 가능토록 한다.Simplify range scan data to reduce modeling time, use motion capture data to reduce animation time, and automatically generate lip boundaries to enable natural animation.

즉, 3차원 얼굴 스캔 데이터를 입력 데이터로 하여 텍스처 이미지로부터 윤곽선을 검출하고, 그 검출된 윤곽선과 기하학 모델이 가지고 있는 텍스처 좌표를 통해 기하학 모델에서의 특징점을 추출한다. 이 후 추출한 특징점에 가중치를 주고 기하학 모델에서의 Quadric error를 구해 입력 개수만큼 특징점을 유지하며 얼굴 모델을 간략화한다. 간략화된 얼굴 모델을 애니메이션하기 위해 expression retargeting을 적용하여 원하는 애니메이션을 만들어 낸다. 하지만 스캔 모델은 입이 벌어지지 않으므로 입술을 분리하고, 애니메이션을 적용함으로써 실제와 유사한 애니메이션을 가능하게 한다. That is, the contour is detected from the texture image using the three-dimensional face scan data as input data, and feature points of the geometric model are extracted from the detected contour and the texture coordinates of the geometric model. After that, the extracted feature points are weighted, quadric errors are obtained from the geometric model, and the feature points are kept as many as the number of inputs and the face model is simplified. To animate the simplified face model, apply expression retargeting to produce the desired animation. However, the scan model doesn't open, so the lips are separated and animate, enabling realistic animation.

이하 상기와 같은 기술적 사상에 따른 본 발명의 바람직한 실시예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, described in detail with reference to the accompanying drawings, preferred embodiments of the present invention according to the technical spirit as described above.

본 발명에 의한 스캔 얼굴 모델로부터의 자동 애니메이션 생성 기술은, 종래 자연스러운 얼굴의 애니메이션을 위해서는 숙련된 디자이너의 장시간의 수작업을 필요로 하고, 새로운 모델을 생성할 때 혹은 새로운 표정을 추가할 때마다 디자이너는 표정을 만드는 작업을 반복해야만 하는 문제를 극복하고 새로운 얼굴에 원하는 애니메이션을 빠르게 적용시키도록 한다. 이 과정에서 문제점은 특징점을 찍을 때 약간의 시행착오가 필요하다는 것이다.The automatic animation generation technique from the scan face model according to the present invention requires a long time manual work by an experienced designer for the animation of the conventional natural face, and each time a new model is created or a new expression is added, Overcome the problem of having to repeat the process of making facial expressions and quickly apply the desired animation to a new face. The problem with this process is that it takes some trial and error to capture the feature points.

특징점은 2가지로 나뉘는데 하나는 얼굴의 특징을 나타내는 점이고, 다른 하나는 변형 모델을 만들기 위한 일치점이다. 얼굴의 특징점은 간략화를 하지 않고 버텍스(vertex)는 보존이 된다. 그래서 애니메이션을 하는 데 있어 부자연스러워 보이는 것을 방지한다. 얼굴의 특징점은 코끝이라든지 귀 양끝, 입술 경계부분 등의 많이 움직이는 버텍스를 위주로 결정을 한다. 대략 20개 가량의 점을 지정해 준다. 일치점은 애니메이션을 가진 소스(source) 모델을 간략화 된 스캔 모델의 형태로 변형시킬 때 사용된다. RBF(Radial Basis Function)를 사용하는 데, 이는 일치점을 위주로 보간(interpolation)을 하는 방법이다. 즉, 일치점은 정확히 그 자리에 갖다 놓고, 일치점 사이의 나머지 점들은 보간을 통해 적당한 위치로 이동을 시킨다. 이 점도 약 20개 정도이다.The feature points are divided into two types, one for the feature of the face and the other for the coincidence of the deformation model. The feature points of the face are not simplified and the vertices are preserved. This prevents the appearance of unnaturalness in animating. The facial features are mainly focused on the moving vertices such as the tip of the nose, the ends of the ears, and the edges of the lips. About 20 points are assigned. Match points are used to transform an animated source model into a simplified scan model. RBF (Radial Basis Function) is used, which is a method of interpolation around coincidence points. That is, the coincidence point is exactly set in place, and the remaining points between the coincidence points are moved to an appropriate position through interpolation. This is about 20 points.

도 1은 본 발명에 의한 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법을 보인 흐름도이다.1 is a flowchart illustrating an automatic animation method of 3D scan face data according to the present invention.

이에 도시된 바와 같이, 3차원 스캔 얼굴 데이터를 입력받는 단계(S10)와; 상기 입력받은 스캔 데이터가 텍스처 이미지인지를 판단하는 단계(S20)와; 상기 판단결과 입력된 스캔 데이터가 텍스처 이미지일 경우 그 텍스처 이미지로부터 특징점을 추출하는 단계(S30)와; 상기 입력된 스캔 데이터가 텍스처 이미지가 아닐 경우에는 geometry로부터 기하학 정보를 추출하는 단계(S40)와; 상기 추출한 특징점 데이터와 기하학 정보로부터 이산 곡률을 측정하는 단계(S50)와; 얼굴의 특징 부분 외의 점들은 바운딩 영역을 만들어 외곽의 점을 제거하고, 상기 바운딩 영역내의 특징점 외의 노이즈를 제거하여 얼굴 데이터를 간략화하는 단계(S60)와; 입술을 움직이는 과정을 위해 입술 선에서의 경계선을 생성하는 단계(S70)와; 상기 간략화된 얼굴 데이터와 생성한 입술 경계선을 이용하여 목표 얼굴 데이터를 생성하는 단계(S80)와; 일치점을 생성하는 단계(S90)와; 상기 생성한 목표 얼굴 데이터와 일치점 및 소스 얼굴 데이터를 이용하여 변형 얼굴 데이터를 생성하는 단계(S100)와; 상기 소스 얼굴 데이터로부터 소스 애니메이션 데이터를 생성하는 단계(S110)와; 상기 생성한 목표 얼굴 데이터와 변형 얼굴 데이터와 소스 애니메이션 데이터를 이용하여 목표 애니네이션을 수행하여 목표 애니메이션 데이터를 생성하는 단계(S120)로 이루어진다.As shown therein, step S10 of receiving three-dimensional scan face data; Determining whether the received scan data is a texture image (S20); Extracting a feature point from the texture image when the scan data inputted as a result of the determination is a texture image (S30); Extracting geometry information from geometry when the input scan data is not a texture image (S40); Measuring a discrete curvature from the extracted feature point data and the geometry information (S50); (S60) simplifying the face data by removing the points outside the feature by creating a bounding area and removing the points outside the feature area of the face; Generating a boundary line at a lip line for a process of moving the lips (S70); Generating target face data using the simplified face data and the generated lip boundary line (S80); Generating a matching point (S90); Generating modified face data by using the generated coincidence point and the source face data (S100); Generating source animation data from the source face data (S110); The target animation is performed by using the generated target face data, modified face data, and source animation data to generate target animation data (S120).

이와 같이 이루어지는 본 발명에 의한 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법을 첨부한 도면에 의거 상세히 설명하면 다음과 같다.The automatic animation method of the three-dimensional scan face data according to the present invention as described above will be described in detail with reference to the accompanying drawings.

먼저 단계 S10에서는 3차원 스캔 얼굴 데이터를 입력받게 된다. 도 7a 내지 도 7d는 3차원 얼굴 스캔 데이터의 예시도이다. 여기서 도 7a는 메쉬를 나타내고, 도 7b는 텍스처 이미지를 나타내고, 도 7c는 스캔 데이터를 나타내며, 도 7d는 텍스처 매핑 상태를 나타낸다.First, in step S10, the 3D scan face data is received. 7A to 7D are exemplary views of three-dimensional face scan data. 7A illustrates a mesh, FIG. 7B illustrates a texture image, FIG. 7C illustrates scan data, and FIG. 7D illustrates a texture mapping state.

입력되는 3차원 스캔 데이터는 기하학(geometry) 데이터와 텍스처 이미지(texture image)로 구성되어 있으며, 본 발명에서는 3차원 스캐너를 이용해 직접 사람의 얼굴을 촬영해 얻은 스캔 데이터를 사용하고, 기하학 데이터와 텍스처 이미지 데이터를 직접 스캔 받게되며, 얼굴 정면에서 단 한 번의 촬영으로 스캐닝(scanning) 작업은 이루어진다.The input 3D scan data is composed of geometry data and texture image. In the present invention, scan data obtained by directly photographing a human face using a 3D scanner is used. The image data is scanned directly and scanning is performed with just one shot in front of the face.

다음으로 단계 S20에서는 입력 스캔 데이터가 텍스처 이미지인가 판단하게 된다. 상기 판단 결과 입력된 스캔 데이터가 텍스처 이미지가 아닐 경우에는 단계 S40으로 이동하여 입력된 스캔 데이터로부터 기하학 정보를 추출하게 된다. 이와는 달리 입력된 스캔 데이터가 텍스처 이미지일 경우에는 단계 S3으로 이동하여 상기 텍스처 이미지로부터 특징점을 추출하게 된다.Next, in step S20, it is determined whether the input scan data is a texture image. If the input scan data is not a texture image as a result of the determination, the process moves to step S40 to extract geometric information from the input scan data. On the other hand, if the input scan data is a texture image, the process moves to step S3 to extract feature points from the texture image.

도 2는 상기 특징점 추출 과정을 좀 더 구체적으로 보인 흐름도이다.2 is a flowchart illustrating the feature point extraction process in more detail.

이에 도시된 바와 같이, 얼굴 모델의 텍스처 이미지로부터 윤곽선을 검출하는 단계(S31, S32)와; 상기 텍스처 이미지에 기하학 모델의 텍스처 좌표를 매핑시켜 특징점을 추출하는 단계(S33, S34)로 이루어진다.As shown therein, detecting the contour from the texture image of the face model (S31, S32); Extracting feature points by mapping texture coordinates of a geometric model to the texture image (S33 and S34).

이와 같이 이루어지는 특징점 추출 과정을 좀 더 구체적으로 살펴보면, 단계 S31 및 S32에서 3차원 스캐너로부터 얻어진 얼굴 모델의 텍스처 이미지에 Sobel edge detection 기법을 적용하여 윤곽선을 검출하게 되고, 단계 S33 및 S34에서는 텍스처와 기하학 모델의 텍스처 좌표를 매핑시켜 기하학 모델에서의 특징점(기하학 정보)을 추출한다. 도 8은 상기 텍스처 이미지로부터 특정 점을 추출하는 과정을 보인 도면이다.In more detail, the feature extraction process performed in this way, in step S31 and S32 to apply a Sobel edge detection method to the texture image of the face model obtained from the three-dimensional scanner to detect the contour, and in step S33 and S34 texture and geometry The texture coordinates of the model are mapped to extract feature points (geometric information) from the geometric model. 8 is a diagram illustrating a process of extracting a specific point from the texture image.

다음으로 단계 S50에서는 상기 텍스처 이미지 및 기하학 데이터로부터 이산 곡률 측정하고, 단계 S60에서는 얼굴 데이터의 간략화를 수행한다.In operation S50, discrete curvatures are measured from the texture image and the geometry data, and in operation S60, the face data is simplified.

도 3은 상기 얼굴 데이터 간략화 과정의 일 실시예를 보인 흐름도이다.3 is a flowchart illustrating an embodiment of the face data simplification process.

이에 도시된 바와 같이, 지역 좌표를 세계 좌표로 매핑하는 단계(S61)와; 바운더리 영역을 생성하는 단계(S62)와; 노이즈 제거 및 필터링을 수행하여 얼굴의 특정 부분 이외 지역의 특징점을 제거하는 단계(S63, S64)와; 상기 특징점이 제거된 나머지 특징점에 가중치를 부여하는 단계(S65)와; Quadric 에러를 생성하는 단계(S66)와; 에지 Collapse를 수행하는 단계(S67)와; 상기 단계(S66) 및 단계(S67)를 사용자가 원하는 개수만큼 반복 수행했는지를 체크하는 단계(S68)로 이루어진다.As shown therein, step S61 of mapping the local coordinates to the world coordinates; Generating a boundary area (S62); Performing noise removal and filtering to remove feature points of regions other than a specific portion of the face (S63 and S64); Weighting the remaining feature points from which the feature points are removed (S65); Generating a quadric error (S66); Performing edge collapse (S67); In step S68, it is checked whether the user repeats the steps S66 and S67 as many times as the user wants.

이와 같이 이루어지는 얼굴 데이터 간략화 과정을 좀 더 구체적으로 살펴보면 다음과 같다.Looking at the face data simplification process in this way in more detail as follows.

먼저 단계 S61에서와 같이 지역 좌표를 세계 좌표로 매핑 하게 된다. First, as in step S61, the local coordinates are mapped to the world coordinates.

그런 후 단계 S62에서는 바운더리 영역(Boundary area)을 생성하게 된다. Thereafter, in step S62, a boundary area is created.

즉, 텍스처 이미지로부터 추출된 점들 중에는 노이즈, 얼굴의 특징을 나타내는 중요한 부분의 점들과 그렇지 못한 점들로 구분할 수 있다. Sobel edge detection을 이용해 구한 점들 중에는 특징 부분의 점들과 노이즈 등이 있다. 따라서 얼굴의 특징 부분 외의 점들에 대한 바운딩 영역을 생성하게 된다.That is, among the points extracted from the texture image, it is possible to distinguish between the points of important parts representing noise and facial features and the points not. Among the points obtained by using Sobel edge detection, there are the feature points and noise. Therefore, a bounding area is generated for points outside the feature part of the face.

그리고 단계 S63 및 S64에서는 노이즈 제거 및 필터링을 수행하여 상기 bounding area내의 특징점 외의 노이즈를 제거한다. 노이즈를 제거하기 위해 곡률 필터링을 이용하여 노이즈를 제거한다.In steps S63 and S64, noise removal and filtering are performed to remove noise other than the feature points in the bounding area. To remove the noise, use curvature filtering to remove the noise.

도 9a 내지 도 9b는 상기 이산 곡률 필터링 과정을 보인 도면이다. 여기서 도 9a는 추출된 특징 점 데이터를 나타내고, 도 9b는 바운딩 영역을 생성한 상태도이고, 도 9c는 이산 곡률 필터링의 결과를 나타낸 것이다.9A to 9B illustrate the discrete curvature filtering process. 9A illustrates extracted feature point data, FIG. 9B illustrates a state in which a bounding region is generated, and FIG. 9C illustrates a result of discrete curvature filtering.

다음으로 단계 S65에서는 특징점에 가중치를 부여해주고, 단계 S66에서는 Quadric 에러를 생성하게 되며, 단계 S67에서는 에지 Collapse를 수행하게 된다. 그리고 단계 S68에서는 상기 단계(S66) 및 단계(S67)를 사용자가 원하는 개수만큼 반복 수행했는지를 체크하여 원하는 개수가 되지 않았을 경우에는 상기 단계 S66으로 이동하고, 원하는 개수에 도달된 경우에는 단계 S70으로 이동한다.Next, in step S65, the feature points are weighted, in step S66 a quadric error is generated, and in step S67, edge collapse is performed. In step S68, the user checks whether the steps S66 and S67 have been repeatedly performed as many times as desired by the user. If the desired number is not reached, the process moves to the step S66. If the desired number is reached, the process goes to step S70. Move.

도 10a 내지 도 10d는 상기 이산 곡률 필터링된 특징점으로부터 특징-유지 간략화를 수행하여 얼굴 데이터를 간략화하는 과정을 보인 도면이다. 여기서 도 10a는 추출된 원래의 모델(107,696 faces)을 나타내고, 도 10b는 특징-유지 간략화 과정을 통해 원래 모델의 데이터가 3,000개로 간략화된 경우를 나타내며, 도 10c는 특징-유지 간략화 과정을 통해 원래 모델의 데이터가 1,500개로 간략화된 경우를 나타내며, 도 10d는 특징-유지 간략화 과정을 통해 원래 모델의 데이터가 600개로 간략화된 경우를 나타낸다.10A to 10D illustrate a process of simplifying face data by performing feature-maintenance simplification from the discrete curvature filtered feature points. FIG. 10A shows the original model 107,696 faces extracted, FIG. 10B shows a case where the data of the original model is simplified to 3,000 through the feature-maintenance simplification process, and FIG. 10C shows the original model through the feature-maintenance simplification process. The data of the model is simplified to 1,500, and FIG. 10D illustrates a case of 600 data of the original model through the feature-maintenance simplification process.

다음으로 단계 S70에서는 얼굴 애니메이션 중에서 입술을 움직이는 과정을 위해 입술 선에서의 경계선을 생성하게 된다. Next, in step S70, the boundary line of the lip line is generated for the process of moving the lips during the facial animation.

도 4는 상기 입술 경계점 생성 과정의 일 실시예를 보인 흐름도이다.4 is a flowchart illustrating an embodiment of the lip boundary point generation process.

이에 도시된 바와 같이, 입술 경계점을 일렬로 정렬하는 단계(S71)와; 입술 경계점과 같은 위치에 같은 개수의 버텍스를 생성하는 단계(S72)와; 입 안쪽의 바운더리를 형성하는 단계(S73)로 이루어진다.As shown here, aligning the lip boundary points in a line (S71); Generating the same number of vertices at the same position as the lip boundary point (S72); Forming a boundary inside the mouth (S73).

이와 같이 이루어지는 본 발명에 의한 입술 경계점 생성 과정을 좀 더 구체적으로 설명하면 다음과 같다.Referring to the lip boundary point generation process according to the present invention made in more detail as follows.

먼저 단계 S71에서와 같이 입술 애니메이션을 위해 입술을 가지런히 정렬시킨다. 다음으로 단계 S72에서는 입술 경계선과 같은 위치에 같은 개수의 버텍스를 생성하게 되고, 단계 S73에서는 생성된 버텍스에서 입술 안쪽에 경계선을 생성하여 애니메이션시에 입술을 벌릴 수 있는 동작이 가능토록 한다.First, align the lips for lip animation as in step S71. Next, in step S72, the same number of vertices are generated at the same position as the lip boundary line, and in step S73, a boundary line is created inside the lip from the generated vertices to enable the operation of opening the lips during animation.

다음으로 단계 S80에서는 상기 간략화된 얼굴 데이터와 생성한 입술 경계점 데이터를 이용하여 목표 얼굴 데이터를 생성하게 된다. 그리고 단계 S90에서는 일치점을 생성하고, 단계 S100에서는 상기 생성한 목표 얼굴 데이터와 일치점 데이터 및 소스 얼굴 데이터를 이용하여 변형 얼굴 데이터를 생성하게 된다. Next, in step S80, target face data is generated using the simplified face data and the generated lip boundary data. In operation S90, a coincidence point is generated, and in operation S100, the modified face data is generated using the generated target face data, the coincidence point data, and the source face data.

도 5는 상기 변형 얼굴 데이터 생성 과정의 일 실시예를 보인 흐름도로서, 단계 S101에서는 볼륨 몰핑(Volume Morphing)을 수행하고, 단계 S102에서는 Cylindrical Projection을 수행하여 변형 얼굴 데이터를 생성하게 된다. FIG. 5 is a flowchart illustrating an embodiment of the process of generating the modified face data. In step S101, volume morphing is performed, and in step S102, deformation face data is generated by performing a Cylindrical Projection.

도 11은 변형 모델의 생성 과정의 일 실시예를 보인 도면이다.11 illustrates an embodiment of a process of generating a deformation model.

다음으로 단계 110에서는 소스 애니메이션 데이터를 생성하고, 단계 S120에서는 최종적인 목표 애니메이션 데이터를 생성하게 된다.Next, in step 110, source animation data is generated, and in step S120, final target animation data is generated.

도 6은 상기 목표 애니메이션 생성 과정의 일 실시예를 보인 흐름도이다.6 is a flowchart illustrating an embodiment of the target animation generation process.

이에 도시된 바와 같이, 모션 벡터를 생성하는 단계(S121)와; 상기 생성한 모션 벡터의 방향을 변환하는 단계(S122)와; 상기 생성한 모션 벡터의 크기를 변환시키는 단계(S123)와; Cylindrical Projection을 수행하는 단계(S124)와; 목표 모션 벡터를 계산하는 단계(S125)와; 생성한 모션 벡터를 크기순으로 정렬하여 목표 애니메이션 데이터를 생성하는 단계(S126, S127)로 이루어진다.As shown therein, generating a motion vector (S121); Converting the direction of the generated motion vector (S122); Converting the magnitude of the generated motion vector (S123); Performing Cylindrical Projection (S124); Calculating a target motion vector (S125); Steps S126 and S127 generate target animation data by arranging the generated motion vectors in size order.

이와 같이 이루어지는 목표 애니메이션 생성 과정을 좀 더 구체적으로 설명하면 다음과 같다.A more detailed description of the target animation generation process is as follows.

먼저 단계 S121에서는 모션 벡터를 생성하게 된다. 모델의 애니메이션은 각 버텍스에 존재하는 모션 벡터에 의해 수행되는데, 모션 벡터란 최초 프레임의 버텍스에서 현재 프레임의 버텍스의 위치로 이동하기 위한 방향과 거리를 의미한다. 각 얼굴은 생긴 모양이 다르므로 모션 벡터 역시 다를 수밖에 없다. 그래서 표준 모델에 존재하는 모션 벡터를 목표 모델의 모션 벡터로 바꿔주는 작업이 필요하다. 벡터는 일반적으로 크기와 방향을 갖는다. 따라서 모션 벡터를 목표 모델에 맞게 바꿔주기 위해서는 크기와 방향을 달리해 주어야만 한다.First, in step S121, a motion vector is generated. The animation of the model is performed by the motion vectors present in each vertex. The motion vector means a direction and a distance for moving from the vertex of the first frame to the position of the vertex of the current frame. Each face has a different shape, so the motion vector is inevitably different. Therefore, it is necessary to replace the motion vector existing in the standard model with the motion vector of the target model. Vectors generally have size and direction. Therefore, to change the motion vector to match the target model, the size and direction must be changed.

다음으로 단계 S122에서는 모션 벡터의 방향을 변환하게 된다.Next, in step S122, the direction of the motion vector is changed.

모션 벡터의 방향을 변환하기 위해서는, 표준 모델의 각 버텍스에 존재하는 좌표계를 구하고, 그것을 월드 좌표계의 X, Y, Z축과 맞추기 위한 행렬을 구한다. 버텍스에 존재하는 좌표계를 구하는 방법은 법선 벡터를 X축으로 삼고, 그 축에 수직인 평면을 구해 임의의 이웃 버텍스를 그 평면에 투영한다. 원래 버텍스와 투영된 버텍스를 이어서 Y축으로 지정한다. Z축은 X, Y축의 외적을 계산하여 구한다. 또, 월드 좌표계를 목표 모델로 변형된 표준 모델(이하, "변형 모델"이라 칭함)의 버텍스에 존재하는 좌표계에 맞추는 행렬을 구한 후, 이 두 행렬을 곱하여 표준모델의 버텍스 좌표계를 변형 모델의 버텍스 좌표계로 변화시키는 행렬을 얻는다.To convert the direction of the motion vector, the coordinate system existing in each vertex of the standard model is obtained, and a matrix for fitting it to the X, Y, and Z axes of the world coordinate system is obtained. To find the coordinate system that exists in a vertex, we use the normal vector as the X axis, find a plane perpendicular to that axis, and project any neighboring vertices onto that plane. The original vertex and the projected vertex are then specified on the Y axis. The Z axis is obtained by calculating the cross products of the X and Y axes. In addition, after obtaining a matrix matching the world coordinate system to the coordinate system existing in the vertex of the standard model (hereinafter, referred to as the "deformation model") transformed into the target model, multiplying these two matrices and multiplying the vertex coordinate system of the standard model by the vertex of the deformation model. Get a matrix that transforms into a coordinate system.

다음으로 단계 S123에서는 모션 벡터의 길이를 변환하게 된다.Next, in step S123, the length of the motion vector is converted.

각 버텍스와 그 이웃 버텍스들로 BB(Bounding Box)를 만들고, 표준 모델과 변형 모델간의 대응하는 BB의 X, Y, Z 길이를 비교하여 스케일링 값을 구한다. 이로써 표준 모델의 모센 벡터를 변형 모델의 모션 벡터로 변형시켰다. 즉, 표준 모델의 애니메이션을 변형 모델에서도 쓸 수 있게된 것이다. 도 12a 및 도 12b는 모션 벡터의 변환 과정을 보여주는 것으로서, 도 12a는 표준 모델을 변형 모델로 변환하는 과정을 보인 것이고, 도 12b는 변형 모델을 스캔 모델로 변환하는 과정을 보인 것이다.Create a bounding box (BB) with each vertex and its neighbors, and compare the X, Y, and Z lengths of the corresponding BBs between the standard and deformed models to find the scaling values. This transformed the Mosen vector of the standard model into the motion vector of the deformation model. That is, the animation of the standard model can be used in the deformation model. 12A and 12B show a process of converting a motion vector. FIG. 12A shows a process of converting a standard model into a transform model, and FIG. 12B shows a process of converting a transform model into a scan model.

다음으로 단계 S124에서는 Cylindrical Projection을 수행하게 된다. 즉, 변형 모델의 모션 벡터를 목표 모델로 옮기게 된다. 이를 위해서 우선 목표 모델을 변형 모델로 Cylindrical Projection시킨다. 그러면 목표 모델의 모든 버텍스가 변형 모델의 각 면위에 존재하게 된다. 그래서 목표 모델의 버텍스를 포함하는 변형 모델의 삼각형을 찾아 그 삼각형의 세 버텍스가 갖는 모션 벡터를 Barycentric Coordinates를 이용하여 적절한 비율로 합하면 스캔 모델의 모션 벡터가 탄생하게 된다.Next, in step S124, Cylindrical Projection is performed. That is, the motion vector of the deformation model is transferred to the target model. To do this, first, the target model is transformed into a cylindrical projection. Then all the vertices of the target model are on each side of the deformation model. Therefore, by finding the triangle of the deformation model including the vertex of the target model and combining the motion vectors of the three vertices of the triangle at an appropriate ratio using Barycentric Coordinates, the motion vector of the scan model is created.

다음으로 단계 S125에서는 목표 모션 벡터를 계산하게 된다.Next, in step S125, the target motion vector is calculated.

컨트롤 메쉬(control mesh)로부터 다단계 DAM으로의 표정 적용은 단계 순서대로 만들어지는데, 컨트롤 메쉬가 1차 DSM에, 1차 DSM이 2차 DSM에 적용하는 식이다. subdivision은 새로 생성되는 점의 위치가 마스크(mask)값에 의해 결정된다. 이때 새로 생성되는 점의 모션 벡터는 점의 위치를 찾듯이 마스크 값을 이전 모델의 모션 벡터에 적용시켜 계산한다. 그 결과로 생성된 애니메이션은 각 단계의 DSM에 표정을 부여한다. 여기서 Subdivision은 일반적인 루프 서브디비젼을 이용한다.The expression application from the control mesh to the multi-level DAM is made in the order of steps, in which the control mesh is applied to the primary DSM and the primary DSM to the secondary DSM. In subdivision, the position of newly created point is determined by the mask value. At this time, the motion vector of the newly created point is calculated by applying the mask value to the motion vector of the previous model, as if the location of the point is found. The resulting animation gives facial expressions to the DSM at each stage. Here Subdivision uses a generic loop subdivision.

다음으로 단계 S126 및 단계 S127에서 생성된 모션 벡터를 크기순으로 정렬하여 거리에 따라 사용하는 모션 벡터의 수를 조절한다. 즉, 가까운 거리에서는 많은 수의 모션벡터를 사용하고 먼 거리에서는 비교적 움직임이 큰 앞부분에 존재하는 모션 벡터를 사용함으로써 시간적 이득을 얻는다.Next, the motion vectors generated in steps S126 and S127 are sorted in size order to adjust the number of motion vectors to be used according to the distance. That is, the temporal gain is obtained by using a large number of motion vectors at a close distance and a motion vector existing at a relatively large distance at a long distance.

이상에서 상술한 본 발명에 따르면, 3차원 스캔 얼굴 데이터를 간략화 한 모델에 volume Morphing과 cylindrical projection을 적용하여 변형 모델을 생성한 후, 이 변형 모델을 이용하여 애니메이션을 간략화된 스캔 모델에 거의 정확히 옮길 수 있으며, 임의의 모델에 임의의 애니메이션을 사용할 수 있으므로 다양한 모델에 다양한 표정을 연출할 수 있는 효과가 있다.According to the present invention described above, after generating a deformation model by applying volume morphing and cylindrical projection to the model that simplified the three-dimensional scan face data, using this deformation model to move the animation to the simplified scan model almost accurately In addition, since arbitrary animation can be used for any model, various expressions can be produced on various models.

또한, 3차원 스캔 얼굴 데이터를 자동으로 특징-유지 간략화를 한 후 사용자는 얼굴 애니메이션을 위한 입술 경계점을 찍어 주는 것만으로 다양한 얼굴의 다양한 애니메이션을 얻을 수 있는 효과가 있다.In addition, after the feature-maintenance simplification of the 3D scan face data is automatically performed, the user may obtain various animations of various faces by simply drawing a lip boundary point for the face animation.

또한, 얼굴 모델링 및 애니메이션에서 디자이너의 수작업을 획기적으로 줄여줄 수 있으므로, 게임이나 애니메이션 등에서 많은 시간과 비용절감이 가능한 효과가 있다. In addition, since the designer's manual work can be drastically reduced in face modeling and animation, it is possible to save a lot of time and money in games and animations.

도 1은 본 발명에 의한 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법을 보인 흐름도이고,1 is a flowchart illustrating an automatic animation method of three-dimensional scan face data according to the present invention;

도 2는 도 1의 특징점 추출 과정의 일 실시예를 보인 흐름도이고,2 is a flowchart illustrating an embodiment of a feature point extraction process of FIG. 1;

도 3은 도 1의 얼굴 데이터 간략화 과정의 일 실시예를 보인 흐름도이고,3 is a flowchart illustrating an embodiment of a face data simplification process of FIG. 1;

도 4는 도 1의 입술 경계점 생성 과정의 일 실시예를 보인 흐름도이고,4 is a flowchart illustrating an embodiment of a process of generating a lip boundary point of FIG. 1;

도 5는 도 1의 변형 얼굴 데이터 생성 과정의 일 실시예를 보인 흐름도이고,FIG. 5 is a flowchart illustrating an embodiment of a process of generating modified face data of FIG. 1;

도 6은 도 1의 목표 애니메이션 생성 과정의 일 실시예를 보인 흐름도이고,6 is a flowchart illustrating an embodiment of a process of generating a target animation of FIG. 1;

도 7a 내지 도 7d는 3차원 얼굴 스캔 데이터의 예시도이고,7A to 7D are exemplary views of 3D face scan data.

도 8은 도 2에서 텍스처 이미지로부터 특정점을 추출하는 과정을 보인 도면이고,FIG. 8 is a diagram illustrating a process of extracting a specific point from a texture image in FIG. 2;

도 9a는 추출된 특징 점 데이터를 나타내고, 도 9b는 바운딩 영역을 생성한 상태도이고, 도 9c는 이산 곡률 필터링의 결과를 나타낸 것이고,FIG. 9A illustrates extracted feature point data, FIG. 9B illustrates a state of generating a bounding region, FIG. 9C illustrates a result of discrete curvature filtering,

도 10a 내지 도 10d는 이산 곡률 필터링된 특징점으로부터 특징-유지 간략화를 수행하여 얼굴 데이터를 간략화하는 과정을 보인 도면이고,10A to 10D illustrate a process of simplifying face data by performing feature-maintenance simplification from discrete curvature filtered feature points,

도 11은 변형 모델의 생성 과정의 일 실시예를 보인 도면이고,11 is a view showing an embodiment of a process of generating a deformation model,

도 12a 및 도 12b는 모션 벡터의 변환 과정을 보여주는 도면이다.12A and 12B illustrate a process of converting a motion vector.

Claims (7)

게임이나 영화 등에서 사용되는 임의의 얼굴에 대해 자동으로 애니메이션을 수행하는 방법에 있어서,In the method to automatically animate any face used in games, movies, etc., 3차원 스캔 얼굴 데이터를 입력받는 제1단계와;A first step of receiving 3D scan face data; 상기 입력받은 스캔 데이터가 텍스처 이미지인지를 판단하고, 그 판단결과 입력된 스캔 데이터가 텍스처 이미지일 경우 그 텍스처 이미지로부터 특징점을 추출하는 제2단계와;Determining whether the received scan data is a texture image, and extracting feature points from the texture image when the input scan data is a texture image; 상기 입력된 스캔 데이터가 텍스처 이미지가 아닐 경우에는 geometry로부터 기하학 정보를 추출하는 제3단계와;Extracting geometry information from geometry when the input scan data is not a texture image; 상기 추출한 특징점 데이터와 기하학 정보로부터 이산 곡률을 측정하는 제4단계와;A fourth step of measuring discrete curvature from the extracted feature point data and the geometry information; 상기 제4단계후 얼굴의 특징 부분 외의 점들은 바운딩 영역을 만들어 외곽의 점을 제거하고, 상기 바운딩 영역내의 특징점 외의 노이즈를 제거하여 얼굴 데이터를 간략화하는 제5단계와;A fifth step of simplifying facial data by removing a point outside the feature by forming a bounding area and removing noise outside the feature point in the bounding area after the fourth step; 상기 제5단계후 입술을 움직이는 과정을 위해 입술 선에서의 경계선을 생성하는 제6단계와;A sixth step of generating a boundary line from the lip line for the process of moving the lips after the fifth step; 상기 제5단계에서 생성한 간략화된 얼굴 데이터와 생성한 입술 경계선을 이용하여 목표 얼굴 데이터를 생성하는 제7단계와;A seventh step of generating target face data using the simplified face data generated in the fifth step and the generated lip boundary line; 상기 제7단계후 일치점을 생성하고, 그 생성한 일치점 데이터와 상기 생성한 목표 얼굴 데이터 및 소스 얼굴 데이터를 이용하여 변형 얼굴 데이터를 생성하는 제8단계와;An eighth step of generating a matching point after the seventh step and generating modified face data by using the generated matching point data, the generated target face data and source face data; 상기 소스 얼굴 데이터로부터 소스 애니메이션 데이터를 생성하고, 그 생성한 소스 애니메이션 데이터와 상기 생성한 목표 얼굴 데이터 및 변형 얼굴 데이터를 이용하여 목표 애니메이션을 수행하여 목표 애니메이션 데이터를 생성하는 제9단계를 포함하여 이루어짐을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.And generating a target animation data by generating source animation data from the source face data, and performing target animation using the generated source animation data, the generated target face data, and the modified face data. An automatic animation method of the three-dimensional scan face data, characterized in that. 제1항에 있어서, 상기 제2단계는,The method of claim 1, wherein the second step, 얼굴 모델의 텍스처 이미지에 Sobel edge detection 기법을 적용하여 윤곽선을 검출하는 단계와;Detecting an outline by applying a Sobel edge detection technique to the texture image of the face model; 상기 텍스처 이미지에 기하학 모델의 텍스처 좌표를 매핑시켜 특징점을 추출하는 단계로 이루어짐을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.And extracting feature points by mapping texture coordinates of a geometric model to the texture image. 제1항에 있어서, 상기 제5단계는,The method of claim 1, wherein the fifth step, 지역 좌표를 세계 좌표로 매핑하는 단계(S61)와; Mapping the local coordinates to the world coordinates (S61); 바운더리 영역을 생성하는 단계(S62)와; Generating a boundary area (S62); 노이즈 제거 및 필터링을 수행하여 얼굴의 특정 부분 이외 지역의 특징점을 제거하는 단계(S63, S64)와; Performing noise removal and filtering to remove feature points of regions other than a specific portion of the face (S63 and S64); 상기 특징점이 제거된 나머지 특징점에 가중치를 부여하는 단계(S65)와;Weighting the remaining feature points from which the feature points are removed (S65); Quadric 에러를 생성하는 단계(S66)와; Generating a quadric error (S66); 에지 Collapse를 수행하는 단계(S67)와; Performing edge collapse (S67); 상기 단계(S66) 및 단계(S67)를 사용자가 원하는 개수만큼 반복 수행했는지를 체크하는 단계(S68)로 이루어짐을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.And (S68) checking whether the steps (S66) and (S67) have been repeatedly performed as many times as desired by the user. 제1항에 있어서, 상기 제6단계는,The method of claim 1, wherein the sixth step is 입술 경계점을 일렬로 정렬하는 단계(S71)와; Aligning the lip boundary points in a line (S71); 입술 경계점과 같은 위치에 같은 개수의 버텍스를 생성하는 단계(S72)와; Generating the same number of vertices at the same position as the lip boundary point (S72); 입 안쪽의 바운더리를 형성하는 단계(S73)로 이루어짐을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.Forming a boundary inside the mouth (S73), characterized in that the automatic animation method of the three-dimensional scan face data. 제1항에 있어서, 상기 제8단계는,The method of claim 1, wherein the eighth step is 볼륨 몰핑(Volume Morphing)을 수행하는 단계(S101)와;Performing volume morphing (S101); Cylindrical Projection을 수행하여 변형 얼굴 데이터를 생성하는 단계(S102)로 이루어짐을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.And generating a modified face data by performing a cylindrical projection (S102). 제1항에 있어서, 상기 제9단계는,The method of claim 1, wherein the ninth step is 모션 벡터를 생성하는 단계(S121)와; Generating a motion vector (S121); 상기 생성한 모션 벡터의 방향을 변환하는 단계(S122)와; Converting the direction of the generated motion vector (S122); 상기 생성한 모션 벡터의 크기를 변환시키는 단계(S123)와; Converting the magnitude of the generated motion vector (S123); 상기 단계(S123)후 Cylindrical Projection을 수행하는 단계(S124)와; Performing Cylindrical Projection after the step S123; 상기 단계(S124)후 목표 모션 벡터를 계산하는 단계(S125)와; Calculating a target motion vector after the step S124; 상기 생성한 모션 벡터를 크기순으로 정렬하여 목표 애니메이션 데이터를 생성하는 단계(S126, S127)로 이루어짐을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.And generating (S126, S127) target animation data by arranging the generated motion vectors in order of size (S126, S127). 제6항에 있어서, 상기 목표 애니메이션 데이터 생성시 거리에 따라 모션 벡터의 사용 비율을 조절하는 것을 특징으로 하는 3차원 스캔 얼굴 데이터의 자동 애니메이션 방법.The method of claim 6, wherein the use rate of the motion vector is adjusted according to the distance when the target animation data is generated.
KR10-2003-0055708A 2003-08-12 2003-08-12 Method for automatic animation of three dimensions scan face data KR100512565B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0055708A KR100512565B1 (en) 2003-08-12 2003-08-12 Method for automatic animation of three dimensions scan face data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0055708A KR100512565B1 (en) 2003-08-12 2003-08-12 Method for automatic animation of three dimensions scan face data

Publications (2)

Publication Number Publication Date
KR20030070578A KR20030070578A (en) 2003-08-30
KR100512565B1 true KR100512565B1 (en) 2005-09-06

Family

ID=32227598

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0055708A KR100512565B1 (en) 2003-08-12 2003-08-12 Method for automatic animation of three dimensions scan face data

Country Status (1)

Country Link
KR (1) KR100512565B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100853122B1 (en) * 2007-02-13 2008-08-20 주식회사 인스프리트 Method and system for providing Real-time Subsititutive Communications using mobile telecommunications network
KR100914847B1 (en) 2007-12-15 2009-09-02 한국전자통신연구원 Method and apparatus for creating 3d face model by using multi-view image information
KR100915574B1 (en) 2007-12-17 2009-09-07 한국전자통신연구원 Remeshing apparatus and method to restore sharp features of surface mesh smoothed enough
KR100884467B1 (en) * 2007-12-17 2009-02-20 에스케이 텔레콤주식회사 Method for high speed communication, and terminal therefor
KR102551194B1 (en) * 2020-11-13 2023-07-05 주식회사 예간 Method and apparatus for generating textures of 3-dimension model
KR102449987B1 (en) * 2021-11-22 2022-10-04 스튜디오이온 주식회사 Method for automatically setup joints to create facial animation of 3d face model and computer program thereof

Also Published As

Publication number Publication date
KR20030070578A (en) 2003-08-30

Similar Documents

Publication Publication Date Title
Starck et al. Model-based multiple view reconstruction of people
US20060244757A1 (en) Methods and systems for image modification
US8537155B2 (en) Image processing apparatus and method
US20080136814A1 (en) System and method for generating 3-d facial model and animation using one video camera
JP2006249618A (en) Virtual try-on device
JP7197451B2 (en) Image processing device, method and program
CN113012293A (en) Stone carving model construction method, device, equipment and storage medium
JP4463597B2 (en) 3D drawing model generation method and program thereof
US6462740B1 (en) System for in-scene cloth modification
KR100512565B1 (en) Method for automatic animation of three dimensions scan face data
US11682234B2 (en) Texture map generation using multi-viewpoint color images
JP5526239B2 (en) Method, device, and computer-readable medium for generating digital pictures
CN1628327B (en) Automatic 3d modeling system and method
KR101687484B1 (en) A method and a system for providing motion retargeting between heterogeneous spaces
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
Patel et al. 3D facial model reconstruction, expressions synthesis and animation using single frontal face image
EP3980975B1 (en) Method of inferring microdetail on skin animation
Li et al. Animating cartoon faces by multi‐view drawings
Thomas Real-time simultaneous 3D head modeling and facial motion capture with an RGB-D camera
JP2001266176A (en) Picture processor, picture processing method and recording medium
Ono et al. 3D character model creation from cel animation
Hassanpour et al. Delaunay triangulation based 3d human face modeling from uncalibrated images
Kang A structure from motion approach using constrained deformable models and appearance prediction
US20230196649A1 (en) Deforming points in space using a curve deformer
US20230101230A1 (en) Eyeball positioning for 3d head modeling

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110615

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20120615

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee