KR20020049504A - Method for Making 3D Face Model by Using a 2D Human Face Image - Google Patents

Method for Making 3D Face Model by Using a 2D Human Face Image Download PDF

Info

Publication number
KR20020049504A
KR20020049504A KR1020000078691A KR20000078691A KR20020049504A KR 20020049504 A KR20020049504 A KR 20020049504A KR 1020000078691 A KR1020000078691 A KR 1020000078691A KR 20000078691 A KR20000078691 A KR 20000078691A KR 20020049504 A KR20020049504 A KR 20020049504A
Authority
KR
South Korea
Prior art keywords
dimensional
model
points
image
basic model
Prior art date
Application number
KR1020000078691A
Other languages
Korean (ko)
Other versions
KR100372811B1 (en
Inventor
호창성
Original Assignee
호창성
(주) 웹씨인터미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 호창성, (주) 웹씨인터미디어 filed Critical 호창성
Priority to KR10-2000-0078691A priority Critical patent/KR100372811B1/en
Publication of KR20020049504A publication Critical patent/KR20020049504A/en
Application granted granted Critical
Publication of KR100372811B1 publication Critical patent/KR100372811B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Abstract

PURPOSE: A three-dimensional face model generating method using a two-dimensional full face image is provided to create a three-dimensional face model only with a general picture at a low cost without requiring a studio equipped with special apparatuses. CONSTITUTION: A three-dimensional basic model is generated in advance and stored in a memory(10). The three-dimensional basic model has a plurality of control points for representing characteristics of a face and changing the basic model, and a plurality of general points for smoothly representing the shape of the basic model. The two-dimensional image of the full face photograph of a person is inputted through a two-dimensional image input device(30) and stored in the memory. Control points are set at positions of the two-dimensional image, corresponding to the control points of the basic model. The coordinates of the control points of the basic model are changed to accord with the relative coordinates of the control points of the two-dimensional image so as to vary the basic mode to accord with the two-dimensional image, thereby generating a varied three-dimensional model. Texture of a triangle of the two-dimensional image, corresponding to a triangle composed of the control points and general points of the varied three-dimensional model, is mapped with the varied three-dimensional model.

Description

2차원 얼굴 정면 이미지를 이용한 3차원 얼굴 모델 생성 방법{Method for Making 3D Face Model by Using a 2D Human Face Image}Method for Making 3D Face Model by Using a 2D Human Face Image}

본 발명은 특정인의 얼굴을 3차원으로 모델링하는 방법에 관한 것으로서, 보다 상세하게는 특정인 얼굴의 정면사진 이미지를 이용하여 3차원 얼굴 모델링하는 방법에 관한 것이다.The present invention relates to a method of modeling a face of a specific person in three dimensions, and more particularly, to a method of modeling a three-dimensional face using a front photograph image of a specific face.

일반적으로 특정인의 얼굴을 3차원으로 모델링하는 방법에는 여러 가지가 있다. 그 중 하나는 직접 특정인의 얼굴을 3차원으로 스캔하여 스캔된 데이터로 3차원 얼굴을 모델링하는 방법이 있고, 다른 하나는 특정인의 얼굴을 여러 각도에서 촬영하고 촬영된 결과를 이용하여 미리 만들어진 3차원 형상의 일반 얼굴모델을 변형하여 특정인의 3차원 얼굴을 모델링하는 방법이 있다.In general, there are many ways to model a person's face in three dimensions. One method is to directly scan a specific person's face in three dimensions and model the three-dimensional face with the scanned data. The other is to capture a specific person's face at various angles and use the result of the pre-created three-dimensional image. There is a method of modeling a three-dimensional face of a specific person by modifying a general face model of a shape.

전자의 경우, 3차원 스캐너와 같은 전문 장비를 사용하여 특정인의 얼굴의 굴곡과 실제 피부색깔에 관한 정보를 직접 얻을 수 있기 때문에 특정인의 얼굴에 대한 상당히 정확한 3차원 얼굴 모델링을 할 수 있다. 그러나 이런 방법은 값비싼 장비를 사용하여야 하고, 3차원 얼굴 모델링의 당사자도 3차원 스캐너가 있는 특정한 장소까지 가서 스캔을 받아야 3차원 얼굴 모델링을 할 수 있으므로 불편한 점이 없지 않았다.In the former case, it is possible to obtain highly accurate three-dimensional face modeling of a specific person's face because the professional equipment such as a three-dimensional scanner can directly obtain information about a person's face flexion and actual skin color. However, this method had to use expensive equipment, and even a party of three-dimensional face modeling did not have to be inconvenient because a three-dimensional face modeling could be performed by going to a specific place where a three-dimensional scanner was located.

후자의 경우, 전자의 문제점을 해결하기 위해 특정인에 대하여 여러 각도에서 찍은 평면사진과 미리 만들어진 3차원 얼굴 일반모델을 이용하여 3차원 얼굴 모델링을 한다. 좀더 구체적으로 설명하면 먼저 3차원 얼굴 모델을 만드려는 사람을 여러 각도에서 촬영한다. 촬영된 데이터로 3차원 얼굴 일반모델을 변형하여 특정인의 얼굴과 비슷한 형상의 3차원 얼굴 변형모델을 만들고, 변형모델에 촬영된 특정인의 얼굴 텍스쳐를 매핑하여 특정인의 3차원 얼굴 모델을 만든다.In the latter case, in order to solve the former problem, 3D face modeling is performed by using planar photographs taken from various angles with respect to a specific person and a pre-made 3D face general model. More specifically, first, the person who wants to create a 3D face model is photographed from various angles. The three-dimensional face general model is transformed from the photographed data to create a three-dimensional face deformation model with a shape similar to that of a specific person, and a specific person's face texture is mapped to the deformation model to create a three-dimensional face model of the specific person.

그러나 상기 여러 각도에서 찍은 평면 사진을 이용하는 방법은 여러 각도에서 촬영된 사진이 필요하고, 또한 각각의 사진들간에 얼굴을 바라보는 각도와 거리가 맞추어지도록 하는 것이 필요하므로 동시에 여러 카메라를 사용하기도 하여 불편한 점이 있었다. 그러므로 상기 방법을 이용하려면 여러 카메라가 설치된 곳에 가서 촬영하거나 카메라가 하나이더라도 사진마다 정확한 각도와 거리를 맞추어서 여러 장의 얼굴 사진을 촬영해야 하는 등의 번거로운 점이 있었다.However, the method of using the planar photograph taken from the various angles requires photographs taken from various angles, and it is also inconvenient to use multiple cameras at the same time because it is necessary to have the angle and distance of looking at the face between each photograph. There was a point. Therefore, to use the above method, it is cumbersome to go to a location where several cameras are installed or to take multiple face pictures by adjusting the exact angle and distance for each picture even if there is only one camera.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 얼굴의 정면사진 한 장만으로 특정인의 3차원 얼굴모델을 만드는 방법을 제공하는 것을 그 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and it is an object of the present invention to provide a method for creating a three-dimensional face model of a specific person using only one face photograph.

도 1은 본 발명을 수행하기 위한 시스템의 구성을 보여주는 블럭도이다.1 is a block diagram showing the configuration of a system for carrying out the invention.

도 2는 본 발명에 사용되는 제어점이 설정된 3차원 기본모델을 평면에 투영한 모습을 보여준다.2 shows a state in which the three-dimensional basic model in which the control point is used in the present invention is projected onto a plane.

도 3a, 3b, 3c는 특정인 얼굴의 정면사진, 및 도 2에 도시된 3차원 기본 모델에 제어점을 설정하는 기준을 보여준다.3A, 3B, and 3C show front views of specific faces and criteria for setting control points in the three-dimensional basic model shown in FIG. 2.

도 4는 도 2에 도시된 3차원 기본 모델의 수직방향 길이 비율을 2차원 이미지의 수직 비율에 맞도록 변형시키는 방법을 설명하기 위한 도면이다.4 is a view for explaining a method of transforming the vertical length ratio of the three-dimensional basic model shown in FIG. 2 to match the vertical ratio of the two-dimensional image.

도 5는 수직 방향 비율이 변형된 3차원 기본 모델의 얼굴 윤곽선을 2차원 이미지의 얼굴 윤곽선에 맞추기 위해 수평방향 길이 비율을 변형시키는 방법을 설명하기 위한 도면이다.FIG. 5 is a diagram for describing a method of modifying a horizontal length ratio in order to fit a facial contour of a three-dimensional basic model having a modified vertical ratio to a facial contour of a two-dimensional image.

도 6a, 6b, 6c는 2차원 이미지에 일치하도록 변형된 3차원 기본모델의 제어점들을 이용하여 일반점들이 이동하는 과정을 설명하기 위한 도면이다.6A, 6B, and 6C are diagrams for explaining a process of moving general points by using control points of a 3D basic model modified to match a 2D image.

도 7a, 8b는 본 발명에 따라 2차원 이미지가 3차원의 얼굴모델로 변형된 모습을 보여주는 실시 화상도이다.7A and 8B are exemplary views showing a state in which a 2D image is transformed into a 3D face model according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10: 메모리12: 2차원 이미지 저장부10: memory 12: two-dimensional image storage unit

14: 소프트웨어 저장부16: 3차원 기본모델 저장부14: software storage unit 16: three-dimensional basic model storage unit

18: 3차원 얼굴모델 저장부20: 중앙처리장치18: three-dimensional face model storage unit 20: central processing unit

22: 제어점설정 프로세스24: 3차원 얼굴모델 생성 프로세스22: control point setting process 24: 3D face model generation process

30: 2차원 이미지 입력수단40: 입출력 인터페이스30: two-dimensional image input means 40: input and output interface

상기 기술적 과제를 달성하기 위하여 본 발명은 특정인 얼굴의 2차원 정면사진 이미지를 입력받아 메모리에 저장하는 단계와, 상기 저장된 2차원 이미지에 제어점과 일반점이 기설정된 3차원 기본모델의 제어점에 대응하는 제어점을 설정해주는 단계와, 상기 제어점이 설정된 2차원 이미지의 제어점들간의 상대좌표를 이용하여 메모리에 저장되어 있는 3차원 기본모델을 변형시키는 단계와, 상기 변형된 3차원 기본모델에 상기 2차원 이미지의 텍스쳐(texture)를 매핑하는 단계를 포함한다.In order to achieve the above technical problem, the present invention receives a two-dimensional front photograph image of a specific face and stores it in a memory, and a control point corresponding to a control point of a three-dimensional basic model in which a control point and a general point are preset in the stored two-dimensional image. Deforming a three-dimensional basic model stored in a memory by using relative coordinates between control points of the two-dimensional image in which the control point is set, and converting the two-dimensional image to the modified three-dimensional basic model. Mapping the texture.

2차원 이미지는 일반 카메라로 찍은 사진을 스캐너로 스캔하여 입력받을 수 있고, 디지탈 카메라로 찍은 화상 이미지일 수 있으며, 입력받은 이미지는 메모리에 저장되게 된다. 상기 메모리에는 2차원 이미지 외에 미리 만들어져 있는 3차원 기본모델과, 2차원 이미지에 제어점을 설정하기 위한 소프트웨어와, 3차원 기본모델을 2차원 이미지의 모습에 맞춰 변형시키는 소프트웨어와, 변형된 3차원 기본모델에 2차원 이미지의 텍스쳐를 매핑하는 소프트웨어, 및 변형된 3차원 기본모델을 저장하는 공간이 있다.The 2D image may be inputted by scanning a photograph taken with a general camera with a scanner, may be an image taken with a digital camera, and the received image is stored in a memory. In addition to the two-dimensional image, the memory includes a pre-made three-dimensional basic model, software for setting control points on the two-dimensional image, software for modifying the three-dimensional basic model to match the appearance of the two-dimensional image, and a modified three-dimensional basic. There is software to map the texture of the two-dimensional image to the model, and space to store the modified three-dimensional base model.

상기 3차원 기본모델은 표준형 얼굴의 일반적인 3차원 형상을 나타내는 데이터로서, 3차원 형상의 주요 특징들을 나타내며 3차원 형상을 변형하는데 사용하는 복수개의 제어점들과 3차원 형상을 좀더 부드럽고 자세하게 나타내기 위한 복수개의 일반점들에 대한 위치정보와, 상기 제어점들과 일반점들 중에서 선택된 두 점을 연결한 선분의 위치 및 방향에 관한 정보와, 상기 제어점들과 일반점들 중에서 선택된 3점으로 이루어진 삼각형면에 관한 3차원 공간상의 정보 및 삼각형면의 색깔에 관한 정보를 갖고 있으며 메모리에 저장되어 있다.The three-dimensional basic model is data representing a general three-dimensional shape of a standard face, which represents the main features of the three-dimensional shape, and a plurality of control points used to deform the three-dimensional shape, and a plurality of the three-dimensional shape to express the softer and more detailed. Location information of two general points, information on the position and direction of a line connecting two points selected from the control points and the general points, and a triangular plane consisting of three points selected from the control points and the general points It contains information about the three-dimensional space and the color of the triangular plane and is stored in the memory.

상기 메모리에 저장된 2차원 이미지에 제어점 설정 소프트웨어로 3차원 기본모델에 기설정된 제어점에 대응하는 위치에 제어점을 설정하며, 제어점은 사람이 마우스나 마우스팬 등의 입력장치를 사용하여 설정할 수 있다. 예컨대 사람이 마우스를 사용하여 코끝에 제어점을 찍는다면 제어점 설정 소프트웨어는 마우스로 찍은 좌표에 제어점이 설정됐다는 정보를 메모리에 저장한다. 제어점의 위치는 인간 얼굴 생김새의 특징을 잘 반영할 수 있는 곳에 선정되어야 하며, 적은 수의 제어점으로 다양한 얼굴의 특징을 모두 표현하도록 설정해야 한다. 예컨대 눈, 코, 입 등 사람의 인상을 좌우하는 부분이나 굴곡이 많거나 곡률이 큰 지점에는 제어점의 밀도가 평평한 부분보다 높도록 제어점을 설정해줘야 한다.The control point is set at a position corresponding to the control point preset in the 3D basic model by the control point setting software on the 2D image stored in the memory, and the control point can be set by a human using an input device such as a mouse or a mouse fan. For example, if a person places a control point at the tip of the nose using a mouse, the control point setting software stores information in memory that the control point is set at the coordinates taken by the mouse. The location of the control point should be selected to reflect the characteristics of the human facial features well, and should be set to express all of the various facial features with a small number of control points. For example, the control point should be set so that the density of the control point is higher than the flat part at the point where the impression of the person such as the eyes, the nose, the mouth, or the bend or the curvature is large.

제어점을 이용하여 3차원 기본 모델을 변형시키는 단계는 3차원 기본모델 변형 소프트웨어를 통해 수행되며, 본 발명에 따른 3차원 기본모델을 2차원 이미지에 일치하도록 변형하는 3차원 기본모델 변형 소프트웨어의 알고리즘은 다음 두 가지 방법으로 나누어지며, 제어점들의 좌표가 수정되면 일반점들을 제어점들과의 거리 비율이 일정하도록 자동으로 그 좌표가 수정된다.Deforming the 3D basic model using the control point is performed through the 3D basic model transformation software, and the algorithm of the 3D basic model transformation software for transforming the 3D basic model according to the present invention to match the 2D image is It is divided into the following two ways. When the coordinates of the control points are modified, the coordinates are automatically modified so that the ratio of the distance between the normal points and the control points is constant.

첫 번째는 3차원 기본모델의 상하방향(이하 "Y방향"이라 함)을 신축하고 수평방향(이하 "X방향"이라 함)을 신축하여 2차원 이미지의 얼굴 윤곽선에 일치하도록 한 후, 눈, 코, 입 등의 주요부분을 X방향과 Y방향으로 신축하여 상기 3차원 기본모델이 상기 2차원 이미지와 일치하도록 하는 방법이다.The first is to stretch the vertical direction (hereinafter referred to as the "Y direction") of the 3D basic model and to the horizontal direction (hereinafter referred to as the "X direction") to match the contour of the face of the two-dimensional image, eyes, The main part of the nose, mouth and the like is stretched in the X and Y directions so that the 3D basic model matches the 2D image.

두 번째는 특정 제어점을 원점으로 하여 다른 특정한 두 제어점의 위치벡터를 기준벡터로 하여 2차원 이미지 상의 각 제어점들의 위치벡터를 상기 기준벡터의 일차결합 형태로 표현하고, 3차원 기본모델 상의 각 제어점들도 상기의 경우와 같은 방법으로 각 제어점들의 위치벡터를 3차원 기본모델 상의 기준벡터의 일차결합 형태로 표현한 후, 상기 3차원 기본모델의 각 제어점들의 일차결합 계수가 상기 2차원 이미지의 각 제어점들의 일차결합 계수와 같게 하는 방법이다.Secondly, the position vector of each control point on the two-dimensional image is expressed as the first combination of the reference vectors using the position vectors of two other specific control points as reference vectors, and the control points on the three-dimensional basic model. After the position vectors of the control points are expressed in the form of the first combination of the reference vectors on the 3D basic model in the same manner as in the above case, the first coupling coefficients of the respective control points of the 3D basic model are obtained from the respective control points of the 2D image. This is equal to the first order coupling coefficient.

텍스쳐 매핑단계는 2차원 이미지에 모양이 일치하도록 변형된 3차원 기본모델의 제어점들과 일반점들로 이루어진 복수개의 삼각형들에 각각 상기 삼각형들의 위치에 대응하는 2차원 이미지의 삼각형들 내부의 색깔 및 질감을 나타내는 텍스쳐를 매핑하여 피부색깔까지 2차원 이미지에 일치하는 3차원 얼굴모델을 생성하는 단계이며, 텍스쳐 매핑 소프트웨어를 사용하여 수행된다.The texture mapping step includes the colors of the triangles of the two-dimensional image corresponding to the positions of the triangles and a plurality of triangles composed of the control points and the common points of the three-dimensional basic model modified to match the shape of the two-dimensional image. This is a step of creating a three-dimensional face model that matches a two-dimensional image up to the skin color by mapping a texture representing a texture, and is performed using texture mapping software.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 구체적으로 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 1은 본 발명을 수행하기 위한 시스템의 구성을 보여주는 블록도이다.1 is a block diagram showing the configuration of a system for carrying out the invention.

메모리(10)는 2차원 이미지 입력수단(30)으로부터 받은 2차원 이미지를 저장하는 2차원 이미지 저장부(12)와, 제어점설정 소프트웨어와 3차원 기본모델 변형 소프트웨어와 텍스쳐 매핑 소프트웨어 등 본 발명에 필요한 각종 소프트웨어를 저장하는 소프트웨어 저장부(14)와, 기생성된 3차원 기본모델에 대한 정보를 저장하고 있는 3차원 기본모델 저장부(16), 및 본 발명을 통해 생성된 3차원 얼굴모델을 저장하기 위한 3차원 얼굴모델 저장부(18)를 갖는다.The memory 10 includes a two-dimensional image storage unit 12 for storing a two-dimensional image received from the two-dimensional image input means 30, control point setting software, three-dimensional basic model transformation software, texture mapping software, and the like. Software storage unit 14 for storing a variety of software, a three-dimensional basic model storage unit 16 for storing information about the generated three-dimensional basic model, and a three-dimensional face model generated by the present invention It has a three-dimensional face model storage unit 18 for.

중앙처리장치(20)는 2차원 이미지 저장부(12)에 저장된 2차원 이미지를 불러들여 제어점을 설정하는 제어점설정 프로세스(22)와, 제어점이 설정된 2차원 이미지를 이용하여 3차원 기본모델을 변형하고 변형된 3차원 기본모델에 2차원 이미지의 텍스쳐를 매핑하는 3차원 얼굴모델 생성 프로세스(24)를 수행한다.The central processing unit 20 deforms the three-dimensional basic model by using a control point setting process 22 for setting a control point by importing a two-dimensional image stored in the two-dimensional image storage unit 12 and a two-dimensional image in which the control point is set. The 3D face model generation process 24 of mapping the texture of the 2D image onto the deformed 3D basic model is performed.

2차원 이미지 입력수단(30)은 디지탈 카메라나 스캐너 등이 될 수 있으며, 2차원 이미지 저장부(12)에 저장되는 2차원 이미지를 입력받는다. 입출력인터페이스(40)는 본 발명이 진행되는 과정과 그 과정에 따른 결과를 외부에 디스플레이 해주며, 제어점 설정 프로세스(22)나 3차원 얼굴모델 생성 프로세스(24) 과정에 필요한 정보를 외부에서 입력받는다.The two-dimensional image input means 30 may be a digital camera or a scanner, and receives the two-dimensional image stored in the two-dimensional image storage unit 12. The input / output interface 40 externally displays the process of the present invention and the result according to the process, and receives information required for the control point setting process 22 or the 3D face model generation process 24 from the outside. .

먼저 2차원 이미지 입력수단(30)에 특정인 얼굴정면 사진에 대한 2차원 이미지가 들어오면 2차원 이미지 저장부(12)에 저장된다. 중앙처리장치(20)는 상기 2차원 이미지 저장부(12)에 저장된 2차원 이미지와 소프트웨어 저장부(14)에 저장되어 있는 제어점 설정 소프트웨어를 불러들여 제어점설정 프로세스(22)를 수행한다. 제어점 설정프로세스는 3차원 기본모델의 제어점에 대응하는 위치의 2차원 이미지에 제어점을 설정하며, 사람이 입출력 인터페이스(40)를 통해 마우스를 사용하여 직접 설정할 수 있다. 이하에서는 도 2와 도 3a, 3b, 3c를 참고로 3차원 기본 모델에 기설정된 제어점의 설정기준을 상술한다.First, when a two-dimensional image of a face front photograph specific to the two-dimensional image input unit 30 is input, the two-dimensional image storage unit 12 is stored. The central processing unit 20 performs the control point setting process 22 by calling the two-dimensional image stored in the two-dimensional image storage 12 and the control point setting software stored in the software storage 14. The control point setting process sets a control point on a two-dimensional image of a position corresponding to the control point of the three-dimensional basic model, and a human can set it directly by using a mouse through the input / output interface 40. Hereinafter, the reference for setting the control point preset in the 3D basic model will be described in detail with reference to FIGS. 2, 3A, 3B, and 3C.

도 2는 본 발명의 실시에 필수적인 제어점이 설정된 3차원 기본 모델의 일 실시예로서 평면에 투영된 모습을 보여주며, 도 3a, 3b, 3c는 각각 도 2에 도시된 3차원 기본모델의 눈 제어점의 설정기준, 입 제어점 설정기준, 및 기타 얼굴의 중요한 특징을 나타내는 제어점 설정기준을 보여주며 얼굴의 오른쪽 부분만을 보여주며 왼쪽부분은 오른쪽 부분과 동일한 방법으로 설정한다.FIG. 2 is a view illustrating a projection onto a plane as an embodiment of a three-dimensional basic model in which a control point essential for implementing the present invention is set, and FIGS. 3A, 3B, and 3C are eye control points of the three-dimensional basic model shown in FIG. 2, respectively. It shows the set criteria of the set point, the mouth control point set criteria, and the control point set criteria indicating other important features of the face, and shows only the right part of the face and the left part is set in the same way as the right part.

3차원 기본모델은 보통 사람의 일반적인 3차원 형상을 나타내는 데이터로서,복수개의 제어점과 복수개의 일반점에 대한 위치정보와, 제어점들과 일반점들 중에서 선택된 두 점을 연결한 선분의 위치 및 방향에 관한 정보와, 제어점들과 일반점들 중에서 선택된 3점으로 이루어진 삼각형면에 관한 3차원 공간상의 정보 및 삼각형면의 색깔에 관한 정보를 갖고 있다. 제어점은 3차원 기본모델의 변형을 위하여 사람 얼굴의 특징이 되는 부분에 설정되어야 하며, 본 발명은 일 실시예로 67개의 제어점이 설정된 3차원 기본모델을 사용하고 있으며 각 제어점들의 좌표에 따라 3차원 기본모델의 모양이 바뀐다. 일반점은 3차원 기본모델의 형상을 좀더 부드럽고 사실적으로 표현하기 위하여 설정되며 본 발명은 일 실시예로 1500개의 일반점이 설정된 3차원 기본모델을 사용한다. 각 일반점은 제어점들의 위치가 결정되면 제어점들과의 상대거리가 일정하도록 위치가 결정된다. 상기 제어점들과 일반점들로 이루어진 복수개의 삼각형은 2차원 이미지의 텍스쳐를 2차원 이미지의 얼굴형태에 일치하도록 변형된 3차원 기본모델에 매핑을 하는 단위가 된다.The three-dimensional basic model is data representing a general three-dimensional shape of an ordinary person. The three-dimensional basic model includes data on positions of a plurality of control points and a plurality of general points, and a position and direction of a line segment connecting two points selected from the control points and the general points. Information on the three-dimensional space of the triangular plane consisting of three points selected from control points and general points, and information on the color of the triangular plane. The control point should be set to the part that is characteristic of the human face for the transformation of the three-dimensional basic model. The present invention uses a three-dimensional basic model in which 67 control points are set as an embodiment, and three-dimensional according to the coordinates of the control points. The shape of the basic model changes. The general point is set to more smoothly and realistically express the shape of the three-dimensional basic model, and the present invention uses a three-dimensional basic model in which 1500 general points are set. Each general point is positioned so that the relative distance with the control points is constant when the positions of the control points are determined. The plurality of triangles composed of the control points and the general points become a unit for mapping the texture of the 2D image to the 3D basic model modified to match the face shape of the 2D image.

먼저 도 3a를 참조하여 눈 제어점 설정기준을 설명하면, 먼저 눈의 안쪽 끝(53)과 바깥쪽 끝(57)에 제어점을 삽입하고, 눈의 외곽선을 나타내는 곡선이 가장 급격하게 변하는 지점(54, 56, 59)은 사람 눈의 외형을 특징짓는 가장 지배적인 지점이므로 두 번째로 제어점을 삽입한다. 세 번째 제어점을 삽입하는 위치는 가장 높이 올라간 지점(55)이며, 마지막으로 57번점과 59번점을 잇는 커브를 만들기 위하여 제어점(58)을 삽입한다.First, the eye control point setting criteria will be described with reference to FIG. 3A. First, a control point is inserted into the inner end 53 and the outer end 57 of the eye, and the point 54, at which the curve representing the outline of the eye changes most rapidly, 56 and 59 are the most dominant points that characterize the appearance of the human eye, so the second control point is inserted. The position of inserting the third control point is the highest point 55, and finally, the control point 58 is inserted to create a curve connecting the 57th and 59th points.

도 3b를 참조하여 입술 제어점 설정기준을 설명하면, 먼저 입술의 하단을 정의하는 제어점(44)을 삽입하고, 입술의 상단 형태를 결정짓는 위치(38, 39)에 제어점을 삽입한다. 그리고 나서 입술의 좌우 끝부분(41)에 제어점을 설정한 후, 41번점과 44번점 사이를 연결하기 위한 42, 43번점을 삽입하고, 39번점과 41번점을 연결하기 위한 40번점을 삽입한다.Referring to FIG. 3B, the lip control point setting criteria will be described. First, the control point 44 defining the lower end of the lip is inserted, and the control point is inserted at positions 38 and 39 that determine the shape of the upper end of the lip. Then, after setting the control points on the left and right ends 41 of the lips, 42 and 43 points are inserted to connect the 41 and 44 points, and 40 points are inserted to connect the 39 and 41 points.

도 3c를 참조하여 기타 중요 제어점 설정기준을 설명하면, 32번점은 코의 폭을 정의하기 위하여 설정하고, 33번점은 코끝의 모양을 정의하기 위하여 설정하고, 19번점은 이마의 넓이를 정의하기 위하여 설정하고, 24번점은 눈썹의 세로 위치를 정의하고, 1번점은 얼굴의 가로방향 폭을 정의하고, 5번점은 하악의 폭을 정의하고, 9번점은 턱끝의 위치를 정의하며, 7번점은 5번점과 9번점 사이의 커브를 생성하기 위한 중간점이다.Referring to Fig. 3c, other important control point setting criteria will be described.The point 32 is set to define the width of the nose, the point 33 is set to define the shape of the nose tip, and the point 19 is used to define the width of the forehead. Set point 24 to define the vertical position of the eyebrows, point 1 to define the horizontal width of the face, point 5 to define the width of the lower jaw, point 9 to define the position of the chin, and point 7 to 5 This is the midpoint for creating the curve between the points 9 and 9.

3차원 기본모델의 제어점들의 좌표를 수정하여 2차원 이미지의 모양에 일치시키는 단계는 3차원 기본모델 변형 소프트웨어를 사용하여 3차원 얼굴모델 생성 프로세스(24)에서 수행되며, 이하 3차원 기본모델을 2차원 이미지에 일치하도록 변형하는 방법을 3차원 기본모델 변형 소프트웨어의 알고리즘에 따라 두 가지로 나누어 상술한다.The step of modifying the coordinates of the control points of the 3D basic model to match the shape of the 2D image is performed in the 3D face model generation process 24 using the 3D basic model transformation software. The method of deforming to match the dimensional image is divided into two types according to the algorithm of the 3D basic model transformation software.

한가지 방법은 3차원 기본모델의 상하방향(이하 "Y방향"이라 함)을 신축하고 수평방향(이하 "X방향"이라 함)을 신축하여 2차원 이미지의 얼굴 윤곽선에 일치하도록 한 후, 눈, 코, 입 등의 주요부분을 X방향과 Y방향으로 신축하여 상기 3차원 기본모델이 상기 2차원 이미지와 일치하도록 하는 방법이다.One method is to stretch the vertical direction (hereinafter referred to as the "Y direction") of the 3D basic model and the horizontal direction (hereinafter referred to as the "X direction") to match the facial contour of the 2D image, and then The main part of the nose, mouth and the like is stretched in the X and Y directions so that the 3D basic model matches the 2D image.

다른 하나는 특정 제어점을 원점으로 하여 다른 특정한 두 제어점의 위치벡터를 기준벡터로 하여 2차원 이미지 상의 각 제어점들의 위치벡터를 상기 기준벡터의 일차결합 형태로 표현하고, 3차원 기본모델 상의 각 제어점들도 상기의 경우와 같은 방법으로 각 제어점들의 위치벡터를 3차원 기본모델 상의 기준벡터의 일차결합 형태로 표현한 후, 상기 3차원 기본모델의 각 제어점들의 일차결합 계수가 상기 2차원 이미지의 각 제어점들의 일차결합 계수와 같게 하는 방법이다.The other expresses the position vector of each control point on the two-dimensional image as a linear combination of the reference vector by using the position vector of the other two control points as a reference vector as a reference point, and the control points on the 3D basic model. After the position vectors of the control points are expressed in the form of the first combination of the reference vectors on the 3D basic model in the same manner as in the above case, the first coupling coefficients of the respective control points of the 3D basic model are obtained from the respective control points of the 2D image. This is equal to the first order coupling coefficient.

먼저 첫 번째를 상술하고, 그 후 두 번째를 상술한다.First, first, and second, then.

도 4는 3차원 기본모델의 Y방향 길이비율을 2차원 이미지의 Y방향 길이비율에 일치시키는 과정을 설명하기 위한 도면이며, 도 5는 수평방향 길이비율을 일치시키는 과정을 설명하기 위한 도면이다.4 is a view for explaining a process of matching the length direction ratio of the Y-direction of the three-dimensional basic model to the Y-direction length ratio of the two-dimensional image, Figure 5 is a view for explaining a process of matching the length ratio in the horizontal direction.

도 4에 도시된 바와같이 3차원 기본 모델은 수직 방향으로 9개의 구간으로 나누어진다. 구간1은 머리끝(67)부터 이마시작부(19)까지, 구간2는 이마시작부(19)부터 눈썹윗단(24)까지, 구간3은 눈썹윗단(24)부터 눈윗부분(55)까지, 구간4는 눈윗부분(55)부터 눈아랫부분(59)까지, 구간5는 눈아랫부분(59)부터 코밑단(37)까지, 구간6은 코밑단(37)부터 입술윗단(39)까지, 구간7은 입술윗단(39)부터 입술중간점(51)까지, 구간8은 입술중간점(51)부터 입술아랫단(44)까지, 구간9는 입술아랫단(44)부터 턱끝(9)까지를 나타낸다.As shown in FIG. 4, the three-dimensional basic model is divided into nine sections in the vertical direction. Section 1 from the end of the head (67) to the forehead (19), section 2 from the beginning of the forehead (19) to the upper end of the eyebrows (24), section 3 from the upper end of the eyebrows (24) to the upper part (55), Section 4 from the upper part of the eyes (55) to the lower part of the eyes (59), section 5 from the lower part of the eyes (59) to the bottom of the nose (37), section 6 from the bottom of the nose (37) to the top of the lips (39), Section 7 represents the upper lip 39 to the middle lip 51, section 8 represents the middle lip 51 to the lower lip 44, and section 9 represents the lower lip 44 to the tip of the chin 9. .

제어점이 설정된 2차원 이미지는 3차원 기본모델의 각 구간에 대응하는 구간1a부터 구간9a가 각각 정해진다. 각 구간은 얼굴의 특정한 부분의 길이를 기준으로 상대길이를 구할 수 있는데 본 발명의 실시예는 눈의 양옆으로 얼굴 끝부분에 있는 제어점들(1, 17)사이의 간격을 기준폭으로 하여 상대 구간을 구한다. 3차원 기본 모델의 구간1 ~ 구간9와 2차원 이미지의 구간1a ~ 구간9a는 수학식 1에 의해 각각 상대구간을 구한다.In the two-dimensional image in which the control point is set, sections 1a to 9a respectively corresponding to each section of the 3D basic model are determined. Each section can obtain a relative length based on the length of a specific part of the face, an embodiment of the present invention is a relative section based on the interval between the control points (1, 17) at the end of the face on both sides of the eye as a reference width Obtain The intervals 1 to 9 of the 3D basic model and the intervals 1a to 9a of the 2D image are obtained by using Equation 1, respectively.

(n = 1,2,...,9)(n = 1,2, ..., 9)

수학식 1에 의해 구해진 3차원 모델과 2차원 이미지의 각 상대구간을 기준으로 수학식 2에 의해 스케일을 구한다.A scale is obtained by using Equation 2 on the basis of each relative section of the three-dimensional model and the two-dimensional image obtained by Equation 1.

예컨대, 상대구간1의 크기가 0.5이고 상대구간1a의 크기가 0.4라면 스케일1은 0.8이 되며, 이것은 3차원 기본 모델의 구간1의 길이를 80%로 줄여야 한다는 것을 의미한다. 수학식 2에 의해 스케일1 ~ 스케일9가 정해지면, 이것을 바탕으로 수학식 3의 변형함수를 정의한다.For example, if the size of the relative section 1 is 0.5 and the size of the relative section 1a is 0.4, the scale 1 becomes 0.8, which means that the length of the section 1 of the 3D basic model should be reduced to 80%. When scale 1 to scale 9 are determined by Equation 2, the deformation function of Equation 3 is defined based on this.

여기서 X, Y, Z는 각 제어점들과 일반점들의 수평방향, 수직방향, 앞뒤방향의 좌표를 나타내는 변수이며, X', Y', Z'은 각각 좌표가 수정된 각 제어점들과 일반점들의 좌표를 나타낸다. 스케일 함수 S1(Y)는 보다 부드럽게 Y방향 얼굴길이 비율을 신축하기 위해 Y방향의 스케일1 ~ 스케일9를 바탕으로 보간하여 구하며, 본 발명의3차원 기본모델 변형 소프트웨어는 Y방향 스케일 함수를 구하기 위한 보간법으로 베지어 보간법(Bezier interpolation), 허미트 보간법(Hermite interpolation) 등의 다양한 보간법을 선택하여 사용할 수 있다.X, Y, and Z are variables representing coordinates in the horizontal, vertical, and back and forth directions of the control points and the general points, and X ', Y', and Z 'are the coordinates of the control points and the normal points, respectively, whose coordinates are modified. Represents a coordinate. The scale function S 1 (Y) is obtained by interpolation based on scale 1 to scale 9 in the Y direction to stretch the face length ratio in the Y direction more smoothly, and the 3D basic model transformation software of the present invention obtains the scale function in the Y direction. For interpolation, various interpolation methods such as Bezier interpolation and Hermite interpolation can be selected and used.

수학식 3수학식 4하여 3차원 기본 모델상의 제어점과 일반점의 좌표의 Y축 방향을 조정하여 3차원 기본 모델의 얼굴 상하 길이비율을 2차원 이미지의 상하 길이비율에 일치시킨다.By adjusting the Y-axis direction of the coordinates of the control point and the general point on the three-dimensional basic model to match the upper and lower length ratio of the face of the three-dimensional basic model to the upper and lower length ratio of the two-dimensional image.

3차원 기본 모델의 수평방향을 신축하기 위해서 도 5에 도시된 바와 같이, 코밑단(37)부터 수평방향으로 그어진 기준선1, 입술 중간점(51)에서 수평방향으로 그어져 얼굴의 하악의 폭을 나타내는 기준선2, 입술 밑단(51)과 턱끝(9)의 중간지점에서 수평으로 그어진 기준선3이 있고, 2차원 이미지는 대응하는 위치에 기준선1a, 기준선2a, 기준선3a를 갖는다. 각 기준선들은 수학식 4에 의해 상대기준선이 된다.In order to stretch the horizontal direction of the three-dimensional basic model, as shown in FIG. 5, the baseline 1 drawn in the horizontal direction from the base of the nose 37 and in the horizontal direction at the midpoint of the lip 51 are drawn in the horizontal direction to represent the width of the mandible of the face. There is a baseline 3 drawn horizontally at the midpoint between the baseline 2, the lip hem 51 and the chin 9, and the two-dimensional image has a baseline 1a, a baseline 2a, and a baseline 3a at corresponding positions. Each reference line becomes a relative reference line by the equation (4).

(n = 1,2,3)(n = 1,2,3)

각 상대기준선이 구해지면 수학식 5에 의해 스케일이 구해진다.When each relative reference line is obtained, the scale is obtained by the equation (5).

수학식 5에 의해 스케일1 ~ 스케일3이 정해지면, 이것을 바탕으로 수학식 6의 변형함수를 정의한다.When scale 1 to scale 3 are determined by Equation 5, the deformation function of Equation 6 is defined based on this.

여기서 X, Y, Z는 각 제어점의 수평방향, 수직방향, 앞뒤방향의 좌표를 나타내는 변수이며, X', Y', Z'는 좌표가 수정된 각 제어점의 수평방향, 수직방향, 앞뒤방향의 좌표를 나타내는 변수이다. 스케일 함수S2(X)는 3차원 기본모델의 X방향 기준선1 ~ 기준선3의 기준폭에의 상대값과 이에 대응하는 위치의 2차원 이미지의 기준선1a ~ 기준선3a의 기준폭에의 상대값으로 구한 스케일을 바탕으로 보간하여 구한 함수이다.Where X, Y, and Z are variables representing the horizontal, vertical and front and back coordinates of each control point, and X ', Y' and Z 'are the horizontal, vertical and front and rear directions of each control point whose coordinates are modified. Variable representing the coordinates. The scale function S 2 (X) is the relative value of the three-dimensional basic model to the reference width of the reference line 1 to the reference line 3 in the X direction and the reference width of the reference line 1a to the reference line 3a of the two-dimensional image at the corresponding position. This function is obtained by interpolating based on the obtained scale.

수학식 6을 이용하여 3차원 기본 모델상의 제어점과 일반점의 X축방향 좌표를 수정하여 3차원 기본 모델의 얼굴 좌우 비율을 2차원 이미지의 좌우 비율에 일치시켜 얼굴의 윤곽선을 맞춰준다.By using Equation 6, the X-axis coordinates of the control point and the general point on the 3D basic model are corrected to match the contour of the face by matching the left and right ratio of the 3D basic model to the left and right ratio of the 2D image.

윤곽선을 2차원 이미지에 일치시킨 3차원 기본모델(이하 "변형모델"이라 함)은 눈, 코, 입을 2차원 이미지에 일치하도록 변형하는 과정을 거치게 된다.The three-dimensional basic model (hereinafter, referred to as a "deformation model") that conforms the contour to the two-dimensional image undergoes a process of deforming the eye, nose, and mouth to match the two-dimensional image.

변형 모델에서 1번점과 57번점의 X방향 좌표의 차이가 2차원 이미지의 대응하는 점들 사이의 좌표차이와 같아지도록 57번점의 좌표를 옮겨주며, 옮겨진 57번점과 53번점의 X방향 좌표의 차이가 2차원 이미지의 대응하는 점들 사이의 좌표차이와 같아지도록 53번의 좌표를 옮겨준다. 상기 과정을 통해 변형모델의 눈의 좌우폭과 2차원 이미지 눈의 좌우폭을 맞춰 줄 수 있으며, 상하간격은 얼굴 윤곽선을맞춰주는 과정에서 이미 일치하므로 눈의 모양이 일치하게 된다.In the deformed model, the coordinates of point 57 are moved so that the difference in the X direction coordinates of points 1 and 57 is equal to the coordinate difference between the corresponding points of the two-dimensional image. The 53 coordinates are shifted to equal the difference in coordinates between the corresponding points in the 2D image. Through the above process, the left and right widths of the eyes of the deformed model and the left and right widths of the two-dimensional image eyes can be matched.

코의 경우도 상하간격은 이미 일치되어 있으며 좌우폭은 1번점의 X좌표와 31번점의 X좌표의 차이가 2차원 이미지의 대응하는 두 점들간의 X좌표의 차이와 같아지도록 31번 좌표를 옮겨준다. 30번, 32번점도 상기의 과정을 통해 옮겨준다.In the case of the nose, the upper and lower intervals are already coincident, and the left and right widths are shifted to the 31st coordinate so that the difference between the X coordinate of the 1st point and the X coordinate of the 31st point is equal to the difference between the X coordinates of two corresponding points of the 2D image. . Move points 30 and 32 through the above process.

입술을 맞춰주는 방법도 상기의 과정과 동일한 방법으로 1번점과 41번점을 이용하여 41번점을 X방향으로 이동시키고, 마찬가지 방법으로 40번 점의 X방향 좌표를 이동시킨다.In the same way as the above process, the point 41 is moved in the X direction by using the points 1 and 41, and in the same manner, the coordinates of the 40 points are moved in the X direction.

이와같은 방법을 통해 변형모델의 눈, 코, 입이 2차원 이미지에 일치하도록 변형할 수 있으며, 주요한 특징이 되는 점들뿐만 아니라 기타의 제어점들도 상기의 과정으로 옮겨주면 보다 정확한 3차원 변형모델을 생성할 수 있다.In this way, the eyes, nose, and mouth of the deformable model can be deformed to match the two-dimensional image, and not only the main features but also other control points can be moved to the above process to produce a more accurate three-dimensional deformable model. Can be generated.

또한 변형모델의 눈, 코, 입을 2차원 이미지에 일치시키는 작업은 입출력인터페이스(40)를 통해 직접 마우스로 조절할 수도 있다.In addition, matching the eyes, nose, and mouth of the deformed model to a two-dimensional image may be directly controlled by a mouse through the input / output interface 40.

변형모델을 생성하는 또 다른 방법은 특정 제어점을 원점으로 하여 다른 특정한 두 제어점의 위치벡터를 기준벡터로 하여 2차원 이미지 상의 각 제어점들의 위치벡터를 상기 기준벡터의 일차결합 형태로 표현하고, 3차원 기본모델 상의 각 제어점들도 상기의 경우와 같은 방법으로 각 제어점들의 위치벡터를 3차원 기본모델 상의 기준벡터의 일차결합 형태로 표현한 후, 상기 3차원 기본모델의 각 제어점들의 일차결합 계수가 상기 2차원 이미지의 각 제어점들의 일차결합 계수와 같게 하는 방법이다. 예컨대, 51번점을 원점으로 가정하고 5번점의 위치벡터를, 33번점의 위치벡터를와 같이 기준벡터로 설정하면, N번 점의 위치벡터은 상기기준벡터의 일차결합형태로 나타낼 수 있으며, 수학식 7과 같이 표시할 수 있다.Another method of generating a deformation model is to express the position vector of each control point on the two-dimensional image as a first-order combination of the reference vector using the control vectors as the origin and the position vectors of the other two control points as reference vectors. Each control point on the base model also expresses the position vector of each control point in the form of the first combination of the reference vectors on the 3D base model in the same manner as above, and then the first combination coefficient of each control point of the 3D base model is 2 This is equal to the first-order coupling coefficient of each control point of the dimensional image. For example, suppose that 51 is the origin, and the position vector of 5 is , The position vector of point 33 If set as a reference vector, the position vector of point N May be represented as a first-order combination of the reference vector, and may be expressed as shown in Equation 7.

2차원 이미지도 대응하는 점들에 대하여 기준벡터를 각각이라 하고 N번 점의 위치벡터를라고 하면 수학식 8로 표시할 수 있다.Two-dimensional images also have reference vectors for the corresponding points Let's call the position vector of point N Can be expressed by Equation (8).

상기 3차원 기본모델의 aN,bN값을 2차원 이미지의 aN' ,bN'으로 바꿔주면 3차원 기본모델 상의 모든 제어점들이 2차원 이미지 상의 모든 제어점들간의 상대적인 위치가 일치되게 되어, 3차원 기본모델의 외형이 2차원 이미지의 외형과 일치하도록 변형된다.Is to be the three-dimensional base model of a N, b N value, the two-dimensional image of a N all control points on the three-dimensional base model done by changing a ', b N' to match the relative positions between all the control points on the two-dimensional image, The appearance of the 3D basic model is modified to match the appearance of the 2D image.

상기 2가지 방법으로 3차원 기본모델의 제어점을 2차원 이미지의 제어점들간의 상대적인 위치에 일치하도록 옮기는 과정에서 보다 부드러운 3차원 얼굴모델을 생성하기 위하여 일반점들도 함께 옮겨주게 된다.In the above two methods, in order to move the control point of the 3D basic model to match the relative positions of the control points of the 2D image, general points are also moved together to generate a smoother 3D face model.

도 6a, 6b, 6c는 3차원 기본모델의 제어점들간의 상대적인 위치를 2차원 이미지에 일치시키는 과정에서 일반점들의 위치를 바꿔주는 방법을 설명하기 위한 도면이다.6A, 6B, and 6C are diagrams for describing a method of changing positions of general points in a process of matching a relative position between control points of a 3D basic model to a 2D image.

도 6a를 살펴보면 각 제어점들은 3개씩 모여 하나의 삼각형을 이루고 있으며, 삼각형 내부의 일반점들(도시되지 않음)은 삼각형 꼭지점을 이루는 세 제어점들과 일정한 관계를 유지하도록 되어 있다.Referring to FIG. 6A, each control point is three to form a triangle, and general points (not shown) inside the triangle maintain a constant relationship with three control points forming a triangle vertex.

도 6b에 도시된 삼각형은 도 6a에 도시된 3차원 기본모델에 있는 3개의 제어점으로 이루어진 삼각형 중 하나라고 생각할 수 있다. 편의상 삼각형의 세 꼭지점을 제어점1, 제어점2, 제어점3이라 하자. 삼각형 내부에는 일반점이 없을 수도 있고, 하나 또는 복수개의 일반점이 있을 수 있다. 이하는 어느 특정한 하나의 일반점에 대해서만 생각해보기로 한다. 상기 3차원 기본모델을 변형하여 2차원 이미지의 외형에 일치시키는 과정에서 3차원 기본 모델상의 제어점들은 움직인다(좌표가 변한다). 만일 제어점2, 제어점, 제어점3이 도 6b에 도시된 것과 같은 방향으로 움직인다면, 도 6c에 도시된 바와같이 제어점1, 제어점2, 제어점3의 위치(좌표)는 각각 제어점1', 제어점2', 제어점3'으로 옮겨질 것이다. 제어점이 옮겨지면 삼각형 내부의 일반점은 도 6b와 도 6c에 도시된 바와 같이 제어점들과의 거리 비율이 일정하게 되도록 옮겨진다. 즉 제어점1, 제어점2, 제어점3의 좌표를 각각 (x1, y1, z1), (x2, y2, z2), (x3, y3, z3)라고 하고 일반점의 좌표를 (x, y, z)라고 하고, 제어점1', 제어점2', 제어점3'의 좌표를 각각 (x'1, y'1, z'1),(x'2, y'2, z'2),(x'3, y'3, z'3)라고 하면 일반점의 변형 좌표 (x', y', z')는 수학식 9와 같이 계산될 수있다.The triangle shown in FIG. 6B can be thought of as one of the triangles consisting of three control points in the three-dimensional basic model shown in FIG. 6A. For convenience, the three vertices of the triangle are called control point 1, control point 2, and control point 3. There may be no general point inside the triangle, or there may be one or more general points. We will only consider one particular general point. In the process of transforming the 3D basic model to match the appearance of the 2D image, control points on the 3D basic model move (coordinates change). If the control point 2, the control point, and the control point 3 moves in the same direction as shown in Fig. 6B, the positions (coordinates) of the control point 1, the control point 2, and the control point 3, as shown in Fig. 6C, respectively, are the control point 1 'and the control point 2', respectively. Will be moved to control point 3 '. When the control point is moved, the general point inside the triangle is moved so that the distance ratio with the control points is constant as shown in FIGS. 6B and 6C. That is, the coordinates of the control point 1, the control point 2, and the control point 3 are referred to as (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ), (x 3 , y 3 , z 3 ), respectively. Coordinates are referred to as (x, y, z), and coordinates of control point 1 ', control point 2', and control point 3 'are respectively (x' 1 , y ' 1 , z' 1 ), (x ' 2 , y' 2 , z ' 2 ), (x' 3 , y ' 3 , z' 3 ), the transformation coordinates (x ', y', z ') of the general point may be calculated as in Equation (9).

하나의 삼각형 내부에 복수개의 일반점이 있더라도 수학식 9에 의해 계산되어 일반점의 옮겨질 좌표를 구할 수 있다. 상기 일반점의 위치를 제어점의 위치 변화에 따라 변화시키는 과정은 3차원 기본모델 변형 소프트웨어를 사용하여 중앙처리장치(20)내의 3차원 얼굴모델 생성 프로세스(24)에서 수행된다.Even if there are a plurality of common points within one triangle, the coordinates to be moved by the equation 9 can be calculated. The process of changing the position of the general point according to the change of the position of the control point is performed in the three-dimensional face model generation process 24 in the central processing unit 20 using the three-dimensional basic model transformation software.

바람직한 실시예에서 3차원 기본모델을 2차원 이미지에 일치하도록 변형하는 과정은 원기둥좌표에서 수행되며, 이 경우 직교좌표는 수학식 10에 의해 변형된다.In a preferred embodiment, the process of transforming the three-dimensional basic model to match the two-dimensional image is performed in cylindrical coordinates, in which case the rectangular coordinates are modified by Equation 10.

수학식 10에 의해 변형된 좌표를 가진 제어점 및 일반점의 이동은 (θ, H) 평면상에서 수행된다.The movement of the control point and the normal point with the coordinates modified by Equation 10 is performed on the (θ, H) plane.

2차원 이미지의 형상에 일치하도록 변형된 3차원 기본모델에 2차원 이미지의 텍스쳐를 매핑하는 과정을 거쳐 특정인 얼굴의 3차원 얼굴모델이 생성된다. 텍스쳐 매핑하는 단계는 중앙처리장치(20)의 3차원 얼굴모델 생성 프로세스(24)에서 소프트웨어 저장부(14)에 있는 텍스쳐 매핑 소프트웨어를 이용하여 수행되며, 2차원 이미지 저장부(12)에 저장되어 있는 2차원 이미지의 텍스쳐를 3차원 변형모델에 매핑하여 3차원 얼굴모델을 생성한다. 생성된 3차원 얼굴모델은 입출력 인터페이스를 통해(40) 외부로 출력할 수 있으며, 3차원 얼굴모델 저장부(18)에 데이터가 저장할 수 있다. 3차원 변형모델에 2차원 이미지의 텍스쳐를 매핑할 때, 3차원 변형모델 상의 제어점들과 일반점들로 이루어진 삼각형을 기준으로 매핑이 일어난다. 즉 3차원 변형모델 상의 특정 삼각형의 텍스쳐는 2차원 이미지 상의 대응하는 삼각형의 텍스쳐를 3차원 변형모델의 삼각형에 매핑하여 얻을 수 있다.Through the process of mapping the texture of the 2D image to the 3D basic model deformed to match the shape of the 2D image, a 3D face model of a specific face is generated. The texture mapping step is performed using the texture mapping software in the software storage unit 14 in the 3D face model generation process 24 of the central processing unit 20, and stored in the 2D image storage unit 12. A 3D face model is created by mapping a texture of a 2D image to a 3D deformation model. The generated 3D face model may be output to the outside through the input / output interface 40, and data may be stored in the 3D face model storage unit 18. When mapping a texture of a 2D image to a 3D deformation model, the mapping occurs based on a triangle composed of control points and general points on the 3D deformation model. That is, the texture of a specific triangle on the three-dimensional deformation model may be obtained by mapping the texture of the corresponding triangle on the two-dimensional image to the triangle of the three-dimensional deformation model.

발명의 바람직한 실시예는 마이크로소프트사에서 제공하는 "Direct3D"라는 그래픽 라이브러리를 사용하여 텍스쳐 매핑 소프트웨어를 구현한다. 상기 Direct3D의 특징을 약술하면, Direct3D는 3차원 오브젝트를 정의하고 구현할 수 있게 해주어, 3차원의 점뿐만 아니라 오브젝트의 위치와 자세를 기술할 수 있게 해준다. 또한 오브젝트의 표면에서 빛이 반사되는 각도와 양 및 흡수되는 양을 모두 고려하여 최종적으로 빛이 반사되는 면이 어떤 색으로 표시되는지를 결정하도록 할 수 있으며, 오브젝트가 재질감을 갖도록 2차원의 재질감을 나타내는 이미지를 3차원 오브젝트에 매핑할 수도 있다.A preferred embodiment of the invention implements texture mapping software using a graphics library called "Direct3D" provided by Microsoft Corporation. In summary, the features of Direct3D allow Direct3D to define and implement three-dimensional objects, allowing not only three-dimensional points but also the position and attitude of the objects. In addition, by considering both the angle and amount of light reflected from the surface of the object and the amount absorbed, it is possible to determine the color of the surface where the light is finally reflected. You can also map the image you represent to a three-dimensional object.

텍스쳐 매핑과정을 구체적으로 설명하면, 3차원 기본모델이 2차원 이미지의 형상에 일치하도록 변형될 때, 일반점들도 제어점들과 함께 이동하게 되고, 상기 이동된 일반점들의 좌표에 대응하는 2차원 이미지의 일반점들을 소프트웨어에서 설정하고 제어점들과 일반점들로 이루어진 삼각형을 단위로 2차원 이미지의 텍스쳐를 변형된 3차원 기본모델에 매핑시켜 3차원 얼굴모델을 생성한다.The texture mapping process will be described in detail. When the 3D basic model is deformed to match the shape of the 2D image, general points also move together with control points, and the 2D corresponding to the coordinates of the moved general points The general points of the image are set in the software and the 3D face model is created by mapping the texture of the 2D image to the modified 3D basic model based on the triangle composed of the control points and the general points.

도 7a, 7b는 본 발명을 통해 2차원 이미지가 3차원의 얼굴모델로 바뀐 모습을 보여주는 화상도이다.7A and 7B are image views showing a state in which a 2D image is changed to a 3D face model through the present invention.

일단 본 발명을 통해 3차원 얼굴모델이 만들어지면, 정면의 모습뿐만 아니라 고개를 돌린 모습도 만들 수 있게 된다.Once the three-dimensional face model is made through the present invention, it is possible to create not only the frontal appearance but also the face turned.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 예컨대, 본 발명은 제어점을 이동하여 2차원 이미지와 다른 표정연출을 한다든지, 생성된 3차원 얼굴모델의 옆모습을 보여준다든지, 텍스쳐 매핑과정을 약간 수정하여 애니메이션용 캐릭터를 만들 수 있다든지 하는 것이 가능하다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in other specific forms without changing the technical spirit or essential features. For example, the present invention can move a control point to express a different expression from a two-dimensional image, show a side view of a generated three-dimensional face model, or modify a texture mapping process to make a character for animation. Do. Therefore, the above-described embodiments are to be understood as illustrative in all respects and not as restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

상술한 바와 같이, 본 발명은 얼굴 정면사진만으로 3차원 얼굴모델을 만들 수 있으며, 한 장의 얼굴 정면 사진만으로 3차원 얼굴 모델을 만들기 때문에 특수한 장비를 갖춘 스튜디오를 필요로 하지 않고 일반 사진만으로도 저렴한 비용으로 3차원 얼굴모델을 만들 수 있다.As described above, the present invention can make a three-dimensional face model with only the face front picture, and because it creates a three-dimensional face model with only one face front picture, it does not require a studio equipped with special equipment, and at a low cost with only a general picture. Create 3D face models

3차원 얼굴모델을 만드는 과정에서 3차원 기본 모델의 얼굴 윤곽선을 2차원 이미지에 맞추어주기 때문에 보다 부드러운 3차원 얼굴 모델을 만들 수 있으며, 3차원 얼굴모델의 제어점을 이용하여 얼굴 표정의 변화를 연출할 수 있으며, 성형이나 피부 질감의 변형이 가능하다.In the process of creating a three-dimensional face model, the contours of the three-dimensional basic model are matched to the two-dimensional image, so that a smoother three-dimensional face model can be created, and the control points of the three-dimensional face model can be used to produce a change in facial expression. It is possible to mold or deform the skin texture.

또한 수십개의 제어점만을 사용하여 쉽게 3차원 얼굴모델을 생성할 수 있으며, 3차원 얼굴모델은 상기 제어점만에 천여개의 일반점들을 가지고 있어 부드러운 얼굴 이미지를 만들 수 있다.In addition, a three-dimensional face model can be easily generated using only dozens of control points, and the three-dimensional face model has a thousand general points in only the control points, thereby making a soft face image.

Claims (7)

눈, 코, 입, 및 얼굴 형태의 특징을 나타내며 3차원 기본모델을 변형시키기 위한 복수개의 제어점들과, 3차원 기본모델의 형상을 보다 부드럽게 표현하기 위한 복수개의 일반점들을 가지고 있는 3차원 기본모델을 미리 생성하여 메모리에 저장하는 단계와;Three-dimensional basic model with features of eye, nose, mouth, and face shape, with a plurality of control points for transforming the three-dimensional basic model, and a plurality of general points for smoother representation of the shape of the three-dimensional basic model Generating in advance and storing in a memory; 특정인 얼굴 정면사진의 2차원 이미지를 2차원 이미지 입력수단을 통해 입력받아 메모리에 저장하는 단계와;Receiving a two-dimensional image of a specific face front photograph through a two-dimensional image input means and storing it in a memory; 상기 2차원 이미지에 상기 3차원 기본모델의 각 제어점에 대응하는 위치에 제어점을 설정하는 단계와;Setting a control point at a position corresponding to each control point of the three-dimensional basic model in the two-dimensional image; 상기 2차원 이미지의 제어점들 간의 상대적인 좌표에 일치하도록 상기 3차원 기본모델의 제어점들의 좌표를 바꿔주어 상기 3차원 기본모델이 상기 2차원 이미지에 일치하도록 변형하여 3차원 변형모델을 생성하는 단계와;Generating a 3D deformation model by changing the coordinates of the control points of the 3D basic model to match the coordinates of the control points of the 2D image so that the 3D basic model conforms to the 2D image; 상기 3차원 변형모델의 제어점들과 일반점들로 이루어진 각 삼각형에 대응하는 상기 2차원 이미지 각 삼각형의 텍스쳐를 3차원 변형모델에 매핑하는 단계;Mapping a texture of each triangle of the two-dimensional image corresponding to each triangle consisting of control points and general points of the three-dimensional deformation model to a three-dimensional deformation model; 를 포함하는 3차원 얼굴 모델 생성 방법.3D face model generation method comprising a. 제1항에 있어서, 얼굴의 형태를 특징짓는 제어점을 설정할 때 제어점 삽입 위치는The method of claim 1, wherein the control point insertion position when setting the control point characterizing the shape of the face is 코의 폭을 지정하는 위치와;A position specifying the width of the nose; 코끝의 모양을 나타내는 위치와;A position indicating the shape of the tip of the nose; 이마의 끝부분과;At the end of the forehead; 눈썹의 세로위치와;Longitudinal position of the eyebrows; 얼굴 좌우측의 끝부분과;The left and right ends of the face; 하악의 끝부분;The tip of the mandible; 턱의 하단;The bottom of the jaw; 을 포함하는 것을 특징으로 하는 3차원 얼굴 모델 생성 방법.3D facial model generation method comprising a. 제1항에 있어서, 눈에 제어점을 설정할 때 제어점 삽입 위치는The method of claim 1, wherein the control point insertion position when setting the control point to the eye is 눈의 양끝점과;Both ends of the eye; 눈의 곡률이 급격히 변하는 세 지점과;Three points at which the curvature of the eye changes rapidly; 눈의 가장 높은 지점;Highest point of snow; 을 포함하는 것을 특징으로 하는 3차원 얼굴 모델 생성 방법.3D facial model generation method comprising a. 제1항에 있어서, 입에 제어점을 설정할 때 제어점 삽입 위치는The method of claim 1, wherein the control point insertion position when setting the control point in the mouth 입술의 하단과;With the bottom of the lips; 입술의 상단과;With the top of the lips; 일술 상단 사이 패인 지점;Trough point between sulphate top; 을 포함하는 것을 특징으로 하는 3차원 얼굴 모델 생성 방법.3D facial model generation method comprising a. 제1항에 있어서, 상기 3차원 변형모델을 생성하는 단계는The method of claim 1, wherein generating the three-dimensional deformation model 상기 3차원 기본모델에 설정된 특정한 제어점들을 기준으로 상하 구간을 나누고, 상기 2차원 이미지도 상기 구간에 대응되는 구간을 나누어, 3차원 기본모델의 구간들을 2차원 이미지의 구간들의 상대 비율에 일치하도록 변형하여 상하방향을 일치시키는 단계와;The upper and lower sections are divided based on specific control points set in the 3D basic model, and the 2D image is divided into sections corresponding to the sections, and the sections of the 3D basic model are modified to match the relative proportions of the sections of the 2D image. To match the vertical direction; 상기 3차원 기본모델에 설정된 얼굴외곽을 나타내는 특정 제어점에서 이마끝에서 턱끝까지의 얼굴중심선으로 수평선을 그어 상기 수평선의 길이를 기준선으로 하고, 2차원 이미지에 상기 3차원 기본모델의 수평선에 대응되는 기준선을 그어, 상기 3차원 기본모델의 수평방향의 기준선의 길이비율이 2차원 이미지의 기준선의 길이비율에 일치하도록 변형하여 3차원 기본모델과 2차원 이미지의 좌우방향 길이비율을 일치시키는 단계; 및A reference line corresponding to the horizontal line of the three-dimensional basic model in a two-dimensional image by drawing a horizontal line with a face centerline from the end of the forehead to the tip of the chin at a specific control point representing the face outline set in the three-dimensional basic model, Drawing a horizontal ratio of the reference line in the horizontal direction of the three-dimensional basic model to match the length ratio of the reference line of the two-dimensional image to match the length ratio of the three-dimensional basic model and the two-dimensional image; And 상기 상하방향과 좌우방향의 길이 비율을 일치시켜 얼굴윤곽선을 2차원 이미지에 일치하도록 변형된 3차원 기본모델의 눈, 코, 입의 좌우끝점과 3차원 기본모델의 변형된 얼굴 윤곽선으로부터 떨어진 길이가 각각 2차원 이미지의 눈, 코, 입의 좌우끝점과 2차원 이미지의 얼굴 윤곽선으로부터 떨어진 길이와 같게 되도록하는 단계;The lengths away from the left and right end points of the eyes, nose and mouth of the three-dimensional basic model modified to match the two-dimensional image by matching the length ratios of the vertical direction and the left and right directions, and the lengths away from the modified facial contours of the three-dimensional basic model Respectively making equal to the lengths away from the left and right end points of the eyes, nose and mouth of the 2D image and the facial contours of the 2D image; 를 포함하는 것을 특징으로 하는 3차원 얼굴모델 생성방법.3D facial model generation method comprising a. 제1항에 있어서, 상기 3차원 변형모델을 생성하는 단계는The method of claim 1, wherein generating the three-dimensional deformation model 3차원 기본모델 상의 특정 제어점을 원점으로 하여 다른 특정한 두 제어점의위치벡터를 모델 기준벡터로 설정하는 단계와;Setting position vectors of two other specific control points as model reference vectors, using specific control points on the three-dimensional basic model as origins; 3차원 기본모델 상의 다른 제어점들을 상기 모델 기준벡터들의 일차결합 형태로 표현하는 단계와;Expressing other control points on a 3D basic model in the form of a first-order combination of the model reference vectors; 2차원 이미지 상에 상기 3차원 기본모델 상의 특정 제어점에 대응하는 제어점을 원점으로 하여 상기 모델 기준벡터로 설정되는 두 제어점에 대응하는 제어점을 이미지 기준벡터로 설정하는 단계와;Setting a control point corresponding to two control points set as the model reference vector as an image reference vector using a control point corresponding to a specific control point on the three-dimensional basic model as a reference point on a two-dimensional image; 2차원 이미지 상의 다른 제어점들을 상기 이미지 기준벡터들의 일차결합 형태로 표현하는 단계; 및Expressing other control points on a two-dimensional image in the form of a first-order combination of the image reference vectors; And 상기 모델 기준벡터들의 일차결합 형태로 표현된 3차원 기본모델 상의 제어점들의 일차결합 계수를 대응하는 2차원 이미지의 제어점들의 일차결합 계수에 일치하도록 변형하는 단계;Modifying the first coupling coefficients of the control points on the three-dimensional basic model expressed in the first coupling form of the model reference vectors to match the first coupling coefficients of the control points of the corresponding two-dimensional image; 를 포함하는 것을 특징으로 하는 3차원 얼굴모델 생성 방법.3D facial model generation method comprising a. 제5항 또는 제6항에 있어서, 상기 3차원 기본모델은The method of claim 5 or 6, wherein the three-dimensional basic model 3개의 제어점들이 모여서 하나의 삼각형을 이루며, 특정 삼각형 내부의 일반점들은 상기 삼각형의 꼭지점을 이루는 제어점들의 일차결합 형태로 표시되며,은 각각 이동 전과 이동 후의 일반점,는 이동전 삼각형의 꼭지점을 이루는 세 제어점의 위치벡터,는 이동 후의 삼각형 꼭지점, a,b,c는 제어점들과 일반점의 위치관계를 나타내는 상수라 하면, 상기 일반점들의 일차결합 계수(a, b, c)가 수학식 1에서와 같이 일정하게 유지되도록 제어점들의 이동에 따라 일반점들의 위치가 자동으로 바뀌어 2차원 이미지에 일치하도록 변형되는 것을 특징으로 하는 3차원 얼굴모델 생성 방법.Three control points are gathered to form a triangle, and the general points inside a specific triangle are represented by a first combination of control points that form the vertices of the triangle. Are the common points before and after the move, Is the position vector of the three control points forming the vertex of the triangle before moving, Is a constant representing the positional relationship between the control points and the normal point, the first coupling coefficients (a, b, c) of the normal points are kept constant as in Equation 1. Method of generating a three-dimensional face model, characterized in that the position of the normal point is automatically changed according to the movement of the control point so as to match the two-dimensional image. [수학식 1][Equation 1]
KR10-2000-0078691A 2000-12-19 2000-12-19 Method for Making 3D Face Model by Using a 2D Human Face Image KR100372811B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0078691A KR100372811B1 (en) 2000-12-19 2000-12-19 Method for Making 3D Face Model by Using a 2D Human Face Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0078691A KR100372811B1 (en) 2000-12-19 2000-12-19 Method for Making 3D Face Model by Using a 2D Human Face Image

Publications (2)

Publication Number Publication Date
KR20020049504A true KR20020049504A (en) 2002-06-26
KR100372811B1 KR100372811B1 (en) 2003-02-26

Family

ID=27683463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0078691A KR100372811B1 (en) 2000-12-19 2000-12-19 Method for Making 3D Face Model by Using a 2D Human Face Image

Country Status (1)

Country Link
KR (1) KR100372811B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082160A (en) * 2002-04-17 2003-10-22 백수곤 Real Time Sprite Modeling
KR100874817B1 (en) * 2003-06-30 2008-12-26 마이크로소프트 코포레이션 Facial feature detection method, media and apparatus using stereo combining mechanism
US8537155B2 (en) 2009-06-25 2013-09-17 Samsung Electronics Co., Ltd. Image processing apparatus and method
US9799140B2 (en) 2014-11-25 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for generating personalized 3D face model
KR20180116996A (en) 2017-04-18 2018-10-26 한국과학기술원 3-dimensional face frontalization system and method
WO2019164266A1 (en) * 2018-02-23 2019-08-29 Samsung Electronics Co., Ltd. Electronic device for generating image including 3d avatar reflecting face motion through 3d avatar corresponding to face and method of operating same
CN112348937A (en) * 2019-08-09 2021-02-09 华为技术有限公司 Face image processing method and electronic equipment
CN112614213A (en) * 2020-12-14 2021-04-06 杭州网易云音乐科技有限公司 Facial expression determination method, expression parameter determination model, medium and device
CN117058329A (en) * 2023-10-11 2023-11-14 湖南马栏山视频先进技术研究院有限公司 Face rapid three-dimensional modeling method and system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100654396B1 (en) * 2005-12-15 2006-12-06 제양수 3d conversion apparatus for 2d face image and simulation apparatus for hair style using computer
KR20150144075A (en) 2014-06-16 2015-12-24 전영권 3D Objects Transforming Method by Using 2D Image and Hardening Method of 3D Objects
KR101779265B1 (en) * 2015-12-23 2017-09-26 군산대학교산학협력단 Manufacturing 3-dimensional face using 3d printing with 2d pictures
KR20160075470A (en) 2016-06-20 2016-06-29 전영권 3D Objects Transforming Method by Using 2D Image and Hardening Method of 3D Objects
KR102006593B1 (en) 2019-03-22 2019-08-01 학교법인 정화예술대학 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082160A (en) * 2002-04-17 2003-10-22 백수곤 Real Time Sprite Modeling
KR100874817B1 (en) * 2003-06-30 2008-12-26 마이크로소프트 코포레이션 Facial feature detection method, media and apparatus using stereo combining mechanism
US8537155B2 (en) 2009-06-25 2013-09-17 Samsung Electronics Co., Ltd. Image processing apparatus and method
US9799140B2 (en) 2014-11-25 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for generating personalized 3D face model
US9928647B2 (en) 2014-11-25 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for generating personalized 3D face model
KR20180116996A (en) 2017-04-18 2018-10-26 한국과학기술원 3-dimensional face frontalization system and method
WO2019164266A1 (en) * 2018-02-23 2019-08-29 Samsung Electronics Co., Ltd. Electronic device for generating image including 3d avatar reflecting face motion through 3d avatar corresponding to face and method of operating same
US10977873B2 (en) 2018-02-23 2021-04-13 Samsung Electronics Co., Ltd. Electronic device for generating image including 3D avatar reflecting face motion through 3D avatar corresponding to face and method of operating same
US11798246B2 (en) 2018-02-23 2023-10-24 Samsung Electronics Co., Ltd. Electronic device for generating image including 3D avatar reflecting face motion through 3D avatar corresponding to face and method of operating same
CN112348937A (en) * 2019-08-09 2021-02-09 华为技术有限公司 Face image processing method and electronic equipment
CN112614213A (en) * 2020-12-14 2021-04-06 杭州网易云音乐科技有限公司 Facial expression determination method, expression parameter determination model, medium and device
CN112614213B (en) * 2020-12-14 2024-01-23 杭州网易云音乐科技有限公司 Facial expression determining method, expression parameter determining model, medium and equipment
CN117058329A (en) * 2023-10-11 2023-11-14 湖南马栏山视频先进技术研究院有限公司 Face rapid three-dimensional modeling method and system
CN117058329B (en) * 2023-10-11 2023-12-26 湖南马栏山视频先进技术研究院有限公司 Face rapid three-dimensional modeling method and system

Also Published As

Publication number Publication date
KR100372811B1 (en) 2003-02-26

Similar Documents

Publication Publication Date Title
JP3288353B2 (en) How to create a 3D face model starting from a face image
US5745666A (en) Resolution-independent method for displaying a three-dimensional model in two-dimensional display space
US7365749B1 (en) Computer readable medium for modifying an animation wire frame
KR100372811B1 (en) Method for Making 3D Face Model by Using a 2D Human Face Image
KR100327541B1 (en) 3D facial modeling system and modeling method
US7098920B2 (en) Methods and systems for animating facial features and methods and systems for expression transformation
Kurihara et al. A transformation method for modeling and animation of the human face from photographs
US7356447B2 (en) Facial image processing methods and systems
JPH1011609A (en) Device and method for generating animation character
CN106952336B (en) Feature-preserving human three-dimensional head portrait production method
US20050280644A1 (en) Image processing method, image processing apparatus, image processing program, and storage medium
JP2006520054A (en) Image matching from invariant viewpoints and generation of 3D models from 2D images
CN107452049B (en) Three-dimensional head modeling method and device
US6989834B2 (en) System and apparatus for customizing a computer animation wireframe
KR100317138B1 (en) Three-dimensional face synthesis method using facial texture image from several views
US20040169652A1 (en) System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
KR20120121031A (en) How to create 3D face model using 2D face photo
KR102449987B1 (en) Method for automatically setup joints to create facial animation of 3d face model and computer program thereof
JP2001222725A (en) Image processor
奥屋武志 Real-Time Rendering Method for Reproducing the Features of Cel Animations
JP3023903B2 (en) Image generation method and image generation device
Lin et al. High resolution calibration of motion capture data for realistic facial animation
Karunaratne et al. A new efficient expression generation and automatic cloning method for multimedia actors
KR20010073961A (en) Human Head/Face Modeller Generation Method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
N231 Notification of change of applicant
LAPS Lapse due to unpaid annual fee