KR20040036831A - System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function - Google Patents

System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function Download PDF

Info

Publication number
KR20040036831A
KR20040036831A KR1020020065500A KR20020065500A KR20040036831A KR 20040036831 A KR20040036831 A KR 20040036831A KR 1020020065500 A KR1020020065500 A KR 1020020065500A KR 20020065500 A KR20020065500 A KR 20020065500A KR 20040036831 A KR20040036831 A KR 20040036831A
Authority
KR
South Korea
Prior art keywords
face model
face
model
data
average
Prior art date
Application number
KR1020020065500A
Other languages
Korean (ko)
Other versions
KR100450210B1 (en
Inventor
김웅순
오범수
조성업
Original Assignee
비쥬텍쓰리디(주)
(주)엔룩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비쥬텍쓰리디(주), (주)엔룩스 filed Critical 비쥬텍쓰리디(주)
Priority to KR10-2002-0065500A priority Critical patent/KR100450210B1/en
Publication of KR20040036831A publication Critical patent/KR20040036831A/en
Application granted granted Critical
Publication of KR100450210B1 publication Critical patent/KR100450210B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A system for mixing 3-dimensional scanned face models and a method thereof and a recording medium with a program including a function to mix the 3-dimensional scanned face models, are provided to construct a face model database by performing conversion of a cylinder coordinate system and mapping for 3-dimensional face scan data, and to mix the 3-dimensional face models based on statistics using the face model database. CONSTITUTION: A data corrector performs a correction operation to unify a data structure of a mesh and a polygon for multiple 3-dimensional face scan data. A face model database(22) classifies and stores the 3-dimensional face model data corrected by the data corrector. An average model generator(24) generates an average face model for the stored multiple face model data. A probability distribution extractor(26) calculates a difference between the average face model and each face model to generate a probability distribution value for the face models. A statistical model generator(30) generates a face model statistically mixed from data of the average face model and each face model, based on a model characteristic parameter of a user inputted from an external. A model mixer(32) performs a mixing operation for a new face model through morphing and caricature for data of the statistical face model and each face model.

Description

3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체{System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function}System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function}

본 발명은 3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체에 관한 것으로서, 보다 상세하게는 임의의 3차원 얼굴모델의 스캔데이터를 보정처리하여 얼굴모델의 데이터베이스를 구축하고, 그 얼굴모델 데이터베이스의 얼굴모델 데이터를 기초로 확률적으로 존재 가능한 새로운 3차원 얼굴모델을 합성해내기 위한 3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체에 관한 것이다.The present invention relates to a recording medium containing a synthesis system of a 3D scan face model, a method thereof, and a program having a synthesis function of a 3D scan face model, and more particularly, to correcting scan data of an arbitrary 3D face model. 3D scan face modeling system, method, and 3D scan for constructing database of face model and synthesizing new 3D face model that can be stochastic based on face model data of face model database The present invention relates to a recording medium containing a program having a synthesis function of a face model.

일반적으로, 인간의 얼굴을 컴퓨터를 이용하여 모델링하는 과정에 있어서 현실적으로 존재하기 어려운 자연스럽지 못한 얼굴을 생성하지 않기 위해서는 고도의 전문성과 많은 시간을 투자한 수작업이 요구되는 바, 자동적인 얼굴 합성기술과 얼굴의 애니메이션 처리 방식에서의 어려운 점은 많은 얼굴모델 중에서 서로 대응되는 특징 지점을 찾아서 규정화시키는 문제와 현실 세계에서 존재가 가능한 얼굴 모습과 존재하기 어려운 얼굴 모습을 구분해내는 것이다.In general, in the process of modeling a human face using a computer, a high level of expertise and time-consuming manual labor are required in order not to create an unnatural face that is difficult to exist in reality. The difficulty in facial animation processing is to distinguish between the problem of finding and defining feature points that correspond to each other among many facial models, and the distinction between faces that can exist in the real world and those that do not exist.

즉, 얼굴모델의 생성 및 모핑 처리에 있어서 각 얼굴모델 간의 특징점의 대응은 매우 중요하게 대두되는 바, 각 얼굴 모델 사이의 동일한 지점에 대한 대응관계를 찾기 위해서는 통상적으로 얼굴의 코끝이나 눈끝과 같은 지점에 특징점을 표시하고, 그 특징점을 대응시키는 경우에 약 50∼300개 정도의 범위 내에서 특징점이 잡히게 되지만, 보다 정확한 특징점을 추출하기 위해서는 장시간에 걸친 수작업이 선행되어야 한다.That is, in the generation and morphing of the face model, the correspondence of the feature points between the face models is very important. In order to find a correspondence relationship between the same points between the face models, a point such as the tip of the face or the tip of the eye is usually used. In the case where the feature points are displayed and the feature points are matched, the feature points are caught within a range of about 50 to 300, but in order to extract more accurate feature points, manual operation for a long time must be preceded.

또한, 정확한 얼굴 모델의 생성과 모핑이 가능하도록 하기 위해서는 모든 특징점들이 정확하게 정렬됨과 동시에 각각의 대응관계가 정의되어야 하고, 이를 위해서는 작업자의 경험적 지식에 의존할 수 밖에 없으며 엄청난 양의 수작업이 요구될 수 밖에 없다. 즉, 현재의 얼굴모델 생성의 기술에서는 눈끝점이나 입술 끝점 등과 같이 시각적으로 뚜렷이 구별되는 특징점에 대한 자동 매칭 기술만이 구현되어 있고, 나머지의 과정에 대해서는 다수의 수작업이 필요하게 되는 것이다.In addition, in order to enable accurate face model generation and morphing, all feature points must be accurately aligned and each correspondence must be defined. This requires relying on the operator's empirical knowledge and requires a great deal of manual work. There is nothing else. That is, in the current face model generation technique, only automatic matching techniques for visually distinct feature points such as an eye tip or a lip tip are implemented, and a lot of manual work is required for the rest of the process.

또한, 얼굴 모델의 생성에 있어서 다른 문제점은 현실 세계에 존재하는 자연스러운 얼굴 모습과 자연스럽지 못한 얼굴 모습을 구분하는 것인데, 이를 해결하기 위해서는 작업자의 경험적인 지식이 절대적으로 작용하게 되지만, 3차원적인 얼굴 모델을 이용하여 얼굴의 각종 특징들을 조작하고 시각적으로 자연스러운 효과를 창출하기 위해서는 작업은 많은 시간투자가 요구되고, 작업자의 상당한 미적 감각이 요구되는 것이다.In addition, another problem in the creation of the face model is to distinguish between the natural face and the unnatural face that exist in the real world. To solve this problem, the operator's empirical knowledge is absolutely working, but the three-dimensional face In order to manipulate various features of the face using the model and create a visually natural effect, the work requires a lot of time and a considerable aesthetic sense of the worker.

상기한 문제점을 해결하기 위해, 최근에는 다수의 3차원 얼굴의 스캔데이터를 광학 흐름(Optical Flow) 알고리즘 및 초기화(Bootstrapping) 알고리즘을 적용한 자동 대응방법을 이용하여 스캔데이터의 외형(Geometry) 및 색상(Color)을 꼭지점 별로 1 : 1 점대점으로 대응시키고, 각 모델들의 꼭지점을 선형으로 조합함에 의해 새로운 외형 및 얼굴색을 가지는 모핑이 가능한 얼굴모델(Morphable Face Model)의 생성기법이 개발된 상태이다.In order to solve the above problems, recently, the scan data of a plurality of three-dimensional faces using an automatic correspondence method applying an optical flow algorithm and a bootstrapping algorithm, the appearance (Geometry) and color ( Colors are mapped to vertices by 1: 1 point-to-point, and linearly combining the vertices of each model to create a Morphable Face Model with a new appearance and face color.

이러한 모핑 가능한 얼굴 모델의 생성기법은 비선형 방정식과 확률을 도입하여 2차원의 스캐닝된 얼굴 이미지에 모핑이 가능한 모델을 결합하여 3차원으로 재구성하는 방식이다.The morphable face model generation method combines non-linear equations and probabilities and combines a morphable model into a two-dimensional scanned face image to reconstruct it in three dimensions.

그러나, 이러한 종래의 모핑이 가능한 얼굴 모델의 생성기법은 3차원 상에서 실린더 좌표계로 스캔된 다수의 얼굴 모델이 필요하지만 이러한 얼굴 모델을 취득하기 위해서는 수많은 수작업을 통해 각각의 스캔된 얼굴 모델들을 대응시키는 작업을 수행해야 하고, 비선형 방정식과 매칭 방식의 도입으로 인해 얼굴 모델의 합성을 위한 알고리즘이 복잡해 지게 되고 방대한 양의 계산이 이루어져야 한다는 문제점이 있다.However, this conventional morphable face model generation technique requires a large number of face models scanned in a cylinder coordinate system in three dimensions, but in order to obtain such a face model, a number of manual operations correspond to each of the scanned face models. Due to the introduction of nonlinear equations and matching methods, the algorithm for the synthesis of face models is complicated and a large amount of calculations have to be performed.

또한, 종래의 얼굴 모델링 과정에 있어서는 얼굴 모델링의 결과가 현실 세계에서 존재하기 어려운 자연스럽지 못한 얼굴 모습이 산출될 우려성이 많고, 각 얼굴 메쉬 간의 대응점의 결여로 인해 모핑이나 합성 등이 어렵게 되고 이로 인한 수작업이 증가한다는 불리함이 있으며, 작업자의 개인적인 판단기준이나 작업능력에 따라 모델링의 결과가 좌우되기 때문에 모델링된 결과치가 일정하게 산출되지 못한다는 문제점이 있다.In addition, in the conventional face modeling process, there is a high possibility that an unnatural face shape that is difficult to exist in the real world is calculated, and morphing or compositing becomes difficult due to the lack of correspondence points between the face meshes. There is a disadvantage that the manual work due to the increase, and the modeling result is not consistently calculated because the results of the modeling is dependent on the individual judgment criteria or work ability of the worker.

따라서, 본 발명은 상기한 종래의 문제점을 해소하기 위해 이루어진 것으로서, 그 목적은 3차원의 얼굴 스캔데이터를 실린더 좌표계 변환 및 매핑 처리하여 얼굴모델 데이터베이스를 구축함과 더불어, 그 얼굴모델 데이터베이스를 이용하여 통계 기반 3차원 얼굴모델의 합성이 가능하도록 하는 3차원 스캔 얼굴모델의 합성시스템과 그 방법 및 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체를 제공하는 것이다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and an object thereof is to construct a face model database by transforming and mapping a three-dimensional face scan data into a cylinder coordinate system, and using the face model database for statistics. The present invention provides a recording medium containing a synthesis system of a 3D scan face model and a method thereof, and a program having a synthesis function of a 3D scan face model.

본 발명의 다른 목적은 모핑이 가능한 얼굴모델을 생성하여 모델간의 모핑 및 특징의 과장처리에 의한 모델의 통계적인 조합처리를 통해서 다양한 형태의 새로운 얼굴 모델을 무한적으로 생성할 수 있도록 하는 3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체를 제공하는 것이다.Another object of the present invention is to generate a face model capable of morphing three-dimensional scan to create infinitely new face models of various types through statistical combination processing of the model by morphing between models and exaggeration of features The present invention provides a recording medium containing a synthesis system of a face model, a method thereof, and a program having a synthesis function of a three-dimensional scan face model.

도 1은 본 발명이 적용되는 3차원 스캔 얼굴모델의 데이터베이스를 구축하기 위한 얼굴데이터 처리과정을 설명하기 위한 공정도,1 is a process chart illustrating a face data processing process for constructing a database of a 3D scan face model to which the present invention is applied;

도 2는 3차원 스캔 얼굴모델의 데이터베이스를 구축하기 위해 입력되는 3차원 얼굴 스캔데이터를 예시적으로 나타낸 도면,FIG. 2 is a diagram illustrating three-dimensional face scan data input to construct a database of a three-dimensional scan face model; FIG.

도 3은 3차원 얼굴모델의 메쉬 데이터가 초기정렬된 상태를 예시적으로 나타낸 도면,3 is a diagram illustrating a state in which mesh data of a 3D face model is initially aligned;

도 4a 및 도 4b는 정렬된 메쉬 데이터의 복셀추출 및 칼라할당 상태를 예시적으로 나타낸 도면,4A and 4B are views illustrating voxel extraction and color assignment states of aligned mesh data by way of example;

도 5a 내지 도 5c는 3차원 얼굴 스캔데이터의 스캔라인 및 실린더좌표 추출과 메쉬를 재구성하는 상태를 예시적으로 나타낸 도면,5A to 5C are views illustrating a state of reconstructing a mesh and extraction of scan lines and cylinder coordinates of 3D face scan data;

도 6a 및 도 6b는 3차원 스캔 메쉬 데이터를 표준참조 얼굴모델과 1:1 매핑처리하는 상태를 예시적으로 나타낸 도면,6A and 6B exemplarily illustrate a state in which 1: 1 mapping of 3D scan mesh data to a standard reference face model is performed;

도 7은 본 발명에 따른 3차원 스캔 얼굴모델의 합성 시스템에 대한 구성을나타낸 도면,7 is a view showing the configuration of a synthesis system of a three-dimensional scan face model according to the present invention;

도 8은 도 7에 도시된 모델 합성부의 구성에 대한 일예를 나타낸 도면,8 is a diagram illustrating an example of a configuration of a model synthesizing unit illustrated in FIG. 7;

도 9는 도 7에 도시된 모델 합성부의 구성에 대한 다른예를 나타낸 도면,9 is a diagram illustrating another example of the configuration of the model synthesizing unit illustrated in FIG. 7;

도 10a 및 도 10b는 본 발명에 따른 3차원 스캔 얼굴모델의 합성 방법에 대한 동작을 설명하기 위한 플로우차트,10A and 10B are flowcharts for explaining an operation of a method for synthesizing a 3D scan face model according to the present invention;

도 11은 본 발명의 바람직한 실시예에 따라 각 3차원 얼굴모델이 자동적으로 1:1 매핑처리되는 상태를 예시적으로 나타낸 도면,11 is a diagram illustrating a state in which each 3D face model is automatically 1: 1 mapped according to an exemplary embodiment of the present invention.

도 12a 내지 도 12c는 본 발명의 바람직한 실시예에 따라 3차원 얼굴모델에 대한 통계적 평균모델이 생성되는 상태를 예시적으로 나타낸 도면,12A to 12C are views illustrating a state in which a statistical mean model is generated for a three-dimensional face model according to an exemplary embodiment of the present invention.

도 13은 3차원 얼굴모델의 외형 및 얼굴색에 대한 확률분포 상태를 예시적으로 나타낸 도면,FIG. 13 is a diagram illustrating probability distribution states of appearance and face color of a three-dimensional face model; FIG.

도 14는 3차원 얼굴모델의 데이터베이스로부터 확률적으로 생성이 가능한 얼굴모델들을 예시적으로 나타낸 도면,14 is a diagram illustrating face models that can be generated stochasticly from a database of three-dimensional face models;

도 15는 서로 다른 얼굴 데이터들간의 3차원 모핑 결과를 나타낸 도면,15 is a view showing a three-dimensional morphing result between different face data;

도 16a 내지 도 16c는 본 발명의 바람직한 실시예에 따라 얼굴모델의 특징과정 처리를 수행한 결과를 예시적으로 나타낸 도면이다.16A to 16C are views illustrating results of performing a feature process of a face model according to an exemplary embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

20:데이터 매핑부, 22:얼굴모델 데이터베이스,20: data mapping section, 22: face model database,

24:평균모델 생성부, 26:확률분포 추출부,24: average model generation unit, 26: probability distribution extraction unit,

30:통계모델 생성부, 32:모델 합성부.30: statistical model generation unit, 32: model synthesis unit.

상기한 목적을 달성하기 위해 본 발명의 시스템에 따르면, 다수의 3차원 얼굴 스캔데이터에 대한 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정을 수행하는 데이터 보정수단과, 상기 데이터 보정수단에 의해 보정된 3차원 얼굴모델 데이터가 분류별로 저장되는 얼굴모델 데이터베이스, 상기 얼굴모델 데이터베이스에 저장된 다수의 얼굴모델 데이터에 대한 평균 얼굴모델을 생성하기 위한 평균모델 생성수단, 상기 평균모델 생성수단에서 생성된 평균 얼굴모델과 각 얼굴모델과의 차이값을 산출하여 얼굴모델에 대한 확률분포값을 생성하는 확률분포 추출수단, 외부로부터 입력받은 사용자의 모델특징 파라미터에 기초하여 평균모델 데이터와 각 얼굴모델 데이터와의 통계적으로 조합된 얼굴모델을 생성하는 통계모델 생성수단 및, 상기 통계모델 생성수단을 통해 생성된 통계적 얼굴모델과 각 얼굴모델 데이터에 대한 모핑 및 캐리커쳐를 통해 새로운 얼굴모델을 합성처리하는 모델 합성수단으로 구성된 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템을 제공한다.According to the system of the present invention for achieving the above object, data correction means for performing a correction for unifying the data structure of the mesh and polygon for a plurality of three-dimensional face scan data, and the correction by the data correction means A face model database in which 3D face model data is stored for each classification, an average model generation means for generating an average face model for a plurality of face model data stored in the face model database, and an average face model generated by the average model generation means A probability distribution extracting means for generating a probability distribution value for the face model by calculating a difference between the face model and each face model, and statistically comparing the mean model data with each face model data based on the user's model feature parameters received from the outside. Statistical model generating means for generating a combined face model, and the statistics It provides del generating means a statistical face model and each face model 3D synthesis system of the scanning face model, characterized in that consisting of a model synthesizing means for synthesizing process the new face models through morphing and caricature of the data generated through.

상기한 목적을 달성하기 위해 본 발명의 방법에 따르면, 다수의 3차원 얼굴 스캔데이터를 입력받아 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정처리를 수행하는 단계와, 상기 보정처리를 통해서 모핑이 가능한 얼굴모델 데이터에 대해 분류별로 얼굴모델 데이터베이스를 구축하는 단계, 상기 얼굴모델 데이터베이스에 구축된 다수의 3차원 얼굴모델에 대한 평균 얼굴모델을 생성하는 단계, 상기 평균 얼굴모델과 각 얼굴모델과의 차이값을 계산하여 확률분포를 산출하는 단계, 사용자에 의해 입력된 특징파라미터에 따라 평균 얼굴모델 데이터와 각 얼굴모델 데이터에 대한 차이값을 계산하여 통계적으로 조합된 얼굴모델을 생성하는 단계 및, 상기 통계적으로 조합된 얼굴모델 데이터와 평균 얼굴모델 데이터를 이용하여 새로운 얼굴모델을 합성처리하는 단계로 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 방법을 제공한다.In order to achieve the above object, according to the method of the present invention, receiving a plurality of three-dimensional face scan data to perform a correction process for unifying the data structure of the mesh and polygon, and morphing through the correction process Constructing a face model database for each category of face model data, generating an average face model for a plurality of 3D face models constructed in the face model database, and a difference value between the average face model and each face model Calculating a probability distribution by calculating a value; calculating a difference value between average face model data and each face model data according to a feature parameter input by a user, and generating a statistically combined face model; and Create a new face model using the combined face model data and the average face model data. It provides a method for synthesizing the three-dimensional face model scan, characterized in that comprising the step of processing property.

상기한 목적을 달성하기 위해 본 발명의 프로그램이 수록된 기록매체에 따르면, 다수의 3차원 얼굴 스캔데이터를 입력받아 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정처리를 수행하는 기능과, 상기 보정처리를 통해서 모핑이 가능한 얼굴모델 데이터에 대해 분류별로 얼굴모델 데이터베이스를 구축하는 기능, 상기 얼굴모델 데이터베이스에 구축된 다수의 3차원 얼굴모델에 대한 분류별 평균 얼굴모델을 생성하는 기능, 상기 평균 얼굴모델과 각 얼굴모델과의 외형 및 얼굴색에 대한 차이값을 계산하여 확률분포를 산출하는 기능, 사용자에 의해 입력된 특징파라미터에 따라 평균 얼굴모델 데이터와 각 얼굴모델 데이터에 대한 차이값을 계산하여 통계적으로 조합된 얼굴모델을 생성하는 기능 및, 상기 통계적으로 조합된 얼굴모델 데이터와 평균 얼굴모델 데이터를 이용하여 새로운 얼굴모델을 합성처리하는 기능을 포함한 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체를 제공한다.According to the recording medium in which the program of the present invention is recorded to achieve the above object, a function of receiving a plurality of three-dimensional face scan data and performing a correction process for unifying the data structure of a mesh and a polygon, and performing the correction process A function of constructing a face model database for each classification of the face model data that can be morphed through, A function of generating an average face model for each of a plurality of three-dimensional face models constructed in the face model database, The average face model and each face The probability distribution is calculated by calculating the difference between appearance and face color with the model, and the statistically combined face by calculating the difference between the average face model data and each face model data according to the feature parameters input by the user. A function of generating a model, and the statistically combined face model data The present invention provides a recording medium containing a program having a synthesis function of a three-dimensional scan face model, including a function of synthesizing a new face model using average face model data.

이하, 상기한 바와 같이 구성된 본 발명에 대해 첨부도면을 참조하여 상세히 설명한다.Hereinafter, the present invention configured as described above will be described in detail with reference to the accompanying drawings.

즉, 도 1은 본 발명이 적용되는 3차원 스캔 얼굴모델의 데이터베이스를 구축하기 위한 얼굴데이터 처리과정을 설명하기 위한 공정도이다.That is, FIG. 1 is a flowchart illustrating a face data processing process for constructing a database of a 3D scan face model to which the present invention is applied.

도 1에 도시된 바와 같이, 3차원으로 스캔이 이루어진 다양한 얼굴데이터에 대해 데이터베이스의 구축을 위한 데이터 처리과정은 메쉬데이터 정렬공정(2)과, 복셀 추출공정(4), 실린더 좌표계 샘플링공정(6) 및, 얼굴데이터 매핑공정(10)으로 구분된다.As shown in FIG. 1, a data processing process for constructing a database for various face data scanned in three dimensions includes a mesh data alignment process (2), a voxel extraction process (4), and a cylinder coordinate system sampling process (6). ), And the face data mapping process 10.

상기 메쉬데이터 정렬공정(2)에서는 스캔받은 외부로부터의 3차원 얼굴 스캔데이터가 동일한 자료구조를 갖도록 각각 상이한 메쉬의 위상을 정렬시키기 위한 것으로서, 이는 각 3차원 얼굴 스캔데이터의 얼굴 모델이 정면에 위치해 있도록 x,y,z축으로의 기울어짐을 보정하게 되고, 각 얼굴 모델의 한계위치(즉, 이마 끝으로부터 목선 시작점)의 길이를 기준으로 모든 얼굴 모델의 높이를 동일하게 보정하게 되며, 데이터 처리에 필요한 얼굴부분만을 남기고 귀나 목과 같은 불필요한 부분을 삭제처리하는 보정을 수행한다.In the mesh data alignment process (2), the phases of the different meshes are aligned so that the scanned 3D face scan data from the outside has the same data structure. The slope of the x, y, and z axes is corrected so that the height of all face models is equally corrected based on the length of the limit position of each face model (ie, the starting point of the neckline from the forehead). The correction is performed to delete unnecessary parts such as ears and neck, leaving only necessary face parts.

여기서, 상기 3차원 얼굴 스캔데이터는 도 2에 도시된 바와 같이, 메쉬와 이미지, 3차원 스캐너로부터 스캔된 스캔데이터를 각각 합성하여 텍스쳐가 매핑된 3차원 얼굴 데이터로서 입력되도록 되어 있다.As illustrated in FIG. 2, the three-dimensional face scan data is synthesized by combining the scan data scanned from the mesh, the image, and the three-dimensional scanner, and input as the texture-mapped three-dimensional face data.

도 3에 도시된 바와 같이, 서로 다른 복수의 3차원 얼굴 스캔데이터는 상기 메쉬데이터 초기정렬 공정(2)을 통해 초기 정렬된 결과를 보여주고 있다.As shown in FIG. 3, the plurality of different three-dimensional face scan data shows the result of initial alignment through the mesh data initial alignment process (2).

또한, 상기 복셀 추출공정(4)은 상기 메쉬데이터 정렬공정(2)을 통해서 초기 정렬된 얼굴 모델의 메쉬 구조 및 폴리곤 개수 등과 같은 자료 구조가 각 모델마다 상이하기 때문에, 각 얼굴 모델의 자료구조를 하나의 통일된 구조로 생성하기 위한 것으로서, 이는 얼굴 모델의 메쉬를 구성하는 각 삼각형의 표면성분을 일정한 해상도의 정규 복셀 그리드에 매핑시켜서 얼굴 모델의 표면을 구성하는 모든 꼭지점을 추출하고, 텍스쳐 이미지를 이용하여 각 꼭지점의 컬러값을 계산하게 된다.In addition, the voxel extraction process (4) is a data structure of each face model because the data structure, such as the mesh structure and the number of polygons of the face model initially aligned through the mesh data alignment process (2) is different for each model This is to create a single unified structure, which maps the surface components of each triangle constituting the mesh of the face model to a regular voxel grid of constant resolution, extracting all the vertices constituting the surface of the face model, and extracts the texture image. To calculate the color value of each vertex.

즉, 상기 복셀 추출공정(4)에서는 도 4a에 도시된 바와 같이, 256×256×256 크기를 갖는 볼륨 데이터의 복셀에 매핑시켜서 표면성분을 포함하는 복셀을 표면복셀로 정의하게 되는 한편, 도 4b에 도시된 바와 같이 상기 표면성분의 컬러값을 할당하게 되는 것이다.That is, in the voxel extracting step 4, as shown in FIG. 4A, a voxel containing surface components is defined as a surface voxel by mapping to a voxel of volume data having a size of 256 × 256 × 256. As shown in the above, the color values of the surface components are assigned.

다음에, 상기 실린더 좌표계 샘플링공정(6)에서는 3차원 얼굴의 스캔데이터를 정규 볼륨 그리드를 이용하여 재구성하고, 실린더 좌표계로 샘플링하기 위한 것이다. 여기서, 상기 실린더 좌표계 샘플링공정(6)은 도 5a에 도시된 바와 같이, 얼굴 모델의 각각의 복셀 표면에서 표면 복셀을 하나의 연속한 선으로 연결하여 스캔라인으로 변환하게 되고, 도 5b에 도시된 바와 같이 얼굴 모델의 중심을 통과하는 선을 중심으로 하여 각각의 복셀 평면 상에서 일정한 각도로 회전하면서 만나는 가장 바깥쪽에 위치한 스캔 라인과의 교점을 구하고, 그 지점에서의 컬러값을 저장하여 원통형 좌표계로 변환하게 된다.Next, in the cylinder coordinate system sampling step 6, the scan data of the three-dimensional face is reconstructed using a regular volume grid and sampled by the cylinder coordinate system. Here, the cylinder coordinate system sampling process 6 converts the surface voxels into one continuous line on each voxel surface of the face model and converts them into scan lines, as shown in FIG. As shown above, the intersection of the outermost scan line that meets while rotating at a certain angle on each voxel plane is centered on the line passing through the center of the face model, and the color value at that point is stored and converted into a cylindrical coordinate system. Done.

또한, 상기 실린더 좌표계 샘플링공정(6)에서는 도 5c에 도시된 바와 같이, 실린더 샘플링을 통하여 얻어진 3차원 얼굴 데이터가 직사각형 형태의 정규 메쉬 구조로 재구성됨에 따라, 스캔을 통해 얻어진 각 얼굴 모델 데이터가 균일한 자료 구조를 갖게 되고, 2차원 상에서 펼쳐진 이미지의 외형(즉, image(h,Φ)=(x,y,z)+(R,G,B))으로 변환할 수 있게 되면서 3차원 상에서 이루어지는 작업을 2차원 상에서 용이하게 구현할 수 있게 된다.In addition, in the cylinder coordinate system sampling process 6, as shown in FIG. 5C, since the three-dimensional face data obtained through the cylinder sampling is reconstructed into a regular mesh structure of a rectangular shape, each face model data obtained through the scan is uniform. It has a data structure and can be converted into the appearance of an image unfolded in two dimensions (ie image (h, Φ) = (x, y, z) + (R, G, B)). Work can be easily implemented in two dimensions.

상기 얼굴데이터 매핑공정(10)에서는 상기 실린더 좌표계 샘플링공정(6)을 통해서 얻어진 메쉬 데이터를 미리 설정된 표준참조 얼굴모델(8)과 수동으로 1:1 매핑시키게 되는 바, 이는 도 6a에 도시된 바와 같이 각 얼굴모델 데이터에서 동일한 위치의 이미지(image(h,Φ))에 저장된 데이터가 서로 동일한 부분의 외형(x,y,z)와 컬러값(R,G,B)을 저장하고 있어야 하기 때문에, 도 6b에 도시된 바와 같이 얼굴의 특징을 결정하는 요소 즉, 눈, 눈썹, 코, 입술의 위치를 표시하는 특징선을 이용하여 눈, 코, 입의 위치를 대응시키고 특징선과 그 특징선 내부의 나머지 부분들에 대해 선형보간을 적용하여 맞추어주게 된다.In the face data mapping process 10, mesh data obtained through the cylinder coordinate system sampling process 6 is manually mapped 1: 1 with a preset standard reference face model 8, as shown in FIG. 6A. Since the data stored in the image (image (h, Φ)) at the same position in each face model data must store the appearance (x, y, z) and color values (R, G, B) of the same part. As shown in FIG. 6B, elements that determine the features of the face, that is, eyes, eyebrows, noses, and lips using feature lines indicating the positions of the eyes, noses, and mouths, correspond to the feature lines and the feature lines. The linear interpolation is applied to the rest of the parts.

다음에, 도 7은 본 발명에 따른 3차원 스캔 얼굴모델의 합성 시스템에 대한 구성을 나타낸 도면이다.Next, FIG. 7 is a diagram illustrating a configuration of a synthesis system of a 3D scan face model according to the present invention.

도 7에 도시된 바와 같이, 본 발명에 따른 3차원 스캔 얼굴모델의 합성 시스템은 데이터 매핑부(20)와, 얼굴모델 데이터베이스(22), 평균모델 생성부(24), 확률분포 추출부(26), 통계모델 생성부(30) 및, 모델 합성부(32)로 구성된다.As shown in FIG. 7, the synthesis system of the 3D scan face model according to the present invention includes a data mapping unit 20, a face model database 22, an average model generator 24, and a probability distribution extractor 26. ), A statistical model generation unit 30, and a model synthesis unit 32.

상기 데이터 매핑부(20)는 도 1에 도시된 상기 얼굴데이터 매핑공정(10)을 통해서 수동으로 매핑처리된 얼굴모델 데이터를 비선형 방정식을 이용하여 자동적으로 1:1매핑시키기 위한 것으로서, 이는 수동 매핑작업시에 특징선만을 이용하여 대응시키는 경우에는 눈, 입의 윤곽선을 정확하게 일치시키는 것이 어렵게 되기 때문에, 컬러값(R,G,B)를 이용하여 눈과 입 영역에 대해 비선형 방정식(LMA)을 적용하여 각 얼굴 모델 사이의 컬러값의 차이가 최소가 되도록 재차 매핑작업을 수행하게 되고, 그러한 자동적인 1:1 매핑작업의 결과로 도 11에 도시된 바와 같은 데이터가 산출될 수 있게 된다.The data mapping unit 20 is to automatically 1: 1 map the face model data manually mapped through the face data mapping process 10 shown in FIG. 1 using a nonlinear equation, which is a manual mapping. If only the feature lines are used during operation, it is difficult to accurately match the contours of the eyes and mouth. Therefore, the nonlinear equations (LMA) for the eye and mouth regions are used using the color values (R, G, B). In this case, the mapping operation is performed again so that the difference in color values between the face models is minimized. As a result of the automatic 1: 1 mapping operation, data as shown in FIG. 11 can be calculated.

상기 얼굴모델 데이터베이스(22)는 상기 데이터 매핑부(20)를 통해서 자동적으로 1:1매핑된 결과로 산출되는 균일한 데이터값을 갖는 다수의 얼굴 모델 데이터를 저장하기 위한 것으로서, 이는 변형이 가능한 얼굴 모델을 무제한적으로 생성하는 것이 가능하도록 하기 위해 수백명씩의 남자, 여자의 얼굴 모델 데이터가 성별, 연령별로 구분되어 저장되어 있다.The face model database 22 stores a plurality of face model data having a uniform data value calculated as a result of automatically 1: 1 mapping through the data mapping unit 20. To make it possible to create an unlimited number of models, hundreds of male and female face model data are stored by gender and age.

상기 평균모델 생성부(24)는 상기 얼굴모델 데이터베이스(22)에 성별, 연령별로 분류적으로 저장되어 있는 얼굴 모델 데이터의 각 부위에 대한 외형(Geometry)와 얼굴색(color) 정보를 이용하여 산술 평균값을 구함에 의해 분류별로 평균적인 얼굴모델을 생성하게 되고, 그 분류별 평균 얼굴모델을 이용하여 전체적인 평균 얼굴 모델을 산출하게 된다.The average model generator 24 uses the geometry and face color information for each part of the face model data, which is classified and stored in the face model database 22 according to gender and age, to calculate arithmetic mean values. By generating the average face model for each category, the average face model for each category is calculated.

여기서, 상기 평균모델 생성부(24)는 도 12a 및 도 12b에 도시된 바와 같이각각 남자 얼굴모델과 여자 얼굴모델에 대해서 성별로 평균 얼굴 모델을 산출하게 되고, 도 12c에 도시된 바와 같이 그 분류별(예컨대 성별) 평균 얼굴 모델을 이용하여 전체적인 3차원 평균 얼굴 모델을 생성하게 된다(즉, 도 12c에서는 좌로부터 남자/여자/전체 평균 얼굴 모델).Here, the average model generator 24 calculates an average face model by gender for the male face model and the female face model, respectively, as shown in FIGS. 12A and 12B, and by classification, as shown in FIG. 12C. (E.g., gender) an average face model is used to generate an overall three-dimensional average face model (i.e., male / female / total average face model from left in FIG. 12C).

또한, 상기 확률분포 추출부(26)는 상기 평균모델 생성부(24)로부터 산출된 평균 모델과 각 얼굴 모델 사이의 외형 및 얼굴색의 차이값을 확률분포의 형태로 계산하여 분류별 특징을 추출하게 되는 바, 이는 도 13에 도시된 바와 같이 각 얼굴 모델에 대한 외형 및 얼굴색에 대한 확률 분포를 계산하여 그 확률분포의 양상에 따른 얼굴 모델을 생성할 수 있게 되고, 상기 얼굴모델 데이터베이스(22)로부터 새로운 얼굴을 조합하는 경우에 현실적으로 나타날 수 있는 얼굴이 어느 정도의 확률로 생성되는 지의 여부를 수치적으로 표현할 수 있게 된다.In addition, the probability distribution extractor 26 calculates a difference value of appearance and face color between the average model and each face model calculated by the average model generator 24 in the form of a probability distribution to extract features of each classification. As shown in FIG. 13, it is possible to calculate a probability distribution of appearance and face color for each face model and generate a face model according to the aspect of the probability distribution, and from the face model database 22, When combining faces, it is possible to express numerically whether or not the probability of generating a realistic face.

상기 통계모델 생성부(30)는 성별, 연령별로 입력되는 사용자 입력데이터(28)이 기초하여 상기 확률분포 추출부(26)로부터 추출되는 얼굴 모델의 확률 분포에 따라 통계적으로 임의의 얼굴 모델을 생성하기 위한 것이다.The statistical model generator 30 statistically generates a random face model according to a probability distribution of the face model extracted from the probability distribution extractor 26 based on user input data 28 inputted by gender and age. It is to.

여기서, 상기 통계모델 생성부(30)는 사용자 입력데이터(28)로서 성별, 연령별 등 사용자의 모델특징 파라미터를 입력받아서, 그 입력 파라미터를 기반으로 1:1의 대응이 계산된 각 얼굴모델 데이터와 전체 평균 모델 데이터를 이용하여 꼭지점 단위의 외형과 얼굴색값의 차이를 계산함과 더불어, 그 계산치를 통계적으로 조합하여 도 14에 도시된 바와 같이 통계적으로 다양한 소스 얼굴모델을 생성하게 된다.Here, the statistical model generation unit 30 receives the user's model feature parameters such as gender and age as the user input data 28, and each face model data whose 1: 1 correspondence is calculated based on the input parameters. In addition to calculating the difference between the appearance of the vertex unit and the face color value using the overall average model data, statistically various source face models are generated by statistically combining the calculated values.

상기 모델 합성부(32)는 상기 통계모델 생성부(30)를 통해서 생성되는 1:1 대응으로 계산된 소스 얼굴모델에 대한 상호간의 모핑 및 캐리커쳐 처리를 통해서 새로운 얼굴 모델을 합성처리하기 위한 것이다.The model synthesizing unit 32 is for synthesizing a new face model through mutual morphing and caricature processing for the source face model calculated in a 1: 1 correspondence generated by the statistical model generating unit 30.

여기서, 상기 모델 합성부(32)에 대한 구성의 일예는 도 8에 도시된 바와 같이 타겟모델 선택부(36)와, 타겟모델 보간처리부(40)로 구성되는 바, 상기 타겟모델 선택부(36)는 상기 소스 얼굴모델(34)로부터 새로운 얼굴 모델을 생성하기 위해 타겟모델을 설정입력받아 타겟모델을 선택하게 되고, 상기 타겟모델 보간처리부(40)는 상기 선택된 타겟모델을 미리 설정된 보간 파라미터에 따라서 외형 및 얼굴색을 보간처리하여 새로운 얼굴모델을 합성처리하기 위한 것이다.Here, an example of the configuration of the model synthesizing unit 32 includes a target model selecting unit 36 and a target model interpolation processing unit 40 as shown in FIG. 8. In order to generate a new face model from the source face model 34, a target model is received and selected, and a target model is selected. The target model interpolation processor 40 sets the selected target model according to a preset interpolation parameter. It is to synthesize new face model by interpolating appearance and face color.

이에, 상기 모델 합성부(32)의 타겟모델 선택부(36)와, 타겟모델 보간처리부(40)를 통한 서로 다른 얼굴모델 데이터들간의 3차원 모핑 결과는 도 15에 도시된 바와 같다.Accordingly, the three-dimensional morphing result between the target model selecting unit 36 of the model synthesizing unit 32 and the different face model data through the target model interpolation processing unit 40 is shown in FIG. 15.

또한, 상기 모델 합성부(32)에 대한 구성의 다른예는 도 9에 도시된 바와 같이 특징요소 추출부(46)와, 평균 연산부(48) 및, 데이터 변형처리부(50)로 구성되는 바, 상기 특징요소 추출부(46)는 1:1로 대응되게 계산된 각각의 얼굴모델 데이터(42)와 평균모델 데이터(44)를 입력받아 특징모델의 설정입력에 따라 캐리커쳐를 생성하기 위해 얼굴의 특징요소를 추출하게 되고, 상기 평균 연산부(48)는 평균 모델과 특징을 구하고자 하는 특정한 얼굴모델을 제외한 나머지의 얼굴모델과의 차이값을 각각 계산하여 평균을 구함에 의해, 평균모델에 남아있는 특정한 얼굴모델의 특징을 반영하는 수치 데이터를 추출하게 된다.In addition, another example of the configuration of the model synthesizing unit 32 is composed of a feature element extracting unit 46, an average calculating unit 48, and a data deformation processing unit 50, as shown in FIG. The feature element extractor 46 receives the face model data 42 and the average model data 44 correspondingly calculated in a one-to-one correspondence, and generates facial features to generate a caricature according to the setting input of the feature model. The elements are extracted, and the average calculating unit 48 calculates a difference value between the average model and the remaining face models except for the specific face model for which the feature is to be calculated, and obtains an average, thereby determining the specific residuals in the average model. Numerical data reflecting the features of the face model is extracted.

즉, 상기 평균 연산부(48)에서는 예컨대 남자 얼굴모델과 여자 얼굴모델이 존재하는 경우에, 전체 평균모델에서 남자 얼굴모델의 전체적인 특징을 나타내는 수치 데이터가 여자 얼굴모델들을 순차적으로 하나식 차감한 값을 평균함에 의해 구할 수 있게 되는 것이다.That is, in the mean calculation unit 48, for example, when there is a male face model and a female face model, the numerical data representing the overall characteristics of the male face model in the overall average model is a value obtained by sequentially subtracting the female face models one by one. It can be obtained by averaging.

또, 상기 데이터 변형처리부(50)는 상기 평균 연산부(48)에서 구해진 수치 데이터를 이용하여 특정한 얼굴 모델의 특징을 과장처리하게 되는 바, 이는 평균 모델에 계속적으로 수치 데이터를 가산하여 평균모델이 점차적으로 특징 요소를 지닌 형태로 변형될 수 있도록 하게 되고, 그 결과로 도 16a와 도 16b 및 도 16c에 도시된 바와 같이 남성적인 특징의 과장처리와, 여성적인 특징의 과장처리, 개인적으로 존재하는 특징의 과장처리가 가능하게 된다.In addition, the data deformation processing unit 50 exaggerates the characteristics of a specific face model using the numerical data obtained from the average calculating unit 48, which continuously adds numerical data to the average model to gradually increase the average model. As a result, as shown in Figs. 16A, 16B, and 16C, exaggeration of masculine features, exaggeration of feminine features, and personally existing features can be made. Can be exaggerated.

이어, 상기한 바와 같이 이루어진 본 발명의 동작에 대해 도 10a 및 도 10b의 플로우차트를 참조하여 상세히 설명한다.Next, the operation of the present invention made as described above will be described in detail with reference to the flowcharts of FIGS. 10A and 10B.

먼저, 3차원 스캐너를 통해 스캔되어 메쉬데이터 정렬공정(2)과, 복셀 추출공정(4), 실린더 좌표계 샘플링공정(6), 얼굴데이터 매핑공정(10)을 통해 보정처리가 이루어진 3차원 얼굴 데이터가 입력되면(단계 S10), 데이터 매핑부(20)에서는 각각의 3차원 얼굴 데이터에 대한 얼굴 모델 사이의 얼굴색값(color)이 최소가 되도록 비선형 방정식을 적용하여 눈, 입 영역의 자동적인 매핑작업을 수행하게 된다(단계 S11).First, three-dimensional face data scanned through a three-dimensional scanner and subjected to correction processing through a mesh data alignment process (2), a voxel extraction process (4), a cylinder coordinate system sampling process (6), and a face data mapping process (10). Is input (step S10), the data mapping unit 20 automatically applies the nonlinear equations so that the face color value (color) between the face models for each of the three-dimensional face data is minimized. (Step S11).

그 상태에서, 상기 데이터 매핑부(20)를 통한 3차원 얼굴 데이터의 매핑작업이 이루어지면, 각각의 3차원 얼굴 데이터를 모핑이 가능한 얼굴 모델로서 성별,연령별로 구분하여 얼굴모델 데이터베이스(22)에 저장시키게 된다(단계 S12).In this state, when the mapping operation of the three-dimensional face data through the data mapping unit 20 is performed, each of the three-dimensional face data can be morphed into a face model database 22 by dividing it by gender and age. It is stored (step S12).

그 다음에, 평균모델 생성부(24)에서는 성별, 연령별로 구분되어 저장된 다수의 3차원 얼굴모델 데이터를 분류하게 되고(단계 S13), 각각의 분류된 얼굴모델에 대해 이미 저장되어 있는 외형(Geometry)와 얼굴색(Color)의 데이터를 이용하여 각각 분류별로 산술 평균값을 구함에 의해, 분류별 평균 얼굴모델(예컨대 남자의 평균 얼굴모델과 여자의 평균 얼굴모델)과 전체 평균 얼굴모델(예컨대 남자 및 여자의 전체 평균 얼굴모델)을 생성하게 된다(단계 S14).Next, the average model generation unit 24 classifies a plurality of three-dimensional face model data stored separately by sex and age (step S13), and shapes that are already stored for each classified face model. ) By calculating the arithmetic mean value for each classification using the data of the face and the color of the face, and the average face model of each category (eg, the average face model of the man and the average face model of the woman) and the overall average face model (eg, of the man and the woman). An overall average face model) is generated (step S14).

또한, 상기 확률분포 추출부(26)는 각 분류별 얼굴 모델에 대한 외형 및 얼굴색을 평균 모델과의 차이값을 이용하여 각 분류별로 특징을 추출하게 되고, 외형과의 차이값 및 얼굴색과의 차이값을 이용하여 확률분포를 각각 계산하여, 그 확률분포에 따른 얼굴모델을 생성하게 된다(단계 S15).In addition, the probability distribution extractor 26 extracts a feature for each classification by using the difference between the appearance and the face color of the face model for each category by the average model, and the difference between the appearance and the face color. Probability distributions are calculated by using the method, and a face model is generated according to the probability distribution (step S15).

이에, 통계모델 생성부(30)에서는 사용자 입력데이터(28)로서 성별, 연령 등과 같은 사용자의 모델특징 파라미터를 입력받게 되고(단계 S16), 그 입력 파라미터를 기반으로 하여 1:1 대응이 되도록 계산된 각 얼굴모델 데이터와 전체 평균모델 데이터를 이용하여 꼭지점 단위의 외형과 얼굴색값의 차이를 계산하게 되는 한편(단계 S17), 그 차이값을 통계적으로 조합하여 무한의 다양한 형태를 갖는 새로운 얼굴모델이 생성되는 것이 가능하도록 한다(단계 S18).Accordingly, the statistical model generator 30 receives the user's model feature parameters such as gender and age as the user input data 28 (step S16), and calculates a 1: 1 correspondence based on the input parameters. The difference between the appearance of the vertex unit and the face color value is calculated by using each face model data and the total average model data (step S17), while a new face model having infinitely diverse shapes is statistically combined with the difference values. It is possible to be generated (step S18).

그 다음에, 모델 합성부(32)에서는 1:1 대응이 되도록 계산된 각 3차원 얼굴모델 데이터들간에 상호간의 모핑을 수행하기 위한 조작이 수행되는 지의 여부를 판단한다(단계 S19).Next, the model synthesizing unit 32 determines whether or not an operation for performing morphing between the three-dimensional face model data calculated to have a 1: 1 correspondence is performed (step S19).

상기 판단 결과, 작업자에 의해 3차원 얼굴모델 데이터들간의 상호간의 모핑을 위한 조작이 수행되고 있다고 판단되면, 모델 합성부(32)의 타겟모델 선택부(36)에서는 상기 통계모델 생성부(30)로부터 생성된 소스 얼굴모델(34)의 데이터를 입력받아 타겟모델의 설정입력에 따라 타겟모델을 설정하게 된다(단계 S20).As a result of the determination, when it is determined by the operator that the manipulation for mutual morphing between the three-dimensional face model data is being performed, the target model selecting unit 36 of the model synthesizing unit 32 performs the statistical model generating unit 30. The target face model 34 receives data from the source face model 34 generated from the target model according to the setting input of the target model (step S20).

그 상태에서, 타겟모델 보간처리부(40)는 미리 설정된 보간 파라미터 데이터(38)에 따라서 얼굴의 외형 및 얼굴색을 보간하기 위한 처리를 수행하여 새로운 얼굴모델을 합성하게 된다(단계 S21).In this state, the target model interpolation processing unit 40 performs a process for interpolating the appearance of the face and the face color according to the preset interpolation parameter data 38 to synthesize a new face model (step S21).

그 반면에, 상기 단계 S19의 판단 결과에 따라 얼굴 데이터의 모핑을 조작을 수행하지 않고 있다고 판단되면, 모델 합성부(32)의 특징요소 추출부(46)에서는 각각의 얼굴모델 데이터(42)와 평균모델 데이터(44)를 입력받아 특징화할 모델의 설정입력에 따라 얼굴모델 데이터의 특징요소를 계산하게 된다(단계 S22).On the other hand, if it is determined that the morphing of the face data is not performed according to the determination result of step S19, the feature element extracting unit 46 of the model synthesizing unit 32 and the respective face model data 42 The feature model of the face model data is calculated based on the input of the average model data 44 and the setting input of the model to be characterized (step S22).

상기 특징요소 추출부(46)에 의한 특징화할 얼굴모델 데이터에 대한 특징요소의 계산이 완료된 것으로 판단되면(단계 S23에서 YES), 평균 연산부(48)에서는 상기 특징요소 추출부(46)에 의한 특징 계산을 통해서 평균모델과 특징을 구하고자 하는 모델을 제외한 나머지 모델과의 차이값을 계산하여 평균을 연산하게 된다(단계 S24).If it is determined that the calculation of the feature element for the face model data to be characterized by the feature element extractor 46 is completed (YES in step S23), the average calculation unit 48 features the feature by the feature element extractor 46. The average value is calculated by calculating the difference between the average model and the other models except for the model for which the feature is to be obtained (step S24).

그 상태에서, 데이터 변형처리부(50)에서는 상기 평균 연산부(48)를 통해서 구해진 평균값에 의한 수치데이터를 평균모델에 계속적으로 가산처리함에 의해서 얼굴모델에 대한 특징을 과장처리할 수 있게 된다(단계 S25).In this state, the data transformation processing unit 50 can exaggerate the feature for the face model by continuously adding numerical data based on the average value obtained through the average calculating unit 48 to the average model (step S25). ).

상기한 실시예를 갖는 본 발명은 그 실시양태에 구애받지 않고 그 기술적 요지를 벗어나지 않는 한도 내에서 얼마든지 다양하게 변형하여 실시할 수 있도록 되어 있음은 물론이다.It is a matter of course that the present invention having the above-described embodiments can be variously modified and implemented without departing from the technical spirit of the present invention without departing from the embodiments.

이상과 같이 본 발명에 따르면, 3차원 얼굴 스캔데이터를 모핑이 가능한 얼굴모델로 생성하기 위해 실린더 샘플링 데이터로 변환하여 1:1로 매핑시키고, 이러한 얼굴모델 데이터를 이용하여 모핑이 가능한 얼굴모델로 생성하여 각 얼굴모델 간의 모핑 및 특징과장 처리가 가능하도록 함에 따라, 보다 간단한 작업에 의한 연산과정을 통해서 현실세계에 존재하는 얼굴을 통계적으로 조합하여 새로운 얼굴모델을 무한대로 생성할 수 있게 되면서 캐릭터 디자인이나 얼굴의 상업적인 용도에 의한 모델링, 애니메이션, 아바타의 분야에 광범위하게 적용하는 것이 가능하다는 효과를 갖게 된다.As described above, in order to generate 3D face scan data into a morphable face model, the sample is converted into cylinder sampling data and mapped to 1: 1 and generated as a morphable face model using the face model data. By allowing morphing and feature exaggeration between each face model, it is possible to create new face models infinitely by statistically combining the faces existing in the real world through a simpler operation. It has the effect that it can be widely applied to the fields of modeling, animation, and avatar for commercial use of faces.

Claims (13)

다수의 3차원 얼굴 스캔데이터에 대한 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정을 수행하는 데이터 보정수단과,Data correction means for performing correction to unify data structures of meshes and polygons for a plurality of three-dimensional face scan data; 상기 데이터 보정수단에 의해 보정된 3차원 얼굴모델 데이터가 분류별로 저장되는 얼굴모델 데이터베이스,A face model database in which three-dimensional face model data corrected by the data correction means is stored for each classification; 상기 얼굴모델 데이터베이스에 저장된 다수의 얼굴모델 데이터에 대한 평균 얼굴모델을 생성하기 위한 평균모델 생성수단,Average model generation means for generating an average face model for a plurality of face model data stored in the face model database; 상기 평균모델 생성수단에서 생성된 평균 얼굴모델과 각 얼굴모델과의 차이값을 산출하여 얼굴모델에 대한 확률분포값을 생성하는 확률분포 추출수단,A probability distribution extracting means for generating a probability distribution value for the face model by calculating a difference between the average face model and each face model generated by the mean model generating means; 외부로부터 입력받은 사용자의 모델특징 파라미터에 기초하여 평균모델 데이터와 각 얼굴모델 데이터와의 통계적으로 조합된 얼굴모델을 생성하는 통계모델 생성수단 및,Statistical model generating means for generating a statistically combined face model of the average model data and each face model data based on the model feature parameters of the user received from the outside; 상기 통계모델 생성수단을 통해 생성된 통계적 얼굴모델과 각 얼굴모델 데이터에 대한 모핑 및 캐리커쳐를 통해 새로운 얼굴모델을 합성처리하는 모델 합성수단으로 구성된 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.And a model synthesizing means for synthesizing the new face model through the statistical face model generated by the statistical model generating means and morphing and caricature of each face model data. 제 1 항에 있어서, 상기 데이터 보정수단은 3차원 얼굴 스캔데이터의 기울어짐보정과 높이보정 및 삭제보정을 통해 메쉬데이터의 정렬처리를 수행하고, 얼굴모델의 볼륨데이터를 복셀에 매핑하여 표면성분의 표면복셀에 대한 컬러값을 할당하는 복셀 추출처리를 수행하며, 표면복셀의 연속한 선을 스캔라인으로 변환하여 원통형 좌표계로 변환하는 실린더 좌표계의 샘플링처리를 수행하고, 얼굴모델의 메쉬데이터에 대해 특정한 표준참조 얼굴모델과 각 세부부위별로 1:1 대응되도록 매핑처리하는 얼굴데이터의 매핑처리를 수행하도록 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.The method of claim 1, wherein the data correction means performs alignment processing of mesh data through tilt correction, height correction, and deletion correction of 3D face scan data, and maps volume data of a face model to voxels to determine surface components. Performs voxel extraction that assigns color values to the surface voxel, performs sampling processing of the cylinder coordinate system that converts continuous lines of the surface voxel into scan lines, and converts them into cylindrical coordinates, 3. A system for synthesizing a three-dimensional scan face model, characterized in that a mapping process is performed on a face reference and a face data to be mapped in a 1: 1 correspondence with each detail. 제 1 항에 있어서, 상기 평균모델 생성수단은 상기 얼굴모델 데이터베이스에 저장된 다수의 얼굴모델 데이터에 대해 분류별로 평균 얼굴모델을 생성하고, 얼굴모델 데이터의 전체적인 평균 얼굴모델을 생성하도록 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.The method of claim 1, wherein the means for generating the average model is configured to generate an average face model for each of the plurality of face model data stored in the face model database, and generate an overall average face model of the face model data. Synthesis system of 3D scan face model. 제 1 항에 있어서, 상기 평균모델 생성수단은 상기 얼굴모델 데이터베이스에 저장된 얼굴모델 데이터에 포함된 외형(Geometry)과 얼굴색 (Color) 정보에 대해 분류별로 산술 평균값을 산출함에 의해 평균 얼굴모델을 생성하도록 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.The method of claim 1, wherein the means for generating the average model is configured to generate an average face model by calculating an arithmetic mean value for each classification of the geometry and the color information included in the face model data stored in the face model database. Synthesis system of a three-dimensional scan face model, characterized in that made. 제 1 항에 있어서, 상기 확률분포 추출수단은 평균 얼굴모델과 각 얼굴모델과의 외형 및 얼굴색 정보에 대한 차이값을 이용하여 분류별로 특징을 추출하고, 외형 및 얼굴색의 차이값을 이용한 확률분포를 산출하도록 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.The method of claim 1, wherein the probability distribution extracting means extracts a feature for each classification using a difference value between the mean face model and each face model and appearance and face color information, and extracts a probability distribution using the difference between appearance and face color. 3D scanning face model synthesis system characterized in that it is configured to calculate. 제 1 항에 있어서, 상기 얼굴모델 합성수단은 상기 통계모델 생성부로부터 생성된 얼굴모델 중에서 새로운 얼굴생성을 위한 타겟모델을 선택하는 타겟모델 선택부와, 상기 타겟모델에 특정의 보간 파라미터 데이터를 적용하여 얼굴의 외형 및 얼굴색을 보간처리하는 타겟모델 보간처리부를 포함하여 구성된 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.2. The apparatus of claim 1, wherein the face model synthesizing means comprises: a target model selecting unit for selecting a target model for generating a new face from among the face models generated from the statistical model generating unit, and applying specific interpolation parameter data to the target model; And a target model interpolation processing unit for interpolating the appearance of the face and the color of the face. 제 1 항에 있어서, 상기 얼굴모델 합성수단은 상기 평균 얼굴모델과 각 얼굴모델 데이터를 입력받아 특징모델의 설정입력에 따라 얼굴의 특징요소를 추출하는 특징요소 추출부와, 평균 얼굴모델과 특징모델을 제외한 나머지 얼굴모델과의 차이값을 연산하여 평균값을 산출하는 평균 연산부 및, 상기 평균값을 얼굴모델에 적용하여 특징을 과장처리하는 데이터 변형처리부를 포함하여 구성된 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 시스템.The apparatus of claim 1, wherein the face model synthesizing means receives the average face model and each face model data, and extracts feature elements of the face according to a setting input of the feature model. The average calculation unit calculates an average value by calculating a difference value with the remaining face model except for, and a data deformation processing unit for applying the average value to the face model to exaggerate the feature of the three-dimensional scan face model Synthesis system. 다수의 3차원 얼굴 스캔데이터를 입력받아 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정처리를 수행하는 단계와,Receiving a plurality of three-dimensional face scan data and performing correction processing to unify data structures of meshes and polygons; 상기 보정처리를 통해서 모핑이 가능한 얼굴모델 데이터에 대해 분류별로 얼굴모델 데이터베이스를 구축하는 단계,Constructing a face model database for each category of face model data that can be morphed through the correction process; 상기 얼굴모델 데이터베이스에 구축된 다수의 3차원 얼굴모델에 대한 평균 얼굴모델을 생성하는 단계,Generating an average face model for a plurality of 3D face models constructed in the face model database; 상기 평균 얼굴모델과 각 얼굴모델과의 차이값을 계산하여 확률분포를 산출하는 단계,Calculating a probability distribution by calculating a difference value between the average face model and each face model, 사용자에 의해 입력된 특징파라미터에 따라 평균 얼굴모델 데이터와 각 얼굴모델 데이터에 대한 차이값을 계산하여 통계적으로 조합된 얼굴모델을 생성하는 단계 및,Generating a statistically combined face model by calculating a difference between the average face model data and each face model data according to a feature parameter input by the user; 상기 통계적으로 조합된 얼굴모델 데이터와 평균 얼굴모델 데이터를 이용하여 새로운 얼굴모델을 합성처리하는 단계로 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 방법.And synthesizing a new face model using the statistically combined face model data and average face model data. 제 8 항에 있어서, 상기 다수의 3차원 얼굴 스캔데이터를 입력받아 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정처리를 수행하는 단계는,The method of claim 8, wherein the receiving of the plurality of three-dimensional face scan data and performing a correction process for unifying data structures of meshes and polygons comprises: 3차원 얼굴 스캔데이터의 기울어짐보정과 높이보정 및 삭제보정을 통해 메쉬데이터의 정렬처리를 수행하는 단계와,Performing the alignment process of the mesh data through the tilt correction, the height correction and the deletion correction of the three-dimensional face scan data; 얼굴모델의 볼륨데이터를 복셀에 매핑하여 표면성분의 표면복셀에 대한 컬러값을 할당하는 복셀 추출처리를 수행하는 단계,Performing a voxel extraction process of mapping volume data of the face model to voxels and assigning color values to the surface voxels of the surface components; 표면복셀의 연속한 선을 스캔라인으로 변환하여 원통형 좌표계로 변환하는 실린더 좌표계의 샘플링처리를 수행하는 단계 및,Performing a sampling process of the cylinder coordinate system converting the continuous line of the surface voxel into a scan line and converting it into a cylindrical coordinate system; 얼굴모델의 메쉬데이터에 대해 특정한 표준참조 얼굴모델과 각 세부부위별로 1:1 대응되도록 매핑처리하는 얼굴데이터의 매핑처리를 수행하는 단계를 포함하여 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 방법.A method of synthesizing a three-dimensional scan face model, comprising the step of performing a mapping process of the face data for mapping the mesh data of the face model to one-to-one correspondence with a specific standard reference face model for each detail part. . 제 8 항에 있어서, 상기 얼굴모델 데이터베이스에 구축된 다수의 3차원 얼굴모델에 대한 평균 얼굴모델을 생성하는 단계는,The method of claim 8, wherein the generating of the average face model for the plurality of 3D face models built in the face model database comprises: 상기 얼굴모델 데이터베이스에 분류별로 저장된 각 얼굴모델을 분류하는 단계와,Classifying each face model stored for each classification in the face model database; 각 얼굴모델의 외형 및 얼굴색 정보에 대한 평균값을 구하여 분류별로 평균 얼굴모델을 생성하는 단계 및,Generating an average face model by classification by obtaining an average value of the appearance and face color information of each face model; 상기 전체적인 얼굴모델에 대하여 전체 평균 얼굴모델을 생성하는 단계를 포함하여 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 방법.And generating a total mean face model with respect to the overall face model. 제 8 항에 있어서, 상기 통계적으로 조합된 얼굴모델 데이터와 평균 얼굴모델 데이터를 이용하여 새로운 얼굴모델을 합성처리하는 단계는,The method of claim 8, wherein the synthesizing of the new face model using the statistically combined face model data and average face model data comprises: 통계적으로 조합된 얼굴모델 데이터에 대한 타겟모델의 설정입력에 따라 타겟모델을 설정하는 단계와,Setting a target model according to a setting input of a target model for statistically combined face model data; 상기 타겟모델에 대해 특정의 보간 파라미터를 적용하여 얼굴모델의 외형 및 얼굴색을 보간처리함에 의해 새로운 얼굴모델을 합성하는 단계를 포함하여 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 방법.And synthesizing a new face model by interpolating the appearance and face color of the face model by applying a specific interpolation parameter to the target model. 제 8 항에 있어서, 상기 통계적으로 조합된 얼굴모델 데이터와 평균 얼굴모델 데이터를 이용하여 새로운 얼굴모델을 합성처리하는 단계는,The method of claim 8, wherein the synthesizing of the new face model using the statistically combined face model data and average face model data comprises: 특징모델의 설정입력에 따라 평균 얼굴모델을 기준으로 하여 얼굴모델 데이터의 특징을 추출하는 단계와,Extracting features of the face model data based on the average face model according to the setting input of the feature model; 상기 추출된 특징에 의한 차이값의 평균을 연산하고, 그 평균값에 의해 얼굴모델의 특징을 과장처리하는 단계를 포함하여 이루어진 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성 방법.And calculating an average of the difference values based on the extracted features, and exaggerating the features of the face model by the average values. 다수의 3차원 얼굴 스캔데이터를 입력받아 메쉬 및 폴리곤의 자료구조를 통일화시키기 위한 보정처리를 수행하는 기능과,A function of receiving a plurality of three-dimensional face scan data and performing a correction process to unify data structures of meshes and polygons; 상기 보정처리를 통해서 모핑이 가능한 얼굴모델 데이터에 대해 분류별로 얼굴모델 데이터베이스를 구축하는 기능,A function of building a face model database for each classification of the face model data that can be morphed through the correction process; 상기 얼굴모델 데이터베이스에 구축된 다수의 3차원 얼굴모델에 대한 분류별 평균 얼굴모델을 생성하는 기능,A function of generating an average face model for each classification of a plurality of 3D face models constructed in the face model database; 상기 평균 얼굴모델과 각 얼굴모델과의 외형 및 얼굴색에 대한 차이값을 계산하여 확률분포를 산출하는 기능,Calculating a probability distribution by calculating a difference between the average face model and each face model in appearance and face color; 사용자에 의해 입력된 특징파라미터에 따라 평균 얼굴모델 데이터와 각 얼굴모델 데이터에 대한 차이값을 계산하여 통계적으로 조합된 얼굴모델을 생성하는 기능 및,A function of generating a statistically combined face model by calculating difference values between average face model data and each face model data according to feature parameters input by a user; 상기 통계적으로 조합된 얼굴모델 데이터와 평균 얼굴모델 데이터를 이용하여 새로운 얼굴모델을 합성처리하는 기능을 포함한 것을 특징으로 하는 3차원 스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된 기록매체.And a program for synthesizing a three-dimensional scan face model, comprising: synthesizing a new face model using the statistically combined face model data and average face model data.
KR10-2002-0065500A 2002-10-25 2002-10-25 System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function KR100450210B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0065500A KR100450210B1 (en) 2002-10-25 2002-10-25 System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0065500A KR100450210B1 (en) 2002-10-25 2002-10-25 System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function

Publications (2)

Publication Number Publication Date
KR20040036831A true KR20040036831A (en) 2004-05-03
KR100450210B1 KR100450210B1 (en) 2004-09-24

Family

ID=37335471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0065500A KR100450210B1 (en) 2002-10-25 2002-10-25 System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function

Country Status (1)

Country Link
KR (1) KR100450210B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940451B1 (en) * 2008-02-25 2010-02-04 주식회사 마크애니 Apparatus for watermarking 3d mesh model using spherical surface parameter technique and method thereof
KR101425577B1 (en) * 2012-10-31 2014-08-01 (주)다인디지컬처 Efficient Post-Processing Method of Merging Different Kinds of 3D Scanners' Data
WO2014127494A1 (en) * 2013-02-23 2014-08-28 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101997500B1 (en) 2014-11-25 2019-07-08 삼성전자주식회사 Method and apparatus for generating personalized 3d face model

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973559A (en) * 1995-09-07 1997-03-18 Fujitsu Ltd Morphing editing device
KR100347058B1 (en) * 1998-11-18 2002-08-03 주식회사 신테크 Method for photographing and recognizing a face
DE69934478T2 (en) * 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Method and apparatus for image processing based on metamorphosis models
JP4476424B2 (en) * 2000-04-05 2010-06-09 本田技研工業株式会社 Image processing apparatus and method, and program recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940451B1 (en) * 2008-02-25 2010-02-04 주식회사 마크애니 Apparatus for watermarking 3d mesh model using spherical surface parameter technique and method thereof
KR101425577B1 (en) * 2012-10-31 2014-08-01 (주)다인디지컬처 Efficient Post-Processing Method of Merging Different Kinds of 3D Scanners' Data
WO2014127494A1 (en) * 2013-02-23 2014-08-28 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device
US10379734B2 (en) 2013-02-23 2019-08-13 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device
US10761721B2 (en) 2013-02-23 2020-09-01 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device
US11526272B2 (en) 2013-02-23 2022-12-13 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device

Also Published As

Publication number Publication date
KR100450210B1 (en) 2004-09-24

Similar Documents

Publication Publication Date Title
EP0950988B1 (en) Three-Dimensional image generating apparatus
US6724393B2 (en) System and method for sculpting digital models
US7570264B2 (en) Rig baking
EP1241621B1 (en) System and method for generating adaptively sampled distance fields with bounded distance trees
US6608629B2 (en) Distance based constraints for adaptively sampled distance fields
US9177421B2 (en) Hair meshes
US7034818B2 (en) System and method for converting range data to 3D models
CN112102480B (en) Image data processing method, apparatus, device and medium
US6741246B2 (en) Hierarchical control point editing of adaptively sampled distance fields
US20020130856A1 (en) Conversion of adaptively sampled distance fields to triangles
KR100450210B1 (en) System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function
EP1241622B1 (en) Method for selectively regenerating an adaptively sampled distance field
US6933939B2 (en) Method for correcting an adaptively sampled distance field
CN109064547B (en) Data-driven single image hair reconstruction method
Liu et al. Interactive modeling of trees using VR devices
KR20020079268A (en) The System and Method composing 3D contents with 3D human body in Virtual Reality with real time.
Song et al. 3D object modelling for entertainment applications
Boubekeur et al. Interactive out-of-core texturing using point-sampled textures
Argudo Medrano et al. Tree variations
Zou et al. Interactive point cloud blending by drag-and-drop
Lee et al. Novel irregular mesh tagging algorithm for wound synthesis on a 3D face
GB2353451A (en) Morphing of an object using the morphological behaviour of another object
Bai et al. Parametric 3D Object Representation and Applications
Botsch et al. Interactive Out-Of-Core Texturing with Point-Sampled Textures
Sousa et al. An Advanced Color Representation for Lossy

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100915

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee