KR20020085669A - The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three-Dimensional Image Using Them - Google Patents

The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three-Dimensional Image Using Them Download PDF

Info

Publication number
KR20020085669A
KR20020085669A KR1020010025298A KR20010025298A KR20020085669A KR 20020085669 A KR20020085669 A KR 20020085669A KR 1020010025298 A KR1020010025298 A KR 1020010025298A KR 20010025298 A KR20010025298 A KR 20010025298A KR 20020085669 A KR20020085669 A KR 20020085669A
Authority
KR
South Korea
Prior art keywords
image
feature
dimensional image
label
extracting
Prior art date
Application number
KR1020010025298A
Other languages
Korean (ko)
Other versions
KR100815209B1 (en
Inventor
한희철
김현석
신승영
김은희
김갑동
Original Assignee
(주)하니존
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)하니존 filed Critical (주)하니존
Priority to KR1020010025298A priority Critical patent/KR100815209B1/en
Publication of KR20020085669A publication Critical patent/KR20020085669A/en
Application granted granted Critical
Publication of KR100815209B1 publication Critical patent/KR100815209B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T5/70

Abstract

PURPOSE: A device and a method for extracting 2D image characteristics for producing 3D images and a device and a method for producing 3D images thereby are provided to achieve the generation of 3D image by a single image from a 2D image from which the characteristics are able to be extracted, thereby obtaining the 3D images in a short time. CONSTITUTION: A device for extracting 2D image characteristics for producing 3D images includes an area detecting element(101) for detecting required areas by receiving 2D images, noise removing elements(103,104) for removing noises from the detected 2D images, a block binary element(105) for carrying out the binary of the 2D images from which the noises are removed, a line segment element(106) for carrying out the line segment for the binary 2D images, a labeling and size verifying element(107) for assigning labels to the images and carrying out the size verification of the respective labels, and a characteristic extracting element(108) for extracting characteristics of the images by geometrical position information.

Description

3차원 영상의 생성을 위한 2차원 영상의 특징 추출 장치 및 그 방법과 그를 이용한 3차원 영상의 생성 장치 및 그 방법{The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three-Dimensional Image Using Them}Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three -Dimensional Image Using Them}

본 발명은 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 장치 및 그 방법과 그를 이용한 3차원 영상의 생성 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 이미지 프로세싱(Image Processing) 기법을 이용하여, 3차원 영상의 생성을 위한 2차원 영상(예를 들면, 사람 얼굴의 정면 영상)의 특징점을 추출하는 방법과 그를 이용한 3차원 영상의 자동 생성 장치 및 그 방법, 그리고 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention relates to an apparatus and method for extracting a feature of a 2D image for generating a 3D image, and an apparatus and method for generating a 3D image using the same, and more particularly, to an image processing technique. A method of extracting feature points of a 2D image (eg, a front face image of a human face) for generating a 3D image, an apparatus and method for automatically generating a 3D image using the same, and a program for realizing the methods The present invention relates to a computer-readable recording medium having recorded thereon.

이하, 본 발명의 설명을 위한 종래의 기술 및 실시예에 있어서는, 사람의 얼굴 영상만을 일례로 들어 설명하였으나, 본 발명이 사람의 얼굴 영상 뿐만 아니라 3차원 영상으로 변형하여 생성하고자 하는 모든 2차원 영상에 적용될 수 있음은 자명할 것이다.Hereinafter, in the related art and embodiments for explaining the present invention, only a human face image has been described as an example, but all two-dimensional images which the present invention intends to transform into a three-dimensional image as well as a human face image are generated. It will be obvious that it can be applied to.

가상현실(Virtual Reality)의 정의는 학자마다 다르지만, 대체로 '컴퓨터로 창조된 인조의 공간(Cyberspace)에서 인간이 현실감을 느끼는 것'이라고 할 수 있다. 이러한 가상현실을 구현하기 위해서는 여러 가지 환경이 갖추어져야 하는데, 그 중 하나가 사물의 3차원적 표현이다.Although the definition of virtual reality varies from scholar to scholar, it can be said that human beings feel real in computer-generated cyberspace. In order to realize such a virtual reality, various environments must be prepared, one of which is a three-dimensional representation of an object.

즉, 실제와 비슷한 효과를 보이기 위해 실제의 세계를 그대로 시뮬레이션 하여야 하며, 이를 위해서는 필연적으로 3차원 그래픽스 기술을 이용하여 사물 및 사람 등을 3차원적으로 모델링(Modeling)하는 과정이 필요하다.In other words, the real world must be simulated in order to have a similar effect to reality. For this purpose, a process of three-dimensionally modeling objects and people using three-dimensional graphics technology is necessary.

현재 3차원 얼굴 모델링을 하는 방법은, 3차원 스캐너를 이용하는 방법, 3차원 저작 소프트웨어를 이용하여 수작업을 하는 방법, 얼굴의 통계 자료를 이용하여 모델링 하는 방법 및 2차원 영상의 특징을 이용하는 방법으로 나눌 수 있다.Currently, three-dimensional face modeling can be divided into three-dimensional scanner method, manual method using three-dimensional authoring software, modeling method using statistical data of face, and method using two-dimensional image feature. Can be.

먼저, 3차원 스캐너를 이용하는 방법은, 직접적으로 대상으로부터 모델을 추출하는 방법으로써, 얼굴의 형상을 정확히 표현하기는 하지만 높은 비용과 함께 추출된 데이터를 조작하기 위한 숙련된 기술이 필요하다는 문제점이 있었다.First, a method of using a 3D scanner is a method of directly extracting a model from an object, but it requires a skilled technique for manipulating the extracted data with high cost, although it accurately represents the shape of the face. .

다음, 3차원 저작 소프트웨어를 이용하여 수작업을 하는 방법은, "쓰리디 맥스(3D MAX)", "마야(Maya)" 등과 같은 3차원 저작 소프트웨어를 이용하여 그림을 그리듯 디자이너가 직접 수작업으로 얼굴 형태를 만드는 방법으로써, 이 또한 많은 숙련된 디자이너가 필요하며, 모델링에 많은 시간이 소요된다는 문제점이 있었다.Next, the manual method using the 3D authoring software is as if the designer draws the drawing manually using 3D authoring software such as "3D MAX" and "Maya". As a way of creating shapes, this also requires a lot of skilled designers, and the modeling takes a lot of time.

그리고, 얼굴의 통계 자료를 이용하여 모델링하는 방법은, 미리 통계를 산출하기 위한 데이터베이스가 구축되어 있어야 하며, 또한, 상기 데이터베이스를 이용해 개인과 유사한 형태의 모델링을 하기 위해서는 그를 위한 전문가가 별도로 필요하다는 문제점이 있었다.In addition, the method of modeling by using statistical data of a face requires that a database for calculating statistics be established in advance, and that an expert for that model is required separately in order to model like an individual using the database. There was this.

마지막으로 2차원 영상의 특징을 이용하는 방법에 있어서는, 지금까지 얼굴 표정 애니메이션에 적용하기 위한 단순화된 방법만 시도되었기 때문에 개인의 특징을 살려내지 못하는 경우가 많았다는 문제점이 있었다.Finally, in the method of using the features of the 2D image, there has been a problem that many of the individual features cannot be saved because only a simplified method for applying facial expression animation has been attempted.

상기한 바와 같은 문제점을 해결하기 위하여 제안된 본 발명은, 이미지 프로세싱 기법을 이용하여, 3차원 영상의 생성을 위한 2차원 영상(예를 들면, 사람 얼굴의 정면 영상)의 특징점을 추출하는 장치 및 그 방법과 그를 이용한 3차원 영상의 자동 생성 장치 및 그 방법, 그리고 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.The present invention proposed to solve the above problems, an apparatus for extracting a feature point of a two-dimensional image (for example, a front image of a human face) for generating a three-dimensional image using an image processing technique and It is an object of the present invention to provide an apparatus for automatically generating a three-dimensional image using the method, the method, and a computer-readable recording medium recording a program for implementing the methods.

도 1a 는 본 발명에 따른 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 장치의 일실시예 구성도.1A is a block diagram of a feature extraction apparatus of a 2D image for generating a 3D image according to the present invention.

도 1b 는 본 발명에 따른 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 방법의 일실시예 흐름도.1B is a flowchart illustrating a feature extraction method of a 2D image for generating a 3D image according to the present invention.

도 1c 는 본 발명에 따른 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 방법의 일실시예 설명도.1C is a diagram illustrating an embodiment of a feature extraction method of a 2D image for generating a 3D image according to the present invention.

도 2a 는 본 발명에 따른 3차원 영상의 생성 장치의 일실시예 구성도.Figure 2a is a block diagram of an embodiment of a three-dimensional image generating apparatus according to the present invention.

도 2b 는 본 발명에 따른 3차원 영상의 생성 방법의 일실시예 상세 흐름도.2B is a detailed flowchart of an embodiment of a method of generating a 3D image according to the present invention;

* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

101 : 영역 검출부 102 : 흑백화부101: area detection unit 102: black and white

103 : 가우시안 스무딩 필터 104 : 콘트라스트 조절부103: Gaussian smoothing filter 104: Contrast adjustment unit

105 : 블록 이진화부 106 : 라인 세그멘트부105: block binarization unit 106: line segment portion

107 : 레이블링 및 크기 검증부 108 : 특징점 추출부107: labeling and size verification unit 108: feature point extraction unit

상기 목적을 달성하기 위한 본 발명의 장치는, 2차원 영상의 특징 추출 장치에 있어서, 2차원 영상을 입력받아 필요한 영역을 검출하기 위한 영역 검출 수단; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하기 위한 잡음 제거 수단; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하기 위한 이진화 수단; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하기 위한 라인 세그멘트 수단; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하기 위한 레이블링 및 크기 검증 수단; 및 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하기 위한 특징점 추출 수단을 포함하는 것을 특징으로 한다.An apparatus of the present invention for achieving the above object, the feature extraction apparatus of a two-dimensional image, region detection means for detecting a necessary area by receiving the two-dimensional image; Noise removing means for removing noise with respect to the two-dimensional image in which the region is detected; Binarization means for binarizing the noise-free two-dimensional image; Line segment means for performing a line segment on the binarized image; Labeling and size verification means for assigning a label to the image on which the line segment has been performed and for verifying the size of each label; And feature point extracting means for extracting feature points using geometric position information on the image of which the verification of the label size is completed.

또한, 본 발명의 방법은, 영상 생성 시스템에 적용되는 2차원 영상의 특징 추출 방법에 있어서, 2차원 영상을 입력받아 필요한 영역을 검출하는 제 1 단계; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하는 제 2 단계; 상기 잡음이제거된 2차원 영상을 이진화(Binary)하는 제 3 단계; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하는 제 4 단계; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하는 제 5 단계; 및 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하는 제 6 단계를 포함하여 이루어진 것을 특징으로 한다.In addition, the method of the present invention, the feature extraction method of the two-dimensional image applied to the image generation system, comprising: a first step of receiving a two-dimensional image to detect the required area; A second step of removing noise with respect to the 2D image from which the area is detected; A third step of binarizing the noise-free two-dimensional image; A fourth step of performing a line segment on the binarized image; A fifth step of attaching a label to the image on which the line segment is performed and verifying the size of each label; And extracting a feature point using geometric position information on the image of which the verification of the label size is completed.

또한, 본 발명은, 프로세서를 구비한 영상 생성 시스템에, 2차원 영상을 입력받아 필요한 영역을 검출하는 제 1 기능; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하는 제 2 기능; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하는 제 3 기능; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하는 제 4 기능; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하는 제 5 기능; 및 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하는 제 6 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.The present invention also provides a video generation system having a processor, comprising: a first function of receiving a two-dimensional image and detecting a required area; A second function of removing noise with respect to the 2D image from which the area is detected; A third function of binarizing the noise-free two-dimensional image; A fourth function of performing a line segment on the binarized image; A fifth function of giving a label to the image on which the line segment is performed and verifying the size of each label; And a computer readable recording medium having recorded thereon a program for realizing a sixth function of extracting a feature point using geometric position information, on the image of which the verification of the label size is completed.

한편, 상기 다른 목적을 달성하기 위한 본 발명의 장치는, 3차원 영상 생성 장치에 있어서, 기본 모델을 선택하여, 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터(Parameter) 직선을 설정하고, 상기 설정된 파라메터 직선과 연결되어진 특징 그룹을 설정하기 위한 기본 모델 특징 그룹 설정 수단; 2차원 영상을 입력받아, 그 특징을 추출하기 위한 특징 추출 수단; 상기 추출된 특징점들에 따라상기 설정된 파라메터 직선을 이동시켜, 기본 모델을 변형시키기 위한 모델 변형 수단; 및 상기 변형된 기본 모델에 대해 텍스처 매핑을 수행함으로써 3차원 모델을 생성하기 위한 텍스처 매핑 수단을 포함하는 것을 특징으로 한다.On the other hand, the apparatus of the present invention for achieving the above another object, in the three-dimensional image generating apparatus, by selecting a basic model, and set a parameter straight line to each important feature of the selected basic model, Basic model feature group setting means for setting a feature group connected with a parameter straight line; Feature extraction means for receiving a two-dimensional image and extracting the feature; Model deforming means for deforming a basic model by moving the set parameter straight line according to the extracted feature points; And texture mapping means for generating a 3D model by performing texture mapping on the modified basic model.

또한, 본 발명의 방법은, 영상 생성 시스템에 적용되는 3차원 영상 생성 방법에 있어서, 기본 모델을 선택하여, 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터(Parameter) 직선을 설정하고, 상기 설정된 파라메터 직선과 연결되어진 특징 그룹을 설정하는 제 1 단계; 2차원 영상을 입력받아, 그 특징점을 추출하는 제 2 단계; 상기 추출된 특징점들에 따라 상기 설정된 파라메터 직선을 이동시켜, 기본 모델을 변형시키는 제 3 단계; 및 상기 변형된 기본 모델에 대해 텍스처 매핑을 수행함으로써 3차원 모델을 생성하는 제 4 단계를 포함하여 이루어진 것을 특징으로 한다.In addition, the method of the present invention, in the three-dimensional image generation method applied to the image generation system, by selecting a base model, to set a parameter straight line to each important feature of the selected base model, the set parameter Setting a feature group connected with a straight line; A second step of receiving a 2D image and extracting feature points thereof; A third step of deforming a basic model by moving the set parameter straight line according to the extracted feature points; And a fourth step of generating a 3D model by performing texture mapping on the modified basic model.

또한, 본 발명은, 프로세서를 구비한 영상 생성 시스템에, 기본 모델을 선택하여, 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터(Parameter) 직선을 설정하고, 상기 설정된 파라메터 직선과 연결되어진 특징 그룹을 설정하는 제 1 기능; 2차원 영상을 입력받아, 그 특징점을 추출하는 제 2 기능; 상기 추출된 특징점들에 따라 상기 설정된 파라메터 직선을 이동시켜, 기본 모델을 변형시키는 제 3 기능; 및 상기 변형된 기본 모델에 대해 텍스처 매핑을 수행함으로써 3차원 모델을 생성하는 제 4 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In addition, the present invention, in the image generation system having a processor, by selecting a base model, to set a parameter straight line to each of the important feature areas of the selected base model, and the feature group connected to the set parameter straight line A first function to set; A second function of receiving a 2D image and extracting feature points thereof; A third function of deforming a basic model by moving the set parameter straight line according to the extracted feature points; And a computer-readable recording medium having recorded thereon a program for realizing a fourth function of generating a three-dimensional model by performing texture mapping on the modified basic model.

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을통하여 보다 분명해 질 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

전술한 바와 같이, 이하, 본 발명의 설명을 위한 실시예에 있어서는, 사람의 얼굴 영상만을 일례로 들어 설명하였으나, 본 발명이 사람의 얼굴 영상 뿐만 아니라 3차원 영상으로 변형하여 생성하고자 하는 모든 2차원 영상에 적용될 수 있음은 자명할 것이다.As described above, in the following description of the present invention, only a face image of a person has been described as an example. However, the present invention is not only a face image of a person, but also a two-dimensional image which is intended to be transformed into a three-dimensional image. It will be obvious that it can be applied to images.

도 1a 는 본 발명에 따른 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 장치의 일실시예 구성도이며, 도 1b 는 그에 따른 흐름도이고, 도 1c 는 그 각각의 과정의 결과로써 생성되는 영상의 예시도이다.FIG. 1A is a configuration diagram of an apparatus for extracting a feature of a 2D image for generating a 3D image according to the present invention. FIG. 1B is a flowchart according to the present invention, and FIG. 1C is an image generated as a result of each process. An illustration of the.

3차원 영상으로 변형하여 생성하고자 하는 2차원 영상이 무엇인지에 따라 추출하여야 하는 특징은 각각 달라질 것이나, 본 발명의 일실시예에서는 사람의 얼굴 영상을 그 예로 하였으며, 그에 따라, 2차원 영상으로부터 추출하여야 하는 특징들은, 얼굴의 외곽선, 눈의 크기 및 위치, 코의 크기 및 위치, 입의 크기 및 위치로 한정하였다.The features to be extracted will vary depending on what the 2D image is to be transformed into a 3D image, but in one embodiment of the present invention, a human face image is taken as an example. Features that should be limited to the outline of the face, the size and position of the eyes, the size and position of the nose, the size and position of the mouth.

상기한 특징들 이외에 광대뼈의 돌출이나 눈썹의 모양 등 여러 가지 요소들이 사람의 인상을 결정짓는데 요소로써 작용될 것이나, 가장 큰 특징적인 것은 위와 같은 4가지 요소라고 한정지었으며, 이는 광대뼈의 경우 현재의 이미지 프로세싱 기술로는 정확한 검출에 어려움이 따르기 때문이며, 눈썹의 경우는 돌출의 크기가 미미함으로써 단순 텍스처 매핑만으로 유사하게 처리할 수 있기 때문이다.In addition to the above features, various factors such as the protrusion of the cheekbones and the shape of the eyebrows will act as factors in determining the impression of the person, but the biggest characteristic is limited to the above four elements. This is because the image processing technique has difficulty in accurate detection, and the eyebrows can be similarly processed by simple texture mapping because of the small protrusion size.

하지만, 위의 4가지 요소 뿐만 아니라, 그 외에 특징이 될만한 요소의 추가와 삭제는 얼마든지 가능할 것이다.However, it is possible to add and remove not only the above four elements but also other characteristic elements.

일단 특징점이 결정되면, 도 1a 내지 도 1c 에 도시된 바와 같이, 본 발명에 따른 3차원 영상의 생성을 위한 2차원 영상의 특징을 추출하기 위해서는 먼저 영역 검출부(101)를 통해 얼굴 영역을 검출하여야 하는데(110), 본 발명에서는 이를 위하여 블루스크린을 이용하였다.Once the feature point is determined, as shown in FIGS. 1A to 1C, in order to extract the feature of the 2D image for generating the 3D image according to the present invention, the face area must be detected through the area detector 101. De (110), the present invention used a blue screen for this purpose.

물론, 배경이 복잡하거나 단순한 경우에도 종래의 여러 가지 방법을 사용하여 특징점을 검출할 수는 있으나, 최근의 연구에서 조차도 그 인식률이 떨어져 한정된 조건을 이용하는 경우가 많으며, 따라서 본 발명에서는 얼굴의 특징점을 검출하는데 중점을 두기 보다는 한 장의 정면 영상을 이용해 입력 영상과 유사한 3차원 모델링을 하는 것에 중점을 두었기 때문에 블루스크린을 이용한 얼굴 영역 검출 방법을 택하였다.Of course, even if the background is complex or simple, it is possible to detect the feature points using a variety of conventional methods, but even in recent studies, the recognition rate is often lowered and thus a limited condition is used. Rather than focusing on detection, we focused on three-dimensional modeling similar to the input image using a single frontal image, so we chose a face region detection method using a blue screen.

블루스크린을 사용하기 위해서는 컬러 이미지 프로세싱을 해야 한다.To use a blue screen, you need to do color image processing.

종래에 널리 사용되고 있는 컬러 스페이스(Color Space)는 RGB 좌표계이지만, RGB 좌표계는 색상 성분과 밝기 성분이 함께 혼용되어 있음으로 인해, 이미지 프로세싱을 수행할 경우, 밝기의 변화가 오인식의 주요 원인이 되고 있다. 그러므로 밝기 성분을 분리하여 사용하는 것이 보다 효과적인데, 밝기 성분과 색상 성분이 분리되어 있는 좌표계로는 YIQ, YUV, HSI가 주로 사용되며, 본 발명의 일실시예에서는 HSI 좌표계를 사용하였다.Color Space, which is widely used in the related art, is an RGB coordinate system, but since the RGB coordinate system is a mixture of color and brightness components, a change in brightness is a major cause of misperception when performing image processing. . Therefore, it is more effective to separate and use the brightness component, YIQ, YUV, HSI is mainly used as the coordinate system in which the brightness component and the color component are separated, in one embodiment of the present invention used the HSI coordinate system.

다음으로는, 흑백화부(102)에서 상기 얼굴 영역이 검출된 2차원 영상(111)에 대해 흑백화를 수행한다(120).Next, the monochromeization unit 102 performs monochromeization on the 2D image 111 in which the face region is detected (120).

본 발명에서 사용되는 입력 영상은, 차후 3차원 텍스처 매핑을 위하여 컬러 영상을 입력받지만, 특징점 검출 방법에 있어서는 흑백 영상을 대상으로 하여도 무방하기 때문이다.This is because, although the input image used in the present invention receives a color image for 3D texture mapping in the future, the feature point detection method may be a black and white image.

그리고, 상기의 흑백화 과정이 완료된 2차원 영상(121)에 대해, 가우시안 스무딩 필터(Gaussian smoothing filter, 103)를 이용해 가우시안 스무딩(Gaussian Smoothing) 과정을 수행한다(130).In operation 130, a Gaussian smoothing process is performed on the 2D image 121 in which the black and whitening process is completed using a Gaussian smoothing filter 103.

상기 가우시안 스무딩 필터(103)는 분산되어 있는 잡음을 제거하는데 있어 매우 효율적인 필터로써, 각 픽셀(pixel)에 각각 다른 웨이트(weight)를 가지고 곱한 다음, 웨이트(weight) 값 전체의 합을 나누는 처리를 수행하여, 일반적으로 흑백값으로 튀는 값을 부드럽게 만들어 준다.The Gaussian smoothing filter 103 is a very efficient filter for removing scattered noise. The Gaussian smoothing filter 103 multiplies each pixel with a different weight, and then divides the total of the weight values. To smooth out the splashes, typically in black and white.

이때, 본 발명에서는, 5*5 크기의 필터를 사용함으로써, 계산 시간과 잡음 제거의 효율성이라는 두 가지 문제를 동시에 해결하고자 하였다.At this time, in the present invention, by using a filter of the size 5 * 5, to solve both problems of the computation time and the efficiency of noise cancellation at the same time.

상기 가우시안 스무딩(Gaussian Smoothing) 과정을 통해 일차 잡음이 제거된 영상(131)은, 다시 콘트라스트(Contrast) 조절부(104)에 의한 콘트라스트 조절 과정을 통해(140) 이차 잡음이 제거된다.In the image 131 from which the primary noise is removed through the Gaussian smoothing process, the secondary noise is removed through the contrast adjusting process by the contrast adjusting unit 104 (140).

화면의 밝은 부분과 어두운 부분의 밝기 비율을 콘트라스트(Contrast)라 하는데, 콘트라스트가 높은 화상은 피사체의 윤곽이 선명하여 보기 쉬운 화상으로 되는데 콘트라스트가 낮은 화상은 윤곽이 또렷하지 않으므로 보기 쉬운 화상으로 되지 않는다. 즉, 콘트라스트가 낮은 화상은 밝은 부분을 더 밝게, 어두운 부분을 더 어둡게 하는 식으로 변환을 함으로써 콘트라스트를 강조하여 보다 처리하기 쉬운영상으로 변환시킬 수 있다.Contrast is the ratio between the light and dark areas of the screen. Contrast is a high-contrast image that is easy to see because the outline of the subject is clear. Low-contrast images do not become easy to see because the outline is not clear. . That is, an image with low contrast can be converted into an image that is easier to process by emphasizing contrast by converting the bright portion brighter and the dark portion darker.

다시말해, 얼굴의 특징적인 부분과 특징적이지 않는 부분들은 흑백 영상에서 명확한 대비가 생기므로, 이를 좀 더 강조시켜 인식을 용이하게 할 수 있다.In other words, the characteristic and non-characteristic parts of the face have a clear contrast in the black and white image, so that the emphasis can be further emphasized to facilitate recognition.

일반적인 콘트라스트는 다음의 <수학식 1>과 같이 표현된다.General contrast is expressed as Equation 1 below.

g(x, y) = nf(x, y) g (x, y) = nf (x, y)

원화상의 위치 (x, y)에 있어 화소의 농도 f(x, y)를 n배하여, 처리 화상의 (x, y)에 있어 농도 g(x, y)로 하고 있다.The density f (x, y) of the pixel is n times the position (x, y) of the original image, and the density g (x, y) is set at (x, y) of the processed image.

화상 데이터는 1화소 8비트의 크기로 다루기 때문에 표현할 수 있는 농도의 범위는 0에서 255까지이다. 그래서 계산의 결과가 255를 넘을 경우에는 계산의 결과에 관계없이 255로 제한하게 된다.Since image data is treated as one pixel and 8 bits in size, the range of density that can be expressed is from 0 to 255. Thus, if the result of a calculation exceeds 255, it is limited to 255 regardless of the result of the calculation.

본 발명에서는 이를 약간 변형 시켜 다음의 <수학식 2>와 같은 식을 사용하고 있다.In the present invention, by slightly modifying it, the following equation (2) is used.

(x, y) = f(x, y)+( f(x, y)-128)* Cv/128(x, y) = f (x, y) + (f (x, y) -128) * Cv / 128

이는 이진화 시 경계값을 강조시키기 위한 방법으로, 기본적인 처리에서 명암 대비가 낮은 영상은 본 명암보다 어둡게하고 밝은 영상은 더욱 밝게 만들어 주기 위함이다.This is a method for emphasizing the boundary value in binarization. In the basic processing, the low contrast image is darker than the contrast and the bright image is brighter.

즉, 각 픽셀(pixel)의 최대 명암값이 255이므로, 여기에서 중간값인 128을 빼어 원래의 값에 더하게 함으로써, 128일 경우 원래 값을, 128보다 클 경우 가중값을 플러스(+)로, 128보다 작을 경우 가중값을 마이너스(-)로 함으로써 이러한 역할을 하게 된다.That is, since the maximum contrast value of each pixel is 255, the median value 128 is subtracted from this and added to the original value, so that the original value is 128 and the weight value is positive (+). If the value is less than 128, the weight is made negative to play this role.

그리고 여기에 Cv라는 파라메터(parameter)를 두어 유동적인 처리를 고려하였으나, 본 발명에서는 이 값을 실험적으로, 90으로 하였다.In addition, although a fluid treatment was considered by placing a parameter called Cv here, in the present invention, this value was experimentally set to 90.

상기한 바와 같이, 흑백화 된 영상(121)의 잡음을 줄이기 위하여 본 발명에서는 두가지의 처리를 하였는데, 그 첫번째가 상기 가우시안 스무딩(Gaussian Smoothing) 과정(130)이며, 두번째가 콘트라스트 조절 과정(140)이다.As described above, in order to reduce the noise of the black-and-white image 121, two processes are performed in the present invention, the first of which is the Gaussian Smoothing process 130 and the second is the contrast adjustment process 140. to be.

본 실시예와 같은 사람 얼굴의 영상에서는, 주위 피부와 명암도 면에서 큰 차이가 나며 그 영역이 얼굴의 부분에서 꽤 큰 영역을 차지하므로 전체적으로 스무딩(Smoothing) 처리를 하게 되면 작은 잡음들은 사라지게 되고, 다시 그 영상에 대해 콘트라스트 과정을 수행하면 경계가 부드러워진 각 특징점들을 강조 시켜 주게 된다.In the image of the human face as in the present embodiment, there is a big difference in terms of the surrounding skin and contrast, and since the area occupies a fairly large area in the face part, when the smoothing process is performed as a whole, small noises disappear. Performing a contrast process on the image emphasizes each feature point with smooth boundaries.

다음, 상기 콘트라스트(Contrast) 과정이 수행된 2차원 영상(141)에 대해, 블록 이진화(Block Binary)부(105)에서는 블록 이진화 과정을 수행한다(150).Next, the block binarization unit 105 performs a block binarization process on the 2D image 141 on which the contrast process is performed (150).

이진화(Binary)는, 256 단계의 명도 값을 가지고 있는 흑백 영상에서 임계값을 기준으로 검정색과 흰색을 구분하는 기법으로써, 일반적으로 명암값이 고르게분포되어 있고 화질이 좋은 영상이라면 문제가 없지만, 영상 자체에 손상이 많이 있고 명암 분포가 불규칙한 영상이라면 하나의 임계값으로는 그 영상에 대한 최적의 이진화 영상을 얻을 수 없게 된다.Binary is a technique that distinguishes black and white based on a threshold value from a black and white image having 256 levels of brightness. Generally, if the image is evenly distributed and the image quality is good, there is no problem. If the image has a lot of damage and an irregular distribution, the optimal binarization image for the image cannot be obtained with one threshold.

즉, 기본적인 이진화 기법은 전체의 영상에 대해 하나의 임계값을 사용하므로 그늘진 부분(예를 들어, 턱 밑)의 명암값이 전체 영상의 명암값과 차이가 많이 난다면, 원하는 결과 영상을 얻을 수 없게 된다.That is, the basic binarization technique uses one threshold for the whole image, so if the contrast value of the shaded part (for example, the lower jaw) is different from the contrast value of the entire image, the desired result image can be obtained. There will be no.

따라서, 부분적인 특징이 강한 영상에 대해서는 각 부분 마다의 임계값을 설정해주어야 하는데, 이를 위해 본 발명의 실시예에서는, 종래의 여러 가지의 개선된 알고리즘 중 블록 이진화(Block Binary) 기법을 사용하였다.Therefore, a threshold value for each part needs to be set for an image having strong partial features. For this, an embodiment of the present invention uses a block binarization technique among various conventional improved algorithms.

상기 블록 이진화(Block Binary) 기법은, 원하는 크기의 블록을 설정하고 그 블록 마다의 명암값을 고려하여 임계값을 설정하는 방법으로, 각 블록마다 특정한 임계값을 가질 수 있게 함으로써, 사람 얼굴 영상의 경우, 턱 이나 코 아래 등에서 나타나는 그림자 부분을 효과적으로 처리할 수 있다. 즉, 그림자 부분이 자체 블록으로 처리됨으로 전체적인 명암의 영향을 덜 받게 된다.The block binarization technique is a method of setting a block having a desired size and setting a threshold value in consideration of a contrast value of each block, so that each block may have a specific threshold value. If you do, you can effectively handle the shadows that appear on your chin or under your nose. In other words, the shadow part is processed by its own block, so the overall contrast is less affected.

하지만, 본 발명의 실시예와 같은, 사람 얼굴 영상의 특징점 추출 과정은, 물체의 덩어리를 인지하여 처리하므로 블록 이진화 처리된 영상만으로는 오류가 있을 확률이 많다. 왜냐하면, 이미지 프로세싱의 특성상 1 픽셀(pixel) 정도만 떨어져 있어도, 프로세서는 서로 다른 부분이라고 인식하기 때문이다.However, since the feature point extraction process of the human face image, such as the embodiment of the present invention, recognizes and processes a mass of an object, only the block binarized image may have an error. This is because, due to the nature of image processing, even if only one pixel is separated, the processor recognizes different parts.

이를 위하여, 상기 블록 이진화된 영상(151)에 대해, 라인 세그멘트(Line Segment)부(106)를 통해 라인 세그멘트 과정을 수행한다(160).To this end, a line segment process is performed on the block binarized image 151 through a line segment unit 106 (160).

라인 세그멘트(Line Segment) 과정은, 수평적으로 서로 떨어진 라인(Line) A와 B에 대하여, 상기 두 라인의 간격이 정해진 세그멘트 값(Segment Value) 이하일 때 상기 두 라인을 연결하도록 하는 과정으로써, 본 발명에서는 실험상으로 상기 세그멘트 값(Segment Value)을 5로 하였다. 즉, 서로 5 픽셀(pixel) 이하의 거리 차이가 있는 직선들은 서로 연결시키도록 하였다.The line segment process is a process of connecting the two lines when the distance between the two lines is less than a predetermined segment value for the lines A and B horizontally separated from each other. In the present invention, the segment value was set to 5 in an experiment. That is, straight lines having a distance difference of less than 5 pixels are connected to each other.

이는, 입력영상이 640*480 정도이며, 촬영 거리의 제약을 두었기 때문에 흔히 떨어져 처리되기 쉬운 눈, 코 ,입 등의 주요 특징점들의 최대 거리가 5 픽셀(pixel)을 넘지 않는다는 실험상의 결과 때문이나, 입력영상과 촬영 거리 등의 제반 조건에 따라, 상기 세그멘트 값(Segment Value)은 적당히 조절되어질 수 있을 것이다.This is because of the experimental result that the maximum distance of the main feature points such as eyes, nose and mouth, which are easy to be separated because the input image is about 640 * 480 and limited the shooting distance, does not exceed 5 pixels. According to various conditions such as the input image and the shooting distance, the segment value may be appropriately adjusted.

상기 라인 세그멘트 과정이 수행된 영상(161)에 대해, 레이블링 및 크기 검증(Verify Size)부(107)에서는 서로 상하좌우로 떨어져 있는 영역들에 레이블을 매겨 순서화 한 후, 각 레이블의 크기를 검증(Verify Size)하는 기능을 수행한다(170).With respect to the image 161 on which the line segment process is performed, the labeling and verifying size unit 107 labels and orders areas separated from each other up, down, left, and right, and then verifies the size of each label. Verify Size) (170).

상기의 과정을 수행하기 위해서는, 각 레이블에 대한 높이의 최대, 최소값, 길이의 최대, 최소값 등을 정해야 하는데, 본 발명의 실시예에서는 실험에 의해 다음과 같은 조건을 사용하였다.In order to perform the above process, it is necessary to determine the maximum, minimum, maximum and minimum values of height for each label. In the embodiment of the present invention, the following conditions were used by experiment.

레이블의 최대 넓이(Max Width) : 20 픽셀(pixel)Max Width of Label: 20 pixels

레이블의 최소 높이(Min Height) : 5 픽셀(pixel)Min Height of Label: 5 pixels

레이블의 최대 높이(Max Height) : 100 픽셀(pixel)Max Height of Label: 100 pixels

레이블의 넓이(길이와 높이를 곱한 값)의 최소값 : 50Minimum width of label (length multiplied by height): 50

레이블의 넓이(길이와 높이를 곱한 값)의 최대값 : 800Maximum width of label (multiplied by length and height): 800

상기의 수치들은 640*480의 정면 정지 영상을, 카메라로부터 80cm 떨어진 거리를 기준으로 10cm 이내의 오차를 인정하고 촬영하였을 때, 100명의 실험 대상의 통계치를 구하여 평균적으로 수치화한 것으로, 이러한 과정을 통하여 얻어진 영상이 도 1c 의 171 이다.The above figures were obtained by quantifying the average of 100 test subjects when the front still image of 640 * 480 was recognized with error within 10cm from the distance of 80cm from the camera. The obtained image is 171 of FIG. 1C.

상기 영상에 대한 레이블 크기의 검증(Verify Size) 과정(170)을 마치면, 특징점 추출부(108)에 의해, 기하학적인 위치 특징을 이용한 눈, 코, 입의 검출 과정을 수행하게 된다(180).After completing the Verify Size process 170 for the image, the feature point extractor 108 detects an eye, a nose, and a mouth using a geometric position feature (180).

일반적으로 눈, 코, 입의 검출에 있어서는, 눈을 먼저 찾은 후, 기하학적인 위치 특징을 이용하여 다른 부분을 찾는 방식을 많이 사용하게 되는데, 이는 사람의 얼굴이라는 특수한 환경에서 가장 검출하기 쉬운 부분이 좌우로 대칭을 이루고 있는 눈이며, 이를 찾은 후에는 코, 입의 경우 그 아래에 있다는 위치적인 정보를 이용할 수 있기 때문이다.In general, in the detection of eyes, nose and mouth, the eyes are first searched, and then a number of methods are used to find other parts by using geometric position features, which is the most detectable part in a special environment of a human face. This is because the eyes are symmetrical from side to side, and after finding them, you can use the positional information that the nose and mouth are below them.

눈은 얼굴 상에서 항상 쌍을 이루게 된다는 점을 이용하여, 먼저 하나의 레이블을 선택한 후, 수평 방향으로 크기의 변화가 크게 다르지 않은 레이블의 쌍이 있는지를 검사하여, 있을 경우 이를 눈의 후보로 채택한다.Taking advantage of the fact that the eyes are always paired on the face, first select one label, then check whether there are pairs of labels whose size does not vary greatly in the horizontal direction, and adopt them as candidates for the eyes.

이러한 방식을 이용할 경우 눈썹과 눈이 구별되지 않기 때문에, 본 발명의 일실시예에서는 이렇게 쌍이 되는 부분들의 가장 최상을 눈썹으로 두었으며, 그 아래쪽 쌍을 눈으로 두었고, 단지 하나의 쌍만이 존재할 경우에는 그것을 눈으로 검출하도록 하였다.Since the eyebrow and the eye are not distinguished when using this method, in one embodiment of the present invention, the best of these paired parts is the eyebrow, the lower pair is the eye, and only one pair exists It was detected by eye.

상기의 방법이 가능한 까닭은, 이미 크기 검증(Verify Size) 처리 후 제거된 영상 중, 위에서부터 이러한 쌍을 이루고 있는 부분은 눈썹과 눈일 확률이 가장 높기 때문이다.The above method is possible because the part which has been paired from above among the images already removed after the verify size processing has the highest probability of being an eyebrow and an eye.

이렇게 검출된 눈을 기본으로 하여, 양 눈의 중앙에 위치하며 눈의 아래부분에 위치되는 것을 코라고 인지하도록 하였으며, 그 아래부분에 나타나는 영역을 입으로 검출하였다. 지금과 같은 처리방식에 의할 경우, 눈과 코, 입 사이에 다른 특징적인 부분이 나타날 경우가 거의 없기 때문이다.Based on the detected eyes, the nose located at the center of both eyes and located at the bottom of the eyes was recognized as a nose, and the area appearing below was detected by the mouth. This is because, with the current treatment, there are rarely any other characteristic parts between the eyes, nose and mouth.

상기의 과정을 통하여 얻어진 영상이, 도 1c 의 181, 182 이다.The images obtained through the above process are 181 and 182 of FIG. 1C.

다음, 마지막으로 얼굴 외곽을 검출하게 되는데(190), 본 발명의 일실시예에서 사용하는 얼굴 외곽 정보는, 크게 사람의 인상을 결정짓는 턱 선 등의 얼굴 외곽이 급격히 변화되는 부분에 대한 정보만 있으면 충분하므로, 검출된 눈의 위치부분에서 수평으로 직선(191의 1)을 그은 후 얼굴 영역의 끝점과 만나는 점(191의 a)으로 그 사람의 전체적인 얼굴 좌우 길이를 알 수 있으며, 검출된 입의 위치 부분에서 수평으로 직선(191의 2)을 그어 얼굴 영역의 끝점과 만나는 점(191의 b), 그리고 입술의 중앙에서 수직으로 직선(191의 3)을 그은 후, 가장 명암도가 높은 부분의 점(191의 c)을 이용하여 얼굴 외곽의 특징을 구할 수 있다.Next, finally, the outside of the face is detected (190), the information of the outside of the face used in the embodiment of the present invention is only information on the part where the outside of the face, such as a jaw line that largely determines the impression of the person, is rapidly changed. Since it is sufficient, the point of contact with the end point of the face area is drawn horizontally at the position of the detected eye area 191, and then the total length of the left and right faces of the person can be known. Draw a straight line 191 2 horizontally at the position portion of the point to meet the end point of the face area (b) of 191, and draw a straight line 191 3 vertically at the center of the lip, and then Using the point 191 c to obtain the features of the outside of the face.

도 1c 의 191 영상에서, (a)점과 (b)점을 알아내는 것에는 큰 어려움이 없다. 왜냐하면, 이미 블루 스크린을 이용한 전처리 과정에서 얼굴 영역만이 추출되어 있는 상태에서 상기의 각 과정을 수행하므로, 눈과 입의 위치만 검출된다면 그수평 좌표와 얼굴 영역의 끝점의 교점을 찾는 것은 용이하기 때문이다.In the 191 image of FIG. 1C, it is not difficult to find the points (a) and (b). Because the above process is performed in the state that only the face region is extracted in the preprocessing process using the blue screen, it is easy to find the intersection of the horizontal coordinate and the end point of the face region if only the position of the eyes and the mouth is detected. Because.

하지만 턱선을 찾는 과정에서, 턱과 목 사이의 구분이 잘 안되는 경우가 종종 있기 때문에, 본 발명의 실시예에서는 다음과 같은 처리 과정을 거쳤다.However, in the process of finding the jaw line, the separation between the jaw and the neck is often difficult, so the embodiment of the present invention went through the following process.

먼저, 입 영역의 중점을 기준으로 좌우 5 픽셀(pixel)씩, 즉 가로 방향 10 픽셀(pixel)과, 상기 입 영역의 아래부분과 수직으로 얼굴 영역이 끝나는 점을 세로축으로 하는 직사각형 후보 영역을 정한다.First, a rectangular candidate area is determined based on the middle point of the mouth area by 5 pixels left and right, that is, 10 pixels horizontally, and a point where the face area ends vertically with the lower part of the mouth area. .

다음, 상기 후보 영역에 대해, 위에서 아래로 가로 축의 합을 구하여 아래와 같은 두가지 조건이 만족될 때, 이를 턱선으로 추정한다.Next, the sum of the horizontal axes from the top to the bottom for the candidate area is estimated when the following two conditions are satisfied.

1) 연결되는 가로축의 합의 차가 2배 이상인 가로축이 존재할 때1) When there is a horizontal axis where the difference in sum of the connected horizontal axes is more than twice

2) 이 가로축의 영역이 5 픽셀(pixel) 이상 계속될 때2) When the area of this horizontal axis continues more than 5 pixels

그리고 머리 위 부분의 끝은 블루 스크린 제거 후 블루 스크린 영역을 검정으로 채운 후 전처리를 하기 때문에, 기본적인 얼굴 영역은 머리를 제외한 부분이 된다. 따라서 이마와 머리카락이 만나는 부분이 머리 위 끝부분으로 지정되는 것이다.The top of the head is pre-processed after filling the blue screen with black after removing the blue screen. Therefore, the part where the forehead and the hair meet is designated as the tip of the head.

이를 위하여 똑같은 방법으로, 눈 영역 위쪽의 중점에서 좌우로 가로 10 픽셀(pixel)의 가로 축의 합을 구해, 이 값이 이전 값보다 3배 이상 커지는 영역이 5 픽셀(pixel) 이상 계속될 때, 그 첫 가로축을 머리 위 끝부분으로 추정하였다.To do this, in the same way, add up the horizontal axis of 10 pixels horizontally from the midpoint above the eye area, so that when an area where this value is more than three times larger than the previous value continues for more than 5 pixels, The first horizontal axis was assumed to be the top of the head.

도 1c 의 192 영상이, 본 발명의 일실시예에서 사용된 특징점 검출 방법을 이용하여 (a)점과 (b)점을 나타내는 수직선 2개와 (c)점을 나타내는 수평축 1개로 이루어진 사각형으로 나타내어진 얼굴 영역이다.The image 192 of FIG. 1C is represented by a rectangle composed of two vertical lines representing points (a) and (b) and one horizontal axis representing point (c) using the feature point detection method used in the embodiment of the present invention. Face area.

도 2a 는 본 발명에 따른 3차원 영상의 생성 장치의 일실시예 구성도이며, 도 2b 는 그에 따른 상세 흐름도다.FIG. 2A is a block diagram of an embodiment of an apparatus for generating a 3D image according to the present invention, and FIG. 2B is a detailed flowchart thereof.

도 2a 및 도 2b에 도시된 바와 같이, 본 발명에서는 "Parke"에 의해 제안된 얼굴 표정 애니메이션 시스템에 쓰인 파라메터에 기반한 모델의 변형 알고리즘을 이용하여, 기본 얼굴의 형태를 특징점 파라메터에 의해 변화시키는 방법으로 3차원 모델링을 수행하였다.As shown in Figs. 2a and 2b, in the present invention, a method of changing the shape of the basic face by the feature point parameter using a deformation algorithm of the model based on the parameters used in the facial expression animation system proposed by "Parke". 3D modeling was performed.

즉, 기본 모델 특징 그룹 설정부(201)에서 먼저 기본 모델을 선택하고(211), 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터 직선을 설정하며(212), 상기 파라메터 직선과 연결되어진 특징 그룹을 설정하여(213) 모델에 독립적인 변형 영역을 정한다(210).That is, the basic model feature group setting unit 201 first selects a basic model (211), sets a parameter straight line to each of the important feature areas of the selected basic model (212), and the feature group connected to the parameter straight line By setting (213) to determine the deformation region independent of the model (210).

입력부(202)를 통해 2차원 영상이 입력되어(221), 특징점 추출부(203)에 의해 도 1a 내지 도 1c 에서 설명한 방법에 따라 특징점이 추출되어지면(222), 모델 변형부(204)에서는 상기 추출된 특징점들을 이용하여 원 특징 파라메터 직선을 이동시키는데(230), 이때, 먼저 특징 파라메터의 변형을 수행한 뒤(231) 다시 그룹 변형을 하게 되며(232), 이러한 파라메터 직선의 변화로 인하여 각 특징 그룹들이 입력 인물과 유사한 특징을 가진 형태로 변형이 된다.When the two-dimensional image is input through the input unit 202 (221), and the feature point is extracted by the feature point extractor 203 according to the method described with reference to FIGS. 1A to 1C (222), the model deformer 204 The original feature parameter line is moved using the extracted feature points (230). At this time, the feature parameter is first transformed (231) and the group is transformed again (232). The feature groups are transformed into features with similar characteristics to the input person.

다음, 마지막으로 텍스처 매핑부(205)에서는, 사실감을 높이기 위하여 텍스처 매핑을 수행하여(240), 입력된 2차원 영상의 특징점에 의해 메쉬를 직접 변형함으로써 입력 영상의 눈, 코, 입, 얼굴 외곽의 특징이 반영된, 유사한 3차원 모델을 생성시킨 후, 출력부(206)를 통해 출력한다.Next, the texture mapping unit 205 performs texture mapping to increase the realism (240), and directly deforms the mesh by the feature points of the input two-dimensional image to surround the eyes, nose, mouth, and face of the input image. After generating a similar three-dimensional model is reflected, the output through the output unit 206.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains, and the above-described embodiments and accompanying It is not limited to the drawing.

상기한 바와 같은 본 발명은, 2차원 영상으로부터 3차원 영상을 생성함에 있어, 필요한 특징 정보를 추출할 수 있는 2차원 영상이라면, 단 하나의 영상만으로 3차원 영상을 추출하여 생성하는 것을 가능하게 함으로써, 보다 저렴한 비용과 빠른 속도로 3차원 영상을 생성할 수 있게 하는 효과가 있다.The present invention as described above, in generating a three-dimensional image from the two-dimensional image, if the two-dimensional image that can extract the necessary feature information, by making it possible to extract and generate the three-dimensional image with only one image In addition, it has the effect of generating three-dimensional images at a lower cost and a faster speed.

Claims (16)

2차원 영상의 특징 추출 장치에 있어서,In the feature extraction apparatus of a two-dimensional image, 2차원 영상을 입력받아 필요한 영역을 검출하기 위한 영역 검출 수단;Area detection means for receiving a two-dimensional image and detecting a required area; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하기 위한 잡음 제거 수단;Noise removing means for removing noise with respect to the two-dimensional image in which the region is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하기 위한 이진화 수단;Binarization means for binarizing the noise-free two-dimensional image; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하기 위한 라인 세그멘트 수단;Line segment means for performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하기 위한 레이블링 및 크기 검증 수단; 및Labeling and size verification means for assigning a label to the image on which the line segment has been performed and for verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하기 위한 특징점 추출 수단Feature point extracting means for extracting feature points using geometric position information for the image of which label size verification is completed 을 포함하는 2차원 영상의 특징 추출 장치.Feature extraction apparatus for a two-dimensional image comprising a. 제 1 항에 있어서,The method of claim 1, 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하기 위한 흑백화 수단Black and whiteization means for performing black and whiteization on the received 2D image when the received 2D image is a color image 을 더 포함하는 2차원 영상의 특징 추출 장치.Feature extraction apparatus of a two-dimensional image further comprising. 영상 생성 시스템에 적용되는 2차원 영상의 특징 추출 방법에 있어서,In the feature extraction method of a two-dimensional image applied to an image generating system, 2차원 영상을 입력받아 필요한 영역을 검출하는 제 1 단계;A first step of receiving a 2D image and detecting a required region; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하는 제 2 단계;A second step of removing noise with respect to the 2D image from which the area is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하는 제 3 단계;A third step of binarizing the noise-free two-dimensional image; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하는 제 4 단계;A fourth step of performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하는 제 5 단계; 및A fifth step of attaching a label to the image on which the line segment is performed and verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하는 제 6 단계A sixth step of extracting feature points using geometric position information of the label size verified image; 를 포함하는 2차원 영상의 특징 추출 방법.Feature extraction method of a two-dimensional image comprising a. 제 3 항에 있어서,The method of claim 3, wherein 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하는 제 7 단계A seventh step of performing black and white on the received two-dimensional image when the received two-dimensional image is a color image; 를 더 포함하는 2차원 영상의 특징 추출 방법.Feature extraction method of a two-dimensional image further comprising. 제 3 항 또는 제 4 항에 있어서,The method according to claim 3 or 4, 상기 제 1 단계는,The first step is, 필요한 영역을 검출하기 위하여 블루 스크린을 이용하는 것을 특징으로 하는 2차원 영상의 특징 추출 방법.A method of extracting a feature of a two-dimensional image, characterized by using a blue screen to detect a required area. 제 3 항 또는 제 4 항에 있어서,The method according to claim 3 or 4, 상기 제 2 단계는,The second step, 잡음을 제거하기 위하여 가우시안 스무딩(Gaussian Smoothing)과 콘트라스트(Contrast) 조절 기법을 사용하는 것을 특징으로 하는 2차원 영상의 특징 추출 방법.A method for extracting features of a 2D image using Gaussian smoothing and contrast control to remove noise. 제 3 항 또는 제 4 항에 있어서,The method according to claim 3 or 4, 상기 제 3 단계는,The third step, 2차원 영상을 이진화 하기 위하여, 블록 이진화(Block Binary) 기법을 사용하는 것을 특징으로 하는 2차원 영상의 특징 추출 방법.In order to binarize a 2D image, a block binarization technique is used. 프로세서를 구비한 영상 생성 시스템에,In an image generation system having a processor, 2차원 영상을 입력받아 필요한 영역을 검출하는 제 1 기능;A first function of receiving a 2D image and detecting a required area; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하는 제 2 기능;A second function of removing noise with respect to the 2D image from which the area is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하는 제 3 기능;A third function of binarizing the noise-free two-dimensional image; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하는 제 4 기능;A fourth function of performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하는 제 5 기능; 및A fifth function of giving a label to the image on which the line segment is performed and verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하는 제 6 기능A sixth function of extracting a feature point using geometric position information on the image of which the label size is verified; 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this. 제 8 항에 있어서,The method of claim 8, 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하는 제 7 기능A seventh function of performing monochromeization on the received 2D image when the received 2D image is a color image; 을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium that records a program for further realization. 3차원 영상 생성 장치에 있어서,In the 3D image generating device, 기본 모델을 선택하여, 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터(Parameter) 직선을 설정하고, 상기 설정된 파라메터 직선과 연결되어진 특징 그룹을 설정하기 위한 기본 모델 특징 그룹 설정 수단;Basic model feature group setting means for selecting a basic model, setting a parameter straight line at each important feature part of the selected basic model, and setting a feature group connected to the set parameter straight line; 2차원 영상을 입력받아, 그 특징을 추출하기 위한 특징 추출 수단;Feature extraction means for receiving a two-dimensional image and extracting the feature; 상기 추출된 특징점들에 따라 상기 설정된 파라메터 직선을 이동시켜, 기본 모델을 변형시키기 위한 모델 변형 수단; 및Model deforming means for deforming a basic model by moving the set parameter straight line according to the extracted feature points; And 상기 변형된 기본 모델에 대해 텍스처 매핑을 수행함으로써 3차원 모델을 생성하기 위한 텍스처 매핑 수단Texture mapping means for generating a 3D model by performing texture mapping on the deformed base model 을 포함하는 3차원 영상 생성 장치.3D image generating apparatus comprising a. 제 10 항에 있어서,The method of claim 10, 상기 특징 추출 수단은,The feature extraction means, 2차원 영상을 입력받아 필요한 영역을 검출하기 위한 영역 검출 수단;Area detection means for receiving a two-dimensional image and detecting a required area; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하기 위한 잡음 제거 수단;Noise removing means for removing noise with respect to the two-dimensional image in which the region is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하기 위한 이진화 수단;Binarization means for binarizing the noise-free two-dimensional image; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하기 위한 라인 세그멘트 수단;Line segment means for performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하기 위한 레이블링 및 크기 검증 수단; 및Labeling and size verification means for assigning a label to the image on which the line segment has been performed and for verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하기 위한 특징점 추출 수단을 포함하는 것을 특징으로 하는 3차원 영상 생성 장치.And feature point extracting means for extracting feature points using geometric position information on the image of which the verification of the label size is completed. 제 11 항에 있어서,The method of claim 11, 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하기 위한 흑백화 수단Black and whiteization means for performing black and whiteization on the received 2D image when the received 2D image is a color image 을 더 포함하는 3차원 영상 생성 장치.3D image generating device further comprising. 영상 생성 시스템에 적용되는 3차원 영상 생성 방법에 있어서,In the 3D image generating method applied to the image generating system, 기본 모델을 선택하여, 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터(Parameter) 직선을 설정하고, 상기 설정된 파라메터 직선과 연결되어진 특징 그룹을 설정하는 제 1 단계;A first step of selecting a basic model, setting a parameter straight line at each important feature part of the selected basic model, and setting a feature group connected to the set parameter straight line; 2차원 영상을 입력받아, 그 특징을 추출하는 제 2 단계;Receiving a 2D image and extracting a feature thereof; 상기 추출된 특징점들에 따라 상기 설정된 파라메터 직선을 이동시켜, 기본 모델을 변형시키는 제 3 단계; 및A third step of deforming a basic model by moving the set parameter straight line according to the extracted feature points; And 상기 변형된 기본 모델에 대해 텍스처 매핑을 수행함으로써 3차원 모델을 생성하는 제 4 단계A fourth step of generating a 3D model by performing texture mapping on the deformed base model 를 포함하는 3차원 영상 생성 방법.3D image generation method comprising a. 제 13 항에 있어서,The method of claim 13, 상기 제 2 단계는,The second step, 2차원 영상을 입력받아 필요한 영역을 검출하는 제 5 단계;A fifth step of receiving a 2D image and detecting a required area; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하는 제 6 단계;A sixth step of removing noise with respect to the two-dimensional image from which the region is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하는 제 7 단계;A seventh step of binarizing the two-dimensional image from which the noise is removed; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하는 제 8 단계;An eighth step of performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하는 제 9 단계; 및A ninth step of attaching a label to the image on which the line segment is performed and verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하는 제 10 단계를 포함하는 것을 특징으로 하는 3차원 영상 생성 방법.And a tenth step of extracting a feature point using geometric position information of the image of which the verification of the label size is completed. 제 14 항에 있어서,The method of claim 14, 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하는 제 11 단계An eleventh step of performing monochromeization on the received 2D image when the received 2D image is a color image; 를 더 포함하는 3차원 영상 생성 방법.3D image generating method further comprising. 프로세서를 구비한 영상 생성 시스템에,In an image generation system having a processor, 기본 모델을 선택하여, 상기 선택된 기본 모델의 각 중요 특징 부위에 파라메터(Parameter) 직선을 설정하고, 상기 설정된 파라메터 직선과 연결되어진 특징 그룹을 설정하는 제 1 기능;A first function of selecting a basic model, setting a parameter straight line to each important feature part of the selected basic model, and setting a feature group connected to the set parameter straight line; 2차원 영상을 입력받아, 그 특징을 추출하는 제 2 기능;A second function of receiving a 2D image and extracting a feature thereof; 상기 추출된 특징점들에 따라 상기 설정된 파라메터 직선을 이동시켜, 기본 모델을 변형시키는 제 3 기능; 및A third function of deforming a basic model by moving the set parameter straight line according to the extracted feature points; And 상기 변형된 기본 모델에 대해 텍스처 매핑을 수행함으로써 3차원 모델을 생성하는 제 4 기능A fourth function of generating a 3D model by performing texture mapping on the deformed base model 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this.
KR1020010025298A 2001-05-09 2001-05-09 The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them KR100815209B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010025298A KR100815209B1 (en) 2001-05-09 2001-05-09 The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010025298A KR100815209B1 (en) 2001-05-09 2001-05-09 The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them

Publications (2)

Publication Number Publication Date
KR20020085669A true KR20020085669A (en) 2002-11-16
KR100815209B1 KR100815209B1 (en) 2008-03-19

Family

ID=27704299

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010025298A KR100815209B1 (en) 2001-05-09 2001-05-09 The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them

Country Status (1)

Country Link
KR (1) KR100815209B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100737974B1 (en) * 2005-07-15 2007-07-13 황후 Image extraction combination system and the method, And the image search method which uses it
KR100805802B1 (en) * 2005-12-09 2008-02-21 한국전자통신연구원 Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it
WO2009128783A1 (en) * 2008-04-14 2009-10-22 Xid Technologies Pte Ltd An image synthesis method
WO2009128784A1 (en) * 2008-04-14 2009-10-22 Xid Technologies Pte Ltd Face expressions identification
KR100930722B1 (en) * 2007-12-28 2009-12-09 주식회사 케이티 3D image generating method and apparatus using hierarchical image model, image recognition method, feature point extraction method, and recording medium recording program for performing the method
WO2014003507A1 (en) * 2012-06-29 2014-01-03 인텔렉추얼디스커버리 주식회사 Image encoder pretreatment apparatus, and apparatus and method for generating three-dimensional face
US8624901B2 (en) 2009-04-09 2014-01-07 Samsung Electronics Co., Ltd. Apparatus and method for generating facial animation
KR101351745B1 (en) * 2012-06-29 2014-01-16 인텔렉추얼디스커버리 주식회사 Apparatus and method for generating 3 dimension face
KR102391239B1 (en) * 2021-10-26 2022-04-27 주식회사 피엘테크 Method for manufacturing battery module

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101546700B1 (en) * 2014-11-28 2015-08-24 한국건설기술연구원 System and method for recognizing road pothole area using image
KR20230151821A (en) 2022-04-26 2023-11-02 주식회사 리본소프트 Systems and methods for creating beautiful three-dimensional characters used in metaverse

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214217A (en) * 1999-01-21 2000-08-04 Toshiba Microelectronics Corp Semiconductor testing method and semiconductor test system
JP3209213B2 (en) * 1999-04-07 2001-09-17 日本電気株式会社 Keyboard device and output signal blocking method used therefor
JP2007009860A (en) * 2005-07-04 2007-01-18 Calsonic Kansei Corp Fan shroud fitting structure for heat exchanger

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100737974B1 (en) * 2005-07-15 2007-07-13 황후 Image extraction combination system and the method, And the image search method which uses it
KR100805802B1 (en) * 2005-12-09 2008-02-21 한국전자통신연구원 Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it
KR100930722B1 (en) * 2007-12-28 2009-12-09 주식회사 케이티 3D image generating method and apparatus using hierarchical image model, image recognition method, feature point extraction method, and recording medium recording program for performing the method
WO2009128783A1 (en) * 2008-04-14 2009-10-22 Xid Technologies Pte Ltd An image synthesis method
WO2009128784A1 (en) * 2008-04-14 2009-10-22 Xid Technologies Pte Ltd Face expressions identification
US8374422B2 (en) 2008-04-14 2013-02-12 Xid Technologies Pte Ltd. Face expressions identification
US8624901B2 (en) 2009-04-09 2014-01-07 Samsung Electronics Co., Ltd. Apparatus and method for generating facial animation
WO2014003507A1 (en) * 2012-06-29 2014-01-03 인텔렉추얼디스커버리 주식회사 Image encoder pretreatment apparatus, and apparatus and method for generating three-dimensional face
KR101351745B1 (en) * 2012-06-29 2014-01-16 인텔렉추얼디스커버리 주식회사 Apparatus and method for generating 3 dimension face
KR102391239B1 (en) * 2021-10-26 2022-04-27 주식회사 피엘테크 Method for manufacturing battery module

Also Published As

Publication number Publication date
KR100815209B1 (en) 2008-03-19

Similar Documents

Publication Publication Date Title
CN108229278B (en) Face image processing method and device and electronic equipment
JP4723834B2 (en) Photorealistic three-dimensional face modeling method and apparatus based on video
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
JP3549013B2 (en) Eye position detection method, eye position detection device, and recording medium recording eye position detection program
US8698796B2 (en) Image processing apparatus, image processing method, and program
JP5976103B2 (en) Generate an avatar that reflects the player&#39;s appearance
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
KR101759188B1 (en) the automatic 3D modeliing method using 2D facial image
JP2008226125A (en) Eyelid detection apparatus, eyelid detection method and program therefor
CN108197534A (en) A kind of head part&#39;s attitude detecting method, electronic equipment and storage medium
KR100815209B1 (en) The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them
JP2007272435A (en) Face feature extraction device and face feature extraction method
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
Vishwakarma et al. Simple and intelligent system to recognize the expression of speech-disabled person
JP2000011143A (en) Facial feature recognition system
CN109448093B (en) Method and device for generating style image
CN113344837B (en) Face image processing method and device, computer readable storage medium and terminal
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
KR100618493B1 (en) The Apparatus and Method for Creating Three-Dimensional Image Automatically
Wakasugi et al. Robust lip contour extraction using separability of multi-dimensional distributions
CN111831123B (en) Gesture interaction method and system suitable for desktop mixed reality environment
CN114120422A (en) Expression recognition method and device based on local image data fusion
Bhavitha et al. Improved real-time approach to static hand gesture recognition
Devi et al. Active facial tracking
Saito et al. Face pose estimating system based on eigenspace analysis

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20110310

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee