KR100912872B1 - Apparatus and method for producing three-dimensional caricature - Google Patents

Apparatus and method for producing three-dimensional caricature Download PDF

Info

Publication number
KR100912872B1
KR100912872B1 KR1020020061583A KR20020061583A KR100912872B1 KR 100912872 B1 KR100912872 B1 KR 100912872B1 KR 1020020061583 A KR1020020061583 A KR 1020020061583A KR 20020061583 A KR20020061583 A KR 20020061583A KR 100912872 B1 KR100912872 B1 KR 100912872B1
Authority
KR
South Korea
Prior art keywords
face
caricature
eye
asm
dimensional
Prior art date
Application number
KR1020020061583A
Other languages
Korean (ko)
Other versions
KR20040032452A (en
Inventor
김재우
김동관
박준호
황의현
박동렬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020020061583A priority Critical patent/KR100912872B1/en
Priority to CNB031378749A priority patent/CN1313979C/en
Priority to US10/428,818 priority patent/US7535469B2/en
Priority to JP2003128014A priority patent/JP3924262B2/en
Publication of KR20040032452A publication Critical patent/KR20040032452A/en
Application granted granted Critical
Publication of KR100912872B1 publication Critical patent/KR100912872B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 3차원 캐리커쳐 생성 장치 및 방법에 관한 것으로서, 얼굴에 맞게 특화된 ASM 기법을 이용하여 얼굴 구성요소들의 특징점 정보를 정확하게 추출하고 이 특징점 정보를 기초로 3차원 폴리곤 얼굴 기본 모델을 변형시킴으로써 사용자의 얼굴과 유사성이 높은 3차원 캐리커쳐를 생성하는 것을 주목적으로 하며, 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리를 수행한 다음, 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 초기위치를 검출하고 검출된 초기위치에 대응하도록 전처리된 얼굴영상에 ASM을 로딩하여 특징점들을 추출한 후, 추출된 특징점들의 좌표값에 따라 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 것을 특징으로 한다.

Figure R1020020061583

3차원, 캐리커쳐, ASM

The present invention relates to an apparatus and method for generating a 3D caricature, which accurately extracts feature point information of facial components using an ASM technique specialized for a face, and modifies a 3D polygon face basic model based on the feature point information. The main objective is to create a three-dimensional caricature with high similarity to the face, and perform preprocessing to detect the position of the eye in the input face image and normalize the size of the face image. After detecting each initial position and loading feature points by preloading ASM to the preprocessed face image to correspond to the detected initial position, the 3D polygon face caricature is modified by modifying the 3D polygon face basic model according to the coordinate values of the extracted feature points. It characterized in that to generate.

Figure R1020020061583

3d caricature ASM

Description

3차원 캐리커쳐 생성 장치 및 방법{APPARATUS AND METHOD FOR PRODUCING THREE-DIMENSIONAL CARICATURE}3D caricature generation device and method {APPARATUS AND METHOD FOR PRODUCING THREE-DIMENSIONAL CARICATURE}

도 1은 본 발명에 따른 3차원 캐리커쳐 생성 장치의 개략적인 블럭도이다.1 is a schematic block diagram of a three-dimensional caricature generating apparatus according to the present invention.

도 2는 도 1에 도시된 전처리부의 상세 구성도이다.FIG. 2 is a detailed configuration diagram of the preprocessor shown in FIG. 1.

도 3은 본 발명에 따른 3차원 캐리커쳐 생성 방법의 흐름도이다.3 is a flowchart of a three-dimensional caricature generation method according to the present invention.

도 4는 도 3에 있어서 전처리 단계의 상세 흐름도이다.4 is a detailed flowchart of the preprocessing step in FIG. 3.

도 5는 도 3에 있어서 전송된 3차원 캐리커쳐를 복원하는 방법의 흐름도이다.FIG. 5 is a flowchart of a method of restoring a three-dimensional caricature transmitted in FIG. 3.

도 6은 얼굴영상의 일예를 나타낸 도면이다.6 is a diagram illustrating an example of a face image.

도 7 및 도 8은 설정된 임계값에 따라 얼굴영상을 이진화한 결과를 나타낸 도면이다.7 and 8 illustrate results of binarizing a face image according to a set threshold value.

도 9는 이진화의 임계값 변화에 따라 얼굴영상에서 눈이 차지하는 크기가 변화되는 것을 나타낸 도면이다. 9 is a view showing that the size of the eye occupies in the face image according to the change in the threshold value of binarization.

도 10은 본 발명에 따라 입력된 얼굴영상에서 특징점을 추출하는 일예를 도시한 도면이다. 10 is a diagram illustrating an example of extracting feature points from an input face image according to the present invention.

도 11은 얼굴 구성요소의 초기위치 검출에 의하여 ASM 적응화 성능이 향상된 일예를 도시한 도면이다. FIG. 11 is a diagram illustrating an example in which ASM adaptation performance is improved by initial position detection of a facial component.                 

도 12는 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 것을 설명하기 위한 도면이다. 12 is a diagram for describing generating a 3D polygon face caricature.

도 13은 3차원 폴리곤 얼굴 기본 모델을 변형하는 것을 설명하기 위한 도면이다.FIG. 13 is a diagram for explaining deforming a 3D polygon face basic model.

도 14는 과장성이 강조된 캐리커쳐의 일예를 도시한 도면이다.14 is a diagram illustrating an example of a caricature with emphasis on exaggeration.

* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10...메모리부 11...학습 데이터 DB10 ... Memory 11 ... Learning data DB

13...2차원 얼굴 텍스쳐 DB 15...3차원 폴리곤 얼굴 기본 모델 DB13 ... 2D Face Texture DB15 ... 3D Polygon Face Base Model DB

17...3차원 신체 모델 DB 30...영상처리부17 ... 3D Body Model DB 30 ... Image Processing Unit

31...전처리부 33...얼굴 구성요소 초기위치 검출부31 Pre-processing unit 33 ... Face component initial position detection unit

35...ASM 로딩부 37...ASM 적응부 35 ... ASM loading part 37 ... ASM adaptation part

39...캐리커쳐 생성부 39a...얼굴 캐리커쳐 생성부39.Caricature generator 39a ... Face caricature generator

39b...신체 캐리커쳐 생성부 40...투영부39b ... body caricature generator 40 ... projection unit

50...캐리커쳐 저장부 70...캐리커쳐 송수신부50 ... Caricature storage 70 ... Caricature transmission and reception

본 발명은 3차원 캐리커쳐 생성 방법 및 장치에 관한 것으로서, 특히 얼굴에 맞게 특화된 ASM(Active Shape Model) 기법을 이용하여 얼굴 구성요소에 대한 특징점 정보를 정확하게 추출하고 이 특징점 정보를 기초로 3차원 폴리곤 얼굴 기본 모 델을 변형시킴으로써 사용자의 얼굴과 유사성이 높은 3차원 캐리커쳐를 생성하는 장치 및 방법에 관한 것이다.The present invention relates to a method and apparatus for generating a three-dimensional caricature, in particular, using feature-specific Active Shape Model (ASM) techniques to accurately extract feature point information on the face components and based on this feature point information three-dimensional polygon face The present invention relates to an apparatus and method for generating a three-dimensional caricature with high similarity to a user's face by modifying a basic model.

일반적으로, 캐리커쳐는 인물 또는 의인화된 동식물을 소재로 익살, 유머, 풍자 등의 효과를 노려서 그린 그림으로, 사용자의 호기심이나 대리 만족, 개인이 요구하는 이상적인 인물 등의 의미를 내포하며, 주로 연예인이나 스포츠 선수들이 홍보수단으로 활용하여 왔으나, 요즘에는 일반인들에게도 널리 이용되고 있는 실정이다. In general, a caricature is a picture of a person or anthropomorphic animals or animals, aimed at humor, humor, satire, etc., and includes meanings such as user's curiosity, surrogate satisfaction, and the ideal person required by the individual. Sports athletes have been used as a promotional means, but nowadays it is widely used by the general public.

전통적인 방식으로 캐리커쳐는 전문 캐리커쳐 디자이너의 수작업을 통해 완성되어 왔지만, 일반인의 관심도 증가에 따라 전문가의 손을 빌리지않고도 캐리커쳐 생성이 가능한 기술들이 개발되고 있다. In the traditional way, caricatures have been completed by professional caricature designers, but with increasing public interest, technologies are being developed that can create caricatures without the need for expert hands.

일례로, 사용자가 클립아트 데이터베이스로부터 눈,코,입 등의 얼굴 윤곽선을 형성하는데 필요한 클립아트들을 선택하여 조합하고 각종 악세서리 또는 옷 등을 입혀 최종 캐리커쳐를 완성하는 것을 들 수 있다. 그러나, 이러한 방법은 사용자가 자신의 얼굴 특징과 가장 가까운 클립아트를 선택하기가 매우 어렵다는 문제점 때문에 유사성 부족으로 인한 불만이 많이 제기되고 있다. For example, a user may select and combine clip arts required to form a face contour such as eyes, nose, and mouth from a clip art database, and complete various final accessories by applying various accessories or clothes. However, this method has a lot of complaints due to the lack of similarity due to the problem that the user is very difficult to select the clip art closest to their facial features.

국내 공개특허 제2000-63391호(캐리커쳐 제작 방법)에는 사진에 담긴 얼굴에서 먼저 전체적인 얼굴형태를 완성하고, 상기 얼굴 형태에 적용될 얼굴 각 요소의 위치, 비율, 종류를 계산하고, 최종적으로 다양한 크기와 사이즈를 갖는 미리 구축된 얼굴 각 요소에 대한 데이터베이스로부터 얼굴 각 요소에 대한 모델을 추출한후 합성함으로써 캐리커쳐를 제작하는 방법이 개시되어 있다. 그러나, 단순히 얼굴 크기 대비 얼굴 각 요소의 위치 정보만을 이용하기 때문에 얼굴 각 요소에 대한 정확한 특징점 추출은 거의 불가능하며, 따라서 자신의 얼굴특징과 가까운 캐리커쳐의 생성은 어렵게 된다. Korean Patent Laid-Open No. 2000-63391 (caricature manufacturing method) first completes the overall face shape from the face in the picture, calculates the position, ratio, and type of each element to be applied to the face shape, and finally the various sizes and A method of manufacturing a caricature is disclosed by extracting a model for each face element from a database of face-each face elements having a size and then synthesizing the model. However, since only the position information of each face element is used in comparison with the face size, accurate feature point extraction for each face element is almost impossible, and thus, the creation of a caricature close to the face feature is difficult.

또한, 국내 공개특허 제2000-49421호(캐리커쳐 제작 시스템 및 시스템을 이용한 캐리커쳐 제작방법)에는 소프트웨어를 통해 편집된 사진의 각 구성부분과 얼굴의 각 부위별 캐리커쳐가 저장되어 있는 각 부위별 캐리커쳐를 비교하여 필요한 얼굴의 각 부위를 데이터베이스에 있는 데이터로 교체하여 캐리커쳐로 변환하는 방법이 개시되어 있다. 그러나, 이러한 방법은 색조변환에 의해 천연색으로 구성된 원본 데이터가 흑백으로 분리되는 사진편집과정을 요구하기 때문에 실질적으로 칼라를 가지는 캐리커쳐 생성은 불가능하다는 한계를 드러낸다. In addition, Korean Patent Publication No. 2000-49421 (Caricature manufacturing system and method of manufacturing a caricature using the system) compares the caricature for each part that stores the caricature for each part of the photo edited by the software and each part of the face. A method of converting each part of a face needed into data in a database and converting it into a caricature is disclosed. However, since this method requires a photo editing process in which the original data composed of natural colors are separated into black and white by tonal conversion, it is impossible to generate a caricature having a substantially colored color.

이밖에, 국내 공개특허 제2000-64110호(얼굴 영상에 기반한 캐릭터 자동 생성 장치 및 방법)는 입력된 얼굴 영상과 참조 영상의 대응점 정보를 사용하여 얼굴의 형태정보를 추출하고 이를 기반으로 얼굴영상을 재합성하여 보다 자연스럽고 정교한 캐리커쳐 영상을 얻는 방법을 개시하고 있다. 그러나, 이 방법은 상기 국내 공개특허 제2000-63391호와 같이 미리 준비된 참조 영상을 얼굴 영상과 합성하는 단순한 방식을 취하고 있으며, 특히 얼굴 영상으로부터의 얼굴 특징점 추출에 대해 구체적으로 제시하지 못하고 있다. In addition, Korean Patent Laid-Open Publication No. 2000-64110 (apparatus and method for automatically generating a character based on a face image) extracts face shape information by using corresponding point information of an input face image and a reference image, and based on the extracted face image. A method of resynthesizing to obtain a more natural and sophisticated caricature image is disclosed. However, this method takes a simple method of synthesizing a pre-prepared reference image with a face image as in Korean Patent Laid-Open No. 2000-63391, and does not specifically present a face feature point extraction from the face image.

한편, 전술한 특허들은 모두 2차원 캐리커쳐 생성에 관한 것이지만, 최근들면서 얼굴 모델링 기법을 이용한 3차원 캐리커쳐 생성에 대한 연구가 활발히 진행되고 있다. On the other hand, the above-mentioned patents are all related to the generation of two-dimensional caricature, but in recent years, research on the generation of three-dimensional caricature using the face modeling technique is actively in progress.                         

이와 같은 3차원 캐리커쳐 생성 기술들중 하나로서, '디지털화된 초상 형성 장치 및 방법(System and Method for Creating a Digitized Likeness of Persons)' 란 제목으로 허여된 미국특허 제5,960,099호에 개시된 바와 같이, 정면과 측면의 2장의 얼굴 영상을 이용하여 얼굴의 특징, 즉 얼굴의 각 부위의 위치를 통계적 자료를 통하여 추정하고, 이에 따라 표정이 변화된 초상화를 생성하는 기술이 있다. 그러나, 이러한 기술은 정면과 측면의 얼굴 영상을 이용하여 표정이 변화된 초상화를 만들어줄 때 통계적 자료를 통하여 얼굴 특징을 추정하기 때문에 원본 영상의 얼굴 특징을 정확히 찾아낼 수 없는 문제점을 갖는다.As one of such three-dimensional caricature generation techniques, as described in US Patent No. 5,960,099 entitled 'System and Method for Creating a Digitized Likeness of Persons', There is a technique of estimating the characteristics of the face, that is, the position of each part of the face through statistical data using two face images on the side, and generating a portrait with a changed expression. However, this technique has a problem in that it is not possible to accurately find the facial features of the original image because the facial features are estimated through statistical data when the portraits of the facial expressions are changed using the front and side face images.

또 다른 3차원 캐리커쳐 생성 기술로서, 국내 공개특허 제2001-69820호(2차원 영상으로부터 3차원 얼굴영상의 획득 방법 및 시스템)에는 정면 및 측면사진으로부터 눈, 코, 입, 귀, 눈썹 그리고 얼굴 외곽선, 콧등을 지나는 외곽선 모형, 머리카락의 특징 등을 추출한 후, 3차원 얼굴형상 데이터베이스(많은 실제 사람얼굴들이 축적되어 있음)로부터 상기 추출된 얼굴특징과 유사한 다수의 3차원 얼굴형상을 선정하여 사용자로 하여금 자신의 얼굴사진과 가장 유사한 3차원 얼굴형상을 선정하는 기술이 개시되어 있다. 그러나, 여전히 미리 구축되어 있는 얼굴형상 데이터베이스와의 단순한 비교를 통해 가장 유사한 3차원 얼굴형상을 얻고 있으며, 보다 섬세한 부분의 수정을 위해서는 수정 전문가에 의한 별도의 수작업 공정을 필요로 한다는 단점을 가진다.As another 3D caricature generation technology, Korean Patent Publication No. 2001-69820 (Method and System for Acquiring 3D Face Image from 2D Image) includes eye, nose, mouth, ear, eyebrow and face outlines from front and side pictures. After extracting the outline model passing through the nose, hair features, etc., a user selects a plurality of three-dimensional face shapes similar to the extracted face features from a three-dimensional face shape database (a lot of real human faces are accumulated). Disclosed is a technique for selecting a three-dimensional face shape most similar to one's own face photograph. However, the most similar three-dimensional face shape is obtained through simple comparison with the face shape database which is already built in advance, and has a disadvantage of requiring a separate manual process by a correction expert to correct more detailed parts.

본 발명이 이루고자 하는 기술적 과제는, 얼굴에 맞게 특화된 ASM 기법을 이 용하여 얼굴 구성요소에 대한 특징점 정보를 정확하게 추출하고, 이 특징점 정보를 기초로 하여 3차원 폴리곤 얼굴 기본 모델을 변형시킴으로써 사용자의 얼굴과 유사성이 높은 3차원 캐리커쳐를 생성하는데 있다.The technical problem to be achieved by the present invention is to accurately extract feature point information for facial components using ASM technique that is specialized for the face, and to modify the 3D polygon face basic model based on the feature point information to the user's face and It is to generate three-dimensional caricature with high similarity.

상기 목적을 달성하기 위하여 본 발명에 따른 3차원 캐리커쳐 생성 장치는, 3차원 캐리커쳐 생성에 필요한 ASM과 3차원 폴리곤 얼굴 기본 모델이 저장된 메모리부, 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리부, 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 초기위치를 검출하는 얼굴 구성요소 초기위치 검출부, 검출된 초기위치에 대응하도록 메모리부에 저장된 ASM을 전처리된 얼굴영상에 로딩하는 ASM 로딩부, 로딩된 ASM을 적응화시켜 얼굴 구성요소에 대한 특징점들을 추출하는 ASM 적응부; 및 메모리부로부터 3차원 폴리곤 얼굴 기본 모델을 로딩한 후 ASM 적응부를 통하여 추출된 특징점들의 좌표값에 따라 로딩된 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 캐리커쳐 생성부를 포함하는 것을 특징으로 한다.In order to achieve the above object, a three-dimensional caricature generating apparatus according to the present invention comprises a memory unit storing an ASM and a three-dimensional polygon face basic model required for generating a three-dimensional caricature, and detecting an eye position from an input face image. Pre-processing unit for normalizing the size, Facial component initial position detection unit for detecting each initial position of the facial component in the pre-processed face image, Loading the ASM stored in the memory unit to correspond to the detected initial position in the pre-processed face image An ASM loading unit, an ASM adaptor adapted to extract the feature points for the facial component by adapting the loaded ASM; And a caricature generation unit for generating a 3D polygon face caricature by loading the 3D polygon face basic model from the memory unit and modifying the loaded 3D polygon face base model according to the coordinate values of the feature points extracted through the ASM adaptor. It is characterized by.

본 발명의 다른 바람직한 실시예에 있어서, 3차원 폴리곤 얼굴 캐리커쳐를 2차원으로 투영시켜 2차원 얼굴 캐리커쳐를 획득하는 투영부를 더 포함하는 것을 특징으로 한다.In another preferred embodiment of the present invention, it characterized in that it further comprises a projection for obtaining a two-dimensional face caricature by projecting the three-dimensional polygon face caricature in two dimensions.

본 발명의 또 다른 바람직한 실시예에 있어서, 3차원 폴리곤 얼굴 캐리커쳐에서 특징점들의 좌표값 및 메모리 참조값을 추출하여 전송하는 캐리커쳐 송수신부를 더 포함하는 것을 특징으로 한다. In another preferred embodiment of the present invention, the caricature transceiver further comprises extracting and transmitting the coordinate values and the memory reference values of the feature points in the three-dimensional polygon face caricature.                     

이하, 본 발명에 따른 3차원 캐리커쳐 생성 장치의 구성과 동작에 대하여 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, the configuration and operation of a three-dimensional caricature generating device according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 3차원 캐리커쳐 생성 장치(100)의 개략적인 블럭도로서, 메모리부(10), 영상처리부(30), 투영부(40), 캐리커쳐 저장부(50), 캐리커쳐 송수신부(70)로 구성된다. 1 is a schematic block diagram of a three-dimensional caricature generating apparatus 100 according to the present invention, a memory unit 10, an image processing unit 30, a projection unit 40, a caricature storage unit 50, a caricature transmission and reception unit It consists of 70.

메모리부(10)에는 3차원 캐리커쳐 생성에 필요한 학습 데이터, 2차원 얼굴 텍스쳐, 3차원 폴리곤 얼굴 기본 모델, 3차원 신체 모델 등이 데이터베이스(Data Base, 이하 DB라 함) 형태로 저장되어 있는데, 이하 이들 학습 데이터 DB(11), 2차원 얼굴 텍스쳐 DB(13), 3차원 폴리곤 얼굴 기본 모델 DB(15), 3차원 신체 모델 DB(17)에 대하여 간략하게 설명한다. In the memory unit 10, training data necessary for generating a 3D caricature, a 2D face texture, a 3D polygon face basic model, a 3D body model, and the like are stored in a database form. These learning data DB 11, the two-dimensional face texture DB 13, the three-dimensional polygon face base model DB 15, and the three-dimensional body model DB 17 are briefly described.

학습 데이터 DB(11)에는 다양한 형태의 눈썹, 눈, 코, 입, 얼굴윤곽선을 학습 패턴으로 사용하여 얻어진 정면/측면 ASM들과, 이 ASM들의 평균 위치 좌표 및 ASM의 형태적 변화 특징 데이터들이 저장되며, 2차원 얼굴 텍스쳐 DB(13)에는 3차원 폴리곤 얼굴 기본 모델에 텍스처링하기 위한 2차원 얼굴 텍스쳐들이 저장된다. 여기에서, 2차원 얼굴 텍스쳐들은 3차원 얼굴 캐리커쳐에 다양한 색상정보를 반영할 수 있도록 변화될 수 있는데, 예를 들어 화장한 경우의 입술색, 조명으로 인한 피부색의 밝기 변화 등을 3차원 얼굴 캐리커쳐에 반영함으로써 보다 자연스럽고 정교한 캐리커쳐를 생성할 수 있도록 구성되어 있다.The training data DB 11 stores front / side ASMs obtained by using various types of eyebrows, eyes, noses, mouths, and facial contours as learning patterns, average position coordinates of these ASMs, and morphological change characteristic data of the ASMs. In the two-dimensional face texture DB 13, two-dimensional face textures for texturing the three-dimensional polygon face base model are stored. Here, the two-dimensional face textures can be changed to reflect various color information in the three-dimensional face caricature, for example, the lip color of the make-up and the change in the brightness of the skin color due to lighting are applied to the three-dimensional face caricature. It is structured to generate more natural and sophisticated caricatures by reflecting.

또한, 3차원 폴리곤 얼굴 기본 모델 DB(15)에는 여러 유형의 3차원 폴리곤 얼굴 기본 모델들이 저장되어 있는데, 이들 3차원 폴리곤 얼굴 기본 모델은 인종적/국가적 특징이 반영된 인류학적 표준 데이터를 기초로 구성되어 있으며, 3차원 신체 모델 DB(27)에는 헤어, 몸, 안경, 액세서리, 옷, 신발 등의 신체 구성요소를 캐리커쳐로 처리하기 위한 3차원의 신체 모델들이 저장되어 있다.In addition, the three-dimensional polygon face base model DB 15 stores various types of three-dimensional polygon face base models. These three-dimensional polygon face base models are constructed based on anthropological standard data reflecting racial and national characteristics. The three-dimensional body model DB 27 stores three-dimensional body models for processing caricatures of body components such as hair, body, glasses, accessories, clothes, and shoes.

한편, 상기 메모리부(10)는 학습 데이터, 2차원 얼굴 텍스쳐, 3차원 폴리곤 얼굴 기본 모델, 3차원 신체 모델 외에 다른 데이터들을 포함할 수도 있다.The memory unit 10 may include other data in addition to the training data, the two-dimensional face texture, the three-dimensional polygon face basic model, and the three-dimensional body model.

영상처리부(30)는 ASM 기법을 이용하여 얼굴의 각 부위에 대한 특징점 정보를 검출하고 검출된 특징점 정보를 기초로 3차원 얼굴 기본 모델을 변형시킴으로써 사용자의 얼굴특징이 반영된 3차원 캐리커쳐를 생성하는 역할을 하는 것으로서, 전처리부(31), 얼굴 구성요소 초기위치 검출부(33), ASM 로딩부(35), ASM 적응부(37), 캐리커쳐 생성부(39)로 구성된다.The image processor 30 detects feature point information of each part of the face using the ASM technique and generates a 3D caricature reflecting the user's face features by modifying the 3D face basic model based on the detected feature point information. It consists of a preprocessor 31, a facial component initial position detector 33, an ASM loading unit 35, an ASM adaptor 37, and a caricature generator 39.

전처리부(31)는 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리를 수행하기 위한 것으로서, 이하 전처리부(31)에 대하여 도 2를 참조하여 더 자세히 설명한다.The preprocessor 31 detects the position of the eye from the input face image and performs preprocessing to normalize the size of the face image. Hereinafter, the preprocessor 31 will be described in more detail with reference to FIG. 2.

도 2는 도 1에 도시된 전처리부의 상세 구성을 보여주는 도면으로서, 도 2에 도시된 바와 같이 전처리부(31)는 흑백화부(21), 얼굴영역 검출부(22), 눈 검출부(23), 및 얼굴 정규화부(28)를 포함한다.FIG. 2 is a diagram showing a detailed configuration of the preprocessor shown in FIG. 1. As shown in FIG. 2, the preprocessor 31 includes a black and whiteization unit 21, a face region detector 22, an eye detector 23, and And a face normalization unit 28.

흑백화부(21)는 입력된 얼굴영상이 칼라 이미지인 경우 이를 흑백 이미지로 변환하는데, RGB(Red, Green, Blue) 방식의 칼라 이미지에는 색상 성분과 밝기 성분이 함께 혼용되어 있기 때문에 특징점 추출시 밝기 변화에 의한 오류가 나타날 수 있기 때문이다. If the input face image is a color image, the black-and-white unit 21 converts the image into a black-and-white image. In the color image of RGB (Red, Green, Blue) method, the color component and the brightness component are mixed together, and thus the brightness of the feature point is extracted. This is because errors can be caused by change.                     

얼굴영역 검출부(22)는 가버 필터 응답(Gabor Filter Response)을 이용하여 입력된 영상에서 얼굴영역을 찾아내는데, 가버 필터를 이용한 얼굴영역 검출 방법은 입력된 얼굴영상에 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시키고 그 반응값에 따라 얼굴영역을 검출하는 것으로서, 영상처리 분야에서 일반적으로 사용되는 전처리 방법의 일종이므로 이에 대한 자세한 설명은 생략한다. The face region detector 22 detects a face region from an input image using a Gabor Filter Response. The face region detection method using a Gabor filter includes a Gabor filter having various directions and frequencies in the input face image. By applying a set of these and detecting the facial region according to the response value, it is a kind of pre-processing method generally used in the image processing field, so a detailed description thereof will be omitted.

눈 검출부(23)는 상기 얼굴영역 검출부(22)를 통하여 검출된 얼굴영역에서 원형의 모양을 가지면서 얼굴영역의 상부에 위치하고 흰색 가운데에 검은색을 띄는 부위, 즉 두 눈의 중심점(동공)을 검출한다. 여기에서, 두 눈의 중심점을 제일 먼저 검출하는 이유는 좌우로 대칭을 이루고 있는 두 눈의 중심점이 가장 검출하기 쉽고, 두 눈의 중심점 위치가 결정되면 얼굴의 다른 구성요소들의 위치는 적당한 비례 관계에 의해 쉽게 검출될 수 있기 때문이다.The eye detection unit 23 has a circular shape in the face area detected by the face area detection unit 22 and is positioned on the upper part of the face area and shows a black area in the middle of the white, that is, the center point (the pupil) of both eyes. Detect. Here, the first reason for detecting the center point of the two eyes is that the center points of the two eyes which are symmetrical from side to side are most easily detected. This can be easily detected by

캐리커쳐 생성을 위해 입력된 얼굴영상의 일예가 도 6에 도시되어 있는데, 도 6(a)와 같이 해상도가 높은 얼굴영상이 입력되면 눈의 에지를 추출한 후 추출된 눈의 에지 정보를 기초로 두 눈의 중심점을 검출할 수 있지만, 도 6(b)와 같이 해상도가 낮은 얼굴영상이 입력된 경우에는 눈이 거의 한점으로 인식되기 때문에 눈의 에지를 제대로 검출할 수 없을 뿐만 아니라, 눈의 에지가 검출된다 하더라도 눈썹과 눈이 잘 구별되지 않아 눈썹을 눈으로 잘못 인식할 우려가 있다. 이러한 에지 검출 방법 외에, 임계값(threshold)을 기준으로 256단계의 명도값을 가지는 흑백 얼굴영상을 검은색과 흰색으로 구분하면, 눈의 동공이 밝기가 매우 낮기 때문에 검은색을 띄게 되는 것을 이용하여 검은색을 가진 원형 영역을 두 눈의 중심점으로 검출하는 이진화 기법도 개시되어 있지만, 하나의 임계값만을 사용하는 종래의 이진화 기법으로는 해상도가 낮고 명암의 분포가 불규칙적인 얼굴영상에서 눈썹과 눈을 잘 구별할 수 없기 때문에 두 눈의 중심점을 정확하게 검출할 수가 없다는 한계점이 있다.An example of a face image input for caricature generation is illustrated in FIG. 6. When a face image having a high resolution is input as shown in FIG. 6 (a), the eyes are extracted and then the eyes are extracted based on the extracted edge information of the eyes. Although the center point can be detected, when the face image having a low resolution is input as shown in FIG. 6 (b), since the eye is recognized as almost one point, the edge of the eye cannot be detected properly and the edge of the eye is detected. Even if the eyebrows and eyes are not well distinguished, there is a risk of misrecognizing the eyebrows as eyes. In addition to the edge detection method, if a black and white face image having a brightness level of 256 levels based on a threshold is divided into black and white, the pupil of the eye is very low in brightness and thus becomes black. The binarization technique of detecting black circular regions as the center points of two eyes is also disclosed. However, the conventional binarization technique using only one threshold value is used to detect eyebrows and eyes in a face image having low resolution and irregular distribution. There is a limitation in that it is impossible to accurately detect the center point of the two eyes because it cannot be distinguished well.

따라서, 해상도가 낮은 얼굴영상에서도 두 눈의 위치를 정확하게 검출하기 위해서는 임계값을 얼굴영상의 상태에 따라 적절히 변화시켜야 하는데, 본 발명에서는 다음에서 설명되는 바와 같이 눈 검출부(23)를 통하여 눈썹과 눈이 모두 검게 일정한 영역을 가지고 나타날 때까지 임계값을 증가시켜가면서 이진화를 수행하며, 이를 위하여 눈 검출부(23)는 이진화부(24), 그룹핑부(25), 레이블링부(26), 및 판단부(27)를 포함한다.Therefore, in order to accurately detect the position of both eyes even in a low resolution face image, the threshold value should be appropriately changed according to the state of the face image. In the present invention, the eyebrow and the eye through the eye detector 23 will be described as follows. The binarization is performed while increasing the threshold value until all of them have a constant black area. For this purpose, the eye detection unit 23 is a binarization unit 24, a grouping unit 25, a labeling unit 26, and a determination unit. And (27).

이진화부(24)는 흑백 얼굴영상이 입력되면 이진화를 위한 임계값의 변화 범위를 설정한 다음, 임계값의 변화 범위내에서 임계값의 초기치를 설정하고 설정된 임계값을 기준으로 임계값 이상의 밝기를 가진 화소는 흰색으로 임계값 이하의 밝기를 가진 화소는 검은색으로 할당한다.When the black and white face image is input, the binarization unit 24 sets a change range of the threshold for binarization, sets an initial value of the threshold within the change range of the threshold, and sets the brightness above the threshold based on the set threshold. Pixels with white are assigned to black and pixels with brightness below the threshold are assigned to black.

설정된 임계값에 따라 이진화된 얼굴영상의 일예가 도 7 및 도 8에 도시되어 있다. 도 7 및 도 8에 도시된 바와 같이, 설정된 임계값에 따라 얼굴영상을 이진화하면 제일 먼저 눈썹이 검출되며, 임계값이 증가됨에 따라 눈, 코, 입 등이 검은색으로 나타나는 것을 알 수 있다. An example of a face image binarized according to a set threshold is illustrated in FIGS. 7 and 8. As shown in FIGS. 7 and 8, when the face image is binarized according to the set threshold value, the eyebrows are first detected, and as the threshold value is increased, the eyes, the nose, the mouth, and the like appear in black.

그룹핑부(25)는 이진화된 얼굴영상이 입력되면 눈썹과 눈에 해당하는 영역에서 검은색을 갖는 화소들을 여러 그룹으로 묶는 그룹핑(grouping)을 수행한다. 여 기에서, 그룹핑이란 검은색을 갖는 화소를 찾으면 그 화소주위에 위치하는 8개의 이웃하는 화소를 조사하여 검은색 화소들을 찾아내고 찾아낸 검은색 화소들을 하나의 그룹으로 묶는 것을 말한다.When the binarized face image is input, the grouping unit 25 performs grouping to group pixels having black color into various groups in the areas corresponding to the eyebrows and the eyes. In this case, when grouping a pixel having a black color, the grouping means searching black neighboring pixels located around the pixel to find the black pixels and grouping the found black pixels into a group.

레이블링부(26)는 상기 그룹핑부(25)를 통하여 검출된 여러 그룹들에 레이블을 매겨 여러 그룹들을 순서화한 후 동일한 레이블을 가진 영역을 고립 영역으로 추출한다. The labeling unit 26 labels the various groups detected by the grouping unit 25 to order the various groups, and then extracts the region having the same label as an isolated region.

판단부(27)는 눈썹과 눈은 항상 쌍을 이루고 눈썹이 눈 위에 위치한다는 점을 이용하여, 상측에 위치한 고립 영역에 대하여 수평 방향으로 크기의 변화가 크게 다르지 않은 고립 영역의 쌍이 있는지를 검사하여 있을 경우 이를 눈썹 후보 영역으로 인식하고, 눈썹 후보 영역 바로 아래에 근접하여 수평 방향으로 크기의 변화가 크게 다르지 않은 고립 영역의 쌍이 있는지를 검사하여 있을 경우 이를 눈 후보 영역으로 인식한다. The determination unit 27 checks whether there is a pair of isolated areas where the size of the eyebrows and the eyes are always paired and the eyebrows are located above the eyes, and the size change in the horizontal direction with respect to the upper isolated area is not significantly different. If it is present, it is recognized as an eyebrow candidate region, and if there is a pair of isolated regions where the size change is not significantly different in the horizontal direction near the eyebrow candidate region, it is recognized as an eye candidate region.

상기 레이블링부(26)를 통하여 추출된 고립 영역들 중에서 한쌍의 눈썹 후보 영역과 한쌍의 눈 후보 영역이 존재하지 않는 경우, 즉 두 눈썹과 두 눈 중 어느 하나라도 검출되지 않은 경우, 판단부(27)는 눈썹이 눈으로 잘못 인식되지 않도록 두 눈썹과 두 눈이 모두 검출될 때까지 임계값을 증가시켜가면서 이진화를 수행한다.If there is no pair of eyebrow candidate regions and one pair of eye candidate regions among the isolated regions extracted through the labeling unit 26, that is, if neither one of the two eyebrows and the two eyes is detected, the determination unit 27. ) Performs binarization by increasing the threshold until both eyebrows and both eyes are detected so that the eyebrows are not mistaken as eyes.

만약, 두 눈썹과 두 눈이 모두 검출된 경우 판단부(27)는 눈 후보 영역이 눈이 맞는지를 검증하기 위해서 눈의 크기, 모양, 위치에 대한 정보를 기준값으로 눈 후보 영역의 오차율을 계산하여 오차율이 허용가능한 범위 내인지를 판단하며, 눈 후보 영역의 오차율이 허용가능한 범위로 판단되면, 즉 눈 후보 영역이 눈이라고 판단되면 눈 후보 영역에서 두 눈의 중심점을 검출하는데, 이에 대하여는 도 4에 관한 설명에서 자세히 서술하기로 한다.If both eyebrows and both eyes are detected, the determination unit 27 calculates an error rate of the eye candidate area based on the information on the size, shape, and position of the eye to determine whether the eye candidate area is correct. It is determined whether the error rate is within an acceptable range, and if the error rate of the eye candidate region is determined to be an acceptable range, that is, if it is determined that the eye candidate region is an eye, the center points of the two eyes are detected in the eye candidate region. The description will be made in detail.

얼굴 정규화부(28)는 상기 눈 검출부(23)를 통하여 검출된 눈의 위치를 기초로 얼굴영역의 크기를 3차원 폴리곤 얼굴 기본 모델 DB(15)에 저장된 3차원 얼굴 기본 모델과 1:1 매핑될 수 있는 크기로 정규화하며, 얼굴영상이 약간 기울어진 경우 이를 정상각도로 보정한다. The face normalizer 28 performs 1: 1 mapping of the size of the face area with the 3D face basic model stored in the 3D polygon face base model DB 15 based on the position of the eye detected by the eye detector 23. Normalize to a size that can be, and if the face image is slightly inclined, correct it at a normal angle.

전처리부(31)를 통하여 얼굴영상을 전처리하는 일예가 도 10(a)~도 10(d)에 도시되어 있다. 우선 얼굴영상이 입력되면 전처리부(31)는 도 10(a)와 같이 얼굴영상을 흑백으로 변환하여 조명과 잡음에 의한 영향을 제거한 후, 도 10(b)에 도시된 바와 같이 원래의 얼굴영상에 가버 필터를 적용하여 얼굴과 유사한 특징들이 포함된 사각형의 얼굴영역을 검출한다. 그 다음, 전처리부(31)는 도 10(c)에 도시된 바와 같이 얼굴영역에서 두 눈의 중심점을 검출한 후, 도 10(d)에 도시된 바와 같이 검출된 얼굴영역과 두 눈의 중심점을 기초로 하여 얼굴영역의 크기를 정규화하는 동시에 기울기를 보정한다.An example of preprocessing a face image through the preprocessor 31 is illustrated in FIGS. 10A to 10D. First, when the face image is input, the preprocessing unit 31 converts the face image to black and white as shown in FIG. 10 (a) to remove the influence of illumination and noise, and then as shown in FIG. 10 (b). The Gabor filter is applied to detect a rectangular face area that includes face-like features. Then, the preprocessing unit 31 detects the center points of the two eyes in the face area as shown in FIG. 10 (c), and then detects the center of the face area and the two eyes as shown in FIG. 10 (d). On the basis of this, the size of the face area is normalized and the slope is corrected.

한편, 일반적인 ASM 기법을 이용하여 얼굴의 각 부위에 대한 특징점들을 추출하면, 특징점 추출시 눈썹을 눈으로 잘못 인식하거나 얼굴 구성요소가 각자 이상한 방향으로 이동하는 현상이 발생될 수도 있다. On the other hand, if the feature points for each part of the face are extracted by using the general ASM technique, the eyebrows may be misrecognized as the eyes when the feature points are extracted, or face components may move in strange directions.

이러한 현상을 방지하기 위하여, 본 발명에서는 얼굴 구성요소 초기위치 검출부(33)를 통하여 눈썹, 눈, 코, 입, 또는 얼굴 윤곽선의 대략적인 위치를 미리 설정해 놓고 ASM 적응화를 수행하는데, 이하 얼굴 구성요소의 초기위치 설정에 대하여 더 자세히 설명한다. In order to prevent this phenomenon, the present invention performs the ASM adaptation by setting the approximate positions of the eyebrows, eyes, nose, mouth, or facial contours in advance through the facial component initial position detector 33, which is described below. The initial position setting will be described in more detail.

입력된 얼굴영상에서 특징점을 추출할 때, 각 얼굴 구성요소의 ASM이 얼굴영상의 어디에 놓여진 상태에서 ASM 적응화가 이루어지는지가 아주 중요하다. 즉, ASM이 로딩되는 초기위치가 이후에 수행되는 ASM 적응화 성능에 아주 많은 영향을 미치게 되는데, 예를 들어 ASM이 로딩되는 초기위치를 잘 설정하면 적은 횟수의 적응화 과정만으로도 특징점을 정확하게 추출할 수 있지만, 초기위치를 잘못 설정하면 특징점 추출이 제대로 이루어지지 않을 수도 있다. When extracting the feature points from the input face image, it is very important that ASM adaptation is performed where the ASM of each face component is placed in the face image. That is, the initial position where ASM is loaded has a great influence on the performance of ASM adaptation performed afterwards. For example, if the initial position where ASM is loaded is set well, the feature points can be extracted accurately with only a few adaptations. If the initial position is set incorrectly, the feature point extraction may not work properly.

얼굴 구성요소 초기위치 검출부(33)는 흑백의 얼굴영상에 캐니 필터(canny filter)를 적용하여 각 얼굴 구성요소들의 초기위치를 검출하는데, 여기에서 캐니 필터는 가우시안 마스크(Gaussian masks)를 사용하여 에지를 검출함으로써 ASM이 로딩될 초기위치를 검출한다. The face component initial position detector 33 applies a canny filter to a black and white face image to detect an initial position of each face component, where the canny filter uses edges using Gaussian masks. Detects the initial position where the ASM will be loaded by detecting.

또한, 얼굴 구성요소의 초기위치를 검출할 때 상기와 같이 캐니 필터를 이용하는 방법 외에, 상기 눈 검출부(23)를 통하여 검출된 두 눈의 중심점을 기초로 얼굴 구성요소간의 기하학적인 위치 특성에 따라 눈썹, 눈, 코, 입의 초기위치를 검출할 수도 있다.In addition, in addition to the use of the Canny filter as described above when detecting the initial position of the face component, the eyebrows according to the geometric position characteristics between the face components based on the center point of the two eyes detected by the eye detector 23 You can also detect the initial positions of the eyes, nose, and mouth.

입력된 얼굴영상에서 각 얼굴 구성요소들의 초기위치를 검출하고 검출된 초기위치에 ASM을 로딩하여 특징점을 추출하는 일예가 도 10(e)~도 10(g)에 도시되어 있다. 도 10(e)에 도시된 바와 같이 캐니 필터를 통하여 눈썹, 눈, 코, 입, 또는 얼굴 윤곽선의 초기위치가 검출되면, 도 10(f)에 도시된 바와 같이 검출된 초기위 치에 ASM을 로딩하여 로딩된 ASM을 적응화시킴으로써 도 10(g)에 도시된 바와 같이 얼굴 구성요소에 대한 특징점들을 정확하게 추출할 수 있다.10 (e) to 10 (g) show an example of extracting feature points by detecting an initial position of each facial component from an input face image and loading an ASM at the detected initial position. As shown in FIG. 10 (e), when the initial position of the eyebrow, eye, nose, mouth, or face contour is detected through the Canny filter, the ASM is applied to the detected initial position as shown in FIG. 10 (f). By adapting the loaded and loaded ASM, it is possible to accurately extract the feature points for the facial component as shown in FIG. 10 (g).

한편, 각 얼굴 구성요소에 대한 ASM간에 일정한 관계를 유지하도록 하는 것도 특징점을 정확히 추출하는데 도움이 되는데, 예를 들면 오른쪽 눈 ASM은 아무리 적응화가 진행되어도 그 중점이 왼쪽 눈 ASM과 동일한 가로축 상에 존재해야 하며, 오른쪽 눈 ASM은 오른쪽 눈썹 ASM보다 언제나 아래에 위치해야 한다는 관계를 설정하면 ASM 적응화 성능이 향상된다. On the other hand, maintaining a constant relationship between ASMs for each facial component also helps to extract feature points accurately. For example, the right eye ASM is on the same horizontal axis as the left eye ASM, no matter how adapted. If you establish a relationship that the right eye ASM should always be below the right eyebrow ASM, ASM adaptation performance is improved.

얼굴 구성요소의 초기위치 검출과, 각 ASM간의 관계에 의한 제한조건을 가함으로써 ASM 적응화 성능이 향상된 일예가 도 11에 도시되어 있다. 도 11(a)에 도시된 바와 같이, 단지 눈의 위치만을 기초로 하여 입력된 얼굴영상에 각기 관련성을 부여받지 못한 ASM을 로딩하면 ASM 적응화가 진행될수록 입력된 얼굴영상에서 특징점들이 잘못 추출될 수 있다. 그러나, 도 11(b)에 도시된 바와 같이, 얼굴 구성요소 초기위치 검출부(33)를 통하여 얼굴 구성요소의 초기위치를 설정한 후, 설정된 초기위치를 기초로 하여 서로간에 관련성을 가진 ASM을 얼굴영상에 로딩하면 적은 횟수의 적응화 과정만으로도 특징점들이 정확하게 추출되는 것을 알 수 있다.11 shows an example in which the ASM adaptation performance is improved by applying an initial position detection of a facial component and a constraint based on the relationship between each ASM. As shown in FIG. 11 (a), when ASMs that are not given relevance are loaded on the input face images based only on eye positions, feature points may be incorrectly extracted from the input face images as the ASM adaptation proceeds. have. However, as shown in FIG. 11 (b), after setting the initial position of the facial component through the facial component initial position detecting unit 33, the ASM faces related to each other based on the set initial position. When loaded into the image, it can be seen that the feature points are accurately extracted even with a small number of adaptation processes.

즉, 얼굴 구성요소 초기위치 검출부(33)를 통하여 각 얼굴 구성요소의 초기위치가 검출되면, ASM 로딩부(31)는 검출된 초기위치에 대응하도록 얼굴영상에 학습 데이터 DB(11)로부터 서로간에 관련성을 가진 ASM을 로딩함으로써 ASM 적응화 성능을 향상시킬 수 있으므로 빠르고 정확하게 각 얼굴 구성요소에 대한 특징점들을 추출할 수 있다. That is, when the initial position of each facial component is detected through the facial component initial position detector 33, the ASM loading unit 31 is mutually different from the training data DB 11 on the face image so as to correspond to the detected initial position. Loading relevant ASMs can improve ASM adaptation performance, allowing fast and accurate extraction of feature points for each facial component.                     

특히, 본 발명에 있어서 학습 데이터 DB(11)에는 다양한 해상도 변화에 대응할 수 있도록 여러 해상도로 학습된 ASM들이 저장되어 있으므로, 선명한 얼굴영상을 촬상할 수 있는 사용자 인터페이스를 제공하기 어려운 환경, 예를 들면 소형 카메라가 달린 휴대폰으로부터 해상도가 낮은 얼굴영상이 입력된다 하더라도, 눈썹, 눈, 코, 입, 또는 얼굴 윤곽선에 대한 특징점들을 정확하게 추출할 수 있다. In particular, in the present invention, since the learning data DB 11 stores ASMs learned at various resolutions to cope with various resolution changes, it is difficult to provide a user interface capable of capturing a clear face image, for example. Even if a low resolution face image is input from a mobile phone with a small camera, feature points for eyebrows, eyes, nose, mouth, or facial contours can be accurately extracted.

ASM 적응부(37)는 사전에 얻어진 ASM의 형태적 변화 특징 데이터를 이용하여 로딩된 ASM을 적응화시켜 입력된 얼굴 구성요소에 대한 특징점들을 추출하여 추출된 특징점들의 X, Y 좌표값을 캐리커쳐 생성부(39)로 출력한다. 여기에서, ASM 적응화란 얼굴영상에 로딩된 ASM의 특징점들을 직선으로 연결하고 그 중점에서 직선에 대한 법선방향의 픽셀들에 대하여 탐색을 실시하여, 그 탐색영역에서 기본의 학습치와 최대 상관이 일어나는 픽셀을 새로운 중점으로 변경하고 변경된 중점에 맞게 특징점들의 위치를 변경시켜 나가는 과정을 반복함으로써 눈썹, 눈, 코, 입, 또는 얼굴 윤곽선에 대한 특징점들을 찾아내는 것을 말한다.The ASM adaptor 37 adapts the loaded ASM by using the morphological change feature data of the previously obtained ASM, extracts feature points for the input face components, and then extracts the X and Y coordinate values of the extracted feature points. Output to (39). Here, the ASM adaptation means that the feature points of the ASM loaded in the face image are connected in a straight line and searched for pixels in the normal direction with respect to the straight line at the midpoint thereof, where the maximum correlation with the basic learning value occurs in the search area. It is to find the feature points on the eyebrows, eyes, nose, mouth, or face contour by repeating the process of changing the pixel to a new midpoint and changing the position of the feature points according to the changed midpoint.

그러나, 지금까지 ASM 적응화에 있어서 탐색영역을 어떻게 설정하는지에 대한 기준이 없었으며, 이로 인하여 탐색영역이 지나치게 넓을 경우 찾아야할 영역을 크게 벗어나 엉뚱한 곳에 있는 특징점들을 추출하거나, 탐색영역이 너무 작은 경우 ASM 적응화에 너무 많은 시간이 소비될 우려가 있었다.However, until now, there have been no criteria on how to set the search area in ASM adaptation. As a result, if the search area is too wide, it is possible to extract the feature points in the wrong place by greatly escaping the area to be searched, or when the search area is too small. Too much time was spent on adaptation.

또한, 대부분의 특징점들이 원하는 영역내에서 추출되었다 하더라도 한 두개의 특징점이 엉뚱한 곳에서 추출되면 특징점들 전체의 모양이 완전히 흐트러질 우려도 있었다. 예를 들면, 콧방울이 있는 부분과 윗입술 중앙의 오목하게 들어간 부 분은 그 형태와 위치가 서로 비슷한데, 이 때 입술선을 찾는 특징점들의 탐색영역이 지나치게 크면 콧방울이 있는 부분을 입술 윗선으로 착각할 수도 있다. 다시 말해, ASM의 적응화 단계에서 한 두개의 특징점을 잘못 추출하면, 이로 인해 다른 특징점들도 잘못 추출될 가능성이 높아진다.In addition, even if most of the feature points were extracted in a desired area, if one or two feature points were extracted from the wrong place, there was a fear that the shape of the feature points would be completely disturbed. For example, the nostrils and the concave portion of the upper lip are similar in shape and position, but if the search areas of the feature points seeking the lip line are too large, the nostrils may be mistaken for the upper lip. . In other words, if one or two feature points are incorrectly extracted in the adaptation phase of the ASM, this increases the likelihood that other feature points will be incorrectly extracted.

따라서, 가능한 ASM 적응화 단계에서 특징점이 잘못 추출되지 않도록 탐색영역을 제한할 필요가 있으며, 이를 위하여 본 발명에서는 다음과 같이 각 얼굴 구성요소에 대한 특징점 추출의 탐색영역을 미리 제한한 상태에서 ASM 적응화를 수행한다.Therefore, it is necessary to limit the search area so that the feature point is not extracted incorrectly in the ASM adaptation step. To this end, in the present invention, the ASM adaptation is performed in a state in which the search area of the feature point extraction for each face component is limited as follows. To perform.

예를 들어, 눈의 경우 눈의 윗쪽 특징점들의 탐색영역은 눈썹과의 거리의 1/2 이하가 되도록 제한하고, 눈의 아래쪽 특징점들의 탐색영역은 눈 상하폭의 1/2 이하가 되도록 제한한다. 또한, 코의 경우 콧구멍 및 콧방울에 해당되는 특징점들의 탐색영역은 윗입술과의 거리의 1/2 이하가 되도록 제한하고, 입술의 경우 입술 윗쪽 특징점들의 탐색영역은 콧방울과의 거리의 1/2 이하가 되도록 제한하며, 입술 아랫쪽 특징점들의 탐색영역은 입술 상하폭의 1/3 이하가 되도록 제한한다. For example, in the case of the eye, the search area of the upper feature points of the eye is limited to 1/2 or less of the distance to the eyebrows, and the search area of the lower feature points of the eye is limited to 1/2 or less of the upper and lower widths of the eye. Also, in the case of the nose, the search area of the feature points corresponding to the nostrils and the nostrils is limited to be 1/2 or less of the distance from the upper lip, and in the case of the lips, the search area of the upper feature points of the lip is less than 1/2 the distance from the nostril The search area of the lower feature points of the lips is limited to 1/3 or less of the upper and lower widths of the lips.

상기 탐색영역의 제한치는 여러번의 실험을 통하여 얻어진 특징점 추출 오류를 최소화할 수 있는 값이며, 이러한 탐색영역의 제한에 의하여 특징점 추출의 신뢰성을 높일 수 있다.The limit value of the search region is a value capable of minimizing a feature point extraction error obtained through a number of experiments, and the reliability of the feature point extraction can be increased by the limitation of the search region.

다시 도 1을 참조하면, 캐리커쳐 생성부(39)는 3차원 얼굴 캐리커쳐를 생성하는 얼굴 캐리커쳐 생성부(39a) 및 3차원 신체 캐리커쳐를 생성하는 신체 캐리커쳐 생성부(39b)로 구성되어 있는데, 이에 대하여는 도 3에 관한 설명에서 자세히 서술하기로 하고 이하 약술한다.Referring again to FIG. 1, the caricature generator 39 is composed of a face caricature generator 39a for generating a three-dimensional face caricature and a body caricature generator 39b for generating a three-dimensional body caricature. It will be described in detail in the description with respect to Figure 3 and will be outlined below.

얼굴 캐리커쳐 생성부(39a)는 ASM 적응화를 통하여 추출된 얼굴 특징점 정보를 이용하여 3차원 폴리곤 얼굴 기본 모델을 변형시킴으로써 사용자의 얼굴특징이 반영된 3차원 얼굴 캐리커쳐를 생성하며, 신체 캐리커쳐 생성부(39b)는 3차원 신체 모델 DB(15)에 저장된 헤어, 몸, 안경, 액세서리, 옷, 신발 등의 신체 구성요소 등의 3차원 신체 모델을 기초로 하여 3차원 신체 캐리커쳐를 생성한다.The face caricature generation unit 39a generates a three-dimensional face caricature reflecting the user's face features by modifying the three-dimensional polygon face basic model using the facial feature point information extracted through ASM adaptation, and the body caricature generation unit 39b. Generates a 3D body caricature based on a 3D body model such as body components such as hair, body, glasses, accessories, clothes, shoes, etc. stored in the 3D body model DB 15.

투영부(40)는 2차원 캐리커쳐가 필요한 경우 캐리커쳐 생성부(39)를 통하여 생성된 3차원 캐리커쳐를 2차원으로 투영시켜 2차원 캐리커쳐를 생성하며, 캐리커쳐 저장부(50)는 캐리커쳐 생성부(39)를 통하여 생성된 3차원 캐리커쳐를 저장한다. If the two-dimensional caricature is required, the projection unit 40 generates a two-dimensional caricature by projecting the three-dimensional caricature generated through the caricature generation unit 39 in two dimensions, and the caricature storage unit 50 is the caricature generation unit 39 Save the 3D caricature created by

한편, 캐리커쳐 생성부(39)에서 생성된 3차원 캐리커쳐는 캐리커쳐 송수신부(70)를 통하여 무선 또는 유선으로 다른 3차원 캐리커쳐 생성 장치(100)로 전송될 수 있는데, 이 때 캐리커쳐 송수신부(70)는 전송되는 데이터의 용량을 줄이기 위해 3차원 캐리커쳐에서 특징점들의 좌표값 및 메모리 참조값을 추출하여 다른 다른 3차원 캐리커쳐 생성 장치(100)로 전송한다. 이렇게 전송된 특징점들의 좌표값 및 메모리 참조값은 다른 3차원 캐리커쳐 생성 장치(100)내의 캐리커쳐 송수신부(70)를 통하여 다시 3차원 캐리커쳐로 복원될 수 있는데, 3차원 캐리커쳐를 복원하는 방법에 대하여는 도 5에 관한 설명에서 자세히 서술하기로 한다.On the other hand, the three-dimensional caricature generated by the caricature generation unit 39 may be transmitted to the other three-dimensional caricature generation device 100 by wireless or wired through the caricature transmission and reception unit 70, at this time the caricature transmission and reception unit 70 In order to reduce the volume of data to be transmitted, the coordinate values and the memory reference values of the feature points are extracted from the 3D caricature and transmitted to another 3D caricature generating device 100. The coordinate values and the memory reference values of the transmitted feature points may be restored to the 3D caricature through the caricature transceiver 70 in the other 3D caricature generating apparatus 100. A method of restoring the 3D caricature is described with reference to FIG. 5. This will be described in detail in the description.

참고로, 전술한 본 발명의 구성 요소들은 하드웨어로 구현될 경우 당업자에 의해 다양한 변형 및 균등한 실시예가 가능하다. 예를 들면, 본 발명에서 학습 데 이터, 2차원 얼굴 텍스쳐, 3차원 폴리곤 얼굴 기본 모델, 3차원 신체 모델 외에 다른 데이터들이 저장되는 메모리부(10)는, ASM 로딩부(35), ASM 적응부(37) 또는 캐리커쳐 생성부(39) 등이 별도의 메모리를 포함할 경우 다수의 메모리로 분할하여 구성될 수 있으며, ASM 로딩부(35), ASM 적응부(37) 또는 캐리커쳐 생성부(39) 등의 구성 요소들은 마이크로 프로세스에서 구동되는 소프트웨어로 구현될 수 있다.For reference, the above-described components of the present invention may be variously modified and equivalent embodiments by those skilled in the art when implemented in hardware. For example, in the present invention, the memory unit 10 in which other data is stored besides the learning data, the 2D face texture, the 3D polygon face base model, and the 3D body model may include an ASM loading unit 35 and an ASM adapting unit. If the 37 or the caricature generator 39 includes a separate memory, the memory may be divided into a plurality of memories, and the ASM loading unit 35, the ASM adaptor 37, or the caricature generator 39 may be configured. Such components may be implemented in software running in a microprocessor.

한편, 본 발명에 따른 3차원 캐리커쳐 생성 방법은, 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리 단계, 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 초기위치를 검출하는 단계, 검출된 초기위치에 대응하도록 ASM을 전처리된 얼굴영상에 로딩한 후 로딩된 ASM을 적응화시켜 특징점들을 추출하는 단계, 및 3차원 폴리곤 얼굴 기본 모델을 로딩한 후 ASM 적응화를 통하여 추출된 특징점들의 좌표값에 따라 로딩된 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 단계를 포함하는 것을 특징으로 한다.On the other hand, the three-dimensional caricature generation method according to the present invention, a pre-processing step of detecting the position of the eye in the input face image and normalizes the size of the face image, detecting each initial position of the face components in the pre-processed face image Extracting feature points by loading the ASM onto the preprocessed face image to correspond to the detected initial position, and then extracting the feature points by loading the ASM, and loading the feature point extracted through the ASM adaptation after loading the 3D polygon face basic model. And modifying the loaded 3D polygon face basic model according to the coordinate values of the 3D polygon face caricatures.

본 발명의 다른 바람직한 실시예에 있어서, 3차원 폴리곤 얼굴 캐리커쳐를 2차원으로 투영시켜 2차원 얼굴 캐리커쳐를 획득하는 단계를 더 포함하는 것을 특징으로 한다.In another preferred embodiment of the present invention, the method further comprises obtaining a two-dimensional face caricature by projecting the three-dimensional polygon face caricature in two dimensions.

본 발명의 또 다른 바람직한 실시예에 있어서, 3차원 폴리곤 얼굴 캐리커쳐에서 특징점들의 좌표값 및 메모리 참조값을 추출하여 전송하는 단계를 더 포함하는 것을 특징으로 한다. In another preferred embodiment of the present invention, the method further comprises extracting and transmitting the coordinate values and the memory reference values of the feature points in the three-dimensional polygon face caricature.

이하, 본 발명에 따른 3차원 캐리커쳐 생성 방법에 대하여 첨부된 도면들을 참조하여 상세히 설명한다.Hereinafter, a three-dimensional caricature generation method according to the present invention will be described in detail with reference to the accompanying drawings.

도 3은 본 발명에 따른 3차원 캐리커쳐 생성 방법의 흐름도이다.3 is a flowchart of a three-dimensional caricature generation method according to the present invention.

얼굴영상이 입력되면 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리를 수행하는데(S10), 이하 도 4를 참조하여 전처리 단계(S10)에 대하여 더 자세히 설명한다.When the face image is input, the preprocessing of detecting the position of the eye from the input face image and normalizing the size of the face image is performed (S10). Hereinafter, the preprocessing step (S10) will be described in detail with reference to FIG.

도 4는 도 3에 있어서 얼굴영상 전처리 단계의 상세 흐름도이다.4 is a detailed flowchart of a face image preprocessing step of FIG. 3.

우선, 입력된 얼굴영상이 칼라 이미지인 경우 이를 흑백 이미지로 변환한 다음(S11), 가버 필터 응답을 이용하여 흑백의 얼굴영상에서 얼굴영역을 검출한다(S12).First, if the input face image is a color image, it is converted into a black and white image (S11), and then a face region is detected from the black and white face image using a Gabor filter response (S12).

그 다음, 얼굴영상에서 두 눈썹과 두 눈이 모두 검게 일정한 영역을 가지고 나타날 때까지 임계값을 증가시켜가면서 이진화를 수행하는데, 먼저 이진화를 위한 임계값의 변화 범위를 설정한 다음 설정된 임계값의 변화 범위내에서 임계값의 초기치를 설정하고 설정된 임계값을 기준으로 임계값 이상의 밝기를 가진 화소는 흰색으로 임계값 이하의 밝기를 가진 화소는 검은색으로 할당한다(S13~S14). Next, binarization is performed by increasing the threshold value until both eyebrows and both eyes appear in a black area in the face image. First, the threshold range for binarization is set, and then the threshold value is changed. An initial value of the threshold value is set within the range, and pixels having a brightness higher than or equal to the threshold are white and pixels having a brightness lower than or equal to the threshold are black based on the set threshold (S13 to S14).

여기에서, 임계값의 변화 범위는 입력된 얼굴영상의 밝기에 따라 정해지는 것이 바람직한데, 전체적으로 얼굴이 어둡거나 밝은 경우 이를 기준으로 임계값의 변화 범위를 설정하면 불필요한 연산량을 줄일 수 있기 때문이다.Here, it is preferable that the change range of the threshold value is determined according to the brightness of the input face image, because if the face is generally dark or light, setting the change range of the threshold value based on this can reduce unnecessary computation amount.

얼굴영상의 이진화가 완료된 후, 눈썹과 눈에 해당하는 영역에서 검은색 화소들을 여러 그룹으로 묶는 그룹핑을 수행한다(S15). 이 때, 수평으로 떨어진 검은색 화소 사이의 간격을 계산하여 계산된 간격이 소정 거리 이하이면 검은색 화소들 을 서로 연결하여 잡음에 의한 에러를 줄이는 것도 가능한데, 연결가능한 검은색 화소 사이의 거리는 보통 640 * 480의 해상도를 가지는 얼굴영상에서 5를 넘지 않는 것이 바람직하며, 이 값은 얼굴영상의 해상도에 따라 달라질 수 있다.After the binarization of the face image is completed, grouping is performed to group the black pixels into various groups in the areas corresponding to the eyebrows and the eyes (S15). At this time, if the calculated distance between the black pixels horizontally separated is less than a predetermined distance, it is possible to reduce the error caused by noise by connecting the black pixels to each other, the distance between the connectable black pixels is usually 640 * It is preferable not to exceed 5 in a face image having a resolution of 480, and this value may vary depending on the resolution of the face image.

그 다음, 그룹핑을 거친 여러 그룹들에 레이블을 매겨 여러 그룹들을 순서화한 후 동일한 레이블을 가진 영역을 고립 영역으로 추출한다(S16). 이 때, 레이블링 알고리즘으로는 4방향 연결 추적 알고리즘 또는 8방향 연결 추적 알고리즘을 사용할 수 있으며, 얼굴영상에서 그룹의 갯수가 많으면 레이블링에 시간이 많이 소비되기 때문에 그룹의 크기가 3 ∼ 4 이하의 영역은 잡음으로 간주하여 제거하는 것이 바람직하다.Next, the groups are grouped by labeling the grouped groups and the regions having the same label are extracted as the isolated regions (S16). At this time, the labeling algorithm may be a four-way connection tracking algorithm or an eight-way connection tracking algorithm. If the number of groups in the face image is large, it takes much time for labeling. It is desirable to consider it as noise and to eliminate it.

그 다음, 레이블링을 통하여 추출된 고립 영역들 중에서 한쌍의 눈썹 후보 영역과 한쌍의 눈 후보 영역이 존재하는지를 판단하여, 눈썹과 눈 중 어느 하나라도 검출되지 않은 경우에는 한쌍의 눈썹과 한쌍의 눈이 모두 검출될 때까지 임계값을 증가시켜가면서 이진화를 수행한다(S17~S19). 이 때, 임계값은 설정된 변화 범위 내에서 증가되는 것이 바람직하다.Then, it is determined whether there is a pair of eyebrow candidate regions and a pair of eye candidate regions among the isolated regions extracted through labeling, and when either one of the eyebrows and the eyes is not detected, both the pair of eyebrows and the pair of eyes Binarization is performed while increasing the threshold until detection (S17 to S19). At this time, the threshold value is preferably increased within the set change range.

고립 영역들 중에서 한쌍의 눈썹 후보 영역과 한쌍의 눈 후보 영역이 존재하는 경우, 눈 후보 영역이 눈이 맞는지를 검증하기 위해서 눈의 크기, 모양, 위치에 대한 정보를 기준값으로 눈 후보 영역의 오차율을 계산하여 오차율이 허용가능한 범위 내인지를 판단하는데, 이하 눈 후보 영역의 오차율을 계산 방법에 대하여 더 자세히 설명한다.If there is a pair of eyebrow candidate regions and a pair of eye candidate regions among the isolated regions, the error rate of the eye candidate region is determined based on information on the size, shape, and position of the eye to verify that the eye candidate region is correct. The calculation determines whether the error rate is within an acceptable range. Hereinafter, the method of calculating the error rate of the eye candidate region will be described in more detail.

일반적으로 눈은 얼굴영역 전체 면적에서 0.2% ~ 2.5% 를 차지하고 타원형의 모양을 가지며, 얼굴영역에서 수직방향으로 상측에 위치하고 좌우 눈은 동일한 수평선상에 위치하는데, 이러한 눈의 크기, 모양, 위치에 대한 정보는 눈 후보 영역이 눈이 맞는지를 판단하는데 이용될 수 있다. In general, the eyes occupy 0.2% to 2.5% of the total area of the face and have an oval shape. The eyes are located vertically upward in the face area, and the left and right eyes are located on the same horizontal line. The information may be used to determine whether the eye candidate region fits the eye.

즉, 눈의 크기, 모양, 위치에 대한 정보를 기준값으로 하여 눈 후보 영역의 오차율을 계산하고, 계산된 눈 후보 영역의 오차율에 따라 눈 후보 영역이 눈이 맞는지를 판단할 수 있다. That is, the error rate of the eye candidate region may be calculated based on information about the size, shape, and position of the eye, and it may be determined whether the eye candidate region fits the eye according to the calculated error rate of the eye candidate region.

우선, 눈 후보 영역의 오차율을 계산하기 위하여 기준값에 대하여 눈 후보 영역의 크기, 가로 길이와 세로 길이의 비, 수직 위치, 수평 위치에 대한 편차값을 구한다.First, in order to calculate the error rate of the eye candidate region, the size of the eye candidate region, the ratio of the horizontal length to the vertical length, the deviation value with respect to the vertical position and the horizontal position are calculated with respect to the reference value.

여기에서, 눈 후보 영역의 크기, 가로 길이와 세로 길이의 비, 수직 위치, 수평 위치는 레이블링을 수행할 때 얻어진 고립 영역의 정보에 따라 간단하게 구할 수 있는데, 레이블링에 의하여 고립 영역을 추출하면 각 고립 영역에 대한 XY 좌표값이 구해지며 이 XY 좌표값에 따라 고립 영역의 크기, 가로 길이와 세로 길이의 비, 수직 위치, 수평 위치를 계산할 수 있기 때문이다.Here, the size of the eye candidate region, the ratio of the width to the length, the vertical position and the horizontal position can be obtained simply according to the information of the isolated region obtained when labeling. This is because an XY coordinate value for an isolated region is obtained, and the size, ratio of width to height, vertical position, and horizontal position of the isolated region can be calculated according to the XY coordinate value.

한편, 눈의 크기, 가로 길이와 세로 길이의 비, 수직 위치, 수평 위치는 이진화의 임계값에 따라 변화될 수 있기 때문에 눈 후보 영역에 대한 편차값을 구할 때는 이진화의 임계값에 따른 기준값을 구해야 한다.On the other hand, since the eye size, the ratio of the horizontal length to the vertical length, the vertical position, and the horizontal position may change according to the threshold value of the binarization, the reference value according to the threshold value of the binarization should be obtained when calculating the deviation value for the eye candidate region. do.

이진화의 임계값에 따라 눈 후보 영역에 대한 기준값이 변하는 일예가 도 9에 도시되어 있는데, 도 9에 도시된 바와 같이 임계값이 증가하면 얼굴영상에서 눈이 차지하는 크기가 증가되기 때문에 해당 임계값에 대한 기준값을 기준으로 하여 눈 후보 영역에 대한 편차값을 구해야 하며, 이와 마찬가지로 눈의 가로길이와 세로 길이의 비, 눈의 수직위치와 수평위치에 대하여도 해당 임계값에 대한 기준값을 기준으로 하여 눈 후보 영역에 대한 편차값을 구해야 한다.An example in which the reference value for the eye candidate region is changed according to the binarization threshold is shown in FIG. 9. As shown in FIG. 9, when the threshold is increased, the size of the eye occupies in the face image is increased. Deviation values for the candidate areas should be obtained based on the reference value for the eye. Similarly, for the ratio of the horizontal and vertical lengths of the eyes, the vertical and horizontal positions of the eyes, The deviation value for the candidate area should be obtained.

본 실시예에서는 전체 얼굴영역에서 눈의 크기에 대한 기준값을 0.2% ~ 2.5% 로 설정함으로써 눈 후보 영역의 크기가 전체 얼굴영역의 0.2% ~ 2.5% 이면 눈으로 판단하며, 눈의 가로길이와 세로길이의 비에 대한 기준값을 1.0 ~ 3.2 로 설정함으로써 눈 후보 영역의 가로길이와 세로길이의 비가 1.0 이하이거나 3.2 이상인 경우, 즉 눈 후보 영역이 타원형이 아닌 경우 눈이 아니라고 판단한다.In the present embodiment, the reference value for the eye size is set to 0.2% to 2.5% of the entire face area, so that if the size of the candidate candidate area is 0.2% to 2.5% of the entire face area, it is determined as the eye. By setting the reference value for the ratio of the lengths to 1.0 to 3.2, it is determined that the ratio of the horizontal length and the vertical length of the eye candidate region is not less than 1.0 or 3.2 or more, that is, the eye candidate region is not elliptical.

또한, 본 실시예에서는 전체 얼굴영역에서 눈의 수직 위치에 대한 기준값을 1/3 로 설정함으로써 눈 후보 영역이 얼굴영역에서 수직방향으로 상측에 위치하면 눈으로 판단하며, 전체 얼굴영역에서 눈의 수평 위치에 대한 기준값을 5°로 설정함으로써 좌/우 눈 후보 영역이 거의 동일한 수평선상에 존재하면 눈으로 판단되도록 한다. Also, in the present exemplary embodiment, the reference value for the vertical position of the eyes in the entire face region is set to 1/3 so that when the eye candidate region is located upward in the vertical direction from the face region, it is judged as the eyes, and the eye is horizontal in the entire face region. By setting the reference value for the position to 5 °, if the left / right eye candidate areas exist on almost the same horizontal line, it is judged as an eye.

상기 눈 후보 영역의 크기, 가로 길이와 세로 길이의 비, 수직 위치, 수평 위치에 대한 편차값을 D1 , D2 , D3 , D4 라 하고, 각 편차값에 대한 가중치를 k1, k2, k3, k4 라 하면, 눈 후보 영역에 대한 오차율(Er)에 관한 식은 하기의 수학식 1과 같이 주어진다.Deviation values for the size of the eye candidate region, the ratio of the horizontal length to the vertical length, the vertical position, and the horizontal position are D 1 , D 2 , D 3 , If D 4 and weights for each deviation value are k 1 , k 2 , k 3 , and k 4 , the equation for the error rate Er for the eye candidate region is given by Equation 1 below.

Figure 112002033184825-pat00001
Figure 112002033184825-pat00001

상기 수학식 1에 있어서, 각 편차값에 대한 가중치 k1, k2, k3, k4 는 얼굴영상의 학습결과에 따라 정해질 수 있는데, 예를 들어 눈이 전체 얼굴영역에서 0.2% ~ 2.5%의 크기를 가지는 영역일 확률이 높다는 학습결과가 나온 경우 눈 후보 영역의 크기에 대한 가중치(k1)를 다른 가중치(k2, k3, k4 )보다 더 큰 값으로 설정할 수 있으며, 각 편차값에 대한 가중치(k1, k2, k3, k4 )는 변화될 수 있다.In Equation 1, weights k 1 , k 2 , k 3 , and k 4 for each deviation value may be determined according to a learning result of a face image, for example, eyes 0.2% to 2.5 in the entire face region. If the learning result shows that the area is likely to have a size of%, the weight (k 1 ) for the size of the eye candidate area may be set to a larger value than the other weights (k 2 , k 3 , k 4 ). The weights k 1 , k 2 , k 3 , and k 4 for the deviation value may be changed.

상기 눈 후보 영역에 대한 오차율(Er)이 허용가능한 범위(예를 들면, 30%)로 판단되면, 즉, 눈 후보 영역의 크기, 모양, 또는 위치가 적합한 것으로 판단되면 눈 후보 영역에서 두 눈의 중심점을 검출한다(S24~S25).If the error rate Er for the eye candidate region is determined to be an acceptable range (for example, 30%), that is, if the size, shape, or position of the eye candidate region is determined to be appropriate, The center point is detected (S24 to S25).

상기와 같이 눈 후보 영역에 대한 오차율(Er)을 계산할 때 크기, 모양, 위치에 대한 편차값을 모두 고려하므로 눈썹을 눈으로 잘못 인식할 수 있는 가능성을 최소화시킬 수 있으며, 이로 인하여 해상도가 낮은 얼굴영상에서도 두 눈의 중심점을 정확하게 검출할 수 있다.When calculating the error rate (Er) for the eye candidate area as described above, all the deviation values for the size, shape, and position are taken into consideration, thereby minimizing the possibility of misrecognizing the eyebrows as the eyes, thereby reducing the face with low resolution In the image, the center point of both eyes can be detected accurately.

한편, 사용자의 눈썹이 흰색인 경우 눈썹이 아예 검출되지 않을 수도 있는데, 이러한 경우 판단부(27)는 이진화를 통하여 좌우 양쪽의 눈이 검출되면 이를 눈썹 후보 영역으로 인식하고 그 아래 영역에서 눈 후보 영역이 검출될 때까지 임계값을 증가시켜가면서 이진화를 수행한다(S11~S19). 그러나, 최대 임계값에 따른 이진화 처리를 수행하여도 한쌍의 눈 후보 영역이 검출되지 않으면 눈썹 후보 영역으로 인식하였던 영역을 눈 후보 영역으로 설정하고(S20~S21), 눈 후보 영역에 대한 오차율(Er)를 계산하여 계산된 오차율(Er)이 허용가능한 범위로 판단되면 눈 후 보 영역에서 두 눈의 중심점을 검출한다(S24~S25).On the other hand, if the user's eyebrows are white, the eyebrows may not be detected at all. In this case, the determination unit 27 recognizes this as an eyebrow candidate area when eyes on both sides are detected through binarization, and the eye candidate area in the lower area. Binarization is performed while increasing the threshold until the detection (S11 to S19). However, if a pair of eye candidate regions are not detected even after performing the binarization process according to the maximum threshold value, an area recognized as an eyebrow candidate region is set as an eye candidate region (S20 to S21), and an error rate for the eye candidate region (Er If the calculated error rate Er is determined to be an acceptable range, the center point of the two eyes is detected in the eye candidate region (S24 to S25).

또한, 사용자의 한쪽 눈썹이 머리카락으로 가리워진 경우 눈썹이 한쪽만 검출될 수도 있는데, 이러한 경우 판단부(27)는 이진화를 통하여 한쪽의 고립 영역(눈썹)만 검출되면 이를 무시하고 계속 이진화를 수행하며, 이진화를 통하여 좌우 한쌍의 눈이 검출되면 이를 눈썹 후보 영역으로 인식하고 그 아래 영역에서 눈 후보 영역이 검출될 때까지 임계값을 증가시켜가면서 이진화를 수행한다(S11~S19). 그러나, 최대 임계값에 따른 이진화 처리를 수행하여도 좌우 대칭적인 눈썹 후보 영역이 검출되지 않으면 눈썹 후보 영역으로 인식하였던 영역을 눈 후보 영역으로 설정하고(S20~S21), 눈 후보 영역에 대한 오차율(Er)를 계산하여 계산된 오차율(Er)이 허용가능한 범위로 판단되면 눈 후보 영역에서 두 눈의 중심점을 검출한다(S24~S25).In addition, when one eyebrow of the user is covered by the hair, only one eyebrow may be detected. In this case, the determination unit 27 ignores the detection of only one isolated region (eyebrow) through the binarization and continues to perform the binarization. When a pair of left and right eyes are detected through binarization, the pair is recognized as an eyebrow candidate region and binarization is performed while increasing a threshold value until an eye candidate region is detected in the lower region (S11 to S19). However, even when the binarization process according to the maximum threshold is not detected, if the symmetrical eyebrow candidate region is not detected, the region recognized as the eyebrow candidate region is set as the eye candidate region (S20 to S21), and the error rate for the eye candidate region ( If the calculated error rate Er is determined to be an acceptable range, the center point of the two eyes is detected in the eye candidate region (S24 to S25).

한편, 머리카락에 의해 한쪽 눈썹과 한쪽 눈이 모두 가려진 경우에는 최대 임계값에 따라 이진화를 수행하여도 한쌍의 고립 영역이 검출되지 않는데, 이러한 경우 좌우 어느 한쪽에 하나의 눈 후보 영역만 존재하면 그 눈 후보 영역을 기초로 눈의 쌍을 생성한 후(S22~S23), 생성된 한쌍의 눈 후보 영역에 대한 오차율(Er)을 계산하여 계산된 오차율(Er)이 허용가능한 범위로 판단되면 눈 후보 영역에서 두 눈의 중심점을 검출한다(S24~S25).On the other hand, when one eyebrow and one eye are covered by the hair, even if binarization is performed according to the maximum threshold value, a pair of isolated regions are not detected. In this case, if only one eye candidate region exists on either side of the eye, the eye After generating a pair of eyes based on the candidate region (S22 to S23), if the calculated error rate Er is determined to be an acceptable range, the error rate Er is calculated for the pair of generated eye candidate regions. Detect the center point of both eyes in (S24 ~ S25).

본 발명에서는 머리카락에 의하여 두 눈이 모두 가려지는 경우는 제외하였는데, 그 이유는 일반적인 얼굴영상에서 머리카락에 의하여 두 눈썹까지는 모두 가려질 수 있지만 두 눈까지 모두 가려지는 경우는 매우 적기 때문이다. In the present invention, except that both eyes are covered by the hair, the reason is that both eyebrows may be covered by the hair in the general facial image, but the eyes are not very rarely covered by both eyes.                     

또한, 본 실시예에서는 눈 후보 영역의 검증 조건을 크기, 가로 길이와 세로 길이의 비, 수직 위치, 수평 위치로 한정하고 이에 따라 눈 후보 영역에 대한 오차율을 계산하였지만, 상기에서 언급된 조건 이외에도 다양한 조건을 사용하는 것도 가능하다. In addition, in the present embodiment, the verification conditions of the eye candidate region are limited to the size, the ratio of the horizontal length to the vertical length, the vertical position, and the horizontal position. Accordingly, the error rate is calculated for the eye candidate region. It is also possible to use conditions.

그 다음, 검출된 두 눈의 위치를 기초로 얼굴영역의 크기를 3차원 폴리곤 얼굴 기본 모델 DB(15)에 저장된 3차원 얼굴 기본 모델과 1:1 매핑될 수 있는 크기로 정규화한다(S26). 이 때, 얼굴영상이 약간 기울어진 경우 이를 정상각도로 보정하는 것도 가능하다.Next, the size of the face region is normalized to a size that can be mapped 1: 1 with the 3D face base model stored in the 3D polygon face base model DB 15 based on the detected positions of the two eyes (S26). In this case, when the face image is slightly inclined, it may be corrected at a normal angle.

다시 도 3을 참조하면, 상기와 같은 얼굴영상의 전처리가 완료된 후 얼굴 구성요소 초기위치 검출부(33)가 얼굴영역에 캐니 필터를 적용하여 각 얼굴 구성요소에 대한 초기위치를 검출하면(S30), ASM 로딩부(31)는 검출된 초기위치에 대응하도록 전처리된 얼굴영상에 ASM을 로딩한다(S50). Referring to FIG. 3 again, after the preprocessing of the face image as described above is completed, if the face component initial position detector 33 detects an initial position of each face component by applying a Canny filter to the face region (S30), The ASM loading unit 31 loads the ASM to the preprocessed face image to correspond to the detected initial position (S50).

한편, 얼굴 구성요소의 초기위치를 검출할 때 상기와 같이 캐니 필터를 활용하는 방법 외에, 이진화를 통하여 검출된 두 눈의 중심점을 기초로 얼굴 구성요소간의 기하학적인 위치 특성에 따라 눈썹, 눈, 코, 입의 초기위치를 검출하는 것도 가능하다.On the other hand, in addition to using the Canny filter as described above when detecting the initial position of the facial components, eyebrows, eyes, nose according to the geometric position characteristics between the facial components based on the center point of the two eyes detected through the binarization It is also possible to detect the initial position of the mouth.

그 다음, ASM 적응부(37)는 학습 데이터 DB(11)에 저장된 ASM의 형태적 변화 특징 데이터를 이용하여 로딩된 ASM을 적응화시켜 전처리된 얼굴영상으로부터 눈썹, 눈, 코, 입술, 또는 얼굴 윤곽선에 대한 특징점들을 추출한다(S70).Next, the ASM adaptor 37 adapts the loaded ASM using the morphological change characteristic data of the ASM stored in the training data DB 11 to contour the eyebrow, eye, nose, lips, or face from the preprocessed face image. Extract feature points for (S70).

상기 특징점 추출시 각 얼굴 구성요소에 대한 특징점 추출의 탐색영역을 미 리 제한한 상태에서 ASM 적응화를 수행하는데, 탐색영역의 제한에 대하여는 도 1에 관한 설명에서 상세히 설명하였으므로 이에 대한 자세한 설명은 생략한다.When the feature point is extracted, ASM adaptation is performed in a state in which the search region of the feature point extraction for each facial component is limited in advance. The limitation of the search region has been described in detail with reference to FIG. 1, and thus a detailed description thereof will be omitted. .

그 다음, 얼굴 캐리커쳐 생성부(39a)는 3차원 폴리곤 얼굴 기본 모델 DB(15) 및 2차원 얼굴 텍스쳐 DB(13)로부터 3차원 얼굴 기본 모델 및 2차원 얼굴 텍스쳐를 로딩하고(S90), 로딩된 2차원 얼굴 텍스쳐를 3차원 얼굴 기본 모델에 매핑한 후(110), 추출된 특징점들의 좌표값에 따라 3차원 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성한다(S130).Next, the face caricature generation unit 39a loads the 3D face base model and the 2D face texture from the 3D polygon face base model DB 15 and the 2D face texture DB 13 (S90), and the loaded After mapping the 2D face texture to the 3D face base model (110), the 3D face base model is modified according to the coordinate values of the extracted feature points to generate a 3D polygon face caricature (S130).

여기에서, 2차원 얼굴 텍스쳐는 도 12(a)에 도시된 바와 같이 피부색, 눈썹색, 입술색 등을 3차원 얼굴 기본 모델에 적용하기 위한 것으로, 도 12(b)에 도시된 바와 같이 2차원 얼굴 텍스쳐를 3차원 얼굴 기본 모델에 매핑하면 보다 자연스럽고 정교한 3차원 얼굴 캐리커쳐가 생성되는 것을 알 수 있다.Here, the two-dimensional face texture is to apply skin color, eyebrow color, lip color, etc. to the three-dimensional face basic model, as shown in FIG. 12 (a), and two-dimensional as shown in FIG. 12 (b). Mapping the face texture to the three-dimensional face base model reveals a more natural and sophisticated three-dimensional face caricature.

추출된 특징점들의 좌표값에 따라 3차원 얼굴 기본 모델을 변형하는 것에 대해 개략적으로 설명하면 다음과 같다. ASM 적응부(37)를 통하여 추출된 특징점들은 XY 좌표값을 가지는데, 이들 XY 좌표값을 기초로 특징점들을 3차원 얼굴 기본 모델에 적용하면, 3차원 얼굴 기본 모델상의 폴리곤 성분들이 변위되어 결과적으로 사용자의 얼굴과 유사하게 3차원 얼굴 기본 모델이 변형되게 된다.The deformation of the 3D face basic model according to the coordinate values of the extracted feature points will be described as follows. The feature points extracted through the ASM adaptor 37 have XY coordinate values. When the feature points are applied to the 3D face base model based on the XY coordinate values, the polygonal components on the 3D face base model are displaced and consequently Similar to the user's face, the three-dimensional face basic model is deformed.

도 13은 3차원 폴리곤 얼굴 기본 모델을 변형하는 것을 설명하기 위한 도면으로서, 도 13에 도시된 바와 같이 3차원 얼굴 기본 모델상의 기본 특징점들을 A, B, C, 특징점 A, B C 세점이 이루는 삼각형 안에 있는 소정의 폴리곤을 D, △ABC의 넓이를 Area, △DBC의 넓이를 A1, △DAC의 넓이를 A2, △DAB의 넓이를 A3라고 가정 한다.FIG. 13 is a diagram for explaining deformation of a 3D polygon face basic model. As shown in FIG. 13, basic feature points on a 3D face basic model are included in a triangle formed by three points A, B, C, feature points A, and BC. Suppose a given polygon is D, DELTA ABC is Area, DAC is A1, DAC is A2, and DDA is A3.

ASM 적응화를 통해 추출된 특징점 A′, B′, C′를 3차원 얼굴 기본 모델상에 적용하면, 얼굴 기본 모델상의 기본 특징점들은 각각 A → A′, B → B′, C → C′ 로 이동되며, 이에 따라 3차원 얼굴 기본 모델상의 폴리곤들도 변위되는데, 이 때 폴리곤 D의 변위는 하기의 수학식 2와 같이 주어진다.When the feature points A ', B', and C 'extracted through ASM adaptation are applied on the three-dimensional face base model, the base feature points on the face base model move to A → A', B → B ', and C → C', respectively. Accordingly, the polygons on the three-dimensional face basic model are also displaced, wherein the displacement of the polygon D is given by Equation 2 below.

Figure 112002033184825-pat00002
Figure 112002033184825-pat00002

상기 수학식 2에 있어서, w1, w2, w3는 각각 A1을 Area로 나눈 값, A2를 Area로 나눈 값, A3를 Area로 나눈 값:

Figure 112002033184825-pat00003
이다.In Equation 2, w1, w2, and w3 are values of A1 divided by Area, A2 divided by Area, and A3 divided by Area:
Figure 112002033184825-pat00003
to be.

특징점 적용에 따라 폴리곤 D가 변위되면 폴리곤 D 주변의 폴리곤들 또한 동일한 방식으로 변위되며, 이로 인하여 3차원 얼굴 기본 모델이 전체적으로 사용자의 얼굴과 유사하게 변형된다. When the polygon D is displaced according to the application of the feature point, the polygons around the polygon D are also displaced in the same manner, thereby deforming the basic three-dimensional face model similarly to the user's face.

상기에서 추출된 특징점들을 3차원 얼굴 기본 모델상에 적용할 때 XY 좌표값 이외의 정보, 예를 들면 Z축 방향의 좌표값은 3차원 얼굴 기본 모델이 갖고 있는 인류학적 표준 데이터를 그대로 활용하는데, 예를 들어, ASM 적응화를 통하여 추출된 특징점의 X, Y좌표가 (170, 210) 인 경우, 이를 3차원 얼굴 기본 모델상에 적용하면 특징점의 X, Y, Z 좌표는 (170, 210, 35)가 되는데, 여기에서 Z축 방향의 좌표값 35는 3차원 얼굴 기본 모델이 갖고 있는 인류학적 표준 데이터 값이다. When applying the extracted feature points on the three-dimensional face basic model, information other than the XY coordinate value, for example, the coordinate value in the Z-axis direction, uses the anthropological standard data of the three-dimensional face basic model. For example, if the X, Y coordinates of the feature points extracted through ASM adaptation are (170, 210), and if they are applied on the three-dimensional face basic model, the X, Y, Z coordinates of the feature points are (170, 210, 35). Where the coordinate value 35 in the Z-axis direction is an anthropometric standard data value of the three-dimensional face basic model.

한편, 상기와 같이 3차원 얼굴 기본 모델이 갖고 있는 인류학적 표준 데이터 를 그대로 활용하는 방법 외에, 후술하는 바와 같이 측면 얼굴영상을 이용하여 사용자와 더욱 유사한 3차원 캐리커쳐를 생성할 수도 있다.On the other hand, as described above, in addition to using the anthropometric standard data of the three-dimensional face basic model, it is also possible to generate a three-dimensional caricature more similar to the user using the side face image as described below.

우선, 측면 얼굴영상이 입력된 경우 전처리부(31)는 입력된 측면 얼굴영상에서 코의 끝점과 눈썹을 검출하여 이를 기초로 측면 얼굴영상을 정규화하며, 얼굴 구성요소 초기위치 검출부(33)는 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 측면 초기위치를 검출한다. 그 다음, ASM 로딩부(35)는 검출된 측면 초기위치에 대응하도록 메모리부(10)에 저장된 측면 ASM을 전처리된 측면 얼굴영상에 로딩하고, ASM 적응부(37)는 로딩된 측면 ASM을 적응화시켜 전처리된 측면 얼굴영상으로부터 눈썹, 눈, 코, 입술, 또는 얼굴 윤곽선에 대한 특징점들의 YZ 좌표값을 추출한다. 그 다음, 얼굴 캐리커쳐 생성부(39a)는 ASM 적응부(37)를 통하여 추출된 특징점들의 XY, YZ 좌표값에 따라 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성한다.First, when the side face image is input, the preprocessing unit 31 detects the end point of the nose and the eyebrows from the input side face image and normalizes the side face image based on this, and the face component initial position detection unit 33 performs the preprocessing. Each side initial position of the face component is detected in the extracted face image. Then, the ASM loading unit 35 loads the side ASM stored in the memory unit 10 into the preprocessed side face image so as to correspond to the detected side initial position, and the ASM adaptor 37 adapts the loaded side ASM. YZ coordinate values of feature points for eyebrows, eyes, noses, lips, or face contours are extracted from the preprocessed side face images. Next, the face caricature generation unit 39a generates a three-dimensional polygon face caricature by modifying the three-dimensional polygon face basic model according to the XY and YZ coordinate values of the feature points extracted by the ASM adaptor 37.

또한, 사용자와 유사하면서도 희화성이나 과장성이 강조된 3차원 캐리커쳐를 생성하기 위하여 스네이크(Snake) 알고리즘을 이용하여 얼굴 기본 모델을 변형할 수도 있는데, 이하 스네이크 알고리즘을 사용하여 3차원 얼굴 기본 모델을 변형하는 방법에 대하여 간략하게 설명한다.In addition, in order to generate a three-dimensional caricature that is similar to the user but emphasizes the flatness or exaggeration, the face basic model may be modified by using a snake algorithm. Hereinafter, the three-dimensional face basic model is modified by using the snake algorithm. A brief description will be given of how to do this.

스네이크 알고리즘은 영상 힘(imgae forces)과 같은 에너지 최소화를 반복 수행하여 영상내에서 라인, 에지, 윤곽선 등을 추출하는 방법으로, 본 발명에서는 스네이크 알고리즘을 적용하여 특징점들간의 상호 위치 및 특징점들이 이루는 형상을 가능한 유지하면서 XY 위치변환을 수행하고, 나머지 주변점들은 기본 모델상의 좌표값을 기초로 XYZ 변환함으로써, 사용자의 얼굴과 유사하면서도 희화성이나 과장성이 강조된 캐리커쳐를 생성한다.Snake algorithm is a method of extracting lines, edges, contours, etc. in the image by repeatedly performing energy minimization such as image forces (imgae forces), in the present invention by applying the Snake algorithm shape of the mutual position and feature points between the feature points The XY position transformation is performed while keeping the s possible, and the remaining peripheral points are XYZ transformed based on the coordinate values on the basic model, thereby creating a caricature that is similar to the user's face but emphasizes the flatness or exaggeration.

과장성이 강조된 캐리커쳐의 일예가 도 14에 도시되어 있다. 도 14에 도시된 바와 같이, 과장된 3차원 얼굴 기본 모델을 사용하고 사용자의 얼굴 구성요소에서 중요 특징들만을 3차원 얼굴 기본 모델에 적용함으로써 사용자의 얼굴과 유사한 각종 3차원 캐릭터들을 생성할 수 있다. An example of a caricature with exaggerated emphasis is shown in FIG. 14. As illustrated in FIG. 14, various three-dimensional characters similar to the user's face may be generated by using an exaggerated three-dimensional face base model and applying only important features in the user's face components to the three-dimensional face base model.

다시 도 3을 참조하면, 3차원 폴리곤 얼굴 캐리커쳐가 생성된 후 신체 캐리커쳐 생성부(39b)는 3차원 신체 모델 DB(17)에 저장된 3차원 신체 모델을 기초로 하여 3차원 신체 캐리커쳐를 생성하며(S150), 최종적으로 3차원 폴리곤 얼굴 캐리커쳐와 3차원 신체 캐리커쳐를 합성하여 3차원 캐리커쳐를 완성한다(S170).Referring back to FIG. 3, after the 3D polygon face caricature is generated, the body caricature generator 39b generates a 3D body caricature based on the 3D body model stored in the 3D body model DB 17 ( S150), and finally synthesizes the three-dimensional polygon face caricature and the three-dimensional body caricature to complete the three-dimensional caricature (S170).

한편, 2차원 캐리커쳐가 필요한 경우 투영부(40)를 통하여 3차원 캐리커쳐를 2차원으로 투영시켜 2차원 캐리커쳐를 생성하며(S190~S210), 3차원 캐리커쳐의 전송이 필요한 경우 3차원 캐리커쳐에서 특징점들의 좌표값 및 메모리 참조값을 추출하여 전송하는데(S230~250), 이하 전송된 특징점들의 좌표값 및 메모리 참조값을 기초로 다시 3차원 캐리커쳐를 복원하는 방법에 대하여 설명한다.On the other hand, if a two-dimensional caricature is required to generate a two-dimensional caricature by projecting the three-dimensional caricature in two dimensions through the projection unit 40 (S190 ~ S210), if the transmission of the three-dimensional caricature is required, The coordinate value and the memory reference value are extracted and transmitted (S230 to 250). Hereinafter, the method of restoring the 3D caricature based on the coordinate values and the memory reference values of the transmitted feature points will be described.

도 5는 도 3에 있어서 전송된 3차원 캐리커쳐를 복원하는 방법의 흐름도이다.FIG. 5 is a flowchart of a method of restoring a three-dimensional caricature transmitted in FIG. 3.

우선, 3차원 캐리커쳐에서 추출된 특징점들의 좌표값 및 메모리 참조값이 수신되면, 얼굴 캐리커쳐 생성부(39a)는 3차원 폴리곤 얼굴 기본 모델 DB(15) 및 2차원 얼굴 텍스쳐 DB(13)로부터 수신된 메모리 참조값에 대응하는 3차원 얼굴 기본 모델 및 2차원 얼굴 텍스쳐를 로딩한다(S310). First, when the coordinate values and the memory reference values of the feature points extracted from the 3D caricature are received, the face caricature generation unit 39a receives the memory received from the 3D polygon face base model DB 15 and the 2D face texture DB 13. A 3D face base model and a 2D face texture corresponding to the reference value are loaded (S310).

그 다음, 얼굴 캐리커쳐 생성부(39a)가 2차원 얼굴 텍스쳐를 3차원 얼굴 기본 모델에 매핑한 후 수신된 특징점들의 좌표값에 따라 3차원 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 복원한다(S330~S350).Next, the face caricature generation unit 39a maps the two-dimensional face texture to the three-dimensional face base model, and deforms the three-dimensional face base model according to the coordinate values of the received feature points to restore the three-dimensional polygon face caricature ( S330 ~ S350).

그 다음, 신체 캐리커쳐 생성부(39b)가 수신된 메모리 참조값에 대응하는 3차원 신체 모델을 3차원 신체 모델 DB(17)로부터 로딩하여 3차원 신체 캐리커쳐를 복원하며, 이렇게 복원된 3차원 폴리곤 얼굴 캐리커쳐와 3차원 신체 캐리커쳐를 합성하여 3차원 캐리커쳐를 복원한다(S370~S390).Then, the body caricature generation unit 39b loads the three-dimensional body model corresponding to the received memory reference value from the three-dimensional body model DB 17 to restore the three-dimensional body caricature, and the three-dimensional polygon face caricature thus restored. And 3D body caricature is synthesized to restore the 3D caricature (S370 ~ S390).

상술한 바와 같은 3차원 캐리커쳐 전송 및 복원 방법은, 3차원 캐리커쳐 생성 장치들간(100, 100) 뿐만 아니라, 3차원 캐리커쳐를 복원할 수 있는 데이터베이스만 구비될 수 있다면 캐리커쳐 스티커 자판기, 컴퓨터, 휴대폰, PDA 등의 통신단말기, 아바타를 이용한 게임, 채팅 인터넷 서비스 등 다양한 분야에 적용될 수 있는데, 예를 들면 캐리커쳐 스티커 자판기로부터 전송된 3차원 캐리커쳐를 인터넷 아바타 사이트에서 복원하거나, 컴퓨터로부터 전송된 3차원 캐리커쳐를 휴대폰에서 복원할 수 있다.As described above, the three-dimensional caricature transmission and restoration method may be provided with a caricature sticker vending machine, a computer, a mobile phone, a PDA as well as a database capable of restoring the three-dimensional caricature, as well as between the three-dimensional caricature generating apparatuses 100 and 100. It can be applied to various fields such as a communication terminal, a game using an avatar, and a chat internet service. For example, a 3D caricature transmitted from a caricature sticker vending machine can be restored on an internet avatar site, or a 3D caricature transmitted from a computer is a mobile phone. Can be restored from

본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

본 발명의 3차원 캐리커쳐 생성 장치 및 방법에 따르면, 얼굴에 맞게 특화된 ASM 기법을 이용하여 얼굴을 특징짓는 요소들의 특징점 정보를 정확하게 추출할 수 있으므로 사용자의 얼굴과 유사성이 높은 3차원 캐리커쳐를 생성할 수 있는 효과가 있다. According to the 3D caricature generation apparatus and method of the present invention, it is possible to accurately extract the feature point information of the elements that characterize the face by using the ASM technique specialized for the face to generate a three-dimensional caricature with high similarity to the user's face It has an effect.

또한, 본 발명에 따르면, 2차원 캐리커쳐가 필요한 경우 3차원 캐리커쳐를 투영에 의하여 2차원 캐리커쳐로 쉽게 변환할 수 있으며, 3차원 캐리커쳐 전송시 얼굴의 특징 정보와 3차원 캐리커쳐에 사용된 메모리 참조값만을 전송하므로 시스템 부담을 최소화시킬 수 있는 효과도 있다.In addition, according to the present invention, when a two-dimensional caricature is required, the three-dimensional caricature can be easily converted into a two-dimensional caricature by projection, and when transmitting the three-dimensional caricature, only the face feature information and the memory reference values used for the three-dimensional caricature are transmitted. Therefore, the system burden can be minimized.

게다가, 본 발명에 따르면, 캐리커쳐 스티커 자판기, 컴퓨터, 휴대폰, PDA 등의 통신단말기, 인터넷상에서 3차원 캐리커쳐를 간단하게 복원하여 사용할 수 있는 효과도 있다. In addition, according to the present invention, there is an effect that the caricature sticker vending machine, a computer, a mobile phone, a communication terminal such as a PDA, and the like can be easily restored and used in the three-dimensional caricature.

Claims (34)

사용자의 얼굴영상을 기초로 하여 캐리커처를 생성하는 장치에 있어서,An apparatus for generating a caricature based on a face image of a user, 3차원 캐리커쳐 생성에 필요한 ASM과, 3차원 폴리곤 얼굴 기본 모델이 저장된 메모리부;A memory unit for storing an ASM required for generating a 3D caricature and a 3D polygon face basic model; 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리부;A pre-processing unit for detecting the position of the eye in the input face image and normalizing the size of the face image; 상기 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 초기위치를 검출하는 얼굴 구성요소 초기위치 검출부;A facial component initial position detector for detecting respective initial positions of facial components in the preprocessed facial image; 상기 검출된 초기위치에 대응하도록 상기 메모리부에 저장된 ASM을 상기 전처리된 얼굴영상에 로딩하는 ASM 로딩부;An ASM loading unit loading the ASM stored in the memory unit into the preprocessed face image so as to correspond to the detected initial position; 상기 로딩된 ASM을 적응화시켜 얼굴 구성요소에 대한 특징점들을 추출하는 ASM 적응부; 및An ASM adaptor adapted to extract the feature points for the facial component by adapting the loaded ASM; And 상기 메모리부로부터 3차원 폴리곤 얼굴 기본 모델을 로딩한 후 상기 ASM 적응부를 통하여 추출된 특징점들의 좌표값에 따라 상기 로딩된 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 캐리커쳐 생성부를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.Caricature generation unit for generating a three-dimensional polygon face caricature by modifying the loaded three-dimensional polygon face base model according to the coordinate values of the feature points extracted through the ASM adaptor after loading the three-dimensional polygon face base model from the memory unit 3D caricature generating device comprising a. 제 1항에 있어서, 상기 전처리부는,The method of claim 1, wherein the preprocessing unit, 입력된 얼굴영상이 칼라 이미지인 경우 이를 흑백 이미지로 변환하는 흑백화 부;A black and whiteization unit converting the input face image into a black and white image when the input face image is a color image; 가버 필터 응답을 이용하여 상기 입력된 얼굴영상에서 얼굴영역을 검출하는 얼굴영역 검출부;A face region detector for detecting a face region from the input face image using a Gabor filter response; 상기 얼굴영역 검출부를 통하여 검출된 얼굴영역에서 눈의 위치를 검출하는 눈 검출부; 및An eye detector for detecting a position of an eye in the face region detected by the face region detector; And 상기 눈 검출부를 통하여 검출된 눈의 위치를 기초로 상기 얼굴영역 크기를 상기 메모리부에 저장된 3차원 폴리곤 얼굴 기본 모델과 1:1 매핑될 수 있는 크기로 정규화하는 얼굴 정규화부를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.And a face normalization unit for normalizing the face region size to a size that can be mapped 1: 1 with the 3D polygonal face base model stored in the memory unit based on the position of the eye detected by the eye detector. 3D caricature generating device. 제 2항에 있어서, 상기 눈 검출부는,The method of claim 2, wherein the eye detection unit, 임계값을 기준으로 입력된 얼굴영상을 이진화하는 이진화부;A binarization unit for binarizing the input face image based on the threshold value; 상기 이진화부로부터 이진화된 얼굴영상이 입력되면 눈썹과 눈에 해당하는 영역에서 검은색을 갖는 화소들을 그룹핑하는 그룹핑부;A grouping unit for grouping pixels having a black color in a region corresponding to an eyebrow and an eye when a binarized face image is input from the binarization unit; 상기 그룹핑부를 통하여 검출된 여러 그룹들에 레이블을 매겨 여러 그룹들을 순서화한 후 동일한 레이블을 가진 영역을 고립 영역으로 추출하는 레이블링부; 및 A labeling unit for labeling the various groups detected by the grouping unit, ordering the various groups, and extracting a region having the same label as an isolated region; And 상기 레이블링부를 통하여 추출된 고립 영역들 중에서 눈썹 후보 영역 및 눈 후보 영역을 설정하고 설정된 눈 후보 영역이 눈이 맞는지를 판단하는 판단부를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.And a determination unit configured to set an eyebrow candidate region and an eye candidate region among the isolated regions extracted through the labeling unit, and determine whether the set eye candidate region fits the eye. 제 3항에 있어서, 상기 판단부는 상기 눈썹 후보 영역과 눈 후보 영역이 모두 검출될 때까지 임계값을 변화시켜가면서 이진화를 수행하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The apparatus of claim 3, wherein the determination unit performs binarization while varying a threshold value until both the eyebrow candidate region and the eye candidate region are detected. 제 1항에 있어서, 상기 얼굴 구성요소 초기위치 검출부는, 상기 전처리된 얼굴영상에 캐니 필터를 적용하여 얼굴 구성요소에 대한 각각의 초기위치를 검출하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The apparatus of claim 1, wherein the face component initial position detector detects each initial position of a face component by applying a Canny filter to the preprocessed face image. 제 1항에 있어서, 상기 메모리부는 ASM의 형태적 변화 특징 데이터를 더 포함하며, 상기 ASM 적응부는 상기 메모리부에 저장된 ASM의 형태적 변화 특징 데이터를 이용하여 상기 전처리된 얼굴영상으로부터 눈썹, 눈, 코, 입술 또는 얼굴 윤곽선에 대한 특징점들을 추출하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The apparatus of claim 1, wherein the memory unit further includes shape change feature data of the ASM, and the ASM adaptor further comprises eyebrows, eyes, and eyebrows from the preprocessed face image using the shape change feature data of the ASM stored in the memory unit. 3D caricature generating device, characterized in that for extracting feature points for the nose, lips or facial contour. 제 1항에 있어서, 상기 ASM 적응부는 특징점 추출시 얼굴 구성요소에 대한 특징점 추출의 탐색영역을 미리 제한하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The apparatus of claim 1, wherein the ASM adaptor restricts a search region for feature point extraction for a face component when the feature point is extracted. 제 1항에 있어서, 상기 메모리부는 상기 3차원 폴리곤 얼굴 기본 모델을 텍스처링하기 위한 2차원 얼굴 텍스쳐를 더 포함하며, 상기 캐리커쳐 생성부는 상기 메모리부에 저장된 2차원 얼굴 텍스쳐를 상기 3차원 폴리곤 얼굴 기본 모델에 매핑 하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The 3D polygon face base model of claim 1, wherein the memory unit further comprises a 2D face texture for texturing the 3D polygon face base model, and the caricature generation unit generates the 2D face texture stored in the memory unit. 3D caricature generating device, characterized in that for mapping to. 제 1항에 있어서, 상기 메모리부는 3차원 신체 캐리커쳐 생성에 필요한 3차원 신체 모델을 더 포함하며, 상기 캐리커쳐 생성부는 상기 메모리부에 저장된 3차원 신체 모델을 기초로 하여 3차원 신체 캐리커쳐를 생성하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The method of claim 1, wherein the memory unit further comprises a three-dimensional body model for generating a three-dimensional body caricature, the caricature generation unit to generate a three-dimensional body caricature based on the three-dimensional body model stored in the memory unit 3D caricature generating device characterized in that. 제 1항에 있어서, 상기 입력된 얼굴영상이 측면 얼굴영상인 경우,The method of claim 1, wherein when the input face image is a side face image, 상기 전처리부는 상기 입력된 측면 얼굴영상에서 코의 끝점과 눈썹을 검출하여 이를 기초로 측면 얼굴영상을 정규화하며,The preprocessing unit detects the end point of the nose and the eyebrows in the input side face image and normalizes the side face image based on this, 상기 얼굴 구성요소 초기위치 검출부는 상기 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 측면 초기위치를 검출하며,The face component initial position detection unit detects each side initial position of the face component in the preprocessed face image, 상기 ASM 로딩부는 상기 검출된 측면 초기위치에 대응하도록 상기 메모리부에 저장된 측면 ASM을 상기 전처리된 측면 얼굴영상에 로딩하며, The ASM loading unit loads the side ASM stored in the memory unit in the preprocessed side face image so as to correspond to the detected side initial position, 상기 ASM 적응부는 상기 로딩된 측면 ASM을 적응화시켜 상기 전처리된 측면 얼굴영상으로부터 얼굴 구성요소에 대한 특징점들의 좌표값을 추출하며, 그리고The ASM adaptor adapts the loaded side ASM to extract coordinate values of feature points for a face component from the preprocessed side face image, and 상기 캐리커쳐 생성부는 상기 ASM 적응부를 통하여 추출된 특징점들의 좌표값에 따라 상기 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.And the caricature generator generates a 3D polygon face caricature by modifying the 3D polygon face basic model according to the coordinate values of the feature points extracted by the ASM adaptor. 제 1항에 있어서, 상기 캐리커쳐 생성부를 통하여 생성된 3차원 폴리곤 얼굴 캐리커쳐를 2차원으로 투영시켜 2차원 얼굴 캐리커쳐를 획득하는 투영부를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The apparatus of claim 1, further comprising a projection unit configured to obtain a two-dimensional face caricature by projecting the three-dimensional polygon face caricature generated through the caricature generation unit in two dimensions. 제 1항에 있어서, 상기 캐리커쳐 생성부를 통하여 생성된 3차원 폴리곤 얼굴 캐리커쳐에서 특징점들의 좌표값 및 메모리 참조값을 추출하여 전송하는 캐리커쳐 송수신부를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.The apparatus of claim 1, further comprising a caricature transceiver configured to extract and transmit coordinate values and memory reference values of feature points in the 3D polygon face caricature generated by the caricature generator. 제 12항에 있어서, 상기 캐리커쳐 송수신부로부터 상기 3차원 폴리곤 얼굴 캐리커쳐의 특징점들의 좌표값 및 메모리 참조값이 수신된 경우, The method of claim 12, wherein the coordinate values and the memory reference values of the feature points of the 3D polygon face caricature are received from the caricature transceiver. 상기 캐리커쳐 생성부는, The caricature generation unit, 상기 수신된 메모리 참조값에 대응하는 3차원 폴리곤 얼굴 기본 모델 및 2차원 얼굴 텍스쳐를 상기 메모리부로부터 로딩한 후, 상기 2차원 얼굴 텍스쳐를 3차원 폴리곤 얼굴 기본 모델에 매핑하고, 상기 수신된 특징점들의 좌표값에 따라 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 복원하는 것을 특징으로 하는 3차원 캐리커쳐 생성 장치.After loading the 3D polygon face base model and the 2D face texture corresponding to the received memory reference value from the memory unit, the 2D face texture is mapped to the 3D polygon face base model and coordinates of the received feature points are obtained. And a three-dimensional polygon face caricature to restore the three-dimensional polygon face caricature according to the value. 사용자의 얼굴영상을 기초로 하여 캐리커처를 생성하는 방법에 있어서,In the method for generating a caricature based on a face image of a user, 입력된 얼굴영상에서 눈의 위치를 검출하고 얼굴영상의 크기를 정규화하는 전처리 단계;A preprocessing step of detecting a position of an eye in the input face image and normalizing the size of the face image; 상기 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 초기위치를 검출하는 단계;Detecting respective initial positions of facial components in the preprocessed facial image; 상기 검출된 초기위치에 대응하도록 ASM을 상기 전처리된 얼굴영상에 로딩한 후 상기 로딩된 ASM을 적응화시켜 특징점들을 추출하는 단계; 및Extracting feature points by loading the ASM onto the preprocessed face image to correspond to the detected initial position and then adapting the loaded ASM; And 3차원 폴리곤 얼굴 기본 모델을 로딩한 후 상기 ASM 적응화를 통하여 추출된 특징점들의 좌표값에 따라 상기 로딩된 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And after loading the 3D polygon face base model, generating the 3D polygon face caricature by modifying the loaded 3D polygon face base model according to the coordinate values of the extracted feature points through the ASM adaptation. 3D caricature generation method. 제 14항에 있어서, 상기 전처리 단계는, The method of claim 14, wherein the pretreatment step, 입력된 얼굴영상이 칼라 이미지인 경우 이를 흑백 이미지로 변환하는 단계;Converting the input face image into a black and white image if it is a color image; 가버 필터 응답을 이용하여 상기 입력된 얼굴영상에서 얼굴영역을 검출하는 단계;Detecting a face region in the input face image using a Gabor filter response; 상기 검출된 얼굴영역에서 눈 위치를 검출하는 단계; 및Detecting an eye position in the detected face region; And 상기 검출된 눈의 위치를 기초로 얼굴영역 크기를 상기 3차원 폴리곤 얼굴 기본 모델과 1:1 매핑될 수 있는 크기로 정규화하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And normalizing a face region size to a size that can be mapped 1: 1 with the 3D polygon face basic model based on the detected eye position. 제 15항에 있어서, 상기 눈 위치 검출 단계는,The method of claim 15, wherein the eye position detection step, 임계값을 기준으로 입력된 얼굴영상을 이진화하는 단계;Binarizing the input face image based on the threshold value; 상기 이진화된 얼굴영상에서 검은색 화소들을 그룹핑하는 단계;Grouping black pixels in the binarized face image; 상기 그룹핑에 의하여 검출된 여러 그룹들에 레이블을 매겨 여러 그룹들을 순서화한 후 동일한 레이블을 가진 영역을 고립 영역으로 추출하는 레이블링 단계; 및Labeling several groups detected by the grouping, ordering the various groups, and then extracting a region having the same label as an isolated region; And 상기 추출된 고립 영역들 중에서 눈썹 후보 영역과 눈 후보 영역을 설정하고 설정된 눈 후보 영역으로부터 두 눈의 중심점을 검출하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And setting an eyebrow candidate region and an eye candidate region among the extracted isolated regions and detecting a center point of two eyes from the set eye candidate region. 제 16항에 있어서, 상기 얼굴영상을 이진화하는 단계는,The method of claim 16, wherein binarizing the face image comprises: 상기 입력된 얼굴영상의 밝기에 따라 임계값의 변화 범위를 설정한 후, 설정된 임계값의 변화 범위내에서 임계값의 초기치를 설정하고, 설정된 임계값을 기준으로 입력된 얼굴영상을 이진화하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.Setting a threshold value change range according to the brightness of the input face image, setting an initial value of the threshold value within a change range of the threshold value, and binarizing the input face image based on the threshold value set; 3D caricature generation method comprising a. 제 16항에 있어서, 상기 그룹핑 단계는,The method of claim 16, wherein the grouping step, 수평으로 떨어진 검은색 화소 사이의 간격을 계산하여 계산된 간격이 소정 거리 이하이면 검은색 화소들을 서로 연결하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And connecting the black pixels to each other if the calculated distance between the black pixels horizontally separated is less than or equal to a predetermined distance. 제 16항에 있어서, 상기 레이블링 단계는,The method of claim 16, wherein the labeling step, 상기 그룹핑에 의하여 검출된 여러 그룹들 중에서 소정 크기 이하의 그룹은 잡음으로 간주하여 제거하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And removing a group having a predetermined size or less from among the plurality of groups detected by the grouping as noise. 제 16항에 있어서, 상기 추출된 고립 영역들 중에서 한쌍의 눈썹 후보 영역과 한쌍의 눈 후보 영역이 존재하지 않는 경우, 한쌍의 눈썹 후보 영역과 한쌍의 눈 후보 영역이 모두 검출될 때까지 임계값을 변화시켜가면서 이진화를 수행하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.17. The method of claim 16, wherein when there is no pair of eyebrow candidate regions and one pair of eye candidate regions among the extracted isolated regions, the threshold value is determined until both the pair of eyebrow candidate regions and the pair of eye candidate regions are detected. 3. The method of claim 3, further comprising performing binarization while changing. 제 16항에 있어서, 상기 눈 후보 영역으로부터 두 눈의 중심점을 검출하는 단계는, The method of claim 16, wherein detecting the center points of the two eyes from the eye candidate region comprises: 상기 눈 후보 영역의 정보들을 미리 저장된 기준값들과 비교하여 눈 후보 영역에 대한 편차값들을 계산하는 단계;Calculating deviation values for the eye candidate area by comparing the information of the eye candidate area with previously stored reference values; 상기 각 편차값에 가중치를 부여하여 가중치가 부여된 각 편차값들을 모두 합산하여 상기 눈 후보 영역의 오차율을 계산하는 단계; 및Calculating an error rate of the eye candidate region by adding weights to each of the deviation values and summing all weighted deviation values; And 상기 눈 후보 영역의 오차율이 허용가능한 범위 내인지를 판단하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And determining whether an error rate of the eye candidate region is within an acceptable range. 제 21항에 있어서, 상기 미리 저장된 기준값들은 눈의 크기, 가로 길이와 세로 길이의 비, 수직 위치 또는 수평 위치에 대한 값을 포함하는 것을 특징으로 하 는 3차원 캐리커쳐 생성 방법.22. The method of claim 21, wherein the prestored reference values comprise values for eye size, ratio of horizontal to vertical length, vertical position or horizontal position. 제 21항에 있어서, 상기 눈 후보 영역에 대한 편차값 계산시 상기 눈 후보 영역의 정보들을 해당 임계값에 대한 기준값들과 비교하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.22. The method of claim 21, wherein the information on the eye candidate region is compared with reference values for the corresponding threshold value when calculating the deviation value for the eye candidate region. 제 21항에 있어서, 상기 추출된 고립 영역들 중에서 한쌍의 눈썹 후보 영역만 검출된 경우 상기 눈썹 후보 영역을 눈 후보 영역으로 설정한 후 상기 눈 후보 영역에 대한 오차율을 계산하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.22. The method of claim 21, wherein when only a pair of eyebrow candidate regions are detected among the extracted isolated regions, an error rate for the eye candidate region is calculated after setting the eyebrow candidate region as an eye candidate region. How to create caricatures. 제 21항에 있어서, 상기 추출된 고립 영역들 중에서 좌우 어느 한쪽의 눈썹 후보 영역만 검출된 경우 상기 눈썹 후보 영역을 눈 후보 영역으로 설정한 다음 상기 눈 후보 영역을 기초로 눈의 쌍을 생성하여 생성된 한쌍의 눈 후보 영역에 대한 오차율을 계산하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.22. The method of claim 21, wherein if only one of the left and right eyebrow candidate regions is detected among the extracted isolated regions, the eyebrow candidate region is set as an eye candidate region and then an eye pair is generated based on the eye candidate region. 3. The method of claim 3, wherein the error rate of the pair of eye candidate regions is calculated. 제 14항에 있어서, 상기 얼굴 구성요소의 초기위치 검출 단계는, The method of claim 14, wherein the initial position detection of the face component comprises: 상기 전처리된 얼굴영상에 캐니 필터를 적용하여 각 얼굴 구성요소들의 초기위치를 결정하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And determining an initial position of each facial component by applying a Canny filter to the preprocessed facial image. 제 14항에 있어서, 상기 특징점을 추출하는 단계는, ASM의 형태적 변화 특징 데이터를 이용하여 상기 전처리된 얼굴영상으로부터 눈썹, 눈, 코, 입술 또는 얼굴 윤곽선에 대한 특징점들을 추출하는 단계를 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.15. The method of claim 14, wherein extracting the feature points comprises extracting feature points for eyebrows, eyes, noses, lips or facial contours from the preprocessed facial image using the morphological change feature data of the ASM. 3D caricature generation method characterized in that. 제 14항에 있어서, 상기 얼굴 구성요소에 대한 특징점 추출시 특징점 추출의 탐색영역을 미리 제한하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.15. The method of claim 14, wherein the search region for feature point extraction is limited in advance when the feature point is extracted for the face component. 제 14항에 있어서, 상기 3차원 폴리곤 얼굴 기본 모델에 2차원 얼굴 텍스쳐를 매핑하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.15. The method of claim 14, further comprising mapping a two-dimensional face texture to the three-dimensional polygonal face base model. 제 14항에 있어서, 3차원 신체 모델을 기초로 하여 3차원 신체 캐리커쳐를 생성하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.15. The method of claim 14, further comprising generating a three-dimensional body caricature based on the three-dimensional body model. 제 14항에 있어서, 측면 얼굴영상이 입력된 경우, The method of claim 14, wherein when a side face image is input, 상기 입력된 측면 얼굴영상에서 코의 끝점과 눈썹을 검출하여 이를 기초로 측면 얼굴영상을 정규화하는 단계;Detecting an end point of the nose and an eyebrow from the input side face image and normalizing the side face image based on the detected end face; 상기 전처리된 얼굴영상에서 얼굴 구성요소에 대한 각각의 측면 초기위치를 검출하는 단계;Detecting each initial position of a side of a face component in the preprocessed face image; 상기 검출된 측면 초기위치에 대응하도록 측면 ASM을 상기 전처리된 측면 얼굴영상에 로딩하는 단계;Loading a side ASM into the preprocessed side face image so as to correspond to the detected side initial position; 상기 로딩된 측면 ASM을 적응화시켜 상기 전처리된 측면 얼굴영상으로부터 얼굴 구성요소에 대한 특징점들의 좌표값을 추출하는 단계; 및Adapting the loaded side ASM to extract coordinate values of feature points for a face component from the preprocessed side face image; And 상기 ASM 적응화를 통하여 추출된 특징점들의 좌표값에 따라 상기 로딩된 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 생성하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And generating a 3D polygon face caricature by modifying the loaded 3D polygon face basic model according to the coordinate values of the feature points extracted through the ASM adaptation. 제 14항에 있어서, 상기 3차원 폴리곤 얼굴 캐리커쳐를 2차원으로 투영시켜 2차원 얼굴 캐리커쳐를 획득하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.15. The method of claim 14, further comprising the step of projecting the three-dimensional polygon face caricature in two dimensions to obtain a two-dimensional face caricature. 제 14항에 있어서, 상기 3차원 폴리곤 얼굴 캐리커쳐에서 특징점들의 좌표값 및 메모리 참조값을 추출하여 전송하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.15. The method of claim 14, further comprising extracting and transmitting coordinate values and memory reference values of feature points in the three-dimensional polygon face caricature. 제 33항에 있어서, 상기 3차원 폴리곤 얼굴 캐리커쳐의 특징점들의 좌표값 및 메모리 참조값이 수신된 경우,The method of claim 33, wherein the coordinate values and the memory reference values of the feature points of the three-dimensional polygon face caricature are received. 상기 수신된 메모리 참조값에 대응하는 3차원 폴리곤 얼굴 기본 모델 및 2차원 얼굴 텍스쳐를 로딩하는 단계; Loading a 3D polygon face base model and a 2D face texture corresponding to the received memory reference value; 상기 2차원 얼굴 텍스쳐를 3차원 폴리곤 얼굴 기본 모델에 매핑하는 단계; 및Mapping the two-dimensional face texture to a three-dimensional polygonal face base model; And 상기 수신된 특징점들의 좌표값에 따라 3차원 폴리곤 얼굴 기본 모델을 변형하여 3차원 폴리곤 얼굴 캐리커쳐를 복원하는 단계를 더 포함하는 것을 특징으로 하는 3차원 캐리커쳐 생성 방법.And reconstructing a three-dimensional polygon face caricature by modifying a three-dimensional polygon face basic model according to the coordinate values of the received feature points.
KR1020020061583A 2002-05-03 2002-10-09 Apparatus and method for producing three-dimensional caricature KR100912872B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020020061583A KR100912872B1 (en) 2002-10-09 2002-10-09 Apparatus and method for producing three-dimensional caricature
CNB031378749A CN1313979C (en) 2002-05-03 2003-05-03 Apparatus and method for generating 3-D cartoon
US10/428,818 US7535469B2 (en) 2002-05-03 2003-05-05 Apparatus and method for creating three-dimensional caricature
JP2003128014A JP3924262B2 (en) 2002-05-03 2003-05-06 Apparatus and method for generating three-dimensional caricature

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020061583A KR100912872B1 (en) 2002-10-09 2002-10-09 Apparatus and method for producing three-dimensional caricature

Publications (2)

Publication Number Publication Date
KR20040032452A KR20040032452A (en) 2004-04-17
KR100912872B1 true KR100912872B1 (en) 2009-08-19

Family

ID=37332348

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020061583A KR100912872B1 (en) 2002-05-03 2002-10-09 Apparatus and method for producing three-dimensional caricature

Country Status (1)

Country Link
KR (1) KR100912872B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156485A1 (en) * 2020-11-14 2022-05-19 Facense Ltd. Robust photosensor-based facial expression detector

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101581197B1 (en) * 2009-01-06 2015-12-30 삼성전자주식회사 Robot and control method thereof
KR20120059994A (en) 2010-12-01 2012-06-11 삼성전자주식회사 Apparatus and method for control avatar using expression control point
KR101653592B1 (en) * 2015-02-03 2016-09-02 한국기술교육대학교 산학협력단 Method for providing service of three dimensional face modeling
KR102493105B1 (en) * 2016-02-29 2023-01-30 한국전자통신연구원 Apparatus and method for creating 3d fabrication model
KR102084782B1 (en) * 2018-10-30 2020-03-04 강태원 Method generating personification character with gan algorithm
CN111862287B (en) * 2020-07-20 2024-08-09 广州市百果园信息技术有限公司 Eye texture image generation method, texture mapping method, device and electronic equipment
KR20240013454A (en) 2022-07-22 2024-01-30 포항공과대학교 산학협력단 Image processing apparatus and machin learnig method of 3d shapes latent space for image processing apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155836A (en) * 1998-11-19 2000-06-06 Design Network:Kk Portrait picture formation system and its method
KR20000064110A (en) * 2000-08-22 2000-11-06 이성환 Device and method for automatic character generation based on a facial image
KR100473593B1 (en) * 2002-05-03 2005-03-08 삼성전자주식회사 Apparatus and method for producing three-dimensional caricature

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155836A (en) * 1998-11-19 2000-06-06 Design Network:Kk Portrait picture formation system and its method
KR20000064110A (en) * 2000-08-22 2000-11-06 이성환 Device and method for automatic character generation based on a facial image
KR100473593B1 (en) * 2002-05-03 2005-03-08 삼성전자주식회사 Apparatus and method for producing three-dimensional caricature

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:삼성 SDS *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156485A1 (en) * 2020-11-14 2022-05-19 Facense Ltd. Robust photosensor-based facial expression detector
US11604511B2 (en) * 2020-11-14 2023-03-14 Facense Ltd. Robust photosensor-based facial expression detector
US20230185374A1 (en) * 2020-11-14 2023-06-15 Facense Ltd. Using a camera to compensate for sensor-shift in a photosensor-based facial expression detector
US11983317B2 (en) * 2020-11-14 2024-05-14 Facense Ltd. Using a camera to compensate for sensor-shift in a photosensor-based facial expression detector

Also Published As

Publication number Publication date
KR20040032452A (en) 2004-04-17

Similar Documents

Publication Publication Date Title
JP3924262B2 (en) Apparatus and method for generating three-dimensional caricature
US9569890B2 (en) Method and device for generating a simplified model of a real pair of spectacles
US7035461B2 (en) Method for detecting objects in digital images
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
JP4723834B2 (en) Photorealistic three-dimensional face modeling method and apparatus based on video
US7764828B2 (en) Method, apparatus, and computer program for processing image
US7876931B2 (en) Face recognition system and method
JP5873442B2 (en) Object detection apparatus and object detection method
EP1677250B9 (en) Image collation system and image collation method
CN108550176A (en) Image processing method, equipment and storage medium
US20050147280A1 (en) System and method for face recognition using synthesized images
US20060210168A1 (en) Apparatus and method for generating shape model of object and apparatus and method for automatically searching for feature points of object employing the same
KR102393298B1 (en) Method and apparatus for iris recognition
CN111833236B (en) Method and device for generating three-dimensional face model for simulating user
KR20060098730A (en) Apparatus and method for caricature function in mobile terminal using basis of detection feature-point
US20200327726A1 (en) Method of Generating 3D Facial Model for an Avatar and Related Device
KR100912872B1 (en) Apparatus and method for producing three-dimensional caricature
CN109448093B (en) Method and device for generating style image
KR100473593B1 (en) Apparatus and method for producing three-dimensional caricature
KR20020085669A (en) The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three-Dimensional Image Using Them
JP7479809B2 (en) Image processing device, image processing method, and program
CN114005156A (en) Face replacement method, face replacement system, terminal equipment and computer storage medium
KR100618493B1 (en) The Apparatus and Method for Creating Three-Dimensional Image Automatically
JP7417574B2 (en) How to identify lip makeup products that appear in images
CN112997185A (en) Face living body detection method, chip and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120716

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130724

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140721

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150716

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160718

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170719

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180717

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190717

Year of fee payment: 11