KR100387236B1 - Method and apparatus for generating caricature image - Google Patents
Method and apparatus for generating caricature image Download PDFInfo
- Publication number
- KR100387236B1 KR100387236B1 KR10-2000-0047501A KR20000047501A KR100387236B1 KR 100387236 B1 KR100387236 B1 KR 100387236B1 KR 20000047501 A KR20000047501 A KR 20000047501A KR 100387236 B1 KR100387236 B1 KR 100387236B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- feature information
- image
- models
- caricature
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
얼굴 영상에서 얼굴의 각 부위에 대한 정보를 검출 및 분석하여 캐리커처 영상을 자동으로 생성해 낼 수 있는 캐리커처 영상 생성 장치 및 방법이 개시된다. 캐리커처 영상 생성 장치는, 얼굴 영상을 전 처리하여 정규화하는 전 처리부와, 정규화된 얼굴 영상으로부터 얼굴의 각 부위에 대한 특징 정보인 제1 특징 정보를 검출하는 얼굴 특징 검출부와 , 얼굴의 각 부위에 대한 모델들 각각에 대한 특징 정보인 제2 특징 정보와 모델들을 사전 저장하는 데이타 저장부와, 제1 특징 정보를 제2 특징 정보와 비교 및 매칭하고, 그 결과를 매칭 정보로서 출력하는 특징 정보 매칭부 및 데이타 저장부에 저장된 모델들중 해당하는 모델들을 매칭 정보에 응답하여 독출하고, 독출된 모델들을 합성하고, 합성된 결과를 캐리커처 영상으로서 출력하는 캐리커처 합성부를 포함한다.Disclosed are a caricature image generating apparatus and method capable of automatically generating a caricature image by detecting and analyzing information on each part of a face in a face image. The caricature image generating apparatus includes a preprocessing unit that preprocesses and normalizes a face image, a face feature detection unit that detects first feature information that is feature information of each part of the face from the normalized face image, and A data storage for pre-storing the second feature information and the models for each of the models and the models, and a feature information matching unit for comparing and matching the first feature information with the second feature information and outputting the result as matching information. And a caricature synthesis unit configured to read corresponding models among models stored in the data storage unit in response to the matching information, synthesize the read models, and output the synthesized result as a caricature image.
Description
본 발명은 영상 합성에 관한 것으로서, 특히, 얼굴의 각 부위에 대한 특징을 과장 또는 희화하여 얼굴영상을 합성한 캐리커처 영상을 생성하는 캐리커처 영상 생성 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image synthesis, and more particularly, to a caricature image generating device and method for generating a caricature image obtained by synthesizing a face image by exaggerating or dimming a feature of each part of a face.
영상 처리 기술이 발전함에 따라, 영상을 촬영 및 이용하는 다양한 기술이 개발되었고 또한 개발중에 있다. 이러한 영상 처리 기술은, 입력되는 얼굴 영상을 검출 및 분석함으로써 사용자를 확인 및 인증하는 시스템 및 얼굴 이미지를 합성하는 시스템에 이용되고 있는데, 종래와 같이 단순히 촬영된 영상을 그대로 표현하는 기술 뿐만 아니라, 입력된 영상 데이터를 토대로 과장되거나 단순화된 얼굴 영상을 생성하는 영상 기술이 개발되었다.As image processing technology has developed, various technologies for photographing and using images have been developed and are under development. Such image processing technology is used in a system for identifying and authenticating a user by detecting and analyzing an input face image and a system for synthesizing a face image. An imaging technique for generating an exaggerated or simplified face image based on the generated image data has been developed.
이와 같은 영상 기술들중 하나로서, 1998년에 발간된 'Annual Meeting of Engineers in Tokai Branch'와 1993년 8월에 발간된 IPSJ Vol134, No10, 페이지 2106∼2116 쪽에 개시된 바 있는 일본 Chunkyo 대학의 연구 시스템인 PICASSO를 예로 들수 있다. 이 PICASSO 시스템은 2차원 영상을 대상으로 하거나, 3차원을 영상을 대상으로 하여 과장된 얼굴 이미지를 생성한다. 이들 중, 2차원 시스템은 평균 얼굴에 대한 데이터와 입력된 얼굴 데이터의 차이를 비교 및 분석하여, 차이 신호에 대한 과장된 만화적 표현을 통해 단선 영상의 캐리커처를 생성한다. 여기서, 평균 얼굴이란, 특정 부류의 집단이 갖는 얼굴을 합성하여 얻은 얼굴을 의미한다. 또한, 3차원 시스템은 깊이 정보를 이용하여 레인지 이미지(range image)를 입력으로 눈, 코, 입등을 검출한 후 2차원에서와 같이 평균 얼굴과의 차이를 계산하고 이를강조하여 과장된 얼굴 영상을 생성한다.As one of these imaging techniques, the research system of the National Meeting of Engineers in Tokai Branch, published in 1998, and Chunkyo University, Japan, published in IPSJ Vol134, No10, pages 2106-2116, published in August 1993. An example is PICASSO. The PICASSO system generates an exaggerated face image by targeting a 2D image or a 3D image. Among them, the two-dimensional system compares and analyzes the difference between the data on the average face and the input face data, and generates a caricature of the single line image through an exaggerated cartoon representation of the difference signal. Here, an average face means the face obtained by synthesizing the face which a specific class | group has. In addition, the 3D system detects eyes, nose, mouth, etc. by inputting a range image using depth information, calculates the difference with the average face as in 2D, and generates an exaggerated face image. do.
다른 영상 기술로서, "System and Method for Creating a Digitized Likeness of Persons" 란 제목으로 허여된 미국특허 제5,960,099호에 개시된 바와 같이, 정면과 측면의 2장의 얼굴 영상을 이용하여 얼굴의 특징, 즉 얼굴의 각 부위의 위치를 통계적 자료를 통하여 추정하고, 이에 따라 표정이 변화된 초상화를 생성하는 기술이 있다.As another imaging technique, as disclosed in US Patent No. 5,960,099 entitled "System and Method for Creating a Digitized Likeness of Persons," two facial images, front and side, are used for facial features, namely There is a technique of estimating the position of each part through statistical data and generating a portrait with a changed expression.
또 다른 영상 기술로서, "Model Based Image Editing and Correction" 란 제목으로 허여된 미국특허 제5,990,901호에 개시된 바와 같이, 영상의 포즈를 외부에서 지정한 다음, 지정된 포즈별 모델과 외부에서 입력된 영상을 합성하여 원하는 부분 영상을 검출하는 기술이 있다. 이 기술은 수동으로 모든 제어 포인트를 지정하여 사용자가 원하는 형상으로 원래의 영상을 변형하며 성형 수술등을 위하여 넓게 응용되고 있다.As another image technology, as disclosed in US Patent No. 5,990,901 entitled "Model Based Image Editing and Correction", a pose of an image is externally specified, and then a specified pose-specific model and an externally input image are synthesized. There is a technique for detecting a desired partial image. This technique transforms the original image into the shape desired by the user by manually assigning all control points, and is widely applied for plastic surgery.
전술한 종래의 영상 처리 기술들은 원 영상을 그대로 표현하는 것이 아니라 원 영상에서 과장되거나 희화된 영상을 생성하며 다음과 같은 문제점들을 갖는다.The conventional image processing techniques described above do not represent the original image as it is, but generate an exaggerated or blurred image from the original image, and have the following problems.
첫째, 상술한 PICASSO 시스템은 평균얼굴 영상과의 차이를 과장 및 강조하여 표현하기 때문에, 실제 원 영상이 갖고 있는 특징을 과장 및 강조된 영상에 충분히 반영할 수 없는 문제점이 있다. 둘째, 미국특허 제5,960,099호에 개시된 기술은 정면과 측면의 얼굴 영상을 이용하여 표정이 변화된 초상화를 만들어줄 때 통계적 자료를 통하여 얼굴 특징을 추정하기 때문에 원 영상의 얼굴 특징을 정확히 찾아낼 수 없는 문제점을 갖는다. 마지막으로, 미국특허 제5,990,901호에 개시된 기술은수동으로 제어 포인트를 설정하여 사용자가 원하는 형상으로 얼굴 영상을 생성하기 때문에, 원영상의 특징을 생성된 얼굴 영상에 충분히 반영할 수 없을 뿐만 아니라 수동으로 작업이 이루어지기 때문에 번거로운 문제점을 갖는다.First, since the aforementioned PICASSO system exaggerates and emphasizes the difference from the average face image, the PICASSO system cannot fully reflect the features of the original image in the exaggerated and emphasized image. Second, the technique disclosed in U.S. Patent No. 5,960,099 cannot accurately detect the facial features of the original image because the facial features are estimated through statistical data when making portraits with changed facial expressions using the front and side face images. Has Finally, the technique disclosed in U.S. Patent No. 5,990,901 generates a face image in a shape desired by a user by manually setting a control point, so that the features of the original image cannot be sufficiently reflected in the generated face image, but also manually. It is troublesome because the work is done.
결국, 전술한 종래의 영상 처리 기술들은 원 영상을 기초로 다른 영상을 생성하기는 하나, 원 영상의 얼굴 특징을 충분히 반영한 과장 또는 희화된 영상을 생성하기에 부적합하고 자동으로 작업을 수행할 수 없는 문제점도 갖는다.As a result, the above-described conventional image processing techniques generate another image based on the original image, but are not suitable for generating an exaggerated or blurred image that sufficiently reflects the facial features of the original image and cannot automatically perform the operation. There is also a problem.
본 발명이 이루고자 하는 기술적 과제는, 얼굴 영상으로부터 얼굴의 각 부위에 대한 특징정보를 검출 및 분석하여 캐리커처 영상을 자동으로 생성해 낼 수 있는 캐리커처 영상 생성 장치를 제공하는 데 있다.An object of the present invention is to provide a caricature image generating apparatus capable of automatically generating a caricature image by detecting and analyzing feature information of each part of a face from a face image.
본 발명이 이루고자 하는 다른 기술적 과제는, 얼굴 영상에서 얼굴의 각 부위에 대한 특징정보를 검출 및 분석하여 캐리커처 영상을 자동으로 생성해 낼 수 있는 캐리커처 영상 생성 방법을 제공하는 데 있다.Another object of the present invention is to provide a caricature image generation method capable of automatically generating a caricature image by detecting and analyzing feature information of each part of a face in a face image.
도 1은 본 발명에 의한 캐리커처 영상 생성 장치의 블럭도이다.1 is a block diagram of a caricature image generating apparatus according to the present invention.
도 2a는 액티브 모양 모델 기법을 이용하여 입술을 검출하는 과정을 설명하기 위한 도면이다.2A is a diagram for describing a process of detecting a lip using an active shape model technique.
도 3a ∼ c들은 데이타 저장부에 저장되는 눈과 눈썹의 세부적인 모델들을 나타내는 도면들이다.3A to 3C illustrate detailed models of eyes and eyebrows stored in a data storage unit.
도 4a ∼ c들은 앞 머리 및 뒷 머리에 대한 모델들을 나타내는 도면들이다.4A-C are diagrams showing models for the front and rear heads.
도 5a ∼ c들은 앞 머리의 모델과 뒷 머리의 모델을 조합하여 합성된 머리형의 예들을 나타내는 도면들이다.5a to c are diagrams showing examples of a hairstyle synthesized by combining the model of the front head and the model of the back head.
도 6은 입력된 얼굴 영상으로부터 머리 영역 세그멘테이션에 따른 머리형을 매칭하는 과정을 나타내는 도면이다.FIG. 6 is a diagram illustrating a process of matching a head shape according to head region segmentation from an input face image.
도 7은 캐리커처 영상의 합성례를 나타내는 도면이다.7 is a diagram illustrating a synthesis example of a caricature image.
도 8은 본 발명에 의한 캐리커처 영상 생성 방법을 설명하기 위한 플로우차트이다.8 is a flowchart for explaining a caricature image generation method according to the present invention.
상기 과제를 이루기 위해, 얼굴을 촬상하여 획득한 얼굴 영상으로부터 상기 얼굴의 캐리커처 영상을 생성하는 본 발명에 의한 캐리커처 영상 생성 장치는, 가버 필터 응답(Gaber Filter Response)을 사용한 얼굴 탐색 방법으로 상기 얼굴 영상을 전 처리하여 정규화하고, 정규화된 얼굴 영상을 출력하는 전 처리부와, 상기 정규화된 얼굴 영상으로부터 코와 머리형을 포함하는 얼굴의 각 부위에 대한 특징 정보인 제1 특징 정보를 액티브 모양 모델(Active Shape Model)기법을 사용하여 검출하는 얼굴 특징 검출부와, 얼굴의 각 부위에 대한 모델들 각각에 대한 특징 정보인 제2 특징 정보와 상기 모델들을 사전 저장하는 데이타 저장부와, 상기 제1 특징 정보를 상기 제2 특징 정보와 비교 및 매칭하고, 그 결과를 매칭 정보로서 출력하는 특징 정보 매칭부 및 상기 데이타 저장부에 저장된 모델들중 해당하는 모델들을 상기 매칭 정보에 응답하여 독출하고, 독출된 상기 모델들을 합성하여 캐리커처 영상으로서 출력하는 캐리커처 합성부를 포함하고, 상기 특징 정보 매칭부는 상기 제1 및 상기 제2 특징 정보들로부터 경계 정보들에 대한 퓨리에 디스크립터(Fourier Descriptor)를 계산하고, 계산된 결과에 응답하여 상기 매칭 정보를 생성한다.In order to achieve the above object, the caricature image generating apparatus according to the present invention for generating a caricature image of the face from the face image obtained by capturing the face, the face image by a face search method using a Gaber Filter Response (Gaber Filter Response) Pre-processing to normalize and output a normalized face image, and first feature information, which is characteristic information about each part of the face including the nose and the head, from the normalized face image. A face feature detection unit for detecting using a shape model), second feature information which is feature information for each model of each part of the face, a data storage unit for pre-storing the models, and the first feature information A feature information matching unit and the data for comparing and matching with the second feature information and outputting the result as matching information; And a caricature synthesis unit configured to read corresponding models among models stored in a storage unit in response to the matching information, and to synthesize the read out models as a caricature image, wherein the feature information matching unit is configured to output the caricature image. A Fourier Descriptor for boundary information is calculated from the feature information, and the matching information is generated in response to the calculated result.
상기 다른 과제를 이루기 위해, 얼굴을 촬상하여 획득한 얼굴 영상으로부터 상기 얼굴에 대한 캐리커처 영상을 생성하는 본 발명에 의한 캐리커처 영상 생성 방법은, 가버 필터 응답(Gaber Filter Response)을 사용한 얼굴 탐색 방법으로 상기 얼굴 영상을 전 처리하여 정규화하는 단계와, 상기 정규화된 얼굴 영상으로부터 얼굴의 각 부위에 대한 특징 정보인 제1 특징 정보를 액티브 모양 모델(Active Shape Model)기법을 사용하여 구하는 단계와, 얼굴의 각 부위에 대한 모델들 및 상기 모델들 각각에 대한 특징 정보인 사전 저장된 제2 특징 정보를 상기 제1 특징 정보와 비교 및 매칭하여 매칭 정보를 구하는 단계 및 상기 모델들중 해당하는 모델들을 상기 매칭 정보에 상응하여 선택하고, 선택된 모델들을 합성하여 상기 캐리커처 영상을 생성하는 단계를 포함하는 것을 특징으로 하고, 상기 매칭 정보를 구하는 단계는 상기 제1 및 상기 제2 특징 정보들로부터 경계 정보들에 대한 퓨리에 디스크립터(Fourier Descriptor)를 계산하고, 계산된 결과를 이용하여 상기 매칭 정보를 구한다.In order to achieve the above object, the caricature image generating method according to the present invention for generating a caricature image of the face from the face image obtained by capturing the face, the face search method using a Gaber Filter Response (Gaber Filter Response) Normalizing a face image by preprocessing; obtaining first feature information, which is feature information on each part of the face, from the normalized face image by using an active shape model technique; Obtaining matching information by comparing and matching the models of the site and the pre-stored second feature information, which is the feature information of each of the models, with the first feature information and matching the corresponding models of the models to the matching information. And correspondingly selecting and synthesizing the selected models to generate the caricature image. In the obtaining of the matching information, a Fourier Descriptor for boundary information is calculated from the first and second feature information, and the matching information is obtained using the calculated result.
이하, 본 발명에 의한 캐리커처 영상 생성 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, the configuration and operation of a caricature image generating apparatus according to the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 의한 캐리커처 영상 생성 장치의 블럭도로서, 전 처리부(10), 얼굴 특징 검출부(12), 특징 정보 매칭부(14), 데이타 저장부(16) 및 캐리커처 합성부(18)를 포함한다.1 is a block diagram of a caricature image generating apparatus according to the present invention, which includes a preprocessing unit 10, a facial feature detection unit 12, a feature information matching unit 14, a data storage unit 16, and a caricature synthesis unit 18. It includes.
도 1에 도시된 전 처리부(10)는 입력단자(IN)을 통해 입력되는 얼굴 영상을 전 처리하여 정규화하고, 정규화된 얼굴 영상 데이타를 생성하여 얼굴 특징검출부(12)로 출력한다. 여기서, 입력 얼굴 영상은 카메라등과 같은 영상 촬영 장치(미도시)를 통해 얼굴을 촬상함으로서 획득된다.The preprocessing unit 10 illustrated in FIG. 1 preprocesses and normalizes a face image input through the input terminal IN, generates normalized face image data, and outputs the normalized face image data to the face feature detection unit 12. Here, the input face image is obtained by capturing a face through an image photographing device (not shown) such as a camera.
전 처리부(10)는 전술한 기능을 위해, 예를 들면 가버 필터 응답(Gabor Filter Response)을 이용할 수 있다. 즉, 전 처리부(10)는 가버 필터 응답을 이용한 탐색 방법으로 입력 얼굴 영상에서 얼굴 영역을 찾아내고 두 눈의 중심점을 검출한 다음, 이를 바탕으로 정규화된 얼굴 영상을 만들고, 정규화된 얼굴 영상을 가지고 스킨 칼라 필터링(Skin Color Filtering)을 실행한다.The preprocessor 10 may use, for example, a Gabor Filter Response for the above-described function. That is, the preprocessing unit 10 detects a face region from an input face image by detecting a gabor filter response, detects a center point of two eyes, and creates a normalized face image based on the normalized face image. Perform Skin Color Filtering.
한편, 얼굴 특징 검출부(12)는 전 처리부(10)로부터 출력되는 정규화된 얼굴 영상으로부터 얼굴의 각 부위인 눈, 눈썹, 코, 입술, 얼굴 윤곽, 머리형등에 대한 특징을 검출하고, 검출된 특징을 제1 특징 정보로서 특징 정보 매칭부(14)로 출력한다. 이를 위해, 예를 들면, 얼굴 특징 검출부(12)는 액티브 모양 모델(ASM:Active Shape Model)기법을 사용할 수 있다. ASM기법이란, 얼굴의 각 부위마다 각기 다양한 형태의 대표 모델들 및 그 형태적 변화의 특징을 추출해 내는 기법이다.Meanwhile, the facial feature detector 12 detects features of eyes, eyebrows, noses, lips, facial contours, heads, and the like which are parts of the face from the normalized facial image output from the preprocessor 10, and detects the detected features. Is output to the feature information matching section 14 as first feature information. For this purpose, for example, the facial feature detector 12 may use an Active Shape Model (ASM) technique. The ASM technique is a technique for extracting various types of representative models and characteristics of morphological changes in each part of the face.
본 발명의 이해를 돕기 위해, 얼굴 특징 검출부(12)가 ASM 기법을 사용하여 얼굴의 부위들중 입술에 대한 다양한 형태의 대표 모델들 및 그 형태적 변화의 특징을 추출해가는 과정을 첨부한 도면을 참조하여 설명하면 다음과 같다.In order to help the understanding of the present invention, the facial feature detection unit 12 uses the ASM technique to extract various types of representative models of the lips and the features of the morphological changes using the ASM technique. If described with reference to:
도 2a는 ASM 기법을 이용하여 입술을 검출하는 과정을 설명하기 위한 도면으로서, 도 2a는 정규화된 얼굴 영상을 나타내고, 도 2b는 입술의 대표 모델을 얻기 위한 학습 패턴 과정을 나타내는 도면이고, 도 2c는 학습 패턴을 통해 얻어진 입술의 대표 모델(20)의 평균 좌표와 대상 입술의 관계를 나타내는 도면이고, 도 2d는 입술의 검출을 보여주는 도면이다.FIG. 2A is a diagram illustrating a process of detecting lips using the ASM technique, FIG. 2A illustrates a normalized face image, FIG. 2B illustrates a learning pattern process for obtaining a representative model of the lips, and FIG. 2C Is a diagram showing the relationship between the average coordinates of the representative model 20 of the lips obtained through the learning pattern and the target lips, and FIG. 2D is a diagram showing the detection of the lips.
먼저, 도 2b에 도시된 바와 같은 다양한 형태의 입술 형태들을 학습 패턴으로 사용하여 입술의 대표 모델, 평균 위치 좌표 및 입술의 형태적 변화의 특징 등을 얻는다. 이 때, 얼굴 특징 검출부(12)는 전 처리부(10)로부터 도 2a에 도시된 정규화된 얼굴 영상이 입력되면, 사전에 얻어진 평균 좌표에 입술 대표 모델(20)을 적용하고 학습된 형태적 변화의 특징을 고려해 입력된 얼굴의 입술윤곽을 찾아낸다. 그러므로, 피부색과 입술색이 비슷하여 입술의 경계 즉, 입술 윤곽이 불분명하더라도 학습으로 인해 얻어진 통계적인 정보를 통해, 도 2d에 도시된 바와 같이 입술 윤곽이 잘 검출될 수 있다. 이와 같은 방법으로 얼굴의 다른 부위들에 대한 특징 정보들로 검출될 수 있으며, 검출된 특징정보는 제1 특징 정보로서 특징 정보 매칭부(14)로 출력된다.First, various types of lip shapes as shown in FIG. 2B are used as learning patterns to obtain representative models of lips, average position coordinates, and features of morphological changes of lips. In this case, when the normalized face image shown in FIG. 2A is input from the preprocessing unit 10, the facial feature detection unit 12 applies the lip representative model 20 to previously obtained average coordinates, Find the lip contour of the input face considering the features. Therefore, even if the skin color and the lip color are similar and the boundary of the lips, that is, the lip contour is unclear, the lip contour can be well detected as shown in FIG. 2D through statistical information obtained through learning. In this manner, feature information about other parts of the face may be detected, and the detected feature information is output to the feature information matching unit 14 as first feature information.
도 1에 도시된 데이타 저장부(16)는 얼굴의 각 부위 즉, 머리형, 얼굴형, 눈, 눈썹, 코, 입 등에 대한 다수의 모델들 및 이 모델들에 대한 특징 정보들인 제2 특징 정보들을 데이타 베이스(DB:Data Base) 형태로서 미리 저장하고 있다. DB 구성의 기본 원칙은 각 얼굴 부위에 대해 가장 많이 나타나는 유형을 순위별로 나누고 그 유형의 특징을 잘 반영하면서도 미려해 보이도록 모델을 구성하는 것이다.The data storage unit 16 shown in FIG. 1 includes a plurality of models of each part of the face, that is, a head, a face, an eye, an eyebrow, a nose, a mouth, and the like, and second feature information which is feature information about the models. Are stored in the form of a database (DB). The basic principle of DB composition is to divide the types that appear most for each face area by rank and construct the model to reflect the characteristics of the type and to look beautiful.
예를 들어, 데이타 저장부(16)에 저장되는 모델들중에서 사람의 인상에 가장 큰 영향을 미치는 눈과 눈썹의 모델들을 살펴보면 다음과 같다.For example, among the models stored in the data storage unit 16, the eye and eyebrow models that have the greatest influence on the impression of the person are as follows.
도 3a ∼ c들은 데이타 저장부(16)에 저장되는 눈과 눈썹의 세부적인 모델들을 나타내는 도면들이다.3A to 3C illustrate detailed models of eyes and eyebrows stored in the data storage unit 16.
도 3a ∼ c 각각에는 일반적으로 가장 많이 나타나는 눈이 7가지의 종류로 분류되어 도시되 있다. 도 3a는 눈꼬리가 보통인 눈의 모델들을 나타내고, 도 3 b는 눈꼬리가 올라간 눈의 모델들을 나타내고, 도 3c는 눈꼬리가 내려간 눈의 모델들을 각각 나타내며, 도 3a∼ c들에서, 열 A, B 및 C는 보통 크기의 눈, 쌍거풀인 눈 및 작은 눈을 각각 나타낸다. 따라서, 7*3*3 = 63 종류의 눈 모델들이 DB로 구성될 수 있다. 그러나, 데이타 저장부(16)는, 도 3a∼ c들에 도시된 바와 같이, 이러한 모델들중에서 현실로 나타나지지 않는 9가지의 경우를 제외한 54 가지의 상세 모델만을 DB화하여 저장한다. 한편, 눈썹은 48가지로 분류되는데, 먼저 남녀에 따라 나타나는 서로 다른 9가지 모양을 꼬리가 올라간 형, 내려간 형, 보통형으로 나누어 DB화되고, 다시 눈썹의 진하기에 따라 두가지로 나누어 DB화된다.In each of FIGS. 3A to 3C, eyes that appear most commonly are classified into seven types. FIG. 3A shows the models of the eye with normal tail, FIG. 3B shows the models of the eye with raised tail, and FIG. 3C shows the models of the eye with lower tail, respectively, in FIGS. 3A-C, in columns A and B And C represent normal-sized eyes, double eye, and small eyes, respectively. Therefore, 7 * 3 * 3 = 63 kinds of eye models may be configured as a DB. However, as shown in Figs. 3A to 3C, the data storage unit 16 stores only 54 detailed models in DB except for 9 cases which do not appear to be actual. On the other hand, the eyebrows are classified into 48 types. First, nine different shapes appearing according to men and women are divided into DBs with raised tails, lowered types, and normal types, and then divided into two types according to the thickening of the eyebrows. .
다른 예로서, 데이타 저장부(16)에 저장되는 모델들중에서 머리형에 대한 모델들을 살펴보면 다음과 같다.As another example, looking at the model for the head of the model stored in the data storage unit 16 as follows.
도 4a ∼ c들은 앞머리 및 뒷머리에 대한 모델들을 나타내는 도면들로서, 도 4a는 남자 앞 머리형에 대한 모델들을 나타내고, 도 4b는 뒷 머리형에 대한 모델들을 나타내고, 도 4c는 여자 앞 머리형에 대한 모델들을 각각 나타낸다.Figures 4a-c show models for bangs and foreheads, Figure 4a shows models for the forehead, Figure 4b shows the models for the forehead, and Figure 4c shows for the foreheads. Represent each model.
도 4a ∼ c들에 도시된 앞 머리형 모델들 및 뒷 머리형 모델들은 데이타 저장부(16)에 저장되며, 특정 집단 즉, 10대, 20대 및 30대의 머리 스타일로부터 추출될 수도 있다.The front and back hairstyle models shown in FIGS. 4A-C are stored in the data storage 16 and may be extracted from a particular group, ie, teenager, 20 and 30 hair styles.
또 다른 예로서, 데이타 저장부(16)에 저장되는 모델들중에서 얼굴형에 대한 모델들(미도시)은 크게 갸름한형, 보통형, 통통한형의 3가지로 구성되어 저장될 수 있다. 이때, 호감도가 떨어지는 사각턱이나 뾰족턱은 저장할 모델들에서 제외된다. 또한, 데이타 저장부(16)에 저장될 입술에 대한 모델들(미도시)은 모양에 따라 10가지 내외로 구성될 수 있으며, 다시 보편적인 립스틱 칼라 및 4가지의 자연색으로 구성되어 DB화된다.As another example, among the models stored in the data storage unit 16, models (not shown) for the face shape may be largely composed of three types, slim type, normal type, and chubby type. At this time, the square jaw or the pointed jaw drop is excluded from the models to be stored. In addition, the models (not shown) for the lips to be stored in the data storage unit 16 may be configured in about 10 or more depending on the shape, and is again composed of a universal lipstick color and four natural colors into a DB.
결국, 데이타 저장부(16)는 상술한 바와 같은 얼굴 각 부위에 대한 모델들 및 그 모델들 각각에 대한 매칭에 사용될 제2 특징 정보들을 사전 저장하며, 제2 특징 정보들을 특징 정보 매칭부(14) 및 캐리커처 합성부(18)로 출력한다. 데이타 저장부(16)에 저장되는 모델들 및 제2 특징 정보에 대한 구성 및 내용은 사용자의 요구에 따라 갱신될 수도 있다.As a result, the data storage unit 16 pre-stores the models for each part of the face as described above and the second feature information to be used for matching each of the models, and stores the second feature information as the feature information matcher 14. And the caricature synthesis unit 18 are output. The configuration and contents of the models and the second feature information stored in the data storage unit 16 may be updated according to a user's request.
한편, 특징 정보 매칭부(14)는 얼굴 특징 검출부(12)에서 검출되어 제공되는 제1 특징 정보를 분석하고, 데이타 저장부(16)에 저장된 제2 특징 정보를 독출하여 분석된 제1 특징 정보와 비교 및 매칭시키고, 그 결과를 매칭 정보로서 캐리커처 합성부(18)로 출력한다. 이를 위해, 예를 들면 특징 정보 매칭부(14)는 경계 정보들에 대한 퓨리에 디스크립터(Fourier Descriptor)를 계산하여 얼굴 각 부위에 대한 제1 특징 정보와 데이타 저장부(16)에 저장된 제2 특징 정보를 매칭시킬 수 있다. 이러한 매칭이 이루어지면, 특징 정보 매칭부(14)는 매칭된 결과인 매칭 정보를 캐리커처 합성부(18)로 출력한다.Meanwhile, the feature information matching unit 14 analyzes the first feature information detected and provided by the face feature detection unit 12, reads the second feature information stored in the data storage unit 16, and analyzes the first feature information. And match, and output the result to the caricature synthesis unit 18 as matching information. To this end, for example, the feature information matching unit 14 calculates a Fourier Descriptor for the boundary information, and thus, the first feature information for each face and the second feature information stored in the data storage unit 16. Can be matched. When such a match is made, the feature information matching unit 14 outputs the matching information, which is a result of the matching, to the caricature synthesis unit 18.
한편, 도 1에 도시된 캐리커처 합성부(18)는 데이타 저장부(16)에 저장된 모델들중 캐리커처 영상을 위해 합성할 해당하는 모델들을 특징 정보 매칭부(14)로부터 출력된 매칭 정보에 따라 독출하고, 독출된 모델들을 합성하며, 합성된 결과를 캐리커처 영상으로 출력단자(OUT)를 통해 출력한다.Meanwhile, the caricature synthesis unit 18 shown in FIG. 1 reads out corresponding models to be synthesized for the caricature image among the models stored in the data storage unit 16 according to the matching information output from the feature information matching unit 14. The synthesized models are synthesized, and the synthesized result is output as a caricature image through an output terminal OUT.
캐리커처 합성부(18)에서 캐리커처 영상의 머리형 부분을 합성하는 과정을 살펴보면 다음과 같다.The process of synthesizing the head portion of the caricature image by the caricature synthesis unit 18 is as follows.
도 5a ∼ c들은 도 4a 또는 c에 도시된 앞 머리의 모델과 도 4b에 도시된 뒷 머리의 모델을 조합하여 합성된 머리형의 례들을 나타내는 도면들이다.FIGS. 5A to 5C are diagrams showing examples of a hairstyle synthesized by combining the model of the front head shown in FIG. 4A or C and the model of the back head shown in FIG. 4B.
캐리커처 합성부(18)는 도 4a 또는 c에 도시된 앞 머리형 모델들중 하나와 도 4b에 도시된 뒷 머리형 모델들중 하나를 매칭 정보를 이용하여 데이타 저장부(16)로부터 독출하고, 독출된 모델들을 합성하여 도 5a ∼ c들에 도시된 바와 같은 캐리커처 영상의 머리형 모델을 생성할 수 있다. 부연하여, 캐리커처 영상의 머리형 모델이 생성되는 과정을 설명하면 다음과 같다.The caricature synthesis unit 18 reads one of the front head models shown in FIG. 4A or C and one of the back head models shown in FIG. 4B from the data storage unit 16 using matching information, The read models may be synthesized to generate a head model of a caricature image as shown in FIGS. 5A to 5C. In detail, a process of generating the head model of the caricature image is described as follows.
도 6은 입력된 얼굴 영상으로부터 머리 영역 세그멘테이션에 따른 머리형을 매칭하는 과정을 나타내는 도면이다.FIG. 6 is a diagram illustrating a process of matching a head shape according to head region segmentation from an input face image.
도 6을 참조하면, 도 1에 도시된 전 처리부(10)는 입력단자(IN)을 통해 얼굴 영상(30)을 입력하여 정규화하고, 정규화된 얼굴 영상(40)을 얼굴 특징 검출부(12)로 출력한다. 이 때, 얼굴 특징 검출부(12)는 정규화된 얼굴 영상(40)을 입력하여 머리형 및 눈에 대한 제1 특징 정보를 검출하고, 검출된 제1 특징 정보를 특징 정보 매칭부(14)로 출력한다. 특징 정보 매칭부(14)는 데이타 저장부(16)에 저장된 제2 특징 정보와 이와 같이 구해진 제1 특징 정보를 매칭하여 매칭 정보를 검출한다. 이때, 캐리커처 합성부(18)는 캐리커처 영상의 머리형 부분을 합성할 때, 영역확장(Region Growing)방식을 이용하여 머리 영역 분할(Hair region Segmentation)(50)한다. 즉, 머리형 후보 영역에 대한 히스토그램 분석을 통해 영역 확장을 위한 시드(seed)를 발견하고 영역 확장을 통해 머리형을 분할하게 된다. 다음으로, 캐리커처 합성부(18)는 분할된 머리영역을 하나의 템플릿(template)으로 하고 데이타 저장부(16)에 저장된 도 4a ∼ c에 도시된 머리형 모델들과 템플릿 매칭을 하여 매칭된 머리형 모델(60)을 생성한다.Referring to FIG. 6, the preprocessing unit 10 illustrated in FIG. 1 inputs and normalizes the face image 30 through the input terminal IN, and converts the normalized face image 40 into the face feature detection unit 12. Output At this time, the face feature detector 12 inputs the normalized face image 40 to detect first feature information about the head and the eyes, and outputs the detected first feature information to the feature information matcher 14. do. The feature information matching unit 14 detects matching information by matching the second feature information stored in the data storage unit 16 with the first feature information thus obtained. In this case, the caricature synthesizing unit 18 performs a hair region segmentation 50 using a region growing method when synthesizing the head portion of the caricature image. In other words, the seed for the region expansion is found through histogram analysis of the hair candidate region, and the hair is segmented through the region expansion. Next, the caricature synthesizing unit 18 uses the divided head region as a template and performs a template matching with the head models shown in FIGS. 4A to C stored in the data storage unit 16 to match the head. Generate a type model 60.
도 7은 캐리커처 영상의 합성례를 나타내는 도면이다.7 is a diagram illustrating a synthesis example of a caricature image.
캐리커처 합성부(18)는 전술한 방법으로 합성된 캐리커처를 후처리하여 실제 얼굴의 형태와 유사하게 얼굴 형태를 변형 및 피부색, 안경 착용 여부에 대해 조정함으로써 캐리커처 영상의 합성을 완료한 다음, 예를 들면 도 7에 도시된 바와 같은 완성된 캐리커처 영상을 출력단자(OUT)를 통해 출력한다.The caricature synthesizing unit 18 post-processes the caricature synthesized by the above-described method, and completes the synthesis of the caricature image by adjusting the shape of the face, deformation, skin color, and wearing glasses, similarly to the shape of the actual face. For example, the completed caricature image as shown in FIG. 7 is output through the output terminal OUT.
이하, 본 발명에 의한 캐리커처 영상 생성 방법을 첨부된 도면을 참조하여 다음과 같이 설명한다.Hereinafter, a method for generating a caricature image according to the present invention will be described with reference to the accompanying drawings.
도 8은 본 발명에 의한 캐리커처 영상 생성 방법을 설명하기 위한 플로우차트로서, 입력 얼굴 영상을 전 처리한 후 제1 특징 정보를 검출하는 단계(제70 및 제72 단계) 및 제1 특징 정보와 제2 특징 정보를 이용하여 캐리커처 영상을 합성하는 단계(제74 및 제76 단계)로 이루어진다.FIG. 8 is a flowchart illustrating a method for generating a caricature image according to the present invention, comprising: detecting first feature information (steps 70 and 72) and first feature information and a first feature after preprocessing an input face image; And synthesizing the caricature image using the feature information (steps 74 and 76).
먼저, 전술한 바와 같이, 외부의 영상 촬영 장치에서 얼굴을 촬상하여 획득한 얼굴 영상을 전 처리부(10)는 전 처리하여 정규화함으로서 정규화된 얼굴 영상을 구한다(제70 단계). 제70 단계후에, 얼굴 특징 검출부(12)는 제70 단계에서 구한 정규화된 얼굴 영상으로부터 얼굴의 각 부위에 해당하는 특징 정보인 제1 특징 정보를 전술한 ASM 기법 따위를 사용하여 검출한다(제72 단계).First, as described above, the preprocessing unit 10 preprocesses and normalizes a face image obtained by capturing a face in an external image capturing apparatus (step 70). After operation 70, the facial feature detector 12 detects first feature information, which is feature information corresponding to each part of the face, from the normalized face image obtained in operation 70, using the above-described ASM technique. step).
제72 단계후에, 특징 정보 매칭부(14)는 제72 단계에서 구한 제1 특징 정보를 분석하고, 경계 정보들에 대한 퓨리에 디스크립터를 계산함으로서, 미리 저장된 얼굴 각 부위들에 대한 특징 정보인 제2 특징 정보와 분석된 얼굴의 제1 특징 정보를 비교 및 매칭시켜 매칭 정보를 구한다(제74 단계). 제74 단계후에, 캐리커처 합성부(18)는 제74 단계에서 구한 매칭 정보에 따라 데이타 저장부(16)로부터 선택한 얼굴 각 부위의 모델들을 합성하여 캐리커처 영상을 구한다(제76 단계).After operation 72, the feature information matching unit 14 analyzes the first feature information obtained in operation 72 and calculates a Fourier descriptor for the boundary information, thereby obtaining the second feature, which is feature information for each of the pre-stored parts of the face. Matching information is obtained by comparing and matching the feature information with the first feature information of the analyzed face (step 74). After the 74 th step, the caricature synthesizing unit 18 obtains the caricature image by synthesizing models of each part of the face selected from the data storage unit 16 according to the matching information obtained in the 74 th step (step 76).
제70 ∼ 제76 단계들 각각의 세부적인 내용은 각 단계가 수행되는 도 1에 도시된 각 부(10, 12, 14 및 18)의 기능과 동일하므로 그 설명을 생략한다.Details of each of the seventy-seventh through seventy-seventh steps are the same as those of the respective parts 10, 12, 14, and 18 shown in FIG.
이상에서 설명한 바와 같이, 본 발명에 의한 캐리커처 생성 장치 및 방법은 실제로 촬상된 원래의 얼굴에 대한 얼굴 영상과 미리 저장하고 있던 얼굴 각 부위의 모델들을 매칭하고, 이를 통해 캐리커처를 합성하기 때문에 원래의 얼굴 영상의 특징을 충분히 반영한 캐리커처 영상을 얻을 수 있도록 한다. 또한, 입력되는 얼굴 영상으로부터 원래의 영상에 가까운 캐리커처 영상을 자동으로 생성할 수 있을 뿐만 아니라, 데이타 저장부(16)에 모델들 및 그의 제2 특징 정보들을 사용자가 원하는 대로 저장할 수 있기 때문에 자유롭게 캐리커처를 합성시킬 수도 있는 효과가 있다.As described above, the caricature generating apparatus and method according to the present invention match the face image of the original face actually photographed with the models of each part of the face previously stored, and synthesize the caricature through the original face, thereby Caricature images that fully reflect the characteristics of the image can be obtained. In addition, since the caricature image close to the original image can be automatically generated from the input face image, the caricature can be freely stored because the models and the second characteristic information thereof can be stored in the data storage unit 16 as desired by the user. There is also an effect that can be synthesized.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2000-0047501A KR100387236B1 (en) | 2000-08-17 | 2000-08-17 | Method and apparatus for generating caricature image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2000-0047501A KR100387236B1 (en) | 2000-08-17 | 2000-08-17 | Method and apparatus for generating caricature image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20020014298A KR20020014298A (en) | 2002-02-25 |
KR100387236B1 true KR100387236B1 (en) | 2003-06-12 |
Family
ID=19683529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2000-0047501A KR100387236B1 (en) | 2000-08-17 | 2000-08-17 | Method and apparatus for generating caricature image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100387236B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002236331A1 (en) * | 2002-02-28 | 2003-09-09 | Virtualmedia Co., Ltd. | Apparatus and method for generating character images using mobile machine |
CN1313979C (en) * | 2002-05-03 | 2007-05-02 | 三星电子株式会社 | Apparatus and method for generating 3-D cartoon |
KR100647322B1 (en) * | 2005-03-02 | 2006-11-23 | 삼성전자주식회사 | Apparatus and method of generating shape model of object and apparatus and method of automatically searching feature points of object employing the same |
KR101141643B1 (en) * | 2005-03-07 | 2012-05-04 | 엘지전자 주식회사 | Apparatus and Method for caricature function in mobile terminal using basis of detection feature-point |
KR100745981B1 (en) * | 2006-01-13 | 2007-08-06 | 삼성전자주식회사 | Method and apparatus scalable face recognition based on complementary features |
KR100889854B1 (en) * | 2007-07-16 | 2009-03-24 | 연세대학교 산학협력단 | Method and Apparatus for creating caricature Video |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH102000A (en) * | 1996-06-18 | 1998-01-06 | Yodogawa Steel Works Ltd | Open-close type ditch cover |
JP2000155836A (en) * | 1998-11-19 | 2000-06-06 | Design Network:Kk | Portrait picture formation system and its method |
KR20000037042A (en) * | 2000-04-06 | 2000-07-05 | 김정렬 | Automatic character producing system |
KR20000049421A (en) * | 2000-03-06 | 2000-08-05 | 강석령 | System for producing caricatures and the producing method for caricatures using the system |
KR20010091743A (en) * | 2000-03-17 | 2001-10-23 | 박호성 | A formation method of an automatic caricature |
KR20010092618A (en) * | 2000-03-22 | 2001-10-26 | 이민호 | Automatic generation and output of caricature of a face using image information |
-
2000
- 2000-08-17 KR KR10-2000-0047501A patent/KR100387236B1/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH102000A (en) * | 1996-06-18 | 1998-01-06 | Yodogawa Steel Works Ltd | Open-close type ditch cover |
JP2000155836A (en) * | 1998-11-19 | 2000-06-06 | Design Network:Kk | Portrait picture formation system and its method |
KR20000049421A (en) * | 2000-03-06 | 2000-08-05 | 강석령 | System for producing caricatures and the producing method for caricatures using the system |
KR20010091743A (en) * | 2000-03-17 | 2001-10-23 | 박호성 | A formation method of an automatic caricature |
KR20010092618A (en) * | 2000-03-22 | 2001-10-26 | 이민호 | Automatic generation and output of caricature of a face using image information |
KR20000037042A (en) * | 2000-04-06 | 2000-07-05 | 김정렬 | Automatic character producing system |
Also Published As
Publication number | Publication date |
---|---|
KR20020014298A (en) | 2002-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101190686B1 (en) | Image processing apparatus, image processing method, and computer readable recording medium | |
US6920236B2 (en) | Dual band biometric identification system | |
Cosatto et al. | Photo-realistic talking-heads from image samples | |
US7876931B2 (en) | Face recognition system and method | |
US6504546B1 (en) | Method of modeling objects to synthesize three-dimensional, photo-realistic animations | |
Sablatnig et al. | Hierarchical classification of paintings using face-and brush stroke models | |
JP4435809B2 (en) | Virtual makeup apparatus and method | |
US20100189357A1 (en) | Method and device for the virtual simulation of a sequence of video images | |
US20080309662A1 (en) | Example Based 3D Reconstruction | |
CN104123749A (en) | Picture processing method and system | |
JP2004094917A (en) | Virtual makeup device and method therefor | |
US6975763B2 (en) | Shade component removing apparatus and shade component removing method for removing shade in image | |
JP2000357221A (en) | Method and device for image processing and recording medium with image processing program recorded | |
EP4239573A1 (en) | Method for detecting and segmenting the lip region | |
KR20220026252A (en) | Mobile terminal, server and method for composing beauty style | |
KR100387236B1 (en) | Method and apparatus for generating caricature image | |
JP3577908B2 (en) | Face image recognition system | |
JP2005250712A (en) | Figure attribute identification method and its system | |
JP5419777B2 (en) | Face image synthesizer | |
Shan et al. | Individual 3d face synthesis based on orthogonal photos and speech-driven facial animation | |
Bourbakis et al. | Skin-based face detection-extraction and recognition of facial expressions | |
Pei et al. | Transferring of speech movements from video to 3D face space | |
KR100473593B1 (en) | Apparatus and method for producing three-dimensional caricature | |
FR2920938A1 (en) | Image simulating method for beauty industry, involves deforming parametric models to adapt to contours of features on face, and detecting and analyzing cutaneous structure of areas of face by maximizing gradient flow of brightness | |
Lin et al. | Pose classification of human faces by weighting mask function approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120423 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |