KR20000063344A - Facial Caricaturing method - Google Patents

Facial Caricaturing method Download PDF

Info

Publication number
KR20000063344A
KR20000063344A KR1020000036241A KR20000036241A KR20000063344A KR 20000063344 A KR20000063344 A KR 20000063344A KR 1020000036241 A KR1020000036241 A KR 1020000036241A KR 20000036241 A KR20000036241 A KR 20000036241A KR 20000063344 A KR20000063344 A KR 20000063344A
Authority
KR
South Korea
Prior art keywords
caricature
image
facial
extracted
face
Prior art date
Application number
KR1020000036241A
Other languages
Korean (ko)
Inventor
김성호
박연출
이옥경
Original Assignee
김성호
박연출
이옥경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김성호, 박연출, 이옥경 filed Critical 김성호
Priority to KR1020000036241A priority Critical patent/KR20000063344A/en
Publication of KR20000063344A publication Critical patent/KR20000063344A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for automatically creating facial caricature is provided to create the caricature by storing the shape, size, and diverse distinctions as measurement data through an extraction of specific facial distinction and the use of a facial features database, and searching and mapping details corresponding to the person's distinctions. CONSTITUTION: A method for automatically creating facial caricature is composed of the steps of creation, input, extraction, and mapping. Diverse forms of caricature database, which stores each facial detail, are created. When the facial image's data is inputted, the distinctive facial features of the facial image are extracted. The most similar caricature of each facial category is extracted from the database using the extracted distinctive facial feature. The extracted caricature is mapped against the inputted facial image and a caricature similar to the inputted facial image is created.

Description

자동 얼굴 캐리커처 생성 방법{Facial Caricaturing method}Automatic face caricature generation method {Facial Caricaturing method}

본 발명은 인간의 얼굴 캐리커처 생성의 자동화에 관한 것으로 특히, 기존의윤곽선을 그려주거나 단순한 크기를 이용한 데이터가 아닌 입력된 얼굴 이미지의 상세한 특징 추출과 이목구비 데이터 베이스를 이용하여 모양과 크기 등 다양한 특징을 수치 데이터로 저장하여 개인의 특징에 맞는 세부사항(이목구비 등)을 검색하여 매핑시키므로서 캐리커처를 생성하는 캐리커처 생성 방법에 관한 것이다.The present invention relates to the automation of human face caricature generation, and in particular, to extract various features such as shape and size using a detailed feature extraction of the input face image and the mock-up database, rather than drawing existing outlines or using simple size data. The present invention relates to a caricature generation method of generating caricatures by storing numerical data and retrieving and mapping details (such as the number of objects) according to individual characteristics.

최근 하드웨어의 가격 하락으로 컴퓨터의 보급이 확산되고 인터넷이 보편화되고 활성화됨에 따라 다양한 분야에 다양한 서비스와 소프트웨어의 보급이 확산되고 있다.Recently, as the price of hardware has spread, the spread of computers and the generalization and activation of the Internet have led to the spread of various services and software in various fields.

뿐만 아니라, 인터넷의 속도 향상에 따라 인터넷에서도 단순한 텍스트 서비스가 아닌 멀티미디어 서비스를 제공하기 위한 연구 및 기술개발이 가속화되고 있다. 멀티미디어 서비스는 단순한 텍스트 서비스보다 큰 효과를 가져오기 때문에 현재도 다양한 분야에서 활용되고 있는 추세이다. 이는 이동 통신에도 영향을 미쳐 텍스트 서비스에 이어 멀티미디어 컨텐츠, 즉 이미지, 오디오, 비디오를 하나로 통합한 서비스를 제공하기 위해 연구 중에 있다.In addition, as the speed of the Internet improves, research and technology development for accelerating multimedia services, not just text services, are accelerating on the Internet. Since multimedia services have a greater effect than simple text services, they are currently being used in various fields. This affects mobile communication, and is researching to provide a service that integrates multimedia contents, that is, image, audio, and video, in addition to text services.

이러한 경향은 최근 멀티미디어의 보급이 확산되면서 일방적이거나 단편적인정보의 제공에서 탈피하여 네티즌들의 적극적인 참여를 유도하고 있다. 따라서, 대화형 영화(Interactive Movie)나 여러 가지 동영상에서 실감나는 양방향성 혹은 대화식의 접속을 위한 여러 가지 노력들이 제안 혹은 연구되고 있다.This trend has led to the active participation of netizens in recent years due to the spread of the multimedia and to deviate from the provision of one-sided or fragmentary information. Therefore, various efforts have been proposed or researched for an interactive or interactive connection in an interactive movie or various videos.

그러나 계속적인 연구에도 불구하고 실제적으로 내놓은 멀티미디어 컨텐츠는아직까지 매우 미흡한 실정이다. 하지만, 멀티미디어 컨텐츠의 개발은 필연적이다.However, despite the continuous research, the actual multimedia contents are still very insufficient. However, the development of multimedia content is inevitable.

멀티미디 컨텐츠 사업의 여러 분야에서 이용 가능한 캐릭터에 대한 관심이 증가하고 있다. 가상공간에서 가상인간(Avatar)의 이용이 활발해지고, 연예인이나자신을 닮은 캐릭터를 다양한 제품에 삽입하고, 그 캐릭터가 자신을 대신하는 감정에이전트(Emotional Agent)의 응용에도 이용되고 있다. 또, 연예인이나 개개인의 얼굴에서 몇몇 특징만을 뽑아내어 부각시키거나 변형하여 캐리커처를 생성할 경우마치 그 캐리커처가 실제 인물과 같은 일체감을 줄 수 있어 다양한 산업에 부가가치를 낼 수 있을 것이라 여겨진다.There is a growing interest in characters available in various fields of the multimedia content business. In the virtual space, the use of virtual humans (Avatar) is becoming active, and characters like celebrities or themselves are inserted into various products, and they are also used for the application of the emotional agent that replaces them. In addition, if a caricature is produced by extracting and highlighting or transforming only a few features from the face of a celebrity or an individual, the caricature can be added to various industries as it can give a sense of unity like a real person.

그러나 이러한 가능성에도 불구하고 캐리커처 제작 과정이 대부분 수작업으로 이루어지고 있어 많은 인력과 시간 낭비를 초래하고 있다. 따라서, 본 발명은 수동으로 이루어지고 있는 캐리커처 제작 과정을 증명사진의 이목구비 데이터를 추출하여 기 준비된 이목구비 데이터 베이스의 데이터와 비교하여 유사한 이목구비 이미지를 추출, 자동으로 개개인의 캐리커처를 생성하는 시스템을 개발하여 이러한사회적 요구를 충족시키고 많은 비용의 낭비를 막는데 목적이 있다.However, despite this possibility, the caricature manufacturing process is mostly done by hand, which causes a lot of manpower and time. Therefore, the present invention is to extract the caricature data of the proof photo to compare the caricature manufacturing process that is made manually with the data of the ready-made eye database, extract a similar car image and automatically develop a system to create individual caricatures Its purpose is to meet these social needs and to prevent waste of money.

이러한 캐리커처 자동 생성을 위해 제안되어진 종래의 기술을 간단히 살펴보면, 기존의 논문에서 제안된 얼굴 캐리커처 시스템을 예로 들 수 있는데, 종래의 시스템은 사람의 생각의 애매함과 복잡함을 단순화시켜 표현하는 퍼지 개념을 이용하여 캐리커처를 생성하는 시스템이다.Looking at the conventional technology proposed for the automatic caricature generation, for example, the face caricature system proposed in the existing paper, the conventional system uses a fuzzy concept that simplifies the ambiguity and complexity of human thinking. System to generate a caricature.

종래 시스템은 정규화된 표준 얼굴 이미지와 입력된 얼굴 이미지를 이목구비의 크기만을 비교하여 다양한 상대적 크기 데이터를 얻어낸 뒤 캐리커처를 표현해주는 시스템으로, 표준 얼굴 이미지의 21개의 특징 파라미터( 눈 크기, 눈썹두께,코의 위치, 높이, 얼굴형태, 머리 길이 등)를 이용하여 입력된 이미지의 특징 정보를 추출한다. 이렇게 추출된 각각의 크기 데이터를 49개의 feature terms(big, small, round, thin, tall, short 등)로 분석하여 유사이미지를 얼굴에 배치시키므로써 캐리커처를 생성한다. 이와는 다른 또 다른 시스템으로는 표준 얼굴 이미지의특징(이목구비)과 얼굴 윤곽선을 455개의 포인트에 의해 표현하고, 입력된 얼굴 이미지와 표준 얼굴 이미지의 각 포인트를 비교하여 확대와 축소를 통해 입력된 이미지를 처리하고, 최종적으로 455개의 포인트를 윤곽선으로 나타내어 캐리커처를 그려주는(drawing) 시스템이다.The conventional system expresses the caricature after comparing the normalized standard face image with the input face image only by comparing the size of the neck and neck to obtain various relative size data. The 21 feature parameters of the standard face image (eye size, eyebrow thickness, nose) The feature information of the input image is extracted using the position, height, face shape, hair length, and the like. Each size data extracted in this way is analyzed by 49 feature terms (big, small, round, thin, tall, short, etc.) to create a caricature by placing similar images on the face. Another system is to express the features of the standard face image (contrast) and face contour by 455 points, and compare the input face image with each point of the standard face image to enlarge and reduce the input image. The system then draws a caricature by contouring the 455 points.

따라서, 기존의 캐리커처 생성 시스템의 문제점은 다양하지 않은 데이터를 이용하여 생성하므로 얼굴의 다양성이 반영되지 않는다는 점과 표준 얼굴 이미지를기반으로 변형작업을 통하여 입력된 얼굴 이미지의 캐리커처를 생성하여 얼굴의 형태를 그대로 그려주므로 캐리커처의 의미보다는 사진의 변형의 효과를 준다는 점에있다.Therefore, the problem of the existing caricature generation system is that the shape of the face is generated by generating the caricature of the face image input through the transformation process based on the fact that the diversity of the face is not reflected because it is generated using various data and the standard face image Because it draws as it is, the effect of the transformation of the photograph rather than the meaning of caricature.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은 기존의 윤곽선을 그려주거나 단순한 크기를 이용한 데이터가 아닌 입력된 얼굴 이미지의 상세한 특징추출과 이목구비 데이터 베이스를 이용하여 모양과 크기 등 다양한 특징을 수치 데이터로 저장하여 개인의 특징에 맞는 세부사항(이목구비 등)을 검색하여 매핑시키므로서 캐리커처를 생성하는 캐리커처 생성 방법을 제공하는 데 있다.An object of the present invention for solving the above problems is to draw a detailed contour of the input face image and to draw various features such as shape and size by using the database of the head image rather than drawing the existing contour or using a simple size. The present invention provides a method for creating a caricature by generating a caricature by searching and mapping details (such as Lee Mok-Gu's) according to an individual's characteristics.

도 1은 캐리커처 생성 시스템의 구조 예시도,1 is an exemplary structure diagram of a caricature generation system;

도 2는 모델의 얼굴 사진 예시도,2 is an exemplary face photograph of a model;

도 3 내지 도 5는 얼굴 사진을 이용한 얼굴의 눈, 코, 입, 눈썹, 그리고, 얼굴의 형태를 추출 과정을 나타낸 예시도,3 to 5 is an exemplary view showing a process of extracting the shape of the eyes, nose, mouth, eyebrows, and face of the face using a face photograph,

도 6 내지 도 8은 추출된 얼굴형태를 이용한 캐리커처 생성 과정을 나타낸 예시도.6 to 8 are exemplary views showing a caricature generation process using the extracted face shape.

상기 목적을 달성하기 위한 본 발명의 특징은, 각각의 세부사항(이목구비 등)에 대하여 다양한 형태의 캐리커처 데이터베이스를 구축하는 제 1과정과, 얼굴이미지의 데이터가 입력되는 경우 해당 얼굴이미지에서 이목구비와 같은 세부사항의 특징을 추출하는 제 2과정과, 상기 제 2과정을 통해 추출되어진 세부항목의 특징을 이용하여 상기 제 1과정에서 구축되어 있는 데이터 베이스 중 가장 유사하다고 판단되는 각 세부 항목별 캐리커처를 추출하는 제 3과정, 및 상기 제 3과정을 통해 추출되어진 캐리커처를 상기 제 2과정을 통해 입력되어진 얼굴이미지에 매핑시켜 입력된 인물이미지와 닮은 캐리커처를 생성하는 제 4과정을 포함하는 데 있다.A feature of the present invention for achieving the above object is the first process of constructing a caricature database of various forms for each detail (such as yimugubi), and when the data of the facial image is input, such as yimugubi in the face image Extracts the caricature for each sub-item determined to be the most similar among the database constructed in the first process by using the second process of extracting the feature of the detail and the feature of the detail item extracted through the second process. And a fourth process of mapping the caricature extracted through the third process to the face image input through the second process to generate a caricature similar to the input person image.

상기 목적을 달성하기 위한 본 발명의 부가적인 특징으로는 상기 제 3과정에서 어떤 세부항목에 대하여 동일한 유사도를 갖는 캐리커처 데이터가 복수 개 추출되는 경우 사용자가 선택하도록 하는 사용자 선택 모드를 더 포함하는 데 있다.An additional feature of the present invention for achieving the above object is to further include a user selection mode for the user to select when a plurality of caricature data having the same similarity for a specific item is extracted in the third process .

본 발명의 상술한 목적과 여러 가지 장점은 이 기술 분야에 숙련된 사람들에의해 첨부된 도면을 참조하여 후술되는 발명의 바람직한 실시 예로부터 더욱 명확하게 될 것이다.The above object and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings by those skilled in the art.

이하, 첨부한 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 설명한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 캐리커처 생성 시스템의 구조 예시도이며, 도 2는 모델의 얼굴 사진예시도이고, 도 3 내지 도 5는 얼굴사진에서 이목구비에 대한 추출 과정을 나타낸예시도로서, 도 3은 얼굴 사진을 이용한 얼굴의 눈, 코, 입, 눈썹, 그리고, 얼굴의형태를 추출하기 위한 영역 설정 과정을 나타낸 예시도이며, 도 4는 얼굴의 눈, 코, 입, 눈썹 각각에 대한 추출부분의 예시도이고, 도 5는 추출된 이목구비에 에지추출 예시도이다.1 is an exemplary view showing the structure of a caricature generation system, FIG. 2 is an exemplary view of a face photograph of a model, and FIGS. 3 to 5 are exemplary views illustrating an extraction process for dissatisfaction from a face picture, and FIG. 4 is an exemplary view illustrating a region setting process for extracting the eyes, nose, mouth, eyebrows, and facial shape of the face, and FIG. 4 is an exemplary view of extraction parts for each of eyes, nose, mouth, and eyebrows of the face. 5 is an exemplary diagram of edge extraction to the extracted eunuchsubishi.

또한, 도 6 내지 도 8은 추출된 얼굴형태를 이용한 캐리커처 생성 과정을 나타낸 예시도로서, 도 6은 얼굴윤곽의 캐리커처이며, 도 7은 이목구비에 대한 캐리커처이고, 도 8은 도 6과 도 7의 캐리커처를 합성 매핑시킨 완성된 캐리커처이다.In addition, Figures 6 to 8 is an exemplary view showing a caricature generation process using the extracted face shape, Figure 6 is a caricature of the outline of the face, Figure 7 is a caricature for the neck, Figure 8 is of Figures 6 and 7 Complete caricature with synthetic mapping of caricatures.

첨부한 도면중 도 1의 구성을 살펴보면서 도 2내지 도 8까지의 각 첨부도면과 도 1의 관계를 살펴보기로 한다.Looking at the configuration of Figure 1 of the accompanying drawings will be described the relationship between each of the accompanying drawings and Figure 1 to Figures 2 to 8.

첨부한 도 1에는 참조번호를 부여하지 않았으며, 그 이유는 본 시스템이 방법적인 흐름의 개념을 갖고 있지 때문이다.1 is not given a reference number, because the system has a concept of a method flow.

우선, 각각의 세부사항(이목구비 등)에 대하여 다양한 형태의 캐리커처의 데이터를 저장하는 데이터 베이스를 구비하고, 얼굴이미지의 데이터가 입력되는 경우해당 얼굴이미지에서 이목구비와 같은 세부사항의 특징을 추출하는 세그먼테이션과특징정보추출 및 형태분류의 기능을 갖는 얼굴특징 추출모듈이 구비된다.First, a segment is provided with a database that stores data of various types of caricatures for each detail (e.g., eyeballs, etc.), and when data of a face image is inputted, segmentation that extracts features of details such as eyeballs from the face image. A facial feature extraction module having functions of over feature information extraction and shape classification is provided.

상기 얼굴특징 추출모듈에서 얼굴이미지 즉, 스캔되어진 사진의 주인공에 대한 얼굴특징이 추출되어진 경우 상기 데이터 베이스에서 가장 유사한 캐리커처의 데이터를 억세스하고 이를 원 얼굴이미지에 조합 매핑하도록 하는 추출된 이미지 매핑 모듈이 구비되어지는 것이다.When the facial feature extraction module extracts the facial feature of the main character of the scanned picture, the extracted image mapping module accesses the data of the most similar caricatures in the database and combines and maps it to the original face image. It is provided.

따라서, 첨부한 도 1에서 참조번호 A로 지칭되는 부분의 데이터가 도 2에 도시되어 있는 바와 같은 한 남성의 사진 이미지인 경우, 얼굴특징 추출모듈을 구성하고 있는 세그먼테이션을 통해 처리되어진 데이터(참조번호 B)는 첨부한 도 3에 도시되어 있는 바와 같아진다.Therefore, when the data of the part referred to by reference number A in FIG. 1 is a photographic image of a man as shown in FIG. 2, the data processed through the segmentation constituting the facial feature extraction module (reference number B) becomes as shown in FIG.

이때, 실제적으로 상기 얼굴특징 추출모듈을 통해 추출되어진 데이터는 첨부한 도 4에 도시되어 있는 바와 같고, 이러한 데이터를 기준으로 에지 처리되어진 데이터는 첨부한 도 5에 도시되어 있는 바와 같다.In this case, the data extracted through the facial feature extraction module is as shown in FIG. 4, and the data edge-processed based on this data is as shown in FIG. 5.

이후, 데이터 베이스에서 가장 유사한 데이터를 억세스하게 되는데, 억세스되어진 얼굴의 형태는 첨부한 도 6과 같고 이목구비에 대응하는 억세스 데이터는 도 7에 도시되어 있는 바와 같다.Thereafter, the most similar data is accessed in the database. The shape of the accessed face is as shown in FIG. 6 and the access data corresponding to the object is shown in FIG.

만약, 상기 얼굴특징 추출모듈을 통해 추출되어진 데이터를 기준으로 데이터베이스에서 가장 유사한 데이터를 억세스하는 과정에서 동일한 유사도를 갖는 캐리커처 데이터가 복수 개 억세스되는 경우에는 사용자에게 억세스 되어진 모든 캐리커처 데이터를 디스플레이한 후 선택하도록 하여 사용자의 의견을 반영하면서도 오류를 최소화하게 한다.If a plurality of caricature data having the same similarity is accessed in the process of accessing the most similar data in the database based on the data extracted through the facial feature extraction module, all the caricature data accessed by the user are displayed and selected. In this way, the error is minimized while reflecting the user's opinion.

상술한 본 발명에 따른 전체적인 개념을 살펴보았는데, 각 개념을 구체화시키기 위한 기술적 사상을 살펴보기로 한다.Having looked at the overall concept according to the present invention described above, the technical idea for embodying each concept will be described.

본 발명은 인물사진의 이목구비와 같은 세부사항의 특징을 추출하기 위하여중요한 작업중의 하나가 세그먼테이션이다. 세그먼테이션의 이상적인 결과는 사람이 인식하는 의미 있는 물체를 추출해 내는 것이지만 현재까지는 사람이 보기에 의미 있는 객체 추출의 알고리즘은 알려진 바 없다.Segmentation is one of the important tasks in the present invention to extract the features of the details, such as portraits of portraits. The ideal result of segmentation is to extract meaningful objects that humans perceive, but until now, no algorithm for extracting meaningful objects to human eyes has been known.

이것은 이미지 처리나 분석의 모듈에서 가장 먼저 수행되어야 하는 과정이다. 또한 이 과정이 나머지 수행되어야 하는 모듈의 기초 데이터를 제공하는 중요한 부분이기도 하다. 현재 많은 이미지 세그먼테이션 기술들이 나와있는데, 부분영역 추출방법의 종류로는 에지 기반 기술, 클러스터링 기반 기술, 영역 기반 기술로분류할 수 있다.This is the first step to be performed in the module of image processing or analysis. This is also an important part of providing the basic data for the module that needs to be performed. Currently, many image segmentation techniques are available. The types of partial region extraction methods can be classified into edge-based technology, clustering-based technology, and region-based technology.

본 발명에서는 색상 및 영역특징 기반 부분영역 추출 방법을 이용하며, 수행하는 절차는 두 단계로 구분하여 처리한다. 첫 번째는 영역성장(region growing)단계이며, 두 번째는 영역결합(region merging) 단계이다. 영역 결합단계는 다시 세분하여 잡음 영역을 이웃영역으로 결합하는 단계와 분리된 부분영역간의 유사도에따라 재결합하는 단계로 다시 구분된다.In the present invention, a color and region feature based partial region extraction method is used, and the procedure to be performed is divided into two steps. The first is the region growing stage and the second is the region merging stage. The region combining step is further subdivided into subdivided and combined noise regions into neighboring regions and recombining according to similarities between the separated subregions.

원 이미지에서 윤곽선을 추출하여 윤곽선의 이진 좌표점을 갖고 원 이미지와비교 대상 이미지의 위치와 형상에 대해 비교하는 방법이 있다. 윤곽선을 추출하는방법은 많은 이론이 있지만 정확한 윤곽선을 찾기는 어렵다. 1, 2차 미분을 통해 기울기가 변하는 점을 윤곽선으로 검출하는 방법이 가장 기본적인 원리라 할 수 있고, 그것을 응용한 방법들도 많이 제안되어 있다.There is a method of extracting an outline from a circle image and comparing the position and shape of the target image with a binary coordinate point of the outline. There are many theories on how to extract the contours, but it is difficult to find the exact ones. The most basic principle is the method of detecting the point where the slope changes through the first and second derivatives, and many methods have been proposed.

본 발명에서는 소벨(Sobel) 연산법을 이용하여 edge를 추출한다. 소벨(Sobel) 연산법을 수학식으로 표시하면 아래의 수학식 1과 같다.In the present invention, the edge is extracted using the Sobel algorithm. The Sobel calculation method is expressed as Equation 1 below.

[수학식 1][Equation 1]

상기 수학식 1에 표시되어 있는 소벨(Sobel) 연산법은 해당 업계에서 통용되고 있는 연산식이기 때문에, 상세한 설명은 생략하겠으며, 각각의 이목구비와 같은세부적인 얼굴의 특징을 추출하기 위해 윤곽선을 추출하고, 눈, 코, 입, 눈썹, 과같은 부분의 특징들을 수치로 나타낸 것이다.Since the Sobel calculation method shown in Equation 1 is a calculation formula that is commonly used in the industry, detailed descriptions will be omitted, and outlines are extracted to extract detailed facial features such as each noble eye. Numerical features such as eyes, nose, mouth, eyebrows, etc.

각 특징 정보는 입력된 얼굴 이미지의 부분영역에 대한 특징정보를 포함한다. 부분영역에 대한 특징정보는 각 부분에 따라 추출기준이 다르다. 눈은 눈동자를 기준으로 좌우의 크기와 눈까풀의 경사진 각도 그리고 위로 올라간 눈과 아래로처진 눈 등의 특징 정보를 추출한다. 구축된 데이터베이스는 동일 클래스를 분류하는데 이미지 분류란 검색 대상이 되는 이미지를 분류하여 검색되는 후보의 수를 줄이기 위하여, 의미 있는 특징들의 추출에 기반을 두고 사전에 정의된 클래스 중 하나로 할당하는 것을 말한다.Each feature information includes feature information about a partial region of an input face image. The feature information for the partial region differs according to each component. The eye extracts feature information such as the size of left and right, the angle of inclination of the eyelid, and the up and down eyes. The constructed database classifies the same class. Image classification refers to classifying an image to be searched and assigning it to one of the predefined classes based on the extraction of meaningful features in order to reduce the number of candidates to be searched.

앞에서 하나의 이미지에서 추출된 다수의 모양이 영역 특징정보에 따라 다수의 클래스에 할당된다. 즉, 눈을 예로 들자면, 눈의 방향성으로 클래스를 형성하면올라간 눈의 클래스 안에는 크기가 다른 다양한 눈이 있을 수 있다. 이러한 특징을가진 특징정보를 이용하여 입력된 얼굴 이미지는 다수의 클래스로 매핑되는데 각 특징정보가 해당하는 모든 클래스의 이미지를 검색하여 유사도를 계산하게 된다.A plurality of shapes extracted from one image are assigned to a plurality of classes according to region feature information. For example, in the case of an eye, when a class is formed by the direction of the eye, there may be various eyes having different sizes in the class of the raised eye. The face image input by using the feature information having such a feature is mapped to a plurality of classes, and the feature information is calculated by searching for images of all classes corresponding to each feature information.

하나의 입력된 얼굴 이미지는 얼굴의 형태 이미지에 대한 특징정보와, 각 부분영역의 특징정보가 독립적으로 클래스로 분류되므로 여러 클래스의 원소가 된다.그래서 검색시에는 입력된 얼굴 이미지의 각 특징정보에 따라 각 클래스들의 모든원소를 검색하여 가져온다.One input face image is classified into classes because the feature information about the shape image of the face and the feature information of each partial region are independently classified into classes, so that each feature of the input face image is searched for. Follow the search to get all the elements of each class.

모양정보에 대한 분류 기준은 부분영역의 윤곽선특징으로 표현될 수 있다. 윤곽선정보는 부분영역의 모양 유사성에 대한 주관적인 해석이 가능하므로 어느 한가지 기준으로 클래스화한다. 질의 이미지의 윤곽선정보와 비교하여 가장 유사한 그룹으로 분류된다.The classification criteria for the shape information may be expressed by the contour feature of the partial region. Contour information can be subject to any one criterion because subjective interpretation of shape similarity of subregions is possible. Compared to the contour information of the query image, it is classified into the most similar group.

이미지를 비교할 때 이미지 전체를 픽셀 단위로 계산하므로 많은 계산량이 요구되는데 유사도를 계산하기 위하여 모양 특징정보를 이용한다. 모양 특징정보는전체 이미지와 각 부분영역에 대한 특징정보로 분리하여 고려한다. 전체 얼굴이미지의 특징정보는 배경과 세그먼테이션을 통하여 얻어진 얼굴 형태를 의미하고, 각부분영역에 대한 특징정보는 이목구비에 따라 많이 다르다.When comparing images, the whole image is calculated in pixel units, so a large amount of calculation is required, and shape feature information is used to calculate similarity. The shape feature information is considered by separating the entire image and the feature information of each partial region. The feature information of the entire face image refers to the face shape obtained through the background and segmentation, and the feature information on each part region varies greatly depending on the eye.

이렇게 추출된 각각의 캐리커처 이미지를 매핑한다. 입력된 얼굴 이미지와 유사도를 계산하여 유사도가 높은 각 세부적인 이목구비를 검출하여 이 검출된 이미지를 이용하여 매핑시키는 작업이다. 매핑작업은 각 세부사항에 대한 위치정보를이용한다.Each caricature image thus extracted is mapped. By calculating the similarity with the input face image, it is a task to detect each detailed attention ratio having a high similarity and map it using the detected image. Mapping uses location information for each detail.

예를 들면 코는 얼굴의 중간에 위치하고, 눈은 얼굴의 중심을 기준으로 하여좌우 대칭한 좌표점을 이용하며 입은 중앙의 코와의 간격을 이용하여 위치를 잡아준다. 데이터베이스에서 추출한 유사도가 높은 세부적인 캐리커처를 이용하여 위치정보를 통해 매핑시키고 생성된 즉, 첨부한 도 8에 도시되어 있는 바와 같은 캐리커처를 디스플레이 시켜준다.For example, the nose is located in the middle of the face, the eyes are positioned using left and right symmetrical coordinate points with respect to the center of the face, and the position is determined using the distance from the nose in the center of the mouth. Using the detailed caricature extracted from the database, the caricature as shown in FIG. 8 is displayed and mapped and generated through location information.

이때, 상술한 설명에서와 같이 캐리커처 얼굴 이미지가 완성된 후, 그 사람만이 가지는 특징을 부각시키기 위해 미리 만들어진 정규화된 표준 이미지의 통계적 수치 데이터와 비교하여 특출나게 크거나 작거나 한 부분이 있다면 캐리커처 이미지에서 그 부분을 확대하거나 축소하게 된다.At this time, after the caricature face image is completed as described in the above description, if there is an exceptionally large, small or one part compared with the statistical numerical data of the normalized standard image, which is made in advance to emphasize the characteristic of the person only, the caricature It will zoom in or out on that part of the image.

예를 들어, 사용자의 코가 일반인들에 비해 크고 다른 이목구비에 비해 크기면에서 가중치가 높다면 캐리커처 생성을 위해 억세스되어 얻어진 이미지의 코를 확대하거나 그 이미지와 유사한 코 중에서 일반적인 것보다 크기가 큰 코를 찾아내어 교환한다.For example, if the user's nose is larger than the general public and has a large weight in comparison with other ancestors, the nose of the image obtained by accessing the caricature is enlarged or the nose similar to that of the image is larger than normal. Find and exchange

단, 데이터베이스에 있는 이미지들이 비트 맵일 경우는 확대를 하게되면 이미지의 원래 상태를 보장하지 못하고 이미지가 깨진다는 단점이 있다. 그러나 이목구비 데이터가 벡터일 경우는 억세스되어 얻어진 코 이미지를 적당한 비율로 확대하기만 하면 된다.However, if the images in the database are bitmaps, there is a disadvantage in that the original state of the image is not guaranteed and the image is broken. However, if the data is vector, it is only necessary to enlarge the nose image obtained by accessing it at an appropriate ratio.

즉, 비트맵 또는 벡터인 경우 모두 그 사람만이 가지는 얼굴의 특징을 과장시키는 것이다. 이 작업은 이목구비 데이터가 벡터일 때나 비트 맵일 때 모두 가능하다. 이렇게 함으로서 캐리커처가 갖는 사람마다의 주관적인 생각이나 과장의 묘미를 충족시킬 수 있으리라 본다.That is, in the case of a bitmap or a vector, the feature of the face that only the person has exaggerated. This can be done when the target data is a vector or a bitmap. In this way, caricatures can satisfy the subjective idea of each person or the exaggeration of exaggeration.

또한, 본 발명에서는 얼굴 윤곽선도 뽑아내어 얼굴 윤곽에 맞는 얼굴형(일러스트)을 찾아내고, 그 얼굴형 이미지에 찾아낸 눈, 코, 입, 눈썹 등을 올려 매핑하는 것으로 설명되었으므로, 데이터베이스에는 이목구비뿐만 아니라 얼굴형까지 준비되어 있어야 하지만, 종국에는 안경이나 악세사리등과 같은 코디 부분에까지 선택할 수 있다는 것을 미리 밝혀 둔다.In addition, since the present invention has been described as extracting a facial contour, finding a facial shape (illustration) that matches the facial contour, and mapping the found eye, nose, mouth, eyebrows, etc. onto the facial image, the database includes You'll need to have a face shape, but you'll know in advance that you'll be able to choose your outfit, such as glasses or accessories.

즉, 상술한 내용에서의 이목구비 혹은 세부사항이라 표현된 부분의 특징에는헤어스타일, 안경, 및 악세사리 등등을 포함하여 본 발명이 적용되는 것이다.In other words, the present invention is applied to the features of the above-described contents, such as haircuts or details, including hair styles, glasses, accessories, and the like.

이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도내에서 다양한 개조 및 변화가 가능하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.While the invention has been shown and described in connection with specific embodiments thereof, it is well known in the art that various modifications and changes can be made without departing from the spirit and scope of the invention as indicated by the claims. Anyone who owns it can easily find out.

상술한 바와 같이 본 발명에 따른 캐리커처를 자동으로 생성하는 경우, 멀티미디 컨텐츠 사업 중 다양한 분야에서 이용 가능하다. 가상공간에서 아바타(Avatar) 및 캐리커처(caricature) 이용이 활발해지고, 연예인이나 자신을 닮은 캐릭터를 다양한 제품에 삽입하고, 그 캐릭터가 자신을 대신하는 감정 에이전트(Emotional Agent)의 응용에도 이용되고 있다.As described above, when the caricature according to the present invention is automatically generated, it can be used in various fields of the multimedia content business. The use of avatars and caricatures in virtual spaces is becoming active, and characters that resemble entertainers or themselves are inserted into various products, and they are also used for the application of emotional agents in which the characters take their place.

연예인이나 자신을 닮은 캐리커처를 이용할 경우 마치 그 캐리커처가 실제 인물과 같은 일체감을 줄 수 있어 다양한 산업에도 영향을 미칠 것으로 보인다. 사용자와 닮은 캐리커처를 생성하므로, 멀티미디어분야 뿐만 아니라 인터넷의 가상세계에 이용되는 가상인간(Avatar)외에 수많은 응용 분야에서 유용하게 사용될 것으로 기대된다.If you use a caricature that resembles a celebrity or yourself, the caricature can give a sense of unity like a real person. By creating a caricature that resembles a user, it is expected to be useful not only in the multimedia field but also in many applications besides the virtual human (Avatar) used in the virtual world of the Internet.

또한 최근 젊은이들에게 있기 있는 탤런트나, 자신을 닮은 캐리커처가 여러다양한 상품에 삽입되어 이용되고 있으므로, 이를 자동화함으로써 더욱 확산될 것으로 보인다.In addition, since talents and caricatures resembling themselves are recently being used in various products, it is expected to spread further by automating them.

Claims (3)

각각의 세부사항(이목구비 등)에 대하여 다양한 형태의 캐리커처 데이터베이스를 구축하는 제 1과정과;A first step of constructing a variety of types of caricature databases for each of the details (such as the number of objects); 얼굴이미지의 데이터가 입력되는 경우 해당 얼굴이미지에서 이목구비와 같은세부사항의 특징을 추출하는 제 2과정과;A second process of extracting a feature of a detail, such as an eye, from the face image when data of the face image is input; 상기 제 2과정을 통해 추출되어진 세부항목의 특징을 이용하여 상기 제 1과정에서 구축되어 있는 데이터 베이스 중 가장 유사하다고 판단되는 각 세부 항목별캐리커처를 추출하는 제 3과정; 및A third step of extracting a caricature for each subitem determined to be the most similar among the databases constructed in the first step by using the feature of the subitem extracted through the second step; And 상기 제 3과정을 통해 추출되어진 캐리커처를 상기 제 2과정을 통해 입력되어진 얼굴이미지에 매핑시켜 입력된 인물이미지와 닮은 캐리커처를 생성하는 제 4과정을 포함하는 것을 특징으로 하는 자동 얼굴 캐리커처 생성 방법.And a fourth process of mapping a caricature extracted through the third process to a face image input through the second process to generate a caricature resembling the input person image. 제 1 항에 있어서,The method of claim 1, 상기 제 4과정을 통해 완성된 캐리커처 얼굴 이미지가 완성된 후, 소스 이미지의 해당 사람얼굴만이 가지는 특징을 부각시키기 위해 미리 만들어진 정규화된 표준 이미지의 통계적 수치 데이터와 비교하여 특출나게 크거나 작거나 한 부분이있다면 캐리커처 이미지에서 그 부분을 확대하거나 축소하는 제 5과정을 더 포함하는 것을 특징으로 하는 자동 얼굴 캐리커처 생성 방법.After the caricature face image completed through the fourth process is completed, it is exceptionally large or small compared to the statistical numerical data of the normalized standard image, which is made in advance, to highlight the features of the corresponding human face of the source image. And a fifth step of enlarging or reducing the portion of the caricature image if there is a portion. 제 1 항에 있어서,The method of claim 1, 상기 제 3과정에서 어떤 세부항목에 대하여 동일한 유사도를 갖는 캐리커처데이터가 복수 개 추출되는 경우 사용자가 선택하도록 하는 사용자 선택 모드를 더포함하는 것을 특징으로 하는 자동 얼굴 캐리커처 생성 방법.And a user selection mode for allowing a user to select when a plurality of caricature data having the same similarity with respect to a specific item is extracted in the third process.
KR1020000036241A 2000-06-26 2000-06-26 Facial Caricaturing method KR20000063344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000036241A KR20000063344A (en) 2000-06-26 2000-06-26 Facial Caricaturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000036241A KR20000063344A (en) 2000-06-26 2000-06-26 Facial Caricaturing method

Publications (1)

Publication Number Publication Date
KR20000063344A true KR20000063344A (en) 2000-11-06

Family

ID=19674655

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000036241A KR20000063344A (en) 2000-06-26 2000-06-26 Facial Caricaturing method

Country Status (1)

Country Link
KR (1) KR20000063344A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002017234A1 (en) * 2000-08-22 2002-02-28 Virtualmedia Co., Ltd Apparatus and method for generating synthetic face image based on shape information about face image
KR20020069595A (en) * 2001-02-27 2002-09-05 강석령 System and method for producing caricatures
WO2002093493A1 (en) * 2001-05-14 2002-11-21 Face3D Co., Ltd. Method for acquiring a 3d face digital data froom 2d photograph aand a system performing the same
KR100376760B1 (en) * 2000-07-05 2003-03-19 케이포테크놀로지 주식회사 Method for manufacturing caricature
KR20040049893A (en) * 2002-12-05 2004-06-14 김의선 Automatically Face Avatar Generation Method of Vector Image Type from an Image
WO2008114937A1 (en) * 2007-03-22 2008-09-25 Industry-Academic Cooperation Foundation, Yonsei University Virtual face generating method
CN109993807A (en) * 2019-02-21 2019-07-09 百度在线网络技术(北京)有限公司 Head portrait generation method, device and storage medium
CN112016411A (en) * 2020-08-13 2020-12-01 上海薇艾信息科技有限公司 Social method and system for creating head portrait of simulation object person for similarity matching
CN112016412A (en) * 2020-08-13 2020-12-01 上海薇艾信息科技有限公司 Method and system for digitally storing character head portrait elements and regions and analyzing similarity

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980074996A (en) * 1997-03-28 1998-11-05 강상경 How to make animated composite photos
KR19980084422A (en) * 1997-05-23 1998-12-05 배순훈 3D Character Generation Method Using Face Model and Template Model
KR20010091743A (en) * 2000-03-17 2001-10-23 박호성 A formation method of an automatic caricature
KR20010092618A (en) * 2000-03-22 2001-10-26 이민호 Automatic generation and output of caricature of a face using image information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980074996A (en) * 1997-03-28 1998-11-05 강상경 How to make animated composite photos
KR19980084422A (en) * 1997-05-23 1998-12-05 배순훈 3D Character Generation Method Using Face Model and Template Model
KR20010091743A (en) * 2000-03-17 2001-10-23 박호성 A formation method of an automatic caricature
KR20010092618A (en) * 2000-03-22 2001-10-26 이민호 Automatic generation and output of caricature of a face using image information

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100376760B1 (en) * 2000-07-05 2003-03-19 케이포테크놀로지 주식회사 Method for manufacturing caricature
WO2002017234A1 (en) * 2000-08-22 2002-02-28 Virtualmedia Co., Ltd Apparatus and method for generating synthetic face image based on shape information about face image
KR20020069595A (en) * 2001-02-27 2002-09-05 강석령 System and method for producing caricatures
WO2002093493A1 (en) * 2001-05-14 2002-11-21 Face3D Co., Ltd. Method for acquiring a 3d face digital data froom 2d photograph aand a system performing the same
KR20040049893A (en) * 2002-12-05 2004-06-14 김의선 Automatically Face Avatar Generation Method of Vector Image Type from an Image
WO2008114937A1 (en) * 2007-03-22 2008-09-25 Industry-Academic Cooperation Foundation, Yonsei University Virtual face generating method
CN109993807A (en) * 2019-02-21 2019-07-09 百度在线网络技术(北京)有限公司 Head portrait generation method, device and storage medium
CN112016411A (en) * 2020-08-13 2020-12-01 上海薇艾信息科技有限公司 Social method and system for creating head portrait of simulation object person for similarity matching
CN112016412A (en) * 2020-08-13 2020-12-01 上海薇艾信息科技有限公司 Method and system for digitally storing character head portrait elements and regions and analyzing similarity

Similar Documents

Publication Publication Date Title
US10049308B1 (en) Synthesizing training data
O'Toole et al. 3D shape and 2D surface textures of human faces: The role of “averages” in attractiveness and age
US9348877B2 (en) Methods, systems, and data structures for performing searches on three dimensional objects
US20140153832A1 (en) Facial expression editing in images based on collections of images
US20140122470A1 (en) Hierarchical ranking of facial attributes
US20110243461A1 (en) Methods, Systems, and Media for Automatically Classifying Face Images
US20190251744A1 (en) System and method for searching 3d models using 2d images
CN114187633B (en) Image processing method and device, and training method and device for image generation model
CN110147483A (en) A kind of title method for reconstructing and device
GB2379823A (en) Selecting images based on the similarity between images
CN114266695A (en) Image processing method, image processing system and electronic equipment
KR20000063344A (en) Facial Caricaturing method
Baraheem et al. Image synthesis: a review of methods, datasets, evaluation metrics, and future outlook
CN108537109A (en) Monocular camera sign Language Recognition Method based on OpenPose
CN114782979A (en) Training method and device for pedestrian re-recognition model, storage medium and terminal
Götzelmann et al. Form Follows Function: Aesthetic Interactive Labels.
Li et al. Sketchman: Learning to create professional sketches
Lyons et al. Avatar creation using automatic face processing
US20220207808A1 (en) Image manipulation
KR20130060766A (en) Multiple level image search system using multiple element analysis and the method using the same thereof
Yan Image analysis for digital media applications
KR20020038618A (en) Real time dynamic personal character generation based on emotion
CN115909430A (en) Image processing method, device, storage medium and computer program product
Jadhav et al. Introducing Celebrities in an Images using HAAR Cascade algorithm
US11978170B2 (en) Data processing method, computer device and readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application