KR100889854B1 - Method and Apparatus for creating caricature Video - Google Patents

Method and Apparatus for creating caricature Video Download PDF

Info

Publication number
KR100889854B1
KR100889854B1 KR1020070071123A KR20070071123A KR100889854B1 KR 100889854 B1 KR100889854 B1 KR 100889854B1 KR 1020070071123 A KR1020070071123 A KR 1020070071123A KR 20070071123 A KR20070071123 A KR 20070071123A KR 100889854 B1 KR100889854 B1 KR 100889854B1
Authority
KR
South Korea
Prior art keywords
feature points
image
information
caricature
input image
Prior art date
Application number
KR1020070071123A
Other languages
Korean (ko)
Other versions
KR20090007909A (en
Inventor
이은정
권지용
이인권
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020070071123A priority Critical patent/KR100889854B1/en
Publication of KR20090007909A publication Critical patent/KR20090007909A/en
Application granted granted Critical
Publication of KR100889854B1 publication Critical patent/KR100889854B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 캐리커처 비디오 생성 방법 및 장치를 개시한다. 본 발명의 캐리커처 비디오 생성 방법은 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 변이를 계산하는 단계; 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 단계; 및 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키고, 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 영상을 생성하는 단계를 포함한다. 본 발명에 따르면, 입력 영상의 특징을 효과적으로 추출하고, 입력 영상의 특징이 잘 반영된 캐리커처 비디오를 생성할 수 있으며, 정면 위주의 얼굴을 포함하는 비디오를 입력으로하여 만화적 효과를 낼 수 있는 비사실적인 얼굴 영상을 얻을 수 있다. 또한, 본 발명의 캐리커처 비디오 생성 방법을 게임, 웹, 모바일 응용 서비스에서 사용되는 캐릭터와 아바타에 적용할 경우, 템플릿을 기반으로 적용하는 것에 비하여 사실적인 표현이 가능하다.The present invention discloses a method and apparatus for caricature video generation. The method of generating a caricature video of the present invention includes the steps of calculating a variation between feature points extracted from an input image and feature points of a 3D model image prepared in advance; Generating depth information of feature points extracted from the input image by using feature points of the 3D model image and the calculated variation; And transforming feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm, and generating a caricature image of the input image based on the exaggerated feature points. According to the present invention, it is possible to effectively extract the features of the input image, to generate a caricature video reflecting the characteristics of the input image, and to generate a cartoon effect by inputting a video including a face-oriented face. Facial images can be obtained. In addition, when the caricature video generation method of the present invention is applied to characters and avatars used in games, web, and mobile application services, realistic expressions are possible as compared to those based on templates.

캐리커처, 과장, 비사실적 얼굴 애니메이션, 3D Caricature, Exaggerated, Unrealistic Face Animation, 3D

Description

캐리커처 비디오 생성 방법 및 장치{Method and Apparatus for creating caricature Video} Method and Apparatus for Creating Caricature Video {Method and Apparatus for creating caricature Video}

본 발명은 캐리커처 비디오 생성 방법 및 장치에 관한 것으로서, 특히 게임, 애니메이션, 웹 사이트 등에서 사용자의 개성을 살린 캐릭터 영상이나 아바타 영상을 과장시킨 캐리커처 비디오를 생성하는 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for generating a caricature video, and more particularly, to a method and apparatus for generating a caricature video exaggerating a character image or an avatar image utilizing a user's personality in a game, animation, web site, and the like.

일반적으로 캐리커처(caricature)는 인물 또는 의인화된 동식물을 소재를 풍자하기 위한 것이다. 사람의 인물 영상에 대한 캐리커처는 다른 사람들과 구분되는 특징적인 요소를 과장시킨 것으로서, 사람의 개성을 표현하기 때문에 사실대로 그린 초상화 보다 더 강렬한 인상을 준다.In general, the caricature is to satirize a person or anthropomorphic animals and plants. The caricature of a person's portrait image is an exaggeration of the characteristic elements that distinguish it from other people, and because it expresses a person's personality, it gives a more intense impression than a portrait drawn in reality.

컴퓨터 그래픽스 기술을 이용하여 캐리커처를 보다 쉽게 생성하는 방법에 대한 연구가 수행된 바 있는데, 일 예로 알켈만(Akleman), 브렌(Brennan) 그리고 푸지와라(Fujiwara)등은 얼굴의 합성을 통해 캐리커처를 생성한 바 있다. 또한, 리앙(Liang), 치앙(Chiang)등은 캐리커처 작가가 그린 작품을 바탕으로 새로운 입력에 대한 캐리커처 이미지를 생성한 바 있다. 그러나, 상기 방법들은 정지 영상에 대하여 고려된 캐리커처 생성 방법으로서, 연속적인 변화를 보이는 비디오 캐리커 처에는 적용하기 부적합하다.Research on how to create caricatures more easily using computer graphics technology has been done. For example, Akleman, Brennan and Fujiwara create caricatures through the synthesis of faces. I've done it. In addition, Liang and Chiang created caricature images of new inputs based on works by caricature authors. However, the above methods are caricature generation methods considered for still images, and are not suitable for video caricatures showing continuous changes.

또한, 실사 이미지나 비디오를 만화화하는 연구들도 진행된 바 있다. 왕(Wang), 홀거(Holger)등은 평균 이동(MeanShift) 분할 기술이나 바이래터럴(bilateral) 필터를 사용하여 입력 이미지나 비디오에 만화 같은 효과를 적용하였다. 그러나 이러한 방법들은 입력 이미지나 비디오에 추상화를 적용하여 렌더링 스타일을 바꾸었지만 실제 만화에서 나타나는 비사실적인 효과를 표현하는 방법과는 관련성이 없다.In addition, studies have been conducted to cartoonize live image and video. Wang and Holger applied cartoon-like effects to the input image or video using MeanShift splitting techniques or bilateral filters. However, these methods change the rendering style by applying abstraction to the input image or video, but they are not related to the method of expressing the unrealistic effects that appear in the actual cartoon.

관련 특허문헌으로서 대한민국 공개특허 제2000-47501호는 가보 필터 응답을 이용하여 얼굴을 정규화하고 ASM을 통해 얼굴 특징을 검출한 후, 푸리에 디스크립터로 매칭 정보를 생성하는 방법을 개시한 바 있다.As a related patent document, Korean Patent Laid-Open Publication No. 2000-47501 discloses a method of normalizing a face using a Gabor filter response, detecting a face feature through an ASM, and generating matching information with a Fourier descriptor.

대한민국 공개특허 제2004-32452호는 얼굴에 맞게 특화된 ASM 기법을 이용하여 얼굴 구성 요소의 특징점 정보를 추출하고, 이를 기초로 3차원 폴리곤 얼굴 기본 모델을 변형시킴으로써 사용자 얼굴과 유사성이 높은 3차원 캐리커처를 생성하는 방법을 개시한 바 있다.Korean Patent Laid-Open Publication No. 2004-32452 extracts feature point information of facial components by using ASM technique specialized for faces, and transforms a three-dimensional polygon face basic model based on the three-dimensional caricature with high similarity to the user's face. It has been disclosed how to produce.

본 발명은 3D 모델 영상을 이용하여 입력 영상의 회전 정보를 추출하고, 추출된 회전 정보를 바탕으로 입력 영상에 대한 캐리커처 비디오를 생성함으로써, 정면 영상과 정면에 근접한 영상에 대한 캐리커처 영상을 효과적으로 생성하며, 입력 영상의 특징을 효과적으로 반영할 뿐만 아니라, 또한 만화적으로 과장처리되는 비 사실적인 영상을 얻을 수 있는 캐리커처 비디오 생성 방법 및 장치를 제공하는 것을 목적으로 한다.The present invention extracts the rotation information of the input image using the 3D model image, and generates a caricature video for the input image based on the extracted rotation information, thereby effectively generating a caricature image for the front image and the image close to the front It is an object of the present invention to provide a method and apparatus for generating a caricature video that can effectively reflect the characteristics of an input image and also obtain a non-realistic image that is cartoonly exaggerated.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 캐리커처 비디오 생성 방법은 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 변이를 계산하는 단계; 상기 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 단계; 및 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키고, 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 비디오를 생성하는 단계를 포함한다. 본 발명에서 변이는 상기 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 차이를 최소화하기 위해 필요한 3D 모델 영상 또는 입력 영상의 회전 정보, 위치 이동 정보를 의미한다. 여기에서 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하는 것은, 예를 들어 회전 정보, 위치 이동 정보에 따라 3D 모델 영상의 특징점들을 회전 이동 및/또는 위치 이동시킨 3D 모델 영상의 특징점들의 깊이 정보를 입력 영상의 특징점들의 깊이 정보로 이용한다는 것을 의미한다.According to an aspect of the present invention, there is provided a method for generating a caricature video, comprising: calculating a variation between feature points extracted from an input image and feature points of a 3D model image prepared in advance; Generating depth information of feature points extracted from the input image by using feature points of the 3D model image and the calculated variation; And transforming feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm, and generating a caricature video of the input image based on the exaggerated feature points. In the present invention, the variation refers to rotation information and position movement information of the 3D model image or the input image which are necessary to minimize the difference between the feature points extracted from the input image and the feature points of the 3D model image. Here, using the feature points of the 3D model image and the calculated variation, for example, depth information of the feature points of the 3D model image in which the feature points of the 3D model image are rotated and / or moved in accordance with the rotation information and the position movement information. Means as depth information of feature points of the input image.

상기 다른 기술적 과제를 해결하기 위한 본 발명에 따른 캐리커처 비디오 생성 장치는 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 변이를 계산하는 변이 계산부; 상기 3D 모델 영상의 특징점들과 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 깊이 정보 생성부; 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키는 과장부; 및 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 영상을 생성하는 영상 생성부를 포함한다.According to another aspect of the present invention, there is provided a caricature video generating apparatus comprising: a disparity calculator configured to calculate a disparity between feature points extracted from an input image and feature points of a 3D model image prepared in advance; A depth information generator configured to generate depth information of feature points extracted from the input image by using feature points and variations of the 3D model image; An exaggeration unit for transforming the feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm; And an image generator configured to generate a caricature image of the input image based on the exaggerated feature point.

상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기 캐리커처 비디오 생성 방법을 컴퓨터 상에서 수행하는 프로그램이 기록된 컴퓨터에서 판독가능한 기록 매체를 제공한다. In order to solve the above other technical problem, the present invention provides a computer-readable recording medium on which a program for performing the caricature video generating method on a computer is recorded.

본 발명에 따르면, 3D 모델 영상을 이용하여 입력 영상의 회전 정보를 추출하고, 추출된 회전 정보를 바탕으로 입력 영상에 대한 캐리커처 비디오를 생성함으로써, 입력 영상의 특징을 효과적으로 추출하고, 입력 영상의 특징이 잘 반영된 캐리커처 비디오를 생성할 수 있다. 또한, 본 발명에 따르면 정면 위주의 얼굴을 포함하는 비디오를 입력으로 하여 만화적 효과를 갖는 비사실적인 얼굴 영상을 얻을 수 있다. 본 발명의 캐리커처 비디오 생성 방법을 게임, 웹, 모바일 응용 서비스에서 사용되는 캐릭터와 아바타에 적용할 경우, 템플릿을 기반으로 만드는 것보다 사실적인 표현이 가능하다.According to the present invention, by extracting the rotation information of the input image using the 3D model image, and generates a caricature video for the input image based on the extracted rotation information, the feature of the input image is effectively extracted, the feature of the input image This well reflected caricature video can be generated. According to the present invention, a non-realistic face image having a cartoon effect can be obtained by inputting a video including a face-oriented face. When the caricature video generation method of the present invention is applied to characters and avatars used in games, web, and mobile application services, realistic expressions can be achieved rather than based on templates.

이하에서는 도면과 실시예를 참조하여 본 발명의 캐리커처 비디오 생성 방법 및 장치에 대하여 구체적으로 설명한다.Hereinafter, the caricature video generating method and apparatus of the present invention will be described in detail with reference to the accompanying drawings and embodiments.

도 1은 본 발명의 캐리커처 비디오 생성 알고리즘를 설명하는 개략도이다.1 is a schematic diagram illustrating a caricature video generation algorithm of the present invention.

도 1에 도시된 바와 같이 본 발명의 캐리커처 비디오 생성 알고리즘은 크게 전처리 단계와 실행 단계로 나눌 수 있다. 전처리 단계에서는 동적 외향 모델(AAM : Active Appearance Model)을 구축하고, 3D 모델 영상을 생성하고 과장을 위한 규칙을 정의한다. 실행 단계에서는 AAM을 사용하여 입력 영상 특히 입력된 얼굴 영상의 특징점을 추출하고, 3D 모델 영상을 이용하여 입력 얼굴의 회전 정보를 계산한다. 여기에서 회전 정보는 입력 얼굴 영상을 회전시켜 정면 얼굴 영상으로 변형하는 변형 정보가된다. 다음, 상기 계산된 회전 정보를 바탕으로 입력 얼굴 영상을 정면을 향하도록 회전한 뒤, 미리 결정된 소정의 과장룰을 사용하여 과장된 특징점들을 얻고, 과장된 특징점들을 원래의 방향으로 다시 회전시킨다. 마지막으로 입력 프레임을 과장된 특징점으로 와핑한 뒤, 카투닝 효과 등을 적용하여 캐리커처 비디오를 생성할 수 있다.As shown in FIG. 1, the caricature video generation algorithm of the present invention can be roughly divided into a preprocessing step and an execution step. In the preprocessing phase, we build an Active Appearance Model (AAM), generate 3D model images, and define rules for exaggeration. In the execution step, the feature point of the input image, in particular, the input face image is extracted using AAM, and the rotation information of the input face is calculated using the 3D model image. In this case, the rotation information is deformation information that transforms the input face image into a front face image. Next, after rotating the input face image to the front based on the calculated rotation information, exaggerated feature points are obtained using a predetermined predetermined exaggeration rule, and the exaggerated feature points are rotated again in the original direction. Finally, after the input frame is warped with an exaggerated feature point, a caricature video may be generated by applying a catning effect.

전처리 단계에서는 트레이닝 영상의 형태와 텍스처 정보를 학습시켜 AAM을 생성한다. AAM을 기반으로 물체의 형태를 유지하면서 학습된 텍스처 정보를 기반으로 새로운 입력에 대해 가장 비슷한 텍스처를 가지는 부분을 검색하여 물체를 찾을수 있다. 형태와 텍스처를 나타내기 위해 라벨링이 되어있는 영상은 트레이닝 데이터로 사용된다. 보다 다양한 텍스처 정보와 형태 정보를 포함하기 위해 물체의 형태가 다양하게 나타나는 여러 장의 영상들이 필요하다. 예를 들어, 8명의 사람이 9방향에서 다양한 표정으로 찍은 216장의 트레이닝 이미지를 사용하여 최대한 다양한 조명 조건과 포즈를 포함시킬 수 있으며, 각각의 트레이닝 영상에 얼굴형태, 눈, 코, 입에 따른 54개의 특징점을 이용할 수 있다.In the preprocessing step, AAM is generated by learning the shape and texture information of the training image. While maintaining the shape of the object based on AAM, we can find the object by searching the part with the most similar texture for the new input based on the learned texture information. Labeled images are used as training data to represent shape and texture. In order to include more texture information and shape information, several images showing various shapes of objects are required. For example, 216 training images taken by eight people with different expressions in nine directions can be used to include as many different lighting conditions and poses as possible. Feature points are available.

도 2는 본 발명에 따른 캐리커처 비디오 생성 장치를 나타내는 블록도이다. 본 발명의 캐리커처 비디오 생성 장치(1)는 특징점 추출부(10), 3D 모델 영상 저장부(20), 변이 계산부(30), 깊이 정보 생성부(40), 정면 영상 변환부(50), 영상 과장부(60), 영상 생성부(70)를 포함한다.2 is a block diagram illustrating an apparatus for generating a caricature video according to the present invention. The caricature video generating apparatus 1 of the present invention includes a feature point extractor 10, a 3D model image storage unit 20, a disparity calculation unit 30, a depth information generator 40, a front image converter 50, The image exaggeration unit 60 and the image generating unit 70 is included.

특징점 추출부(10)는 비디오 시퀀스를 입력 받고 미리 결정된 알고리즘에 따라 이미 구축된 AAM을 사용하여 입력된 비디오 영상 각각으로 부터 특징점들(feature points)을 추출한다.The feature point extractor 10 receives a video sequence and extracts feature points from each of the input video images using an AAM that is already constructed according to a predetermined algorithm.

3D 모델 영상 저장부(20)는 트레이닝 영상들에 대한 사전 트레이닝을 통해 획득된 3D 모델 영상에 대한 정보를 저장한다. 특히, 3D 모델 영상 정보는 3D 모델 영상에 대하여 이미 추출된 특징점들에 대한 정보를 포함한다.The 3D model image storage unit 20 stores information about the 3D model image obtained through pre-training the training images. In particular, the 3D model image information includes information on feature points already extracted for the 3D model image.

도 3은 본 발명에서 3D 모델 영상을 생성하기 위한 트레이닝 영상의 예를 나타낸 참고도이다. 3D 모델 영상을 생성하기 위해서는 트레이닝 영상들 중 하나의 정면 트레이닝 영상으로부터 추출된 특징점들을 초기 3D 모델의 특징점들로 결정하고, 초기 3D 모델의 특징점들과 상기 트레이닝 영상들 각각에 따른 특징점들간의 거리를 최소로하는 위치 변이와 회전 변이를 계산한 후, 계산된 위치 변이와 회전 변이를 이용하여 초기 3D 모델의 특징점들을 갱신시키는 것이 필요하다. 이하, 도 3에 도시된 복수개의 트레이닝 얼굴 영상의 특징점 들을 이용하여 3D 모델 영상을 생성하는 원리에 대하여 상세히 설명한다.3 is a reference diagram showing an example of a training image for generating a 3D model image in the present invention. In order to generate the 3D model image, the feature points extracted from the front training image of one of the training images are determined as the feature points of the initial 3D model, and the distance between the feature points of the initial 3D model and the feature points according to each of the training images is determined. After calculating the minimum positional and rotational shifts, it is necessary to update the feature points of the initial 3D model using the calculated positional and rotational shifts. Hereinafter, the principle of generating a 3D model image using the feature points of the plurality of training face images shown in FIG. 3 will be described in detail.

우선, n개의 3차원 특징점으로 이루어진 초기 3D 모델 영상에 대한 매트릭스(X)는 다음 수학식1과 같이 표현할 수 있다. 초기 3D 모델 영상은 트레이닝 영상들 중에서 선택되는 하나의 정면 영상으로서 z 값이 0이다.First, the matrix X of the initial 3D model image composed of n three-dimensional feature points may be expressed as in Equation 1 below. The initial 3D model image is one front image selected from the training images and has a z value of zero.

수학식1Equation 1

Figure 112007051574238-pat00001
Figure 112007051574238-pat00001

n개의 2차원 특징점으로 이루어진 트레이닝 영상에 대한 매트릭스(x)는 다음 수학식2와 같이 표현한다.A matrix (x) for a training image consisting of n two-dimensional feature points is expressed by Equation 2 below.

수학식2Equation 2

Figure 112007051574238-pat00002
Figure 112007051574238-pat00002

본 실시예에서는 각각의 트레이닝 영상에 따른 특징점과 초기 3D 모델 영상과의 차이를 계산하기 위해, 초기 3D 모델 영상의 특징점을 트레이닝 영상과 같은 2차원 평면으로 투영시켜 사용한다.In this embodiment, in order to calculate the difference between the feature point according to each training image and the initial 3D model image, the feature point of the initial 3D model image is projected and used in the same 2D plane as the training image.

수학식3Equation 3

Figure 112009006901920-pat00003

여기에서, X는 3D 모델 영상 정보이고, R(c)는 X를 회전시키는 상기 복수의 회전 정보들을 포함하는 회전 매트릭스로, R(c)=Rx(rx)Ry(ry)Rz(rz)를 포함하고, Rx(rx)는 x축을 중심으로 회전되는 각도에 대한 회전정보, Ry(ry)는 y축을 중심으로 회전되는 각도에 대한 회전정보, Rz(rz)는 z축을 중심으로 회전되는 각도에 대한 회전정보이며, t(c)는 회전된 3D 모델 영상의 위치 이동 정보로 t(c)=(tx, ty, tz)를 포함하고, tx, ty, tz는 상기 복수의 회전 정보에 따른 각각의 축에서의 위치 이동 정보이며, x는 입력 영상 정보이다.
Figure 112009006901920-pat00003

Here, X is 3D model image information, R (c) is a rotation matrix including the plurality of rotation information for rotating X, R (c) = Rx (rx) Ry (ry) Rz (rz), where Rx (rx) is centered on the x-axis Rotation information about the angle rotated by, Ry (ry) is rotation information about the angle rotated around the y-axis, Rz (rz) is rotation information about the angle rotated around the z-axis, t (c) is rotated T (c) = (tx, ty, tz) as position movement information of the 3D model image, wherein tx, ty, and tz are position movement information in respective axes according to the plurality of rotation information, and x is Input image information.

여기서, P는 3D 모델의 특징점을 2D 상으로 프로젝션 시키기위한 메트릭스이고, 회전 메트릭스 R(c)는 다음과 같이 나타낼 수 있다.Here, P is a matrix for projecting a feature point of the 3D model onto the 2D image, and the rotation matrix R (c) may be expressed as follows.

수학식4Equation 4

Figure 112007051574238-pat00004
, R(c) = Rx(rx)Ry(ry)Rz(rz), t(c) = (tx,ty,tz)
Figure 112007051574238-pat00004
, R (c) = R x (r x ) R y (r y ) R z (r z ), t (c) = (t x , t y , t z )

수학식3의 f(c)는 3D 초기 3D 모델 영상을 얼마만큼 회전시키고(R(c)), 움직여야(t(c)) 현재의 트레이닝 영상과 비슷하게 되는지를 계산하는 문제이다. 본 실시예에서 초기 3D 모델 영상은 정면을 향하고 있는 얼굴 영상으로서, 상기 수학식3을 통해 트레이닝 영상을 정면을 향하게 하기 위해서 어느 정도 회전하고 이동해야 하는지를 알 수 있다. 남은 것은 f(c)를 최소화하는 c = (rx, ry, rz, tx, ty, tz)를 찾아내는 최적화 문제를 푸는 것이다. 특히, 본 실시예에서 상기 최적화 문제는 Sequence Quadratic Programming(SQP)를 사용하여 해결하는 것이 바람직하다. 이 경우 c의 초기값으로 모든 요소에 0을 대입할 수 있다.F (c) of Equation 3 is a problem of calculating how much the 3D initial 3D model image is rotated (R (c)) and moved (t (c)) to become similar to the current training image. In the present embodiment, the initial 3D model image is a face image facing to the front, and it can be seen how much it needs to rotate and move to face the training image through Equation 3 above. What remains is to solve the optimization problem of finding c = (r x , r y , r z , t x , t y , t z ) that minimizes f (c). In particular, in this embodiment, the optimization problem is preferably solved using Sequence Quadratic Programming (SQP). In this case, you can assign 0 to all elements as the initial value of c.

다음, 상기에서 계산한 R(c), t(c)를 이용하여 초기 3D 모델을 갱신하는 원리에 대하여 설명한다. 갱신해야할 초기 3D 모델의 j번째 특징점 Xj를 하기 수학식5와 같이 표현할 수 있다. 또한, n개의 특징점의 집합으로 이루어진 i번째 트레이닝 이미지를 xi라하며, 하기 수학식6으로 표현할 수 있다.Next, the principle of updating the initial 3D model using the R (c) and t (c) calculated above will be described. The j th feature point X j of the initial 3D model to be updated may be expressed as in Equation 5 below. In addition, an i-th training image consisting of a set of n feature points is referred to as x i , and may be expressed by Equation 6 below.

수학식5Equation 5

Figure 112007051574238-pat00005
Figure 112007051574238-pat00005

수학식6Equation 6

Figure 112007051574238-pat00006
Figure 112007051574238-pat00006

g(Xj)는 앞서 추측한 회전/위치 이동 정보(Ci)에 따라 회전 이동/위치 이동 처리 후, P로 프로젝션된 3D 모델 X의 j번째 특징점과 트레이닝 영상의 j번째 특징점 간의 거리의 차를 구한 것이다. 상기 수학식6에 따라 모든 트레이닝 영상의 j번째 특징점 간 거리의 차를 합산하고, 합산된 값을 최소로하는 Xj를 구할 수 있다. 3차원 영상을 2차원 상으로 프로젝션 하기 위한 매트릭스(P)와 위치 이동 정보를 나타내는 t(ci)는 다음 수학식 7로 표현된다.g (X j ) is the difference between the distance between the j th feature point of the 3D model X projected by P and the j th feature point of the training image after the rotation movement / position movement process according to the previously estimated rotation / position movement information C i . Is obtained. According to Equation 6, the difference between the distances between the j th feature points of all the training images may be summed and X j may be obtained to minimize the summed values. A matrix P for projecting a 3D image onto a 2D image and t (c i ) representing position movement information are expressed by the following equation.

수학식7Equation 7

Figure 112007051574238-pat00007
, R(ci)= Rx(ri x)Ry(ri y)Rz(ri z), t(ci) = (ti x,ti y,ti z)
Figure 112007051574238-pat00007
, R (c i ) = R x (r i x ) R y (r i y ) R z (r i z ), t (c i ) = (t i x , t i y , t i z )

수학식7을 이용하면, 현재의 3D 모델 영상을 앞에서 구한 c를 이용해 회전시킨 뒤, 2D 상으로 프로젝션 시켜 각각의 트레이닝 영상과 비교할 수 있다. 그리고 g(Xj)를 최소화하여 3D 모델의 회전된 특징점들이 트레이닝 이미지의 특징점과 최대한 비슷하도록 특징점 Xj를 구하면, 3D 모델 영상을 갱신할 수 있다. 즉, 갱신된 새로운 3D 모델 영상은 더 많은 트레이닝 영상으로 부터 획득된 것으로서, 3차원 객체의 특성을 더욱 잘 반영하는 것이다. 수학식7의 최적화 문제는 psuedo-inverse 기법을 사용하여 빠르게 풀 수 있다. 도 4는 본 발명의 캐리커처 비디오 생성을 위해 사용되는 3D 모델 영상의 예를 나타내는 참고도이다.Using Equation 7, the current 3D model image can be rotated using the previously obtained c, and then projected onto a 2D image to be compared with each training image. In addition, by minimizing g (X j ) to obtain the feature point X j such that the rotated feature points of the 3D model are as close as possible to the feature points of the training image, the 3D model image may be updated. That is, the updated new 3D model image is obtained from more training images, and more accurately reflects the characteristics of the 3D object. The optimization problem in Equation 7 can be solved quickly using the psuedo-inverse technique. 4 is a reference diagram illustrating an example of a 3D model image used for the caricature video generation of the present invention.

상기 방법에 따라 생성된 3D 모델 영상은 트레이닝 영상들을 바탕으로 생성되었기 때문에 트레이닝 영상의 형태를 대표한다고 할 수 있다. 이렇게 구축한 3D 모델 영상은 기존의 3D 재구성에 대한 연구들이 생성한 형태에 비해 간단한 몇 개의 특징점 만으로 구성된 것이다. 그러나, 본 발명의 경우 특징점들을 바탕으로 얼굴 캐리커처를 생성하기 때문에 복잡한 메시 정보나 구체적인 얼굴 형태가 필요하지는 않다.Since the 3D model image generated according to the method is generated based on the training images, it can be said to represent the shape of the training image. The 3D model image constructed in this way is composed of only a few simple feature points compared to the forms generated by the studies on the existing 3D reconstruction. However, in the case of the present invention, since the face caricature is generated based on the feature points, complicated mesh information or a specific face shape is not required.

변이 계산부(30)는 입력 영상에서 추출된 특징점들과 3D 모델 영상에서 추출된 특징점들 간의 변이를 계산한다. 변이 계산부(30)는 영상 매칭부(32)와 변이 선택부(34)를 포함한다. 영상 매칭부(32)는 미리 결정된 복수의 회전 정보, 위치 이동 정보에 따라 3D 모델 영상의 특징점 들을 변형하고, 변형된 특징점들을 입력 영상의 특징점들과 매칭시킨다. 변이 선택부(34)는 상기 복수의 회전 정보와 위치 이동 정보들 중에서, 입력 영상의 특징점들과 3D 모델 영상의 특징점들을 회전/위치 이동시켜 얻어진 특징점들 간의 차이가 가장 적거나 또는 유사도가 가장 큰 회전 정보와 위치 이동 정보를 회전 변이와 위치 이동 변이로 선택한다. 특히, 변이 선택부(34)는 회전 정보, 위치 이동 정보에 따라 변형된 3D 모델 영상을 입력 영상과 동일한 2차원 평면상에 투영시킨 후, 투영된 특징점들과 입력 영상의 특징점들을 비교하는 것이 바람직하다.The variation calculator 30 calculates a variation between the feature points extracted from the input image and the feature points extracted from the 3D model image. The variation calculator 30 includes an image matcher 32 and a variation selector 34. The image matching unit 32 deforms the feature points of the 3D model image according to a plurality of predetermined rotation information and position movement information, and matches the modified feature points with the feature points of the input image. The variation selector 34 has the smallest or most similarity between the feature points of the input image and the feature points obtained by rotating / positioning the feature points of the 3D model image among the plurality of rotation information and the position movement information. The rotation information and the position shift information are selected as the rotation shift and the position shift shift. In particular, the shift selector 34 projects the 3D model image modified according to the rotation information and the position movement information on the same two-dimensional plane as the input image, and then compares the projected feature points with the feature points of the input image. Do.

입력 영상의 특징점들과 3D 모델 영상의 특징점들 간의 회전 변이와 위치 이동 변이는 상술한 수학식 1 내지 4를 통하여 계산할 수 있다. 이때 x는 입력 영상의 특징점들을 나타내는 행렬이며, X는 3D 모델 영상의 특징점들을 나타내는 행렬이다. 수학식3에서 f(c)를 최소로 하는 R(c)와 t(c)는 각각 입력 영상에 따른 회전 변이 및 위치 이동 변이가 된다.The rotation shift and the position shift shift between the feature points of the input image and the feature points of the 3D model image may be calculated through the above Equations 1 to 4. In this case, x is a matrix representing feature points of the input image, and X is a matrix representing feature points of the 3D model image. In Equation 3, R (c) and t (c), which minimize f (c), become rotational shifts and positional shifts, respectively, according to the input image.

깊이 정보 생성부(40)는 3D 모델 영상의 특징점들과 상기 계산된 회전 변이 및 위치 이동 변이를 이용하여 입력 영상의 특징점들에 따른 깊이 정보를 생성한다. 특히 깊이 정보 생성부(40)는 3D 모델 영상을 상기 계산된 회전 변이에 따라 회전시키고, 다시 위치 이동 변이에 따라 위치 이동시킴으로써 얻어지는 3D 모델 영상의 3차원 정보 중 깊이 정보를 현재의 입력 영상의 깊이 정보로 취급한다.The depth information generator 40 generates depth information according to the feature points of the input image by using the feature points of the 3D model image and the calculated rotation shift and position shift shift. In particular, the depth information generator 40 rotates the 3D model image according to the calculated rotation shift, and then moves the depth information among the 3D information of the 3D model image obtained by positioning the 3D model image again according to the position shift variation. Treat it as information.

정면 영상 변환부(50)는 깊이 정보 생성부(40)를 통해 생성된 깊이 정보를 갖는 3D 입력 영상들을 상기 계산된 회전 변이 및 위치 이동 변이에 따라 보정함으로써 정면 영상을 생성한다. The front image converting unit 50 generates the front image by correcting 3D input images having depth information generated by the depth information generating unit 40 according to the calculated rotation shift and position shift shift.

영상 과장부(60)는 정면 영상 변환부에서 생성된 정면 영상의 특징점들을 소정의 정면 영상 과장 알고리즘에 따라 과장시킨다. 본 실시예에서 캐리커처 영상을 위한 과장 규칙은 크게 얼굴 내부의 비율을 과장하기 위한 인비트위너 과장과, 얼굴의 형태를 과장하기 위한 컴퍼넌트 과장으로 구분된다. 각각의 과장은 각기 다른 수식으로 과장을 적용하지만 근본적으로 입력 영상과 3D 모델 영상을 비교하여 차이가 나는 부분을 강조하는 방법으로 이루어진다.The image exaggeration unit 60 exaggerates the feature points of the front image generated by the front image conversion unit according to a predetermined front image exaggeration algorithm. In the present embodiment, the exaggeration rule for the caricature image is largely divided into an inbitwinner exaggeration for exaggerating the ratio of the inside of the face and a component exaggeration for exaggerating the shape of the face. Each exaggeration applies an exaggeration with different formulas, but basically it compares input image and 3D model image and emphasizes the difference.

예를 들어 얼굴 영상 과장의 경우, 얼굴 내부의 비율을 과장하기 위해 기존에 정의된 인비트위너를 사용할 수 있다. 인비트위너는 얼굴에 대해서 정의된 비례 모델이라고 할 수 있다. For example, in the case of face image exaggeration, the previously defined Inbit Winner can be used to exaggerate the ratio inside the face. InBitWinner is a proportional model defined for faces.

도 5는 얼굴 영상 과장을 위한 인비트위너의 예를 설명하는 개념도이다. 인비트위너를 구축하기 위해 해당하는 얼굴 특징점에 수평, 수직의 선을 설정하고, 이를 기준으로 얼굴의 비례정보를 추출할 수 있다. 도 5에서 (a) 영상은 평균 얼굴 의 인비트위너이고, (b) 영상은 입력 얼굴의 인비트위너이다. 다음, 두 인비트위너의 라인 사이의 간격을 비교하여 두 얼굴의 차이를 계산하고, 상기 간격을 조절하여 과장된 얼굴을 생성할 수 있다. 도 5에서 (c) 영상은 주어진 얼굴에서의 간격 중 코가 차지하는 비중이 평균 얼굴의 간격 중 코가 차지하는 비중 보다 높으면 코 부분의 간격을 더 넓게 해주는 예이다. 도 5에서 (d) 영상은 전체 얼굴의 비율을 과장하기 위해 앞서 설명한 방법과 비슷한 과장 방법을 적용한 예이다. 인비트위너 과장을 통해 얼굴 요소의 개별적인 형태를 과장할 수는 없다. 그래서 얼굴 요소의 형태를 과장하기 위해 얼굴 형태, 눈, 코, 입에 대한 과장을 따로 적용하는 것이 바람직하다.FIG. 5 is a conceptual diagram illustrating an example of an inbit winner for face image exaggeration. In order to construct Inbit Winner, horizontal and vertical lines may be set at corresponding facial feature points, and the proportional information of the face may be extracted based on this. In FIG. 5, (a) an image is an inbit winner of an average face, and (b) an image is an inbit winner of an input face. Next, the difference between the two faces may be calculated by comparing the intervals between the lines of the two inbit winners, and the interval may be adjusted to generate an exaggerated face. In FIG. 5, the image (c) shows an example in which the distance between the nose parts is wider when the weight of the nose in the interval of the given face is higher than the weight of the nose in the interval of the average face. In FIG. 5, the (d) image is an example of applying an exaggeration method similar to the aforementioned method to exaggerate the ratio of the entire face. You can't exaggerate the individual shapes of facial elements through InbitWinner Exaggeration. Therefore, in order to exaggerate the shape of the facial elements, it is desirable to apply the exaggeration to the face shape, eyes, nose and mouth separately.

도 6은 얼굴 영상 과장을 위한 개별적인 형태 과장 개념을 설명하기 위한 참고도이다. 도 6에서는 얼굴 형태를 과장하기 위해 얼굴을 눈과 코를 기준으로 4영역으로 분할하였으며, 4개의 사각형은 노란 선으로 표현되었다. 얼굴의 갸름함, 둥근 정도는 점 p1 과 점 p2 (도 6의 (b) 영상)를 이은 선분과 각각의 사각형에 속한 점들의 평균점의 거리를 사용하여 구할 수 있다. 그리고 사각형의 선분을 조절해서 턱과 얼굴의 형태를 과장할 수도 있다(도 6의 (c) 영상) .6 is a reference diagram for explaining a concept of individual form exaggeration for face image exaggeration. In FIG. 6, the face is divided into four areas based on eyes and nose to exaggerate the shape of the face, and four squares are represented by yellow lines. The slenderness and roundness of the face can be obtained using the distance between the line segment connecting the point p1 and the point p2 (image of FIG. 6 (b)) and the average point of the points belonging to each rectangle. The shape of the rectangle may be adjusted to exaggerate the shape of the jaw and the face ((c) image of FIG. 6).

예를 들어, 눈, 코, 입의 크기를 과장하기 위해서 평균 얼굴과 입력 얼굴이 구성 요소들의 상대적인 크기를 측정한 다음, 다음과 수학식8과 같은 과장 규칙을 적용할 수 있다.For example, in order to exaggerate the size of the eyes, nose, and mouth, the average face and the input face measure the relative sizes of the components, and then an exaggeration rule as shown in Equation 8 may be applied.

수학식8Equation 8

Figure 112007051574238-pat00008
Figure 112007051574238-pat00008

여기에서, xi는 하나의 컴퍼넌트에 해당하는 i번째 특징점을 나타내고, xmean은 하나의 컴퍼넌트에 해당하는 특징점들의 평균값이다. r은 입력 얼굴과 평균 얼굴과의 크기 차이를 나타내는 인자이고, 상수 s는 크기조절 파라미터로 본 실시예에서는 0.7을 사용하였다. Here, x i represents the i th feature point corresponding to one component, and x mean is the average value of the feature points corresponding to one component. r is a factor representing the size difference between the input face and the average face, and the constant s is a scaling parameter, which is 0.7 in this example.

도 7은 본 발명의 일 실시예에 따라 컴퍼넌트의 크기를 과장한 결과를 나타내는 영상이다. 도 7의 (a)는 평균 얼굴의 구성 요소를 나타내고, (b)는 입력 얼굴의 구성요소를 나타내며, (c)는 크기과장을 통해 과장된 결과이다. 7 is an image illustrating a result of exaggerating the size of a component according to an embodiment of the present invention. 7 (a) shows the components of the average face, (b) shows the components of the input face, and (c) shows the result of exaggeration through the exaggeration of size.

얼굴 구성 요소의 각각의 형태를 과장시키기 위해 하기 수학식9에 따른 선형변환을 사용할 수 있다.In order to exaggerate each shape of the facial component, a linear transformation according to Equation 9 may be used.

수학식9Equation 9

Figure 112007051574238-pat00009
Figure 112007051574238-pat00009

Figure 112007051574238-pat00010
Figure 112007051574238-pat00010

도 8은 본 발명의 일 실시예에 따라 컴퍼넌트의 형태를 과장한 결과를 나타내는 영상이다. 도 8의 (a) 영상은 평균얼굴의 구성요소를 나타내고, (b) 영상은 입력 얼굴의 구성요소를 나타내며, (c) 영상은 형태 과장을 통해 과장된 결과 영상을 나타낸다. 도 8에서는 눈을 과장하기 위해서 눈에 해당하는 특징점들을 입력 얼굴에서 눈의 각도와 평균 얼굴에서 눈의 각도 차이를 나타내는 θ 만큼 회전시키는 회전 행렬 T를 사용하였다. 눈의 각도는 눈의 두 끝점을 잇는 선분의 경사로 측정 할 수 있다. 도 8에서는 코의 형태를 과장하기 위해, 코의 맨 끝점만 이동시켰다. r값은 코의 끝점과 코를 이루는 특징점들의 평균점 간의 거리를 나타낸다. s는 크기조절 상수로 본 실시예에서는 0.9를 사용하였다. 입술의 형태를 과장시키기 위해 a 를 통한 쉬어(Sheer) 변환을 적용하였다. 이때, a는 입력 얼굴에서 입을 구성하는 특징점의 평균점과 끝점을 연결한 선분의 경사와 평균 얼굴에서 구한 경사의 차이로 구할 수 있다.8 is an image showing a result of exaggerating the shape of a component according to an embodiment of the present invention. The image (a) of FIG. 8 represents a component of an average face, (b) the image represents a component of an input face, and (c) the image represents a result image exaggerated through shape exaggeration. In FIG. 8, in order to exaggerate the eye, a rotation matrix T is used in which feature points corresponding to the eye are rotated by θ representing a difference between the angle of the eye at the input face and the angle of the eye at the average face. The angle of the eye can be measured by the slope of the line connecting the two ends of the eye. In FIG. 8, only the far end of the nose was moved to exaggerate the shape of the nose. The r value represents the distance between the tip of the nose and the mean of the feature points that make up the nose. s is the size constant, 0.9 was used in this example. Shear transformation through a was applied to exaggerate the shape of the lips. In this case, a may be obtained by a difference between the inclination of the line segment connecting the average point and the end point of the feature points constituting the mouth in the input face and the inclination obtained from the average face.

영상 생성부(70)는 상기 과장된 특징점들을 기반으로 입력 영상의 캐리커처 영상을 생성한다. 특히, 영상 생성부(70)는 복원부(72)와 와핑 처리부(74)를 포함하는데, 복원부(72)는 과장된 특징점들을 변이에 따라 복원된 특징점들로 변형시키고, 와핑 처리부(74)는 복원된 특징점들을 기준으로 상기 입력 영상에 대한 와핑을 수행한다. 또한, 영상 생성부(70)는 카투닝 처리부(미도시)를 더욱 포함할 수 있다. 카투닝 처리부는 와핑된 영상에 대한 카투닝 처리를 통해 만화화된 얼굴 영상을 생성한다.The image generator 70 generates a caricature image of the input image based on the exaggerated feature points. In particular, the image generating unit 70 includes a restoring unit 72 and a warping processing unit 74. The restoring unit 72 transforms the exaggerated feature points into reconstructed feature points according to the variation, and the warping processing unit 74 The warping of the input image is performed based on the restored feature points. In addition, the image generator 70 may further include a katuning processor (not shown). The katuning processor generates a cartoonized face image through a katuning process on the warped image.

도 9는 본 발명의 일 실시예에 따라 생성한 캐리커처 영상을 나타낸다. 도 9의 (a)에서 빨간색의 점은 입력 얼굴에서 추출된 특징점이고, 파란색 점은 과장 규칙을 적용하여 과장된 특징점이다. 도 9의 (b) 영상은 입력 얼굴의 원본 특징점을 과장된 특징점으로 와핑하고, 카투닝 처리를 하여 얻어지는 만화 스타일의 영상이다.9 illustrates a caricature image generated according to an embodiment of the present invention. In FIG. 9A, a red dot is a feature point extracted from an input face, and a blue dot is an exaggerated feature point by applying an exaggeration rule. The image (b) of FIG. 9 is a cartoon-style image obtained by warping an original feature point of an input face with an exaggerated feature point and performing a katuning process.

도 10은 본 발명의 일 실시예에 따라 생성한 캐리커처 비디오의 일부분을 나타낸다. 도 10의 상부에 도시된 예의 경우 과장의 정도를 정할 때 크기조절 상수 를 크게 하여 좀 더 심한 과장을 적용하였고, 하부에 도시된 예는 자동으로 과장을 적용한 예이다. 10 illustrates a portion of a caricature video generated in accordance with one embodiment of the present invention. In the case of the example shown in the upper part of FIG. 10, a more severe exaggeration was applied by increasing the size control constant when determining the degree of exaggeration, and the example shown in the lower part is an example of automatically applying the exaggeration.

도 11은 본 발명의 일 실시예에 따른 캐리커처 비디오 생성 방법을 나타낸 흐름도이다. 도 11의 캐리커처 비디오 생성 방법은 캐리커처 비디오 생성 장치(1) 상에서 시계열적으로 수행되는 하기 단계들을 포함한다.11 is a flowchart illustrating a caricature video generation method according to an embodiment of the present invention. The caricature video generating method of FIG. 11 includes the following steps performed in time series on the caricature video generating apparatus 1.

110단계에서 특징점 추출부(10)는 입력 영상을 수신하고 수신된 입력 영상에서 특징점들을 추출한다.In operation 110, the feature point extractor 10 receives an input image and extracts feature points from the received input image.

120단계에서 변이 계산부(30)는 회전 변이와 위치 변이를 계산한다. 특히, 영상 매칭부(32)는 3D 모델 영상 저장부에 저장된 3D 모델 영상의 특징점들을 미리 설정된 회전 정보들 및/또는 위치 정보들에 따라 변형시키고, 입력 영상의 특징점들과 매칭을 수행하며, 변이 선택부(34)는 3D 모델 영상의 특징점과 입력 영상의 특징점간의 차이를 최소로 하는 회전 정보 및/또는 위치 정보를 선택한다.In step 120, the variation calculator 30 calculates a rotation variation and a position variation. In particular, the image matching unit 32 transforms the feature points of the 3D model image stored in the 3D model image storage unit according to preset rotation information and / or position information, performs matching with the feature points of the input image, and performs a shift. The selector 34 selects rotation information and / or position information that minimizes the difference between the feature points of the 3D model image and the feature points of the input image.

130단계에서 깊이 정보 생성부(40)는 입력 영상의 특징점들이 갖는 깊이 정보를 생성한다. 120단계를 통해 3D 모델 영상과 입력 영상의 차이를 최소로하는 회전 정보와 위치 정보가 각각 특정되면, 각각 특정된 회전 정보와 위치 정보에 따라 변형된 3D 모델 영상의 특징점들에 대한 정보가 특정된다. 입력 영상 정보는 2차원 정보이므로 깊이 정보를 포함하지 않지만, 상기 변형된 3D 모델 영상의 특징점들에 따른 깊이 정보를 이용하면 입력 영상의 특징점들에 따른 깊이 정보를 계산할 수 있다. 본 실시예에서는 변형된 3D 모델 영상의 특징점들의 깊이 정보를 입력 영상의 특징점들에 따른 깊이 정보로 취급한다. In operation 130, the depth information generator 40 generates depth information of feature points of the input image. When the rotation information and the position information that minimize the difference between the 3D model image and the input image are respectively specified in step 120, the information about the feature points of the 3D model image modified according to the specified rotation information and the position information, respectively, is specified. . Since the input image information is two-dimensional information and does not include depth information, depth information according to feature points of the input image may be calculated by using depth information according to feature points of the modified 3D model image. In the present embodiment, the depth information of the feature points of the deformed 3D model image is treated as depth information according to the feature points of the input image.

140단계에서 정면 영상 변환부(50)는 130단계를 통해 깊이 정보를 갖는 입력 영상을 회전 이동 및/또는 위치 이동시켜 정면 영상으로 변환한다. 여기에서 회전 이동과 위치 이동에 대한 정보는 변이 선택부(34)를 통해 선택된 변이 정보를 활용하는 것이 바람직하다.In operation 140, the front image converting unit 50 converts the input image having depth information into a front image by rotating and / or moving the input image having depth information. In this case, the information about the rotational movement and the positional movement may preferably use the variation information selected through the variation selection unit 34.

150단계에서 영상 과장부(60)는 영상 과장 알고리즘 특히 정면 영상 과장 알고리즘에 따라 정면 영상의 특징점들을 과장한다. 영상 과장 알고리즘의 예로는 인비트위너 과장 알고리즘 또는 구성 요소의 형태 과장에 따른 알고리즘 등이 있으며 이미 설명한 바 있다.In step 150, the image exaggeration unit 60 exaggerates the feature points of the front image according to the image exaggeration algorithm, in particular the front image exaggeration algorithm. An example of the image exaggeration algorithm is the inbitwinner exaggeration algorithm or the algorithm according to the exaggeration of the shape of the component.

160단계에서 복원부(72)는 과장된 3차원의 특징점들을 상기 변이에 따라 회전이동 및/또는 위치 이동하여 복원된 특징점들로 변형시킨다. In step 160, the restoration unit 72 transforms the exaggerated three-dimensional feature points into reconstructed feature points by rotating and / or repositioning the three-dimensional feature points.

170단계에서 와핑 처리부(74)는 복원된 특징점들을 기준으로 입력 영상에 대한 와핑을 수행함으로써 과장된 영상을 생성한다. 또한, 본 단계에 이어 와핑 처리된 영상에 대하여 카투닝 효과를 적용하는 단계를 더욱 포함할 수 있다.In operation 170, the warping processor 74 generates an exaggerated image by performing warping on the input image based on the restored feature points. The method may further include applying a katuning effect to the warped image.

도 12는 본 발명의 일 실시예에 따른 캐리커처 생성 방법에 대한 개념도이다. 전처리 단계에서 미리 구축해 놓은 AAM, 3D 참조 모델 그리고 과장 규칙을 바탕으로 캐리커처를 생성하는 방법은 도 10을 참조한다. 도 12의 영상 (a)는 AAM의 물체추적 기법을 사용하여 입력 비디오에서 추출한 얼굴 특징점들의 예이다. 상기 수학식3에 따라 입력 얼굴의 회전 정보 c 를 계산하고, 3D 모델을 c 만큼 회전시켜 입력 얼굴의 방향과 비슷하게 만든 후, 3D 모델 영상의 특징점들의 z값을 입력 얼굴의 특징점들의 z값으로 대입한다. 입력 얼굴의 특징점을 -c 만큼 회전하면 정면 얼굴에 따른 특징점을 얻을 수 있다(도 12의 (b)영상). 다음, 앞에서 미리 정해 놓은 정면을 바탕으로 한 과장 규칙을 적용하여 정면을 바라보고 있는 입력 얼굴의 특징점을 과장시키고(도 12의 (c)영상) 다시 만큼 회전 시켜 원래의 회전 방향으로 향하게 한다(도 12의 (d)영상). 마지막으로 도 12의 (d) 영상에 따른 특징점들을 기반으로 와핑을 수행한 후, 카투닝 필터 등을 적용하면 캐리커처를 얻을 수 있다.12 is a conceptual diagram of a caricature generation method according to an embodiment of the present invention. A method of generating a caricature based on an AAM, a 3D reference model, and an exaggeration rule pre-built in the preprocessing step is described with reference to FIG. 10. Image (a) of FIG. 12 is an example of facial feature points extracted from an input video using an object tracking technique of AAM. The rotation information c of the input face is calculated according to Equation 3, the 3D model is rotated by c to be similar to the direction of the input face, and the z values of the feature points of the 3D model image are substituted as the z values of the feature points of the input face. do. When the feature point of the input face is rotated by -c, the feature point according to the front face may be obtained (image of FIG. 12B). Next, the exaggeration rule based on the front face previously determined is applied to exaggerate the feature points of the input face facing the front face (figure (c) of FIG. 12) and rotate it again to face the original direction of rotation (FIG. 12). (D) video of 12). Finally, after performing warping based on the feature points according to the image of FIG. 12 (d), a caricature may be obtained by applying a tuning technique.

한편 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(fun ction al) 프로그램, 코드 및 코드 세그먼트 들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로, 상기 개시된 실시예 들은 한정적인 관점이 아니라 설명적인 관점에 서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will understand that the present invention can be embodied in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown not in the above description but in the claims, and all differences within the scope should be construed as being included in the present invention.

본 발명의 캐리커처 비디오 생성 방법 및 장치는 디지털 컨텐츠 분야, 특히 게임, 애니메이션, 웹 사이트 등에서 사용자의 개성을 살린 캐릭터 영상이나 아바타 영상의 과장과 관련된 모든 컨텐츠에 유용하게 사용될 수 있다. The method and apparatus for generating a caricature video of the present invention can be usefully used for all contents related to the exaggeration of a character image or an avatar image utilizing a user's personality in the field of digital content, especially games, animations, and websites.

도 1은 본 발명의 캐리커처 비디오 생성 알고리즘을 설명하는 개념도이다.1 is a conceptual diagram illustrating a caricature video generation algorithm of the present invention.

도 2는 본 발명에 따른 캐리커처 비디오 생성 장치를 나타내는 블록도이다.2 is a block diagram illustrating an apparatus for generating a caricature video according to the present invention.

도 3은 본 발명에서 3D 모델 영상을 생성하기 위한 트레이닝 영상의 예를 나 타낸 참고도이다.3 is a reference diagram showing an example of a training image for generating a 3D model image in the present invention.

도 4는 본 발명의 캐리커처 비디오 생성을 위해 사용되는 3D 모델 영상의 예를 나타내는 참고도이다.4 is a reference diagram illustrating an example of a 3D model image used for the caricature video generation of the present invention.

도 5는 얼굴 영상 과장을 위한 인비트위너의 예를 설명하는 참고도이다.5 is a reference diagram for explaining an example of an inbit winner for face image exaggeration.

도 6은 얼굴 영상 과장을 위한 개별적인 형태 과장의 개념을 설명하는 참고도이다.6 is a reference diagram illustrating the concept of individual form exaggeration for face image exaggeration.

도 7은 본 발명의 일 실시예에 따라 컴퍼넌트의 크기를 과장한 결과를 나타내는 영상이다.7 is an image illustrating a result of exaggerating the size of a component according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따라 컴퍼넌트의 형태를 과장한 결과를 나타내는 영상이다.8 is an image showing a result of exaggerating the shape of a component according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따라 생성한 캐리커처 영상을 나타낸다.9 illustrates a caricature image generated according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따라 생성한 캐리커처 비디오의 일 부분을 나타낸다.10 illustrates a portion of a caricature video generated according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따른 캐리커처 비디오 생성 방법을 나타내는 흐름도이다.11 is a flowchart illustrating a caricature video generating method according to an embodiment of the present invention.

도 12는 본 발명의 캐리커처 비디오 생성 방법에 대한 개념도이다.12 is a conceptual diagram for a caricature video generating method of the present invention.

Claims (15)

a1) 입력 영상으로부터 특징점들을 추출하는 단계;a1) extracting feature points from an input image; a2) 미리 마련된 3D 모델 영상의 특징점들을 미리 결정된 복수의 회전 정보들에 따라 회전시키고, 회전된 영상을 미리 결정된 복수의 위치 이동 정보에 따라 평행 이동시킨 후, 위치 이동된 영상을 2차원 평면에 투영시켜 투영된 특징점들을 생성하는 단계; 및a2) rotates the feature points of the 3D model image prepared according to the plurality of predetermined rotation information, parallelly moves the rotated image according to the plurality of predetermined position movement information, and then projects the positionally shifted image onto the two-dimensional plane Generating projected feature points; And a3) 상기 투영된 특징점들과 상기 입력 영상의 특징점들 간의 차이를 최소화하는 회전 정보를 회전 변이로 선택하되, 하기 수학식에서 f(c)를 최소로 하는 R(c)과 t(c)를 회전 변이와 위치 변이로 선택하는 단계;a3) selecting rotation information that minimizes the difference between the projected feature points and the feature points of the input image as a rotation variation, and rotates R (c) and t (c) to minimize f (c) in the following equation. Selecting as a variation and a position variation; b) 상기 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 단계; 및b) generating depth information of feature points extracted from the input image using the feature points of the 3D model image and the calculated variation; And c) 상기 b) 단계를 통해 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키고, 상기 과장된 특징점을 기반으로 상기 입력 영상의 캐리커처 영상을 생성하는 단계;c) transforming feature points of the input image having depth information generated through step b) into exaggerated feature points according to a predetermined exaggeration algorithm, and generating a caricature image of the input image based on the exaggerated feature points; 를 포함하는 캐리커처 비디오 생성 방법.Caricature video generation method comprising a. 수학식Equation
Figure 112009006901920-pat00024
Figure 112009006901920-pat00024
여기에서, X는 3D 모델 영상 정보이고, R(c)는 X를 회전시키는 상기 복수의 회전 정보들을 포함하는 회전 매트릭스로, R(c)=Rx(rx)Ry(ry)Rz(rz)를 포함하고, Rx(rx)는 x축을 중심으로 회전되는 각도에 대한 회전정보, Ry(ry)는 y축을 중심으로 회전되는 각도에 대한 회전정보, Rz(rz)는 z축을 중심으로 회전되는 각도에 대한 회전정보이며, t(c)는 회전된 3D 모델 영상의 위치 이동 정보로 t(c)=(tx, ty, tz)를 포함하고, tx, ty, tz는 상기 복수의 회전 정보에 따른 각각의 축에서의 위치 이동 정보이며, x는 입력 영상 정보이다.Here, X is 3D model image information, and R (c) is a rotation matrix including the plurality of rotation information for rotating X, where R (c) = Rx (rx) Ry (ry) Rz (rz). Rx (rx) is rotation information about an angle rotated about the x axis, Ry (ry) is rotation information about an angle rotated about the y axis, and Rz (rz) is an angle rotated about the z axis. T (c) is the positional movement information of the rotated 3D model image and includes t (c) = (tx, ty, tz), and tx, ty, and tz are respectively corresponding to the plurality of rotation information. Position movement information on an axis of x, and x is input image information.
삭제delete 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 b) 단계는 상기 변이에 따라 상기 3D 모델 영상을 회전시켜 얻어지는 영상에 따른 특징점들의 깊이 정보를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 계산하는 것을 특징으로 하는 캐리커처 비디오 생성 방법.The step b) is a caricature video generation method, characterized in that to calculate the depth information of the feature points extracted from the input image using the depth information of the feature points according to the image obtained by rotating the 3D model image according to the variation. 제 1 항에 있어서, The method of claim 1, 상기 c) 단계에서 상기 b)단계를 통해 깊이 정보를 갖는 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키는 것은,In step c), transforming the feature points having depth information into the exaggerated feature points according to a predetermined exaggeration algorithm in the step b), 상기 깊이 정보를 갖는 특징점들을 변형하여 정면 영상에 따른 특징점들을 생성하고, 상기 생성된 정면 영상에 따른 특징점들을 정면 영상에 대해 미리 결정된 과장 알고리즘을 통해 과장된 특징점들로 변형시키는 것임을 특징으로 하는 캐리커처 비디오 생성 방법.Caricature video generation, characterized in that for generating the feature points according to the front image by modifying the feature points having the depth information, and to transform the feature points according to the generated front image into exaggerated feature points through a predetermined exaggeration algorithm for the front image. Way. 제 1 항에 있어서, 상기 c) 단계는,The method of claim 1, wherein step c) c1) 상기 b)단계를 통해 깊이 정보를 갖는 특징점들을 상기 변이에 따라 정면 영상에 따른 특징점들로 변형시키는 단계;c1) transforming the feature points having depth information into feature points according to the front image according to the variation through step b); c2) 상기 정면 영상에 따른 특징점들을 소정의 정면 영상 과장 알고리즘에 따라 과장된 특징점들로 변형시키는 단계;c2) transforming the feature points according to the front image into exaggerated feature points according to a predetermined front image exaggeration algorithm; c3) 상기 과장된 특징점들을 상기 변이에 따라 복원된 특징점들로 변형시키 는 단계; 및c3) transforming the exaggerated feature points into feature points reconstructed according to the variation; And c4) 상기 복원된 특징점들을 기준으로 상기 입력 영상에 대한 와핑을 수행하여 캐리커처 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 캐리커처 비디오 생성 방법.c4) generating a caricature image by warping the input image based on the restored feature points. 삭제delete 삭제delete 제 6 항에 있어서,The method of claim 6, 상기 정면 영상 과장 알고리즘은 인비트위너 과장 또는 구성 요소의 형태 과장에 따른 알고리즘인 것을 특징으로 하는 캐리커처 비디오 생성 방법.The front image exaggeration algorithm is a caricature video generation method, characterized in that the algorithm according to the exaggerated exaggeration or exaggeration of the shape of the component. 제 1 항에 있어서, 상기 3D 모델 영상의 특징점들은The method of claim 1, wherein the feature points of the 3D model image 트레이닝 영상들 중에서 하나의 정면 트레이닝 영상에서 추출된 특징점들을 초기 3D 모델의 특징점들로 결정하는 단계;Determining feature points extracted from one front training image among the training images as feature points of the initial 3D model; 상기 초기 3D 모델의 특징점들과 상기 트레이닝 영상들 각각에 따른 특징점들간의 거리를 최소로하는 위치 변이와 회전 변이를 계산하는 단계; 및Calculating position shift and rotation shift to minimize the distance between the feature points of the initial 3D model and the feature points according to each of the training images; And 상기 계산된 위치 변이와 회전 변이를 이용하여 초기 3D 모델의 특징점들을 갱신시키는 단계를 통해 생성되는 것을 특징으로 하는 캐리커처 비디오 생성 방법.And updating the feature points of the initial 3D model by using the calculated positional and rotational variations. 제 1, 4, 5, 6, 9, 10항 중 어느 한 항이 캐리커처 비디오 생성 방법을 컴퓨터 상에서 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독가능한 기록 매체.A computer-readable recording medium in which any one of claims 1, 4, 5, 6, 9, and 10 is recorded with a program for performing a method of producing a caricature video on a computer. 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 차이를 최소화하기 위해 필요한 3D 모델 영상 또는 입력 영상의 회전 정보 및 위치 이동 정보를 포함하는 변이를 계산하는 변이 계산부;A variation calculator for calculating a variation including rotation information and position movement information of the 3D model image or the input image required to minimize the difference between the feature points extracted from the input image and the feature points of the 3D model image; 상기 3D 모델 영상의 특징점들과 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 깊이 정보 생성부;In the input image using the feature points and the variation of the 3D model image A depth information generator for generating depth information of extracted feature points; 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키는 영상 과장부; 및An image exaggeration unit for transforming feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm; And 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 영상을 생성하는 영상 생성부를 포함하고,An image generator configured to generate a caricature image of an input image based on the exaggerated feature point, 상기 변이 계산부는The variation calculator a1) 입력 영상으로부터 특징점들을 추출하고, a1) extract the feature points from the input image, a2) 미리 마련된 3D 모델 영상의 특징점들을 미리 결정된 복수의 회전 정보들에 따라 회전시키고, 회전된 영상을 미리 결정된 복수의 위치 이동 정보에 따라 평행 이동시킨 후, 위치 이동된 영상을 2차원 평면에 투영시켜 투영된 특징점들을 생성하고, a2) rotates the feature points of the 3D model image prepared according to the plurality of predetermined rotation information, parallelly moves the rotated image according to the plurality of predetermined position movement information, and then projects the positionally shifted image onto the two-dimensional plane To generate the projected feature points, a3) 상기 투영된 특징점들과 상기 입력 영상의 특징점들 간의 차이를 최소화하는 회전 정보를 회전 변이와 위치 변이로 선택하여 상기 변이를 계산하되, 하기 수학식에서 f(c)를 최소로 하는 R(c)과 t(c)를 회전 변이와 위치 변이로 선택하는 것을 특징으로 하는 캐리커처 비디오 생성 장치.a3) calculates the variation by selecting rotation information and rotational position for minimizing the difference between the projected feature points and the feature points of the input image, wherein R (c) is minimized in the following equation: ) And t (c) are selected as a rotation shift and a position shift. 수학식Equation
Figure 112009006901920-pat00025
Figure 112009006901920-pat00025
여기에서, X는 3D 모델 영상 정보이고, R(c)는 X를 회전시키는 상기 복수의 회전 정보들을 포함하는 회전 매트릭스로, R(c)=Rx(rx)Ry(ry)Rz(rz)를 포함하고, Rx(rx)는 x축을 중심으로 회전되는 각도에 대한 회전정보, Ry(ry)는 y축을 중심으로 회전되는 각도에 대한 회전정보, Rz(rz)는 z축을 중심으로 회전되는 각도에 대한 회전정보이며, t(c)는 회전된 3D 모델 영상의 위치 이동 정보로 t(c)=(tx, ty, tz)를 포함하고, tx, ty, tz는 상기 복수의 회전 정보에 따른 각각의 축에서의 위치 이동 정보이며, x는 입력 영상 정보이다.Here, X is 3D model image information, and R (c) is a rotation matrix including the plurality of rotation information for rotating X, where R (c) = Rx (rx) Ry (ry) Rz (rz). Rx (rx) is rotation information about an angle rotated about the x axis, Ry (ry) is rotation information about an angle rotated about the y axis, and Rz (rz) is an angle rotated about the z axis. T (c) is the positional movement information of the rotated 3D model image and includes t (c) = (tx, ty, tz), and tx, ty, and tz are respectively corresponding to the plurality of rotation information. Position movement information on an axis of x, and x is input image information.
삭제delete 제 12 항에 있어서,The method of claim 12, 상기 깊이 정보 생성부를 통해 생성된 깊이 정보를 갖는 특징점들을 상기 변 이에 따라 정면 영상에 따른 특징점들로 변형시키는 정면 영상 변환부를 더 포함하며, The apparatus may further include a front image converter configured to transform feature points having depth information generated by the depth information generator into feature points according to the front image. 상기 과장부는 상기 정면 영상에 따른 특징점들을 소정의 정면 영상 과장 알고리즘에 따라 과장된 특징점들로 변형시키는 것이고,The exaggeration unit is to transform the feature points according to the front image to the exaggerated feature points according to a predetermined front image exaggeration algorithm, 상기 영상 생성부는 상기 과장된 특징점들을 상기 변이에 따라 복원된 특징점들로 변형시키는 복원부를 포함하고, 상기 복원된 특징점들을 기준으로 상기 입력 영상에 대한 와핑을 수행하는 와핑 처리부를 더 포함하는 것을 특징으로 하는 캐리커처 비디오 생성 장치.The image generating unit may include a restoring unit configured to transform the exaggerated feature points into restoring feature points according to the variation, and further include a warping processing unit that performs warping on the input image based on the restored feature points. Caricature video generation device. 제 12 항에 있어서, 상기 변이 계산부는The method of claim 12, wherein the variation calculator 미리 마련된 3D 모델 영상의 특징점들을 미리 결정된 복수의 회전 정보들에 따라 회전시키고, 회전된 영상을 2차원 평면에 투영시킨 후, 입력 영상의 특징점들과 매칭시키는 매칭부; 및A matching unit to rotate the feature points of the 3D model image prepared according to the plurality of predetermined rotation information, project the rotated image onto a two-dimensional plane, and match the feature points of the input image; And 상기 복수의 회전 정보들 중 상기 입력 영상의 특징점들과 상기 투영된 3D 모델 영상의 특징점들간의 차이를 최소로하는 회전 정보를 변이로 선택하는 변이 선택부를 포함하는 것을 특징으로 하는 캐리커처 비디오 생성 장치.And a variation selector for selecting rotation information that minimizes a difference between the feature points of the input image and the feature points of the projected 3D model image among the plurality of rotation information.
KR1020070071123A 2007-07-16 2007-07-16 Method and Apparatus for creating caricature Video KR100889854B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070071123A KR100889854B1 (en) 2007-07-16 2007-07-16 Method and Apparatus for creating caricature Video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070071123A KR100889854B1 (en) 2007-07-16 2007-07-16 Method and Apparatus for creating caricature Video

Publications (2)

Publication Number Publication Date
KR20090007909A KR20090007909A (en) 2009-01-21
KR100889854B1 true KR100889854B1 (en) 2009-03-24

Family

ID=40488367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070071123A KR100889854B1 (en) 2007-07-16 2007-07-16 Method and Apparatus for creating caricature Video

Country Status (1)

Country Link
KR (1) KR100889854B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101175111B1 (en) 2011-03-31 2012-08-21 성균관대학교산학협력단 Method and apparatus for providing face identification game

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101226769B1 (en) * 2010-10-25 2013-01-28 부산대학교 산학협력단 Method for caricaturing of face simplification using feature point
CN104115160A (en) * 2011-12-19 2014-10-22 诺基亚公司 A method and apparatus for creating and displaying a face sketch avatar
KR20170127354A (en) * 2016-05-11 2017-11-21 강미연 Apparatus and method for providing video conversation using face conversion based on facial motion capture
CN109636711A (en) * 2018-10-30 2019-04-16 北京奇虎科技有限公司 Comic book generation method, device and computer readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020014298A (en) * 2000-08-17 2002-02-25 윤종용 Method and apparatus for generating caricature image
KR20020065990A (en) * 2001-02-08 2002-08-14 비쥬텍쓰리디(주) Apparatus and method for creation personal photo avatar
KR20030086063A (en) * 2002-05-03 2003-11-07 삼성전자주식회사 Apparatus and method for producing three-dimensional caricature

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020014298A (en) * 2000-08-17 2002-02-25 윤종용 Method and apparatus for generating caricature image
KR20020065990A (en) * 2001-02-08 2002-08-14 비쥬텍쓰리디(주) Apparatus and method for creation personal photo avatar
KR20030086063A (en) * 2002-05-03 2003-11-07 삼성전자주식회사 Apparatus and method for producing three-dimensional caricature

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:한국컴퓨터그래픽스학회*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101175111B1 (en) 2011-03-31 2012-08-21 성균관대학교산학협력단 Method and apparatus for providing face identification game

Also Published As

Publication number Publication date
KR20090007909A (en) 2009-01-21

Similar Documents

Publication Publication Date Title
Lin et al. Magic3d: High-resolution text-to-3d content creation
KR102616010B1 (en) System and method for photorealistic real-time human animation
Shi et al. Automatic acquisition of high-fidelity facial performances using monocular videos
US10839586B1 (en) Single image-based real-time body animation
KR101148101B1 (en) Method for retargeting expression
WO2012012753A1 (en) Automatic generation of 3d character animation from 3d meshes
US11494980B2 (en) Virtual asset map and index generation systems and methods
KR100889854B1 (en) Method and Apparatus for creating caricature Video
JP2011159329A (en) Automatic 3d modeling system and method
JP4842242B2 (en) Method and apparatus for real-time expression of skin wrinkles during character animation
Dvorožňák et al. Example-based expressive animation of 2d rigid bodies
Onizuka et al. Landmark-guided deformation transfer of template facial expressions for automatic generation of avatar blendshapes
US20230126829A1 (en) Point-based modeling of human clothing
Li et al. Physically-based facial modeling and animation with Unity3D game engine
CN115023742A (en) Facial mesh deformation with detailed wrinkles
Liu et al. Easy modeling of realistic trees from freehand sketches
Ren et al. Efficient facial reconstruction and real-time expression for VR interaction using RGB-D videos
Xie et al. DragD3D: Vertex-based Editing for Realistic Mesh Deformations using 2D Diffusion Priors
CN117557699B (en) Animation data generation method, device, computer equipment and storage medium
Kitamura et al. A Two-Step Approach for Interactive Animatable Avatars
US20240127539A1 (en) Mechanical weight index maps for mesh rigging
Gunanto et al. Facial Animation of Life-Like Avatar based on Feature Point Cluster.
Zhou Research on 3D reconstruction based on 2D face images.
Pellegrin et al. Curvature analysis of sculpted hair meshes for hair guides generation
US8896607B1 (en) Inverse kinematics for rigged deformable characters

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121126

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140108

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150216

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160202

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170112

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180312

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190128

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200116

Year of fee payment: 12