KR100889854B1 - Method and Apparatus for creating caricature Video - Google Patents
Method and Apparatus for creating caricature Video Download PDFInfo
- Publication number
- KR100889854B1 KR100889854B1 KR1020070071123A KR20070071123A KR100889854B1 KR 100889854 B1 KR100889854 B1 KR 100889854B1 KR 1020070071123 A KR1020070071123 A KR 1020070071123A KR 20070071123 A KR20070071123 A KR 20070071123A KR 100889854 B1 KR100889854 B1 KR 100889854B1
- Authority
- KR
- South Korea
- Prior art keywords
- feature points
- image
- information
- caricature
- input image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 캐리커처 비디오 생성 방법 및 장치를 개시한다. 본 발명의 캐리커처 비디오 생성 방법은 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 변이를 계산하는 단계; 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 단계; 및 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키고, 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 영상을 생성하는 단계를 포함한다. 본 발명에 따르면, 입력 영상의 특징을 효과적으로 추출하고, 입력 영상의 특징이 잘 반영된 캐리커처 비디오를 생성할 수 있으며, 정면 위주의 얼굴을 포함하는 비디오를 입력으로하여 만화적 효과를 낼 수 있는 비사실적인 얼굴 영상을 얻을 수 있다. 또한, 본 발명의 캐리커처 비디오 생성 방법을 게임, 웹, 모바일 응용 서비스에서 사용되는 캐릭터와 아바타에 적용할 경우, 템플릿을 기반으로 적용하는 것에 비하여 사실적인 표현이 가능하다.The present invention discloses a method and apparatus for caricature video generation. The method of generating a caricature video of the present invention includes the steps of calculating a variation between feature points extracted from an input image and feature points of a 3D model image prepared in advance; Generating depth information of feature points extracted from the input image by using feature points of the 3D model image and the calculated variation; And transforming feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm, and generating a caricature image of the input image based on the exaggerated feature points. According to the present invention, it is possible to effectively extract the features of the input image, to generate a caricature video reflecting the characteristics of the input image, and to generate a cartoon effect by inputting a video including a face-oriented face. Facial images can be obtained. In addition, when the caricature video generation method of the present invention is applied to characters and avatars used in games, web, and mobile application services, realistic expressions are possible as compared to those based on templates.
캐리커처, 과장, 비사실적 얼굴 애니메이션, 3D Caricature, Exaggerated, Unrealistic Face Animation, 3D
Description
본 발명은 캐리커처 비디오 생성 방법 및 장치에 관한 것으로서, 특히 게임, 애니메이션, 웹 사이트 등에서 사용자의 개성을 살린 캐릭터 영상이나 아바타 영상을 과장시킨 캐리커처 비디오를 생성하는 방법 및 장치에 관한 것이다.BACKGROUND OF THE
일반적으로 캐리커처(caricature)는 인물 또는 의인화된 동식물을 소재를 풍자하기 위한 것이다. 사람의 인물 영상에 대한 캐리커처는 다른 사람들과 구분되는 특징적인 요소를 과장시킨 것으로서, 사람의 개성을 표현하기 때문에 사실대로 그린 초상화 보다 더 강렬한 인상을 준다.In general, the caricature is to satirize a person or anthropomorphic animals and plants. The caricature of a person's portrait image is an exaggeration of the characteristic elements that distinguish it from other people, and because it expresses a person's personality, it gives a more intense impression than a portrait drawn in reality.
컴퓨터 그래픽스 기술을 이용하여 캐리커처를 보다 쉽게 생성하는 방법에 대한 연구가 수행된 바 있는데, 일 예로 알켈만(Akleman), 브렌(Brennan) 그리고 푸지와라(Fujiwara)등은 얼굴의 합성을 통해 캐리커처를 생성한 바 있다. 또한, 리앙(Liang), 치앙(Chiang)등은 캐리커처 작가가 그린 작품을 바탕으로 새로운 입력에 대한 캐리커처 이미지를 생성한 바 있다. 그러나, 상기 방법들은 정지 영상에 대하여 고려된 캐리커처 생성 방법으로서, 연속적인 변화를 보이는 비디오 캐리커 처에는 적용하기 부적합하다.Research on how to create caricatures more easily using computer graphics technology has been done. For example, Akleman, Brennan and Fujiwara create caricatures through the synthesis of faces. I've done it. In addition, Liang and Chiang created caricature images of new inputs based on works by caricature authors. However, the above methods are caricature generation methods considered for still images, and are not suitable for video caricatures showing continuous changes.
또한, 실사 이미지나 비디오를 만화화하는 연구들도 진행된 바 있다. 왕(Wang), 홀거(Holger)등은 평균 이동(MeanShift) 분할 기술이나 바이래터럴(bilateral) 필터를 사용하여 입력 이미지나 비디오에 만화 같은 효과를 적용하였다. 그러나 이러한 방법들은 입력 이미지나 비디오에 추상화를 적용하여 렌더링 스타일을 바꾸었지만 실제 만화에서 나타나는 비사실적인 효과를 표현하는 방법과는 관련성이 없다.In addition, studies have been conducted to cartoonize live image and video. Wang and Holger applied cartoon-like effects to the input image or video using MeanShift splitting techniques or bilateral filters. However, these methods change the rendering style by applying abstraction to the input image or video, but they are not related to the method of expressing the unrealistic effects that appear in the actual cartoon.
관련 특허문헌으로서 대한민국 공개특허 제2000-47501호는 가보 필터 응답을 이용하여 얼굴을 정규화하고 ASM을 통해 얼굴 특징을 검출한 후, 푸리에 디스크립터로 매칭 정보를 생성하는 방법을 개시한 바 있다.As a related patent document, Korean Patent Laid-Open Publication No. 2000-47501 discloses a method of normalizing a face using a Gabor filter response, detecting a face feature through an ASM, and generating matching information with a Fourier descriptor.
대한민국 공개특허 제2004-32452호는 얼굴에 맞게 특화된 ASM 기법을 이용하여 얼굴 구성 요소의 특징점 정보를 추출하고, 이를 기초로 3차원 폴리곤 얼굴 기본 모델을 변형시킴으로써 사용자 얼굴과 유사성이 높은 3차원 캐리커처를 생성하는 방법을 개시한 바 있다.Korean Patent Laid-Open Publication No. 2004-32452 extracts feature point information of facial components by using ASM technique specialized for faces, and transforms a three-dimensional polygon face basic model based on the three-dimensional caricature with high similarity to the user's face. It has been disclosed how to produce.
본 발명은 3D 모델 영상을 이용하여 입력 영상의 회전 정보를 추출하고, 추출된 회전 정보를 바탕으로 입력 영상에 대한 캐리커처 비디오를 생성함으로써, 정면 영상과 정면에 근접한 영상에 대한 캐리커처 영상을 효과적으로 생성하며, 입력 영상의 특징을 효과적으로 반영할 뿐만 아니라, 또한 만화적으로 과장처리되는 비 사실적인 영상을 얻을 수 있는 캐리커처 비디오 생성 방법 및 장치를 제공하는 것을 목적으로 한다.The present invention extracts the rotation information of the input image using the 3D model image, and generates a caricature video for the input image based on the extracted rotation information, thereby effectively generating a caricature image for the front image and the image close to the front It is an object of the present invention to provide a method and apparatus for generating a caricature video that can effectively reflect the characteristics of an input image and also obtain a non-realistic image that is cartoonly exaggerated.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 캐리커처 비디오 생성 방법은 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 변이를 계산하는 단계; 상기 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 단계; 및 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키고, 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 비디오를 생성하는 단계를 포함한다. 본 발명에서 변이는 상기 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 차이를 최소화하기 위해 필요한 3D 모델 영상 또는 입력 영상의 회전 정보, 위치 이동 정보를 의미한다. 여기에서 3D 모델 영상의 특징점들과 상기 계산된 변이를 이용하는 것은, 예를 들어 회전 정보, 위치 이동 정보에 따라 3D 모델 영상의 특징점들을 회전 이동 및/또는 위치 이동시킨 3D 모델 영상의 특징점들의 깊이 정보를 입력 영상의 특징점들의 깊이 정보로 이용한다는 것을 의미한다.According to an aspect of the present invention, there is provided a method for generating a caricature video, comprising: calculating a variation between feature points extracted from an input image and feature points of a 3D model image prepared in advance; Generating depth information of feature points extracted from the input image by using feature points of the 3D model image and the calculated variation; And transforming feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm, and generating a caricature video of the input image based on the exaggerated feature points. In the present invention, the variation refers to rotation information and position movement information of the 3D model image or the input image which are necessary to minimize the difference between the feature points extracted from the input image and the feature points of the 3D model image. Here, using the feature points of the 3D model image and the calculated variation, for example, depth information of the feature points of the 3D model image in which the feature points of the 3D model image are rotated and / or moved in accordance with the rotation information and the position movement information. Means as depth information of feature points of the input image.
상기 다른 기술적 과제를 해결하기 위한 본 발명에 따른 캐리커처 비디오 생성 장치는 입력 영상으로부터 추출된 특징점들과 미리 마련된 3D 모델 영상의 특징점들 간의 변이를 계산하는 변이 계산부; 상기 3D 모델 영상의 특징점들과 변이를 이용하여 상기 입력 영상에서 추출된 특징점들의 깊이 정보를 생성하는 깊이 정보 생성부; 상기 생성된 깊이 정보를 갖는 상기 입력 영상의 특징점들을 소정의 과장 알고리즘에 따라 과장된 특징점들로 변형시키는 과장부; 및 상기 과장된 특징점을 기반으로 하여 입력 영상의 캐리커처 영상을 생성하는 영상 생성부를 포함한다.According to another aspect of the present invention, there is provided a caricature video generating apparatus comprising: a disparity calculator configured to calculate a disparity between feature points extracted from an input image and feature points of a 3D model image prepared in advance; A depth information generator configured to generate depth information of feature points extracted from the input image by using feature points and variations of the 3D model image; An exaggeration unit for transforming the feature points of the input image having the generated depth information into exaggerated feature points according to a predetermined exaggeration algorithm; And an image generator configured to generate a caricature image of the input image based on the exaggerated feature point.
상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기 캐리커처 비디오 생성 방법을 컴퓨터 상에서 수행하는 프로그램이 기록된 컴퓨터에서 판독가능한 기록 매체를 제공한다. In order to solve the above other technical problem, the present invention provides a computer-readable recording medium on which a program for performing the caricature video generating method on a computer is recorded.
본 발명에 따르면, 3D 모델 영상을 이용하여 입력 영상의 회전 정보를 추출하고, 추출된 회전 정보를 바탕으로 입력 영상에 대한 캐리커처 비디오를 생성함으로써, 입력 영상의 특징을 효과적으로 추출하고, 입력 영상의 특징이 잘 반영된 캐리커처 비디오를 생성할 수 있다. 또한, 본 발명에 따르면 정면 위주의 얼굴을 포함하는 비디오를 입력으로 하여 만화적 효과를 갖는 비사실적인 얼굴 영상을 얻을 수 있다. 본 발명의 캐리커처 비디오 생성 방법을 게임, 웹, 모바일 응용 서비스에서 사용되는 캐릭터와 아바타에 적용할 경우, 템플릿을 기반으로 만드는 것보다 사실적인 표현이 가능하다.According to the present invention, by extracting the rotation information of the input image using the 3D model image, and generates a caricature video for the input image based on the extracted rotation information, the feature of the input image is effectively extracted, the feature of the input image This well reflected caricature video can be generated. According to the present invention, a non-realistic face image having a cartoon effect can be obtained by inputting a video including a face-oriented face. When the caricature video generation method of the present invention is applied to characters and avatars used in games, web, and mobile application services, realistic expressions can be achieved rather than based on templates.
이하에서는 도면과 실시예를 참조하여 본 발명의 캐리커처 비디오 생성 방법 및 장치에 대하여 구체적으로 설명한다.Hereinafter, the caricature video generating method and apparatus of the present invention will be described in detail with reference to the accompanying drawings and embodiments.
도 1은 본 발명의 캐리커처 비디오 생성 알고리즘를 설명하는 개략도이다.1 is a schematic diagram illustrating a caricature video generation algorithm of the present invention.
도 1에 도시된 바와 같이 본 발명의 캐리커처 비디오 생성 알고리즘은 크게 전처리 단계와 실행 단계로 나눌 수 있다. 전처리 단계에서는 동적 외향 모델(AAM : Active Appearance Model)을 구축하고, 3D 모델 영상을 생성하고 과장을 위한 규칙을 정의한다. 실행 단계에서는 AAM을 사용하여 입력 영상 특히 입력된 얼굴 영상의 특징점을 추출하고, 3D 모델 영상을 이용하여 입력 얼굴의 회전 정보를 계산한다. 여기에서 회전 정보는 입력 얼굴 영상을 회전시켜 정면 얼굴 영상으로 변형하는 변형 정보가된다. 다음, 상기 계산된 회전 정보를 바탕으로 입력 얼굴 영상을 정면을 향하도록 회전한 뒤, 미리 결정된 소정의 과장룰을 사용하여 과장된 특징점들을 얻고, 과장된 특징점들을 원래의 방향으로 다시 회전시킨다. 마지막으로 입력 프레임을 과장된 특징점으로 와핑한 뒤, 카투닝 효과 등을 적용하여 캐리커처 비디오를 생성할 수 있다.As shown in FIG. 1, the caricature video generation algorithm of the present invention can be roughly divided into a preprocessing step and an execution step. In the preprocessing phase, we build an Active Appearance Model (AAM), generate 3D model images, and define rules for exaggeration. In the execution step, the feature point of the input image, in particular, the input face image is extracted using AAM, and the rotation information of the input face is calculated using the 3D model image. In this case, the rotation information is deformation information that transforms the input face image into a front face image. Next, after rotating the input face image to the front based on the calculated rotation information, exaggerated feature points are obtained using a predetermined predetermined exaggeration rule, and the exaggerated feature points are rotated again in the original direction. Finally, after the input frame is warped with an exaggerated feature point, a caricature video may be generated by applying a catning effect.
전처리 단계에서는 트레이닝 영상의 형태와 텍스처 정보를 학습시켜 AAM을 생성한다. AAM을 기반으로 물체의 형태를 유지하면서 학습된 텍스처 정보를 기반으로 새로운 입력에 대해 가장 비슷한 텍스처를 가지는 부분을 검색하여 물체를 찾을수 있다. 형태와 텍스처를 나타내기 위해 라벨링이 되어있는 영상은 트레이닝 데이터로 사용된다. 보다 다양한 텍스처 정보와 형태 정보를 포함하기 위해 물체의 형태가 다양하게 나타나는 여러 장의 영상들이 필요하다. 예를 들어, 8명의 사람이 9방향에서 다양한 표정으로 찍은 216장의 트레이닝 이미지를 사용하여 최대한 다양한 조명 조건과 포즈를 포함시킬 수 있으며, 각각의 트레이닝 영상에 얼굴형태, 눈, 코, 입에 따른 54개의 특징점을 이용할 수 있다.In the preprocessing step, AAM is generated by learning the shape and texture information of the training image. While maintaining the shape of the object based on AAM, we can find the object by searching the part with the most similar texture for the new input based on the learned texture information. Labeled images are used as training data to represent shape and texture. In order to include more texture information and shape information, several images showing various shapes of objects are required. For example, 216 training images taken by eight people with different expressions in nine directions can be used to include as many different lighting conditions and poses as possible. Feature points are available.
도 2는 본 발명에 따른 캐리커처 비디오 생성 장치를 나타내는 블록도이다. 본 발명의 캐리커처 비디오 생성 장치(1)는 특징점 추출부(10), 3D 모델 영상 저장부(20), 변이 계산부(30), 깊이 정보 생성부(40), 정면 영상 변환부(50), 영상 과장부(60), 영상 생성부(70)를 포함한다.2 is a block diagram illustrating an apparatus for generating a caricature video according to the present invention. The caricature
특징점 추출부(10)는 비디오 시퀀스를 입력 받고 미리 결정된 알고리즘에 따라 이미 구축된 AAM을 사용하여 입력된 비디오 영상 각각으로 부터 특징점들(feature points)을 추출한다.The
3D 모델 영상 저장부(20)는 트레이닝 영상들에 대한 사전 트레이닝을 통해 획득된 3D 모델 영상에 대한 정보를 저장한다. 특히, 3D 모델 영상 정보는 3D 모델 영상에 대하여 이미 추출된 특징점들에 대한 정보를 포함한다.The 3D model
도 3은 본 발명에서 3D 모델 영상을 생성하기 위한 트레이닝 영상의 예를 나타낸 참고도이다. 3D 모델 영상을 생성하기 위해서는 트레이닝 영상들 중 하나의 정면 트레이닝 영상으로부터 추출된 특징점들을 초기 3D 모델의 특징점들로 결정하고, 초기 3D 모델의 특징점들과 상기 트레이닝 영상들 각각에 따른 특징점들간의 거리를 최소로하는 위치 변이와 회전 변이를 계산한 후, 계산된 위치 변이와 회전 변이를 이용하여 초기 3D 모델의 특징점들을 갱신시키는 것이 필요하다. 이하, 도 3에 도시된 복수개의 트레이닝 얼굴 영상의 특징점 들을 이용하여 3D 모델 영상을 생성하는 원리에 대하여 상세히 설명한다.3 is a reference diagram showing an example of a training image for generating a 3D model image in the present invention. In order to generate the 3D model image, the feature points extracted from the front training image of one of the training images are determined as the feature points of the initial 3D model, and the distance between the feature points of the initial 3D model and the feature points according to each of the training images is determined. After calculating the minimum positional and rotational shifts, it is necessary to update the feature points of the initial 3D model using the calculated positional and rotational shifts. Hereinafter, the principle of generating a 3D model image using the feature points of the plurality of training face images shown in FIG. 3 will be described in detail.
우선, n개의 3차원 특징점으로 이루어진 초기 3D 모델 영상에 대한 매트릭스(X)는 다음 수학식1과 같이 표현할 수 있다. 초기 3D 모델 영상은 트레이닝 영상들 중에서 선택되는 하나의 정면 영상으로서 z 값이 0이다.First, the matrix X of the initial 3D model image composed of n three-dimensional feature points may be expressed as in
수학식1
n개의 2차원 특징점으로 이루어진 트레이닝 영상에 대한 매트릭스(x)는 다음 수학식2와 같이 표현한다.A matrix (x) for a training image consisting of n two-dimensional feature points is expressed by Equation 2 below.
수학식2Equation 2
본 실시예에서는 각각의 트레이닝 영상에 따른 특징점과 초기 3D 모델 영상과의 차이를 계산하기 위해, 초기 3D 모델 영상의 특징점을 트레이닝 영상과 같은 2차원 평면으로 투영시켜 사용한다.In this embodiment, in order to calculate the difference between the feature point according to each training image and the initial 3D model image, the feature point of the initial 3D model image is projected and used in the same 2D plane as the training image.
수학식3Equation 3
여기에서, X는 3D 모델 영상 정보이고, R(c)는 X를 회전시키는 상기 복수의 회전 정보들을 포함하는 회전 매트릭스로, R(c)=Rx(rx)Ry(ry)Rz(rz)를 포함하고, Rx(rx)는 x축을 중심으로 회전되는 각도에 대한 회전정보, Ry(ry)는 y축을 중심으로 회전되는 각도에 대한 회전정보, Rz(rz)는 z축을 중심으로 회전되는 각도에 대한 회전정보이며, t(c)는 회전된 3D 모델 영상의 위치 이동 정보로 t(c)=(tx, ty, tz)를 포함하고, tx, ty, tz는 상기 복수의 회전 정보에 따른 각각의 축에서의 위치 이동 정보이며, x는 입력 영상 정보이다.
Here, X is 3D model image information, R (c) is a rotation matrix including the plurality of rotation information for rotating X, R (c) = Rx (rx) Ry (ry) Rz (rz), where Rx (rx) is centered on the x-axis Rotation information about the angle rotated by, Ry (ry) is rotation information about the angle rotated around the y-axis, Rz (rz) is rotation information about the angle rotated around the z-axis, t (c) is rotated T (c) = (tx, ty, tz) as position movement information of the 3D model image, wherein tx, ty, and tz are position movement information in respective axes according to the plurality of rotation information, and x is Input image information.
여기서, P는 3D 모델의 특징점을 2D 상으로 프로젝션 시키기위한 메트릭스이고, 회전 메트릭스 R(c)는 다음과 같이 나타낼 수 있다.Here, P is a matrix for projecting a feature point of the 3D model onto the 2D image, and the rotation matrix R (c) may be expressed as follows.
수학식4Equation 4
, R(c) = Rx(rx)Ry(ry)Rz(rz), t(c) = (tx,ty,tz) , R (c) = R x (r x ) R y (r y ) R z (r z ), t (c) = (t x , t y , t z )
수학식3의 f(c)는 3D 초기 3D 모델 영상을 얼마만큼 회전시키고(R(c)), 움직여야(t(c)) 현재의 트레이닝 영상과 비슷하게 되는지를 계산하는 문제이다. 본 실시예에서 초기 3D 모델 영상은 정면을 향하고 있는 얼굴 영상으로서, 상기 수학식3을 통해 트레이닝 영상을 정면을 향하게 하기 위해서 어느 정도 회전하고 이동해야 하는지를 알 수 있다. 남은 것은 f(c)를 최소화하는 c = (rx, ry, rz, tx, ty, tz)를 찾아내는 최적화 문제를 푸는 것이다. 특히, 본 실시예에서 상기 최적화 문제는 Sequence Quadratic Programming(SQP)를 사용하여 해결하는 것이 바람직하다. 이 경우 c의 초기값으로 모든 요소에 0을 대입할 수 있다.F (c) of Equation 3 is a problem of calculating how much the 3D initial 3D model image is rotated (R (c)) and moved (t (c)) to become similar to the current training image. In the present embodiment, the initial 3D model image is a face image facing to the front, and it can be seen how much it needs to rotate and move to face the training image through Equation 3 above. What remains is to solve the optimization problem of finding c = (r x , r y , r z , t x , t y , t z ) that minimizes f (c). In particular, in this embodiment, the optimization problem is preferably solved using Sequence Quadratic Programming (SQP). In this case, you can assign 0 to all elements as the initial value of c.
다음, 상기에서 계산한 R(c), t(c)를 이용하여 초기 3D 모델을 갱신하는 원리에 대하여 설명한다. 갱신해야할 초기 3D 모델의 j번째 특징점 Xj를 하기 수학식5와 같이 표현할 수 있다. 또한, n개의 특징점의 집합으로 이루어진 i번째 트레이닝 이미지를 xi라하며, 하기 수학식6으로 표현할 수 있다.Next, the principle of updating the initial 3D model using the R (c) and t (c) calculated above will be described. The j th feature point X j of the initial 3D model to be updated may be expressed as in Equation 5 below. In addition, an i-th training image consisting of a set of n feature points is referred to as x i , and may be expressed by Equation 6 below.
수학식5Equation 5
수학식6Equation 6
g(Xj)는 앞서 추측한 회전/위치 이동 정보(Ci)에 따라 회전 이동/위치 이동 처리 후, P로 프로젝션된 3D 모델 X의 j번째 특징점과 트레이닝 영상의 j번째 특징점 간의 거리의 차를 구한 것이다. 상기 수학식6에 따라 모든 트레이닝 영상의 j번째 특징점 간 거리의 차를 합산하고, 합산된 값을 최소로하는 Xj를 구할 수 있다. 3차원 영상을 2차원 상으로 프로젝션 하기 위한 매트릭스(P)와 위치 이동 정보를 나타내는 t(ci)는 다음 수학식 7로 표현된다.g (X j ) is the difference between the distance between the j th feature point of the 3D model X projected by P and the j th feature point of the training image after the rotation movement / position movement process according to the previously estimated rotation / position movement information C i . Is obtained. According to Equation 6, the difference between the distances between the j th feature points of all the training images may be summed and X j may be obtained to minimize the summed values. A matrix P for projecting a 3D image onto a 2D image and t (c i ) representing position movement information are expressed by the following equation.
수학식7Equation 7
, R(ci)= Rx(ri x)Ry(ri y)Rz(ri z), t(ci) = (ti x,ti y,ti z) , R (c i ) = R x (r i x ) R y (r i y ) R z (r i z ), t (c i ) = (t i x , t i y , t i z )
수학식7을 이용하면, 현재의 3D 모델 영상을 앞에서 구한 c를 이용해 회전시킨 뒤, 2D 상으로 프로젝션 시켜 각각의 트레이닝 영상과 비교할 수 있다. 그리고 g(Xj)를 최소화하여 3D 모델의 회전된 특징점들이 트레이닝 이미지의 특징점과 최대한 비슷하도록 특징점 Xj를 구하면, 3D 모델 영상을 갱신할 수 있다. 즉, 갱신된 새로운 3D 모델 영상은 더 많은 트레이닝 영상으로 부터 획득된 것으로서, 3차원 객체의 특성을 더욱 잘 반영하는 것이다. 수학식7의 최적화 문제는 psuedo-inverse 기법을 사용하여 빠르게 풀 수 있다. 도 4는 본 발명의 캐리커처 비디오 생성을 위해 사용되는 3D 모델 영상의 예를 나타내는 참고도이다.Using Equation 7, the current 3D model image can be rotated using the previously obtained c, and then projected onto a 2D image to be compared with each training image. In addition, by minimizing g (X j ) to obtain the feature point X j such that the rotated feature points of the 3D model are as close as possible to the feature points of the training image, the 3D model image may be updated. That is, the updated new 3D model image is obtained from more training images, and more accurately reflects the characteristics of the 3D object. The optimization problem in Equation 7 can be solved quickly using the psuedo-inverse technique. 4 is a reference diagram illustrating an example of a 3D model image used for the caricature video generation of the present invention.
상기 방법에 따라 생성된 3D 모델 영상은 트레이닝 영상들을 바탕으로 생성되었기 때문에 트레이닝 영상의 형태를 대표한다고 할 수 있다. 이렇게 구축한 3D 모델 영상은 기존의 3D 재구성에 대한 연구들이 생성한 형태에 비해 간단한 몇 개의 특징점 만으로 구성된 것이다. 그러나, 본 발명의 경우 특징점들을 바탕으로 얼굴 캐리커처를 생성하기 때문에 복잡한 메시 정보나 구체적인 얼굴 형태가 필요하지는 않다.Since the 3D model image generated according to the method is generated based on the training images, it can be said to represent the shape of the training image. The 3D model image constructed in this way is composed of only a few simple feature points compared to the forms generated by the studies on the existing 3D reconstruction. However, in the case of the present invention, since the face caricature is generated based on the feature points, complicated mesh information or a specific face shape is not required.
변이 계산부(30)는 입력 영상에서 추출된 특징점들과 3D 모델 영상에서 추출된 특징점들 간의 변이를 계산한다. 변이 계산부(30)는 영상 매칭부(32)와 변이 선택부(34)를 포함한다. 영상 매칭부(32)는 미리 결정된 복수의 회전 정보, 위치 이동 정보에 따라 3D 모델 영상의 특징점 들을 변형하고, 변형된 특징점들을 입력 영상의 특징점들과 매칭시킨다. 변이 선택부(34)는 상기 복수의 회전 정보와 위치 이동 정보들 중에서, 입력 영상의 특징점들과 3D 모델 영상의 특징점들을 회전/위치 이동시켜 얻어진 특징점들 간의 차이가 가장 적거나 또는 유사도가 가장 큰 회전 정보와 위치 이동 정보를 회전 변이와 위치 이동 변이로 선택한다. 특히, 변이 선택부(34)는 회전 정보, 위치 이동 정보에 따라 변형된 3D 모델 영상을 입력 영상과 동일한 2차원 평면상에 투영시킨 후, 투영된 특징점들과 입력 영상의 특징점들을 비교하는 것이 바람직하다.The
입력 영상의 특징점들과 3D 모델 영상의 특징점들 간의 회전 변이와 위치 이동 변이는 상술한 수학식 1 내지 4를 통하여 계산할 수 있다. 이때 x는 입력 영상의 특징점들을 나타내는 행렬이며, X는 3D 모델 영상의 특징점들을 나타내는 행렬이다. 수학식3에서 f(c)를 최소로 하는 R(c)와 t(c)는 각각 입력 영상에 따른 회전 변이 및 위치 이동 변이가 된다.The rotation shift and the position shift shift between the feature points of the input image and the feature points of the 3D model image may be calculated through the
깊이 정보 생성부(40)는 3D 모델 영상의 특징점들과 상기 계산된 회전 변이 및 위치 이동 변이를 이용하여 입력 영상의 특징점들에 따른 깊이 정보를 생성한다. 특히 깊이 정보 생성부(40)는 3D 모델 영상을 상기 계산된 회전 변이에 따라 회전시키고, 다시 위치 이동 변이에 따라 위치 이동시킴으로써 얻어지는 3D 모델 영상의 3차원 정보 중 깊이 정보를 현재의 입력 영상의 깊이 정보로 취급한다.The
정면 영상 변환부(50)는 깊이 정보 생성부(40)를 통해 생성된 깊이 정보를 갖는 3D 입력 영상들을 상기 계산된 회전 변이 및 위치 이동 변이에 따라 보정함으로써 정면 영상을 생성한다. The front
영상 과장부(60)는 정면 영상 변환부에서 생성된 정면 영상의 특징점들을 소정의 정면 영상 과장 알고리즘에 따라 과장시킨다. 본 실시예에서 캐리커처 영상을 위한 과장 규칙은 크게 얼굴 내부의 비율을 과장하기 위한 인비트위너 과장과, 얼굴의 형태를 과장하기 위한 컴퍼넌트 과장으로 구분된다. 각각의 과장은 각기 다른 수식으로 과장을 적용하지만 근본적으로 입력 영상과 3D 모델 영상을 비교하여 차이가 나는 부분을 강조하는 방법으로 이루어진다.The
예를 들어 얼굴 영상 과장의 경우, 얼굴 내부의 비율을 과장하기 위해 기존에 정의된 인비트위너를 사용할 수 있다. 인비트위너는 얼굴에 대해서 정의된 비례 모델이라고 할 수 있다. For example, in the case of face image exaggeration, the previously defined Inbit Winner can be used to exaggerate the ratio inside the face. InBitWinner is a proportional model defined for faces.
도 5는 얼굴 영상 과장을 위한 인비트위너의 예를 설명하는 개념도이다. 인비트위너를 구축하기 위해 해당하는 얼굴 특징점에 수평, 수직의 선을 설정하고, 이를 기준으로 얼굴의 비례정보를 추출할 수 있다. 도 5에서 (a) 영상은 평균 얼굴 의 인비트위너이고, (b) 영상은 입력 얼굴의 인비트위너이다. 다음, 두 인비트위너의 라인 사이의 간격을 비교하여 두 얼굴의 차이를 계산하고, 상기 간격을 조절하여 과장된 얼굴을 생성할 수 있다. 도 5에서 (c) 영상은 주어진 얼굴에서의 간격 중 코가 차지하는 비중이 평균 얼굴의 간격 중 코가 차지하는 비중 보다 높으면 코 부분의 간격을 더 넓게 해주는 예이다. 도 5에서 (d) 영상은 전체 얼굴의 비율을 과장하기 위해 앞서 설명한 방법과 비슷한 과장 방법을 적용한 예이다. 인비트위너 과장을 통해 얼굴 요소의 개별적인 형태를 과장할 수는 없다. 그래서 얼굴 요소의 형태를 과장하기 위해 얼굴 형태, 눈, 코, 입에 대한 과장을 따로 적용하는 것이 바람직하다.FIG. 5 is a conceptual diagram illustrating an example of an inbit winner for face image exaggeration. In order to construct Inbit Winner, horizontal and vertical lines may be set at corresponding facial feature points, and the proportional information of the face may be extracted based on this. In FIG. 5, (a) an image is an inbit winner of an average face, and (b) an image is an inbit winner of an input face. Next, the difference between the two faces may be calculated by comparing the intervals between the lines of the two inbit winners, and the interval may be adjusted to generate an exaggerated face. In FIG. 5, the image (c) shows an example in which the distance between the nose parts is wider when the weight of the nose in the interval of the given face is higher than the weight of the nose in the interval of the average face. In FIG. 5, the (d) image is an example of applying an exaggeration method similar to the aforementioned method to exaggerate the ratio of the entire face. You can't exaggerate the individual shapes of facial elements through InbitWinner Exaggeration. Therefore, in order to exaggerate the shape of the facial elements, it is desirable to apply the exaggeration to the face shape, eyes, nose and mouth separately.
도 6은 얼굴 영상 과장을 위한 개별적인 형태 과장 개념을 설명하기 위한 참고도이다. 도 6에서는 얼굴 형태를 과장하기 위해 얼굴을 눈과 코를 기준으로 4영역으로 분할하였으며, 4개의 사각형은 노란 선으로 표현되었다. 얼굴의 갸름함, 둥근 정도는 점 p1 과 점 p2 (도 6의 (b) 영상)를 이은 선분과 각각의 사각형에 속한 점들의 평균점의 거리를 사용하여 구할 수 있다. 그리고 사각형의 선분을 조절해서 턱과 얼굴의 형태를 과장할 수도 있다(도 6의 (c) 영상) .6 is a reference diagram for explaining a concept of individual form exaggeration for face image exaggeration. In FIG. 6, the face is divided into four areas based on eyes and nose to exaggerate the shape of the face, and four squares are represented by yellow lines. The slenderness and roundness of the face can be obtained using the distance between the line segment connecting the point p1 and the point p2 (image of FIG. 6 (b)) and the average point of the points belonging to each rectangle. The shape of the rectangle may be adjusted to exaggerate the shape of the jaw and the face ((c) image of FIG. 6).
예를 들어, 눈, 코, 입의 크기를 과장하기 위해서 평균 얼굴과 입력 얼굴이 구성 요소들의 상대적인 크기를 측정한 다음, 다음과 수학식8과 같은 과장 규칙을 적용할 수 있다.For example, in order to exaggerate the size of the eyes, nose, and mouth, the average face and the input face measure the relative sizes of the components, and then an exaggeration rule as shown in Equation 8 may be applied.
수학식8Equation 8
여기에서, xi는 하나의 컴퍼넌트에 해당하는 i번째 특징점을 나타내고, xmean은 하나의 컴퍼넌트에 해당하는 특징점들의 평균값이다. r은 입력 얼굴과 평균 얼굴과의 크기 차이를 나타내는 인자이고, 상수 s는 크기조절 파라미터로 본 실시예에서는 0.7을 사용하였다. Here, x i represents the i th feature point corresponding to one component, and x mean is the average value of the feature points corresponding to one component. r is a factor representing the size difference between the input face and the average face, and the constant s is a scaling parameter, which is 0.7 in this example.
도 7은 본 발명의 일 실시예에 따라 컴퍼넌트의 크기를 과장한 결과를 나타내는 영상이다. 도 7의 (a)는 평균 얼굴의 구성 요소를 나타내고, (b)는 입력 얼굴의 구성요소를 나타내며, (c)는 크기과장을 통해 과장된 결과이다. 7 is an image illustrating a result of exaggerating the size of a component according to an embodiment of the present invention. 7 (a) shows the components of the average face, (b) shows the components of the input face, and (c) shows the result of exaggeration through the exaggeration of size.
얼굴 구성 요소의 각각의 형태를 과장시키기 위해 하기 수학식9에 따른 선형변환을 사용할 수 있다.In order to exaggerate each shape of the facial component, a linear transformation according to Equation 9 may be used.
수학식9Equation 9
도 8은 본 발명의 일 실시예에 따라 컴퍼넌트의 형태를 과장한 결과를 나타내는 영상이다. 도 8의 (a) 영상은 평균얼굴의 구성요소를 나타내고, (b) 영상은 입력 얼굴의 구성요소를 나타내며, (c) 영상은 형태 과장을 통해 과장된 결과 영상을 나타낸다. 도 8에서는 눈을 과장하기 위해서 눈에 해당하는 특징점들을 입력 얼굴에서 눈의 각도와 평균 얼굴에서 눈의 각도 차이를 나타내는 θ 만큼 회전시키는 회전 행렬 T를 사용하였다. 눈의 각도는 눈의 두 끝점을 잇는 선분의 경사로 측정 할 수 있다. 도 8에서는 코의 형태를 과장하기 위해, 코의 맨 끝점만 이동시켰다. r값은 코의 끝점과 코를 이루는 특징점들의 평균점 간의 거리를 나타낸다. s는 크기조절 상수로 본 실시예에서는 0.9를 사용하였다. 입술의 형태를 과장시키기 위해 a 를 통한 쉬어(Sheer) 변환을 적용하였다. 이때, a는 입력 얼굴에서 입을 구성하는 특징점의 평균점과 끝점을 연결한 선분의 경사와 평균 얼굴에서 구한 경사의 차이로 구할 수 있다.8 is an image showing a result of exaggerating the shape of a component according to an embodiment of the present invention. The image (a) of FIG. 8 represents a component of an average face, (b) the image represents a component of an input face, and (c) the image represents a result image exaggerated through shape exaggeration. In FIG. 8, in order to exaggerate the eye, a rotation matrix T is used in which feature points corresponding to the eye are rotated by θ representing a difference between the angle of the eye at the input face and the angle of the eye at the average face. The angle of the eye can be measured by the slope of the line connecting the two ends of the eye. In FIG. 8, only the far end of the nose was moved to exaggerate the shape of the nose. The r value represents the distance between the tip of the nose and the mean of the feature points that make up the nose. s is the size constant, 0.9 was used in this example. Shear transformation through a was applied to exaggerate the shape of the lips. In this case, a may be obtained by a difference between the inclination of the line segment connecting the average point and the end point of the feature points constituting the mouth in the input face and the inclination obtained from the average face.
영상 생성부(70)는 상기 과장된 특징점들을 기반으로 입력 영상의 캐리커처 영상을 생성한다. 특히, 영상 생성부(70)는 복원부(72)와 와핑 처리부(74)를 포함하는데, 복원부(72)는 과장된 특징점들을 변이에 따라 복원된 특징점들로 변형시키고, 와핑 처리부(74)는 복원된 특징점들을 기준으로 상기 입력 영상에 대한 와핑을 수행한다. 또한, 영상 생성부(70)는 카투닝 처리부(미도시)를 더욱 포함할 수 있다. 카투닝 처리부는 와핑된 영상에 대한 카투닝 처리를 통해 만화화된 얼굴 영상을 생성한다.The
도 9는 본 발명의 일 실시예에 따라 생성한 캐리커처 영상을 나타낸다. 도 9의 (a)에서 빨간색의 점은 입력 얼굴에서 추출된 특징점이고, 파란색 점은 과장 규칙을 적용하여 과장된 특징점이다. 도 9의 (b) 영상은 입력 얼굴의 원본 특징점을 과장된 특징점으로 와핑하고, 카투닝 처리를 하여 얻어지는 만화 스타일의 영상이다.9 illustrates a caricature image generated according to an embodiment of the present invention. In FIG. 9A, a red dot is a feature point extracted from an input face, and a blue dot is an exaggerated feature point by applying an exaggeration rule. The image (b) of FIG. 9 is a cartoon-style image obtained by warping an original feature point of an input face with an exaggerated feature point and performing a katuning process.
도 10은 본 발명의 일 실시예에 따라 생성한 캐리커처 비디오의 일부분을 나타낸다. 도 10의 상부에 도시된 예의 경우 과장의 정도를 정할 때 크기조절 상수 를 크게 하여 좀 더 심한 과장을 적용하였고, 하부에 도시된 예는 자동으로 과장을 적용한 예이다. 10 illustrates a portion of a caricature video generated in accordance with one embodiment of the present invention. In the case of the example shown in the upper part of FIG. 10, a more severe exaggeration was applied by increasing the size control constant when determining the degree of exaggeration, and the example shown in the lower part is an example of automatically applying the exaggeration.
도 11은 본 발명의 일 실시예에 따른 캐리커처 비디오 생성 방법을 나타낸 흐름도이다. 도 11의 캐리커처 비디오 생성 방법은 캐리커처 비디오 생성 장치(1) 상에서 시계열적으로 수행되는 하기 단계들을 포함한다.11 is a flowchart illustrating a caricature video generation method according to an embodiment of the present invention. The caricature video generating method of FIG. 11 includes the following steps performed in time series on the caricature
110단계에서 특징점 추출부(10)는 입력 영상을 수신하고 수신된 입력 영상에서 특징점들을 추출한다.In
120단계에서 변이 계산부(30)는 회전 변이와 위치 변이를 계산한다. 특히, 영상 매칭부(32)는 3D 모델 영상 저장부에 저장된 3D 모델 영상의 특징점들을 미리 설정된 회전 정보들 및/또는 위치 정보들에 따라 변형시키고, 입력 영상의 특징점들과 매칭을 수행하며, 변이 선택부(34)는 3D 모델 영상의 특징점과 입력 영상의 특징점간의 차이를 최소로 하는 회전 정보 및/또는 위치 정보를 선택한다.In
130단계에서 깊이 정보 생성부(40)는 입력 영상의 특징점들이 갖는 깊이 정보를 생성한다. 120단계를 통해 3D 모델 영상과 입력 영상의 차이를 최소로하는 회전 정보와 위치 정보가 각각 특정되면, 각각 특정된 회전 정보와 위치 정보에 따라 변형된 3D 모델 영상의 특징점들에 대한 정보가 특정된다. 입력 영상 정보는 2차원 정보이므로 깊이 정보를 포함하지 않지만, 상기 변형된 3D 모델 영상의 특징점들에 따른 깊이 정보를 이용하면 입력 영상의 특징점들에 따른 깊이 정보를 계산할 수 있다. 본 실시예에서는 변형된 3D 모델 영상의 특징점들의 깊이 정보를 입력 영상의 특징점들에 따른 깊이 정보로 취급한다. In
140단계에서 정면 영상 변환부(50)는 130단계를 통해 깊이 정보를 갖는 입력 영상을 회전 이동 및/또는 위치 이동시켜 정면 영상으로 변환한다. 여기에서 회전 이동과 위치 이동에 대한 정보는 변이 선택부(34)를 통해 선택된 변이 정보를 활용하는 것이 바람직하다.In
150단계에서 영상 과장부(60)는 영상 과장 알고리즘 특히 정면 영상 과장 알고리즘에 따라 정면 영상의 특징점들을 과장한다. 영상 과장 알고리즘의 예로는 인비트위너 과장 알고리즘 또는 구성 요소의 형태 과장에 따른 알고리즘 등이 있으며 이미 설명한 바 있다.In
160단계에서 복원부(72)는 과장된 3차원의 특징점들을 상기 변이에 따라 회전이동 및/또는 위치 이동하여 복원된 특징점들로 변형시킨다. In
170단계에서 와핑 처리부(74)는 복원된 특징점들을 기준으로 입력 영상에 대한 와핑을 수행함으로써 과장된 영상을 생성한다. 또한, 본 단계에 이어 와핑 처리된 영상에 대하여 카투닝 효과를 적용하는 단계를 더욱 포함할 수 있다.In
도 12는 본 발명의 일 실시예에 따른 캐리커처 생성 방법에 대한 개념도이다. 전처리 단계에서 미리 구축해 놓은 AAM, 3D 참조 모델 그리고 과장 규칙을 바탕으로 캐리커처를 생성하는 방법은 도 10을 참조한다. 도 12의 영상 (a)는 AAM의 물체추적 기법을 사용하여 입력 비디오에서 추출한 얼굴 특징점들의 예이다. 상기 수학식3에 따라 입력 얼굴의 회전 정보 c 를 계산하고, 3D 모델을 c 만큼 회전시켜 입력 얼굴의 방향과 비슷하게 만든 후, 3D 모델 영상의 특징점들의 z값을 입력 얼굴의 특징점들의 z값으로 대입한다. 입력 얼굴의 특징점을 -c 만큼 회전하면 정면 얼굴에 따른 특징점을 얻을 수 있다(도 12의 (b)영상). 다음, 앞에서 미리 정해 놓은 정면을 바탕으로 한 과장 규칙을 적용하여 정면을 바라보고 있는 입력 얼굴의 특징점을 과장시키고(도 12의 (c)영상) 다시 만큼 회전 시켜 원래의 회전 방향으로 향하게 한다(도 12의 (d)영상). 마지막으로 도 12의 (d) 영상에 따른 특징점들을 기반으로 와핑을 수행한 후, 카투닝 필터 등을 적용하면 캐리커처를 얻을 수 있다.12 is a conceptual diagram of a caricature generation method according to an embodiment of the present invention. A method of generating a caricature based on an AAM, a 3D reference model, and an exaggeration rule pre-built in the preprocessing step is described with reference to FIG. 10. Image (a) of FIG. 12 is an example of facial feature points extracted from an input video using an object tracking technique of AAM. The rotation information c of the input face is calculated according to Equation 3, the 3D model is rotated by c to be similar to the direction of the input face, and the z values of the feature points of the 3D model image are substituted as the z values of the feature points of the input face. do. When the feature point of the input face is rotated by -c, the feature point according to the front face may be obtained (image of FIG. 12B). Next, the exaggeration rule based on the front face previously determined is applied to exaggerate the feature points of the input face facing the front face (figure (c) of FIG. 12) and rotate it again to face the original direction of rotation (FIG. 12). (D) video of 12). Finally, after performing warping based on the feature points according to the image of FIG. 12 (d), a caricature may be obtained by applying a tuning technique.
한편 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(fun ction al) 프로그램, 코드 및 코드 세그먼트 들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로, 상기 개시된 실시예 들은 한정적인 관점이 아니라 설명적인 관점에 서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will understand that the present invention can be embodied in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown not in the above description but in the claims, and all differences within the scope should be construed as being included in the present invention.
본 발명의 캐리커처 비디오 생성 방법 및 장치는 디지털 컨텐츠 분야, 특히 게임, 애니메이션, 웹 사이트 등에서 사용자의 개성을 살린 캐릭터 영상이나 아바타 영상의 과장과 관련된 모든 컨텐츠에 유용하게 사용될 수 있다. The method and apparatus for generating a caricature video of the present invention can be usefully used for all contents related to the exaggeration of a character image or an avatar image utilizing a user's personality in the field of digital content, especially games, animations, and websites.
도 1은 본 발명의 캐리커처 비디오 생성 알고리즘을 설명하는 개념도이다.1 is a conceptual diagram illustrating a caricature video generation algorithm of the present invention.
도 2는 본 발명에 따른 캐리커처 비디오 생성 장치를 나타내는 블록도이다.2 is a block diagram illustrating an apparatus for generating a caricature video according to the present invention.
도 3은 본 발명에서 3D 모델 영상을 생성하기 위한 트레이닝 영상의 예를 나 타낸 참고도이다.3 is a reference diagram showing an example of a training image for generating a 3D model image in the present invention.
도 4는 본 발명의 캐리커처 비디오 생성을 위해 사용되는 3D 모델 영상의 예를 나타내는 참고도이다.4 is a reference diagram illustrating an example of a 3D model image used for the caricature video generation of the present invention.
도 5는 얼굴 영상 과장을 위한 인비트위너의 예를 설명하는 참고도이다.5 is a reference diagram for explaining an example of an inbit winner for face image exaggeration.
도 6은 얼굴 영상 과장을 위한 개별적인 형태 과장의 개념을 설명하는 참고도이다.6 is a reference diagram illustrating the concept of individual form exaggeration for face image exaggeration.
도 7은 본 발명의 일 실시예에 따라 컴퍼넌트의 크기를 과장한 결과를 나타내는 영상이다.7 is an image illustrating a result of exaggerating the size of a component according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따라 컴퍼넌트의 형태를 과장한 결과를 나타내는 영상이다.8 is an image showing a result of exaggerating the shape of a component according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따라 생성한 캐리커처 영상을 나타낸다.9 illustrates a caricature image generated according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따라 생성한 캐리커처 비디오의 일 부분을 나타낸다.10 illustrates a portion of a caricature video generated according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따른 캐리커처 비디오 생성 방법을 나타내는 흐름도이다.11 is a flowchart illustrating a caricature video generating method according to an embodiment of the present invention.
도 12는 본 발명의 캐리커처 비디오 생성 방법에 대한 개념도이다.12 is a conceptual diagram for a caricature video generating method of the present invention.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070071123A KR100889854B1 (en) | 2007-07-16 | 2007-07-16 | Method and Apparatus for creating caricature Video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070071123A KR100889854B1 (en) | 2007-07-16 | 2007-07-16 | Method and Apparatus for creating caricature Video |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090007909A KR20090007909A (en) | 2009-01-21 |
KR100889854B1 true KR100889854B1 (en) | 2009-03-24 |
Family
ID=40488367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070071123A KR100889854B1 (en) | 2007-07-16 | 2007-07-16 | Method and Apparatus for creating caricature Video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100889854B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101175111B1 (en) | 2011-03-31 | 2012-08-21 | 성균관대학교산학협력단 | Method and apparatus for providing face identification game |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101226769B1 (en) * | 2010-10-25 | 2013-01-28 | 부산대학교 산학협력단 | Method for caricaturing of face simplification using feature point |
CN104115160A (en) * | 2011-12-19 | 2014-10-22 | 诺基亚公司 | A method and apparatus for creating and displaying a face sketch avatar |
KR20170127354A (en) * | 2016-05-11 | 2017-11-21 | 강미연 | Apparatus and method for providing video conversation using face conversion based on facial motion capture |
CN109636711A (en) * | 2018-10-30 | 2019-04-16 | 北京奇虎科技有限公司 | Comic book generation method, device and computer readable storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020014298A (en) * | 2000-08-17 | 2002-02-25 | 윤종용 | Method and apparatus for generating caricature image |
KR20020065990A (en) * | 2001-02-08 | 2002-08-14 | 비쥬텍쓰리디(주) | Apparatus and method for creation personal photo avatar |
KR20030086063A (en) * | 2002-05-03 | 2003-11-07 | 삼성전자주식회사 | Apparatus and method for producing three-dimensional caricature |
-
2007
- 2007-07-16 KR KR1020070071123A patent/KR100889854B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020014298A (en) * | 2000-08-17 | 2002-02-25 | 윤종용 | Method and apparatus for generating caricature image |
KR20020065990A (en) * | 2001-02-08 | 2002-08-14 | 비쥬텍쓰리디(주) | Apparatus and method for creation personal photo avatar |
KR20030086063A (en) * | 2002-05-03 | 2003-11-07 | 삼성전자주식회사 | Apparatus and method for producing three-dimensional caricature |
Non-Patent Citations (1)
Title |
---|
논문:한국컴퓨터그래픽스학회* |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101175111B1 (en) | 2011-03-31 | 2012-08-21 | 성균관대학교산학협력단 | Method and apparatus for providing face identification game |
Also Published As
Publication number | Publication date |
---|---|
KR20090007909A (en) | 2009-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lin et al. | Magic3d: High-resolution text-to-3d content creation | |
KR102616010B1 (en) | System and method for photorealistic real-time human animation | |
Shi et al. | Automatic acquisition of high-fidelity facial performances using monocular videos | |
US10839586B1 (en) | Single image-based real-time body animation | |
KR101148101B1 (en) | Method for retargeting expression | |
WO2012012753A1 (en) | Automatic generation of 3d character animation from 3d meshes | |
US11494980B2 (en) | Virtual asset map and index generation systems and methods | |
KR100889854B1 (en) | Method and Apparatus for creating caricature Video | |
JP2011159329A (en) | Automatic 3d modeling system and method | |
JP4842242B2 (en) | Method and apparatus for real-time expression of skin wrinkles during character animation | |
Dvorožňák et al. | Example-based expressive animation of 2d rigid bodies | |
Onizuka et al. | Landmark-guided deformation transfer of template facial expressions for automatic generation of avatar blendshapes | |
US20230126829A1 (en) | Point-based modeling of human clothing | |
Li et al. | Physically-based facial modeling and animation with Unity3D game engine | |
CN115023742A (en) | Facial mesh deformation with detailed wrinkles | |
Liu et al. | Easy modeling of realistic trees from freehand sketches | |
Ren et al. | Efficient facial reconstruction and real-time expression for VR interaction using RGB-D videos | |
Xie et al. | DragD3D: Vertex-based Editing for Realistic Mesh Deformations using 2D Diffusion Priors | |
CN117557699B (en) | Animation data generation method, device, computer equipment and storage medium | |
Kitamura et al. | A Two-Step Approach for Interactive Animatable Avatars | |
US20240127539A1 (en) | Mechanical weight index maps for mesh rigging | |
Gunanto et al. | Facial Animation of Life-Like Avatar based on Feature Point Cluster. | |
Zhou | Research on 3D reconstruction based on 2D face images. | |
Pellegrin et al. | Curvature analysis of sculpted hair meshes for hair guides generation | |
US8896607B1 (en) | Inverse kinematics for rigged deformable characters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121126 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140108 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150216 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160202 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170112 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20180312 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190128 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20200116 Year of fee payment: 12 |