KR101212110B1 - Method for 2d and 3d virtual face modeling - Google Patents

Method for 2d and 3d virtual face modeling Download PDF

Info

Publication number
KR101212110B1
KR101212110B1 KR1020110060636A KR20110060636A KR101212110B1 KR 101212110 B1 KR101212110 B1 KR 101212110B1 KR 1020110060636 A KR1020110060636 A KR 1020110060636A KR 20110060636 A KR20110060636 A KR 20110060636A KR 101212110 B1 KR101212110 B1 KR 101212110B1
Authority
KR
South Korea
Prior art keywords
face image
face
patch
image
virtual
Prior art date
Application number
KR1020110060636A
Other languages
Korean (ko)
Inventor
권인소
정순기
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020110060636A priority Critical patent/KR101212110B1/en
Application granted granted Critical
Publication of KR101212110B1 publication Critical patent/KR101212110B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE: A method for 2D and 3D virtual face modeling is to give a 3D effect to human faces with different textures or structures while maintaining consistency. CONSTITUTION: A first and second face image is input(S101). The input image is arranged(S102). A local characteristic of a first face image is detected(S103). A patch library including all patches of a second face image is generated(S104). An output face image for the second face image is initialized(S105). The patch corresponding to each pixel point of the output face image is detected from the generated patch library. The detected patches are reunited(S106). The detected local characteristic is delivered to the output face image(S107). [Reference numerals] (AA) Start; (BB) End; (S101) A first and second face image is input; (S102) The input image is arranged; (S103) Local characteristic of a first face image is detected; (S104) Patch library including patch of second face image is generated; (S105) An output face image is initialized; (S106) The detected patches are reunited; (S107) The detected local characteristic is delivered to the output face image

Description

2D 및 3D 가상 얼굴 모델링 방법{METHOD FOR 2D AND 3D VIRTUAL FACE MODELING}2D and 3D virtual face modeling method {METHOD FOR 2D AND 3D VIRTUAL FACE MODELING}

본 발명은 2D 및 3D 가상 얼굴 모델링 방법에 관한 것으로, 보다 상세하게는, 입력 얼굴의 2차원 텍스처를 이용하여 3차원 정보를 가지는 임의 얼굴의 2차원 텍스처와 비교 후 패치 단위 전달을 통해 입력 얼굴의 3차원 정보를 복원하는 2D 및 3D 가상 얼굴 모델링 방법에 관한 것이다.
The present invention relates to a 2D and 3D virtual face modeling method, and more particularly, by comparing the two-dimensional texture of any face having three-dimensional information by using the two-dimensional texture of the input face and then passing the patch unit A 2D and 3D virtual face modeling method for reconstructing three-dimensional information.

일반적으로, 2D 얼굴 합성은 2개 또는 몇 개의 인물사진을 조합하여 새로운 얼굴 영상을 만드는 것으로, 특정한 인물에 대응하지 않는 가상의 얼굴을 만들 수 있다.
In general, 2D face compositing creates a new face image by combining two or several portraits, and may create a virtual face that does not correspond to a specific person.

특히, 2D 얼굴 합성은 어떤 사람의 신원을 숨기거나 순수 엔터테인먼트 목적을 위한 산업에서 적용될 수 있다.
In particular, 2D facial synthesis can be applied in industries for hiding someone's identity or for pure entertainment purposes.

2D 얼굴 합성을 위해, 「D. Bitouk, N. Kumar, S. Dhillon, P. N. Belhumeur, and S. K. Nayar, "Face swapping: automatically replacing faces in photographs," ACM Transactions on Graphics(SIGGRAPH'08), vol. 27, no. 3, 2008.」에서 나타낸 바와 같이, Bitouk 등은 2개의 다른 사람의 얼굴을 자연스럽게 합성하는 자동 시스템을 소개하였다.
For 2D face compositing, “D. Bitouk, N. Kumar, S. Dhillon, PN Belhumeur, and SK Nayar, "Face swapping: automatically replacing faces in photographs," ACM Transactions on Graphics (SIGGRAPH'08), vol. 27, no. 3, 2008. ”, Bitouk et al. Introduced an automatic system that naturally synthesizes the faces of two different people.

또한, 「U. Mohammed, S. J. D. Prince, and J. Kautz, "Visiolization: Generating novel facial images," ACM Transactions on Graphics(SIGGRAPH'09), vol. 28, no.3, pp.57:1-57:8, 2009.」에서는, 주어진 많은 얼굴의 데이터세트에서 근사한 상관 이미지를 생성함으로써 텍스처 기반의 이미지 퀼팅 모델을 합성하고 있다.
In addition, "U. Mohammed, SJD Prince, and J. Kautz, "Visiolization: Generating novel facial images," ACM Transactions on Graphics (SIGGRAPH'09), vol. 28, no.3, pp.57: 1-57: 8, 2009. ”synthesizes texture-based image quilting models by generating approximate correlation images from a given set of face data.

그러나 이러한 기존의 방법들에서는 사람 얼굴에 대해서만 제한되고 있다.
However, these existing methods are limited only to human faces.

3D 얼굴 모델링은 주어진 하나 또는 다수 사람의 이미지에서, 3차원으로 사람의 얼굴을 복원하는 것이다. 특히, 이러한 기술은 예를 들면, 영화 촬영술 산업에서 특별한 효과를 위해 요구되고 있다.
3D face modeling is to restore a person's face in three dimensions in a given image of one or more people. In particular, such techniques are required for special effects, for example in the cinematography industry.

최근에는, 3D 얼굴 모델링과 관련하여, 많은 연구가 활발하게 진행되고 있다. 이러한 연구들은 「D. Bradley, W. Heidrich, T. Poap, and A. Sheffer, "High resolution passive facial performance capture," ACM Transactions on Graphics(SIGGRAPH'10), vol. 29, no. 3, 2010.」나 「T. Beeler, B. Bickel, P. Beardsley, R. Sumner, and M. Gross, "High-quality single-shot capture of facial geometry," ACM Transactions on Graphics(SIGGRAPH'10), vol. 29, no. 3, 2010.」에서 나타낸 바와 같이, 하드웨어 시스템의 구축에 초점을 맞추고 있어 일반적으로 획득한 3D 모델들은 매우 정밀할 수 있다.
In recent years, a lot of research has been actively conducted regarding 3D face modeling. These studies are described in D. Bradley, W. Heidrich, T. Poap, and A. Sheffer, "High resolution passive facial performance capture," ACM Transactions on Graphics (SIGGRAPH'10), vol. 29, no. 3, 2010. '' or `` T. Beeler, B. Bickel, P. Beardsley, R. Sumner, and M. Gross, "High-quality single-shot capture of facial geometry," ACM Transactions on Graphics (SIGGRAPH'10), vol. 29, no. 3, 2010. ”, the focus is on building hardware systems, so that 3D models obtained in general can be very precise.

그러나 이들 시스템들은 보통 고가이며 또한 여러 가지의 입력 이미지들을 요구하고 있다.
However, these systems are usually expensive and require a variety of input images.

다른 방안으로, 「Sung Won Park, Jingu Heo and Marios savvides, "3d face reconstruction from a single 2d face image," in Computer Vision and Pattern Recongnition workshops, 2008.」 및 「Arthur Niswar, Ee Ping Ong, and Zhiyong Huang, "Pose-invariant 3d face reconstruction from a single image," in SIGGRAPH-Asia, 2010.」에서는 단일 영상을 통한 3D 얼굴 복원을 나타내고 있다.
Alternatively, Sung Won Park, Jingu Heo and Marios savvides, "3d face reconstruction from a single 2d face image," in Computer Vision and Pattern Recongnition workshops, 2008., and Arthur Niswar, Ee Ping Ong, and Zhiyong Huang , "Pose-invariant 3d face reconstruction from a single image," in SIGGRAPH-Asia, 2010. "

그러나, 이러한 방법을 통해 만족할 만한 결과를 얻을 수는 있지만 이 방법을 수행함에 있어서 대부분이 사용자가 직접 입력해야 하는 상호작용을 요구하고 있다.
However, while these results yield satisfactory results, most of these methods require interactions that must be entered by the user.

상기한 문제점을 개선하기 위해 안출된 본 발명의 기술적 과제는, 사람 얼굴에 대해서만 제한적이지 않고, 다른 텍스처 및 구조를 가지는 사람과 조각상 얼굴에 입체감을 제공하는 것으로, 사람 얼굴의 구조를 고려하여 입력 조각상(혹은 사람 얼굴)의 컬러, 텍스처 및 구조의 일관성을 유지할 수 있는 2D 및 3D 가상 얼굴 모델링 방법의 제공을 목적으로 한다.
The technical problem of the present invention devised to solve the above problems is not limited to a human face, but to provide a three-dimensional effect to a person and a statue face having different textures and structures, taking into account the structure of the human face An object of the present invention is to provide a 2D and 3D virtual face modeling method capable of maintaining the consistency of color, texture, and structure of (or human face).

또한, 본 발명의 실시예에 따르면, 단일화된 프레임워크에서 2D 얼굴 합성과 3D 얼굴 모델링의 작업을 자동화로 달성할 수 있는 2D 및 3D 가상 얼굴 모델링 방법의 제공을 목적으로 한다.
In addition, according to an embodiment of the present invention, it is an object of the present invention to provide a 2D and 3D virtual face modeling method that can automatically achieve the task of 2D face synthesis and 3D face modeling in a unified framework.

또한, 본 발명의 실시예에 따르면, 입력 얼굴의 2차원 텍스처를 이용하여 3차원 정보를 가지는 임의 얼굴의 2차원 텍스처와 비교 후 패치 단위 전달을 통해 입력 얼굴의 3차원 정보를 복원할 수 있는 2D 및 3D 가상 얼굴 모델링 방법의 제공을 목적으로 한다.
In addition, according to an embodiment of the present invention, 2D that can restore the three-dimensional information of the input face through the patch unit transfer after comparison with the two-dimensional texture of any face having three-dimensional information using the two-dimensional texture of the input face And a 3D virtual face modeling method.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 가상 얼굴 모델링 방법은, 제 1 얼굴 이미지 및 제 2 얼굴 이미지를 입력받는 제 1 단계; 입력받은 상기 제 1 얼굴 이미지 및 제 2 얼굴 이미지를 정렬하여(align), 제 1 얼굴 이미지의 로컬 특징을 검출하는 제 2 단계; 상기 제 2 얼굴 이미지의 모든 패치를 포함하는 패치 라이브러리를 생성하는 제 3 단계; 상기 제 1 얼굴 이미지와 동일한 사이즈를 갖는 출력 얼굴 이미지를 초기화하는 제 4 단계; 상기 패치 라이브러리에서 상기 출력 얼굴 이미지의 각 픽셀 포인트에 대응하는 패치를 검출하여 재결합하는 제 5 단계; 및 상기 제 2 단계에서 검출된 로컬 특징을 상기 출력 얼굴 이미지에 전달하는 제 6 단계;를 포함하는 것을 특징으로 한다.
In order to achieve the above object, a virtual face modeling method according to an embodiment of the present invention includes a first step of receiving a first face image and a second face image; A second step of aligning the received first and second face images to detect local features of the first face image; Generating a patch library including all patches of the second face image; A fourth step of initializing an output face image having the same size as the first face image; A fifth step of detecting and recombining a patch corresponding to each pixel point of the output face image in the patch library; And a sixth step of transferring the local feature detected in the second step to the output face image.

또한, 본 발명의 실시예에 따른 가상 얼굴 모델링 방법은, 상기 제 5 단계에서, 상기 패치 라이브러리에 포함된 패치의 재결합은 상기 제 1 얼굴 이미지의 구조에 대한 유사도 제약(similarity constraint)과 패치 효과(patch effect)에 대한 평활도 제약(smoothness constraint)의 조건에 따르는 것을 특징으로 한다.
The virtual face modeling method according to an embodiment of the present invention, in the fifth step, the recombination of the patches included in the patch library is similar to the similarity constraint (similarity constraint) and the patch effect on the structure of the first face image ( According to the condition of the smoothness constraint (smoothness constraint) for the patch effect.

또한, 본 발명의 실시예에 따른 가상 얼굴 모델링 방법은, 상기 제 5 단계에서 상기 패치 검출시, 각 패치에 대한 유사도는 다음의 수학식에 의해 정의되는 것을 특징으로 한다.In addition, the virtual face modeling method according to an embodiment of the present invention, when the patch is detected in the fifth step, the similarity degree for each patch is characterized by the following equation.

[수학식][Mathematical Expression]

Figure 112011047463819-pat00001
Figure 112011047463819-pat00001

(여기서, G(P)는 패치 P의 변화율이고,

Figure 112012069210971-pat00002
는 패치 P(x)에 대한 평균 변화율이며,
Figure 112012069210971-pat00003
는 패치 P(lx)에 대한 평균 변화율이다.)
Where G (P) is the rate of change of patch P,
Figure 112012069210971-pat00002
Is the average rate of change for patch P (x),
Figure 112012069210971-pat00003
Is the average rate of change for patch P (l x ).)

또한, 본 발명의 실시예에 따른 가상 얼굴 모델링 방법은, 상기 제 1 얼굴 이미지는 사람 얼굴이고, 상기 제 2 얼굴 이미지는 조각상 얼굴인 것을 특징으로 한다.
In addition, in the virtual face modeling method according to an embodiment of the present invention, the first face image is a human face, and the second face image is a statue face.

본 발명의 다른 실시예에 따른 가상 얼굴 모델링 방법은, 제 1 얼굴 이미지 및 3D 정보를 포함하는 제 2 얼굴 이미지를 입력받는 제 1 단계; 상기 제 1 얼굴 이미지 및 제 2 얼굴 이미지 사이의 텍스처 정보를 비교하는 제 2 단계; 상기 제 2 얼굴 이미지의 각 픽셀에 대한 깊이값(depth value)을 포함하는 깊이 패치 라이브러리를 생성하는 제 3 단계; 상기 제 2 얼굴 이미지의 텍스처 정보를 상기 제 1 얼굴 이미지에 전달하는 제 4 단계; 및 상기 제 1 얼굴 이미지의 컬러 정보와 상기 깊이 패치 라이브러리에 포함된 깊이 패치를 결합하여 상기 제 1 얼굴 이미지에 대한 가상의 3D 얼굴 이미지를 생성하는 제 5 단계;를 포함하는 것을 특징으로 한다.
According to another aspect of the present invention, there is provided a virtual face modeling method comprising: a first step of receiving a second face image including a first face image and 3D information; A second step of comparing texture information between the first face image and the second face image; Generating a depth patch library including a depth value for each pixel of the second face image; A fourth step of transferring texture information of the second face image to the first face image; And a fifth step of generating a virtual 3D face image of the first face image by combining the color information of the first face image and the depth patch included in the depth patch library.

또한, 본 발명의 다른 실시예에 따른 가상 얼굴 모델링 방법은, 상기 제 4 단계에서 상기 제 2 얼굴 이미지의 3D 정보를 상기 제 1 얼굴 이미지에 전달하는 것을 특징으로 한다.
In addition, the virtual face modeling method according to another embodiment of the present invention, characterized in that for transmitting the 3D information of the second face image to the first face image in the fourth step.

본 발명의 가상 얼굴 모델링 방법에 따르면, 다른 텍스처 및 구조를 가지는 사람과 조각상 얼굴에 입체감을 제공함으로써, 사람 얼굴의 구조를 고려하여 입력 조각상의 컬러, 텍스처 및 구조의 일관성을 유지할 수 있다.
According to the virtual face modeling method of the present invention, it is possible to maintain the consistency of the color, texture, and structure of the input sculpture by considering the structure of the human face by providing a three-dimensional effect to the person and the statue face having different textures and structures.

또한, 본 발명의 가상 얼굴 모델링 방법에 따르면, 단일화된 프레임워크에서 2D 얼굴 합성과 3D 얼굴 모델링의 작업을 자동화로 달성할 수 있는 특징이 있다.
In addition, according to the virtual face modeling method of the present invention, there is a feature that can automatically achieve the work of 2D face synthesis and 3D face modeling in a unified framework.

또한, 본 발명의 가상 얼굴 모델링 방법에 따르면, 입력 얼굴의 2차원 텍스처를 이용하여 3차원 정보를 가지는 임의 얼굴의 2차원 텍스처와 비교 후 패치 단위 전달을 통해 입력 얼굴의 3차원 정보를 복원할 수 있는 효과가 있다.
In addition, according to the virtual face modeling method of the present invention, by using the two-dimensional texture of the input face compared with the two-dimensional texture of any face having three-dimensional information, it is possible to restore the three-dimensional information of the input face through patch unit transfer It has an effect.

도 1은, 본 발명의 실시예에 따른 2D 가상 얼굴 모델링 방법을 나타내는 흐름도이다.
도 2는, 본 발명의 실시예에 따른 사람 얼굴과 조각상 얼굴을 합성한 예시도이다.
도 3은, 본 발명의 실시예에 따른 2D 가상 얼굴 모델링을 나타내는 예시도이다.
도 4는, 본 발명의 실시예에 따른 3D 가상 얼굴 모델링 방법을 나타내는 흐름도이다.
도 5는, 본 발명의 실시예에 따른 3D 가상 얼굴 모델링을 나타내는 예시도이다.
도 6은, 본 발명의 실시예에 따른 3D 디스플레이를 위한 입체 영상의 예를 나타내는 예시도이다.
도 7은, 3D 디스플레이에 대한 주관적인 테스트 결과를 나타내는 도면이다.
1 is a flowchart illustrating a 2D virtual face modeling method according to an embodiment of the present invention.
2 is a diagram illustrating a synthesis of a human face and a statue face according to an embodiment of the present invention.
3 is an exemplary diagram illustrating 2D virtual face modeling according to an embodiment of the present invention.
4 is a flowchart illustrating a 3D virtual face modeling method according to an embodiment of the present invention.
5 is an exemplary diagram illustrating 3D virtual face modeling according to an embodiment of the present invention.
6 is an exemplary view showing an example of a stereoscopic image for a 3D display according to an embodiment of the present invention.
7 shows subjective test results for a 3D display.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 1은, 본 발명의 실시예에 따른 2D 가상 얼굴 모델링 방법을 나타내는 흐름도이다.
1 is a flowchart illustrating a 2D virtual face modeling method according to an embodiment of the present invention.

도시한 바와 같이, 2D 가상 얼굴 모델링 위해 제 1 얼굴 이미지 및 제 2 얼굴 이미지를 입력받는다(S101). 입력받은 제 1 얼굴 이미지 및 제 2 얼굴 이미지를 정렬하여(align)(S102), 제 1 얼굴 이미지의 로컬 특징을 검출한다(S103).
As shown, the first face image and the second face image are received for the 2D virtual face modeling (S101). The input first facial image and the second facial image are aligned (S102), and local features of the first facial image are detected (S103).

이후, 제 2 얼굴 이미지의 모든 패치를 포함하는 패치 라이브러리를 생성하고(S104), 제 1 얼굴 이미지와 동일한 사이즈를 갖도록 제 2 얼굴 이미지에 대한 출력 얼굴 이미지를 초기화한다(S105).
Thereafter, a patch library including all patches of the second face image is generated (S104), and an output face image for the second face image is initialized to have the same size as the first face image (S105).

단계(S104)에서 생성된 패치 라이브러리에서, 출력 얼굴 이미지의 각 픽셀 포인트에 대응하는 패치를 검출한 후, 검출된 패치들을 재결합한다(S106).
In the patch library generated in step S104, after detecting a patch corresponding to each pixel point of the output face image, the detected patches are recombined (S106).

다음에, 단계(S103)에서 검출된 로컬 특징을 출력 얼굴 이미지에 전달하여(S107) 제 1 얼굴 이미지 및 제 2 얼굴 이미지에 대한 가상 얼굴을 생성한다.
Next, the local feature detected in step S103 is transferred to the output face image (S107) to generate a virtual face for the first face image and the second face image.

본 발명의 2D 및 3D 가상 얼굴 모델링은 2개의 방법으로 될 수 있다. 첫 번째, 본 발명은 사람 - 조각상 얼굴 합성에 대한 2D 얼굴 모델링의 수학적 형식화를 제공하고, 두 번째, 3D 얼굴 모델링 적용에 이 방안을 일반화한다.
The 2D and 3D virtual face modeling of the present invention can be in two ways. First, the present invention provides a mathematical formatting of 2D face modeling for human-sculptural face synthesis, and second, generalizes this approach to 3D face modeling applications.

[2D 얼굴 모델링][2D face modeling]

본 발명은 주어진 조각상 얼굴과 사람 얼굴의 그림에서, 도 1에 나타낸 바와 같이, 입력 조각상의 형체를 가지며 또한 입력 사람 얼굴처럼 보이는 가상의 조각상을 합성하는 것이다.
The present invention synthesizes a virtual statue having a shape of an input statue and looking like an input human face, as shown in FIG.

도 1은 2D 얼굴 모델링을 나타내는 것으로, 도 1a는 입력(조각상 얼굴 및 사람 얼굴)을 나타내고, 도 1b는 본 발명의 2D 얼굴 모델링에 의해 합성된 출력(가상의 조각상)을 나타낸다.
FIG. 1 shows 2D face modeling, FIG. 1A shows the input (fragmentary face and human face), and FIG. 1B shows the output (virtual statue) synthesized by the 2D face modeling of the present invention.

가상의 조각상은 (1) 오리지널 조각상(입력 조각상)의 컬러 및 텍스처 일관성이 검증되어야 하고, (2) 사람 얼굴의 구조도 수정되지 않아야 되며, 그렇지 않으면, 사람은 인식할 수 없다.
The virtual statue must be (1) the color and texture consistency of the original statue (input statue) must be verified, and (2) the structure of the human face must not be modified, otherwise the human will not be able to recognize it.

이러한 방법을 수행하기 위하여, 본 발명은 다음 단계에서 간단히 설명된 그래피컬 라벨링 문제와 같은 작업을 명확하게 한다.
To carry out this method, the present invention clarifies tasks such as the graphical labeling problem described briefly in the next step.

- 안면의 특징(눈, 코, 입 등)에 관한 2개의 얼굴을 정렬하는(align) 단계Align two faces with respect to facial features (eyes, nose, mouth, etc.)

- 입력 조각상 얼굴의 모든 패치를 포함하는 패치 라이브러리를 생성하는 단계Generating a patch library containing all patches of the input statue face

- 사람의 얼굴과 동일한 사이즈를 갖는 빈(empty) 출력 얼굴을 초기화하는 단계; 모든 안면 영역은 초기 스테이지에서 알려지지 않는다.Initializing an empty output face having the same size as the human face; All facial areas are unknown at the initial stage.

- 에너지 함수(energy function)를 최소로 하는 출력 얼굴의 각 픽셀 포인트에 대한 패치 라이브러리로부터 최선의 패치를 찾는 단계
Finding the best patch from the patch library for each pixel point of the output face to minimize the energy function

이들 각 단계는 아래에서 보다 상세하게 설명된다.
Each of these steps is described in more detail below.

[얼굴 정렬 및 패치 라이브러리][Face Alignment and Patch Library]

이 단계는 본 발명에서의 2개의 예비 단계: 얼굴 정렬 및 패치 라이브러리의 작성을 나타낸다. 흥미로운 관찰은 사람과 조각상의 얼굴이 다른 텍스처 및 구조를 가짐에도 불구하고, 그것들은 눈 및 입과 같은 앵커 포인트(anchor point) 주위의 비슷한 로컬 영역을 갖는다.
This step represents the two preliminary steps in the present invention: the face alignment and the creation of a patch library. An interesting observation is that although faces of people and statues have different textures and structures, they have similar local areas around anchor points such as eyes and mouth.

따라서, 본 발명은 이들 앵커 포인트로부터 2개의 얼굴을 자동으로 정렬시킬 수 있다. 이것은 다음 단계에서 패치 비교를 쉽게 한다.
Thus, the present invention can automatically align the two faces from these anchor points. This makes it easier to compare patches in the next step.

얼굴 정렬은 Active Shape Model(ASM) 알고리즘을 사용하여 쉽게 수행할 수 있다. ASM은 학습을 통해 물체의 모양을 묘사하는 로컬 특징들을 검출하는 일반적인 알고리즘이다.
Face alignment can be easily done using the Active Shape Model (ASM) algorithm. ASM is a common algorithm that detects local features that describe the shape of an object through learning.

본 발명에서는, 양 얼굴에서 중요한 안면의 모든 특징들을 검출하기 위해 「S.Milborrow and F.Nicolls, "Locating facial features with an extended active shape model," European Conference on Computer Vision(ECCV'08), 2008.」을 참조하였다. 그리고, 본 발명은 이들 포인트를 정렬하기 위하여 워핑(warping) 알고리즘을 수행함으로써 정렬된 사람 및 조각상 얼굴을 얻었다.
In the present invention, S.Milborrow and F.Nicolls, "Locating facial features with an extended active shape model," European Conference on Computer Vision (ECCV'08), 2008, to detect all important facial features in both faces. Reference is made. The present invention then performed a warping algorithm to align these points to obtain an aligned person and statue face.

ASM은 또한 이미지에서 얼굴의 경계를 나타내는 마스크를 제공한다. 따라서, 이미지에서 안면의 영역 검출이 가능해진다.
ASM also provides a mask that represents the boundary of the face in the image. Thus, detection of the facial area in the image is possible.

계속해서, 모든 픽셀 포인트에 대한 안면의 영역을 작은 패치(패치 사이즈는 사용자에 의해 설정되고, 일반적으로 7 × 7이다)로 나눈다. 그 다음, 이들 패치는 출력 얼굴에서 각 픽셀 포인트에 대한 후보 패치의 리스트를 형성하는 패치 라이브러리에 저장된다.
Subsequently, the area of the face for every pixel point is divided by a small patch (the patch size is set by the user and is generally 7x7). These patches are then stored in a patch library that forms a list of candidate patches for each pixel point in the output face.

[에너지 함수(Energy Function)][Energy Function]

본 발명에서는 가상의 얼굴 상을 만들기 위해 적절한 형태로 패치 라이브러리(예를 들면, 오리지널 얼굴상으로부터)에 포함된 패치들을 재결합한다.
In the present invention, patches included in a patch library (eg, from an original face) are recombined in a suitable form to create a virtual face image.

이 형태는, (1) 주어진 사람 얼굴의 구조에 따르고(유사도 제약(similarity constraint)이라 칭함), (2) "패치 효과(patch effect)"(평활도 제약(smoothness constraint)이라 칭함)를 최소로 해야 한다.
This form must (1) conform to the structure of a given human face (called a similarity constraint) and (2) minimize the "patch effect" (called a smoothness constraint). do.

그래프 라벨링 문제로서 이 작업을 명확하게 하고, 각 패치는 라벨에 연관된다.

Figure 112011047463819-pat00004
로 표시된 그래프의 노드는, 출력 영상의 M 픽셀의 세트이다. 위치 x를 포함하는
Figure 112011047463819-pat00005
의 각 픽셀 p에 대해, 라이브러리로부터 lx로 표시된 최선의 라벨(패치)을 찾는 것이 본 발명의 목적이다.
To clarify this task as a graph labeling problem, each patch is associated with a label.
Figure 112011047463819-pat00004
The node of the graph denoted by is a set of M pixels of the output video. Containing position x
Figure 112011047463819-pat00005
For each pixel p of, it is an object of the present invention to find the best label (patch) represented by l x from the library.

본 발명은, 다음의 수학식(1)에 나타낸 바와 같이, 2개의 식의 합으로 연관된 에너지를 정의한다.
The present invention defines the energy associated with the sum of the two equations, as shown in the following equation (1).

Figure 112011047463819-pat00006
Figure 112011047463819-pat00006

여기서, Esim 및 Esmooth는 유사도 및 평활도 제약을 위한 각각의 에너지이다. α는 이들 2개의 유사도 제약 에너지 및 평활도 제약 에너지의 균형을 잡는 상호 중량이다. 기호 <p, q>는 픽셀(p 및 q)이 서로 이웃하는 것을 나타낸다. 라벨(

Figure 112011047463819-pat00007
)의 최선의 조합은 다음의 수학식(2)에서 나타낸 바와 같이, 에너지 E(L)를 최소화함으로써 얻어진다.
Where E sim and E smooth are the respective energies for similarity and smoothness constraints. α is the mutual weight that balances these two similarity constraint energies and smoothness constraint energies. The symbols <p, q> indicate that the pixels p and q are adjacent to each other. label(
Figure 112011047463819-pat00007
The best combination of) is obtained by minimizing the energy E (L), as shown in equation (2) below.

Figure 112011047463819-pat00008
Figure 112011047463819-pat00008

유사도 식은 유사한 구조를 가지는 패치를 찾기 위한 것이다. 사람과 조각상의 얼굴은 도 1에 나타낸 바와 같이, 매우 다른 외관을 가지기 때문에 컬러는 적절한 측정이 아니며, 따라서 변화율 정보(gradient information)를 참조하였다.
The similarity formula is for finding patches with similar structure. Since the face of the person and the statue has a very different appearance, as shown in Fig. 1, the color is not an appropriate measurement, and thus referred to gradient information.

수학식(3)에서 나타낸 바와 같이, 제곱차의 정규화 합(normalized sum of squared difference, NSSD)으로서 유사도를 확인하였다.
As shown in Equation (3), the similarity was confirmed as a normalized sum of squared difference (NSSD).

Figure 112011047463819-pat00009
Figure 112011047463819-pat00009

여기서, G(P)는 패치 P의 변화율이고,

Figure 112012069210971-pat00010
는 패치 P(x)에 대한 평균 변화율이며,
Figure 112012069210971-pat00011
는 패치 P(lx)에 대한 평균 변화율이다. Edata(lx)는 「V.Kolmogorov, A. Criminisi, A. Blake, G. Cross, and C. Rother, "Bi-layer segmentation of binocular stereo video," IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR'05), vol. 2, pp.407-414, 2005.」에 나타낸 바와 같이, [0, 1]에서 실수 값을 리턴하는 정규화 식이다. 만약, G(P(x)) 및 G(P(lx))가 동일하면, 리턴 값은 0이다.
Where G (P) is the rate of change of patch P,
Figure 112012069210971-pat00010
Is the average rate of change for patch P (x),
Figure 112012069210971-pat00011
Is the average rate of change for patch P (l x ). E data (l x ) is described in V. Kolmogorov, A. Criminisi, A. Blake, G. Cross, and C. Rother, “Bi-layer segmentation of binocular stereo video,” IEEE Computer Society Conference on Computer Vision and Pattern Recognition. (CVPR'05), vol. 2, pp.407-414, 2005. ", it is a normalization expression which returns a real value in [0, 1]. If G (P (x)) and G (P (l x )) are equal, the return value is zero.

평활도 에너지는 2개의 인접한 패치 P(lx) 및 P(ly) 사이의 오버래핑 상관(overlapping coherence)을 인코드한다. 이 에너지 식은 그들의 오버래핑 영역에서 NSSD로서 정의된다. 이 식은 또한 「Li-Yi Wei and Marc Levoy, "Fast texture synthesis using tree-structured vector quntization," is SIGGRAPH '00, 2000, pp.479-488.」의 확장으로 고려될 수 있다.
The smoothness energy encodes the overlapping coherence between two adjacent patches P (l x ) and P (l y ). This energy equation is defined as NSSD in their overlapping region. This equation can also be considered an extension of Li-Yi Wei and Marc Levoy, "Fast texture synthesis using tree-structured vector quntization," is SIGGRAPH '00, 2000, pp. 479-488.

수학식(2)의 MRF 에너지를 최소화하는 라벨링을 찾기 위해, 본 발명에서는 「P.F.Felzenszwalb and D.P.Huttenlocher, "Efficient belief propagation for early vision," International Journal of Computer Vision(IJCV'06), vol.70, `no.1, pp.41-45, 2006.」 및 「J.Sun, L.Yuan, J.Jia, and H.-Y.Shum, "Image completion with structure propagation," in SIGGRAPH'05, 2005, pp.861-868.」에 나타낸 바와 같이 BP(Belief Propagation)를 적용한다.
In order to find the labeling that minimizes the MRF energy of Equation (2), in the present invention, "PFFelzenszwalb and DPHuttenlocher," Efficient belief propagation for early vision, "International Journal of Computer Vision (IJCV'06), vol. 70,` no .1, pp. 41-45, 2006. '' and J.Sun, L.Yuan, J.Jia, and H.-Y.Shum, "Image completion with structure propagation," in SIGGRAPH'05, 2005, pp .861-868. ”Apply BP (Belief Propagation).

BP는 포텐셜로서 각 픽셀 포인트에 대한 에너지 코스트를 처리하고 각 포인트에 대한 최선의 라벨을 찾도록 그래프를 통하여 그것을 늘리는 대중적인 반복 알고리즘이다.
BP is a popular iterative algorithm that treats the energy cost for each pixel point as potential and increases it through the graph to find the best label for each point.

상기 얼굴 정렬 및 패치 라이브러리에서 검출된 앵커 포인트를 사용함으로써, 본 발명은 출력 이미지의 픽셀을 조각상 얼굴에 전달하기 위하여 워핑 단계를 적용하였다. 따라서, 후보 패치(예를 들면, 검색 공간)의 수를 과감히 감소시키고 얼굴에 관한 몇몇의 연역적인 기하학 정보를 이용하는 것을 가능하게 한다.
By using the anchor points detected in the face alignment and patch library, the present invention applies a warping step to deliver the pixels of the output image to the statue face. Thus, it is possible to drastically reduce the number of candidate patches (eg, search spaces) and to use some deductive geometric information about the face.

[결과 및 분석][Results and Analysis]

본 발명은 다양한 사진에 2D 얼굴 모델링 프레임워크를 적용하였다. 대표적인 결과는 도 2에 나타낸다. 또한, 비교를 위해 본 발명에서는 「Patrick Perez, Michel Gangnet, and Andrew Blake, "Poisson image editing," ACM Transactions on Graphics(SIGGRAPH'03), vol. 22, no.3, pp.313-318, 2003.」에서 나타낸 Poisson Image Editing method를 적용하였다.
The present invention applies a 2D face modeling framework to various photographs. Representative results are shown in FIG. 2. In addition, in the present invention for comparison, "Patrick Perez, Michel Gangnet, and Andrew Blake," Poisson image editing, "ACM Transactions on Graphics (SIGGRAPH'03), vol. 22, no.3, pp. 313-318, 2003. ”was applied to the Poisson Image Editing method.

도 2의 제 1 열(column)은 입력 사람 얼굴을 나타내고, 제 2 열은 입력 조각상 얼굴을 나타내며, 제 3 열은 Poisson Image Editing method를 이용한 출력 얼굴이고, 제 4 열은 본 발명의 2D 얼굴 모델링 방법에 따른 출력 얼굴이다.
The first column of FIG. 2 represents an input human face, the second column represents an input statue face, the third column is an output face using the Poisson Image Editing method, and the fourth column is a 2D face modeling of the present invention. Output face according to the method.

좋은 결과로서 Poission 출력을 고려할 수 있지만, 그것들이 적절하지 않은 컬러(예를 들면, 입력 조각상에 존재하지 않는 컬러)를 포함하고 따라서 가상의 조각상으로서 고려될 수 없다는 것이 중요하다. 반대로, 본 발명에 따른 방법은 입력 조각상의 컬러, 텍스처 및 구조의 일관성을 유지하는 것을 가능하게 하며, 특히, 볼 주름, 머리 선 및 안경과 같은 작은 특징을 복원할 수 있다.
Although good results can be considered Poission outputs, it is important that they contain inappropriate colors (eg, colors not present on the input fragment) and therefore cannot be considered as virtual statues. In contrast, the method according to the invention makes it possible to maintain the consistency of the color, texture and structure of the input sculpture, and in particular, to restore small features such as ball wrinkles, hair lines and glasses.

도 4는, 본 발명의 실시예에 따른 3D 가상 얼굴 모델링 방법을 나타내는 흐름도이다. 도면에 나타낸 바와 같이, 먼저 가상 얼굴 모델링을 위해 제 1 얼굴 이미지와 3D 정보를 포함하는 제 2 얼굴 이미지를 입력받는다(S201). 이후, 입력된 제 1 얼굴 이미지와 제 2 얼굴 이미지 사이의 텍스처 정보를 비교하고(S202), 제 2 얼굴 이미지의 각 픽셀에 대한 깊이값(depth value)을 포함하는 깊이 패치 라이브러리를 생성한다(S203).
4 is a flowchart illustrating a 3D virtual face modeling method according to an embodiment of the present invention. As shown in the figure, first, a first face image and a second face image including 3D information are input for virtual face modeling (S201). Subsequently, texture information between the input first face image and the second face image is compared (S202), and a depth patch library including a depth value for each pixel of the second face image is generated (S203). ).

다음에, 제 2 얼굴 이미지의 텍스처 정보를 상기 제 1 얼굴 이미지에 전달하고(S203), 이때 제 2 얼굴 이미지에 포함된 3D 정보도 같이 전달한다.
Next, texture information of the second face image is transferred to the first face image (S203), and 3D information included in the second face image is also transferred.

이후, 제 1 얼굴 이미지의 컬러 정보와 깊이 패치 라이브러리에 포함된 깊이 패치를 결합하여 제 1 얼굴 이미지에 대한 가상의 3D 얼굴 이미지를 생성한다(S205).
Thereafter, the virtual 3D face image of the first face image is generated by combining the color information of the first face image and the depth patch included in the depth patch library (S205).

[3D 얼굴 모델링][3D face modeling]

상술한 바와 같이, 본 발명의 2D 얼굴 모델링에서는 입력 사람 얼굴처럼 보이고 입력 조각상 얼굴의 텍스처/컬러 일관성을 검증하는 가상의 조각상을 만들기 위해 2D 컬러 패치를 어떻게 전달하는지를 나타냈다.
As described above, the 2D face modeling of the present invention has shown how to deliver 2D color patches to create a virtual statue that looks like an input human face and verifies the texture / color consistency of the input statue face.

또한 입력 조각상 얼굴의 3D 정보를 알면, “출력 얼굴이 선택된 패치와 연관된 깊이값(depth value)을 어떻게 직접 전달함으로써 3D처럼 보일까?”라는 의문이 생길 수 있다. 이러한 확장의 동기는 간단하다.
Also, knowing the 3D information of the face of the input statue, one might ask, "How does the output face look like 3D by directly conveying the depth value associated with the selected patch?" The motivation for this extension is simple.

입력 조각상 얼굴이 3D 모델(어떤 방법에 의해 얻어진)과 연관되면, 조각상 얼굴의 각 픽셀은 깊이값을 갖고, 따라서 “깊이 패치 라이브러리”를 생성하는 것이 가능해진다. 컬러 정보와 깊이 패치를 결합시킴으로써, 그 결과로 가상의 3D 얼굴을 출력할 수 있다. 이러한 방법은 3D 얼굴 모델링 문제점의 대체 방안을 탐구하도록 한다. 이하에서, 3D 얼굴 모델링을 향한 본 발명의 프레임워크에 근거한 2D 패치 전달의 일반화를 나타낸다.
If an input statue face is associated with a 3D model (obtained by some method), each pixel of the statue face has a depth value, thus making it possible to create a “depth patch library”. By combining the color information and the depth patch, the resulting virtual 3D face can be output. This approach allows us to explore alternatives to 3D face modeling problems. In the following, the generalization of 2D patch delivery based on the framework of the present invention towards 3D face modeling is shown.

[에너지 식 일반화][Energy Formula Generalization]

본 발명에서는 깊이 정보를 처리하기 위한 에너지 식 일반화를 나타낸다. 입력 사람 얼굴과 동일한 구조를 묘사하기 위한 출력 얼굴을 목표로 하기 때문에 유사도 에너지(similarity energy)를 변경하지 않는다. 평활도 에너지에 대해, 출력 얼굴의 로컬 영역 내에 깊이 일관성을 인코드하는 하나 이상의 식을 추가한다. 이 일관성은 오버래핑 영역 외의 깊이 값의 NSSD로서 정의된다.
In the present invention, an energy equation generalization for processing depth information is shown. It does not change the similarity energy because it targets the output face to depict the same structure as the input human face. For smoothness energy, add one or more equations that encode depth consistency within the local region of the output face. This consistency is defined as the NSSD of the depth value outside of the overlapping area.

이 추가 식은, 만족할만한 3D 얼굴을 만들기 위해 컬러 값 외에 이웃의 깊이값 주위의 평활도를 보상하는 것을 허용한다.
This additional equation allows to compensate for the smoothness around the neighbor's depth values in addition to the color values to make a satisfactory 3D face.

깊이 정보를 변경함으로써, 깊이 맵과 연관되어 가상의 3D 얼굴을 출력하고, 도 3에 나타낸 바와 같이, 가상의 뷰 포인트를 합성할 수 있으며, 또한 도 4에 나타낸 바와 같이, 3D 디스플레이를 위한 입체 화면을 생성할 수 있다.
By changing the depth information, it is possible to output a virtual 3D face in association with the depth map, synthesize a virtual viewpoint as shown in FIG. 3, and also as shown in FIG. 4, a stereoscopic screen for 3D display. Can be generated.

[다른 입력 3D 모델과 비교 분석][Comparative analysis with other input 3D models]

본 발명에서는 출력 3D 얼굴에 관한 입력 3D 모델의 영향을 고찰한다. 상술한 바와 같이, 조각상 및 사람 얼굴로부터 얼굴 모델링에 초점을 두고 있고, 특히 최대의 가능성을 탐구하기 위해 2개의 입력 사람 얼굴을 고려한다.
In the present invention, the influence of the input 3D model on the output 3D face is considered. As mentioned above, focusing on face modeling from statues and human faces, in particular two input human faces are considered to explore the maximum possibilities.

입력 사람 3D 얼굴에 대한 실험을 위해, 「J.Sun, L.Yuan, J.Jia, and H.-Y.Shum, "Image completion with structure propagation," in SIGGRAPH'05, 2005, pp.861-868.」에 나타낸 바와 같이 몇몇 오리엔테이션에서 다양한 사람의 3D 모델로 이루어진 데이터세트를 이용하고, 조각상 및 사람 얼굴로부터 생성된 3D 얼굴을 비교하였다.
For experiments on input human 3D faces, see J.Sun, L.Yuan, J.Jia, and H.-Y.Shum, "Image completion with structure propagation," in SIGGRAPH'05, 2005, pp.861- 868. ”A dataset consisting of 3D models of various people was used at some orientations, and 3D faces generated from statues and human faces were compared.

다른 입력 3D 얼굴(참조 얼굴이라 칭함)을 이용하여 만들어진 가장 만족한 3D 얼굴을 투표하기 위해 주관적인 테스트를 수행하였다. 이를 위해, Nvidia 3D 비젼 키트를 이용하여 3D 얼굴을 디스플레이하기 위한 가상의 입체 화면을 생성하였다. 이를 통해 3D 정보를 얻을 수 있는 것으로, 계속해서 입체 영상 쌍의 가상의 좌측 화면을 생성할 수 있고, 우측 화면은 간단하게 오리지널 사람 이미지이다. 입체 화면뿐만 아니라, 가상의 좌측 화면을, 도 4에 나타낸다. 도 4의 제 1 열은 오리지널 얼굴, 제 2 열은 본 발명에 의해 자동으로 생성된 가상의 좌측 화면이고, 제 3 열은 3D 디스플레이를 위해 생성된 입체 영상을 나타낸다.
Subjective tests were performed to vote for the most satisfying 3D face made using another input 3D face (called the reference face). To this end, a virtual stereoscopic screen for displaying a 3D face was generated using the Nvidia 3D Vision Kit. Through this, 3D information can be obtained. The virtual left screen of the stereoscopic image pair can be continuously generated, and the right screen is simply an original human image. In addition to the stereoscopic screen, the virtual left screen is shown in FIG. The first column of FIG. 4 is an original face, the second column is a virtual left screen automatically generated by the present invention, and the third column represents a stereoscopic image generated for the 3D display.

주관적인 테스트는 4종류의 참조 얼굴: a) 조각상 얼굴, b) 3D 얼굴 데이터베이스로부터 사람 얼굴의 랜덤 선택, c) 타겟 얼굴에 유사한 외관으로 사람 얼굴의 매뉴얼 선택 및 d) 사람 얼굴의 자동 선택(PCA 얼굴 인식에 의함)으로 이루어진다. 테스트 결과는 도 5에 나타낸다. 결과로부터, 외관이 타겟 얼굴에 유사한 참조 얼굴로부터 모델링된 3D 얼굴이 3D 디스플레이로 보이는 만족한 결과를 얻을 수 있다.
Subjective tests included four types of reference faces: a) statue face, b) random selection of human faces from the 3D face database, c) manual selection of human faces with appearances similar to target faces, and d) automatic selection of human faces (PCA faces). By recognition). The test results are shown in FIG. From the results, it is possible to obtain satisfactory results in which the 3D face modeled from the reference face whose appearance is similar to the target face is seen on the 3D display.

게다가, 2D 이미지의 유사한 외관은 유사한 3D 구조를 수반할 수 있다. 이들 참조 얼굴을 가지고, 본 발명에 따라 3D 정보를 정확히 전달할 수 있는 3D 디스플레이는 테스터에 의해 만족한 것으로 입증되었다.
In addition, similar appearances of 2D images may involve similar 3D structures. With these reference faces, 3D displays capable of accurately conveying 3D information in accordance with the present invention have proven satisfactory by the testers.

[결론][conclusion]

본 발명에서는 2D 및 3D 얼굴 모델링의 2개의 작업을 위해, 패치 전달에 근거한, 단일화된 프레임워크를 제안하였다. 2D의 경우, 컬러의 구조 정보와 평활도 제약을 고려하였다. 사람과 조각상 얼굴을 결합하여 가상의 조각상 얼굴을 만들었다. 그리고 깊이 평활도 조건을 추가함으로써 형식화를 일반화하였다. 외관뿐만 아니라 깊이도 전달함으로써, 단일 화면으로부터 3D 얼굴 모델을 얻을 수 있었다.
The present invention proposes a unified framework based on patch delivery for two tasks of 2D and 3D face modeling. In the case of 2D, structural information of color and constraints of smoothness are considered. A virtual statue face was created by combining human and statue faces. The formalization was generalized by adding depth smoothness conditions. By delivering depth as well as appearance, a 3D face model could be obtained from a single screen.

또한, 본 발명을 통해 3D 디스플레이 어플리케이션을 위한 입체 영상 화면을 생성할 수 있다. 실험에 의한 결과 및 주관적인 테스트는 본 발명의 방안을 확인하였다.In addition, the present invention may generate a stereoscopic image screen for a 3D display application. Experimental results and subjective tests confirmed the inventive solution.

Claims (6)

가상 얼굴 모델링 방법에 있어서,
제 1 얼굴 이미지 및 제 2 얼굴 이미지를 입력받는 제 1 단계;
입력받은 상기 제 1 얼굴 이미지 및 제 2 얼굴 이미지를 정렬(align), 제 1 얼굴 이미지의 로컬 특징을 검출하는 제 2 단계;
상기 제 2 얼굴 이미지의 모든 패치를 포함하는 패치 라이브러리를 생성하는 제 3 단계;
상기 제 1 얼굴 이미지와 동일한 사이즈를 갖는 상기 제 2 얼굴 이미지에 대한 출력 얼굴 이미지를 초기화하는 제 4 단계;
상기 패치 라이브러리에서 상기 출력 얼굴 이미지의 각 픽셀 포인트에 대응하는 패치를 검출하여 재결합하는 제 5 단계; 및
상기 제 2 단계에서 검출된 로컬 특징을 상기 출력 얼굴 이미지에 전달하는 제 6 단계;를 포함하는 것을 특징으로 하는 가상 얼굴 모델링 방법.
In the virtual face modeling method,
A first step of receiving a first face image and a second face image;
A second step of aligning the received first and second face images and detecting a local feature of the first face image;
Generating a patch library including all patches of the second face image;
A fourth step of initializing an output face image for the second face image having the same size as the first face image;
A fifth step of detecting and recombining a patch corresponding to each pixel point of the output face image in the patch library; And
And a sixth step of transferring the local feature detected in the second step to the output face image.
제 1 항에 있어서,
상기 제 5 단계에서, 상기 패치 라이브러리에 포함된 패치의 재결합은 상기 제 1 얼굴 이미지의 구조에 대한 유사도 제약(similarity constraint)과 패치 효과(patch effect)에 대한 평활도 제약(smoothness constraint)의 조건에 따르는 것을 특징으로 하는 가상 얼굴 모델링 방법.
The method of claim 1,
In the fifth step, the recombination of the patches included in the patch library depends on conditions of similarity constraints on the structure of the first face image and smoothness constraints on patch effects. Virtual face modeling method, characterized in that.
제 1 항에 있어서,
상기 제 5 단계에서 상기 패치 검출시, 각 패치에 대한 유사도는 다음의 수학식에 의해 정의되는 것을 특징으로 하는 가상 얼굴 모델링 방법.
[수학식]
Figure 112012069210971-pat00012

여기서, G(P)는 패치 P의 변화율이고,
Figure 112012069210971-pat00013
는 패치 P(x)에 대한 평균 변화율이며,
Figure 112012069210971-pat00014
는 패치 P(lx)에 대한 평균 변화율이다.
Edata(lx)는 「V.Kolmogorov, A. Criminisi, A. Blake, G. Cross, and C. Rother, "Bi-layer segmentation of binocular stereo video," IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR'05), vol. 2, pp.407-414, 2005.」에 나타낸 바와 같이, [0, 1]에서 실수 값을 리턴하는 정규화 식이다. 만약, G(P(x)) 및 G(P(lx))가 동일하면, 리턴 값은 0이다.
The method of claim 1,
When the patch is detected in the fifth step, the similarity degree for each patch is defined by the following equation.
[Mathematical Expression]
Figure 112012069210971-pat00012

Where G (P) is the rate of change of patch P,
Figure 112012069210971-pat00013
Is the average rate of change for patch P (x),
Figure 112012069210971-pat00014
Is the average rate of change for patch P (l x ).
E data (l x ) is described in V. Kolmogorov, A. Criminisi, A. Blake, G. Cross, and C. Rother, “Bi-layer segmentation of binocular stereo video,” IEEE Computer Society Conference on Computer Vision and Pattern Recognition. (CVPR'05), vol. 2, pp.407-414, 2005. ", it is a normalization expression which returns a real value in [0, 1]. If G (P (x)) and G (P (l x )) are equal, the return value is zero.
제 1 항에 있어서,
상기 제 1 얼굴 이미지는 사람 얼굴이고, 상기 제 2 얼굴 이미지는 조각상 얼굴인 것을 특징으로 하는 가상 얼굴 모델링 방법.
The method of claim 1,
And wherein the first face image is a human face and the second face image is a statue face.
가상 얼굴 모델링 방법에 있어서,
제 1 얼굴 이미지 및 3D 정보를 포함하는 제 2 얼굴 이미지를 입력받는 제 1 단계;
상기 제 1 얼굴 이미지 및 제 2 얼굴 이미지 사이의 텍스처 정보를 비교하는 제 2 단계;
상기 제 2 얼굴 이미지의 각 픽셀에 대한 깊이값(depth value)을 포함하는 깊이 패치 라이브러리를 생성하는 제 3 단계;
상기 제 2 얼굴 이미지의 텍스처 정보를 상기 제 1 얼굴 이미지에 전달하는 제 4 단계; 및
상기 제 1 얼굴 이미지의 컬러 정보와 상기 깊이 패치 라이브러리에 포함된 깊이 패치를 결합하여 상기 제 1 얼굴 이미지에 대한 가상의 3D 얼굴 이미지를 생성하는 제 5 단계;를 포함하는 것을 특징으로 하는 가상 얼굴 모델링 방법.
In the virtual face modeling method,
A first step of receiving a second face image including a first face image and 3D information;
A second step of comparing texture information between the first face image and the second face image;
Generating a depth patch library including a depth value for each pixel of the second face image;
A fourth step of transferring texture information of the second face image to the first face image; And
And a fifth step of generating a virtual 3D face image of the first face image by combining the color information of the first face image and the depth patch included in the depth patch library. Way.
제 5 항에 있어서,
상기 제 4 단계에서 상기 제 2 얼굴 이미지의 3D 정보를 상기 제 1 얼굴 이미지에 전달하는 것을 특징으로 하는 가상 얼굴 모델링 방법.
The method of claim 5, wherein
And transmitting the 3D information of the second face image to the first face image in the fourth step.
KR1020110060636A 2011-06-22 2011-06-22 Method for 2d and 3d virtual face modeling KR101212110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110060636A KR101212110B1 (en) 2011-06-22 2011-06-22 Method for 2d and 3d virtual face modeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110060636A KR101212110B1 (en) 2011-06-22 2011-06-22 Method for 2d and 3d virtual face modeling

Publications (1)

Publication Number Publication Date
KR101212110B1 true KR101212110B1 (en) 2012-12-13

Family

ID=47907621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110060636A KR101212110B1 (en) 2011-06-22 2011-06-22 Method for 2d and 3d virtual face modeling

Country Status (1)

Country Link
KR (1) KR101212110B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108932459A (en) * 2017-05-26 2018-12-04 富士通株式会社 Face recognition model training method and device and recognition algorithms
KR20190128930A (en) * 2018-05-09 2019-11-19 삼성전자주식회사 Method and device to normalize image
CN112671996A (en) * 2014-10-31 2021-04-16 微软技术许可有限责任公司 Method, user terminal and readable storage medium for implementing during video call
US11074733B2 (en) 2019-03-15 2021-07-27 Neocortext, Inc. Face-swapping apparatus and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326488A (en) 2003-04-25 2004-11-18 Digital Hands Co Ltd Simulation image producing server, simulation image producing system, simulation image producing method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326488A (en) 2003-04-25 2004-11-18 Digital Hands Co Ltd Simulation image producing server, simulation image producing system, simulation image producing method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112671996A (en) * 2014-10-31 2021-04-16 微软技术许可有限责任公司 Method, user terminal and readable storage medium for implementing during video call
CN112671996B (en) * 2014-10-31 2023-10-13 微软技术许可有限责任公司 Method for implementing video call period, user terminal and readable storage medium
CN108932459A (en) * 2017-05-26 2018-12-04 富士通株式会社 Face recognition model training method and device and recognition algorithms
KR20190128930A (en) * 2018-05-09 2019-11-19 삼성전자주식회사 Method and device to normalize image
US11475537B2 (en) 2018-05-09 2022-10-18 Samsung Electronics Co., Ltd. Method and apparatus with image normalization
KR102476758B1 (en) * 2018-05-09 2022-12-09 삼성전자주식회사 Method and device to normalize image
US11074733B2 (en) 2019-03-15 2021-07-27 Neocortext, Inc. Face-swapping apparatus and method

Similar Documents

Publication Publication Date Title
Hedman et al. Scalable inside-out image-based rendering
Nguyen-Phuoc et al. Snerf: stylized neural implicit representations for 3d scenes
Chaurasia et al. Silhouette‐Aware Warping for Image‐Based Rendering
Ahmed et al. Dense correspondence finding for parametrization-free animation reconstruction from video
JP4880090B2 (en) Image generating apparatus and method for super-resolution of 3D texture
WO2008056825A1 (en) Three-dimensional surface creating method
US8633926B2 (en) Mesoscopic geometry modulation
KR101212110B1 (en) Method for 2d and 3d virtual face modeling
Pagés et al. Seamless, Static Multi‐Texturing of 3D Meshes
Khilar et al. 3D image reconstruction: Techniques, applications and challenges
Boom et al. Interactive light source position estimation for augmented reality with an RGB‐D camera
Casas et al. 4D Model Flow: Precomputed Appearance Alignment for Real‐time 4D Video Interpolation
Park et al. Instant panoramic texture mapping with semantic object matching for large-scale urban scene reproduction
Zhu et al. Seamless Satellite‐image Synthesis
Nguyen et al. High-definition texture reconstruction for 3D image-based modeling
Waschbüsch et al. 3d video billboard clouds
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
Wang et al. GScream: Learning 3D Geometry and Feature Consistent Gaussian Splatting for Object Removal
Zhang et al. Intermediate cubic-panorama synthesis based on triangular re-projection
Liao et al. Dense multiview stereo based on image texture enhancement
Zhang et al. Virtual cubic panorama synthesis based on triangular reprojection
Gong et al. Camera field rendering for static and dynamic scenes
Chung et al. 2D/3D virtual face modeling
Waschbüsch et al. Interactive 3d video editing
Yao et al. A new environment mapping method using equirectangular panorama from unordered images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170106

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171124

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181203

Year of fee payment: 7