KR20210147647A - Apparatus and method for color synthesis of face images - Google Patents

Apparatus and method for color synthesis of face images Download PDF

Info

Publication number
KR20210147647A
KR20210147647A KR1020200065193A KR20200065193A KR20210147647A KR 20210147647 A KR20210147647 A KR 20210147647A KR 1020200065193 A KR1020200065193 A KR 1020200065193A KR 20200065193 A KR20200065193 A KR 20200065193A KR 20210147647 A KR20210147647 A KR 20210147647A
Authority
KR
South Korea
Prior art keywords
map
image
mask
loss
input
Prior art date
Application number
KR1020200065193A
Other languages
Korean (ko)
Other versions
KR102358854B1 (en
Inventor
이상훈
강지우
이성민
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020200065193A priority Critical patent/KR102358854B1/en
Publication of KR20210147647A publication Critical patent/KR20210147647A/en
Application granted granted Critical
Publication of KR102358854B1 publication Critical patent/KR102358854B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides an apparatus and method for color synthesis of face images. The apparatus comprises: an input preprocessing unit configured to receive a UV map obtained in a predetermined manner from a 2D face image and obtain an input UV map by combining a mask in which a hole area and the remaining area of the received UV map are separated and a flip UV map in which the UV map is inverted left and right with the UV map; a UV map completion unit implemented as an artificial neural network to receive the input UV map and configured to generate a complete UV map in which the hole area of the UV map is filled with colors from a pattern of the input UV map obtained using a pre-learned pattern assuming method; and a UV map determining unit that is provided at the time of learning, and configured to receive and divide the complete UV map and the mask into two left and right parts, respectively, assume a real image and a fake image among the two divided completed UV maps using the learned pattern assuming method, and calculate and backpropagate a generation loss for the completed UV map generated by discriminating the real image and the fake image based on the two divided masks. The apparatus performs self-discrimination-based competitive learning using the areas acquired from the 2D image as learning data based on the symmetry of the human face. Therefore, the apparatus and method for color synthesis of face images can complete a UV map by synthesizing colors of an occluded area, not captured from a 2D image, naturally, without needing to acquire a separate 2D face image for learning or a completed UV map.

Description

얼굴 이미지 색상 합성 장치 및 방법{Apparatus and method for color synthesis of face images}Apparatus and method for color synthesis of face images

본 발명은 얼굴 이미지 색상 합성 장치 및 방법에 관한 것으로, 자기 판별 기반 학습이 수행되는 3차원 얼굴 모델을 위한 얼굴 이미지 색상 합성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for synthesizing a face image color, and to an apparatus and method for synthesizing a face image color for a three-dimensional face model in which self-determination-based learning is performed.

3D 얼굴 모델은 얼굴 합성, 3D 애니메이션 및 이미지 편집과 같은 다양한 응용 분야에서 사용되고 있다. 이에 인간과 같은 3D 얼굴을 구축하는 것은 컴퓨터 비전 및 컴퓨터 그래픽에서 중요한 이슈이다.3D face models are used in a variety of applications such as face compositing, 3D animation, and image editing. Building a human-like 3D face is therefore an important issue in computer vision and computer graphics.

3D 얼굴 및 질감의 통계 모델인 3DMM(3D Morphable Model)은 2D 얼굴 이미지의 대상에서 3D 얼굴 이미지를 얻는 데 가장 널리 사용되는 모델이다. 스테레오 카메라와 같은 3D 센서의 출현으로 정확하고 많은 수의 3D 얼굴 데이터 세트를 수집할 수 있기 때문에, 3DMM은 자연스러운 다양한 얼굴 모양을 표현할 수 있는 강력한 기능을 가지고 있다.3D Morphable Model (3DMM), a statistical model of 3D faces and textures, is the most widely used model for obtaining 3D face images from objects of 2D face images. With the advent of 3D sensors such as stereo cameras, it is possible to collect accurate and large number of 3D face data sets, so 3DMM has a powerful ability to express various natural facial shapes.

3DMM과 같은 3D 얼굴 모델을 이용하여 3D 얼굴 이미지를 생성하고자 하는 경우에 2D 얼굴 이미지를 3D 얼굴 모델에 정렬하여 맵핑한 후, 2D 이미지가 맵핑된 3D 얼굴 모델을 지정된 2차원의 UV 공간 좌표 상에 전개(unwrap)한 UV 맵이 일반적으로 이용된다. 그러나 2D 얼굴 이미지는 제한된 환경에서 캡쳐되므로, 2D 얼굴 이미지에 표현된 대상자의 얼굴 전체 형상이나 색상을 획득하기가 매우 어렵다. 경우에 따라서는 3D 스캔 장치 또는 멀티 뷰 캡쳐 시스템 등을 이용하여 대상자의 얼굴의 전체 형상과 색상 정보를 획득할 수도 있으나, 이는 고가의 장비를 요구할 뿐만 아니라 한정된 공간에서만 촬영할 수 있다는 제약으로 인해 다양한 3D 얼굴 모델을 획득하기 어렵게 하는 요인이 된다.If you want to create a 3D face image using a 3D face model such as 3DMM, align the 2D face image to the 3D face model and map it, and then place the 3D face model to which the 2D image is mapped on the specified 2D UV space coordinates An unwrapped UV map is commonly used. However, since the 2D face image is captured in a limited environment, it is very difficult to obtain the overall shape or color of the subject's face expressed in the 2D face image. In some cases, the entire shape and color information of the subject's face may be acquired using a 3D scanning device or a multi-view capture system, but this requires expensive equipment and can be photographed only in a limited space. It becomes a factor that makes it difficult to obtain a face model.

따라서 최근에는 사진과 같이 제한된 환경에서 용이하게 캡쳐되어 획득된 2D 얼굴 이미지를 기반으로 3D 얼굴 모델을 생성하기 위한 연구가 활발하게 수행되고 있다. 그러나 상기한 바와 같이, 제한된 환경에서 캡쳐된 2D 얼굴 이미지에는 대상자의 얼굴에서 캡쳐되지 않아 표현되지 않은 폐색 영역이 존재하므로, 폐색 영역을 자연스럽게 복원할 수 있는 기술이 요구되고 있다. 특히 자연스러운 얼굴 질감을 복원하기 위해서는 폐색 영역의 얼굴 색상을 정확하게 합성할 수 있는 기술이 요구된다.Therefore, recently, research for generating a 3D face model based on a 2D face image obtained by being easily captured in a limited environment such as a photo is being actively conducted. However, as described above, in the 2D face image captured in a limited environment, there is an occluded area that is not captured and thus not expressed in the subject's face, so a technology capable of naturally restoring the occluded area is required. In particular, in order to restore a natural facial texture, a technology capable of accurately synthesizing facial colors in an occluded area is required.

한국 공개 특허 제2017-0019779호 (2017.02.22 공개)Korean Patent Publication No. 2017-0019779 (published on February 22, 2017)

본 발명의 목적은 2D 얼굴 이미지에서 캡쳐되지 않은 폐색 영역의 색상을 자연스럽게 합성하여 UV 맵을 완성할 수 있는 얼굴 이미지 색상 합성 장치 및 방법을 제공하는데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus and method for synthesizing a color of a face image capable of naturally synthesizing colors of an occluded region that are not captured in a 2D face image to complete a UV map.

본 발명의 다른 목적은 학습을 위한 3D 스캔 장치 또는 멀티 뷰 캡쳐 시스템 등을 이용하여 획득된 2D 얼굴 이미지나 완성된 UV 맵 없이도 용이하게 자기 판별 학습되어 UV 맵을 완성할 수 있는 얼굴 이미지 색상 합성 장치 및 방법을 제공하는데 있다.Another object of the present invention is a face image color synthesizing device that can easily self-identify and learn to complete a UV map without a 2D face image or a completed UV map obtained using a 3D scanning device for learning or a multi-view capture system, etc. and to provide a method.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 얼굴 이미지 색상 합성 장치는 2D 얼굴 이미지로부터 기지정된 방식으로 획득된 UV 맵을 인가받고, 인가된 UV 맵의 홀 영역과 나머지 영역을 구분한 마스크와 상기 UV 맵이 좌우 반전된 플립 UV 맵을 상기 UV 맵에 결합하여 입력 UV 맵을 획득하는 입력 전처리부; 인공 신경망으로 구현되어 입력 UV 맵을 인가받고 미리 학습된 패턴 추정 방식에 따라 인가된 입력 UV 맵의 패턴으로부터 상기 UV 맵의 홀 영역의 색상이 채워진 완성 UV 맵을 생성하는 UV 맵 완성부; 및 학습시에 구비되어, 상기 완성 UV 맵과 상기 마스크를 인가받아 각각 좌우 2분할하고, 학습되는 패턴 추정 방식에 따라 분할된 2개의 완성 UV 맵 중 리얼 이미지와 페이크 이미지를 추정하는 한편, 분할된 2개의 마스크를 기반으로 실제 리얼 이미지와 페이크 이미지를 판별하여 생성된 완성 UV 맵에 대한 생성 손실을 계산 및 역전파하는 UV 맵 판정부를 포함한다.A face image color synthesizing apparatus according to an embodiment of the present invention for achieving the above object receives a UV map obtained in a predetermined manner from a 2D face image, and a mask for dividing the hole area and the remaining area of the applied UV map and an input pre-processing unit for obtaining an input UV map by combining the left and right inverted flip UV map of the UV map with the UV map; a UV map completion unit that is implemented as an artificial neural network to receive an input UV map and generate a complete UV map filled with the color of the hole region of the UV map from the pattern of the applied input UV map according to a pre-learned pattern estimation method; and provided at the time of learning, receiving the completed UV map and the mask, dividing the left and right into two, respectively, estimating a real image and a fake image among the two completed UV maps divided according to the learned pattern estimation method It includes a UV map judging unit that calculates and backpropagates a generation loss for a completed UV map generated by discriminating an actual real image and a fake image based on the two masks.

상기 입력 전처리부는 상기 UV 맵을 분석하여 홀 영역과 나머지 영역을 구분하고, 구분된 홀 영역과 나머지 영역의 각 픽셀에 서로 다른 비트값을 할당하여 2진 비트값으로 구성되는 상기 마스크를 생성하는 마스크 획득부; 상기 UV 맵을 좌우 반전하여 상기 플립 UV 맵을 획득하는 UV 맵 플립부; 및 상기 UV 맵과 상기 마스크 및 상기 플립 UV 맵을 기지정된 방식으로 결합하여 상기 입력 UV 맵을 획득하는 UV 맵 결합부를 포함할 수 있다.The input preprocessor analyzes the UV map to classify the hole region and the remaining region, and allocates different bit values to each pixel of the divided hole region and the remaining region to generate the mask composed of binary bit values. acquisition department; a UV map flip unit to obtain the flip UV map by inverting the UV map left and right; and a UV map combiner configured to obtain the input UV map by combining the UV map, the mask, and the flip UV map in a predetermined manner.

상기 UV 맵 완성부는 다수의 레이어로 구성되어 미리 학습된 패턴 추정 방식에 따라 입력 UV 맵의 특징을 단계적으로 추출하여 특징맵을 획득하는 인코더; 및 상기 인코더의 다수의 레이어에 대응하는 개수의 레이어로 구성되어, 상기 특징맵을 단계적으로 업샘플링하여 상기 완성 UV 맵을 획득하는 디코더를 포함할 수 있다.The UV map completion unit is composed of a plurality of layers, an encoder that extracts the features of the input UV map step by step according to a pre-learned pattern estimation method to obtain a feature map; and a decoder configured with a number of layers corresponding to the plurality of layers of the encoder, and upsampling the feature map in stages to obtain the complete UV map.

상기 디코더는 다수의 레이어 각각이 상기 인코더의 다수의 레이어 중 대응하는 레이어와 스킵 커넥션을 통해 연결될 수 있다.In the decoder, each of the plurality of layers may be connected to a corresponding layer among the plurality of layers of the encoder through a skip connection.

상기 UV 맵 판정부는 상기 완성 UV 맵을 인가받아 좌우 2분할하여 좌측 이미지와 우측 이미지를 획득하는 UV 맵 분할부; 인공 신경망으로 구현되어 상기 좌측 이미지와 상기 우측 이미지 중 상기 UV 맵에서 홀 영역의 크기가 작은 부분에 대응하는 리얼 이미지와 나머지 부분에 대응하는 페이크 이미지를 추정하는 경쟁적 판정부; 및 상기 경쟁적 판정부의 추정 결과를 기반으로 상기 생성 손실을 계산하고, 계산된 생성 손실을 역전파하는 손실 역전파부를 포함할 수 있다.The UV map determination unit receives the completed UV map and divides the left and right into two, a UV map division unit to obtain a left image and a right image; a competitive determination unit implemented as an artificial neural network to estimate a real image corresponding to a portion having a small hole region in the UV map among the left image and the right image and a fake image corresponding to the remaining portion; and a loss back propagation unit for calculating the generation loss based on the estimation result of the competitive determination unit and backpropagating the calculated generation loss.

상기 UV 맵 판정부는 상기 마스크를 인가받아 좌우 2분할하여 좌측 마스크와 우측 마스크를 획득하는 마스크 분할부; 상기 좌측 마스크와 상기 우측 마스크 각각의 픽셀값의 합을 기반으로 상기 UV 맵의 실제 리얼 이미지와 페이크 이미지를 판별하여 상기 손실 역전파부로 통지하는 유효 이미지 판별부를 더 포함할 수 있다.The UV map determination unit receives the mask and divides it into two left and right to obtain a left mask and a right mask; The method may further include an effective image determining unit for discriminating an actual real image and a fake image of the UV map based on the sum of pixel values of the left mask and the right mask, and notifying the loss back propagation unit.

상기 손실 역전파부는 상기 입력 UV 맵(Iin)을 인가받아 상기 완성 UV 맵(Iout)을 획득하는 UV 맵 재구성 과정에서의 재구성 손실(LGrec)과 상기 좌측 이미지와 상기 우측 이미지에 대해 리얼 이미지와 페이크 이미지를 추정한 판정 손실(LD)에 기반한 적대적 손실(LGadv)의 합으로 상기 생성 손실(LG)을 계산하여 역전파할 수 있다.The loss back propagation unit receives the input UV map (I in ) and receives the reconstruction loss (L Grec ) in the UV map reconstruction process to obtain the complete UV map (I out ) and real for the left image and the right image Backpropagation may be performed by calculating the generation loss (L G ) as the sum of the adversarial loss (L Gadv ) based on the image and the estimated decision loss (L D ) of the fake image.

상기 다른 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 얼굴 이미지 색상 합성 방법은 2D 얼굴 이미지로부터 기지정된 방식으로 획득된 UV 맵을 인가받고, 인가된 UV 맵의 홀 영역과 나머지 영역을 구분한 마스크와 상기 UV 맵이 좌우 반전된 플립 UV 맵을 상기 UV 맵에 결합하여 입력 UV 맵을 획득하는 단계; 인공 신경망을 이용하여 입력 UV 맵을 인가받고 미리 학습된 패턴 추정 방식에 따라 인가된 입력 UV 맵의 패턴으로부터 상기 UV 맵의 홀 영역의 색상이 채워진 완성 UV 맵을 생성하는 단계; 및 학습 상태에서, 상기 완성 UV 맵과 상기 마스크를 인가받아 각각 좌우 2분할하고, 학습되는 패턴 추정 방식에 따라 분할된 2개의 완성 UV 맵 중 리얼 이미지와 페이크 이미지를 추정하는 한편, 분할된 2개의 마스크를 기반으로 실제 리얼 이미지와 페이크 이미지를 판별하여 생성된 완성 UV 맵에 대한 생성 손실을 계산 및 역전파하여 학습을 수행하는 단계를 포함한다.In a face image color synthesis method according to another embodiment of the present invention for achieving the above other object, a UV map obtained in a predetermined manner from a 2D face image is applied, and the hole area and the remaining area of the applied UV map are separated. obtaining an input UV map by combining a mask and a flip UV map in which the UV map is left and right to the UV map; receiving an input UV map using an artificial neural network and generating a complete UV map filled with the color of the hole region of the UV map from the applied input UV map pattern according to a pre-learned pattern estimation method; And in the learning state, the completed UV map and the mask are applied and divided into left and right, respectively, and the real image and the fake image are estimated among the two completed UV maps divided according to the learned pattern estimation method, while the divided two and performing learning by calculating and backpropagating a generation loss for a completed UV map generated by discriminating an actual real image and a fake image based on the mask.

따라서, 본 발명의 실시예에 따른 얼굴 이미지 색상 합성 장치 및 방법은 사람 얼굴의 대칭성에 기반하여 2D 이미지에서 획득된 영역을 학습 데이터로 이용하여 자기 판별 기반 경쟁 학습을 수행함으로써, 학습을 위해 별도로 2D 얼굴 이미지를 획득하거나 완성된 UV 맵 없이도 2D 얼굴 이미지에서 캡쳐되지 않은 폐색 영역의 색상을 자연스럽게 합성하여 UV 맵을 완성할 수 있다.Therefore, the face image color synthesizing apparatus and method according to an embodiment of the present invention performs self-determination-based competitive learning by using a region obtained from a 2D image as learning data based on the symmetry of a human face, thereby separately for learning 2D A UV map can be completed by naturally synthesizing the colors of the occluded area not captured in the 2D face image without acquiring a face image or a completed UV map.

도 1은 3D 얼굴 이미지 합성 기법을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 얼굴 이미지 색상 합성 장치의 개략적 구조를 나타낸다.
도 3은 도 1의 UV 맵 완성부와 UV 맵 판정부의 인공신경망을 이용한 구현 예를 나타낸다.
도 4는 본 실시예에 따른 얼굴 이미지 색상 합성 장치에 의해 완성된 UV 맵을 이용한 3D 얼굴 이미지의 일예를 나타낸다.
도 5는 본 실시예에 따른 얼굴 이미지 색상 합성 장치에서 완성된 UV 맵을 기존의 UV 맵과 비교한 결과를 나타낸다.
도 6은 본 발명의 일 실시예에 따른 얼굴 이미지 색상 합성 방법을 나타낸다.
1 is a diagram for schematically explaining a 3D face image synthesis technique.
2 shows a schematic structure of an apparatus for synthesizing a face image color according to an embodiment of the present invention.
3 shows an implementation example using the artificial neural network of the UV map completion unit and the UV map determination unit of FIG. 1 .
4 shows an example of a 3D face image using a UV map completed by the face image color synthesizing apparatus according to the present embodiment.
5 shows a result of comparing a UV map completed in the face image color synthesizing apparatus according to the present embodiment with an existing UV map.
6 is a diagram illustrating a face image color synthesis method according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be embodied in various different forms, and is not limited to the described embodiments. In addition, in order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" a certain component, it does not exclude other components, unless otherwise stated, meaning that other components may be further included. In addition, terms such as "...unit", "...group", "module", and "block" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware. and a combination of software.

도 1은 3D 얼굴 이미지 합성 기법을 개략적으로 설명하기 위한 도면이다.1 is a diagram for schematically explaining a 3D face image synthesis technique.

도 1을 참조하여, 3D 얼굴 이미지 합성 기법을 설명하면, 우선 (a)와 같이, 2D 얼굴 이미지를 인가받고, 인가된 2D 얼굴 이미지에 포함된 대상자의 얼굴 위치, 크기 및 캡쳐 방향을 분석하여, 미리 설정된 3D 얼굴 모델을 기지정된 방식으로 정렬시킨다.Referring to FIG. 1, the 3D face image synthesis technique is described. First, as in (a), a 2D face image is received, and the position, size, and capture direction of the subject included in the applied 2D face image are analyzed. Aligns preset 3D face models in a predefined manner.

그리고 (b)와 같이 2D 얼굴 이미지를 정렬된 3D 얼굴 모델에 맵핑하여 3D 얼굴 이미지로 변환하고, 변환된 3D 얼굴 이미지를 2차원의 UV 공간 상에 전개(unwrap)하여 UV 맵(Iref)을 획득한다. 이때 2D 얼굴 이미지에는 캡쳐되지 않은 영역이 존재하므로 (b)의 상단에 도시된 바와 같이 UV 맵(Iref)에서는 대상자의 얼굴 질감이 표현되지 않은 홀 영역이 나타난다. 홀 영역은 (b)의 하단 이미지와 같이 홀 영역과 홀 영역을 제외한 나머지 영역을 구분한 마스크의 형태로 추출될 수 있다. (b)와 같이 획득된 UV 맵(Iref)은 포함된 홀 영역으로 인해 3D 얼굴 이미지를 합성하기에 적합하지 않다. 3D 얼굴 이미지 합성은 다양한 위치, 크기 및 캡쳐 방향에서 자연스러운 3D 얼굴 이미지를 획득할 수 있어야 하지만, 홀 영역이 존재하는 경우, 홀 영역이 표현되지 않도록 캡쳐 방향이 고정될 수밖에 없기 때문이다. 즉 2D 얼굴 이미지의 방향과 동일한 방향으로만 3D 얼굴 이미지를 합성할 수 있다.And, as shown in (b), the 2D face image is mapped to the aligned 3D face model to be converted into a 3D face image, and the converted 3D face image is unwraped in a two-dimensional UV space to obtain a UV map (I ref ). acquire At this time, since there is an uncaptured area in the 2D face image, as shown in the upper part of (b), a hole area in which the subject's face texture is not expressed appears in the UV map (I ref ). The hole region may be extracted in the form of a mask in which the hole region and the remaining regions excluding the hole region are separated as shown in the lower image of (b). The UV map (I ref ) obtained as in (b) is not suitable for synthesizing 3D face images due to the included hole area. This is because 3D face image synthesis must be able to acquire natural 3D face images in various positions, sizes, and capture directions, but when there is a hole area, the capture direction is inevitably fixed so that the hole area is not expressed. That is, the 3D face image can be synthesized only in the same direction as the direction of the 2D face image.

따라서 (b)의 홀 영역이 포함된 UV 맵(Iref)에서 홀 영역에 (c)와 같이 대상자의 얼굴 색상과 같은 질감을 보완하여 UV 맵을 완성한 후, 3D 얼굴 모델에 랩핑(wrapping)해야만 (d)와 같이 다양한 3D 얼굴 이미지 합성이 가능하다.Therefore, in the UV map (I ref ) including the hole area in (b), after completing the UV map by supplementing the texture such as the subject's face color as shown in (c) in the hole area, it must be wrapped in a 3D face model. As shown in (d), various 3D face image synthesis is possible.

이에 본 발명에서는 (b)의 홀 영역이 포함된 UV 맵(Iref)에 대해 사람 얼굴의 좌우 대칭성을 반영하여 홀 영역의 색상을 추정하여 보완함으로써, 자연스럽게 완성된 완성 UV 맵(Iout)을 획득할 수 있도록 한다. 또한 사람 얼굴의 좌우 대칭성에 기반하여 완성 UV 맵(Iout) 중 2D 얼굴 이미지에서 획득된 영역을 학습 데이터로 이용하여 홀 영역이 정상적으로 채워졌는지 여부를 판별하는 경쟁 학습 기법을 기반으로 학습을 수행하도록 한다. 즉 자기 자신을 학습 데이터로 이용하는 자기 판별 기반 경쟁 학습을 수행하도록 하여, 별도의 학습 데이터를 요구하지 않고도 용이하게 학습되도록 한다.Accordingly, in the present invention, by estimating and complementing the color of the hole area by reflecting the left-right symmetry of the human face with respect to the UV map (I ref ) including the hole area of (b) , a naturally completed completed UV map (I out ) make it possible to obtain In addition, based on the left-right symmetry of the human face , using the area acquired from the 2D face image of the completed UV map (I out ) as training data to perform learning based on a competitive learning technique to determine whether the hole area is normally filled. do. That is, by performing self-discrimination-based competitive learning using itself as learning data, it is easily learned without requiring separate learning data.

도 2는 본 발명의 일 실시예에 따른 얼굴 이미지 색상 합성 장치의 개략적 구조를 나타내고, 도 3은 도 1의 UV 맵 완성부와 UV 맵 판정부의 인공신경망을 이용한 구현 예를 나타낸다.FIG. 2 shows a schematic structure of an apparatus for synthesizing a face image color according to an embodiment of the present invention, and FIG. 3 shows an implementation example using an artificial neural network of the UV map completion unit and the UV map determination unit of FIG. 1 .

도 2를 참조하면, 본 실시예에 따른 얼굴 이미지 색상 합성 장치는 얼굴 이미지 획득부(100), UV 맵 획득부(200), 입력 전처리부(300), UV 맵 완성부(400) 및 UV 맵 판정부(500)를 포함할 수 있다.Referring to FIG. 2 , the face image color synthesizing apparatus according to the present embodiment includes a face image acquisition unit 100 , a UV map acquisition unit 200 , an input preprocessor 300 , a UV map completion unit 400 , and a UV map A determination unit 500 may be included.

얼굴 이미지 획득부(100)는 3D 얼굴 이미지를 생성하기 위한 2D 얼굴 이미지를 획득한다. 즉 얼굴 이미지 획득부(100)는 3D 얼굴 이미지로 변환될 2D 얼굴 이미지를 획득하기 위한 구성으로, 일 예로 카메라와 같은 비디오 영상 촬영 장치로 구현되거나, 미리 획득된 비디오 영상이 저장된 저장 장치 또는 네트워크를 통해 다른 기기로부터 비디오 영상을 인가받는 통신부 등으로 구현될 수 있다.The face image acquisition unit 100 acquires a 2D face image for generating a 3D face image. That is, the face image acquisition unit 100 is configured to acquire a 2D face image to be converted into a 3D face image, and is implemented as a video image capturing device such as a camera, or a storage device or network in which a video image acquired in advance is stored. It may be implemented as a communication unit that receives a video image from another device through the communication unit.

UV 맵 획득부(200)는 얼굴 이미지 획득부(100)가 획득한 2D 얼굴 이미지에 대해 기지정된 3D 얼굴 모델을 정렬시켜 맵핑하여 3D 얼굴 이미지를 획득하고, 획득된 3D 얼굴 이미지를 2차원의 UV 공간 상에 투사하여 UV 맵(Iref)을 획득한다. 3D 여기서 3D 얼굴 모델은 3DMM에 기반하여 획득될 수 있다.The UV map acquisition unit 200 obtains a 3D face image by aligning and mapping a predetermined 3D face model with respect to the 2D face image acquired by the face image acquisition unit 100, and uses the obtained 3D face image with a two-dimensional UV A UV map (I ref ) is obtained by projecting on space. 3D Here, a 3D face model may be obtained based on 3DMM.

얼굴 이미지 획득부(100)에서 획득된 2D 얼굴 이미지는 카메라 등을 이용하여 특정 방향 및 위치에서 대상자의 얼굴을 캡쳐한 이미지이고, 대상자의 얼굴 형상 또한 개개인에 따라 서로 상이하다. 따라서 우선 3D 얼굴 모델을 2D 얼굴 이미지의 얼굴 형상에 대응하는 형상으로 변형하고, 변형된 3D 얼굴 모델을 2D 얼굴 이미지가 캡쳐된 방향 및 위치에 대응하도록 회전 및 이동시켜 3D 얼굴 모델이 2D 얼굴 이미지에 대응하여 정렬될 수 있도록 해야 한다. 이에 도 1의 (a)에 도시된 바와 같이, 2D 얼굴 이미지에서 랜드마크나 특징점 등을 설정하고, 설정된 랜드마크나 특징점을 기준으로 3D 얼굴 모델을 정렬하여 2D 얼굴 이미지와 3D 얼굴 모델을 매칭시킬 수 있다.The 2D face image obtained by the face image acquisition unit 100 is an image obtained by capturing the subject's face in a specific direction and location using a camera, etc., and the subject's face shape is also different for each individual. Therefore, first, the 3D face model is transformed into a shape corresponding to the face shape of the 2D face image, and the 3D face model is converted It should be able to be sorted accordingly. Accordingly, as shown in Fig. 1 (a), a landmark or feature point is set in the 2D face image, and the 3D face model is aligned based on the set landmark or feature point to match the 2D face image and the 3D face model. can

UV 맵 획득부(200)는 2D 얼굴 이미지와 3D 얼굴 모델이 정렬되면, 2D 얼굴 이미지를 3D 얼굴 모델에 맵핑하여 2D 얼굴 이미지를 3D 얼굴 이미지로 변환한다.When the 2D face image and the 3D face model are aligned, the UV map acquisition unit 200 maps the 2D face image to the 3D face model to convert the 2D face image into a 3D face image.

3D 얼굴 모델은 메쉬 구조를 가지므로, UV 맵 획득부(200)는 변환된 3D 얼굴 이미지의 각 꼭지점의 3차원 위치 좌표(vI = (x, y, z))를 수학식 1에 따라 구형 전개(spherical unwrap)하여 2차원의 UV 좌표계의 위치 좌표(vU = (u, v))로 변환함으로써, 도 2의 (b)와 같이 홀이 포함된 UV 맵(Iref)을 획득할 수 있다.Since the 3D face model has a mesh structure, the UV map acquisition unit 200 calculates the three-dimensional position coordinates (v I = (x, y, z)) of each vertex of the converted 3D face image into a sphere according to Equation 1 By transforming the position coordinates (v U = (u, v)) of the two-dimensional UV coordinate system by spherical unwrap, a UV map including holes (I ref ) can be obtained as shown in (b) of FIG. 2 . have.

Figure pat00001
Figure pat00001

여기서 r은 구형 전개 시에 구의 반지름으로

Figure pat00002
이고, αu, βu 및 αv, βv 는 이미지의 경계에서 랩핑되지 않은 영역을 찾기 위한 배율 및 변환 상수이다.where r is the radius of the sphere when unfolding the sphere
Figure pat00002
, and α u , β u , and α v , β v are magnification and transformation constants for finding the unwrapped region at the boundary of the image.

2D 얼굴 이미지로부터 UV 맵(Iref)을 획득하는 기법은 상기한 기법 이외에도 다양하게 공개되어 있으므로, UV 맵 획득부(200)는 다른 기법으로 UV 맵(Iref)을 획득할 수도 있다. 이는 공지된 기술이므로 여기서는 상세하게 설명하지 않는다. Since a technique for acquiring the UV map (I ref ) from the 2D face image has been disclosed in various ways in addition to the above-described technique, the UV map acquisition unit 200 may acquire the UV map (I ref ) using another technique. Since this is a known technique, it will not be described in detail here.

입력 전처리부(300)는 UV 맵 획득부(200)에서 획득된 홀이 포함된 UV 맵(Iref)을 인가받고, 인가된 UV 맵(Iref)에서 홀 영역을 나타내는 마스크(M)와 홀이 포함된 UV 맵(Iref)을 좌우 반전한 플립 UV 맵(Iflip)을 획득하고, 인가된 UV 맵(Iref)과 결합하여 입력 UV 맵(Iin)을 획득한다. The input preprocessor 300 receives the UV map I ref including the holes acquired by the UV map acquirer 200 , and the mask M and the hole indicating the hole area in the applied UV map I ref . A flip UV map (I flip ) in which the included UV map (I ref ) is inverted is obtained, and an input UV map (I in ) is obtained by combining with the applied UV map (I ref ).

입력 전처리부(300)는 마스크 획득부(310)와 UV 맵 플립부(320) 및 UV 맵 결합부(330)를 포함할 수 있다.The input preprocessor 300 may include a mask acquisition unit 310 , a UV map flip unit 320 , and a UV map combiner 330 .

마스크 획득부(310)는 UV 맵 획득부(200)에서 인가되는 UV 맵(Iref)에서 홀 영역을 분석하여, 홀 영역과 홀 영역 이외의 영역을 2진 비트값으로 구분한 마스크(M)를 획득한다. 마스크 획득부(310)는 다양한 방식으로 홀 영역을 식별할 수 있으나, 일 예로 UV 맵(Iref)에서 2D 얼굴 이미지의 각 화소에 대한 얼굴 가시성(facial visibility)을 샘플링하여 홀 영역을 나타내는 마스크(M)를 생성할 수 있다. 여기서 얼굴 가시성은 래스터화(rasterization)를 통해 3D 얼굴 모델을 이미지 평면에 투영함으로써 판별될 수 있다. 마스크(M)는 이진 마스크로서 일 예로 홀 영역이 0으로 채워지고 나머지 영역은 1로 채워지도록 생성될 수 있다. The mask acquisition unit 310 analyzes the hole region in the UV map (I ref ) applied from the UV map acquirer 200, and divides the hole region and the region other than the hole region into a binary bit value mask (M) to acquire Mask obtaining unit 310 includes a mask that represents the hole regions by sampling the face visibility (facial visibility) for each pixel of the 2D face image from, but can identify the hole regions in various ways, one example UV map (I ref) ( M) can be created. Here, the face visibility can be determined by projecting the 3D face model onto the image plane through rasterization. The mask M is a binary mask, and may be created such that, for example, the hole region is filled with 0 and the remaining region is filled with 1.

마스크 획득부(310)는 UV 맵 완성부(400)가 입력 UV 맵(Iin)을 기반으로 완성 UV 맵(Iout)을 생성할 때, 원본 2D 얼굴 이미지의 색상이 존재하는 영역은 가능한 유지하면서, 홀 영역에 대한 색상을 채울 수 있도록 하기 위함이다.When the UV map completion unit 400 generates the completed UV map (I out ) based on the input UV map (I in ), the mask acquisition unit 310 maintains the area where the color of the original 2D face image exists as much as possible. This is to allow the color of the hole area to be filled.

한편 UV 맵 플립부(320)는 UV 맵 획득부(200)에서 인가되는 UV 맵(Iref)을 좌우 반전하여 플립 UV 맵(Iflip)을 획득한다. 일반적으로 사람의 얼굴 형상이나 질감은 좌우 대칭성을 갖는다. 따라서 2D 얼굴 이미지로부터 대상자의 얼굴에서 정면을 기준으로 좌측 또는 우측의 절반에 대한 이미지가 존재하면, 나머지 절반에 해한 색상을 용이하게 추정할 수 있다. 이에 UV 맵 플립부(320)는 UV 맵(Iref)이 좌우 반전된 플립 UV 맵(Iflip)을 획득하여, UV 맵 완성부(400)가 입력 UV 맵(Iin)을 기반으로 완성 UV 맵(Iout)을 생성할 때, 마스크(M)에 의해 지정된 홀 영역을 매우 정확하게 추정할 수 있도록 한다.Meanwhile, the UV map flip unit 320 inverts the UV map (I ref ) applied from the UV map acquisition unit 200 left and right to obtain a flip UV map (I flip ). In general, a person's face shape or texture has left-right symmetry. Therefore, if there is an image for the left or right half of the subject's face from the 2D face image based on the front, the color harmful to the other half can be easily estimated. Accordingly, the UV map flip unit 320 obtains a flip UV map (I flip ) in which the UV map (I ref ) is inverted left and right, and the UV map completion unit 400 completes the UV map based on the input UV map (I in ). When generating the map (I out ), it is possible to estimate the hole area specified by the mask (M) very accurately.

UV 맵 결합부(330)는 UV 맵 획득부(200)에서 인가되는 UV 맵(Iref)과 마스크 획득부(310)에서 획득된 마스크(M) 및 UV 맵 플립부(320)에서 획득된 플립 UV 맵(Iflip)을 기지정된 방식으로 결합하여 입력 UV 맵(Iin)을 획득하고, 획득된 입력 UV 맵(Iin)을 UV 맵 완성부(400)로 전달한다.The UV map combining unit 330 includes the UV map I ref applied from the UV map acquiring unit 200 , the mask M acquired from the mask acquiring unit 310 , and the flip acquired from the UV map flip unit 320 . By combining the UV map (I flip ) in a predetermined manner, the input UV map (I in ) is obtained, and the obtained input UV map (I in ) is transmitted to the UV map completion unit ( 400 ).

UV 맵 결합부(330)는 일 예로UV 맵(Iref)과 마스크(M) 및 플립 UV 맵(Iflip)을 단순 결합(concatenate)하거나 UV 맵(Iref)과 마스크(M)를 원소 곱 연산한 후, 플립 UV 맵(Iflip)을 결합하여 입력 UV 맵(Iin)을 획득할 수 있으며, 이외에도 기지정된 다른 방식으로 결합하여 입력 UV 맵(Iin)을 획득할 수도 있다.The UV map combining unit 330, for example, simply concatenates the UV map (I ref ) and the mask (M) and the flip UV map (I flip ), or elementally multiplies the UV map (I ref ) and the mask (M). After the calculation, the input UV map I in may be obtained by combining the flip UV map I flip , and in addition, the input UV map I in may be obtained by combining in another predetermined manner.

UV 맵 완성부(400)는 입력 UV 맵(Iin)을 인가받고, 인가된 입력 UV 맵(Iin)의 패턴으로부터 UV 맵(Iref)의 홀 영역의 색상을 추정하여 채움으로써 완성 UV 맵(Iout)을 획득한다. 여기서 UV 맵 완성부(400)는 인공 신경망으로 구현되어 미리 학습된 패턴 추정 방식에 따라 입력 UV 맵(Iin)의 패턴으로부터 입력 UV 맵(Iin)의 홀 영역의 색상을 추정할 수 있다.The UV map completion unit 400 receives the input UV map (I in ) and estimates the color of the hole area of the UV map (I ref ) from the pattern of the applied input UV map (I in ) and fills the completed UV map. (I out ) is obtained. Here, the UV map completion unit 400 may estimate the color of the hole region of the input UV map I in from the pattern of the input UV map I in according to a pattern estimation method that is implemented as an artificial neural network and learned in advance.

도 3에서 인공 신경망으로 구현되는 UV 맵 완성부(400)는 얼굴 UV 생성 네트워크(G)로 표현되어 있다. 그리고 얼굴 UV 생성 네트워크(G)는 도 3에 도시된 바와 같이, 서로 대칭되는 구조의 다수의 레이어를 포함하는 인코더(en)와 디코더(de)를 포함하는 오토 인코더(auto-encoder) 구조로 구성될 수 있다. 인코더(en)의 다수의 레이어 각각은 입력 UV 맵(Iin)의 특징을 단계적으로 추출하여 특징맵을 획득한다. 여기서 인코더(en)에 포함되는 레이어의 개수는 다양하게 설정될 수 있다. 그리고 디코더(de)의 다수의 레이어 각각은 인코더(en)에서 획득된 특징맵을 단계적으로 업샘플링하여 완성 UV 맵(Iout)을 획득한다. 여기서 디코더(de)의 다수의 레이어 각각은 업샘플링 과정에서 UV 맵(Iref)이 좌우 반전된 플립 UV 맵(Iflip)과 인접 영역을 참조하여 점차적으로 홀 영역에 색상을 채움으로써, 채워진 홀 영역의 색상이 사람 얼굴의 대칭성이 반영되고 인접 영역으로부터 자연스럽게 변화하는 완성 UV 맵(Iout)을 획득할 수 있다.In FIG. 3 , the UV map completion unit 400 implemented as an artificial neural network is expressed as a face UV generation network (G). And, as shown in FIG. 3, the face UV generation network G is composed of an auto-encoder structure including an encoder (en) and a decoder (de) including a plurality of layers of a structure symmetric to each other. can be Each of the plurality of layers of the encoder (en) obtains a feature map by stepwise extracting features of the input UV map (I in ). Here, the number of layers included in the encoder en may be variously set. And each of the plurality of layers of the decoder (de) obtains the complete UV map (I out ) by upsampling the feature map obtained from the encoder (en) step by step. Here, each of the plurality of layers of the decoder (de) gradually fills the hole region with color by referring to the flip UV map (I flip ) and the adjacent region in which the UV map (I ref ) is inverted left and right in the upsampling process, It is possible to obtain a complete UV map (I out ) in which the color of the region reflects the symmetry of the human face and changes naturally from the adjacent region.

이때, 인코더(en)와 디코더(de)의 다수의 레이어 중 서로 대응하는 레이어는 도 3에 도시된 바와 같이, 스킵 커넥션(skip connection)을 통해 연결되어 UV 맵(Iref)의 원 스케일의 이미지 정보를 보존할 수 있도록 하여 완성 UV 맵(Iout)이 고품질의 이미지로 획득될 수 있도록 한다.At this time, the layers corresponding to each other among the plurality of layers of the encoder (en) and the decoder (de) are connected through a skip connection as shown in FIG. 3 to form a one-scale image of the UV map (I ref ) Information can be preserved so that the complete UV map (I out ) can be acquired as a high-quality image.

UV 맵 완성부(400)가 입력 UV 맵(Iin)을 인가받아 완성 UV 맵(Iout)을 획득하는 UV 맵 재구성 과정에서의 재구성 손실(LGrec)을 UV 맵 획득부(200)에서 획득된 UV 맵(Iref)에서 마스크(M)에 의해 홀 영역이 제외된 2차원 이미지에서 획득된 유효 영역의 픽셀 단위의 L1-norm 손실로 정의될 수 있으며, 수학식 2에 따라 계산될 수 있다. The UV map completion unit 400 obtains the reconstruction loss (L Grec ) in the UV map reconstruction process in which the input UV map (I in ) is received and the completed UV map (I out ) is obtained from the UV map acquisition unit 200 . It can be defined as the pixel-unit L1-norm loss of the effective area obtained from the two-dimensional image in which the hole area is excluded by the mask M from the UV map I ref , and can be calculated according to Equation 2 .

Figure pat00003
Figure pat00003

여기서 ⊙ 는 원소 별 곱셈을 나타내고, NIref 는 UV 맵(Iref)의 원소 개수로서, UV 맵(Iref)의 높이(H), 폭(W) 및 채널(C) 크기의 곱을 나타낸다.Where ⊙ denotes element-by-element multiplication, N Iref is UV map as the number of elements in (I ref), UV map (I ref) the height (H), width (W) and a channel (C) represents the product of the size.

UV 맵 판정부(500)는 UV 맵 완성부(400)에서 획득한 완성 UV 맵(Iout)을 인가받고, 인가된 완성 UV 맵(Iout)을 수직 방향으로 분할하고, 미리 학습된 패턴 추정 방식에 따라 분할된 완성 UV 맵이 2D 얼굴 이미지로부터 획득된 리얼 이미지인지 UV 맵 완성부(400)가 보완한 페이크 이미지인지 판별한다. 이와 함께 UV 맵 판정부(500)는 마스크 획득부(310)에서 획득된 마스크(M)를 인가받아 완성 UV 맵(Iout)과 마찬가지로 수직 방향으로 분할하고, 분할된 마스크를 이용하여 분할된 완성 UV 맵에서 실질적인 리얼 이미지와 페이크 이미지를 구분하여, 분할된 완성 UV 맵에 대한 리얼 이미지와 페이크 이미지 판별 결과가 정확한지 여부를 판정할 수 있도록 한다.The UV map determination unit 500 receives the completed UV map (I out ) obtained from the UV map completion unit 400 , divides the applied complete UV map (I out ) in the vertical direction, and estimates the pattern learned in advance According to the method, it is determined whether the divided complete UV map is a real image obtained from a 2D face image or a fake image supplemented by the UV map completion unit 400 . At the same time, the UV map determination unit 500 receives the mask M obtained from the mask acquisition unit 310 and divides it in the vertical direction like the completed UV map (I out ), and uses the divided mask to complete the divided By separating the actual real image and the fake image in the UV map, it is possible to determine whether the real image and the fake image discrimination result for the divided complete UV map are accurate.

UV 맵 판정부(500)는 UV 맵 분할부(510), 마스크 분할부(520), 유효 이미지 판별부(530), 경쟁적 판정부(540) 및 손실 역전파부(550)를 포함할 수 있다.The UV map determination unit 500 may include a UV map division unit 510 , a mask division unit 520 , a valid image determination unit 530 , a competitive determination unit 540 , and a loss back propagation unit 550 .

UV 맵 분할부(510)는 UV 맵 완성부(400)로부터 완성 UV 맵(Iout)을 인가받아 좌우 2분할하여 좌측 이미지(Ileft)와 우측 이미지(Iright)으로 구분하여 출력한다. 마스크 분할부(520)는 마스크 획득부(310)에서 획득된 마스크(M)를 인가받아 좌우 2분할하여 좌측 마스크(Mleft)와 우측 마스크(Mright)로 구분하여 출력한다.The UV map division unit 510 receives the completed UV map I out from the UV map completion unit 400 , divides it into two left and right sides, and divides it into a left image I left and a right image I right . The mask dividing unit 520 receives the mask M obtained from the mask acquiring unit 310, divides the left and right into two, and divides them into a left mask (M left ) and a right mask (M right ) and outputs them.

유효 이미지 판별부(530)는 마스크 분할부(520)에서 인가되는 좌측 마스크(Mleft)와 우측 마스크(Mright)를 분석하여, 좌측 이미지(Ileft)와 우측 이미지(Iright) 중 실제 얼굴 이미지 획득부(100)가 획득한 2D 얼굴 이미지에 기반하여 생성된 UV 맵에 대응하는 실제 이미지를 판별한다. 유효 이미지 판별부(530)는 일 예로 좌측 마스크(Mleft)와 우측 마스크(Mright) 각각의 픽셀값의 합을 계산하고, 계산된 픽셀값의 합에 따라 실제 리얼 이미지를 판별할 수 있다. 여기서는 마스크 획득부(310)가 홀 영역의 픽셀값을 0으로 채우고 나머지 영역의 픽셀값은 1로 채워 마스크(M)를 생성하는 것으로 가정하였으므로, 좌측 마스크(Mleft)와 우측 마스크(Mright) 중 픽셀값의 합이 큰 쪽이 실제 이미지를 나타내는 것으로 볼 수 있다. 이에 유효 이미지 판별부(530)는 UV 맵 분할부(510)에서 분할되어 경쟁적 판정부(540)로 전달된 좌측 이미지(Ileft)와 우측 이미지(Iright) 중 어느 이미지가 리얼 이미지인지를 손실 역전파부(550)로 통지할 수 있다. The effective image determining unit 530 analyzes the left mask (M left ) and the right mask (M right ) applied from the mask dividing unit 520 , and a real face among the left image (I left ) and the right image (I right ) The image acquisition unit 100 determines an actual image corresponding to the generated UV map based on the acquired 2D face image. As an example, the effective image determining unit 530 may calculate the sum of pixel values of each of the left mask M left and the right mask M right , and determine an actual real image according to the sum of the calculated pixel values. Here, since it is assumed that the mask acquiring unit 310 creates the mask M by filling the pixel values of the hole region with 0 and the pixel values of the remaining regions with 1, the left mask M left and the right mask M right ) It can be seen that the one with the larger sum of pixel values represents the actual image. Accordingly, the effective image determination unit 530 loses which image is the real image among the left image (I left ) and the right image (I right ) divided by the UV map division unit 510 and transmitted to the competitive determination unit 540 . It may notify the back propagation unit 550 .

경쟁적 판정부(540)는 도 3에 도시된 바와 같이, 인공 신경망으로 구현되어 UV 맵 완성부(400)와 함께 패턴 추정 방식이 경쟁 학습이 수행되어, 좌측 이미지(Ileft)와 우측 이미지(Iright) 중 어느 이미지가 리얼 이미지인지 추정한다.As shown in FIG. 3 , the competitive determination unit 540 is implemented as an artificial neural network and competition learning is performed for the pattern estimation method together with the UV map completion unit 400 , and the left image (I left ) and the right image (I right ) to estimate which image is the real image.

그리고 손실 역전파부(550)는 경쟁적 판정부(540)에서 리얼 이미지를 추정한 결과와 유효 이미지 판별부(530)에서 통지되는 리얼 이미지를 비교하여 생성 손실(LG)을 계산하고, 계산된 생성 손실(LG)을 역전파하여, UV 맵 완성부(400)를 학습시킨다. 이때, 경쟁적 판정부(540) 또한 UV 맵 완성부(400)와 함께 학습이 수행된다.And the loss back propagation unit 550 compares the result of estimating the real image in the competitive determination unit 540 and the real image notified by the valid image determination unit 530 to calculate the generation loss (LG ), and calculate the calculated generation By backpropagating the loss ( LG ), the UV map completion unit 400 is trained. At this time, learning is performed together with the competitive determination unit 540 and the UV map completion unit 400 .

여기서 인공 신경망으로 구현되는 경쟁적 판정부(540)에 의한 판정 손실(LD)은 수학식 3과 같이 계산될 수 있다. Here, the determination loss L D by the competitive determination unit 540 implemented as an artificial neural network may be calculated as in Equation (3).

Figure pat00004
Figure pat00004

여기서

Figure pat00005
는 오차 함수(Error function)이고, xuv 는 좌측 이미지(Ileft)와 우측 이미지(Iright) 중 유효 이미지 판별부(530)에서 리얼 이미지를 나타내고, xz 는 UV 맵 완성부(400)에서 추정 보완된 페이크 이미지이며, D(xuv)와 D(xz) 는 각각 리얼 이미지(xuv)와 페이크 이미지(xz)에 대해 경쟁적 판정부(540)가 추정한 판정 결과를 나타낸다.here
Figure pat00005
is an error function, x uv represents a real image in the effective image determining unit 530 among the left image (I left ) and the right image (I right ), and x z is the UV map completion unit 400 It is a fake image that has been estimated and supplemented, and D(x uv ) and D(x z ) represent determination results estimated by the competitive determination unit 540 with respect to the real image (x uv ) and the fake image (x z ), respectively.

그리고 UV 맵 완성부(400)와 경쟁적 판정부(540)의 경쟁 학습에 따른 적대적 손실을 수학식 4로 계산될 수 있다.And the hostile loss according to the competition learning of the UV map completion unit 400 and the competitive determination unit 540 may be calculated by Equation (4).

Figure pat00006
Figure pat00006

UV 맵(Iref)으로부터 완성 UV 맵(Iout)을 생성하는데 발생된 생성 손실(LG)은 수학식 2의 재구성 손실(LGrec)과 수학식 4의 적대적 손실(LGadv)의 합으로 수학식 5와 같이 정의될 수 있다.The generation loss (L G ) generated to generate the complete UV map (I out ) from the UV map (I ref ) is the sum of the reconstruction loss (L Grec ) of Equation 2 and the hostile loss (L Gadv ) of Equation 4 It can be defined as Equation 5.

Figure pat00007
Figure pat00007

여기서 λG 는 재구성 손실(LGrec)과 적대적 손실(LGadv) 사이의 균형을 유지하기 위한 가중치로서, 일 예로 0.001로 설정될 수 있다.Here, λ G is a weight for maintaining a balance between the reconstruction loss (L Grec ) and the adversarial loss (L Gadv ), and may be set to, for example, 0.001.

적대적 손실(LGadv)은 UV 맵 완성부(400)의 인코더(en)를 학습시킴으로써, UV 맵 완성부(400)가 홀 영역이 크게 존재하는 페이크 이미지(xz)뿐만 아니라 리얼 이미지(xuv)에서도 보다 고품질의 UV 맵을 획득할 수 있도록 한다.The hostile loss (L Gadv ) by learning the encoder (en) of the UV map completion unit 400, the UV map completion unit 400 is a fake image (x z ) in which the hole region is large as well as the real image (x uv ) ) to obtain a higher quality UV map.

표 1은 UV 맵 판정부(500)가 완성 UV 맵(Iout)을 좌우 2분할하여 좌측 이미지(Ileft)와 우측 이미지(Iright)으로 구분하고, 마스크(M)를 좌우 2분할하여 좌측 마스크(Mleft)와 우측 마스크(Mright)로 구분하여, 리얼 이미지(xuv)와 페이크 이미지(xz)를 구분하는 알고리즘의 일 예를 나타낸다.Table 1 shows that the UV map determination unit 500 divides the completed UV map (I out ) into two left and right images (I left ) and a right image (I right ), and divides the mask (M) into two left and right to the left An example of an algorithm for classifying a real image (x uv ) and a fake image (x z ) by dividing into a mask (M left ) and a right mask (M right ) is shown.

Figure pat00008
Figure pat00008

상기한 UV 맵 판정부(500)는 UV 맵 완성부(400)와 생성적 적대 네트워크(Generative Adversarial Network)를 구성하여 UV 맵 완성부(400)와 함께 경쟁 학습 방식으로 학습되도록 하기 위한 구성으로, 학습 시에만 구비되고, 얼굴 이미지 색상 합성 장치가 학습 완료된 이후에는 제거될 수 있다.The above-described UV map determination unit 500 is configured to configure a UV map completion unit 400 and a generative adversarial network to learn in a competitive learning method together with the UV map completion unit 400, It is provided only during learning, and may be removed after the face image color synthesizing apparatus completes learning.

도 4는 본 실시예에 따른 얼굴 이미지 색상 합성 장치에 의해 완성된 UV 맵을 이용한 3D 얼굴 이미지의 일예를 나타내고, 도 5는 본 실시예에 따른 얼굴 이미지 색상 합성 장치에서 완성된 UV 맵을 기존의 UV 맵과 비교한 결과를 나타낸다.4 shows an example of a 3D face image using a UV map completed by the face image color synthesizing apparatus according to this embodiment, and FIG. The result compared with the UV map is shown.

도 4에서 (a)는 2D 이미지 획득부(100)가 획득한 2D 얼굴 이미지를 나타내고, (b)는 UV 맵 획득부(200)에서 획득된 UV 맵(Iref)을 나타내고, (c)는 본 실시예의 얼굴 이미지 색상 합성 장치에 의해 합성된 완성 UV 맵(Iout)을 나타내며, (d) 내지 (h)는 완성 UV 맵(Iout)을 이용하여 3D 얼굴 모델에 합성되어 재구성된 3D 얼굴 이미지를 여러 각도 방향에서 캡쳐한 이미지를 나타낸다.4, (a) shows the 2D face image acquired by the 2D image acquisition unit 100, (b) shows the UV map (I ref ) acquired by the UV map acquisition unit 200, (c) is The complete UV map (I out ) synthesized by the face image color synthesizing apparatus of this embodiment is shown, and (d) to (h) are the 3D face reconstructed by synthesizing the 3D face model using the completed UV map (I out ) It represents an image captured from multiple angles.

그리고 도 5에서 (a)는 입력되는 UV 맵(Iref)을 나타내고, (b)는 별도로 획득된 진리(Ground Truth) UV 맵을 나타내며, (c)는 좌우 대칭 재구성 손실만을 반영하여 학습된 경우의 완성 UV 맵을 나타낸다. 그리고 (d)는 UV 맵 완성부(400)에서 획득된 완성 UV 맵(Iout)이 아닌 UV 맵(Iref)의 유효 영역을 이용하여 학습된 경우를 나타내며, (e)는 본 실시예에 따라 학습된 완성 UV 맵(Iout)을 나타낸다.And in FIG. 5, (a) shows the input UV map (I ref ), (b) shows the separately acquired ground truth UV map, (c) is learned by reflecting only left-right symmetric reconstruction loss represents the completed UV map. And (d) shows a case in which it is learned using the effective area of the UV map (I ref ) rather than the completed UV map (I out ) obtained in the UV map completion unit 400, (e) is in this embodiment It shows the completed UV map (I out ) learned according to it.

도 4 및 도 5에 도시된 바와 같이, 본 실시예에 따른 얼굴 이미지 색상 합성 장치는 사람 얼굴의 좌우 대칭성에 기반하여 UV 맵(Iref)의 홀 영역을 추정하여 완성 UV 맵(Iout)을 생성하고, 완성 UV 맵(Iout)을 좌우로 분할하여 자기 판별 기반 경쟁 학습을 수행함으로써, 학습을 위해 별도로 획득되는 2D 이미지나 UV 맵 없이도 자연스러운 얼굴 질감을 갖는 UV 맵을 완성할 수 있다.4 and 5 , the face image color synthesizing apparatus according to this embodiment estimates the hole area of the UV map (I ref ) based on the left-right symmetry of the human face to obtain the completed UV map (I out ). By generating and dividing the completed UV map (I out ) into left and right to perform self-discrimination-based competitive learning, it is possible to complete a UV map having a natural facial texture without a 2D image or UV map that is separately acquired for learning.

도 6은 본 발명의 일 실시예에 따른 얼굴 이미지 색상 합성 방법을 나타낸다.6 is a diagram illustrating a face image color synthesis method according to an embodiment of the present invention.

도 1 내지 도 3을 참조하여, 도 6의 얼굴 이미지 색상 합성 방법을 설명하면, 우선 UV 맵(Iref)을 획득한다(S10). 여기서 UV 맵(Iref)은 사진이나 동영상 등으로부터 획득된 2D 얼굴 이미지로부터 기지정된 방식으로 획득되는 홀 영역이 포함된 UV 맵으로서, 2D 얼굴 이미지에 3D 얼굴 모델을 정렬하고, 2D 얼굴 이미지를 정렬된 3D 얼굴 모델에 맵핑하고 전개하여 획득될 수 있다. 사진이나 동영상 등으로부터 획득된 2D 얼굴 이미지로부터 홀이 포함된 UV 맵(Iref)을 획득하는 방법은 다양하게 공개되어 있으며, 여기서는 공개된 기법 중 하나를 이용하는 것으로 가정한다.Referring to FIGS. 1 to 3 , the face image color synthesis method of FIG. 6 is described. First, a UV map I ref is obtained ( S10 ). Here, the UV map (I ref ) is a UV map including a hole area obtained from a 2D face image obtained from a photo or a video, etc. in a predetermined manner, and aligns the 3D face model to the 2D face image, and aligns the 2D face image. It can be obtained by mapping and developing a 3D face model. Various methods for obtaining a UV map (I ref ) including holes from a 2D face image obtained from a photo or a video have been disclosed, and it is assumed here that one of the disclosed techniques is used.

UV 맵(Iref)이 획득되면, 획득된 UV 맵(Iref)을 좌우 반전하여 플립 UV 맵(Iflip)을 획득하고, UV 맵(Iref)에서 홀 영역과 이외의 영역을 구분하여 마스크(M)를 획득한다(S20). 여기서 마스크(M)는 홀 영역인지 여부에 따라 0 또는 1의 픽셀값으로 채워지는 2진 마스크이다.When the UV map (I ref ) is obtained, the obtained UV map (I ref ) is inverted left and right to obtain a flip UV map (I flip ), and the UV map (I ref ) separates the hole area from the other areas to mask (M) is obtained (S20). Here, the mask M is a binary mask filled with a pixel value of 0 or 1 depending on whether it is a hole region.

플립 UV 맵(Iflip)과 마스크(M)가 획득되면, 획득된 플립 UV 맵(Iflip)과 마스크(M)를 기지정된 방식으로 UV 맵(Iref)과 결합하여 입력 UV 맵(Iin)을 생성한다(S30).When the flip UV map (I flip ) and the mask (M) are obtained, the obtained flip UV map (I flip ) and the mask (M) are combined with the UV map (I ref ) in a predetermined manner to combine the input UV map (I in ) ) is generated (S30).

그리고 미리 학습된 패턴 추정 방식에 따라 입력 UV 맵(Iin)의 패턴을 추정하여, UV 맵(Iref)의 홀 영역에 대한 색상을 추정하여 채우고, 홀 영역 이외의 영역에 대해서도 자연스러운 질감 변화가 발생되도록 보완하여 완성 UV 맵(Iout)을 추정한다(S40). 입력 UV 맵(Iin)이 UV 맵(Iref)뿐만 아니라 플립 UV 맵(Iflip)과 마스크(M)가 결합되어 생성되므로, 완성 UV 맵(Iout)은 사람 얼굴의 좌우 대칭성에 따른 패턴으로 홀 영역을 추정하여 채울 수 있으며, 추정된 홀 영역과의 변화가 자연스럽게 이루어지도록 홀 영역 이외의 영역에 대해서도 질감을 보완하여 완성 UV 맵(Iout)을 획득할 수 있다.And according to the pre-learned pattern estimation method, the pattern of the input UV map (I in ) is estimated, the color of the hole area of the UV map (I ref ) is estimated and filled, and natural texture change is also observed for areas other than the hole area The completed UV map (I out ) is estimated by supplementing it so that it occurs (S40). Since the input UV map (I in ) is created by combining not only the UV map (I ref ) but also the flip UV map (I flip ) and the mask (M), the completed UV map (I out ) is a pattern according to the left-right symmetry of the human face. The hole area can be estimated and filled with , and a complete UV map (I out ) can be obtained by supplementing the texture for areas other than the hole area so that the change from the estimated hole area is made naturally.

한편, 완성 UV 맵(Iout)이 획득되면, 현재 상태가 학습 상태인지 판별한다(S50). 만일 학습 상태인 것으로 판별되면, 완성 UV 맵(Iout)과 마스크(M)를 각각 좌우 2분할하여, 좌측 이미지(Ileft)와 우측 이미지(Iright) 및 좌측 마스크(Mleft)와 우측 마스크(Mright)를 획득한다(S60).On the other hand, when the complete UV map (I out ) is obtained, it is determined whether the current state is a learning state (S50). If it is determined that it is a learning state, the completed UV map (I out ) and the mask (M) are divided into two left and right, respectively, and the left image (I left ) and the right image (I right ) and the left mask (M left ) and the right mask (M right ) is obtained (S60).

그리고 학습되는 패턴 추정 방식에 따라 획득된 좌측 이미지(Ileft)와 우측 이미지(Iright)에 대해 리얼 이미지와 페이크 이미지를 추정하고, 이와 함께 좌측 마스크(Mleft)와 우측 마스크(Mright)의 픽셀값을 기반으로 실제 리얼 이미지와 페이크 이미지를 판별한다(S70). 이후 추정된 리얼 이미지와 페이크 이미지를 판별된 리얼 이미지와 페이크 이미지와 비교하여 생성 손실(LG)을 계산하고, 계산된 생성 손실(LG)을 역전파하여 학습을 수행한다(S80).And the real image and the fake image are estimated for the left image (I left ) and the right image (I right ) obtained according to the learned pattern estimation method , and together with the left mask (M left ) and the right mask (M right ) An actual real image and a fake image are determined based on the pixel value (S70). Thereafter, a generation loss (L G ) is calculated by comparing the estimated real image and the fake image with the determined real image and the fake image, and learning is performed by backpropagating the calculated generation loss (L G ) ( S80 ).

여기서 생성 손실(LG)은 UV 맵(Iref)으로부터 완성 UV 맵(Iout)을 추정하는 과정에서 발생되는 재구성 손실(LGrec)과 리얼 이미지와 페이크 이미지를 추정하는 과정에서 발생되는 적대적 손실(LGadv)의 합으로 계산될 수 있다.Here, the generation loss (L G ) is the reconstruction loss (L Grec ) generated in the process of estimating the complete UV map (I out ) from the UV map (I ref ) and the hostile loss generated in the process of estimating the real image and the fake image It can be calculated as the sum of (L Gadv ).

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention may be implemented as a computer program stored in a medium for execution by a computer. Here, the computer-readable medium may be any available medium that can be accessed by a computer, and may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data, and read dedicated memory), RAM (Random Access Memory), CD (Compact Disk)-ROM, DVD (Digital Video Disk)-ROM, magnetic tape, floppy disk, optical data storage, and the like.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, which is only exemplary, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

100: 얼굴 이미지 획득부 200: UV 맵 획득부
300: 입력 전처리부 310: 마스크 획득부
320: UV 맵 플립부 330: UV 맵 결합부
400: UV 맵 완성부 500: UV 맵 판정부
510: UV 맵 분할부 520: 마스크 분할부
530: 유효 이미지 판별부 540: 경쟁적 판정부
550: 손실 역전파부
100: face image acquisition unit 200: UV map acquisition unit
300: input preprocessor 310: mask acquisition unit
320: UV map flip unit 330: UV map coupling unit
400: UV map completion unit 500: UV map determination unit
510: UV map division 520: mask division
530: valid image determination unit 540: competitive determination unit
550: loss back propagation unit

Claims (17)

2D 얼굴 이미지로부터 기지정된 방식으로 획득된 UV 맵을 인가받고, 인가된 UV 맵의 홀 영역과 나머지 영역을 구분한 마스크와 상기 UV 맵이 좌우 반전된 플립 UV 맵을 상기 UV 맵에 결합하여 입력 UV 맵을 획득하는 입력 전처리부;
인공 신경망으로 구현되어 입력 UV 맵을 인가받고 미리 학습된 패턴 추정 방식에 따라 인가된 입력 UV 맵의 패턴으로부터 상기 UV 맵의 홀 영역의 색상이 채워진 완성 UV 맵을 생성하는 UV 맵 완성부; 및
학습시에 구비되어, 상기 완성 UV 맵과 상기 마스크를 인가받아 각각 좌우 2분할하고, 학습되는 패턴 추정 방식에 따라 분할된 2개의 완성 UV 맵 중 리얼 이미지와 페이크 이미지를 추정하는 한편, 분할된 2개의 마스크를 기반으로 실제 리얼 이미지와 페이크 이미지를 판별하여 생성된 완성 UV 맵에 대한 생성 손실을 계산 및 역전파하는 UV 맵 판정부를 포함하는 얼굴 이미지 색상 합성 장치.
A UV map obtained from a 2D face image is applied in a predetermined manner, and a mask that separates the hole area and the remaining area of the applied UV map and a flip UV map in which the UV map is inverted left and right are combined with the UV map to input UV an input preprocessor to obtain a map;
a UV map completion unit that is implemented as an artificial neural network to receive an input UV map and generate a complete UV map filled with the color of the hole region of the UV map from the pattern of the applied input UV map according to a pre-learned pattern estimation method; and
It is provided at the time of learning, receives the completed UV map and the mask, and divides each into two left and right, and estimates a real image and a fake image among the two completed UV maps divided according to the learned pattern estimation method, while the divided 2 A face image color synthesizing device including a UV map determining unit that calculates and backpropagates a generation loss for a completed UV map generated by discriminating an actual real image and a fake image based on the mask.
제1항에 있어서, 상기 입력 전처리부는
상기 UV 맵을 분석하여 홀 영역과 나머지 영역을 구분하고, 구분된 홀 영역과 나머지 영역의 각 픽셀에 서로 다른 비트값을 할당하여 2진 비트값으로 구성되는 상기 마스크를 생성하는 마스크 획득부;
상기 UV 맵을 좌우 반전하여 상기 플립 UV 맵을 획득하는 UV 맵 플립부; 및
상기 UV 맵과 상기 마스크 및 상기 플립 UV 맵을 기지정된 방식으로 결합하여 상기 입력 UV 맵을 획득하는 UV 맵 결합부를 포함하는 얼굴 이미지 색상 합성 장치.
The method of claim 1, wherein the input preprocessor
a mask obtaining unit that analyzes the UV map to classify a hole area and a remaining area, and allocates different bit values to each pixel of the divided hole area and the remaining area to generate the mask composed of binary bit values;
a UV map flip unit to obtain the flip UV map by inverting the UV map left and right; and
and a UV map combiner configured to combine the UV map, the mask, and the flip UV map in a predetermined manner to obtain the input UV map.
제1항에 있어서, 상기 UV 맵 완성부는
다수의 레이어로 구성되어 미리 학습된 패턴 추정 방식에 따라 입력 UV 맵의 특징을 단계적으로 추출하여 특징맵을 획득하는 인코더; 및
상기 인코더의 다수의 레이어에 대응하는 개수의 레이어로 구성되어, 상기 특징맵을 단계적으로 업샘플링하여 상기 완성 UV 맵을 획득하는 디코더를 포함하는 얼굴 이미지 색상 합성 장치.
According to claim 1, wherein the UV map completion unit
an encoder that is composed of a plurality of layers and extracts the features of the input UV map step by step according to a pre-learned pattern estimation method to obtain a feature map; and
and a decoder configured to include a number of layers corresponding to a plurality of layers of the encoder and to obtain the complete UV map by upsampling the feature map in stages.
제3항에 있어서, 상기 디코더는
다수의 레이어 각각이 상기 인코더의 다수의 레이어 중 대응하는 레이어와 스킵 커넥션을 통해 연결되는 얼굴 이미지 색상 합성 장치.
4. The method of claim 3, wherein the decoder
A face image color synthesizing apparatus in which each of a plurality of layers is connected to a corresponding one of the plurality of layers of the encoder through a skip connection.
제3항에 있어서, 상기 UV 맵 판정부는
상기 완성 UV 맵을 인가받아 좌우 2분할하여 좌측 이미지와 우측 이미지를 획득하는 UV 맵 분할부;
인공 신경망으로 구현되어 상기 좌측 이미지와 상기 우측 이미지 중 상기 UV 맵에서 홀 영역의 크기가 작은 부분에 대응하는 리얼 이미지와 나머지 부분에 대응하는 페이크 이미지를 추정하는 경쟁적 판정부; 및
상기 경쟁적 판정부의 추정 결과를 기반으로 상기 생성 손실을 계산하고, 계산된 생성 손실을 역전파하는 손실 역전파부를 포함하는 얼굴 이미지 색상 합성 장치.
The method of claim 3, wherein the UV map determination unit
a UV map division unit that receives the completed UV map and divides the left and right into two to obtain a left image and a right image;
a competitive determination unit implemented as an artificial neural network to estimate a real image corresponding to a portion having a small hole region in the UV map among the left image and the right image and a fake image corresponding to the remaining portion; and
and a loss backpropagation unit for calculating the generation loss based on the estimation result of the competitive determination unit and backpropagating the calculated generation loss.
제5항에 있어서, 상기 UV 맵 판정부는
상기 마스크를 인가받아 좌우 2분할하여 좌측 마스크와 우측 마스크를 획득하는 마스크 분할부;
상기 좌측 마스크와 상기 우측 마스크 각각의 픽셀값의 합을 기반으로 상기 UV 맵의 실제 리얼 이미지와 페이크 이미지를 판별하여 상기 손실 역전파부로 통지하는 유효 이미지 판별부를 더 포함하는 얼굴 이미지 색상 합성 장치.
The method of claim 5, wherein the UV map determination unit
a mask dividing unit that receives the mask and divides it into two left and right to obtain a left mask and a right mask;
and an effective image determining unit for discriminating an actual real image and a fake image of the UV map based on the sum of the pixel values of the left mask and the right mask, and notifying the loss back propagation unit.
제6항에 있어서, 상기 손실 역전파부는
상기 입력 UV 맵(Iin)을 인가받아 상기 완성 UV 맵(Iout)을 획득하는 UV 맵 재구성 과정에서의 재구성 손실(LGrec)과 상기 좌측 이미지와 상기 우측 이미지에 대해 리얼 이미지와 페이크 이미지를 추정한 판정 손실(LD)에 기반한 적대적 손실(LGadv)의 합으로 상기 생성 손실(LG)을 계산하여 역전파하는 얼굴 이미지 색상 합성 장치.
The method of claim 6, wherein the loss back propagation unit
Reconstruction loss (L Grec ) in the UV map reconstruction process to obtain the complete UV map (I out ) by receiving the input UV map (I in ) and real images and fake images for the left image and the right image A face image color synthesizing apparatus that backpropagates by calculating the generation loss (L G ) as the sum of the adversarial loss (L Gadv ) based on the estimated decision loss (L D ).
제7항에 있어서, 상기 손실 역전파부는
상기 재구성 손실(LGrec)을 수학식
Figure pat00009

(여기서 ⊙ 는 원소 별 곱셈을 나타내고, NIref 는 UV 맵(Iref)의 원소 개수로서, UV 맵(Iref)의 높이(H), 폭(W) 및 채널(C) 크기의 곱을 나타낸다.)
에 따라 계산하고, 적대적 손실(LGadv)을 수학식
Figure pat00010

(여기서
Figure pat00011
는 오차 함수(Error function)이고, xz 는 좌측 마스크와 우측 마스크를 이용하여 판별된 페이크 이미지이며, D는 추정된 판정 결과를 나타낸다.)
에 따라 계산하며, 상기 생성 손실(LG)을 수학식
Figure pat00012

(여기서 λG 는 재구성 손실(LGrec)과 적대적 손실(LGadv) 사이의 균형을 유지하기 위한 가중치이다.)
에 따라 계산하는 얼굴 이미지 색상 합성 장치.
The method of claim 7, wherein the loss back propagation unit
Equation for the reconstruction loss (L Grec )
Figure pat00009

(Where ⊙ denotes element-by-element multiplication, N Iref is UV map (I a number of elements in ref), UV map (I ref) the height (H), width (W) and a channel (C) represents the product of the size. )
Calculated according to the equation, the adversarial loss (L Gadv )
Figure pat00010

(here
Figure pat00011
is an error function, x z is a fake image determined using the left mask and the right mask, and D represents the estimated determination result.)
Calculated according to the formula, the generation loss (L G )
Figure pat00012

(Where λ G is the weight to maintain a balance between the reconstruction loss (L Grec ) and the adversarial loss (L Gadv ).)
A face image color synthesizing device that calculates according to
2D 얼굴 이미지로부터 기지정된 방식으로 획득된 UV 맵을 인가받고, 인가된 UV 맵의 홀 영역과 나머지 영역을 구분한 마스크와 상기 UV 맵이 좌우 반전된 플립 UV 맵을 상기 UV 맵에 결합하여 입력 UV 맵을 획득하는 단계;
인공 신경망을 이용하여 입력 UV 맵을 인가받고 미리 학습된 패턴 추정 방식에 따라 인가된 입력 UV 맵의 패턴으로부터 상기 UV 맵의 홀 영역의 색상이 채워진 완성 UV 맵을 생성하는 단계; 및
학습 상태에서, 상기 완성 UV 맵과 상기 마스크를 인가받아 각각 좌우 2분할하고, 학습되는 패턴 추정 방식에 따라 분할된 2개의 완성 UV 맵 중 리얼 이미지와 페이크 이미지를 추정하는 한편, 분할된 2개의 마스크를 기반으로 실제 리얼 이미지와 페이크 이미지를 판별하여 생성된 완성 UV 맵에 대한 생성 손실을 계산 및 역전파하여 학습을 수행하는 단계를 포함하는 얼굴 이미지 색상 합성 방법.
A UV map obtained from a 2D face image is applied in a predetermined manner, and a mask that separates the hole area and the remaining area of the applied UV map and a flip UV map in which the UV map is inverted left and right are combined with the UV map to input UV obtaining a map;
receiving an input UV map using an artificial neural network and generating a complete UV map filled with the color of the hole region of the UV map from the applied input UV map pattern according to a pre-learned pattern estimation method; and
In the learning state, the completed UV map and the mask are applied and divided into left and right, respectively, and the real image and the fake image are estimated among the two completed UV maps divided according to the learned pattern estimation method, while the divided two masks A method for synthesizing a face image color, comprising: calculating and backpropagating a generation loss for a completed UV map generated by discriminating an actual real image and a fake image based on
제9항에 있어서, 상기 입력 UV 맵을 획득하는 단계는
상기 UV 맵을 분석하여 홀 영역과 나머지 영역을 구분하고, 구분된 홀 영역과 나머지 영역의 각 픽셀에 서로 다른 비트값을 할당하여 2진 비트값으로 구성되는 상기 마스크를 생성하는 단계;
상기 UV 맵을 좌우 반전하여 상기 플립 UV 맵을 획득하는 단계; 및
상기 입력 UV 맵을 획득하기 위해 상기 UV 맵과 상기 마스크 및 상기 플립 UV 맵을 기지정된 방식으로 결합하는 단계를 포함하는 얼굴 이미지 색상 합성 방법.
10. The method of claim 9, wherein obtaining the input UV map comprises:
generating the mask composed of binary bit values by analyzing the UV map to classify a hole area and a remaining area, and assigning different bit values to each pixel of the divided hole area and the remaining area;
obtaining the flip UV map by inverting the UV map left and right; and
combining the UV map and the mask and the flip UV map in a predetermined manner to obtain the input UV map.
제9항에 있어서, 상기 완성 UV 맵을 생성하는 단계는
다수의 레이어로 구성되고 패턴 추정 방식이 학습된 인코더를 이용하여 입력 UV 맵의 특징을 단계적으로 추출하여 특징맵을 획득하는 인코더; 및
상기 인코더의 다수의 레이어에 대응하는 개수의 레이어로 구성된 디코더를 이용하여 상기 특징맵을 단계적으로 업샘플링하는 단계를 포함하는 얼굴 이미지 색상 합성 방법.
10. The method of claim 9, wherein generating the complete UV map comprises:
an encoder for obtaining a feature map by stepwise extracting features of the input UV map using an encoder that is composed of a plurality of layers and has learned a pattern estimation method; and
and step-by-step upsampling of the feature map using a decoder having a number of layers corresponding to a plurality of layers of the encoder.
제11항에 있어서, 상기 업샘플링하는 단계는
상기 디코더의 다수의 레이어 중 이전 레이어에서 업샘플링된 특징맵과 함께 상기 인코더의 다수의 레이어 중 대응하는 레이어에 연결된 스킵 커넥션을 통해 대응하는 레이어에서 출력되는 특징맵을 인가받는 얼굴 이미지 색상 합성 방법.
12. The method of claim 11, wherein the upsampling comprises:
A face image color synthesis method in which a feature map output from a corresponding layer through a skip connection connected to a corresponding layer among a plurality of layers of the encoder is applied together with a feature map upsampled from a previous layer among a plurality of layers of the decoder.
제12항에 있어서, 상기 학습을 수행하는 단계는
상기 완성 UV 맵을 인가받아 좌우 2분할하여 좌측 이미지와 우측 이미지를 획득하는 단계;
인공 신경망을 이용하여 상기 좌측 이미지와 상기 우측 이미지 중 상기 UV 맵에서 홀 영역의 크기가 작은 부분에 대응하는 리얼 이미지와 나머지 부분에 대응하는 페이크 이미지를 추정하는 단계; 및
추정 결과를 기반으로 상기 생성 손실을 계산하고, 계산된 생성 손실을 역전파하는 단계를 포함하는 얼굴 이미지 색상 합성 방법.
The method of claim 12, wherein the performing of the learning comprises:
obtaining a left image and a right image by receiving the completed UV map and dividing the left and right into two;
estimating a real image corresponding to a portion having a small hole region in the UV map and a fake image corresponding to the remaining portion of the left image and the right image using an artificial neural network; and
and calculating the generation loss based on an estimation result, and backpropagating the calculated generation loss.
제13항에 있어서, 상기 학습을 수행하는 단계는
상기 마스크를 인가받아 좌우 2분할하여 좌측 마스크와 우측 마스크를 획득하는 단계;
상기 좌측 마스크와 상기 우측 마스크 각각의 픽셀값의 합을 기반으로 상기 UV 맵의 실제 리얼 이미지와 페이크 이미지를 판별하는 단계를 더 포함하는 얼굴 이미지 색상 합성 방법.
14. The method of claim 13, wherein performing the learning comprises:
obtaining a left mask and a right mask by receiving the mask and dividing the left and right into two;
and determining an actual real image and a fake image of the UV map based on the sum of pixel values of each of the left mask and the right mask.
제14항에 있어서, 상기 생성 손실을 역전파하는 단계는
상기 입력 UV 맵(Iin)을 인가받아 상기 완성 UV 맵(Iout)을 획득하는 UV 맵 재구성 과정에서의 재구성 손실(LGrec)과 상기 좌측 이미지와 상기 우측 이미지에 대해 리얼 이미지와 페이크 이미지를 추정한 판정 손실(LD)에 기반한 적대적 손실(LGadv)의 합으로 상기 생성 손실(LG)을 계산하는 얼굴 이미지 색상 합성 방법.
15. The method of claim 14, wherein backpropagating the production loss comprises:
Reconstruction loss (L Grec ) in the UV map reconstruction process to obtain the complete UV map (I out ) by receiving the input UV map (I in ) and real images and fake images for the left image and the right image A face image color synthesis method for calculating the generation loss (L G ) as the sum of the adversarial loss (L Gadv ) based on the estimated decision loss (L D ).
제15항에 있어서, 상기 생성 손실을 역전파하는 단계는
상기 재구성 손실(LGrec)을 수학식
Figure pat00013

(여기서 ⊙ 는 원소 별 곱셈을 나타내고, NIref 는 UV 맵(Iref)의 원소 개수로서, UV 맵(Iref)의 높이(H), 폭(W) 및 채널(C) 크기의 곱을 나타낸다.)
에 따라 계산하는 단계;
상기 적대적 손실(LGadv)을 수학식
Figure pat00014

(여기서
Figure pat00015
는 오차 함수(Error function)이고, xz 는 좌측 마스크와 우측 마스크를 이용하여 판별된 페이크 이미지이며, D는 추정된 판정 결과를 나타낸다.)
에 따라 계산하는 단계; 및
상기 생성 손실(LG)을 수학식
Figure pat00016

(여기서 λG 는 재구성 손실(LGrec)과 적대적 손실(LGadv) 사이의 균형을 유지하기 위한 가중치이다.)
에 따라 계산하는 단계를 포함하는 얼굴 이미지 색상 합성 방법.
16. The method of claim 15, wherein backpropagating the production loss comprises:
Equation for the reconstruction loss (L Grec )
Figure pat00013

(Where ⊙ denotes element-by-element multiplication, N Iref is UV map (I a number of elements in ref), UV map (I ref) the height (H), width (W) and a channel (C) represents the product of the size. )
calculating according to;
The hostile loss (L Gadv ) is expressed by the equation
Figure pat00014

(here
Figure pat00015
is an error function, x z is a fake image determined using the left mask and the right mask, and D represents the estimated determination result.)
calculating according to; and
The generation loss (L G ) is expressed by the equation
Figure pat00016

(Where λ G is the weight to maintain a balance between the reconstruction loss (L Grec ) and the adversarial loss (L Gadv ).)
A method for synthesizing face image color, comprising the step of calculating according to
제9항 내지 제16항 중 어느 한 항에 따른 얼굴 이미지 색상 합성 방법을 수행하기 위한 프로그램 명령어가 기록된 기록 매체.17. A recording medium in which program instructions for performing the face image color synthesis method according to any one of claims 9 to 16 are recorded.
KR1020200065193A 2020-05-29 2020-05-29 Apparatus and method for color synthesis of face images KR102358854B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200065193A KR102358854B1 (en) 2020-05-29 2020-05-29 Apparatus and method for color synthesis of face images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200065193A KR102358854B1 (en) 2020-05-29 2020-05-29 Apparatus and method for color synthesis of face images

Publications (2)

Publication Number Publication Date
KR20210147647A true KR20210147647A (en) 2021-12-07
KR102358854B1 KR102358854B1 (en) 2022-02-04

Family

ID=78868483

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200065193A KR102358854B1 (en) 2020-05-29 2020-05-29 Apparatus and method for color synthesis of face images

Country Status (1)

Country Link
KR (1) KR102358854B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439610A (en) * 2022-09-14 2022-12-06 中国电信股份有限公司 Model training method, training device, electronic equipment and readable storage medium
CN117953165A (en) * 2024-03-26 2024-04-30 合肥工业大学 New human face view synthesis method and system based on nerve radiation field

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033088A (en) * 2011-06-06 2014-03-17 마이크로소프트 코포레이션 Generation of avatar reflecting player appearance
KR20150107063A (en) * 2014-03-13 2015-09-23 손우람 3d scanning system using facial plastic surgery simulation
KR20160144699A (en) * 2015-06-09 2016-12-19 오인환 the automatic 3D modeliing method using 2D facial image
KR20170019779A (en) 2015-08-12 2017-02-22 트라이큐빅스 인크. Method and Apparatus for detection of 3D Face Model Using Portable Camera
KR20170092533A (en) * 2014-09-23 2017-08-11 키레몬 에스에이 A face pose rectification method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033088A (en) * 2011-06-06 2014-03-17 마이크로소프트 코포레이션 Generation of avatar reflecting player appearance
KR20150107063A (en) * 2014-03-13 2015-09-23 손우람 3d scanning system using facial plastic surgery simulation
KR20170092533A (en) * 2014-09-23 2017-08-11 키레몬 에스에이 A face pose rectification method and apparatus
KR20160144699A (en) * 2015-06-09 2016-12-19 오인환 the automatic 3D modeliing method using 2D facial image
KR20170019779A (en) 2015-08-12 2017-02-22 트라이큐빅스 인크. Method and Apparatus for detection of 3D Face Model Using Portable Camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Deng et al. UV-GAN: Adversarial Facial UV Map Completion for Pose-invariant Face Recognition, CVPR, 2018, pp. 1-10. 1부.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439610A (en) * 2022-09-14 2022-12-06 中国电信股份有限公司 Model training method, training device, electronic equipment and readable storage medium
CN115439610B (en) * 2022-09-14 2024-04-26 中国电信股份有限公司 Training method and training device for model, electronic equipment and readable storage medium
CN117953165A (en) * 2024-03-26 2024-04-30 合肥工业大学 New human face view synthesis method and system based on nerve radiation field

Also Published As

Publication number Publication date
KR102358854B1 (en) 2022-02-04

Similar Documents

Publication Publication Date Title
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
US7760932B2 (en) Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image
CN113012293B (en) Stone carving model construction method, device, equipment and storage medium
US8217931B2 (en) System and method for processing video images
US5710875A (en) Method and apparatus for processing 3-D multiple view images formed of a group of images obtained by viewing a 3-D object from a plurality of positions
US8624901B2 (en) Apparatus and method for generating facial animation
US20160342861A1 (en) Method for Training Classifiers to Detect Objects Represented in Images of Target Environments
JP4880091B2 (en) Image generating apparatus and method for super-resolution of 3D texture
US7860340B2 (en) Three-dimensional shape estimation system and image generation system
US20120032948A1 (en) System and method for processing video images for camera recreation
CN111325693B (en) Large-scale panoramic viewpoint synthesis method based on single viewpoint RGB-D image
JP2013038775A (en) Ray image modeling for fast catadioptric light field rendering
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
WO2019082797A1 (en) Reconfiguration method and reconfiguration device
CN111192201A (en) Method and device for generating face image and training model thereof, and electronic equipment
KR102358854B1 (en) Apparatus and method for color synthesis of face images
KR102422822B1 (en) Apparatus and method for synthesizing 3d face image using competitive learning
JP2023172882A (en) Three-dimensional representation method and representation apparatus
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
KR101575284B1 (en) Apparatus for generating texture of 3-demensional reconstructed object by resolution level of 2-demensional image and method thereof
JP6901885B2 (en) Foreground extractor and program
CN111275804B (en) Image illumination removing method and device, storage medium and computer equipment
US20120162215A1 (en) Apparatus and method for generating texture of three-dimensional reconstructed object depending on resolution level of two-dimensional image
JP6641313B2 (en) Region extraction device and program
CN112652059B (en) Mesh R-CNN model-based improved target detection and three-dimensional reconstruction method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant