KR102639187B1 - 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치 - Google Patents

얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR102639187B1
KR102639187B1 KR1020210145232A KR20210145232A KR102639187B1 KR 102639187 B1 KR102639187 B1 KR 102639187B1 KR 1020210145232 A KR1020210145232 A KR 1020210145232A KR 20210145232 A KR20210145232 A KR 20210145232A KR 102639187 B1 KR102639187 B1 KR 102639187B1
Authority
KR
South Korea
Prior art keywords
face
image
person
source image
synthesis
Prior art date
Application number
KR1020210145232A
Other languages
English (en)
Other versions
KR20230060726A (ko
Inventor
이현기
곽승근
조준구
손종수
Original Assignee
씨제이올리브네트웍스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 씨제이올리브네트웍스 주식회사 filed Critical 씨제이올리브네트웍스 주식회사
Priority to KR1020210145232A priority Critical patent/KR102639187B1/ko
Publication of KR20230060726A publication Critical patent/KR20230060726A/ko
Application granted granted Critical
Publication of KR102639187B1 publication Critical patent/KR102639187B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 일 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법은 프로세서 및 메모리를 포함하는 장치를 통해 수행되되, (a) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 단계, (b) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계, (c) 상기 (b) 단계의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 단계 및 (d) 상기 생성한 얼굴 합성 이미지의 피부톤을 후보정하는 단계를 포함한다.

Description

얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치{METHOD FOR PROVIDING FACE SYNTHESIS SERVICE AND APPARATUS FOR SAME}
본 발명은 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치 에 관한 것이다. 보다 자세하게는 양질의 기초 데이터를 수집하여 학습하고, 생성된 얼굴 합성 이미지에 후보정 작업까지 수행함으로써 완성도 높은 얼굴 합성 서비스를 제공할 수 있는 방법 및 이를 위한 장치에 관한 것이다.
최근 딥러닝(Deep Learning) 기술이 적용된 얼굴 합성 기술, 소위 말하는 딥페이크(Deepfake) 기술이 출현하면서 각종 산업에서 널리 활용되고 있는바, 가상 인플루언서의 탄생과 같은 놀이의 용도 그리고 고인이 되어 다시 보지 못하는 사람들의 생전 모습을 재현하는 용도 등을 대표적인 사례로 들 수 있다.
이러한 딥페이크 기술은 기계 학습(Machine Learning, ML) 모델 중, 지도 학습 방식에서 벗어나 비지도 학습의 초석을 다짐으로써 차세대 딥러닝 알고리즘으로 주목 받고 있는 생성적 적대 신경망((Generative Adversarial Network, GAN) 모델을 통해 이루어지는바, 생성적 적대 신경망 방식은 생성자(Generator)와 감별자(Discriminator)라는 서로 상반된 목적을 갖는 두 신경망 모델이 경쟁하면서 성능이 향상되는 모델이다. 보다 구체적으로, 생성자는 실제 데이터를 학습하고 이를 바탕으로 실제에 가까운 거짓 데이터를 생성하며, 감별자는 생성자가 생성한 데이터가 실제인지 거짓인지를 판별하는데, 이러한 과정을 지속적으로 반복하면서 더욱 정교한 거짓 데이터를 생성할 수 있게 되는 것인바, 딥페이크 기술은 기술의 근간이 되는 생성적 적대 신경망 모델의 사용이 반복될수록 생성자와 감별자의 경쟁이 심화되어 그 완성도 역시 자연스럽게 향상될 수 있다.
그럼에도 불구하고 보다 정교한 얼굴 합성을 위해 딥페이크 기술의 완성도를 향상시키기 위한 다양한 연구가 활발하게 진행되고 있는바, 생성적 적대 신경망 모델의 학습 효율을 향상시키거나, 생성된 얼굴 합성 이미지에 후보정 작업을 가하여 완성하는 등이 그것이며, 본 발명은 이에 관한 것이다.
대한민국 공개특허공보 제 10-2020-0027030호(2020.03.11)
본 발명이 해결하고자 하는 기술적 과제는 딥페이크 기술에 적용되는 생성적 적대 신경망 모델의 학습 효율을 향상시킴으로써 완성도 높은 얼굴 합성 서비스를 제공할 수 있는 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 생성된 얼굴 합성 이미지에 후보정 작업을 가함으로써 완성도 높은 얼굴 합성 결과를 제공할 수 있는 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법은 프로세서 및 메모리를 포함하는 장치를 통해 수행되되, (a) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 단계, (b) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계, (c) 상기 (b) 단계의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 단계 및 (d) 상기 생성한 얼굴 합성 이미지의 피부톤을 후보정하는 단계를 포함한다.
일 실시 예에 따르면, 상기 (a) 단계의 소스 이미지는, 소정의 촬영 조건인 슛팅 가이드(Shooting Guide)에 맞춰서 촬영된 하나 이상의 이미지이며, 상기 슛팅 가이드는, 해상도가 FHD 1920 Х 1080 이상인 카메라로 상기 제2 인물에 대하여 정면, 우측 상단° 20 내지 30° 중 어느 한 위치, 좌측 상단 20°내지 30° 중 어느 한 위치, 우측 하단 10° 내지 20° 중 어느 한 위치 및 좌측 하단 10° 내지 20° 중 어느 한 위치 각각에서, 상기 제2 인물의 두 눈이 전부 보이도록 촬영하는 조건일 수 있다.
일 실시 예에 따르면, 상기 슛팅 가이드는, 상기 제2 인물에 대하여 두 눈이 전부 보이는 상태에서 최대의 우측 위치 및 두 눈이 전부 보이는 상태에서 최대의 좌측 위치에서 촬영하는 조건을 더 포함할 수 있다.
일 실시 예에 따르면, 상기 슛팅 가이드는, 상기 제2 인물에 대한 촬영 조건을 더 포함하며, 상기 제2 인물에 대한 촬영 조건은, 상기 제2 인물에 대하여 2분 이상의 촬영 시간, 고개를 상하/좌우로 천천히 돌리며 촬영, 상기 타겟 이미지가 포함하는 제1 인물의 표정과 동일/유사한 표정, 얼굴 전면 중 일부라도 가림 없이 촬영하는 조건일 수 있다.
일 실시 예에 따르면, 상기 (b) 단계는, (b-1) 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 소스 이미지가 포함하는 제2 인물의 얼굴에서 복수 개의 랜드마크(Land mark)를 각각 추출하는 단계, (b-2) 상기 제1 인물의 얼굴에서 추출한 복수 개의 랜드마크를 이용하여 상기 제1 인물의 얼굴에 대한 롤(Roll), 피치(Pitch) 및 요(Yaw)를 산출하고, 제2 인물의 얼굴에서 추출한 복수 개의 랜드마크를 이용하여 상기 제2 인물의 얼굴에 대한 롤, 피치 및 요를 산출하는 단계, (b-3) 상기 산출한 제1 인물의 얼굴에 대한 롤, 피치 및 요와 제2 인물의 얼굴에 대한 롤, 피치 및 요를 이용하여 상기 타겟 이미지와 소스 이미지의 유사도를 산정하는 단계 및 (b-4) 상기 산정한 타겟 이미지와 소스 이미지의 유사도가 임계값 이상인지 판단하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 (b-4) 단계 이후에, (b-5) 상기 판단 결과 임계값 이상이라면, 상기 소스 이미지의 추가 수집이 필요하다고 결정하는 단계 및 (b-6) 상기 판단 결과 임계값 미만이라면, 상기 소스 이미지의 추가 수집이 필요하지 않다고 결정하는 단계 중 어느 한 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 (b-3) 단계에서의 유사도 산정은, 유클리디안 거리(Euclidean distance)를 이용하여 산정할 수 있다.
일 실시 예에 따르면, 상기 (c) 단계의 얼굴 합성 모델은, 생성적 적대 신경망((Generative Adversarial Network, GAN)을 포함하는 하나 이상의 기계 학습(Machine Learning, ML) 모델일 수 있다.
일 실시 예에 따르면, 상기 (d) 단계는, (d-1) 상기 생성된 얼굴 합성 이미지와 상기 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 소정의 랜드마크를 각각 제외시키고, 상기 소정의 랜드마크를 제외시킨 각각의 이미지와 합성 영역 윤곽 마스크 이미지를 합성하여 랜드마크 제외 이미지를 생성하는 단계, (d-2) 상기 생성한 랜드마크 제외 이미지와 상기 기초 데이터가 포함하는 타겟 이미지, 상기 랜드마크 제외 이미지와 얼굴 합성 이미지 각각에 하나 이상의 색상 모델을 적용하여 피부톤 유사도를 산정하는 단계, (d-3) 상기 하나 이상의 색상 모델을 함수로 하되, 상기 함수에 입력되는 하나 이상의 변수들에 대하여 최적화 기법을 적용해 상기 산정한 피부톤 유사도를 최소화시키는 변수를 탐색하는 단계 및 (d-4) 상기 탐색한 변수를 상기 생성한 얼굴 합성 이미지에 적용시키는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 (d-1) 단계는, (d-1-1) 상기 생성된 얼굴 합성 이미지와 상기 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지 각각에서 복수 개의 랜드마크를 추출하는 단계, (d-1-2) 상기 추출한 복수 개의 랜드마크 각각에 대하여 눈썹, 눈, 코 및 입술의 윤곽을 남기고 나머지를 제거하는 단계, (d-1-3) 상기 나머지를 제거한 눈썹, 눈, 코 및 입술의 윤곽을 포함하는 랜드마크 각각에 대하여 눈썹에 대한 랜드마크의 위치를 조정하는 단계, (d-1-4) 상기 위치를 조정한 눈썹에 대한 랜드마크와 눈, 코 및 입술의 윤곽을 포함하는 랜드마크의 윤곽선을 그리고 상기 윤곽선의 내부를 채우는 단계, (d-1-5) 상기 생성된 얼굴 합성 이미지와 상기 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 상기 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외 - 마스킹 처리 - 시키는 단계 및 (d-1-6) 상기 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외시킨 얼굴 합성 이미지 및 타겟 이미지와 합성 영역 윤곽 마스크 이미지를 전부 합성하여 랜드마크 제외 이미지를 생성하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 (d-1-3) 단계에서의 눈썹에 대한 랜드마크의 위치 조정은, 상기 나머지를 제거한 눈썹에 대한 랜드마크의 중간 지점에서 상기 나머지를 제거한 코의 최상단 랜드마크의 "?향으?* 조정할 수 있다.
일 실시 예에 따르면, 상기 (d-1-4) 단계에서 그린 랜드마크의 윤곽선은, 상기 생성된 얼굴 합성 이미지가 포함하는 인물 - 제1 인물의 얼굴 및 표정에 제2 인물의 얼굴이 합성된 인물- 의 얼굴 크기, 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 크기 각각에 따라 두께가 유동적으로 조절될 수 있다.
일 실시 예에 따르면, 상기 생성된 얼굴 합성 이미지가 포함하는 인물의 얼굴 크기 및 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 크기는 턱 랜드마크의 양쪽 끝 지점의 거리를 유클리디안 거리를 이용하여 산정하고, 상기 얼굴 크기에 대하여 산정한 유클리디안 거리를 상기 랜드마크의 윤곽선의 두께에 대응시킬 수 있다.
일 실시 예에 따르면, 상기 (d-2) 단계의 하나 이상의 색상 모델은, Gray 모델, RGB 모델, HSV(conic) 모델, HSV(cylindric) 모델 및 YCbCr(YUV) 모델 중 어느 하나 이상일 수 있다.
일 실시 예에 따르면, 상기 (d-3) 단계에서의 하나 이상의 변수들은, Blur/Sharpening 적용 강도, Super resolution 적용 강도 및 WCT2, GFPGAN, Histogram-matching을 포함하는 Color transfer method 종류 중 어느 하나 이상일 수 있다.
일 실시 예에 따르면, 상기 (d-3) 단계에서의 최적화 기법은, Bayesian optimization기법일 수 있다.
상기와 같은 본 발명에 따르면, 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 얼굴 합성 모델에 입력하기 이전에 유사도를 산정하는 전처리 프로세스를 거치게 함으로써 소스 이미지의 추가 수집 필요 여부를 결정하고, 필요하다고 결정되면 본 발명만의 독자적인 슛팅 가이드에 맞춰서 촬영된 하나 이상의 고품질 소스 이미지를 추가로 수집하여 얼굴 합성 모델에 입력하는바, 생성적 적대 신경망 모델을 이용하는 얼굴 합성 모델의 학습 효율을 비약적으로 향상시킴으로써 완성도 높은 얼굴 합성 결과를 제공할 수 있다는 효과가 있다.
또한, 생성적 적대 신경망 모델을 이용하는 얼굴 합성 모델을 채택함으로써 얼굴 합성 모델의 사용이 반복될수록 생성자와 감별자의 경쟁이 심화되어 더욱 정교한 얼굴 합성 이미지의 생성이 가능할 것이나, 생성한 얼굴 합성 이미지에 대하여 피부톤을 최적화시키는 후보정 프로세스를 부가함으로써 종래의 딥페이크 기술 대비, 보다 완성도 높은 합성 결과를 제공할 수 있다는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명을 통해 제공하는 얼굴 합성 서비스의 개요를 설명하기 위한 도면이다.
도 2는 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치가 포함하는 전체 구성을 나타낸 도면이다.
도 3은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법의 대표적인 단계를 나타낸 순서도이다.
도 4는 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 기초 데이터의 전처리에 관한 S320 단계를 구체화한 순서도이다.
도 5는 얼굴에서 추출한 68개의 랜드마크를 예시적으로 도시한 도면이다.
도 6은 사람의 자세를 기준으로 한 롤, 피치 및 요를 예시적으로 도시한 도면이다.
도 7은 타겟 이미지와 소스 이미지에 대하여 산정한 유사도를 시각화한 모습을 예시적으로 도시한 도면이다.
도 8은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 소스 이미지를 추가적으로 수집하는 모습을 예시적으로 도시한 도면이다.
도 9는 슛팅 가이드에 따라 7대의 카메라가 촬영한 제2 인물의 소스 이미지를 예시적으로 도시한 도면이다.
도 10은 도 1에 예시적으로 도시된 타겟 이미지와 소스 이미지를 얼굴 합성 모델에 입력하여 생성된 얼굴 합성 이미지를 예시적으로 도시한 도면이다.
도 11은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 피부톤 후보정에 관한 S340 단계를 구체화한 순서도이다.
도 12는 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 랜드마크 제외 방법에 관한 S340-1 단계를 구체화한 순서도이다.
도 13은 얼굴 합성 이미지에서 복수 개의 랜드마크를 추출한 모습을 예시적으로 도시한 도면이다.
도 14는 도 13에 도시된 도면에서 눈썹, 눈, 코 및 입술의 윤곽에 대한 랜드마크를 남기고 나머지를 제거한 모습을 예시적으로 도시한 도면이다.
도 15는 눈썹에 대한 랜드마크의 위치 조정 모습을 예시적으로 도시한 도면이다.
도 16은 윤곽선의 두께를 소정의 절대값으로 사용했을 경우 얼굴 전체가 가려지는 상황을 예시적으로 도시한 도면이다.
도 17은 도 16에 도시된 도면에서 윤곽선의 두께를 얼굴 크기에 따른 유동값으로 대응시킨 결과를 예시적으로 도시한 도면이다.
도 18은 랜드마크 제외 이미지를 생성하는 모습을 예시적으로 도시한 도면이다.
도 19는 피부톤 유사도 산정을 위한 5가지 색상 모델의 개념도를 예시적으로 도시한 도면이다.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다.
본 명세서에서 개시되는 실시 예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시 예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시 예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시 예들로 한정되는 것을 의도하지 않는다.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.
또한, 어떤 구성요소들을 포함한다는 표현은 "개방형"의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
나아가 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.
이하에서는 도면들을 참조하여 본 발명의 각 실시 예들에 대해 살펴보기로 한다.
먼저, 도 1은 본 발명을 통해 제공하는 얼굴 합성 서비스의 개요를 설명하기 위한 것으로써, 본 서비스의 개념은 딥페이크 기술과 같이 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지(상단 이미지)와 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 소스 이미지(하단 이미지)를 합성한 얼굴 합성 이미지(우측 이미지)를 제공하는 것을 기본 골자로 하며, 얼굴 합성 이미지를 사용하는 용도에 대해서는 별도로 규정하지 않음을 미리 밝혀두는 바이다.
도 2는 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100)가 포함하는 전체 구성을 나타낸 도면이다.
그러나 이는 본 발명의 목적을 달성하기 위한 바람직한 실시 예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있고, 어느 한 구성이 수행하는 역할을 다른 구성이 함께 수행할 수도 있음은 물론이다.
본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100)는 프로세서(10), 네트워크 인터페이스(20), 메모리(30), 스토리지(40) 및 이들을 연결하는 데이터 버스(50)를 포함할 수 있으며, 기타 본 발명의 목적을 달성함에 있어 요구되는 부가적인 구성들을 더 포함할 수 있음은 물론이라 할 것이다.
프로세서(10)는 각 구성의 전반적인 동작을 제어한다. 프로세서(10)는 CPU(Central Processing Unit), MPU(Micro Processer Unit), MCU(Micro Controller Unit) 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 형태의 프로세서 중 어느 하나일 수 있다. 아울러, 프로세서(10)는 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법을 수행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다.
네트워크 인터페이스(20)는 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100)의 유무선 인터넷 통신을 지원하며, 그 밖의 공지의 통신 방식을 지원할 수도 있다. 따라서 네트워크 인터페이스(20)는 그에 따른 통신 모듈을 포함하여 구성될 수 있다.
메모리(30)는 각종 정보, 명령 및/또는 정보를 저장하며, 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법을 수행하기 위해 스토리지(40)로부터 하나 이상의 컴퓨터 프로그램(41)을 로드할 수 있다. 도 2에서는 메모리(30)의 하나로 RAM을 도시하였으나 이와 더불어 다양한 저장 매체를 메모리(30)로 이용할 수 있음은 물론이다.
스토리지(40)는 하나 이상의 컴퓨터 프로그램(41) 및 대용량 네트워크 정보(42)를 비임시적으로 저장할 수 있다. 이러한 스토리지(40)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체 중 어느 하나일 수 있다.
컴퓨터 프로그램(41)은 메모리(30)에 로드되어, 하나 이상의 프로세서(10)가 (A) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 오퍼레이션, (B) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 오퍼레이션, (C) 상기 (B) 오퍼레이션 의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 오퍼레이션 및 (D) 상기 생성한 얼굴 합성 이미지를 후보정하는 오퍼레이션을 실행할 수 있다.
이상 간단하게 언급한 컴퓨터 프로그램(41)이 수행하는 오퍼레이션은 컴퓨터 프로그램(41)의 일 기능으로 볼 수 있으며, 보다 자세한 설명은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 대한 설명에서 후술하도록 한다.
데이터 버스(50)는 이상 설명한 프로세서(10), 네트워크 인터페이스(20), 메모리(30) 및 스토리지(40) 사이의 명령 및/또는 정보의 이동 경로가 된다.
이상 설명한 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100)는 네트워크 기능을 보유한 서버일 수 있으며, 인하우스 시스템 및 공간 임대형 시스템 등과 같은 유형의 물리적인 서버와 무형의 클라우드(Cloud) 서버 등과 같이 실질적인 구현 형태는 무방하다 할 것이다.
또한, 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100)는 서버뿐만 아니라 네트워크 기능을 보유한 사용자 단말일 수도 있는바, 최근 사용자 단말의 성능이 비약적으로 향상됨에 따라 서버에 준하는 연산을 수행할 수 있기 때문이다. 예를 들어, 사용자 단말은 스마트폰, PDA, PDP, 테블릿 PC, 스마트 워치, 스마트 글라스, 노트북 PC 등과 같이 휴대가 가능한 포터블(Portable) 단말일 수 있으며, 데스크톱 PC, 키오스크 등과 같은 설치형 단말일 수도 있다 할 것이다.
이하, 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100)가 서버인 경우를 전제로(이하, "서비스 서버"로 명명하도록 한다) 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 대하여 도 3 내지 도 19를 참조하여 설명하도록 한다.
도 3은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법의 대표적인 단계를 나타낸 순서도이다.
그러나 이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이며, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다.
우선, 서비스 서버(100)가 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집한다(S310).
여기서 수집은 수신의 의미까지 포함하는 광의의 개념이며, 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지는 앞선 도 1에서의 상단 이미지인바, 쉽게 말하면 얼굴만을 다른 사람의 얼굴로 변경하고자 하는 인물이 담긴 이미지를 의미하며, 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 소스 이미지는 앞선 도 1에서의 하단 이미지인바, 다른 사람의 얼굴에 합성될 얼굴을 가진 인물이 담긴 이미지를 의미하고, 타겟 이미지 및 소스 이미지를 포함하여 기초 데이터라고 명명하도록 한다.
이러한 기초 데이터 중, 소스 이미지는 하나 이상, 보다 구체적으로 복수 개의 소스 이미지를 최대한 다양하게 수집하는 것이 바람직한바, 타겟 이미지에 대하여 최적의 얼굴 합성 이미지를 생성할 수 있는 소스 이미지를 자유롭게 선택하여 얼굴 합성을 진행할 수 있기 때문이다.
한편, 다시 도 1을 참조하면, 타겟 이미지가 포함하는 제1 인물, 소스 이미지가 포함하는 제2 인물 모두 동일한 구도에서 어깨선 바로 밑까지 이미지에 포함되고, 얼굴이 이미지의 중앙 근처에 배치되어 있음을 확인할 수 있는바, 필수적인 것은 아닐 것이나 두 이미지가 포함하는 인물의 구도가 동일/유사하다면 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율이 향상될 수 있으므로 가급적 인물의 구도가 동일/유사한 타겟 이미지 및 소스 이미지를 기초 데이터로 수집함이 바람직하다 할 것이다.
그러나 그럼에도 불구하고, 두 이미지가 포함하는 인물의 구도가 동일/유사하지 않은 경우가 빈번하게 발생할 수 있으며, 소스 이미지가 불명확한 경우, 해상도가 낮은 경우, 두 인물의 표정이 지나치게 상이한 경우 등과 같이 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 저하시키는 다양한 상황이 발생할 수 있는바, 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법은 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 향상시키기 위한 소스 이미지 추가 수집 방법을 포함하고 있으며, S330 단계에 대한 설명에서 후술하도록 한다.
기초 데이터를 수집했다면, 서비스 서버(100)가 수집한 기초 데이터를 전처리하여 소스 이미지의 추가 수집 필요 여부를 결정한다(S320).
여기서의 전처리는 타겟 이미지와 소스 이미지가 각각 포함하는 제1 인물의 얼굴 데이터 그리고 제2 인물의 얼굴 데이터를 분석하는 것을 의미하는바, S320 단계를 통해 최적의 데이터 셋을 확보할 수 있다. 이하 자세히 설명하도록 한다.
도 4는 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 기초 데이터의 전처리에 관한 S320 단계를 구체화한 순서도이다.
그러나 이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이며, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다.
우선, 서비스 서버(100)가 타겟 이미지가 포함하는 제1 인물의 얼굴 및 소스 이미지가 포함하는 제2 인물의 얼굴에서 복수 개의 랜드마크(Land mark)를 각각 추출한다(S320-1).
여기서 랜드마크는 통상적인 얼굴 인식 기술에서 활용되는 얼굴의 랜드마크를 의미하는바, 얼굴 윤곽선, 눈, 코, 입에 관한 68개의 랜드마크를 추출함이 보편적이라 할 것이며, 이를 도 5에 예시적으로 도시해 놓았다.
한편, S310 단계에 대한 설명에서 소스 이미지는 하나 이상, 보다 구체적으로 복수 개의 소스 이미지를 최대한 다양하게 수집하는 것이 바람직하다고 했던바, 복수 개의 소스 이미지를 수집한 경우 각각의 소스 이미지가 포함하는 제2 인물의 얼굴에서 복수 개의 랜드마크를 각각 추출한다 할 것이다.
랜드마크를 각각 추출했다면, 서비스 서버(100)가 제1 인물의 얼굴에서 추출한 복수 개의 랜드마크를 이용하여 제1 인물의 얼굴에 대한 롤(Roll), 피치(Pitch) 및 요(Yaw)를 산출하고, 제2 인물의 얼굴에서 추출한 복수 개의 랜드마크를 이용하여 제2 인물의 얼굴에 대한 롤, 피치 및 요를 산출한다(S320-2).
S320-1 단계에서 추출한 복수 개의 랜드마크 각각은, 고유의 좌표를 가지고 있을 것이며, 이를 이용하여 타겟 이미지가 포함하는 제1 인물의 얼굴 및 소스 이미지가 포함하는 제2 인물의 얼굴 각각에 대한 롤, 피치 및 요를 산출할 수 있다.
도 6에는 사람의 자세를 기준으로 한 롤, 피치 및 요를 예시적으로 도시해 놓은바, 롤, 피치 및 요의 산출을 통해 x축, y축 및 z축 3차원 공간에 대하여 제1 인물 및 제2 인물의 얼굴이 어느 정도 회전한 상태인지를 파악할 수 있다.
한편, S320-1 단계에서 소스 이미지가 복수 개인 경우, 복수 개의 소스 이미지 각각이 포함하는 제2 인물의 얼굴에 대한 복수 개의 랜드마크를 각각 추출했다면, 이들 각각 추출한 복수 개의 랜드마크를 이용하여 각각의 소스 이미지가 포함하는 제2 인물의 얼굴에 대한 롤, 피치 및 요를 산출한다 할 것이다.
롤, 피치 및 요를 산출했다면, 서비스 서버(100)가 산출한 제1 인물의 얼굴에 대한 롤, 피치 및 요와 제2 인물의 얼굴에 대한 롤, 피치 및 요를 이용하여 타겟 이미지와 소스 이미지의 유사도를 산정한다(S320-3).
여기서의 유사도 산정은 유클리디안 거리(Euclidean distance)를 이용하여 산정하는바, 유클리디안 거리는 데이터 분석에 있어서 유사도를 산정하는 공지된 분석 기법이며 유클리디안 유사도(Euclidean Similarity)라고도 하고, 다음과 같은 수학식 1에 의해 산정될 수 있다.
수학식 1: Euclidean distance (L2) =
여기서 Pd, Yd, Rd각각은 타겟 이미지의 피치, 요, 롤 값이고, Ps, Ys, Rs각각은 소스 이미지의 피치, 요, 롤 값이다.
이와 같이 유사도의 산정이 유클리디안 거리에 따르기 때문에, S320-3 단계에서 산정하는 유사도는 산정된 유클리디안 거리로 볼 수 있으며, 서비스 서버(100)가 S320-2 단계에 따라 복수 개의 소스 이미지가 포함하는 제2 인물의 얼굴에 대한 롤, 피치 및 요를 각각 산출한 경우, 이들에 따른 벡터값 각각과 타겟 이미지가 포함하는 제1 인물의 얼굴에 대한 롤, 피치 및 요에 따른 벡터값을 유클리디안 거리를 산정하는 수학식 1에 대입하여 각각의 유클리디안 거리를 산정할 수 있다.
한편, 서비스 서버(100)는 S320-3 단계에서 산정한 타겟 이미지와 소스 이미지의 유사도를 시각화하여 나타낼 수도 있는바, 도 7에 이를 예시적으로 도시해 놓았으며, 이를 통해 유사도를 한눈에 손쉽게 식별할 수 있음과 더불어 최적의 데이터 셋을 확보할 수 있다는 효과가 있다.
유사도까지 산정했다면, 서비스 서버(100)가 산정한 타겟 이미지와 소스 이미지의 유사도가 임계값 이상인지 판단하며(S320-4), 판단 결과 임계값 이상이라면, 소스 이미지의 추가 수집이 필요하다고 결정하며(S320-5), 판단 결과 임계값 미만이라면, 소스 이미지의 추가 수집이 필요하지 않다고 결정한다(S320-6).
여기서 임계값은 S320-3 단계에서 산정한 유사도, 즉 유클리디안 거리를 기준으로 타겟 이미지가 포함하는 제1 인물의 얼굴 각도와 소스 이미지가 포함하는 제2 인물의 얼굴 각도가 동일/유사한 각도를 나타내는지 여부를 결정하는 기준이 되는 값인바, 예를 들어 5일 수 있으며, 서비스 서버(100)의 운영자의 설정에 따라 이와 상이한 임계값을 설정할 수 있음은 물론이라 할 것이다.
S320-4 단계의 판단 결과 산정한 유사도, 즉 유클리디안 거리가 임계값 이상이라면, 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 향상시킬 수 있는 적합한 소스 이미지가 없는 것으로 보아 앞서 S310 단계에서 설명을 보류한 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 향상시키기 위한 소스 이미지 추가 수집 방법에 따라 촬영된 하나 이상의 소스 이미지를 추가적으로 수집하며, S320-4 단계의 판단 결과 산정한 유사도, 즉 유클리디안 거리가 임계값 미만이라면 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 향상시킬 수 있는 소스 이미지가 존재하는 것으로 보아 S330 단계가 수행된다.
한편, 소스 이미지가 복수 개인 경우, 즉 S320-3 단계에서 복수 개의 소스 이미지가 포함하는 제2 인물의 얼굴에 대한 롤, 피치 및 요에 따른 벡터값 각각과 타겟 이미지가 포함하는 제1 인물의 얼굴에 대한 롤, 피치 및 요에 따른 벡터값을 유클리디안 거리를 산정하는 수학식 1에 대입하여 각각의 유클리디안 거리를 산정한 경우, 산정한 각각의 유클리디안 거리와 임계값을 비교하여 단 하나의 유클리디안 거리라도 임계값 미만이라고 판단된다면, 소스 이미지의 추가 수집이 필요하지 않다고 결정함으로써 해당 유클리디안 거리를 산정하는데 이용된 소스 이미지를 기초로 후술할 얼굴 합성이 진행될 수 있다 할 것이며, 산정한 각각의 유클리디안 거리와 임계값을 비교하여 모든 유클리디안 거리가 임계값 이상이라고 판단된다면, 소스 이미지의 추가 수집이 필요하다고 결정함으로써 앞서 S310 단계에서 설명을 보류한 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 향상시키기 위한 소스 이미지 추가 수집 방법에 따라 촬영된 하나 이상의 소스 이미지를 추가적으로 수집하게 될 것이다.
다시 도 3에 대한 설명으로 돌아가도록 한다.
S320 단계에 따라 소스 이미지의 추가 수집 필요 여부를 결정했으며, 결정 결과 소스 이미지의 추가 수집이 필요하지 않다면, 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성한다(S330).
S330 단계는 얼굴을 합성하는 본격적인 단계인바, 이에 대한 설명을 하기에 앞서, 앞서 설명을 보류한 얼굴 합성의 완성도 및 후술할 얼굴 합성 모델의 학습 효율을 향상시키기 위한 소스 이미지 추가 수집 방법에 대하여 설명하도록 한다.
도 8은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 소스 이미지를 추가적으로 수집하는 모습을 예시적으로 도시한 도면이다.
앞서 S320 단계에 대한 설명에서 유사도가 임계값 이상이라면 소스 이미지의 추가 수집이 필요하다고 결정했던바, 추가 수집하는 소스 이미지는 유사도를 산정하였을 때 확실하게 임계값 미만이 될 수 있을 정도의 양질의 데이터이어야 하며, 소스 이미지 추가 수집 방법은 이를 달성하기 위한 촬영 조건으로써 소정의 촬영 조건을 나타내는 슛팅 가이드(Shooting Guide)라 할 수 있다.
도 8을 참조하면, 중앙에 배치된 제2 인물을 5대의 카메라가 촬영하고 있음을 확인할 수 있는바, 5대의 카메라 모두 FHD 1920 Х 1080 이상인 카메라를 사용할 것을 권장하며, 정면, 우측 상단° 20 내지 30° 중 어느 한 위치, 좌측 상단 20°내지 30° 중 어느 한 위치, 우측 하단 10° 내지 20° 중 어느 한 위치 및 좌측 하단 10° 내지 20° 중 어느 한 위치 각각에서, 제2 인물의 두 눈이 전부 보이도록 촬영하는 조건이 이상의 슛팅 가이드일 수 있고, 도 8에는 우측 상단과 좌측 상단에 30 ° 위치에서, 우측 하단과 좌측 하단에 15°위치에서 카메라가 예시적으로 촬영하고 있다.
이러한 슛팅 가이드는 전문 촬영기사에 의해 설치되는 전문 촬영 조건이 요구되지 않는 비교적 간단한 조건인바, 카메라는 해상도만 만족한다면 DSLR뿐만 아니라 스마트폰 카메라를 사용하여도 무방하고, 부드럽고 콘트라스트가 강하지 않은 부드러운 조명, 예를 들어 일반 형광등을 조명으로 사용할 수도 있으나, 흔들림 없이 트라이포드의 고정은 필요하다 할 것이다.
또한, 촬영의 경우 5대의 카메라를 각자의 위치에 설치한 상태에서 제2 인물을 동시에 촬영하는 것이 가장 바람직할 것이나, 1대의 카메라로 한 위치에서 촬영하고, 그 다음 위치를 옮겨 순차적으로 촬영하는 것도 가능할 것인바, 제2 인물이 최대한 움직이지 않는다는 전제가 필요하다 할 것이다.
한편, 슛팅 가이드는 이상 설명한 5대의 카메라의 위치뿐만 아니라 제2 인물에 대하여 두 눈이 전부 보이는 상태에서 최대의 우측 위치 및 두 눈이 전부 보이는 상태에서 최대의 좌측 위치에서 촬영하는 조건, 즉 2대의 카메라를 더 포함하여 전체 7대의 카메라로 촬영하는 조건을 포함할 수 있을 것인바, 슛팅 가이드에 따른 촬영을 통해 수집되는 소스 이미지의 개수가 많아질 것이므로 카메라가 5대인 경우보다 양질의 소스 이미지를 수집할 수 있다 할 것이다.
이상 설명한 슛팅 가이드는 촬영하는 카메라에 대한 촬영 조건이며, 촬영 대상인 인물에 대한 촬영 조건, 보다 구체적으로 소스 이미지가 포함하는 제2 인물에 대한 촬영 조건을 더 포함할 수 있는바, 제2 인물에 대한 촬영 조건은 제2 인물에 대하여 2분 이상의 촬영 시간을 확보하되, 고개를 자연스럽게 상하/좌우로 천천히 돌리면서 촬영하고, 타겟 이미지가 포함하는 제1 인물의 표정과 최대한 동일하거나 유사한 표정을 짓되, 머리카락, 마이크, 손 등으로 인해 얼굴 전면 중 일부라도 가림 없이 이마와 눈썹이 나오도록 촬영하는 조건이 제2 인물에 대한 촬영 조건일 수 있으며, 이러한 제2 인물에 대한 촬영 조건과 카메라에 대한 촬영 조건 모두를 만족시킨 경우 가장 양질의 소스 이미지를 수집할 수 있다 할 것이다.
도 9에는 슛팅 가이드에 따라 7대의 카메라가 촬영한 제2 인물의 소스 이미지를 예시적으로 도시한바, 모든 이미지 상에서 제2 인물의 두 눈이 전부 보이고 머리카락도 잘리지 않았으며, 얼굴 전면 중 일부도 가려지지 않았음을 확인할 수 있다.
이상 설명한 슛팅 가이드에 맞춰서 촬영된 소스 이미지는 S320 단계에서의 결정 결과에 따라 소스 이미지의 추가 수집을 위해 촬영된 소스 이미지일 수 있으나, S310 단계에서 수집하는 하나 이상의 소스 이미지 자체를 슛팅 가이드에 맞춰서 촬영한 이미지로 수집함으로써 S320 단계에서의 결정 결과가 소스 이미지의 추가 수집이 필요하지 않다고 결정해 곧바로 S330 단계가 수행되게 할 수도 있을 것이다.
한편, S330 단계에 대한 설명으로 돌아가면, 얼굴 합성 모델에 타겟 이미지와 하나 이상의 소스 이미지를 포함하는 기초 데이터가 인풋 데이터로 입력됨으로써 아웃풋 데이터로서 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지가 생성되는바, 여기서 얼굴 합성 모델은 공지된 딥페이크 기술이 적용된 생성적 적대 신경망(Generative Adversarial Network, GAN)을 포함하는 하나 이상의 기계 학습(Machine Learning, ML) 모델일 수 있으며, 도 1에 예시적으로 도시된 타겟 이미지와 소스 이미지를 얼굴 합성 모델에 입력하여 생성된 얼굴 합성 이미지를 도 10에 예시적으로 도시해 놓았다.
얼굴 및 표정 합성에 관한 S330 단계를 수행함에 이용되는 얼굴 합성 모델이 생성적 적대 신경망 모델이기에 생성자는 실제 데이터를 학습하고 이를 바탕으로 실제에 가까운 거짓 데이터를 생성하고, 감별자는 생성자가 생성한 데이터가 실제인지 거짓인지를 판별할 것인바, 얼굴 합성 모델의 사용이 반복될수록 생성자와 감별자의 경쟁이 심화되어 더욱 정교한 얼굴 합성 이미지의 생성이 가능할 것이나, 모델에 입력되는 기초 데이터 중 하나 이상의 소스 이미지가 앞서 설명한 슛팅 가이드에 맞춰서 촬영된 하나 이상의 소스 이미지인 경우, 얼굴 합성 모델의 학습 효율이 비약적으로 향상되어 다른 소스 이미지를 이용한 경우 대비, 같은 빈도의 사용에서 보다 완성도 높은 얼굴 합성 이미지를 생성할 수 있다 할 것이다. 이는 다른 소스 이미지를 이용한 후자의 경우 데이터의 문제로 인해 얼굴 일부가 생성되지 않는 등 얼굴 합성 이미지 생성에 치명적인 영향을 미칠 수가 있으며, 이 경우 데이터를 보강하여 학습을 다시 수행해야 할 것임에 반해, 슛팅 가이드에 맞춰서 촬영된 하나 이상의 소스 이미지를 이용한 경우 이러한 상황 자체가 발생할 여지가 없기 때문이다.
한편, 학습에 대한 보편적인 프로세스가 데이터 수집 - 데이터 처리 - 모델 학습을 따르기 때문에 S330 단계에서의 얼굴 합성 모델의 경우 S310 단계 및 S320 단계를 수 차례 반복함으로써 일정 수준 이상의 학습이 완료된 얼굴 합성 모델일 수 있으며, S310 단계 및 S320 단계가 최초로 수행됨으로써 그 이전까지 학습이 전혀 진행되지 않은 얼굴 합성 모델일 수 도 있고, 이 경우 S330 단계에서 얼굴 합성 이미지가 최초로 생성됨으로써 얼굴 합성 모델이 그 결과를 학습할 것이며, 그 이후에 수집되는 기초 데이터에 따라 생성되는 얼굴 합성 이미지는 그 이전의 학습 결과를 반영한다 할 것이다.
S330 단계에 따라 얼굴 합성 이미지까지 생성했다면 얼굴 합성은 완료된 것으로 볼 수 있으나, 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법은 피부톤을 최적화하는 후보정 작업을 추가적으로 수행함으로써 종래의 딥페이크 기술들과는 차별화되는 완성도 높은 얼굴 합성 이미지를 생성할 수 있다. 이는 S340 단계에 관한 것이며, 이하 설명하도록 한다.
얼굴 합성 이미지까지 생성했다면, 서비스 서버(100)는 생성한 얼굴 합성 이미지의 피부톤을 후보정한다(S340)
특허 명세서에 도면으로 첨부됨으로 인한 해상도 문제에 따라 도 10에 도시된 얼굴 합성 이미지에서 명확하게 확인이 어려울 수도 있으나, S330 단계에 따라 생성된 얼굴 합성 이미지가 포함하는 인물을 제3 인물 - 제1 인물의 얼굴 및 표정에 제2 인물의 얼굴이 합성된 인물 - 이라 하였을 때, 제3 인물의 피부톤과 합성 대상 인물인 제1 인물의 피부톤은 미세하게라도 상이할 수 있으며, 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법의 S340 단계에 따르면 상이한 피부톤이 최적화될 수 있다.
도 11은 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 피부톤 후보정에 관한 S340 단계를 구체화한 순서도이다.
그러나 이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이며, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다.
우선, 서비스 서버(100)가 S330 단계에서 생성된 얼굴 합성 이미지와 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 소정의 랜드마크를 각각 제외시키고, 소정의 랜드마크를 제외시킨 각각의 이미지를 합성하여 랜드마크 제외 이미지를 생성한다(S340-1).
이는 얼굴에서 랜드마크를 제외하고 피부톤만으로의 유사도를 산정하기 위한 것인바, 소위 랜드마크 제외 방법이라 할 수 있으며, 도 12를 참조하여 보다 자세히 설명하도록 한다.
도 12는 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 있어서, 랜드마크 제외 방법에 관한 S340-1 단계를 구체화한 순서도이다.
그러나 이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이며, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다.
우선, 서비스 서버(100)가 생성된 얼굴 합성 이미지와 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지 각각에서 복수 개의 랜드마크를 추출한다(S340-1-1).
여기서 추출하는 복수 개의 랜드마크는 앞서 S320-1 단계에서 설명한 복수 개의 랜드마크와 동일하기에 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 하며, 도 13에 얼굴 합성 이미지에서 복수 개의 랜드마크를 추출한 모습을 예시적으로 도시해 놓았다.
얼굴 합성 이미지 및 타겟 이미지 각각에서 복수 개의 랜드마크를 추출했다면, 서비스 서버(100)가 추출한 복수 개의 랜드마크 각각에 대하여 눈썹, 눈, 코 및 입술의 윤곽을 남기고 나머지를 제거한다(S340-1-2).
S340-1-1 단계에서 추출한 복수 개의 랜드마크는 앞선 도 5에서도 확인할 수 잇듯이 턱선과 콧구멍, 입 등과 같이 불필요한 랜드마크가 포함되어 있으며, S340-1-2 단계에서는 도 14에 예시적으로 도시한 바와 같이 이들 랜드마크를 제거하고 눈썹, 눈, 코 및 입술의 윤곽만을 남기는 것이며, 이러한 작업을 얼굴 합성 이미지와 타겟 이미지 각각에서 모두 수행한다.
복수 개의 랜드마크 각각에 대하여 눈썹, 눈, 코 및 입술의 윤곽을 남기고 나머지를 제거했다면, 서비스 서버(100)가 나머지를 제거한 눈썹, 눈, 코 및 입술의 윤곽을 포함하는 랜드마크 각각에 대하여 눈썹에 대한 랜드마크의 위치를 조정한다(S340-1-3).
눈썹에 대한 랜드마크의 경우 보통 눈썹 윗부분을 기준으로 추출하기 때문에 눈썹 전체에 대하여 후술할 마스킹 처리하기에 적합하지 않은바, 이로 인해 눈썹에 대한 랜드마크의 위치를 조정해야 할 필요성이 있다. 이를 도 15에 예시적으로 도시해 놓았으며, 눈썹에 대한 랜드마크의 위치 조정은 S340-1-2 단계에서 나머지를 제거한 눈썹에 대한 랜드마크의 중간 지점(도 15의 상단 도면에서 눈썹 중간 붉은 지점)에서 나머지를 제거한 코의 최상단 랜드마크(도 15의 상단 도면에서 코 최상단 붉은 지점)의 "??*, 즉 상단에서 하단 방향으로 조정하는 것이고, 그 결과 도 15의 하단 도면과 같이 눈썹의 가운데로 눈썹에 대한 랜드마크가 이동하게 되며, 이러한 작업을 얼굴 합성 이미지와 타겟 이미지 각각에서 모두 수행한다.
눈썹에 대한 랜드마크의 위치를 조정했다면, 서비스 서버(100)가 위치를 조정한 눈썹에 대한 랜드마크와 눈, 코 및 입술의 윤곽을 포함하는 랜드마크의 윤곽선을 그리고 윤곽선의 내부를 채운다(S340-1-4).
위치를 조정한 눈썹에 대한 랜드마크와 눈, 코 및 입술의 윤곽을 포함하는 랜드마크의 윤곽선을 그리는 것은 윤곽선을 도시한다는 의미이며, 윤곽선의 내부를 채운다는 것은 도시한 윤곽선 내부의 빈 공간을 윤곽선과 동일한 색으로 색칠한다는 것인바, 이를 통해 후술할 마스킹 처리가 용이하게 수행될 수 있다.
이러한 작업을 얼굴 합성 이미지와 타겟 이미지 각각에서 모두 수행하는바, 윤곽선의 두께를 소정의 절대값으로 사용했을 경우 윤곽선의 도시 및 내부를 채운다면 얼굴 크기가 서로 상이한 두 장의 이미지를 첨부한 도 16과 같이 얼굴 전체가 가려지는 상황이 발생할 여지가 있으므로 윤곽선의 두께를 유동적으로 조절할 필요성이 있다.
이를 위해 서비스 서버(100)는 생성된 얼굴 합성 이미지가 포함하는 제3 인물의 얼굴 크기 및 타겟 이미지가 포함하는 제1 인물의 얼굴 크기 각각에 따라 윤곽선의 두께를 유동적으로 조절할 수 있는바, 보다 구체적으로 생성된 얼굴 합성 이미지가 포함하는 제3 인물의 얼굴 크기, 타겟 이미지가 포함하는 제1 인물의 얼굴 크기 및 소스 이미지가 포함하는 제2 인물의 얼굴 크기는 턱 랜드마크의 양쪽 끝 지점의 거리를 유클리디안 거리를 이용하여 산정하고, 얼굴 크기에 대하여 산정한 유클리디안 거리를 랜드마크의 윤곽선의 두께에 대응시킴으로써 얼굴 크기에 따라 윤곽선의 두께가 유동적으로 조절될 수 있다.
이는 보다 쉽게 설명하면 얼굴이 큰 경우, 유클리디안 거리도 크게 산정되며, 이 경우 윤곽선의 두께가 두껍게 조절된다는 것이며, 얼굴이 작은 경우, 유클리디안 거리도 작게 산정되며, 이 경우 윤곽선의 두께가 얇게 조절된다는 것인바, 도 16에 대하여 윤곽선의 두께를 얼굴 크기에 따른 유동값으로 대응시킨 도 17을 참조하면, 얼굴 크기가 서로 상이한 두 장의 이미지에 있어서, 얼굴 크기가 큰 좌측 이미지에 사용된 윤곽선의 두께가 얼굴 크기가 이보다 작은 우측 이미지에 사용된 윤곽선의 두께보다 일정 수준 두꺼움을 확인할 수 있다.
윤곽선을 그리고 내부를 채우기까지 했다면, 서비스 서버(100)가 생성된 얼굴 합성 이미지와 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외 - 마스킹 처리 - 시키고(S340-1-5), 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외시킨 얼굴 합성 이미지및 타겟 이미지와 합성 영역 윤곽 마스크 이미지를 전부 합성하여 랜드마크 제외 이미지를 생성한다(S340-1-6).
앞서 설명을 보류했던 마스킹 처리란 특정 영역을 가리거나 제외시키는 이미지 처리 기법의 일종인바, 생성된 얼굴 합성 이미지와 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외 - 마스킹 처리 - 시키는 경우 순수한 피부색만 남은 얼굴 이미지를 획득할 수 있으며, 도 18의 상단 좌측부터 합성 영역 윤곽 마스크 이미지, 순수한 피부색만 남은 타겟 이미지, 순수한 피부색만 남은 얼굴 합성 이미지를 확인할 수 있으며, 하단에 이들 3개의 이미지를 합성하여 생성한 랜드마크 제외 이미지를 확인할 수 있다.
이상 설명한 S340-1-1 단계 내지 S340-1-6 단계에 따라 생성된 랜드마크 제외 이미지는 랜드마크가 제외된 상태에서 3개의 이미지 합성에 따른 순수한 피부색만을 나타내고 있는바, 랜드마크 제외 이미지는 피부색 최적화의 기초 데이터로 사용되며, 다시 도 11에 대한 설명으로 돌아가도록 한다.
랜드마크 제외 이미지를 생성했다면, 서비스 서버(100)가 생성한 랜드마크 제외 이미지와 기초 데이터가 포함하는 타겟 이미지, 상기 랜드마크 제외 이미지와 얼굴 합성 이미지 각각에 하나 이상의 색상 모델을 적용하여 피부톤 유사도를 산정한다(S340-2).
여기서 하나 이상의 색상 모델은 공지된 색상 모델인 Gray 모델, RGB 모델, HSV(conic) 모델, HSV(cylindric) 모델 및 YCbCr(YUV) 모델 중 어느 하나 이상일 수 있으며, 이들 모델을 이용하여 랜드마크 제외 이미지와 기초 데이터가 포함하는 타겟 이미지의 픽셀별로, 랜드마크 제외 이미지와 얼굴 합성 이미지의 픽셀별로 피부톤 유사도를 산정하는바, 각각의 모델의 개념도를 도 19에 예시적으로 도시하였으며, 세부적으로 설명하면, Gray 모델의 경우 밝기 정보만을 이용하기에 유사도의 산정은 밝기값(g) 차의 절대값인 |g1-g2|로, RGB 모델의 경우 두 픽셀의 r, g, b 값의 차이의 유클리디안 거리인 로, HSV(conic) 모델의 경우 hue(색조), saturation(채도), value(밝기) 3가지 성분으로 색을 표한하되, conic 모델 HSV 대응 공간 좌표로 변환한 x=s * cos(2π * h/255) * v/255, y=s * sin(2π * h/255) * v/255, z=v에서 로, HSV(cylindric) 모델의 경우 hue(색조), saturation(채도), value(밝기) 3가지 성분으로 색을 표한하되, cylindric 모델 HSV 대응 공간 좌표로 변환한 x=s * cos(2π * h/255), y=s * sin(2π * h/255), z=v에서 로, 마지막 YCbCr(YUV) 모델의 경우 RGB 에서 밝기 정보(y)와 색상 정보(Cb, Cr)을 분리하여 표현하는 색상 모델인바, 에서 로 피부톤 유사도를 산정할 수 있을 것이다.
피부톤 유사도까지 산정했다면, 서비스 서버(100)가 하나 이상의 색상 모델을 함수로 하되, 함수에 입력되는 하나 이상의 변수들에 대하여 최적화 기법을 적용해 산정한 피부톤 유사도를 최소화시키는 변수를 탐색한다(S340-3).
최적화(Optimization)이라 함은 어떤 임의의 함수 f(x)에 대하여, 그 값을 가장 크게 또는 작게 하는 해를 산정하는 과정이며, x는 이를 위해 함수에 대입되는 변수인바, S340-3 단계에서의 함수는 앞선 하나 이상의 색상 모델인 Gray 모델, RGB 모델, HSV(conic) 모델, HSV(cylindric) 모델 및 YCbCr(YUV) 모델 중 어느 하나 이상이 될 수 있고, x는 얼굴 합성시에 사용될 수 잇는 변수들로써 Blur/Sharpening 적용 강도, Super resolution 적용 강도 및 WCT2, GFPGAN, Histogram-matching을 포함하는 Color transfer method 종류 중 어느 하나 이상일 수 있다.
S340-3 단계에서는 이상 언급한 x의 값을 다양하게 변경해가면서 앞서 산정한 피부톤 유사도를 최소화시키는 변수를 찾아가는바, 최적화 기법과 관련하여 공지된 기법인 Bayesian optimization 기법을 적용할 수 있다.
여기서 Bayesian optimization 기법이란 이전까지의 사전 지식(일종의 실험 결과)를 반영해가면서 변수들을 탐색해가는 최적화 기법인바, 현재까지 조사된 데이터를 토대로 목적 함수를 추정하는 모델인 Surrogate 모델과 추정된 모델을 토대로 넣으면 좋을 법한 입력 데이터를 추천하는 함수인 Acquisition 함수를 포함하며, Acquisition 함수가 추천하는 최종적인 입력 데이터가 피부톤 유사도를 최소화시키는 변수에 해당할 수 있다.
피부톤 유사도를 최소화시키는 변수를 탐색했다면, 마지막으로 탐색한 변수를 생성한 얼굴 합성 이미지에 적용시킨다(S340-4).
S340-3 단계에서 탐색한 변수는 어떠한 색상 모델을 채택하였는지, 그리고 어떠한 변수들을 채택하여 변수를 탐색했는지에 따라 상이해질 수 있을 것인바, 서비스 서버(100)의 프로세서(10)를 병렬 프로세싱이 가능한 고성능 프로세서로 구현함으로써 모든 색상 모델에 대하여 모든 변수들을 Bayesian optimization 기법에 적용시켜 피부톤 유사도를 최소화시키는 변수를 각각 탐색하고, 이들 탐색한 변수들 모두를 얼굴 합성 이미지에 적용시키거나, 사용자 입력에 따라 색상 모델 및 변수들을 선택하여 탐색한 변수만을 얼굴 합성 이미지에 적용시킬 수도 있을 것이다.
지금까지 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 대하여 설명하였다. 본 발명에 따르면 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 얼굴 합성 모델에 입력하기 이전에 유사도를 산정하는 전처리 프로세스를 거치게 함으로써 소스 이미지의 추가 수집 필요 여부를 결정하고, 필요하다고 결정되면 본 발명만의 독자적인 슛팅 가이드에 맞춰서 촬영된 하나 이상의 고품질 소스 이미지를 추가로 수집하여 얼굴 합성 모델에 입력하는바, 생성적 적대 신경망 모델을 이용하는 얼굴 합성 모델의 학습 효율을 비약적으로 향상시킴으로써 완성도 높은 얼굴 합성 서비스를 제공할 수 있다. 또한, 생성적 적대 신경망 모델을 이용하는 얼굴 합성 모델을 채택함으로써 얼굴 합성 모델의 사용이 반복될수록 생성자와 감별자의 경쟁이 심화되어 더욱 정교한 얼굴 합성 이미지의 생성이 가능할 것이나, 생성한 얼굴 합성 이미지에 대하여 피부톤을 최적화시키는 후보정 프로세스를 부가함으로써 종래의 딥페이크 기술 대비, 보다 완성도 높은 합성 서비스를 제공할 수 있다.
한편, 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100) 및 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법은 모든 기술적 특징을 동일하게 포함하는 본 발명의 제3 실시 예에 따른 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램으로 구현할 수도 있는바, 이 경우 컴퓨팅 장치와 결합하여 (AA) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 단계, (BB) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계, (CC) 상기 (BB) 단계의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 단계 및 (DD) 상기 생성한 얼굴 합성 이미지의 피부톤을 후보정하는 단계를 실행할 수 있을 것이며, 중복 서술을 위해 자세히 기재하지는 않았지만 본 발명의 제1 실시 예에 따른 얼굴 합성 서비스를 제공하는 장치(100) 및 본 발명의 제2 실시 예에 따른 얼굴 합성 서비스를 제공하는 방법에 적용된 모든 기술적 특징은 본 발명의 제3 실시 예에 따른 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램에 모두 동일하게 적용될 수 있음은 물론이라 할 것이다.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
10: 프로세서
20: 네트워크 인터페이스
30: 메모리
40: 스토리지
41: 컴퓨터 프로그램
50: 정보 버스
100: 서비스 서버

Claims (18)

  1. 프로세서 및 메모리를 포함하는 장치를 통해 얼굴 합성 서비스를 제공하는 방법에 있어서,
    (a) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 단계;
    (b) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계;
    (c) 상기 (b) 단계의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 단계; 및
    (d) 상기 생성한 얼굴 합성 이미지의 피부톤을 후보정하는 단계;
    를 포함하되,
    상기 (b) 단계는, 상기 제1 인물의 얼굴 및 제2 인물의 얼굴로부터 추출한 복수 개의 랜드마크들을 이용하여 산출된 상기 타겟 이미지와 소스 이미지의 유사도에 따라 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계인 것을 특징으로 하는, 얼굴 합성 서비스를 제공하는 방법.
  2. 제1 항에 있어서,
    상기 (a) 단계의 소스 이미지는,
    소정의 촬영 조건인 슛팅 가이드(Shooting Guide)에 맞춰서 촬영된 하나 이상의 이미지이며,
    상기 슛팅 가이드는,
    해상도가 FHD 1920 Χ 1080 이상인 카메라로 상기 제2 인물에 대하여 정면, 우측 상단° 20 내지 30° 중 어느 한 위치, 좌측 상단 20°내지 30° 중 어느 한 위치, 우측 하단 10° 내지 20° 중 어느 한 위치 및 좌측 하단 10° 내지 20° 중 어느 한 위치 각각에서, 상기 제2 인물의 두 눈이 전부 보이도록 촬영하는 조건인,
    얼굴 합성 서비스를 제공하는 방법.
  3. 제2항에 있어서,
    상기 슛팅 가이드는,
    상기 제2 인물에 대하여 두 눈이 전부 보이는 상태에서 최대의 우측 위치 및 두 눈이 전부 보이는 상태에서 최대의 좌측 위치에서 촬영하는 조건을 더 포함하는,
    얼굴 합성 서비스를 제공하는 방법.
  4. 제2항에 있어서,
    상기 슛팅 가이드는,
    상기 제2 인물에 대한 촬영 조건을 더 포함하며,
    상기 제2 인물에 대한 촬영 조건은,
    상기 제2 인물에 대하여 2분 이상의 촬영 시간, 고개를 상하/좌우로 천천히 돌리며 촬영, 상기 타겟 이미지가 포함하는 제1 인물의 표정과 동일/유사한 표정, 얼굴 전면 중 일부라도 가림 없이 촬영하는 조건인,
    얼굴 합성 서비스를 제공하는 방법.
  5. 제1항에 있어서,
    상기 (b) 단계는,
    (b-1) 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 소스 이미지가 포함하는 제2 인물의 얼굴에서 복수 개의 랜드마크(Land mark)를 각각 추출하는 단계;
    (b-2) 상기 제1 인물의 얼굴에서 추출한 복수 개의 랜드마크를 이용하여 상기 제1 인물의 얼굴에 대한 롤(Roll), 피치(Pitch) 및 요(Yaw)를 산출하고, 제2 인물의 얼굴에서 추출한 복수 개의 랜드마크를 이용하여 상기 제2 인물의 얼굴에 대한 롤, 피치 및 요를 산출하는 단계;
    (b-3) 상기 산출한 제1 인물의 얼굴에 대한 롤, 피치 및 요와 제2 인물의 얼굴에 대한 롤, 피치 및 요를 이용하여 상기 타겟 이미지와 소스 이미지의 유사도를 산정하는 단계; 및
    (b-4) 상기 산정한 타겟 이미지와 소스 이미지의 유사도가 임계값 이상인지 판단하는 단계;
    를 포함하는 얼굴 합성 서비스를 제공하는 방법.
  6. 제5항에 있어서,
    상기 (b-4) 단계 이후에,
    (b-5) 상기 판단 결과 임계값 이상이라면, 상기 소스 이미지의 추가 수집이 필요하다고 결정하는 단계; 및
    (b-6) 상기 판단 결과 임계값 미만이라면, 상기 소스 이미지의 추가 수집이 필요하지 않다고 결정하는 단계;
    중 어느 한 단계를 더 포함하는 얼굴 합성 서비스를 제공하는 방법.
  7. 제5항에 있어서,
    상기 (b-3) 단계에서의 유사도 산정은,
    유클리디안 거리(Euclidean distance)를 이용하여 산정하는,
    얼굴 합성 서비스를 제공하는 방법.
  8. 제1항에 있어서,
    상기 (c) 단계의 얼굴 합성 모델은,
    생성적 적대 신경망((Generative Adversarial Network, GAN)을 포함하는 하나 이상의 기계 학습(Machine Learning, ML) 모델인,
    얼굴 합성 서비스를 제공하는 방법.
  9. 제1항에 있어서,
    상기 (d) 단계는,
    (d-1) 상기 생성된 얼굴 합성 이미지와 상기 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 소정의 랜드마크를 각각 제외시키고, 상기 소정의 랜드마크를 제외시킨 각각의 이미지와 합성 영역 윤곽 마스크 이미지를 합성하여 랜드마크 제외 이미지를 생성하는 단계;
    (d-2) 상기 생성한 랜드마크 제외 이미지와 상기 기초 데이터가 포함하는 타겟 이미지, 상기 랜드마크 제외 이미지와 얼굴 합성 이미지 각각 에 하나 이상의 색상 모델을 적용하여 피부톤 유사도를 산정하는 단계;
    (d-3) 상기 하나 이상의 색상 모델을 함수로 하되, 상기 함수에 입력되는 하나 이상의 변수들에 대하여 최적화 기법을 적용해 상기 산정한 피부톤 유사도를 최소화시키는 변수를 탐색하는 단계; 및
    (d-4) 상기 탐색한 변수를 상기 생성한 얼굴 합성 이미지에 적용시키는 단계;
    를 포함하는 얼굴 합성 서비스를 제공하는 방법.
  10. 제9항에 있어서,
    상기 (d-1) 단계는,
    (d-1-1) 상기 생성된 얼굴 합성 이미지와 상기 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지 각각에서 복수 개의 랜드마크를 추출하는 단계;
    (d-1-2) 상기 추출한 복수 개의 랜드마크 각각에 대하여 눈썹, 눈, 코 및 입술의 윤곽을 남기고 나머지를 제거하는 단계;
    (d-1-3) 상기 나머지를 제거한 눈썹, 눈, 코 및 입술의 윤곽을 포함하는 랜드마크 각각에 대하여 눈썹에 대한 랜드마크의 위치를 조정하는 단계;
    (d-1-4) 상기 위치를 조정한 눈썹에 대한 랜드마크와 눈, 코 및 입술의 윤곽을 포함하는 랜드마크의 윤곽선을 그리고 상기 윤곽선의 내부를 채우는 단계;
    (d-1-5) 상기 생성된 얼굴 합성 이미지와 상기 얼굴 합성 모델에 입력된 기초 데이터가 포함하는 타겟 이미지에서 상기 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외 - 마스킹 처리 - 시키는 단계; 및
    (d-1-6) 상기 내부를 채우고 그린 랜드마크의 윤곽선을 각각 제외시킨 얼굴 합성 이미지 및 타겟 이미지와 합성 영역 윤곽 마스크 이미지를 전부 합성하여 랜드마크 제외 이미지를 생성하는 단계;
    를 포함하는 얼굴 합성 서비스를 제공하는 방법.
  11. 제10항에 있어서,
    상기 (d-1-3) 단계에서의 눈썹에 대한 랜드마크의 위치 조정은,
    상기 나머지를 제거한 눈썹에 대한 랜드마크의 중간 지점에서 상기 나머지를 제거한 코의 최상단 랜드마크의 "?향으?* 조정하는,
    얼굴 합성 서비스를 제공하는 방법.
  12. 제10항에 있어서,
    상기 (d-1-4) 단계에서 그린 랜드마크의 윤곽선은,
    상기 생성된 얼굴 합성 이미지가 포함하는 인물 - 제1 인물의 얼굴 및 표정에 제2 인물의 얼굴이 합성된 인물- 의 얼굴 크기 및 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 크기 각각에 따라 두께가 유동적으로 조절되는,
    얼굴 합성 서비스를 제공하는 방법.
  13. 제12항에 있어서,
    상기 생성된 얼굴 합성 이미지가 포함하는 인물의 얼굴 크기 및 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 크기는 턱 랜드마크의 양쪽 끝 지점의 거리를 유클리디안 거리를 이용하여 각각 산정하고, 상기 얼굴 크기에 대하여 각각 산정한 유클리디안 거리를 상기 랜드마크의 윤곽선의 두께에 대응시킨,
    얼굴 합성 서비스를 제공하는 방법.
  14. 제9항에 있어서,
    상기 (d-2) 단계의 하나 이상의 색상 모델은,
    Gray 모델, RGB 모델, HSV(conic) 모델, HSV(cylindric) 모델 및 YCbCr(YUV) 모델 중 어느 하나 이상인,
    얼굴 합성 서비스를 제공하는 방법.
  15. 제9항에 있어서,
    상기 (d-3) 단계에서의 하나 이상의 변수들은,
    Blur/Sharpening 적용 강도, Super resolution 적용 강도 및 WCT2, GFPGAN, Histogram-matching을 포함하는 Color transfer method 종류 중 어느 하나 이상인,
    얼굴 합성 서비스를 제공하는 방법.
  16. 제9항에 있어서,
    상기 (d-3) 단계에서의 최적화 기법은,
    Bayesian optimization기법인
    얼굴 합성 서비스를 제공하는 방법.
  17. 하나 이상의 프로세서;
    네트워크 인터페이스;
    상기 프로세서에 의해 수행되는 컴퓨터 프로그램을 로드(Load)하는 메모리; 및
    대용량 네트워크 데이터 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
    상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서에 의해,
    (A) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 오퍼레이션;
    (B) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 오퍼레이션;
    (C) 상기 (B) 오퍼레이션의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 오퍼레이션; 및
    (D) 상기 생성한 얼굴 합성 이미지의 피부톤을 후보정하는 오퍼레이션;
    을 실행하되,
    상기 (B) 오퍼레이션은, 상기 제1 인물의 얼굴 및 제2 인물의 얼굴로부터 추출한 복수 개의 랜드마크들을 이용하여 산출된 상기 타겟 이미지와 소스 이미지의 유사도에 따라 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 오퍼레이션인 것을 특징으로 하는, 얼굴 합성 서비스를 제공하는 장치.
  18. 컴퓨팅 장치와 결합하여,
    (AA) 얼굴 변경 대상 인물인 제1 인물을 포함하는 타겟 이미지 및 변경할 얼굴의 대상 인물인 제2 인물을 포함하는 하나 이상의 소스 이미지를 포함하는 기초 데이터를 수집하는 단계;
    (BB) 상기 수집한 기초 데이터를 전처리하여 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계;
    (CC) 상기 (BB) 단계의 결정 결과 상기 소스 이미지의 추가 수집이 필요하지 않다면, 상기 전처리한 기초 데이터를 얼굴 합성 모델에 입력하여 상기 타겟 이미지가 포함하는 제1 인물의 얼굴 및 표정에 상기 소스 이미지가 포함하는 제2 인물의 얼굴을 합성한 얼굴 합성 이미지를 생성하는 단계; 및
    (DD) 상기 생성한 얼굴 합성 이미지의 피부톤을 후보정하는 단계;
    를 실행시키기 위한 것이고,
    상기 (BB)단계는, 상기 제1 인물의 얼굴 및 제2 인물의 얼굴로부터 추출한 복수 개의 랜드마크들을 이용하여 산출된 상기 타겟 이미지와 소스 이미지의 유사도에 따라 상기 소스 이미지의 추가 수집 필요 여부를 결정하는 단계인 것을 특징으로 하는,
    컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램.
KR1020210145232A 2021-10-28 2021-10-28 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치 KR102639187B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210145232A KR102639187B1 (ko) 2021-10-28 2021-10-28 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210145232A KR102639187B1 (ko) 2021-10-28 2021-10-28 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치

Publications (2)

Publication Number Publication Date
KR20230060726A KR20230060726A (ko) 2023-05-08
KR102639187B1 true KR102639187B1 (ko) 2024-02-22

Family

ID=86381400

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210145232A KR102639187B1 (ko) 2021-10-28 2021-10-28 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치

Country Status (1)

Country Link
KR (1) KR102639187B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102617915B1 (ko) 2023-06-02 2023-12-27 주식회사 포지큐브 이미지 생성 방법 및 그 시스템
KR102649764B1 (ko) 2023-07-19 2024-03-20 주식회사 비브스튜디오스 페이스 스왑 이미지 생성 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325988B (zh) 2017-07-31 2022-11-11 腾讯科技(深圳)有限公司 一种面部表情合成方法、装置及电子设备
CN111598818B (zh) * 2020-04-17 2023-04-28 北京百度网讯科技有限公司 人脸融合模型训练方法、装置及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Adrian Rosebrock, Detect eyes, nose, lips, and jaw with dlib, OpenCV, and Python, April 2017(2017.04.10.) 1부.*
Arman Savran ET AL, Face Pose Alignment with Event Cameras, Sensor Systems for Gesture Recognition, Volume 20, Issue 24, 10 Dec. 2020(2020.12.10.) 1부.*
Thao Nguyen-Trang, A New Efficient Approach to Detect Skin in Color Image Using Bayesian Classifier and Connected Component Algorithm, Mathematical Problems in Engineering, Volume 2018, 6 Aug. 2018(2018.08.06.) 1부.*

Also Published As

Publication number Publication date
KR20230060726A (ko) 2023-05-08

Similar Documents

Publication Publication Date Title
US10885693B1 (en) Animating avatars from headset cameras
JP7262884B2 (ja) 生体顔検出方法、装置、設備及びコンピュータプログラム
Cole et al. Synthesizing normalized faces from facial identity features
US20180012411A1 (en) Augmented Reality Methods and Devices
CN110738595B (zh) 图片处理方法、装置和设备及计算机存储介质
WO2022078041A1 (zh) 遮挡检测模型的训练方法及人脸图像的美化处理方法
CN112037320B (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
US9552668B2 (en) Generation of a three-dimensional representation of a user
JP6798183B2 (ja) 画像解析装置、画像解析方法およびプログラム
KR102639187B1 (ko) 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치
JP2018190332A (ja) 画像認識装置および学習装置
US20180357819A1 (en) Method for generating a set of annotated images
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
JP6207210B2 (ja) 情報処理装置およびその方法
RU2764144C1 (ru) Быстрый двухслойный нейросетевой синтез реалистичных изображений нейронного аватара по одному снимку
JP2024500896A (ja) 3d頭部変形モデルを生成するための方法、システム及び方法
CN111147751B (zh) 拍照模式的生成方法、装置和计算机可读存储介质
CN113505768A (zh) 模型训练、人脸识别方法、电子设备及存储介质
WO2023066120A1 (zh) 图像处理方法、装置、电子设备及存储介质
US20160086365A1 (en) Systems and methods for the conversion of images into personalized animations
KR20230110787A (ko) 개인화된 3d 머리 및 얼굴 모델들을 형성하기 위한 방법들 및 시스템들
JP2024503794A (ja) 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム
CN113808277A (zh) 一种图像处理方法及相关装置
Wang et al. Digital twin: Acquiring high-fidelity 3D avatar from a single image
CN106778576B (zh) 一种基于sehm特征图序列的动作识别方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right