KR102529214B1 - 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치 - Google Patents

페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치 Download PDF

Info

Publication number
KR102529214B1
KR102529214B1 KR1020230015236A KR20230015236A KR102529214B1 KR 102529214 B1 KR102529214 B1 KR 102529214B1 KR 1020230015236 A KR1020230015236 A KR 1020230015236A KR 20230015236 A KR20230015236 A KR 20230015236A KR 102529214 B1 KR102529214 B1 KR 102529214B1
Authority
KR
South Korea
Prior art keywords
image
swapping
data
embedding vector
target
Prior art date
Application number
KR1020230015236A
Other languages
English (en)
Inventor
류원종
임정혁
김준혁
김활
정정영
Original Assignee
주식회사 이너버즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이너버즈 filed Critical 주식회사 이너버즈
Priority to KR1020230015236A priority Critical patent/KR102529214B1/ko
Priority to KR1020230055027A priority patent/KR102590025B1/ko
Priority to KR1020230055026A priority patent/KR102590024B1/ko
Application granted granted Critical
Publication of KR102529214B1 publication Critical patent/KR102529214B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것으로, (a) 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하는 단계;, (b) 타겟 이미지(200)를 호환 사이즈로 변환하여 타겟 데이터(210)로 변환하는 단계;, (c) 상기 타겟 데이터(210)와 상기 제1 특성 임베딩 벡터(110)를 합성하여 제1 합성 변환데이터(300)를 생성하는 단계;, (d) 상기 제1 합성 변환데이터(300)를 스와핑 이미지(400)로 변환하는 합성 이미지 변환단계; 및 (e) 상기 스와핑 이미지(400)를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하는 구성으로 이루어진다.

Description

페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치 {Method and apparatus for learning face swapping deep learning system}
본 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치에 대한 것이다. 보다 상세하게는 두 사람의 이미지의 아이덴티티와 어트리뷰트를 합성하는 시스템을 학습하는 방법 및 장치에 대한 것이다.
특허문헌 001은 사물 인터넷을 위해 연결된 5G 환경에서 인공지능(artificial intelligence, AI) 알고리즘 및/또는 기계학습(machine learning) 알고리즘을 실행하여 이미지를 합성하기 위한 방법 및 장치가 개시된다. 본 발명의 일 실시예에 따른 이미지 합성 방법은 얼굴 이미지를 포함하는 제 1 이미지를 획득하는 단계와, 미리 훈련된 심층 신경망 모델을 적용하여 제 1 이미지의 특징점을 검출하는 단계와, 제 1 이미지에 합성하기 위한 제 2 이미지를 획득하는 단계와, 제 2 이미지의 경계를 추출하는 단계와, 제 1 이미지의 특징점들의 좌표값을 기반으로 제 2 이미지의 경계에 대응하는 좌표값을 매칭하는 단계와, 제 1 이미지와 제 2 이미지를 병합(merging)하여 출력하는 단계를 포함하는 기술을 제시한다.
특허문헌 002는 AI의 기계학습 기반 얼굴표정 등의 이미지 생성관한 방법에 대한 것이며, 제 2서버가 제 1서버로부터 각 배우의 얼굴 표정 정보를 제공 받아 해당 파일에 대한 AI 영상학습을 수행하고, 상기 AI 영상학습의 결과로 배우의 얼굴 표정에 대응하는 Weight를 생성 및 저장하는 단계, 제 2서버가 제 1서버로부터 출연배우의 얼굴표정 정보를 수신하는 단계, 제 2서버에서 대역 배우의 얼굴표정으로 출연 배우에 대응하는 Weight를 탐색하여 출연 배우의 얼굴 표정을 생성 저장하는 단계, 제 2서버에서 상기 생성된 출연 배우의 얼굴 표정으로 동영상(VOD파일 등)을 생성하는 단계를 포함하는 기술을 제시한다.
특허문헌 003은 AI 기반 캐릭터 생성 방법은 AI 기반 캐릭터 생성 시스템에 의해 수행되는 것으로서, 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시키는 단계;및 사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성하는 단계를 포함한다. 캐릭터가 각자의 유전체정보를 갖기 때문에 가상공간에서 캐릭터에 고유성 및 식별력을 부여하는 것이 가능한 기술을 제시한다.
특허문헌 004는 합성곱 신경망 기반 이미지 처리 시스템에 대한 것이며, 복수의 커널 필터를 이용하여 입력 데이터로부터 물체의 특징 값을 추출하는 합성곱 계층부; 상기 합성곱 계층부에 의해 추출된 특징 값에 대하여 비선형 활성화 함수를 이용하여 변환 작업을 수행하는 활성화 계층부; 상기 활성화 계층부의 출력 값에 대하여 최댓 값 풀링(max polling) 연산을 이용하여 차원을 축소하고 잡음을 제거 및 억제하는 풀링 계층부; 상기 풀링 계층부의 출력 값을 이용한 전방향 연산을 통해 상기 입력 데이터에 대한 분류 예측 값을 출력하는 분류 출력계층부; 상기 분류 예측 값과 미리 정해진 목표 값을 비교하여 그 오차 값에 해당하는 손실 값을 산출하는 손실계산 계층부; 상기 손실 값에 대한 편미분 값을 역방향 연산을 통해 계산하여 상기 각 계층부의 매개 변수에 대한 수정 값을 획득하는 역방향 계산부; 및 상기 수정 값, 및 일정량의 학습 데이터들을 통해 도출된 학습률을 이용한 경사 하강법(Gradient Descent Method)을 통하여 상기 매개 변수에 대한 업데이트를 수행하는 분류 학습부를 포함하는 기술을 제시한다.
KR 10-2236904 (등록일자:2021년 03월 31일) KR 10-2021-0112576 (공개일자:2021년 09월 15일) KR 10-2022-0155239 (공개일자:2022년 11월 22일) KR 10-2068576 (등록일자:2020년 01월 15일)
본 발명은 복수의 얼굴 이미지를 하나의 합성 이미지로 변환하는 시스템을 학습하는 방법 및 그 장치를 제공하고자 한다.
또한, 입력되는 각각의 얼굴 이미지에 대하여 특성을 분류한 후 원하는 특성만을 조합하여 합성된 스와핑 이미지를 제공하고자 한다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, (a) 소스 이미지를 임베딩 네트워크에 입력하여 제1 특성 임베딩 벡터를 추출하는 단계;,(b) 타겟 이미지를 호환 사이즈로 변환하여 타겟 데이터로 변환하는 단계;, (c) 상기 타겟 데이터와 상기 제1 특성 임베딩 벡터를 합성하여 제1 합성 변환데이터를 생성하는 단계;, (d) 상기 제1 합성 변환데이터를 스와핑 이미지로 변환하는 합성 이미지 변환단계; 및 (e) 상기 스와핑 이미지를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하는 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, 앞에서 제시한 발명에 있어서, 상기 (c) 단계는 상기 타겟 데이터(X)를 타겟 정규 데이터(Z)로 변환하는 정규화 단계; 및 상기 타겟 정규 데이터(Z)와 상기 제1 특성 임베딩 벡터(110)로부터 추출된 아이덴티티 데이터를 합성하는 역정규화 단계;를 포함하는 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, 앞에서 제시한 발명에 있어서, 상기 정규화 단계는 하기 [수학식1]으로 계산되는 구성으로 이루어진다.
[수학식1]
Figure 112023013324350-pat00001
(단,
Figure 112023013324350-pat00002
Figure 112023013324350-pat00003
는 타겟 데이터(X)의 평균과 표준편차를 의미)
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, 앞에서 제시한 발명에 있어서, 상기 역정규화 단계는 하기 [수학식2]으로 계산되는 구성으로 이루어진다.
[수학식2]
Figure 112023013324350-pat00004
(단,
Figure 112023013324350-pat00005
는 아이덴티티 데이터를 의미)
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, 앞에서 제시한 발명에 있어서, 상기 (e) 단계는 (e-1) 상기 스와핑 이미지를 상기 임베딩 네트워크에 입력하여 제2 특성 임베딩 벡터를 추출한 후, 상기 제1 특성 임베딩 벡터와 상기 제2 특성 임베딩 벡터의 차이인 제1 오차를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하는 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, 앞에서 제시한 발명에 있어서, 상기 (e) 단계는 (e-2) 상기 스와핑 이미지를 판별 네트워크에 입력하여 계산과정에서 제1 중간값들을 추출하는 단계;, (e-3) 상기 타겟 이미지를 판별 네트워크에 입력하여 계산과정에서 제2 중간값들을 추출하는 단계; 및 (e-4) 상기 제1 중간값과 상기 제2 중간값의 차이인 제2 오차 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하는, 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, (a) 소스 이미지를 임베딩 네트워크에 입력하여 제1 특성 임베딩 벡터를 추출하는 단계;, (a-1)상기 소스 이미지를 3DMM(3D Morphable Model) 네트워크에 입력하여 소스 3D 임베딩 벡터를 추출하고, (a-2)상기 타겟 이미지를 3DMM(3D Morphable Model) 네트워크에 입력하여 타겟 3D 임베딩 벡터를 추출하고, (a-3)상기 소스 3D 임베딩 벡터와 상기 타겟 3D 임베딩 벡터를 합성하여 합성 3D 임베딩 벡터를 생성하고, (a-4)상기 합성 3D 임베딩 벡터를 상기 제1 특성 임베딩 벡터에 연결하여 3D특성 임베딩 벡터를 생성하는 단계;, (b) 타겟 이미지의 픽셀을 호환 사이즈로 변환하여 타겟 데이터로 변환하는 단계; (c) 상기 타겟 데이터와 상기 3D 특성 임베딩 벡터를 합성하여 제2 합성 변환데이터를 생성하는 단계;, (d) 상기 제2 합성 변환데이터를 스와핑 이미지로 변환하는 합성 이미지 변환단계;, (e) 상기 스와핑 이미지를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계를 포함하는 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, (a) 소스 이미지를 임베딩 네트워크에 입력하여 제1 특성 임베딩 벡터를 추출하는 단계;, (b) 타겟 이미지의 픽셀을 호환 사이즈로 변환하여 타겟 데이터로 변환하는 단계;, (c) 상기 타겟 데이터와 상기 제1 특성 임베딩 벡터를 합성하여 제1 합성 변환데이터를 생성하는 단계;, (c') 상기 타겟 데이터와 상기 제1 합성 변환데이터를 어텐션 마스크와 합성하여 제2 합성 변환데이터를 생성하는 단계;, (d) 상기 제2 합성 변환데이터를 스와핑 이미지로 변환하는 합성 이미지 변환단계;, (e) 상기 스와핑 이미지를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하는 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것이며, 앞에서 제시한 발명에 있어서, 상기 (c') 단계는 (c'-1) 상기 어텐션 마스크를 시그모이드 네트워크를 기반으로 생성하는 단계;를 포함하는 구성으로 이루어진다.
본 발명의 일 실시예에 따른 발명은 페이스 스와핑 딥러닝 시스템을 학습하는 컴퓨터 구현 학습장치에 대한 것으로, 명령을 저장하는 메모리; 및 상기 명령을 실행하도록 구성된 적어도 하나의 프로세서;를 포함하며, 상기 프로세서를 통해 실행되는 상기 명령은 소스 이미지를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터를 추출하고, 타겟 이미지를 호환 사이즈로 변환하여 타겟 데이터로 변환하고, 상기 타겟 데이터와 상기 제1 특성 임베딩 벡터를 합성하여 합성 변환데이터를 생성하고, 상기 합성 변환데이터를 스와핑 이미지로 변환하고, 상기 스와핑 이미지를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는, 컴퓨터 구현 학습장치로 구성된다.
본 발명은 타겟 이미지의 어트리뷰트와 소스 이미지의 아이덴티티를 조합하는 시스템을 효과적으로 학습하는 방법을 제공할 수 있다.
또한, 본 발명은 어텐션 마스크를 통해 집중적으로 학습되어야 할 구성을 효과적으로 학습시킬 수 있는 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 페이스 스와핑 딥러닝 시스템의 작동 순서도이다.
도 2는 본 발명의 일 실시예에 따른 소스 이미지가 임베딩 네트워크에 입력되어 제1 특성 임베딩 벡터가 생성되는 과정을 도시한 개요도이다.
도 3은 본 발명의 일 실시예에 따른 믹스 블럭의 계산원리를 표현한 세부 구성도이다.
도 4는 본 발명의 일 실시예에 따른 제1 오차를 도시한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 제2 오차를 도시한 블록도이다.
도 6 은 본 발명의 일 실시예에 따른 제1 합성 변환데이터와 어텐션 마스크의 생성과정을 나타낸 개요도이다.
도 7은 본 발명의 일 실시예에 따른 어텐션 마스크를 적용하여 제2 합성 변환데이터를 생성하는 과정을 나타낸 개요도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
아래에 제시되는 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발 명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
(실시예 1-1) 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 있어서, (a) 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하는 단계;, (b) 타겟 이미지(200)를 호환 사이즈로 변환하여 타겟 데이터(210)로 변환하는 단계;, (c) 상기 타겟 데이터(210)와 상기 제1 특성 임베딩 벡터(110)를 합성하여 제1 합성 변환데이터(300)를 생성하는 단계;, (d) 상기 제1 합성 변환데이터(300)를 스와핑 이미지(400)로 변환하는 합성 이미지 변환단계;, (e) 상기 스와핑 이미지(400)를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하는, 페이스 스와핑 딥러닝 시스템을 학습하는 방법.
본 발명의 예시적인 실시예는 여러 사람의 특성들을 합성하는 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것일 수 있다.
본 발명의 예시적인 실시예에 따른 페이스 스와핑 딥러닝 시스템은 도 1 내지 도 7을 참조하면, 컨볼루션 블럭(30), 컨볼루션 레이어(31), 리니어 레이어(20), 믹스 블럭(40) 등의 디지털 데이터를 변환 및 합성하는 모듈의 결합을 의미할 수 있다. 따라서 본 발명에서 페이스 스와핑 딥러닝 시스템을 학습한다는 것은 위와 같은 여러 모듈의 가중치, 노드 등을 학습하는 것을 의미할 수 있다.
본 발명은 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하는 단계, 타겟 이미지(200)의 픽셀을 호환 사이즈로 변환하여 제1 변환 타겟 이미지(200)로 변환하는 단계, 상기 제1 변환 타겟 이미지(200)와 상기 제1 특성 임베딩 벡터(110)를 합성하여 합성 변환 이미지를 생성하는 단계, 상기 합성 변환 이미지를 스와핑 이미지(400)로 변환하는 합성 이미지 변환단계를 포함할 수 있다.
보다 상세하게 설명하면, 본 발명의 예시적인 실시예는 소스 이미지(100)의 아이덴티티(사람이 눈, 코 등의 형상 정보)와 타겟 이미지(200)의 어트리뷰트(사람 얼굴의 각도, 조명 등의 정보)를 합성하는 딥러닝 모델의 학습 방법에 대한 것일 수 있다.
이하, 각 과정에 대한 구체적인 방법은 후술한다.
(실시예 1-2) 실시예 1-1에 있어서, 상기 소스 이미지(100)와 상기 타겟 이미지(200) 및 상기 스와핑 이미지(400)는 RGB 3채널 사이즈의 이미지일 수 있다.
본 발명의 예시적인 실시예에 있어서, 소스 이미지(100), 타겟 이미지(200), 스와핑 이미지(400)는
Figure 112023013324350-pat00006
의 픽셀 사이즈일 수 있다.
현재 산업계에서 디지털로 표현되는 이미지는 RGB로 이루어진 이미지일 수 있다. 이는 3개의 채널로 이루어진 이미지일 수 있으며, 따라서 페이스 스와핑에 이용되는 타겟 이미지(200)와 소스 이미지(100), 최종 합성된 스와핑 이미지(400)는 3 채널 사이즈의 이미지일 수 있다.
(실시예 1-3) 실시예 1-1에 있어서, 상기 호환 사이즈는
Figure 112023013324350-pat00007
의 픽셀 사이즈일 수 있다.
본 발명의 예시적인 실시예에 있어서, 호환 사이즈는 타겟 이미지(200)가 제1 특성 임베딩 벡터(110)와 합성되기 전에 구성되어지는 사이즈일 수 있다. 도 1을 참조하면,
Figure 112023013324350-pat00008
픽셀 사이즈를 호환 사이즈로 설정할 수 있다. 다만, 호환 사이즈는 특정되어지는 것이 아니라, 호환 사이즈로 변환된 타겟 데이터(210)와 제1 특성 임베딩 벡터(110)를 합성하는 과정이 보다 효율적일 수 있다면 호환 사이즈는 다양하게 설정되어질 수 있다.
또한, 본 발명의 예시적인 실시예에 있어서, 제1 특성 임베딩 벡터(110)는 이미 충분히 학습되어진 임베딩 네트워크(10)에 소스 이미지(100)를 입력하였을 때, 출력되는 벡터일 수 있다. 이러한 제1 특성 임베딩 벡터(110)의 픽셀 사이즈는
Figure 112023013324350-pat00009
로 설정될 수 있고, 이는 512개의 숫자로 이루어진 정보일 수 있다.
따라서, 타겟 데이터(210)의 채널의 크기와 제1 특성 임베딩 벡터(110)의 채널의 크기는 동일하게 맞춰질 수 있다. 동일한 크기의 채널을 갖는 두 데이터는 합성곱의 과정으로 합성되어질 수 있다.
(실시예 2-1) 상기 (c) 단계는 상기 타겟 데이터(210)(X)를 타겟 정규 데이터(220)(Z)로 변환하는 정규화 단계;, 상기 타겟 정규 데이터(220)(Z)와 상기 제1 특성 임베딩 벡터(110)로부터 추출된 아이덴티티 데이터(120)를 합성하는 역정규화 단계;를 포함한다.
본 발명의 예시적인 실시예에 있어서, 타겟 데이터(210)와 제1 특성 임베딩 벡터(110)를 합성하여 합성 변환데이터를 생성하는 단계는 정규화 단계와 역정규화 단계를 포함할 수 있다. 정규화 단계와 역정규화 단계는 타겟 데이터(210)를 정규분포의 형태로 구성하고, 이러한 정규분포의 형태로 구성된 타겟 정규 데이터(220)에 제1 특성 임베딩 벡터(110)로부터 추출된 아이덴티티 데이터(120)를 합성하여 제1 합성 변환데이터(300)(X')를 생성하는 단계를 의미할 수 있다.
(실시예 2-2) 실시예 2-1에 있어서, 상기 정규화 단계는 하기 [수학식1]으로 계산되는 과정이다.
[수학식1]
Figure 112023013324350-pat00010
(단,
Figure 112023013324350-pat00011
Figure 112023013324350-pat00012
는 타겟 데이터(210)의 평균과 표준편차를 의미)
(실시예 2-3) 실시예 2-2에 있어서, 상기 역정규화 단계는 하기 [수학식2]으로 계산되는 과정이다.
[수학식2]
Figure 112023013324350-pat00013
(단,
Figure 112023013324350-pat00014
는 아이덴티티 데이터(120)를 의미)
(실시예 2-4) 실시예 2-3에 있어서, 상기 역정규화 단계는 상기 제1 특성 임베딩 벡터(110)를 리니어 레이어(20)에 입력하여 상기 아이덴티티 데이터(120)를 추출하는 단계;를 포함한다.
본 발명의 예시적인 실시예에 있어서, 제1 특성 임베딩 벡터(110)는 복수의 수를 포함하는 데이터일 수 있다. 이러한 제1 특성 임베딩 벡터(110)로부터 아이덴티티 데이터(120)인
Figure 112023013324350-pat00015
를 생성한 후, 아이덴티티 데이터(120)를 이용하여 타겟 정규 데이터(220)를 제1 합성 변환데이터(300)로 변환할 수 있다.
본 발명의 페이스 스와핑 딥러닝 시스템을 학습하는 과정에서 리니어 레이어(20)의 계산 알고리즘을 구성하는 가중치값들이 학습되어질 수 있다.
보다 구체적으로 설명하자면,
제1 특성 임베딩 벡터(110)가
Figure 112023013324350-pat00016
로 이루어진 벡터라면, 512개의 숫자
Figure 112023013324350-pat00017
로 표현되는 구성일 수 있다. 이러한 512개의 숫자를 통해 다음과 같이 아이덴티티 데이터(120)인
Figure 112023013324350-pat00018
를 생성할 수 있다.
Figure 112023013324350-pat00019
Figure 112023013324350-pat00020
따라서, 제1 특성 임베딩 벡터(110)로부터 아이덴티티 데이터(120)인
Figure 112023013324350-pat00021
를 어떻게 추출하느냐는, 리니어 레이어(20)의 가중치인
Figure 112023013324350-pat00022
값들에 따라 결정되어질 수 있다. 이러한 가중치들이 어떻게 구성되는지에 따라 본 발명의 (c)단계에서 생성되는 제1 합성 변환데이터(300)값이 결정되어질 수 있다. 따라서 본 발명의 페이스 스와핑 딥러닝 시스템을 학습하는 방법은 이러한 가중치들을 학습하는 것을 포함할 수 있다.
(실시예3-1) 실시예 1-1에 있어서, 상기 (e) 단계는
(e-1) 상기 스와핑 이미지(400)를 상기 임베딩 네트워크(10)에 입력하여 제2 특성 임베딩 벡터(410)를 추출한 후, 상기 제1 특성 임베딩 벡터(110)와 상기 제2 특성 임베딩 벡터(410)의 차이인 제1 오차(1)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함한다.
본 발명의 예시적인 실시예에 있어서, 제1 오차(1)는 아이덴티티와 관련된 오차를 의미할 수 있다. 충분히 학습된다면, 소스 이미지(100)와 타겟 이미지(200)가 합성된 스와핑 이미지(400)의 아이덴티티는 소스 이미지(100)의 아이덴티티와 동일하고, 스와핑 이미지(400)의 어트리뷰트는 타겟 이미지(200)와 동일하게 구성될 수 있다. 위와 같은 결과가 도출된다면, 본 발명의 페이스 스와핑 딥러닝 시스템이 가장 효과적으로 학습된 것으로 볼 수 있다.
<실시예 3-1>에서 제1 오차(1)를 감소시키는 방향으로 본 발명의 시스템의 학습시킨다는 것은 페이스 스와핑 딥러닝 시스템이 소스 이미지(100)와 타겟 이미지(200)를 합성함에 있어, 소스 이미지(100)의 아이덴티티 값을 합성 이미지인 스와핑 이미지(400)에서도 유지시켜줄 수 있도록 학습하는 것을 의미할 수 있다.
(실시예 4-1) 실시예 3-1에 있어서, 상기 (e) 단계는 (e-2) 상기 스와핑 이미지(400)를 판별 네트워크(50)에 입력하여 계산과정에서 제1 중간값(51)들을 추출하는 단계;, (e-3) 상기 타겟 이미지(200)를 판별 네트워크(50)에 입력하여 계산과정에서 제2 중간값(52)들을 추출하는 단계;, (e-4) 상기 제1 중간값(51)과 상기 제2 중간값(52)의 차이인 제2 오차(2)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함한다.
본 발명의 예시적인 실시예에 있어서, 제2 오차(2)는 어트리뷰트와 관련된 로스를 포함하는 의미로 구성될 수 있다.
<실시예 4-1>에서 제2 오차(2)를 감소시키는 방향으로 본 발명의 시스템을 학습시킨다는 것은 페이스 스와핑 딥러닝 시스템이 소스 이미지(100)와 타겟 이미지(200)를 합성함에 있어, 타겟 이미지(200)의 어트리뷰트 값을 합성 이미지인 스와핑 이미지(400)에서도 유지시켜줄 수 있도록 학습하는 것을 포함할 수 있다.
또한, 본 발명의 <실시예 4-1>을 참조하면, 제2 오차(2)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하면, 타겟 이미지(200)의 아이덴티티에 관한 정보가 스와핑 이미지(400)에 반영되는 방향으로 학습이 이루어질 가능성이 있을 수 있다. 그러나, 제1 오차(1)를 감소시키는 방향으로 페이스 스와핑 딥러닝 시스템이 학습되는 정도가 보다 우세하게 반영되어, 아이덴티티에 관한 정보는 타겟 이미지(200)에 내포되어 있는 정보가 아닌, 소스 이미지(100)에 내포되어 있는 정보가 반영되도록 학습되어질 수 있다.
(실시예 4-2) 실시예 4-1에 있어서, 상기 판별 네트워크(50)는 판별기(discriminator)로 구성된다.
판별기(discriminator)는 입력되는 이미지가 사람의 이미지인지 아닌지 판별하는 네트워크일 수 있다. 판별 네트워크(50)는 입력되는 이미지에 대하여 0 내지 1 사이의 숫자를 출력하는 네트워크일 수 있다. 만약 진실(real)로 판단되면 1, 거짓(flase)으로 판단되면 0의 숫자를 출력한다.
판별 네트워크(50)는 최종 출력값인 0 내지 1의 숫자를 출력하는 과정에서 중간값들을 생산할 수 있다. 여러 단계의 중간값들은 입력 이미지를 0 내지 1의 값으로 변환하는 과정에서 연속적으로 생성되어지는 데이터값일 수 있다.
타겟 이미지(200)를 판별 네트워크(50)에 입력하면 타겟 이미지(200)는 본래 사람의 이미지이기 때문에 최종 출력값은 1에 가까운 값이 도출될 수 있다.
다만, 스와핑 이미지(400)는 타겟 이미지(200)와 소스 이미지(100)가 합성된 이미지이므로, 본 발명의 페이스 스와핑 딥러닝 시스템이 충분히 학습되기 전에는 사람의 형상을 띄지 않을 수 있다. 0에 가까운 출력값이 도출될 수 있다.
다만, 본 발명의 판별 네트워크(50)는 0 내지 1의 출력값을 도출하기 위해 수행되는 구성은 아닐 수 있다. 단지 출력값을 생성하는 과정에서 생산되는 중간값들을 이용하여 본 발명의 페이스 스와핑 딥러닝 시스템을 학습하는 것일 수 있다.
(실시예 5-1) 실시예 1-1에 있어서, 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 있어서, (a) 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하는 단계;, (a-1)상기 소스 이미지(100)를 3DMM(3D Morphable Model) 네트워크에 입력하여 소스 3D 임베딩 벡터를 추출하고, (a-2)상기 타겟 이미지(200)를 3DMM(3D Morphable Model) 네트워크에 입력하여 타겟 3D 임베딩 벡터를 추출하고, (a-3)상기 소스 3D 임베딩 벡터와 상기 타겟 3D 임베딩 벡터를 합성하여 합성 3D 임베딩 벡터를 생성하고, (a-4)상기 합성 3D 임베딩 벡터를 상기 제1 특성 임베딩 벡터(110)에 연결하여 3D특성 임베딩 벡터를 생성하는 단계;, (b) 타겟 이미지(200)의 픽셀을 호환 사이즈로 변환하여 타겟 데이터(210)로 변환하는 단계;,(c) 상기 타겟 데이터(210)와 상기 3D 특성 임베딩 벡터(110)를 합성하여 제2 합성 변환데이터(320)를 생성하는 단계;,(d) 상기 제2 합성 변환데이터(320)를 스와핑 이미지(400)로 변환하는 합성 이미지 변환단계;,(e) 상기 합성 이미지(400)를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계를 포함하는, 페이스 스와핑 딥러닝 시스템을 학습하는 방법.
본 발명의 예시적인 실시예에 있어서, 3DMM 네트워크에 소스 이미지 또는 타겟 이미지를 입력하면, 이미지의 3D정보를 포함하는 3D 임베딩 벡터가 출력될 수 있다. 3D 임베딩 벡터는 257개의 숫자로 이루어진 벡터일 수 있다.
3DMM은 변형가능한 3D 움직임 모델을 의미할 수 있으며, 3차원 모델에 다양한 기법을 적용하여 움직임 및/또는 표정을 생성하는 모델을 의미할 수 있다. 여기서, 변형가능한 3D 움직임 모델은 변형가능한 3D 모델(Morphable 3D model) 기법이 적용되는 애니메이션에 포함된 3D 움직인 모델을 지칭할 수 있다. 예를 들어, 변형가능한 3D 움직임 모델에서, 객체 내에서 3D 형상 및/또는 텍스처 변형이 지속적으로 매개 변수화되어, 저차원 매개변수 공간 및/또는 텍스처가 적용된 3D 모델의 고차원 공간 간의 매핑이 설정될 수 있다.
다만, 본 발명에서 3DMM 네트워크란, 어떠한 이미지를 입력하였을 때, 3DMM 모델을 기반으로 하여 1차원의 3D 임베딩 벡터를 추출하는 네트워크를 의미할 수 있다.
따라서, 소스 이미지를 3DMM 네트워크에 입력하여 소스 3D임베딩 벡터를 추출하고, 타겟 이미지를 3DMM 네트워크에 입력하여 타겟 3D 임베딩 벡터를 추출한 후, 두 3D 임베딩 벡터를 합성하여 합성 3D임베딩 벡터를 생성할 수 있다.
소스 3D임베딩 벡터에서부터는 소스 이미지의 아이덴티티와 관련된 정보를 추출하고, 타겟 3D임베딩 벡터에서부터는 타겟 이미지의 어트리뷰트와 관련된 정보를 추출하여 합성할 수 있다.
3DMM네트워크에서 추출된 3D 임베딩 벡터는 전술한 임베딩 네트워크(10)에서 추출된 특성 임베딩 벡터들과는 다른 알고리즘에 의하여 추출된 벡터일 수 있다.
이와 같이, 3DMM네트워크는 전술한 바와 같이 이미지의 3D정보를 추출하는 네트워크일 수 있다. 나아가 합성 3D 임베딩 벡터와 제1 특성 임베딩 벡터(110)를 연결하여 3D특성 임베딩 벡터를 생성할 수 있으며, 3D특성 임베딩 벡터를 이용하여 <실시예 1-1>에서와 같이 타겟 데이터와 합성하여 제2 합성 변환데이터(320)를 생성할 수 있다.
마지막으로 제2 합성 변환데이터(320)를 기반으로 최종 이미지인 스와핑 이미지(400)을 생성할 수 있다.
다시 말해, 본 발명은 이미지의 3D에 관한 특성도 반영하여 본 발명의 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 대한 것일 수 있다.
(실시예 6-1) 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 있어서, (a) 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하는 단계;, (b) 타겟 이미지(200)의 픽셀을 호환 사이즈로 변환하여 타겟 데이터(210)로 변환하는 단계;,(c) 상기 타겟 데이터(210)와 상기 제1 특성 임베딩 벡터(110)를 합성하여 제1 합성 변환데이터(300)를 생성하는 단계;, (c') 상기 타겟 데이터(210)와 상기 제1 합성 변환데이터(300)를 어텐션 마스크(310)와 합성하여 제2 합성 변환데이터(320)를 생성하는 단계;, (d) 상기 제2 합성 변환데이터(320)를 스와핑 이미지(400)로 변환하는 합성 이미지 변환단계;, (e) 상기 스와핑 이미지(400)를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함한다.
(실시예 6-2) 실시예 6-1에 있어서, 상기 (c') 단계는 (c'-1) 상기 어텐션 마스크(310)를 시그모이드 네트워크(60)를 기반으로 생성하는 단계;를 포함한다.
본 발명의 예시적인 실시예에 있어서, 시그모이드 네트워크(60)는 시그모이드 함수를 기반으로 0내지 1의 출력값을 생성하는 네트워크일 수 있다.
시그모이드 함수는 입력값
Figure 112023013324350-pat00023
를 입력하였을 때,
Figure 112023013324350-pat00024
를 출력하는 함수이며,
Figure 112023013324350-pat00025
의 값은 하기의 [수학식3]과 같이 0 내지 1의 값으로 구성된다.
[수학식3]
Figure 112023013324350-pat00026
(실시예 6-3) 실시예 6-2에 있어서,
(c'-2) 생성된 상기 어텐션 마스크(310)의 함수를 M이라고 할 때, 제2 합성 변환데이터(320)는 하기의 [수학식4]으로 계산되는 단계;
[수학식4]
Figure 112023013324350-pat00027
(단, X는 타겟 데이터(200), X'은 제1 합성 변환데이터(300), Y는 제2 합성 변환데이터(320)이다.)
를 포함한다.
(실시예6-4) 실시예 6-1에 있어서, (e) 상기 스와핑 이미지(400)를 상기 임베딩 네트워크(10)에 입력하여 제2 특성 임베딩 벡터(410)를 추출한 후, 상기 제1 특성 임베딩 벡터(110)와 상기 제2 특성 임베딩 벡터(410)의 차이인 제1 오차(1)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함한다.
(실시예 6-5) 실시예 6-4에 있어서, (g) 상기 스와핑 이미지(400)를 판별 네트워크(50)에 입력하여 계산과정에서 제1 중간값(51)들을 추출하는 단계;, (h) 상기 타겟 이미지(200)를 판별 네트워크(50)에 입력하여 계산과정에서 제2 중간값(52)들을 추출하는 단계;, (i) 상기 제1 중간값(51)과 상기 제2 중간값(52)의 차이인 제2 오차(2)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;
를 포함한다.
본 발명의 시그모이드 네트워크(60)는 본 발명의 페이스 스와핑 딥러닝 시스템의 학습과정에서 학습되는 구성일 수 있다.
<실시예 1-1> 은 타겟 이미지(200)로부터 생성된 타겟 데이터(210)와 소스 이미지(100)로부터 생성된 제1 특성 임베딩 벡터(110)를 합성하여 제1 합성 변환데이터(300)를 생성하고, 이를 이용하여 타겟 이미지(200)와 소스 이미지(100)의 특성을 합성하는 스와핑 이미지(400)를 생성하는 단계를 포함하고 있다.
이와 대비하여, 실시예 6-1은 타겟 이미지(200)와 소스 이미지(100)의 합성에 있어, 스와핑 이미지(400)는 타겟 이미지(200)의 어트리뷰트 특성을 유지하고, 소스 이미지(100)의 아이덴티티 특성을 보다 효율적으로 유지하는 페이스 스와핑 딥러닝 시스템을 학습방법을 제공할 수 있다.
위와 같은 효과를 확보하기 위하여 어텐션 마스크(310)를 추가적으로 도입할 수 있다.
어텐션 마스크(310)는 타겟 데이터(210)와 제1 합성 변환데이터(300)를 합성하여 제2 합성 변환데이터(320)를 생성하는 과정을 보조하는 구성일 수 있다. 어텐션 마스크(310)의 함수를 M이라고 할 때,
[수학식4]
Figure 112023013324350-pat00028
위와 같은 [수학식4]을 통해 계산되어질 수 있는데, M값이 1에 가까운 부분은 제1 합성 변환데이터(300)를 따라가고, M값이 0에 가까운 부분은 타겟 데이터(210)를 따라갈 수 있다.
다시 말해, 타겟 데이터(210)와 제1 특성 임베딩 벡터(110)가 합성되어 제1 합성 변환데이터(300)를 생성할 수 있다. 타겟 이미지(200)의 특성을 유지하고자하는 부분, 즉 어트리뷰트 정보에 해당하는 부분에 대하여는 어텐션 마스크(310)의 구성값이 0에 가깝게 형성되고, 소스 이미지(100)의 특성을 유지하고자 하는 부분, 즉 아이덴티티 정보에 해당하는 부분에 대하여는 어텐션 마스크(310) 구성값이 1에 가깝게 형성되도록 학습되어질 수 있다.
어텐션 마스크(310)를 이용하여 제2 합성 변환데이터(320)를 생성하고, 이를 이용하여 스와핑 이미지(400)를 생성한 후, 이를 이용하여 제1 오차(1)와 제2 오차(2)를 추출한 후, 이들을 감소시키는 방향으로 본 발명의 페이스 스와핑 딥러닝 시스템을 학습할 수 있다.
실시예 6-4 및 실시예 6-5에 대한 내용에 대하여는 전술한 실시예 3-1 및 실시예 4-1의 내용을 준용할 수 있다.
다만, 어텐션 마스크(310)를 이용하여 제2 합성 변환데이터(320)를 생성하고, 스와핑 이미지(400)를 생성하여 제1 오차(1)와 제2 오차(2) 및 학습을 진행하면 이용하지 않았을 경우보다 학습의 효율이 높아질 수 있다.
왜나햐면, 어텐션 마스크(310)는 타겟 이미지(200)와 소스 이미지(100)의 특성들에 대하여 두 이미지를 합성할 때, 각 이미지에서 집중되어야 할 부분을 강조하는 역할을 할 수 있기 때문일 수 있다.
(실시예 7-1) 페이스 스와핑 딥러닝 시스템을 학습하는 컴퓨터 구현 학습장치에 있어서, 명령을 저장하는 메모리; 및 상기 명령을 실행하도록 구성된 적어도 하나의 프로세서;를 포함하며, 상기 프로세서를 통해 실행되는 상기 명령은 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하고, 타겟 이미지(200)를 호환 사이즈로 변환하여 타겟 데이터(210)로 변환하고, 상기 타겟 데이터(210)와 상기 제1 특성 임베딩 벡터(110)를 합성하여 합성 변환데이터를 생성하고, 상기 합성 변환데이터를 스와핑 이미지(400)로 변환하고, 상기 스와핑 이미지(400)를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는, 컴퓨터 구현 학습장치이다.
(실시예 7-2) 실시예 7-1에 있어서, 상기 명령은 상기 스와핑 이미지(400)를 상기 임베딩 네트워크(10)에 입력하여 제2 특성 임베딩 벡터(410)를 추출한 후, 상기 제1 특성 임베딩 벡터(110)와 상기 제2 특성 임베딩 벡터(410)의 차이인 제1 오차(1)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는, 컴퓨터 구현 학습장치.
(실시예 7-3) 실시예 7-2에 있어서, 상기 명령은 상기 스와핑 이미지(400)를 판별 네트워크(50)에 입력하여 계산과정에서 제1 중간값(51)들을 추출하고, 상기 타겟 이미지(200)를 판별 네트워크(50)에 입력하여 계산과정에서 제2 중간값(52)들을 추출하고, 상기 제1 중간값(51)과 상기 제2 중간값(52)의 차이인 제2 오차(2)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는, 컴퓨터 구현 학습장치.
본 발명의 예시적인 실시예는 페이스 스와핑 딥러닝 시스템을 학습하는 컴퓨터 구현 학습장치에 대한 것으로, 명령을 저장하는 메모리, 명령을 실행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다. 프로세서는 (실시예 1-1) 부터 (실시예 6-5)의 단계들을 수행하도록 하는 명령을 실행할 수 있다. 중복되는 내용은 생략하기로 한다.
본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다.
본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다
10 : 임베딩 네트워크 20 : 리니어 레이어
30 : 컨볼루션 블럭 40 : 믹스 블럭
50 : 판별 네트워크 60 : 시그모이드 네트워크
100 : 소스 이미지 110 : 제1 특성 임베딩 벡터
120 : 아이덴티티 데이터 200 : 타겟 이미지
210 : 타겟 데이터 220 : 타겟 정규 데이터
300 : 제1 합성 변환데이터 310 : 어텐션 마스크
320 : 제2 합성 변환 데이터 400 : 스와핑 이미지

Claims (10)

  1. 페이스 스와핑 딥러닝 시스템을 학습하는 방법에 있어서,
    (a) 소스 이미지(100)를 임베딩 네트워크(10)에 입력하여 제1 특성 임베딩 벡터(110)를 추출하는 단계;,
    (b) 타겟 이미지(200)를 호환 사이즈로 변환하여 타겟 데이터(210)로 변환하는 단계;
    (c) 상기 타겟 데이터(210)와 상기 제1 특성 임베딩 벡터(110)를 합성하여 제1 합성 변환데이터(300)를 생성하는 단계;
    (d) 상기 제1 합성 변환데이터(300)를 스와핑 이미지(400)로 변환하는 합성 이미지 변환단계; 및
    (e) 상기 스와핑 이미지(400)를 기초로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하고,
    상기 (c) 단계는 상기 타겟 데이터(210)(X)를 타겟 정규 데이터(220)(Z)로 변환하는 정규화 단계; 및
    상기 타겟 정규 데이터(220)(Z)와 상기 제1 특성 임베딩 벡터(110)로부터 추출된 아이덴티티 데이터(120)를 합성하는 역정규화 단계;를 포함하고,
    상기 정규화 단계는 하기 [수학식1]으로 계산되며,
    [수학식1]
    Figure 112023035917059-pat00029

    (단,
    Figure 112023035917059-pat00030
    Figure 112023035917059-pat00031
    는 타겟 데이터(210)의 평균과 표준편차를 의미)

    상기 역정규화 단계는 상기 제1 특성 임베딩 벡터(110)를 리니어 레이어(20)에 입력하여 상기 아이덴티티 데이터(120)를 추출하고, 하기 [수학식2]를 기반으로 계산되며,
    [수학식2]
    Figure 112023035917059-pat00032

    (단,
    Figure 112023035917059-pat00033
    는 아이덴티티 데이터(120)를 의미)

    상기 (e) 단계는
    (e-1) 상기 스와핑 이미지(400)를 상기 임베딩 네트워크(10)에 입력하여 제2 특성 임베딩 벡터(410)를 추출한 후, 상기 제1 특성 임베딩 벡터(110)와 상기 제2 특성 임베딩 벡터(410)의 차이인 제1 오차(1)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;
    (e-2) 상기 스와핑 이미지(400)를 판별 네트워크(50)에 입력하여 계산과정에서 제1 중간값(51)들을 추출하는 단계;
    (e-3) 상기 타겟 이미지(200)를 판별 네트워크(50)에 입력하여 계산과정에서 제2 중간값(52)들을 추출하는 단계; 및
    (e-4) 상기 제1 중간값(51)과 상기 제2 중간값(52)의 차이인 제2 오차(2)를 감소시키는 방향으로 상기 페이스 스와핑 딥러닝 시스템을 학습하는 단계;를 포함하고,
    상기 제1 특성 임베딩 벡터(110)는 512개의 숫자
    Figure 112023035917059-pat00041
    로 구성된 데이터이고, 상기 아이덴티티 데이터(120)
    Figure 112023035917059-pat00042
    는 아래와 같이 계산되는, 페이스 스와핑 딥러닝 시스템을 학습하는 방법.
    Figure 112023035917059-pat00043

    Figure 112023035917059-pat00044

  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
KR1020230015236A 2023-02-04 2023-02-04 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치 KR102529214B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020230015236A KR102529214B1 (ko) 2023-02-04 2023-02-04 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치
KR1020230055027A KR102590025B1 (ko) 2023-02-04 2023-04-26 어텐션 마스크를 통해 학습의 효율을 증대시키는 페이스 스와핑 딥러닝 시스템의 학습방법
KR1020230055026A KR102590024B1 (ko) 2023-02-04 2023-04-26 3dmm을 활용한 딥러닝 시스템 학습방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230015236A KR102529214B1 (ko) 2023-02-04 2023-02-04 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020230055027A Division KR102590025B1 (ko) 2023-02-04 2023-04-26 어텐션 마스크를 통해 학습의 효율을 증대시키는 페이스 스와핑 딥러닝 시스템의 학습방법
KR1020230055026A Division KR102590024B1 (ko) 2023-02-04 2023-04-26 3dmm을 활용한 딥러닝 시스템 학습방법

Publications (1)

Publication Number Publication Date
KR102529214B1 true KR102529214B1 (ko) 2023-05-08

Family

ID=86381191

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020230015236A KR102529214B1 (ko) 2023-02-04 2023-02-04 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치
KR1020230055027A KR102590025B1 (ko) 2023-02-04 2023-04-26 어텐션 마스크를 통해 학습의 효율을 증대시키는 페이스 스와핑 딥러닝 시스템의 학습방법
KR1020230055026A KR102590024B1 (ko) 2023-02-04 2023-04-26 3dmm을 활용한 딥러닝 시스템 학습방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020230055027A KR102590025B1 (ko) 2023-02-04 2023-04-26 어텐션 마스크를 통해 학습의 효율을 증대시키는 페이스 스와핑 딥러닝 시스템의 학습방법
KR1020230055026A KR102590024B1 (ko) 2023-02-04 2023-04-26 3dmm을 활용한 딥러닝 시스템 학습방법

Country Status (1)

Country Link
KR (3) KR102529214B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102068576B1 (ko) 2018-04-10 2020-01-21 배재대학교 산학협력단 합성곱 신경망 기반 이미지 처리 시스템 및 방법
KR102236904B1 (ko) 2019-12-13 2021-04-06 조선대학교산학협력단 이미지 합성 방법 및 장치
KR20210108529A (ko) * 2020-02-25 2021-09-03 주식회사 하이퍼커넥트 이미지 변형 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR20210112576A (ko) 2020-03-05 2021-09-15 주식회사 이엔터 Ai의 기계학습 기반 얼굴표정 등의 이미지 생성에 관한 방법
KR20220027565A (ko) * 2020-08-27 2022-03-08 연세대학교 산학협력단 참고 이미지의 특성을 고려한 종합적 스타일 변환 장치 및 방법
KR20220155239A (ko) 2021-05-14 2022-11-22 이윤경 Ai 기반 캐릭터 생성 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102068576B1 (ko) 2018-04-10 2020-01-21 배재대학교 산학협력단 합성곱 신경망 기반 이미지 처리 시스템 및 방법
KR102236904B1 (ko) 2019-12-13 2021-04-06 조선대학교산학협력단 이미지 합성 방법 및 장치
KR20210108529A (ko) * 2020-02-25 2021-09-03 주식회사 하이퍼커넥트 이미지 변형 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR20210112576A (ko) 2020-03-05 2021-09-15 주식회사 이엔터 Ai의 기계학습 기반 얼굴표정 등의 이미지 생성에 관한 방법
KR20220027565A (ko) * 2020-08-27 2022-03-08 연세대학교 산학협력단 참고 이미지의 특성을 고려한 종합적 스타일 변환 장치 및 방법
KR20220155239A (ko) 2021-05-14 2022-11-22 이윤경 Ai 기반 캐릭터 생성 시스템 및 방법

Also Published As

Publication number Publication date
KR102590025B1 (ko) 2023-10-16
KR102590024B1 (ko) 2023-10-16

Similar Documents

Publication Publication Date Title
CN110390638B (zh) 一种高分辨率三维体素模型重建方法
CN110599395B (zh) 目标图像生成方法、装置、服务器及存储介质
CN110084193B (zh) 用于面部图像生成的数据处理方法、设备和介质
CN111383307A (zh) 基于人像的视频生成方法及设备、存储介质
US20230044644A1 (en) Large-scale generation of photorealistic 3d models
CN110889370B (zh) 基于条件生成对抗网络的端对端的侧面人脸合成正脸的系统及方法
CN111695523B (zh) 基于骨骼时空及动态信息的双流卷积神经网络动作识别方法
US11403800B1 (en) Image generation from 3D model using neural network
CN111950432A (zh) 一种基于区域风格一致性的妆容风格迁移方法及系统
KR102409988B1 (ko) 딥러닝 네트워크를 이용한 얼굴 변환 방법 및 장치
CN112801945A (zh) 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法
CN110070587B (zh) 一种基于条件级联对抗生成网络的行人图像生成方法
Teng et al. Unimodal face classification with multimodal training
KR102529214B1 (ko) 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치
CN114862716B (zh) 人脸图像的图像增强方法、装置、设备及存储介质
CN112990123B (zh) 图像处理方法、装置、计算机设备和介质
KR102472110B1 (ko) 감정 기반의 얼굴 영상 생성 시스템 및 방법
CN117152825B (zh) 基于单张图片人脸重建方法及系统
CN112613411B (zh) 基于生成对抗网络的行人重识别数据集姿态数据增广方法
KR102627659B1 (ko) 후면 영상정보 생성 장치 및 방법
KR102693314B1 (ko) 2d 얼굴 이미지로부터 3d 얼굴 모델을 생성하는 시스템 및 방법
CN118379434B (zh) 一种基于深度学习算法生成人脸3d图像的方法
US20240193866A1 (en) Methods and systems for 3d hand pose estimation from rgb images
CN110288677B (zh) 一种基于可形变结构的行人图像生成方法和装置
KR102259208B1 (ko) 수정된 사이클 생성적 적대 신경망을 이용하는 나이 추정 장치 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant