JP2022505657A - 姿勢変動3d顔面属性生成 - Google Patents

姿勢変動3d顔面属性生成 Download PDF

Info

Publication number
JP2022505657A
JP2022505657A JP2021522071A JP2021522071A JP2022505657A JP 2022505657 A JP2022505657 A JP 2022505657A JP 2021522071 A JP2021522071 A JP 2021522071A JP 2021522071 A JP2021522071 A JP 2021522071A JP 2022505657 A JP2022505657 A JP 2022505657A
Authority
JP
Japan
Prior art keywords
gan
map
texture map
input image
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021522071A
Other languages
English (en)
Other versions
JP7142162B2 (ja
Inventor
シアン ユ、
フェン-ユ チャン、
マンモハン チャンドラカー、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of JP2022505657A publication Critical patent/JP2022505657A/ja
Application granted granted Critical
Publication of JP7142162B2 publication Critical patent/JP7142162B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022505657000001
姿勢変動3D顔属性生成のためのシステムが提供される。第1のステージは、顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成するためのハードウェアプロセッサベースの3D回帰ネットワークを具備し、さらに、空間位置マップとカメラ視点マトリクスとに基づいて、単一の入力画像の部分的テクスチャマップをレンダリングするためのレンダリング層を有する。第2のステージは、3D属性生成GAN(3DA-GAN)と積層されたテクスチャ完了敵対的生成ネットワーク(TC-GAN)を含むハードウェアプロセッサベースの2工程積層敵対的生成ネットワーク(GAN)を有する。TC-GANは、部分的テクスチャマップと空間位置マップとに基づいて完全なテクスチャマップを形成するために部分的テクスチャマップを完了する。3DA-GANは、完全なテクスチャマップと空間位置マップとに基づいて単一の入力画像のための目標顔属性を生成する。

Description

関連出願情報
本出願は、2018年11月13日に出願された米国仮特許出願第62/760,135号および2019年11月4日に出願された米国実用特許出願第16/673,256号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
本発明は、顔認識に関し、より詳細には、姿勢変動3D顔属性生成に関する。
関連技術の説明
顔を認識することは、姿勢分散のために、煩わしいタスクとなり得る。したがって、姿勢変動3D顔属性を生成する方法が必要とされている。
本発明の一態様によれば、姿勢変動3D顔属性生成のためのシステムが提供される。システムは、顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成するためのハードウェアプロセッサベースの3D回帰ネットワークを具備し、さらに、前記空間位置マップと前記カメラ視点マトリクスとに基づいて、前記単一の入力画像の部分的テクスチャマップをレンダリングするためのレンダリング層を具備する第1のステージとを含む。システムはさらに、3D属性生成GAN(3DA-GAN)と積層されたテクスチャ完了敵対的生成ネットワーク(TC-GAN)を含むハードウェアプロセッサベースの2工程積層敵対的生成ネットワーク(GAN)を有する第2のステージを含む。TC-GANは、前記部分的テクスチャマップと前記空間位置マップとに基づいて完全なテクスチャマップを形成するために前記部分的テクスチャマップを完了するためのものである。3DA-GANは、前記完全なテクスチャマップと前記空間位置マップとに基づいて前記単一の入力画像のための目標顔属性を生成するためのものである。
本発明の別の態様によれば、姿勢変動3D顔属性生成のためのコンピュータで実施する方法が提供される。この方法は、3D回帰ネットワークを使ったハードウェアプロセッサによって、顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成することを含む。さらにこの方法は、レンダリング層を使ったハードウェアプロセッサによって、前記空間位置マップと前記カメラ視点マトリクスとに基づいて、前記単一の入力画像の部分的テクスチャマップをレンダリングすることを含む。また、この方法は、テクスチャ完了敵対的生成ネットワーク(TC-GAN)を使ったハードウェアプロセッサによって、前記部分的テクスチャマップと前記空間位置マップとに基づいて完全なテクスチャマップを形成するために前記部分的テクスチャマップを完了することを含む。また、この方法は、3D属性生成GAN(3DA-GAN)を使ったハードウェアプロセッサによって、前記完全なテクスチャマップと前記空間位置マップとに基づいて前記単一の入力画像のための目標顔属性を生成することを含む。
本発明のさらに別の態様によれば、姿勢変動3D顔属性生成のためのコンピュータプログラム製品が提供される。コンピュータプログラム製品はそれとともに実施されるプログラム命令を有する非一時的なコンピュータ可読記憶媒体を含む。コンピュータ命令は方法を前記コンピュータによって実行可能である。その方法は、3D回帰ネットワークを使ったハードウェアプロセッサによって、顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成することを含む。さらに方法は、レンダリング層を使ったハードウェアプロセッサによって、前記空間位置マップと前記カメラ視点マトリクスとに基づいて、前記単一の入力画像の部分的テクスチャマップをレンダリングすることを含む。また、方法は、テクスチャ完了敵対的生成ネットワーク(TC-GAN)を使ったハードウェアプロセッサによって、前記部分的テクスチャマップと前記空間位置マップとに基づいて完全なテクスチャマップを形成するために前記部分的テクスチャマップを完了することを含む。また、方法は、3D属性生成GAN(3DA-GAN)を使ったハードウェアプロセッサによって、前記完全なテクスチャマップと前記空間位置マップとに基づいて前記単一の入力画像のための目標顔属性を生成することを含む。
これらおよび他の特徴および利点は、添付の図面に関連して読まれるべき、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
本開示は、以下の図面を参照して、好ましい実施形態の以下の説明において詳細を提供する。
本発明の一実施形態による例示的な処理システムを示すブロック図である。
本発明の一実施形態による、姿勢変動3D顔属性生成のための例示的なシステムを示すブロック図である。
本発明の一実施形態による、姿勢変動3D顔属性生成のための例示的な方法を示すフロー図である。
本発明の実施形態は、姿勢変動3D顔属性生成を対象とする。
本発明の実施形態は、野生の状況から姿勢変動顔画像の顔属性を生成することを目的とする。この方法は、従来の2D画像以外の3D表現に基づく。フレームワークは、大きな姿勢変動入力に対処することができ、元の入力の上に、ひげ、笑顔、サングラスなどの所望の顔属性を修復することができる。これは、顔認識および顔編集のような多くのアプリケーションのために顔データを増強する重要な方法を提供するため、非常に有用である。もちろん、本発明は、本明細書で提供される本発明の教示に基づいて、他の用途に使用することができる。
一実施形態では、次のようにタスクを2つの主要なステージに解きほぐすことが提案される。第1のステージは、単一の入力画像から3D形状および弱視点マトリクスを直接達成するための差分レンダリング層を用いた砂時計ベースの深密回帰を含み、姿勢分散によって引き起こされる自己遮蔽による部分的テクスチャ表現をレンダリングするために情報を利用する。第2のステージは、2ステップのスタックされたGAN(Generative Adversarial Network)を含む。第1のステップは、テクスチャマップを完成させるために第1のステージから得られた3D形状と部分的テクスチャとの両方を利用するテクスチャ完成GAN(TC-GAN)である。第2のステップは、3D属性生成GAN(3DA-GAN)であり、完成した3Dテクスチャ表現上にターゲット属性を生成する。第1のステージでは、それぞれUVposおよびUVtexと呼ばれる3D点群とテクスチャとの両方にUV表現を適用する。UV表現は、密な形状情報を提供し、点群からテクスチャへの1対1の対応を構築する。第2のステージでは、TC-GANと3DA-GANは、独立した目的を有する2つの機能的に独立したタスクである。3DA-GANは、TC-GANからの出力を属性生成のための入力として受け取り、したがって、スタック構成を形成する。スタックされた2つのGANは、完成したテクスチャと新たに生成された属性とが3D形状相関されるため、入力としてUVposとUVtexとの両方をとる。
図1は、本発明の一実施形態による例示的な処理システム100を示すブロック図である。処理システム100は、1組の処理ユニット(例えば、CPU)101と、1組のGPU102と、1組の記憶装置103と、1組の通信装置104と、1組の周辺装置105とを含む。CPU101は、シングルまたはマルチコアCPUとすることができる。GPU102は、シングルまたはマルチコアGPUとすることができる。1つまたは複数の記憶装置103は、キャッシュ、RAM、ROM、および他のメモリ(フラッシュ、光、磁気など)を含むことができる。通信装置104は、無線および/または有線通信装置(例えば、ネットワーク(例えば、WIFIなど)アダプタなど)を含むことができる。周辺機器105は、表示装置、ユーザ入力装置、プリンタ、撮像装置(例えば、RGBD撮像装置など)、マイクロフォン、スピーカなどを含むことができる。処理システム100の要素は、1つまたは複数のバスまたはネットワーク(まとめて図参照番号110で示す)によって接続される。
一実施形態では、記憶装置103は、特別にプログラムされたソフトウェアモジュールを記憶して、コンピュータ処理システムを、本発明の様々な態様を実施するように構成された特別目的のコンピュータに変換することができる。一実施形態では、専用ハードウェア(例えば、特定用途向け集積回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)など)を使用して、本発明の様々な態様を実施することができる。
一実施形態では、記憶装置103は、3D回帰ネットワーク103A、レンダリング層103B、3D属性生成GAN(3DA GAN)103C2と積層されたテクスチャ完了GAN(TC-GAN)103C1を有する2工程積層敵対的生成ネットワーク(GAN)103C、顔認識システム103D、および顔編集システム103Eのうちの1つまたは複数を実装するためのコードを記憶することができる。本明細書で説明されるこれらおよび他の要素は、記憶装置103によって少なくとも部分的に実装することができる。
もちろん、処理システム100は、当業者によって容易に企図されるように、他の要素(図示せず)を含んでもよく、また、特定の要素を省略してもよい。例えば、当業者によって容易に理解されるように、様々な他の入力装置および/または出力装置を、その特定の実装に応じて、処理システム100に含めることができる。例えば、様々なタイプの無線および/または有線の入力および/または出力装置を使用することができる。さらに、様々な構成の追加のプロセッサ、コントローラ、メモリなどを利用することもできる。さらに、別の実施形態では、クラウド構成を使用することができる。処理システム100のこれらおよび他の変形は、本明細書で提供される本発明の教示を与えられれば、当業者によって容易に企図される。
さらに、システム100の1つまたは複数の要素によって全体的または部分的に実装され得る、本発明に関連する様々な要素およびステップに関して以下で説明される様々な図が理解されるべきである。
本明細書で使用されるように、略して「ハードウェアプロセッササブシステム」または「ハードウェアプロセッサ」という用語は、1つ以上の特定のタスクを実行するために協働するプロセッサ、メモリ、およびソフトウェアの組み合わせを指す。一実施形態では、ハードウェアプロセッササブシステムは、1つまたは複数のデータ処理要素(例えば、論理回路など)を含むことができる。一実施形態では、1つまたは複数のデータ処理要素は、中央処理装置、グラフィックス処理装置、および/または別個のプロセッサもしくはコンピューティング要素ベースの(たとえば、論理ゲートなどの)コントローラに含めることができる。一実施形態では、ハードウェアプロセッササブシステムは、1つ以上のオンボードメモリ(例えば、キャッシュ)を含むことができる。一実施形態では、ハードウェアプロセッササブシステムは、1つ以上の他のメモリ(例えば、ROM、RAM、BIOS)を含むことができる。一実施形態では、ハードウェアプロセッササブシステムは、1つ以上のソフトウェアアプリケーションを含むことができ、実行することができる。一実施形態では、1つ以上のソフトウェアアプリケーションは、特定の結果を達成するために、オペレーティングシステムおよび/または1つ以上の他のアプリケーションおよび/または特定のコードを含むことができる。ハードウェアプロセッササブシステムのこれらの変形例および他の変形例は、本明細書で提供される本発明の教示を前提として、容易に決定される。
図2は、本発明の一実施形態による、姿勢変動3D顔属性生成のための例示的なシステム200を示すブロック図である。
システム200は、第1のステージ210および第2のステージ250を含む。
第1のステージ210は、顔の単一の入力画像201から3D形状のための空間位置マップ221とカメラ視点マトリクス222とを直接生成するための3D回帰ネットワーク220を有する。
第1のステージ210は、空間位置マップ221とカメラ視点マトリクス222とに基づいて単一入力画像201の部分的テクスチャマップ231をレンダリングするためのレンダリング層230を更に有する。
第2のステージ250は、2つの部分から成るスタックされたGAN(Generative Adversarial Network)260を有する。2部分積層GAN260は、3D属性生成GAN(3DA-GAN)280と共に積層されたテクスチャ完了GAN(TC-GAN)270を含む。
TC-GAN270は、部分的テクスチャマップ231と、部分的テクスチャマップの反転バージョン231Aと、空間位置マップ221とに基づいて、部分的テクスチャマップ231を完成させて、完全なテクスチャマップ271を形成するためのものである。
3DA-GAN280は、完全なテクスチャマップ271と空間位置マップ221とに基づいて、単一の入力画像201に対する目標顔属性281を生成するためのものである。
一実施形態では、エンコーダ272とデコーダ273とを有するエンコーダ-デコーダ構造が、TC-GAN270のバックボーンとして提供される。このような構造は、回帰ネットワーク220および3DA-GAN280にも存在し得る。非限定的な実施形態では、エンコーダ272とデコーダ273との両方は、4つのブロックを有する。エンコーダ272の各ブロックは、畳み込み層と、それに続くバッチ正規化層と、ReLU層とを含む。同様に、デコーダ273の各ブロックは、逆畳み込み層と、それに続くバッチ正規化層と、リーキーReLU層とを含む。図2に示すようにエンコーダ272の入力は、部分的テクスチャマップ、反転された部分的テクスチャマップ、および空間位置マップの連結である。エンコーダ272のための出力は、272から生成される中間特徴である。デコーダ273の入力は、エンコーダ272からの中間特徴出力であり、デコーダ273の出力は、完全なテクスチャマップ271である。スキップリンクは、対称的な方法でエンコーダとデコーダとを接続するように設定され、すなわち、エンコーダの最初のブロックは、デコーダの最後のブロックに共有される。スキップリンクは、特に、より低レベルの情報を保存する下位レイヤから、高周波情報を保存する際に重要な役割を果たすことが分かっている。
図3は、本発明の一実施形態による、姿勢変動3D顔属性生成のための例示的な方法を示すフロー図である。
ブロック310では、3D回帰ネットワークによって、顔の単一の入力画像から3D形状およびカメラ視点マトリクスのための空間位置マップを直接生成する。一実施形態では、3D回帰ネットワークは砂時計型回帰関数を使用することができる。
ブロック320において、レンダリング層によって、空間位置マップとカメラ視点マトリックスとに基づいて、単一入力画像の部分的テクスチャマップをレンダリングする。一実施形態では、部分的テクスチャマップは、姿勢分散に起因する自己遮蔽に関連することができる。一実施形態では、姿勢分散に起因する自己遮蔽を使用して、単一の入力画像に存在しない顔領域をシミュレートすることができる。
ブロック330で、テクスチャ完了敵対的生成ネットワーク(TC-GAN)によって、部分的テクスチャマップが完了し、部分的テクスチャマップおよび空間位置マップに基づいて完全なテクスチャマップが形成される。
ブロック340で、3D属性生成GAN(3DA-GAN)によって、完全なテクスチャマップおよび空間位置マップに基づいて、単一の入力画像の目標顔属性を生成する。
ブロック350で、目標顔属性に関連して顔編集動作を実行する。
一実施形態では、ブロック350は、ブロック350Aを含むことができる。
ブロック350Aにおいて、完全なテクスチャマップおよび目標顔属性から新しい画像を形成する。例えば、完全なテクスチャマップは、きれいな剃毛された男性のものであってもよく、目標顔属性は、完全なテクスチャマップにおいて男性に追加されるひげであってもよい。
ブロック360において、完了テクスチャマップおよび目標顔属性(例えば、ブロック350Aによって形成された)から形成された新しい画像と、空間位置マップとに基づいて個人を認識するための顔認識動作を実行する。このようにして、同じ人物の異なる姿勢および異なる顔属性を生成し、その人物を識別するために使用することができる。
このように、本発明は、後者の外観生成をサポートする密な3D表現を導入する。そして、レンダリングを行い、元の入力から可視的な外観を生成する。さらに、完全に見えるテクスチャマップを達成するために、テクスチャ完了GANが提示される。最後に、3D属性生成GANは、3D位置およびテクスチャ表現に直接作用し、完全に制御された姿勢幾何学を有する属性摂動外観を出力するように提案される。
次に、本発明の一実施形態によるUV位置マップ回帰について説明する。
可視外観を忠実にレンダリングするために、形状およびテクスチャの密な3D再構成を求める。
3D点群S 2 RNx3を仮定すると、Nは頂点の数である。各頂点s=(x、y、z)は、画像空間内の3次元座標からなる。(u、v)は、次のように定義される。
Figure 2022505657000002
式(1)は、密な点群からUVマップへの固有のマッピングを確立する。粒度の異なるUV空間を量子化することにより、画像分解能に対するUV空間の密度を制御できる。本研究では、UVマップを256×256に量子化し、65k頂点を保存する。UV位置マップUVposは、UV空間上で定義され、各エントリは、対応する3次元座標(x、y、z)である。UVテクスチャマップUVtexもUV空間上に定義され、各エントリは対応する座標のRGB色である。
UV空間定義に基づいて、元の密な点群の代わりにUVposへの入力から深い回帰を提案する。同時に、弱視点マトリクス
Figure 2022505657000003
を回帰することによって姿勢推定を行う。深い回帰を非線形関数Φとすると、入力画像Iは次のようになる。
Figure 2022505657000004
式(2)の最初の2つの項は、予測された紫外線マップ
Figure 2022505657000005
と弱視点マトリクスWに対する規則的な教師あり損失である。UV*、W*およびs*は対応するグランドトゥルースとして表される。第3項は、予め定義された顔ランドマークを調べる。UVマップによって予測されるランドマーク座標は、グランドトゥルースにも近くなければならない。実際には、小さなUVマップ誤差は小さなランドマーク誤差を保証しないことが分かる。これは、疎なランドマークにマッピングするときに、密な点群がある程度の曖昧さを有するからである。形状回帰をより厳密に制約するために、インデックスベクトル
Figure 2022505657000006
を導入し、そのエントリは、対応する頂点が選択されている場合は1であり、そうでなければ0である。Φ(I)は姿勢固有であり、W*-1を適用することによってそれを基準姿勢に戻す必要があることに注意されたい。仮にW=[R|T]が回転マトリクス
Figure 2022505657000007
および並進ベクトルT 2 R3x1からなるとする。W*-1を[R*-1|-T]とする。第3項を計算するとき、元のΦ(i)を
Figure 2022505657000008
に再整形する。
次に、本発明の一実施形態によるUVテクスチャマップレンダリングについて説明する。姿勢変動顔のUVtexは、部分的に見える外観を有する。これは、姿勢変動に起因する自己遮蔽が、不可視顔領域を生成するためである。元の座標空間において、z-Bufferingアルゴリズムを実行して、各3D頂点の可視状態をラベル付けする。最大の奥行き情報を有する頂点は可視であり、他の全ての頂点は不可視である。エントリ1が可視を意味し、0が不可視を意味する可視ベクトルMを仮定する。レンダリングは、特定の座標の色を対応するUV座標に関連付けることによって、ルックアップ操作になる。式(3)のプロセスを次のように定式化する。
Figure 2022505657000009
ここで、(u,v)は式(1)によって決定される。
次に、本発明の一実施形態によるUVテクスチャマップの完成について説明する。
レンダリングからの不完全なUVtexは、不可視領域が人工物を導入するため、属性生成を行うのに十分ではない。フォトリアリスティックな外観回復だけでなく、アイデンティティ保存も可能なテクスチャの完成を目指す。UV-GANは、敵対的ネットワークを適用することによってUVテクスチャマップを完成させるための同様のフレームワークを提案する。しかしながら、それはテクスチャ情報のみを考慮する。3D UV表現の場合、外観を完成させるには、テクスチャ情報と形状情報との両方を考慮しなければならないと主張した。例えば、元の入力と反転された入力とを組み合わせることは、外観予測のための良好な初期化を提供する。しかし、それは、形状情報を保存するのに十分ではない、形状に対する対称性の制約を適用するだけである。したがって、UVpos、UVtexおよび反転されたUVtexを入力とする。TC-GANのバックボーンとしてエンコーダ-デコーダ構造を設計した。エンコーダとデコーダとの両方に4つのブロックがある。エンコーダの各ブロックは、畳み込み層、それに続くバッチ正規化層およびReLU層を含む。同様に、デコーダの各ブロックは、逆畳み込み層と、それに続くバッチ正規化層と、リーキーReLU層とを含む。スキップリンクは、エンコーダとデコーダとを対称的に接続するように設定され、すなわち、エンコーダの最初のブロックは、デコーダの最後のブロックに共有される。スキップリンクは、特に、より低レベルの情報を保存する下位レイヤから、高周波情報を保存する際に重要な役割を果たすことが分かる。
次に、本発明の一実施形態による再構成モジュールについて説明する。
3D高密度点群再構成を提案することにより、ラベル付けなしにこのタスクのグランドトゥルースを実際に準備することができる。筆者らは、全ての画素が見える近正面顔画像から出発した。次に、ランダムな角度でこの原画像の頭部姿勢を摂動した。全ての姿勢変動画像は、オリジナル画像である同じ正面グランドトゥルースを共有することに留意されたい。導入されたレンダリングにより、入力に対する不完全なテクスチャマップが得られる。グランドトゥルースが与えられているので、次のように完了を導くために、監視された再構成損失を提案する。
Figure 2022505657000010
tc(・)は、エンコーダおよびデコーダを含むジェネレータを示す。Iは入力を表し、
Figure 2022505657000011
は反転された入力を表し、I*は入力の完全なグランドトゥルースを表す。L2またはL1損失は通常ぼやけた効果をもたらすため、再構成に頼るだけでは、高品質の結果を保証することができない。このように、私たちは世代品質を向上させるために敵対的な訓練を導入する。
次に、本発明の一実施形態による弁別器モジュールについて説明する。
正の試料
Figure 2022505657000012
およびGtc生成試料としてグランドトゥルース画像が負の試料として与えられると、我々は、以下の目的で弁別器Dを訓練する。
Figure 2022505657000013
次に、本発明の一実施形態による生成器モジュールについて説明する。
敵対的な訓練に続いて、GtcはDをだますことを目的とし、それによって対象をもう一方の方向に押しやる。
Figure 2022505657000014
次に、本発明の一実施形態に係る平滑化項について説明する。
人工物を除去するために、我々は、以下のように出力の滑らかさを局所的に制約するために、総変動損失を適用することを提案する。
Figure 2022505657000015
Figure 2022505657000016
は、出力の勾配である。
Figure 2022505657000017
は、入力画像のエントリ数であり、出力エントリ数に相当する。アイデンティティを保存するために、ほとんどの作品が行うように、生成された画像からの認識特徴がグランドトゥルース画像からの特徴に近いことを保証するために、顔認識エンジンを導入する必要がある。実際には、式(4)の再構成制約は、このタスクにおけるアイデンティティを保存するのに十分であることが分かる。したがって、TC-GANの全体的な損失は、以下のように要約される。
Figure 2022505657000018
重みのバランスは、それぞれλrecon=1,λadv=0.1,λtv=0.05として経験的に設定される。
次に、本発明の一実施形態による3D顔属性生成について説明する。
3D表現、完成したUVtexとUVposとを入力として導入した。3D幾何学的情報を導入することは、属性をより良く合成することができ、すなわち、3D形状情報を用いて、サングラスが表面として生成されると考えられる。属性コードpをデータフローに挿入することにより、条件付きGANフレームワークとしてターゲット属性生成を定式化した。我々は、単に顔の領域を反映し、顔のアイデンティティに相関しない40の例示的な属性のうちの8つ、すなわち、サングラス(SG)、開口(MO)、口紅塗布(LS)、5時シャドウ(SH)、笑顔(SM)、アイバッグ(EB)、蒼白(PS)および前髪(BA)を手動で選択する。したがって、
Figure 2022505657000019
は、各要素が1つの属性を表し、属性0がない場合と同様に1になる。砂時計はGattrの構造として適用される。エンコーダおよびデコーダは、TC-GANと同様の設定で、それぞれ4つのブロックを有する。属性コードpは、2つのブロックで畳み込まれ、次に、Gattrのエンコーダの第3のブロックに連結される。
我々の訓練手順は、2つのフェーズに分けることができる。
(1)再構築。入力UVtex、UVposおよびグランドトゥルースpを仮定すると、再構成された
Figure 2022505657000020
および
Figure 2022505657000021
は、p内の全く同じ属性で出力される。
(2)属性摂動生成。このステージで、属性を削除する以外の属性を生成するものとして、0から1への反転を考慮して、pの時間当たり1つの属性を反転する。入力は依然としてUVtex、UVposおよび摂動されたp’であり、そのpへのハミング距離は正確に1である。出力は摂動された
Figure 2022505657000022
および
Figure 2022505657000023
であり、p’内の反転されたビットによって示される新たに生成された属性を示し、ここで他の全ての部分が保存されるべきである。フェーズ(1)をセットアップする目的は、属性ごとの生成を考慮するためであり、同様、非属性関連領域の大部分は同じままであるべきである。最初に再構成を行うことは、この手順に大いに有益であり、一方、フェーズ(2)は、局所摂動のみに焦点を当てることができる。さらに、それは、摂動された属性が、これらの2つのフェーズを対比することによって、新たに生成された属性領域のみを決定することを保証する。
著者らは、機能的に同一の構成要素を抽象化することによって損失設計を導入した。これらの構成要素は、主に2つのフェーズ手順によって共有される。
本発明は、任意の可能な技術的詳細レベルの統合におけるシステム、方法、および/またはコンピュータプログラム製品とすることができる。コンピュータプログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ読み取り可能なプログラム命令を有するコンピュータ読み取り可能な記憶媒体を含み得る。
本明細書において、本発明の「一実施形態」又は「一実施形態」とは、その他の変形例と同様に、その実施形態に関連して説明した特定の特徴、構造、特性等が、本発明の少なくとも一実施形態に含まれることを意味するものであり、「一実施形態において」又は「一実施形態において」の語句の出現、並びに本明細書全体の様々な箇所に出現する他の変形例は、必ずしも全て同一の実施形態を意味するものではない。
以下の「/」、「および/または」、および「少なくとも1つ」、例えば、「A/B」、「Aおよび/またはB」、および「AおよびBの少なくとも1つ」のいずれかの使用は、第1のリストされた実施例(A)のみの選択、または第2のリストされた実施例(B)のみの選択、または両方の実施例(AおよびB)の選択を包含することが意図されることを理解されたい。さらなる例として、「A、B、および/またはC」、および「A、B、およびCの少なくとも1つ」の場合、このような句は、第1のリストされた実施例(A)のみの選択、または第2のリストされた実施例(B)のみの選択、または第3のリストされた実施例(C)のみの選択、または第1および第2のリストされた実施例(AおよびB)のみの選択、または 第1および第3のリストされた実施例(AおよびC)のみの選択、または第2および第3のリストされた実施例(BおよびC)のみの選択、または3つすべての実施例(AおよびBおよびC)の選択を包含することを意図する。これは、列挙された項目の数だけ拡張することができる。
上記は、あらゆる点で例示的かつ例示的であるが、限定的ではないと理解されるべきであり、本明細書に開示される本発明の範囲は、詳細な説明からではなく、むしろ特許法によって許容される全範囲に従って解釈されるような特許請求の範囲から決定されるべきである。本明細書に示され、説明された実施形態は、本発明の例示にすぎず、当業者は、本発明の範囲および精神から逸脱することなく、様々な修正を実施することができることを理解されたい。当業者は、本発明の範囲および精神から逸脱することなく、様々な他の特徴の組み合わせを実施することができる。このように、本発明の態様を、特許法によって要求される詳細および特殊性と共に説明してきたが、特許状によって保護されることが請求され、望まれるものは、添付の特許請求の範囲に記載されている。

Claims (20)

  1. 姿勢変動3D顔属性生成のためのシステムであって、
    顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成するためのハードウェアプロセッサベースの3D回帰ネットワークを具備し、さらに、前記空間位置マップと前記カメラ視点マトリクスとに基づいて、前記単一の入力画像の部分的テクスチャマップをレンダリングするためのレンダリング層を具備する第1のステージと、
    3D属性生成GAN(3DA-GAN)と積層されたテクスチャ完了敵対的生成ネットワーク(TC-GAN)を有するハードウェアプロセッサベースの2工程積層敵対的生成ネットワーク(GAN)を具備し、前記TC-GANは、前記部分的テクスチャマップと前記空間位置マップとに基づいて完全なテクスチャマップを形成するために前記部分的テクスチャマップを完了するためのものであり、前記3DA-GANは、前記完全なテクスチャマップと前記空間位置マップとに基づいて前記単一の入力画像のための目標顔属性を生成するためのものである第2のステージとを含むシステム。
  2. 請求項1に記載のシステムにおいて、
    前記部分的テクスチャの表現は、姿勢分散に起因する自己遮蔽に関連するシステム。
  3. 請求項1に記載のシステムにおいて、
    前記姿勢分散に起因する自己遮蔽は、前記単一の入力画像に存在しない顔領域をシミュレートするために使用されるシステム。
  4. 請求項1に記載のシステムにおいて、
    前記目標顔属性に基づいて、人物を認識するための認識ステージをさらに含むシステム。
  5. 請求項1に記載のシステムにおいて、
    前記TC-GANは、前記部分的テクスチャマップと前記空間位置マップとを一緒に処理することによって、前記部分的テクスチャマップを完成させて、前記完全なテクスチャマップを形成するシステム。
  6. 請求項5に記載のシステムにおいて、
    前記TC-GANは、前記部分的テクスチャマップを完成させて、前記部分的テクスチャマップの反転されていないバージョンと反転されたバージョンとを使用して、前記完全なテクスチャマップを形成するシステム。
  7. 請求項1に記載のシステムにおいて、
    前記完全なテクスチャマップと前記空間位置マップとから画像を合成することをさらに含み、前記画像は前記目標顔属性がレンダリングされた前記顔を有するシステム。
  8. 請求項1に記載のシステムにおいて、
    前記システムは、顔認識システムであるシステム。
  9. 請求項1に記載のシステムにおいて、
    前記システムは、顔編集システムであるシステム。
  10. 請求項1に記載のシステムにおいて、
    前記3D回帰ネットワークは、砂時計形状の回帰関数を使用するシステム。
  11. 請求項1に記載のシステムにおいて、
    複数の頂点の中からの特定の頂点の使用に関するインデックスベクトルが、回帰形状を制約するために使用されるシステム。
  12. 請求項1に記載のシステムにおいて、
    前記TC-GANおよび前記3DA-GANは、独立した目的を有する機能的に独立したタスクであるシステム。
  13. 請求項1に記載のシステムにおいて、
    前記目標顔属性を使用して、属性摂動外観を含む画像を生成することをさらに含むシステム。
  14. 請求項13に記載のシステムにおいて、
    前記属性摂動外観を含む画像に対して顔認識を実行して、その中の人物を認識することをさらに含むシステム。
  15. 請求項1に記載のシステムにおいて、
    前記レンダリング層は、奥行き閾値を超える奥行きを有する顔特徴の頂点が前記部分的テクスチャマップにおいてレンダリングされ、一方、前記奥行き閾値以下の奥行きを有する顔特徴の頂点が、前記部分的テクスチャマップにおいて不可視にされるように、前記部分的テクスチャマップをレンダリングするシステム。
  16. 請求項1に記載のシステムにおいて、
    前記TC-GANは、畳み込み層と、それに続くバッチ正規化層と、それに続くRectified Linear Unit層とを含むシステム。
  17. 請求項1に記載のシステムにおいて、
    前記TC-GANは、エンコーダと、前記エンコーダの第1のブロックがデコーダの最後のブロックと接続されるようにスキップリンクによって接続されたデコーダとを有するエンコーダ-デコーダ構造体を有するシステム。
  18. 姿勢変動3D顔属性生成のためのコンピュータで実施する方法であって、
    3D回帰ネットワークを使ったハードウェアプロセッサによって、顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成することと、
    レンダリング層を使ったハードウェアプロセッサによって、前記空間位置マップと前記カメラ視点マトリクスとに基づいて、前記単一の入力画像の部分的テクスチャマップをレンダリングすることと、
    テクスチャ完了敵対的生成ネットワーク(TC-GAN)を使ったハードウェアプロセッサによって、前記部分的テクスチャマップと前記空間位置マップとに基づいて完全なテクスチャマップを形成するために前記部分的テクスチャマップを完了することと、
    3D属性生成GAN(3DA-GAN)を使ったハードウェアプロセッサによって、前記完全なテクスチャマップと前記空間位置マップとに基づいて前記単一の入力画像のための目標顔属性を生成することとを含む方法。
  19. 請求項18に記載のコンピュータで実施する方法において、
    前記3D回帰ネットワークおよび前記レンダリング層は、第1のステージを形成し、前記TC-GANおよび前記3DA-GANは、2工程積層GANを有する第2のステージを形成するコンピュータで実施する方法。
  20. 姿勢変動3D顔属性生成のためのコンピュータプログラム製品であって、前記コンピュータプログラム製品はそれとともに実施されるプログラム命令を有する非一時的なコンピュータ可読記憶媒体を備え、前記コンピュータ命令は方法を前記コンピュータによって実行可能であり、前記方法は、
    3D回帰ネットワークを使ったハードウェアプロセッサによって、顔の単一の入力画像から3D形状のための空間位置マップとカメラ視点マトリクスとを直接生成することと、
    レンダリング層を使ったハードウェアプロセッサによって、前記空間位置マップと前記カメラ視点マトリクスとに基づいて、前記単一の入力画像の部分的テクスチャマップをレンダリングすることと、
    テクスチャ完了敵対的生成ネットワーク(TC-GAN)を使ったハードウェアプロセッサによって、前記部分的テクスチャマップと前記空間位置マップとに基づいて完全なテクスチャマップを形成するために前記部分的テクスチャマップを完了することと、
    3D属性生成GAN(3DA-GAN)を使ったハードウェアプロセッサによって、前記完全なテクスチャマップと前記空間位置マップとに基づいて前記単一の入力画像のための目標顔属性を生成することとを含むコンピュータプログラム製品。
JP2021522071A 2018-11-13 2019-11-06 姿勢変動3d顔面属性生成 Active JP7142162B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862760135P 2018-11-13 2018-11-13
US62/760,135 2018-11-13
US16/673,256 2019-11-04
US16/673,256 US10991145B2 (en) 2018-11-13 2019-11-04 Pose-variant 3D facial attribute generation
PCT/US2019/059960 WO2020101960A1 (en) 2018-11-13 2019-11-06 Pose-variant 3d facial attribute generation

Publications (2)

Publication Number Publication Date
JP2022505657A true JP2022505657A (ja) 2022-01-14
JP7142162B2 JP7142162B2 (ja) 2022-09-26

Family

ID=70551911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522071A Active JP7142162B2 (ja) 2018-11-13 2019-11-06 姿勢変動3d顔面属性生成

Country Status (4)

Country Link
US (1) US10991145B2 (ja)
JP (1) JP7142162B2 (ja)
DE (1) DE112019005672T5 (ja)
WO (1) WO2020101960A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102366777B1 (ko) * 2019-04-01 2022-02-24 한국전자통신연구원 도메인 적응 기반 객체 인식 장치 및 그 방법
EP3956807A1 (en) * 2019-05-13 2022-02-23 Huawei Technologies Co., Ltd. A neural network for head pose and gaze estimation using photorealistic synthetic data
CN110321872B (zh) * 2019-07-11 2021-03-16 京东方科技集团股份有限公司 人脸表情识别方法及装置、计算机设备、可读存储介质
US11386633B2 (en) * 2020-06-13 2022-07-12 Qualcomm Incorporated Image augmentation for analytics
CN111899328B (zh) * 2020-07-10 2022-08-09 西北工业大学 一种基于rgb数据与生成对抗网络的点云三维重建方法
CN112199603B (zh) * 2020-12-07 2021-03-09 平安科技(深圳)有限公司 基于对抗网络的信息推送方法、装置及计算机设备
CN112734910B (zh) * 2021-01-05 2024-07-26 厦门美图之家科技有限公司 基于rgb单图实时人脸三维图像重建方法、装置及电子设备
US11663775B2 (en) * 2021-04-19 2023-05-30 Adobe, Inc. Generating physically-based material maps
US12111880B2 (en) * 2021-05-20 2024-10-08 Disney Enterprises, Inc. Face swapping with neural network-based geometry refining
CN113420866B (zh) * 2021-06-23 2022-10-11 新疆大学 基于双重生成对抗网络的评分预测方法
CN113610958A (zh) * 2021-07-09 2021-11-05 云南联合视觉科技有限公司 一种基于风格迁移的3d图像构建方法、装置及终端
CN113808277B (zh) * 2021-11-05 2023-07-18 腾讯科技(深圳)有限公司 一种图像处理方法及相关装置
CN114240736B (zh) * 2021-12-06 2024-09-20 中国科学院沈阳自动化研究所 基于VAE和cGAN的同时生成和编辑任意人脸属性的方法
CN117876609B (zh) * 2024-03-11 2024-05-24 国网电商科技有限公司 一种多特征三维人脸重建方法、系统、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162012A (ja) * 2014-02-26 2015-09-07 沖電気工業株式会社 顔照合装置及び顔照合方法並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223530A1 (en) * 2016-06-23 2017-12-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
JP6732668B2 (ja) * 2017-01-26 2020-07-29 ヤフー株式会社 抽出装置、抽出方法及び抽出プログラム
US10474880B2 (en) * 2017-03-15 2019-11-12 Nec Corporation Face recognition using larger pose face frontalization
US10572979B2 (en) * 2017-04-06 2020-02-25 Pixar Denoising Monte Carlo renderings using machine learning with importance sampling
KR101906431B1 (ko) * 2017-07-20 2018-10-11 네이버랩스 주식회사 2d 이미지 인식에 기반한 3d 모델링 방법 및 그 시스템
CN109427080A (zh) * 2017-08-31 2019-03-05 爱唯秀股份有限公司 快速生成大量复杂光源人脸图像的方法
US10586370B2 (en) * 2018-01-08 2020-03-10 Facebook Technologies, Llc Systems and methods for rendering avatars with deep appearance models
US10796476B1 (en) * 2018-08-31 2020-10-06 Amazon Technologies, Inc. Self-supervised bootstrap for single image 3-D reconstruction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162012A (ja) * 2014-02-26 2015-09-07 沖電気工業株式会社 顔照合装置及び顔照合方法並びにプログラム

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
AARON S. JACKSON;ADRIAN BULAT;VASILEIOS ARGYRIOU;GEORGIOS TZIMIROPOULOS: "Large Pose 3D Face Reconstruction from a Single Image via Direct Volumetric CNN Regression", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6022021767, 2017, pages 1031 - 1039, XP033282960, ISSN: 0004787803, DOI: 10.1109/ICCV.2017.117 *
DOUGLAS M. SOUZA; DUNCAN D. RUIZ: "GAN-Based Realistic Face Pose Synthesis with Continuous Latent Code", PROCEEDINGS OF THE THIRTY-FIRST INTERNATIONAL FLORIDA ARTIFICIAL INTELLIGENCE RESEARCH SOCIETY CONFE, JPN6022021768, 23 May 2018 (2018-05-23), pages 110 - 115, ISSN: 0004787804 *
JIANKANG DENG;SHIYANG CHENG;NIANNAN XUE;YUXIANG ZHOU;STEFANOS ZAFEIRIOU: "UV-GAN: Adversarial Facial UV Map Completion for Pose-Invariant Face Recognition", ARXIV:1712.04695V1, JPN6022021766, 13 December 2017 (2017-12-13), pages 1 - 9, ISSN: 0004787802 *
XUN HUANG;YIXUAN LI;OMID POURSAEED;JOHN HOPCROFT;SERGE BELONGIE: "Stacked Generative Adversarial Networks", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN7022002500, 2017, pages 1866 - 1875, XP033249528, ISSN: 0004787805, DOI: 10.1109/CVPR.2017.202 *
YUNJEY CHOI;MINJE CHOI;MUNYOUNG KIM;JUNG-WOO HA;SUNGHUN KIM;JAEGUL CHOO: "StarGAN: Unified Generative Adversarial Networks for Multi-domain Image-to-Image Translation", ARXIV:1711.09020V3[CS.CV], JPN6022021770, 21 September 2018 (2018-09-21), pages 1 - 15, ISSN: 0004787807 *
ZHENLIANG HE;WANGMENG ZUO;MEINA KAN;SHIGUANG SHAN;XILIN CHEN: "AttGAN: Facial Attribute Editing by Only Changing What You Want", ARXIV:1711.10678V3[CS.CV], JPN6022021769, 25 July 2018 (2018-07-25), pages 1 - 16, ISSN: 0004787806 *
馬場口 登: "メディアクローン攻撃を防御するコミュニケーション系", 電子情報通信学会技術研究報告 VOL.116 NO.497, vol. CQ2016-115 (2017-03), JPN6022021771, 27 February 2017 (2017-02-27), JP, pages 25 - 30, ISSN: 0004787808 *

Also Published As

Publication number Publication date
JP7142162B2 (ja) 2022-09-26
DE112019005672T5 (de) 2021-08-05
US20200151940A1 (en) 2020-05-14
WO2020101960A1 (en) 2020-05-22
US10991145B2 (en) 2021-04-27

Similar Documents

Publication Publication Date Title
JP7142162B2 (ja) 姿勢変動3d顔面属性生成
Xie et al. Neural fields in visual computing and beyond
US20180247201A1 (en) Systems and methods for image-to-image translation using variational autoencoders
WO2021008444A1 (en) Generating three-dimensional facial data
CN112215050A (zh) 非线性3dmm人脸重建和姿态归一化方法、装置、介质及设备
US9367943B2 (en) Seamless fracture in a production pipeline
CN112785674A (zh) 纹理贴图的生成方法、渲染方法、装置、设备及存储介质
CN113327278A (zh) 三维人脸重建方法、装置、设备以及存储介质
CN114746904A (zh) 三维人脸重建
WO2021252144A1 (en) Object reconstruction with texture parsing
CN116977522A (zh) 三维模型的渲染方法、装置、计算机设备和存储介质
US20220383570A1 (en) High-precision semantic image editing using neural networks for synthetic data generation systems and applications
CN115239861A (zh) 人脸数据增强方法、装置、计算机设备和存储介质
WO2011162352A1 (ja) 3次元データ生成装置、生成方法およびプログラム
Duan et al. Bakedavatar: Baking neural fields for real-time head avatar synthesis
CN115035224A (zh) 图像处理和重构图像生成的方法和装置
CN118262034A (zh) 从图像重建可动画化的三维人类头部模型的系统和方法
CN107818578B (zh) 一种基于注册方法的快速人脸模型重建算法及系统
CN115311403A (zh) 深度学习网络的训练方法、虚拟形象生成方法及装置
US8576239B2 (en) Parallel coherent random walk search for image processing
Lee et al. Holistic 3D face and head reconstruction with geometric details from a single image
US20220172421A1 (en) Enhancement of Three-Dimensional Facial Scans
CN116030181A (zh) 3d虚拟形象生成方法与装置
US10002461B2 (en) Subdivision exterior calculus for geometry processing
CN118521699B (zh) 一种虚拟人三维头发丝发型的生成方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R150 Certificate of patent or registration of utility model

Ref document number: 7142162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350