JP2023514289A - 3次元顔モデルの構築方法、3次元顔モデルの構築装置、コンピュータ機器、及びコンピュータプログラム - Google Patents

3次元顔モデルの構築方法、3次元顔モデルの構築装置、コンピュータ機器、及びコンピュータプログラム Download PDF

Info

Publication number
JP2023514289A
JP2023514289A JP2022549363A JP2022549363A JP2023514289A JP 2023514289 A JP2023514289 A JP 2023514289A JP 2022549363 A JP2022549363 A JP 2022549363A JP 2022549363 A JP2022549363 A JP 2022549363A JP 2023514289 A JP2023514289 A JP 2023514289A
Authority
JP
Japan
Prior art keywords
face
obtaining
critical
region
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022549363A
Other languages
English (en)
Other versions
JP7456670B2 (ja
Inventor
祥▲凱▼ 林
盛 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2023514289A publication Critical patent/JP2023514289A/ja
Application granted granted Critical
Publication of JP7456670B2 publication Critical patent/JP7456670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

本願の実施例は、3次元顔モデルの構築方法、装置、機器、及び記憶媒体を開示し、人工知能のコンピュータビジョンの技術分野に属する。前記方法は、ターゲットオブジェクトの顔点群を取得するステップと、展開計算によって、顔点群における3次元データ点に対応する、ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、3次元データ点のインデックス情報を取得するステップと、顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得するステップと、三角分割情報、インデックス情報、及び顔点群に基づいて、初期3次元顔モデルを取得するステップと、初期3次元顔モデルにおける非クリティカル領域を決定するステップと、初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得するステップと、初期3次元顔モデルにおける非クリティカル領域を、平滑化された非クリティカル領域に置き換えることにより、ターゲットオブジェクトの3次元顔モデルを取得するステップと、を含む。本願の実施例によれば、3次元顔の再構築の効率を向上させる。

Description

本願は、2020年7月16日に中国特許庁に提出された、出願番号が第2020106851830号であり、発明の名称が「3次元顔モデルの構築方法、装置、機器、及び記憶媒体」である、中国特許出願に基づく優先権を主張し、その全ての内容が、参照することにより本願に組み込まれている。
本願は、人工知能のコンピュータビジョンの技術分野に関し、特に、3次元顔モデルの構築技術に関する。
3次元(3D:3 Dimensions)顔の再構築は、1枚又は複数枚の2次元(2D:2 Dimensions)顔画像から顔の3Dモデル(mesh)を再構築することを指す。
関連技術では、通常、以下のような方式によって3次元顔の再構築を行う。即ち、ターゲットオブジェクトの1枚又は複数枚の顔画像を取得し、顔画像から顔における各部位の点を取得し、該顔における各部位の点に基づいて3次元点群データを形成し、さらに、該3次元点群データに対してポアソン再構築を行うことにより、該ターゲットオブジェクトの3次元顔モデルを取得する。
しかしながら、上述したポアソン再構築に基づく3次元顔の再構築方法は、かかる時間が長く、効率が低い。
本願の実施例は、3次元顔の再構築の効率を向上させる3次元顔モデルの構築方法、装置、機器、及び記憶媒体を提供する。その構成は、以下の通りである。
一態様で、本願の実施例は、3次元顔モデルの構築方法を提供する。前記方法は、
ターゲットオブジェクトの顔点群を取得するステップと、
展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得するステップと、
前記顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得するステップであって、前記三角分割情報は、前記画素点に対応する三角トポロジーを示すためのものである、ステップと、
前記三角分割情報、前記インデックス情報、及び前記顔点群に基づいて、初期3次元顔モデルを取得するステップと、
前記初期3次元顔モデルにおける非クリティカル領域を決定するステップであって、前記非クリティカル領域は、前記初期3次元顔モデルにおける非顔領域を指す、ステップと、
前記初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得するステップと、
前記初期3次元顔モデルにおける非クリティカル領域を、前記平滑化された非クリティカル領域に置き換えることにより、前記ターゲットオブジェクトの3次元顔モデルを取得するステップと、を含む。
他の態様で、本願の実施例は、3次元顔モデルの構築装置を提供する。前記装置は、
ターゲットオブジェクトの顔点群を取得する点群取得モジュールと、
展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得するインデックス取得モジュールと、
前記顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得する三角分割モジュールであって、前記三角分割情報は、前記画素点に対応する三角トポロジーを示すためのものである、三角分割モジュールと、
前記三角分割情報、前記インデックス情報、及び前記顔点群に基づいて、初期3次元顔モデルを取得するモデル初期構築モジュールと、
前記初期3次元顔モデルにおける非クリティカル領域を決定する領域決定モジュールであって、前記非クリティカル領域は、前記初期3次元顔モデルにおける非顔領域を指す、領域決定モジュールと、
前記初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得する領域平滑化モジュールと、
前記初期3次元顔モデルにおける非クリティカル領域を、前記平滑化された非クリティカル領域に置き換えることにより、前記ターゲットオブジェクトの3次元顔モデルを取得する領域置き換えモジュールと、を含む。
他の態様で、本願の実施例は、プロセッサとメモリとを備えるコンピュータ機器を提供する。前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサによりロードされて実行されると、上記の態様に記載の方法を実現させる。
別の態様で、本願の実施例は、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶したコンピュータ可読記憶媒体を提供する。前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、プロセッサによりロードされて実行されると、上記の態様に記載の方法を実現させる。
別の態様で、本願の実施例は、コンピュータ命令を含むコンピュータプログラム製品又はコンピュータプログラムを提供する。該コンピュータ命令は、コンピュータ可読記憶媒体に記憶される。コンピュータ機器のプロセッサは、コンピュータ可読記憶媒体から該コンピュータ命令を読み取る。プロセッサは、該コンピュータ命令を実行すると、上記の態様に記載の方法を該コンピュータ機器に実行させる。
本願の実施例で提供される構成は、以下の有益な効果をもたらすことができる。即ち、
展開計算によって決定された、顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得し、次に、該三角分割情報に基づいて3次元顔モデルを取得する。本願の実施例では、三角分割に基づいて3次元顔モデルを構築するため、速度が速く、効率が高い。
また、初期3次元顔モデルを取得した後、該初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化処理後の非クリティカル領域で元の非クリティカル領域を置き換えて3次元顔モデルを取得する。該3次元顔モデルの効果が比較的良い。
本願で提供される3次元顔モデルの再構築フローのフレームワーク図である。 本願の一実施例で提供される3次元顔モデルの構築方法のフローチャートである。 本願の一実施例で提供される異なる観察視点での顔点群の模式図である。 本願の一実施例で提供される三角トポロジーの模式図である。 本願の一実施例で提供される初期3次元顔モデルの模式図である。 本願の一実施例で提供される3次元顔モデルの模式図である。 本願の他の実施例で提供される3次元顔モデルの構築方法のフローチャートである。 本願の一実施例で提供される顔点群の3次元座標における模式図である。 本願の一実施例で提供される顔テクスチャ画像における画素点の模式図である。 本願の一実施例で提供されるターゲット領域の模式図である。 本願の他の実施例で提供される三角トポロジーの模式図である。 本願の一実施例で提供される非クリティカル領域の模式図である。 本願の他の実施例で提供される3次元顔モデルの模式図である。 本願の一実施例で提供される3次元顔モデルの構築フローのブロック図である。 本願の一実施例で提供される顔画像の模式図である。 本願の一実施例で提供される領域テクスチャ画像の模式図である。 本願の一実施例で提供される顔テクスチャ画像の模式図である。 本願の一実施例で提供されるテクスチャ付きの3次元顔モデルの模式図である。 本願の一実施例で提供される3次元顔モデルの構築装置のブロック図である。 本願の一実施例で提供されるコンピュータ機器の構成の模式図である。
本願の実施例で提供される構成は、3次元顔の再構築の技術分野に関し、コンピュータビジョン技術を利用して、ターゲットオブジェクトの顔画像に対して分析処理を行い、ターゲットオブジェクトの3次元顔モデルを構築し、該ターゲットオブジェクトの顔テクスチャ画像を生成することができ、該顔テクスチャ画像によって上記3次元顔モデルをレンダリングして、テクスチャ付きの顔モデルを生成する。
図1を参照すると、それには、本願で提供される3次元顔モデルの再構築フローのフレームワーク図が示される。該フローから分かるように、入力データは、ターゲットオブジェクトの顔点群11を含み、出力データは、該ターゲットオブジェクトの3次元顔モデル12を含む。ターゲットオブジェクトの顔点群11を取得した後、一方では、展開計算によって、顔点群11における3次元データ点に対応する、ターゲットオブジェクトの顔テクスチャ画像13における画素点座標を決定することにより、該3次元データ点のインデックス情報を取得し、他方では、顔テクスチャ画像13における画素点に対して三角分割を行うことにより、三角分割情報を取得する。該三角分割情報は、該画素点に対応する三角トポロジー14を示すためのものである。次に、上記インデックス情報及び三角分割情報に基づいて、初期3次元顔モデル15を生成する。初期3次元顔モデル15を取得した後、平滑化処理後の非クリティカル領域を取得するために、該初期3次元顔モデル15における非クリティカル領域に対して平滑化処理を行う必要がる。最後に、初期3次元顔モデル15における非クリティカル領域を上記平滑化処理後の非クリティカル領域に置き換えることにより、ターゲットオブジェクトの3次元顔モデル12を取得する。
本願の実施例で提供される方法フローにおいて、各ステップの実行主体は、例えば、携帯電話、タブレットコンピュータ、マルチメディア再生デバイス、ウェアラブルデバイス、パーソナルコンピュータ(PC:Personal Computer)などの端末であってもよいし、サーバであってもよい。説明の便宜上、下記の方法の実施例では、各ステップの実行主体がコンピュータ機器である場合のみを例に紹介して説明する。上記コンピュータ機器は、計算能力及び記憶能力を備える任意の電子機器、例えば、上記で紹介した端末又はサーバであってもよい。
以下、いくつかの実施例を参照しながら、本願の構成を詳細に紹介して説明する。
図2を参照すると、それには、本願の一実施例で提供される3次元顔モデルの構築方法のフローチャートが示される。該方法は、以下のいくつかのステップを含んでもよい。
ステップ201では、ターゲットオブジェクトの顔点群を取得する。
ターゲットオブジェクトは、3次元顔モデルを構築するニーズがある任意のユーザを指す。ターゲットオブジェクトは、任意の人物であってもよい。該ターゲットオブジェクトは、実際の人間であってもよいし、ロボット、又は一定の空間体積を占める他の立体的な人物であってもよい。本願の実施例は、これを限定しない。
顔点群は、顔に対応する点群を指し、複数の3次元データ点を用いてターゲットオブジェクトの顔を記述する3次元データである。顔点群は、複数の3次元データ点を含む。3次元データ点は、3次元の立体空間における1つの点を指す。各3次元データ点それぞれは、3次元の立体空間において1つの(x,y,z)の3次元座標で表すことができる。
可能な実現方式において、コンピュータ機器は、ターゲットオブジェクトの、カラー画像及び深度画像が含まれる画像ペアを少なくとも1つ収集し、次に、カラー画像及び深度画像に基づいてターゲットオブジェクトの顔点群を抽出する。ここで、顔点群における各3次元データ点のx座標及びy座標は、カラー画像によって決定することができ、3次元データ点のz座標は、深度画像によって決定することができる。
図3に示すように、それには、異なる観察視点での顔点群の模式図が示される。図3の(a)部分には、正面顔の姿勢での顔点群の模式図が示され、図3の(b)部分及び図3の(c)部分には、右横顔の姿勢での顔点群の模式図が示され、図3の(d)部分には、顔を上げた右横顔の姿勢での顔点群の模式図が示され、図3の(e)部分には、顔を上げた姿勢での顔点群の模式図が示される。
ステップ202では、展開計算によって、顔点群における3次元データ点に対応する、ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、3次元データ点のインデックス情報を取得する。
任意選択的に、該インデックス情報は、uvインデックスと呼んでもよい。顔点群における各3次元データ点のuvインデックスは、該3次元データ点に対応する、顔テクスチャ画像における画素点座標(u、v)を指す。
ステップ203では、顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得する。
本願の実施例において、三角分割情報は、画素点に対応する三角トポロジーを示すためのものである。ターゲットオブジェクトの顔テクスチャ画像において、隣接する3つの画素点を結んで1つの三角トポロジー(又は、三角形パッチと呼ばれる)を形成することができる。
本願の実施例において、三角分割は、1組の画素点が与えられた場合、各画素点同士を三角形で相互に結ぶことにより、1枚の三角メッシュを形成することであり、画素点とその隣接する画素点との間のトポロジー関係を三角メッシュの形で反映することを本質とする。
可能な実現方式では、顔テクスチャ画像における画素点に対してDelaunay三角分割を行うことにより、三角分割情報を取得する。
図4に示すように、コンピュータ機器は、左側の顔テクスチャ画像41を三角分割することにより、右側の三角トポロジー42を取得し、該三角トポロジー42に基づいて三角分割情報を決定することができる。
ステップ204では、三角分割情報、インデックス情報、及び顔点群に基づいて、初期3次元顔モデルを取得する。
三角分割情報に基づいて、各画素点それぞれに対応する三角トポロジーを決定することができ、インデックス情報に基づいて、顔テクスチャ画像における画素点に対応する、顔点群における3次元データ点を決定することができる。したがって、顔点群における各3次元データ点それぞれに対応する三角トポロジーを取得することができ、各3次元データ点それぞれに対応する三角トポロジーに基づいて、図5に示すような初期3次元顔モデルを取得することができる。図5の(a)部分には、正面顔の姿勢での初期3次元顔モデルが示され、図5の(b)部分には、右横顔の姿勢での初期3次元顔モデルが示され、図5の(c)部分には、顔を上げた姿勢での初期3次元顔モデルが示される。
図5に示すように、顎領域の重畳に起因して、初期3次元顔モデルにおける顎領域の効果が比較的悪くなるため、初期3次元顔モデルにおける顎領域を調整して最適化する必要がある。説明すべきものとして、顎領域は、非クリティカル領域に属する。
ステップ205では、初期3次元顔モデルにおける非クリティカル領域を決定する。
本願の実施例において、非クリティカル領域は、初期3次元顔モデルにおける非顔領域、即ち、非顔クリティカル3次元データ点で覆われる領域を指す。非顔クリティカル3次元データ点は、非顔クリティカル点に対応する3次元データ点を指す。顔クリティカル点は、眉、目、唇などの顔クリティカル部位におけるクリティカル点を含んでもよい。
コンピュータ機器は、初期3次元顔モデルにおける非クリティカル領域を決定した後、該非クリティカル領域を調整して最適化してもよい。
ステップ206では、初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得する。
可能な実現方式では、初期3次元顔モデルにおける非クリティカル領域をラプラスメッシュスムージングアルゴリズムに入力して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得する。
ステップ207では、初期3次元顔モデルにおける非クリティカル領域を、平滑化された非クリティカル領域に置き換えることにより、ターゲットオブジェクトの3次元顔モデルを取得する。
ターゲットオブジェクトの3次元顔モデルは、顔点群に基づいて再構築された、ターゲットオブジェクトの顔の3次元モデルを指す。1つの3次元顔モデルは、点群及び三角トポロジーを含んでもよい。
図6に示すように、それには、顔点群に対して再構築を行って生成された、該ターゲットオブジェクトの3次元顔モデルの、異なる観察視点での模式図が示される。図6の(a)部分は、正面顔の角度での3次元顔モデルの模式図であり、図6の(b)部分、図6の(c)部分、及び図6の(d)部分は、左横顔の姿勢での3次元顔モデルの模式図であり、図6の(e)部分は、顔を上げた角度での3次元顔モデルの模式図である。
以上をまとめると、本願の実施例で提供される構成では、展開計算によって決定された、顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得し、次に、該三角分割情報に基づいて3次元顔モデルを取得する。本願の実施例では、三角分割に基づいて3次元顔モデルを構築するため、速度が速く、効率が高い。また、初期3次元顔モデルを取得した後、該初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化処理後の非クリティカル領域で初期3次元顔モデルにおける非クリティカル領域を置き換えて、ターゲットオブジェクトの3次元顔モデルを取得する。該3次元顔モデルの効果が比較的良い。
図7を参照すると、それには、本願の他の実施例で提供される3次元顔モデルの構築方法のフローチャートが示される。この方法は、以下のいくつかのステップを含んでもよい。
ステップ701では、ターゲットオブジェクトの顔点群を取得する。
ステップ701に関する紹介・説明について、前述した実施例を参照すればよいが、ここでは、これ以上の説明を省略する。
ステップ702では、顔点群に対して格子ダウンサンプリングを行うことにより、ダウンサンプリング後の顔点群を取得する。
本願の実施例では、ダウンサンプリング後の顔点群における頸部領域及び非頸部領域のそれぞれに対応する格子密度が異なる。頸部領域が非クリティカル領域であるため、頸部領域に対して大幅なダウンサンプリングを行うことができ、例えば、頸部領域に対応する格子密度を低減して大幅なダウンサンプリングを実現することができる。
可能な実現方式において、ステップ702は、以下のいくつかのサブステップを含む。
ステップ702aでは、3次元空間において、第1格子密度で頸部領域を分割することにより、頸部領域に対応する複数の格子を取得し、第2格子密度で非頸部領域を分割することにより、非頸部領域に対応する複数の格子を取得する。
可能な実現方式では、第1格子密度が第2格子密度よりも低い。これにより、頸部領域に対する大幅なダウンサンプリングを実現する。
ステップ702bでは、顔点群を3次元空間における複数の格子内に融合する。
ステップ702cでは、各格子内に含まれる、顔点群における3次元データ点の3次元座標に対して、同じ座標次元で平均値を取ることにより、ダウンサンプリング後の顔点群を取得する。
例えば、1つの格子内には、3次元データ点1、3次元データ点2、及び3次元データ点3という3つの3次元データ点が含まれる。3次元データ点1の3次元座標は、(x1,y1,z1)であり、3次元データ点2の3次元座標は、(x2,y2,z2)であり、3次元データ点3の3次元座標は、(x3,y3,z3)である場合、該格子は、ダウンサンプリングされた後に1つの3次元データ点を含み、該3次元データ点の3次元座標は、((x1+x2+x3)/3,(y1+y2+y3)/3,(z1+z2+z3)/3)である。説明すべきものとして、3次元空間内の各格子のダウンサンプリング処理方式は、これと類似し、ここでは、これ以上の説明を省略する。
顔点群に対してダウンサンプリングを行うことにより、顔点群を比較的均一に分布させることができる。また、まず、顔点群に対して格子ダウンサンプリングを行ってから、ダウンサンプリング後の顔点群に基づいて後続の処理フローを行うことにより、コンピュータ機器の処理オーバーヘッドを低減することができる。
ステップ703では、展開計算によって、ダウンサンプリング後の顔点群における3次元データ点に対応する、ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、3次元データ点のインデックス情報を取得する。
可能な実現方式において、ステップ703は、以下のいくつかのサブステップを含む。説明すべきものとして、下記ステップにおける顔点群は、ダウンサンプリング後の顔点群であってもよいし、ダウンサンプリング処理が行われない顔点群であってもよい。即ち、ステップ702で顔点群に対してダウンサンプリング処理を行った場合、後続のステップにおける顔点群は、ダウンサンプリング後の顔点群であるべきであり、逆に、ステップ702を実行せず、顔点群に対してダウンサンプリング処理を行っていない場合、後続のステップにおける顔点群は、ダウンサンプリングが行われない顔点群であるべきである。
ステップ703aでは、顔点群における3次元データ点の、3次元座標系における3次元座標を取得する。
構築された3次元座標系で、顔点群における3次元データ点の、3次元座標系における3次元座標を取得することができる。該3次元座標は、(x,y,z)と表すことができる。
任意選択的に、上記3次元座標を取得する前に、まず、3次元座標系を構築する。3次元座標系は、x、y、z軸を含んでもよく、且つ2つずつ互いに垂直である。任意選択的に、x軸は、水平方向の座標軸であり、例えば、左目から右目への方向であってもよい。y軸は、鉛直方向の座標軸であり、例えば、眉間から口への方向であってもよい。z軸は、深さ方向の座標軸であり、例えば、後頭部から鼻先への方向であってもよい。図8に示すように、図8の(a)部分には、左から右へ見るときに観察された顔点群の模式図が示され、該図8の(a)部分からz軸方向及びy軸方向が明らかに見える。図8の(b)部分には、頭頂から見下ろすときに観察された顔点群の模式図が示され、該平面図の視点からx軸方向及びz軸方向が明らかに見える。
ステップ703bでは、3次元データ点の3次元座標に基づいて、円柱展開計算によって、3次元データ点に対応する、顔テクスチャ画像における画素点座標を決定することにより、インデックス情報を取得する。
本願の実施例では、顔点群を円柱とすることができ、円柱の頂面から底面への方向は、即ち、頭頂から見下ろす方向である。円柱展開によって、各3次元データ点(x,y,z)に対応する、顔テクスチャ画像における画素点座標(u,v)を算出することができる。任意選択的に、該計算式は、以下のようにしてもよい。
v=(y-ymin)/(ymax-ymin
u=atan(z/x)
ここで、vは、展開縦座標を表し、uは、展開横座標を表し、ymax及びyminは、それぞれ、顔点群に含まれる3次元データ点のy軸における最大値及び最小値を表し、atan()関数は、逆正接関数を表す。
説明すべきものとして、象限ごとにuを処理することにより、顔点群の位置との対応づけを実現する。
上記の式によって、顔点群に対して円柱展開を行うことにより平面2次元のuvインデックスを取得することができる。図9に示すように、それには、本願の一実施例で提供される顔テクスチャ画像91における画素点の模式図が示される。
可能な実現方式では、円柱展開計算によって画素点座標を決定することに加えて、球展開計算によって画素点座標を決定してもよい。この場合、v=atan(z/y)、u=atan(z/x)である。又は、立体展開計算によって画素点座標を決定してもよい。この場合、u=(x-xmin)/(xmax-xmin)、v=(y-ymin)/(ymax-ymin)である。本願は、ここで展開計算に用いられる計算方法を何ら限定しない。
ステップ704では、顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得する。
本願の実施例において、三角分割情報は、画素点に対応する三角トポロジーを示すためのものである。
ステップ705では、三角分割情報、インデックス情報、及び顔点群に基づいて、初期3次元顔モデルを取得する。
ステップ706では、顔テクスチャ画像における非顔クリティカル画素点を決定する。
可能な実現方式において、ステップ706は、以下のいくつかのサブステップを含む。
ステップ706aでは、顔テクスチャ画像におけるクリティカル領域に対応する凸包を決定する。
本願の実施例において、クリティカル領域は、顔テクスチャ画像における顔クリティカル画素点で覆われる領域を指す。顔クリティカル画素点は、顔クリティカル点に対応する画素点を指し、凸包は、上記顔クリティカル画素点をぴったり囲む領域を指す。
ステップ706bでは、膨張閾値に基づいて凸包を拡大することにより、ターゲット領域を取得する。
任意選択的に、膨張閾値は、解像度に基づいて設定される。図10に示すように、それには、本願の一実施例で提供されるターゲット領域の模式図が示される。膨張閾値に基づいて凸包101を拡大することにより、ターゲット領域102を取得する。
ステップ706cでは、顔テクスチャ画像におけるターゲット領域以外の領域における画素点を非顔クリティカル画素点として決定する。
ターゲット領域以外の領域に含まれる画素点は、顔部から遠い頸部点と見なすことができ、顔部から遠い頸部点は、即ち、非顔クリティカル画素点である。図10に示すような領域103に含まれる画素点は、非顔クリティカル画素点と見なすことができる。
凸包を拡大してターゲット領域を取得し、該ターゲット領域に基づいて非顔クリティカル画素点を決定することにより、後続の平滑化処理をより精確にし、且つ平滑化された非クリティカル領域と初期3次元顔モデルとの融合をより自然にすることができる。
ステップ707では、非顔クリティカル画素点、三角分割情報、及びインデックス情報に基づいて、非顔クリティカル3次元データ点と、非顔クリティカル3次元データ点に対応する三角トポロジーを決定する。
非顔クリティカル画素点及び三角分割情報に基づいて、非顔クリティカル画素点に対応する三角トポロジーを決定することができる。図11に示すように、斜線の領域110は、即ち、非顔クリティカル画素点に対応する三角トポロジーである。
インデックス情報には、顔テクスチャ画像における画素点と、顔点群における3次元データ点との対応関係が反映されるため、非顔クリティカル画素点及びインデックス情報に基づいて、非顔クリティカル3次元データ点を決定することができる。非顔クリティカル3次元データ点及び三角分割情報に基づいて、非顔クリティカル3次元データ点に対応する三角トポロジーを決定することができる。
ステップ708では、非顔クリティカル3次元データ点に対応する三角トポロジーで形成された領域を非クリティカル領域として決定する。
図12に示すように、図12における濃色の領域120は、非クリティカル領域を表し、図12の(a)部分には、正面顔の姿勢での非クリティカル領域の模式図が示され、図12の(b)部分には、横顔の姿勢での非クリティカル領域の模式図が示される。
ステップ709では、初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得する。
ステップ710では、初期3次元顔モデルにおける非クリティカル領域を、平滑化された非クリティカル領域に置き換えることにより、ターゲットオブジェクトの3次元顔モデルを取得する。
初期3次元顔モデルにおける非クリティカル領域を、平滑化された非クリティカル領域に置き換えることにより、顎領域の重畳が解消され、最終的に、図13に示すような3次元顔モデルの模式図が取得される。図13の(a)部分には、正面顔の姿勢での3次元顔モデルの模式図が示され、図13の(b)部分には、右横顔の姿勢での3次元顔モデルの模式図が示される。
図14を参照すると、それには、本願の一実施例で提供される3次元顔モデルの構築フローのブロック図が示される。該3次元顔モデルの構築フローのブロック図は、格子ダウンサンプリングモジュール1401と、円柱展開モジュール1402と、三角分割モジュール1403と、領域別平滑化モジュール1404と、を含む。格子ダウンサンプリングモジュール1401は、顔点群に対して格子ダウンサンプリングを行うことにより、ダウンサンプリング後の顔点群を取得する。円柱展開モジュール1402は、ダウンサンプリング後の顔点群に対して円柱展開計算を行うことにより、インデックス情報を決定する。三角分割モジュール1403は、顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得し、該三角分割情報、インデックス情報、及び顔点群に基づいて、初期3次元顔モデルを取得する。領域別平滑化モジュール1404は、初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、ターゲットオブジェクトの3次元顔モデルを取得する。
可能な実現方式において、上記3次元顔モデルの構築フローのブロック図は、テクスチャ抽出モジュール1405をさらに含む。テクスチャ抽出ブロック図1405は、ターゲットオブジェクトの顔テクスチャ画像を生成する。ターゲットオブジェクトの顔テクスチャ画像を生成する具体的なフローについては、以下の実施例を参照すればよく、ここでは、これ以上の説明を省略する。
以上をまとめると、本願の実施例で提供される構成では、顔点群に対して格子ダウンサンプリングを行うことにより、顔点群の分布を比較的均一にさせ、一定の平滑化効果を奏することができる。また、まず、顔点群に対してダウンサンプリングを行うことにより、後続のコンピュータ機器がダウンサンプリング後の顔点群を処理するときに、コンピュータ機器の処理オーバーヘッドを低減することができる。
模式的な実施例において、本願の実施例は、以下の方式によって、ターゲットオブジェクトの顔テクスチャ画像を生成する。
第1に、ターゲットオブジェクトのn種類(nは、正の整数)の頭部姿勢に対応するn個の顔画像を取得する。
ターゲットオブジェクトの顔画像は、該ターゲットオブジェクトの顔が含まれるRGB画像(又は、カラー画像と呼ばれる)を指す。該RGB画像は、カメラでターゲットオブジェクトを撮影したものであってもよい。RGB画像の各画素値は、赤(R:Red)、緑(G:Green)、青(B:Blue)という3つのチャネルの色成分で表される。任意選択的に、撮影によってターゲットオブジェクトのRGB画像を取得するときに、各RGB画像それぞれに対応する深度画像をさらに取得してもよい。深度画像は、カメラから、ターゲットオブジェクトが位置するシーンにおける各点までの距離値を画素値とする画像を指す。深度画像は、距離画像とも呼ばれる。深度画像には、物体の見える表面の幾何学的形状が反映される。深度画像は、グレースケール画像に類似するが、深度画像の各画素値がカメラから物体までの実際の距離である点が異なる。ターゲットオブジェクトのRGB画像及び深度画像は、位置合わせされたものであってもよく、両者の画像点の間に1対1の対応関係がある。
ターゲットオブジェクトのRGB画像及び深度画像は、3Dカメラで撮影された2枚の画像であってもよい。通常の2DカメラではRGB画像しか撮影できないのに対し、3Dカメラでは、RGB画像に加えて、深度画像も撮影できる。ここで、3Dカメラは、RGB画像を撮影するカラーカメラと、深度情報を収集して深度画像を生成する深度センサとを含んでもよい。
上記n個の顔画像は、n種類の頭部姿勢でのターゲットオブジェクトの顔画像であってもよい。
一例において、nの値は、1である。例えば、正面顔の姿勢でのターゲットオブジェクトの顔画像を取得する。
他の例において、3D顔再構築の正確性を向上させるために、nの値は、1より大きい。例えば、上記n種類の頭部姿勢は、正面顔の姿勢、右横顔の姿勢、左横顔の姿勢、及び顔を上げた姿勢を含む。
コンピュータ機器がどの頭部姿勢でのターゲットオブジェクトの顔画像を取得するかは、予め設定することができる。例示的に、図15に示すように、右横顔の姿勢、正面顔の姿勢、左横顔の姿勢、及び顔を上げた姿勢という4種類の頭部姿勢でのターゲットオブジェクトの顔画像を取得する。
任意選択的に、ターゲットオブジェクトの顔画像を収集するためのカメラの位置が固定され、ターゲットオブジェクトが頭部を回転させ、カメラがターゲットオブジェクトの複数の顔画像を収集する。例えば、ターゲットオブジェクトが頭部を回転させる全過程の画像は、いずれもカメラによって収集されて保存される。効率の配慮から、多くのデータが重複するため、収集された全ての画像のいずれに対しても計算を行う必要がない。ターゲットオブジェクトが頭部を回転させる全過程で数百枚の顔画像が収集され、この数百枚の顔画像のいずれに対しても計算を行うと、計算リソースを浪費する。したがって、後続の計算のために、この数百枚の顔画像の中からいくつかの代表的な顔画像を選別すればよい。
可能な実現方式では、ターゲットオブジェクトの複数の候補顔画像を取得し、該複数の候補顔画像の中から品質が合格するターゲット画像を選別し、ターゲット画像の中からn種類の頭部姿勢での顔画像を選択する。ここで、品質が合格しない(例えば、瞬き、動きボケなど)顔画像が除去され、品質が合格するターゲット画像が残され、次に、品質が合格するこれらのターゲット画像の中から、頭部姿勢に応じてn個の顔画像が選択される。
第2に、3次元データ点と、顔画像における画素点との間のマッピング関係を取得する。
顔画像がn個含まれる場合、顔点群における3次元データ点と、各顔画像それぞれにおける画素点との間のマッピング関係を取得し、即ち、n組のマッピング関係を取得する必要がある。
任意選択的に、以下の方式によってマッピング関係を取得する。即ち、n個の顔画像のうちのi番目の顔画像に対し、透視投影を用いて3次元データ点をi番目の顔画像に投影することにより、3次元データ点に対応する、i番目の顔画像における画素点座標を第i組のマッピング関係として取得する。ここで、上記マッピング関係は、n組含み、n組のマッピング関係のうちの第i組のマッピング関係は、i番目の顔画像に対応するものであり、iは、n以下の正の整数である。
各顔画像それぞれに対応する頭部姿勢が既知であるため、該頭部姿勢に応じて、顔点群に対して回転、平行移動などの処理を行ってから、カメラのパラメータに基づいて、該頭部姿勢に対応する顔画像に透視投影することができる。
第3に、n個の顔画像のそれぞれから、頭部姿勢に対応する画像領域を取得することにより、n個の有効領域を取得する。
顔画像の数nが1よりも大きい場合、n組のマッピング関係が生成されるため、各組それぞれのマッピング関係と、インデックス情報とを組み合わせることにより、1枚のターゲットオブジェクトの顔テクスチャ画像を生成することができる。最終的に1枚の融合後の顔テクスチャ画像を生成するために、この複数枚の顔テクスチャ画像に対して多視点融合を行う必要がある。
任意選択的に、このステップは、以下のいくつかのサブステップを含む。
1、n個の顔画像のうちのi番目の顔画像に対し、i番目の顔画像から顔クリティカル点を検出する。
顔クリティカル点は、眉、目、唇、顔の輪郭などの顔クリティカル部位におけるクリティカル点を含む。
2、顔クリティカル点の位置と、予め定義された規則とに基づいて、i番目の顔画像における有効領域を取得する。
i番目の顔画像における有効領域は、該i番目の顔画像に対応する頭部姿勢に応じて決定された領域であって、融合によって最終的な顔テクスチャ画像を生成するための領域を指す。
i番目の顔画像における有効領域を決定する場合を例にすると、該i番目の顔画像から顔クリティカル点を検出した後、鼻先点を中心として円を描く。該円の大きさは、全ての顔クリティカル点のうち、鼻先点からの距離が最大となる顔クリティカル点によって決定され、つまり、該円は、鼻先点を中心として、検出された全ての顔クリティカル点を含む最小円である。次に、該円形領域から、現在の頭部姿勢で完全に見える顔部位を含む1つの領域を有効領域として選択する。例示的に、該i番目の顔画像が正面顔の姿勢での顔画像である場合、該円に含まれる領域を有効領域として直接に決定してもよい。該i番目の顔画像が左横顔の姿勢での顔画像である場合、左目尻、左口角、及び顎の中心位置という3つのクリティカル点を通る1つの線を生成し、該線が上記円と交差して形成された、左横顔を含む領域を有効領域とする。該i番目の顔画像が右横顔の姿勢での顔画像である場合、右目尻、右口角、及び顎の中心位置という3つのクリティカル点を通る1つの線を生成し、該線が上記円と交差して形成された、右横顔を含む領域を有効領域とする。該i番目の顔画像が、顔を上げた姿勢での顔画像である場合、左口角、右口角、左頬の輪郭点、右頬の輪郭点、及び上記の円で囲まれた、顎部分が含まれる領域を有効領域とする。
第4に、n個の有効領域のうちのi番目(iは、n以下の正の整数)の有効領域に対し、マッピング関係に基づいて、i番目の有効領域における画素点に対応するターゲット3次元データ点を取得する。
第5に、インデックス情報に基づいて、ターゲット3次元データ点に対応する、i番目の有効領域における領域テクスチャ画像におけるターゲット画素点を取得する。
第6に、ターゲット画素点をレンダリングして、i番目の有効領域に対応する領域テクスチャ画像を生成し、ターゲット画素点の画素値は、i番目の有効領域内の画素点の画素値に基づいて決定されたものである。
図16に示すように、図16の(a)部分には、正面顔の姿勢での顔画像における有効領域に対応する領域テクスチャ画像が示され、図16の(b)部分には、左横顔の姿勢での顔画像における有効領域に対応する領域テクスチャ画像が示され、図16の(c)部分には、右横顔の姿勢での顔画像における有効領域に対応する領域テクスチャ画像が示され、図16の(d)部分には、顔を上げた姿勢での顔画像における有効領域に対応する領域テクスチャ画像が示される。
第7に、n個の領域テクスチャ画像を画像融合して、ターゲットオブジェクトの顔テクスチャ画像を生成する。
n個の有効領域のそれぞれに対応する領域テクスチャ画像を生成した後、n個の有効領域の繋ぎ合わせにより完全な顔が形成されるため、上記n個の領域テクスチャ画像を繋ぎ合わせて、ターゲットオブジェクトの顔テクスチャ画像を生成してもよい。
各頭部姿勢での照明条件が異なる可能性があるため、各顔画像同士の色に一定の差が存在し、例えば、正面顔が明らかに白っぽくなる。この場合、n個の領域テクスチャ画像を直接に繋ぎ合わせてターゲットオブジェクトの顔テクスチャ画像を生成すると、繋ぎ目に明らかな境界線が現れる。より滑らかな効果を取得するために、以下のステップによってn個の領域テクスチャ画像を画像融合してもよい。
1、n個の領域テクスチャ画像の平均色を算出する。
任意選択的に、このステップは、以下のいくつかのサブステップを含む。
1.1、n個の領域テクスチャ画像のうちのi番目(iは、n以下の正の整数)の領域テクスチャ画像に対し、i番目の領域テクスチャ画像の有効領域からサンプリングして、少なくとも1つの画素点の画素値を取得し、i番目の領域テクスチャ画像の画素値の平均値を算出する。
1.2、n個の領域テクスチャ画像の画素値の平均値に基づいて、n個の領域テクスチャ画像の平均色を算出する。
2、n個の領域テクスチャ画像の色を平均色に変換することにより、n個の変換後の領域テクスチャ画像を取得する。
3、n個の変換後の領域テクスチャ画像を繋ぎ合わせて、顔テクスチャ画像を生成する。
平均色を取得した後、各領域テクスチャ画像それぞれの色を平均色に変換することにより、n個の変換後の領域テクスチャ画像を取得し、次に、n個の変換後の領域テクスチャ画像を繋ぎ合わせて、顔テクスチャ画像を生成する。このようにすると、最終的に生成された顔テクスチャ画像における肌色をより滑らかで自然にすることができ、明らかな境界線が発生することはない。例示的に、図17に示すように、それには、図16の各領域テクスチャ画像を融合して生成されたターゲットオブジェクトの顔テクスチャ画像の模式図が示される。
コンピュータ機器は、ターゲットオブジェクトの顔テクスチャ画像を生成した後、該顔テクスチャ画像を用いて該ターゲットオブジェクトの3次元顔モデルをレンダリングして、ターゲットオブジェクトのテクスチャ付きの3次元顔モデルを生成することができる。該プロセスは、以下のステップを含んでもよい。
1、インデックス情報に基づいて、3次元データ点に対応する、顔テクスチャ画像における画素点の画素値を取得する。
2、3次元データ点の画素値に基づいて、3次元顔モデルをレンダリングして、テクスチャ付きの3次元顔モデルを生成する。
点群における各3次元データ点それぞれに対し、該3次元データ点に対応するuvインデックスに基づいて、該3次元データ点に対応する、ターゲットオブジェクトの顔テクスチャ画像における画素点の画素値を該3次元データ点の画素値として取得してもよい。また、3次元顔モデルにおける各三角パッチの画素値は、その三角パッチの3つの頂点の画素値の平均値で表すことができる。このようにすると、レンダリングによって、図18に示すような該ターゲットオブジェクトのテクスチャ付きの3次元顔モデルを生成することができる。図18の(a)部分には、正面顔の姿勢での3次元顔モデルの模式図が示され、図18の(b)部分及び図18の(c)部分には、右横顔の姿勢での3次元顔モデルの模式図が示され、図18の(d)部分には、左横顔の姿勢での3次元顔モデルの模式図が示され、図18の(e)部分には、顔を上げた姿勢での3次元顔モデルの模式図が示される。
1つの可能な応用シーンでは、ターゲットオブジェクトのテクスチャ付きの3次元顔モデルを生成した後、該3次元顔モデルを駆動して、異なる表情、例えば、口を開けたり、口を閉じたり、目を瞬いたりするような異なる顔動作の効果を作り出すことができる。
音声インタラクションシーンを例にすると、再生対象の音声メッセージを決定した後、該音声情報に対応する表情シーケンスを取得することができ、該表情シーケンスには、少なくとも1つの表情が含まれる。音声メッセージを再生する過程では、表情シーケンスに含まれる各表情の順序に応じて、ターゲットオブジェクトの各表情でのテクスチャ付きの3次元顔モデルを順次表示する。ここで、音声情報と表情シーケンスとの間のマッピング関係を予め記憶してもよく、再生対象の音声情報を決定した後、上記マッピング関係に基づいて、該音声情報に対応する表情シーケンスを見つけることができる。例えば、各発音と表情との間のマッピング関係を記憶してもよい。再生対象の音声情報を決定した後、該音声情報に対応する発音シーケンスを決定することができ、該発音シーケンスには、順に配列された少なくとも1つの発音が含まれる。各発音それぞれに対応する表情を取得すれば、該音声情報に対応する表情シーケンスを取得することができる。
上記の方式によれば、3次元顔の再構築で得られたモデルに基づいて音声インタラクションを行う構成が実現されるとともに、リアルタイムに再生される音声に応じて、マッチした表情をよりリアルに表示することができる。
以下は、本願の方法の実施例の実行に使用可能な本願の装置の実施例である。本願の装置の実施例に披露されていない詳細については、本願の方法の実施例を参照する。
図19を参照すると、それには、本願の一実施例で提供される3次元顔モデルの構築装置のブロック図が示される。該装置は、上記の方法例を実現する機能を有する。前記機能は、ハードウェアによって実現されてもよいし、ハードウェアが相応のソフトウェアを実行することによって実現されてもよい。該装置1900は、点群取得モジュール1910と、インデックス取得モジュール1920と、三角分割モジュール1930と、モデル初期構築モジュール1940と、領域決定モジュール1950と、領域平滑化モジュール1960と、領域置き換えモジュール1970と、を含んでもよい。
点群取得モジュール1910は、ターゲットオブジェクトの顔点群を取得し、
インデックス取得モジュール1920は、展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得し、
三角分割モジュール1930は、前記顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得し、前記三角分割情報は、前記画素点に対応する三角トポロジーを示すためのものであり、
モデル初期構築モジュール1940は、前記三角分割情報、前記インデックス情報、及び前記顔点群に基づいて、初期3次元顔モデルを取得し、
領域決定モジュール1950は、前記初期3次元顔モデルにおける非クリティカル領域を決定し、前記非クリティカル領域は、前記初期3次元顔モデルにおける非顔領域を指し、
領域平滑化モジュール1960は、前記初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得し、
領域置き換えモジュール1970は、前記初期3次元顔モデルにおける非クリティカル領域を、前記平滑化された非クリティカル領域に置き換えることにより、前記ターゲットオブジェクトの3次元顔モデルを取得する。
模式的な実施例において、前記領域決定モジュール1950は、画素点決定ユニットと、トポロジー決定ユニットと、領域決定ユニットと、を含む(図示せず)。
画素点決定ユニットは、前記顔テクスチャ画像における非顔クリティカル画素点を決定し、
トポロジー決定ユニットは、前記非顔クリティカル画素点、前記三角分割情報、及び前記インデックス情報に基づいて、非顔クリティカル3次元データ点と、前記非顔クリティカル3次元データ点に対応する三角トポロジーとを決定し、
領域決定ユニットは、前記非顔クリティカル3次元データ点に対応する三角トポロジーで形成された領域を前記非クリティカル領域として決定する。
模式的な実施例において、前記画素点決定ユニットは、
前記顔テクスチャ画像におけるクリティカル領域に対応する凸包を決定し、前記クリティカル領域が、前記顔テクスチャ画像における顔クリティカル画素点で覆われる領域を指し、
膨張閾値に基づいて前記凸包を拡大することにより、ターゲット領域を取得し、
前記顔テクスチャ画像における前記ターゲット領域以外の領域における画素点を前記非顔クリティカル画素点として決定する。
模式的な実施例において、前記装置は、ダウンサンプリングモジュールをさらに含む(図示せず)。
ダウンサンプリングモジュールは、前記顔点群に対して格子ダウンサンプリングを行うことにより、ダウンサンプリング後の顔点群を取得し、前記ダウンサンプリング後の顔点群における頸部領域及び非頸部領域のそれぞれに対応する格子密度が異なる。
この場合、前記インデックス取得モジュール1920は、具体的には、展開計算によって、前記ダウンサンプリング後の顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得する。
模式的な実施例において、前記ダウンサンプリングモジュールは、
3次元空間において、第1格子密度で前記頸部領域を分割することにより、前記頸部領域に対応する複数の格子を取得し、第2格子密度で前記非頸部領域を分割することにより、前記非頸部領域に対応する複数の格子を取得し、
前記顔点群を前記3次元空間における複数の格子内に融合し、
各格子内に含まれる、前記顔点群における3次元データ点の3次元座標に対して、同じ座標次元で平均値を取ることにより、前記ダウンサンプリング後の顔点群を取得する。
模式的な実施例において、前記インデックス取得モジュール1920は、
前記顔点群における3次元データ点の、3次元座標系における3次元座標を取得し、
前記3次元データ点の3次元座標に基づいて、円柱展開計算によって、前記3次元データ点に対応する、前記顔テクスチャ画像における画素点座標を決定することにより、前記インデックス情報を取得する。
模式的な実施例において、前記装置は、画像取得モジュールと、マッピング取得モジュールと、領域取得モジュールと、データ点取得モジュールと、画素点取得モジュールと、画素点レンダリングモジュールと、画像融合モジュールと、をさらに含む(図示せず)。
画像取得モジュールは、前記ターゲットオブジェクトのn種類(前記nは、正の整数)の頭部姿勢に対応するn個の顔画像を取得し、
マッピング取得モジュールは、前記3次元データ点と、前記顔画像における画素点との間のマッピング関係を取得し、
領域取得モジュールは、前記n個の顔画像のそれぞれから頭部姿勢に対応する画像領域を取得することにより、n個の有効領域を取得し、
データ点取得モジュールは、前記n個の有効領域のうちのi番目(前記iは、前記n以下の正の整数)の有効領域に対し、前記マッピング関係に基づいて、前記i番目の有効領域における画素点に対応するターゲット3次元データ点を取得し、
画素点取得モジュールは、前記インデックス情報に基づいて、前記ターゲット3次元データ点の、前記i番目の有効領域に対応する領域テクスチャ画像におけるターゲット画素点を取得し、
画素点レンダリングモジュールは、前記ターゲット画素点をレンダリングして、前記i番目の有効領域に対応する領域テクスチャ画像を生成し、前記ターゲット画素点の画素値は、前記i番目の有効領域内の画素点の画素値に基づいて決定されたものであり、
画像融合モジュールは、前記n個の領域テクスチャ画像を画像融合して、前記ターゲットオブジェクトの前記顔テクスチャ画像を生成する。
模式的な実施例において、前記領域取得モジュールは、
前記n個の顔画像のうちのi番目の顔画像に対し、前記i番目の顔画像から顔クリティカル点を検出し、
前記顔クリティカル点の位置と、予め定義された規則とに基づいて、前記i番目の顔画像における有効領域を取得する。
模式的な実施例において、前記装置は、画素値取得モジュールと、モデルレンダリングモジュールと、をさらに含む(図示せず)。
画素値取得モジュールは、前記インデックス情報に基づいて、前記3次元データ点に対応する、前記顔テクスチャ画像における画素点の画素値を取得し、
モデルレンダリングモジュールは、前記3次元データ点の画素値に基づいて前記3次元顔モデルをレンダリングして、テクスチャ付きの3次元顔モデルを生成する。
図20を参照すると、それには、本願の一実施例で提供されるコンピュータ機器2000の構成の模式図が示される。該コンピュータ機器2000は、上記の実施例で提供される3次元顔モデルの構築方法の実施に使用可能である。具体的には、
前記コンピュータ機器2000は、中央処理装置(CPU:Central Processing Unit)2001と、ランダムアクセスメモリ(RAM:Random Access Memory)2002及び読み出し専用メモリ(ROM:Read-Only Memory)2003を含めたシステムメモリ2004と、システムメモリ2004及び中央処理装置2001を接続するシステムバス2005と、を含む。前記コンピュータ機器2000は、コンピュータ内の各部品間の情報の伝送を支援する基本入出力システム(I/Oシステム:Input/Outputシステム)2006と、オペレーティングシステム2013、アプリケーションプログラム2014、及び他のプログラムモジュール2015を記憶するための大容量記憶装置2007と、をさらに含む。
前記基本入出力システム2006は、情報を表示するためのディスプレイ2008と、ユーザが情報を入力するためのマウスやキーボードのような入力機器2009と、を含む。ここで、前記ディスプレイ2008及び入力機器2009の両方は、システムバス2005に接続された入出力コントローラ2010を介して中央処理装置2001に接続されている。前記基本入出力システム2006は、キーボード、マウス、又は電子タッチペンなどの複数の他の機器からの入力を受け付けて処理するための入出力コントローラ2010を含んでもよい。同様に、入出力コントローラ2010は、ディスプレイ、プリンタ、又は他のタイプの出力機器への出力も提供する。
前記大容量記憶装置2007は、システムバス2005に接続された大容量記憶コントローラ(図示せず)を介して中央処理装置2001に接続されている。前記大容量記憶装置2007及びそれに関連するコンピュータ可読媒体は、コンピュータ機器2000に対して不揮発性記憶を提供する。つまり、前記大容量記憶装置2007は、ハードディスクやコンパクトディスク読み出し専用メモリ(CD-ROM:Compact Disc Read-Only Memory)ドライブのようなコンピュータ可読媒体(図示せず)を含んでもよい。
一般性を失うことなく、前記コンピュータ可読媒体は、コンピュータ記憶媒体と通信媒体とを含んでもよい。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなどのような情報を記憶するための任意の方法又は技術によって実現される揮発性及び不揮発性、移動可能な及び移動不可な媒体を含む。コンピュータ記憶媒体は、RAM、ROM、消去可能なプログラマブル読み出し専用メモリ(EPROM:Erasable Programmable Read-Only Memory)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM:Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ(Flash Memory)又は他のソリッドステート記憶装置、CD-ROM、デジタル多用途ディスク(DVD:Digital Versatile Disc)又は他の光学的記憶装置、テープカートリッジ、磁気テープ、磁気ディスク記憶装置又は他の磁気記憶装置を含む。もちろん、当業者であれば、前記コンピュータ記憶媒体がこれらに限定されないことが分かる。上記のシステムメモリ2004及び大容量記憶装置2007を総称してメモリと呼んでもよい。
本願の様々な実施例によれば、前記コンピュータ機器2000は、インターネットなどのようなネットワークを介して、ネットワーク上のリモートコンピュータに接続されて実行されてもよい。即ち、コンピュータ機器2000は、前記システムバス2005に接続されたネットワークインタフェースユニット2011を介して、ネットワーク2012に接続されてもよく、言い換えれば、ネットワークインタフェースユニット2011を使用して、他のタイプのネットワーク又はリモートコンピュータシステム(図示せず)に接続されてもよい。
前記メモリは、1つ又は複数のプログラムをさらに含み、前記1つ又は複数のプログラムは、メモリに記憶され、1つ又は複数のプロセッサにより実行されるように構成される。上記1つ又は複数のプログラムには、上記コンピュータ機器側の3次元顔モデルの構築方法を実現するための命令が含まれる。
例示的な実施例では、プロセッサとメモリとを備える端末がさらに提供されている。前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶される。前記少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットは、1つ又は複数のプロセッサにより実行されると、上記3次元顔モデルの構築方法を実現させるように構成される。
例示的な実施例では、プロセッサとメモリとを備えるサーバがさらに提供されている。前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶される。前記少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットは、1つ又は複数のプロセッサにより実行されると、上記3次元顔モデルの構築方法を実現させるように構成される。
例示的な実施例では、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶したコンピュータ可読記憶媒体がさらに提供されている。前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、コンピュータ機器のプロセッサにより実行されると、上記3次元顔モデルの構築方法を実現させる。
例示的な実施例では、コンピュータ命令を含むコンピュータプログラム製品又はコンピュータプログラムがさらに提供されている。該コンピュータ命令は、コンピュータ可読記憶媒体に記憶される。コンピュータ機器のプロセッサは、コンピュータ可読記憶媒体から該コンピュータ命令を読み取る。プロセッサは、該コンピュータ命令を実行すると、上記実施例、又は上記実施例の各種の任意選択的な実現方式で提供される3次元顔モデルの構築方法を該コンピュータ機器に実行させる。
1910 点群取得モジュール
1920 インデックス取得モジュール
1930 三角分割モジュール
1940 モデル初期構築モジュール
1950 領域決定モジュール
1960 領域平滑化モジュール
1970 領域置き換えモジュール
2001 中央処理装置
2002 ランダムアクセスメモリ
2003 読み出し専用メモリ
2004 システムメモリ
2005 システムバス
2007 大容量記憶装置
2008 ディスプレイ
2009 入力機器
2010 入出力コントローラ
2011 ネットワークインタフェースユニット
2012 ネットワーク
2013 オペレーティングシステム
2014 アプリケーションプログラム
2015 他のプログラムモジュール
本願の実施例において、三角分割情報は、画素点に対応する三角トポロジーを示すためのものである。ターゲットオブジェクトの顔テクスチャ画像において、隣接する3つの画素点を結んで1つの三角トポロジー(又は、三角形パッチ、三角形トポロジーと呼ばれる)を形成することができる。
可能な実現方式において、上記3次元顔モデルの構築フローのブロック図は、テクスチャ抽出モジュール1405をさらに含む。テクスチャ抽出モジュール1405は、ターゲットオブジェクトの顔テクスチャ画像を生成する。ターゲットオブジェクトの顔テクスチャ画像を生成する具体的なフローについては、以下の実施例を参照すればよく、ここでは、これ以上の説明を省略する。
音声インタラクションシーンを例にすると、再生対象の音声情報を決定した後、該音声情報に対応する表情シーケンスを取得することができ、該表情シーケンスには、少なくとも1つの表情が含まれる。音声情報を再生する過程では、表情シーケンスに含まれる各表情の順序に応じて、ターゲットオブジェクトの各表情でのテクスチャ付きの3次元顔モデルを順次表示する。ここで、音声情報と表情シーケンスとの間のマッピング関係を予め記憶してもよく、再生対象の音声情報を決定した後、上記マッピング関係に基づいて、該音声情報に対応する表情シーケンスを見つけることができる。例えば、各発音と表情との間のマッピング関係を記憶してもよい。再生対象の音声情報を決定した後、該音声情報に対応する発音シーケンスを決定することができ、該発音シーケンスには、順に配列された少なくとも1つの発音が含まれる。各発音それぞれに対応する表情を取得すれば、該音声情報に対応する表情シーケンスを取得することができる。
画像取得モジュールは、前記ターゲットオブジェクトのn種類(前記nは、正の整数)の頭部姿勢に対応するn個の顔画像を取得し、
マッピング取得モジュールは、前記3次元データ点と、前記顔画像における画素点との間のマッピング関係を取得し、
領域取得モジュールは、前記n個の顔画像のそれぞれから頭部姿勢に対応する画像領域を取得することにより、n個の有効領域を取得し、
データ点取得モジュールは、前記n個の有効領域のうちのi番目(前記iは、前記n以下の正の整数)の有効領域に対し、前記マッピング関係に基づいて、前記i番目の有効領域における画素点に対応するターゲット3次元データ点を取得し、
画素点取得モジュールは、前記インデックス情報に基づいて、前記ターゲット3次元データ点の、前記i番目の有効領域に対応する領域テクスチャ画像におけるターゲット画素点を取得し、
画素点レンダリングモジュールは、前記ターゲット画素点をレンダリングして、前記i番目の有効領域に対応する領域テクスチャ画像を生成し、前記ターゲット画素点の画素値は、前記i番目の有効領域内の画素点の画素値に基づいて決定されたものであり、
画像融合モジュールは、n個の領域テクスチャ画像を画像融合して、前記ターゲットオブジェクトの前記顔テクスチャ画像を生成する。

Claims (13)

  1. コンピュータ機器が実行する、3次元顔モデルの構築方法であって、
    ターゲットオブジェクトの顔点群を取得するステップと、
    展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得するステップと、
    前記顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得するステップであって、前記三角分割情報は、前記画素点に対応する三角トポロジーを示すためのものである、ステップと、
    前記三角分割情報、前記インデックス情報、及び前記顔点群に基づいて、初期3次元顔モデルを取得するステップと、
    前記初期3次元顔モデルにおける非クリティカル領域を決定するステップであって、前記非クリティカル領域は、前記初期3次元顔モデルにおける非顔領域を指す、ステップと、
    前記初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得するステップと、
    前記初期3次元顔モデルにおける非クリティカル領域を、前記平滑化された非クリティカル領域に置き換えることにより、前記ターゲットオブジェクトの3次元顔モデルを取得するステップと、を含む、
    方法。
  2. 前記初期3次元顔モデルにおける非クリティカル領域を決定する前記ステップは、
    前記顔テクスチャ画像における非顔クリティカル画素点を決定するステップと、
    前記非顔クリティカル画素点、前記三角分割情報、及び前記インデックス情報に基づいて、非顔クリティカル3次元データ点と、前記非顔クリティカル3次元データ点に対応する三角トポロジーとを決定するステップと、
    前記非顔クリティカル3次元データ点に対応する三角トポロジーで形成された領域を前記非クリティカル領域として決定するステップと、を含む、
    請求項1に記載の方法。
  3. 前記顔テクスチャ画像における非顔クリティカル画素点を決定する前記ステップは、
    前記顔テクスチャ画像におけるクリティカル領域に対応する凸包を決定するステップであって、前記クリティカル領域は、前記顔テクスチャ画像における顔クリティカル画素点で覆われる領域を指す、ステップと、
    膨張閾値に基づいて前記凸包を拡大することにより、ターゲット領域を取得するステップと、
    前記顔テクスチャ画像における前記ターゲット領域以外の領域における画素点を前記非顔クリティカル画素点として決定するステップと、を含む、
    請求項2に記載の方法。
  4. 展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得する前記ステップの前に、
    前記顔点群に対して格子ダウンサンプリングを行うことにより、ダウンサンプリング後の顔点群を取得するステップであって、前記ダウンサンプリング後の顔点群における頸部領域及び非頸部領域のそれぞれに対応する格子密度が異なる、ステップをさらに含み、
    前記展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得する前記ステップは、
    展開計算によって、前記ダウンサンプリング後の顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得するステップを含む、
    請求項1に記載の方法。
  5. 前記顔点群に対して格子ダウンサンプリングを行うことにより、ダウンサンプリング後の顔点群を取得する前記ステップは、
    3次元空間において、第1格子密度で前記頸部領域を分割することにより、前記頸部領域に対応する複数の格子を取得し、第2格子密度で前記非頸部領域を分割することにより、前記非頸部領域に対応する複数の格子を取得するステップと、
    前記顔点群を前記3次元空間における複数の格子内に融合するステップと、
    各格子内に含まれる、前記顔点群における3次元データ点の3次元座標に対して、同じ座標次元で平均値を取ることにより、前記ダウンサンプリング後の顔点群を取得するステップと、を含む、
    請求項4に記載の方法。
  6. 展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得する前記ステップは、
    前記顔点群における3次元データ点の、3次元座標系における3次元座標を取得するステップと、
    前記3次元データ点の3次元座標に基づいて、円柱展開計算によって、前記3次元データ点に対応する、前記顔テクスチャ画像における画素点座標を決定することにより、前記インデックス情報を取得するステップと、を含む、
    請求項1に記載の方法。
  7. 前記ターゲットオブジェクトのn種類(前記nは、正の整数)の頭部姿勢に対応するn個の顔画像を取得するステップと、
    前記3次元データ点と、前記顔画像における画素点との間のマッピング関係を取得するステップと、
    前記n個の顔画像のそれぞれから頭部姿勢に対応する画像領域を取得することにより、n個の有効領域を取得するステップと、
    前記n個の有効領域のうちのi番目(前記iは、前記n以下の正の整数)の有効領域に対し、前記マッピング関係に基づいて、前記i番目の有効領域における画素点に対応するターゲット3次元データ点を取得するステップと、
    前記インデックス情報に基づいて、前記ターゲット3次元データ点の、前記i番目の有効領域に対応する領域テクスチャ画像におけるターゲット画素点を取得するステップと、
    前記ターゲット画素点をレンダリングして、前記i番目の有効領域に対応する領域テクスチャ画像を生成するステップであって、前記ターゲット画素点の画素値は、前記i番目の有効領域内の画素点の画素値に基づいて決定されたものである、ステップと、
    前記n個の領域テクスチャ画像を画像融合して、前記ターゲットオブジェクトの前記顔テクスチャ画像を生成するステップと、をさらに含む、
    請求項1乃至6のいずれか1項に記載の方法。
  8. 前記n個の顔画像のそれぞれから頭部姿勢に対応する画像領域を取得することにより、n個の有効領域を取得する前記ステップは、
    前記n個の顔画像のうちのi番目の顔画像に対し、前記i番目の顔画像から顔クリティカル点を検出するステップと、
    前記顔クリティカル点の位置と、予め定義された規則とに基づいて、前記i番目の顔画像における有効領域を取得するステップと、を含む、
    請求項7に記載の方法。
  9. 前記n個の領域テクスチャ画像を画像融合して、前記ターゲットオブジェクトの前記顔テクスチャ画像を生成する前記ステップの後に、
    前記インデックス情報に基づいて、前記3次元データ点に対応する、前記顔テクスチャ画像における画素点の画素値を取得するステップと、
    前記3次元データ点の画素値に基づいて前記3次元顔モデルをレンダリングして、テクスチャ付きの3次元顔モデルを生成するステップと、をさらに含む、
    請求項7に記載の方法。
  10. 3次元顔モデルの構築装置であって、
    ターゲットオブジェクトの顔点群を取得する点群取得モジュールと、
    展開計算によって、前記顔点群における3次元データ点に対応する、前記ターゲットオブジェクトの顔テクスチャ画像における画素点座標を決定することにより、前記3次元データ点のインデックス情報を取得するインデックス取得モジュールと、
    前記顔テクスチャ画像における画素点に対して三角分割を行うことにより、三角分割情報を取得する三角分割モジュールであって、前記三角分割情報は、前記画素点に対応する三角トポロジーを示すためのものである、三角分割モジュールと、
    前記三角分割情報、前記インデックス情報、及び前記顔点群に基づいて、初期3次元顔モデルを取得するモデル初期構築モジュールと、
    前記初期3次元顔モデルにおける非クリティカル領域を決定する領域決定モジュールであって、前記非クリティカル領域は、前記初期3次元顔モデルにおける非顔領域を指す、領域決定モジュールと、
    前記初期3次元顔モデルにおける非クリティカル領域に対して平滑化処理を行うことにより、平滑化された非クリティカル領域を取得する領域平滑化モジュールと、
    前記初期3次元顔モデルにおける非クリティカル領域を、前記平滑化された非クリティカル領域に置き換えることにより、前記ターゲットオブジェクトの3次元顔モデルを取得する領域置き換えモジュールと、を含む、
    装置。
  11. プロセッサとメモリとを備えるコンピュータ機器であって、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサによりロードされて実行されると、請求項1乃至9のいずれか1項に記載の方法を実現させる、コンピュータ機器。
  12. 少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットを記憶したコンピュータ可読記憶媒体であって、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、プロセッサによりロードされて実行されると、請求項1乃至9のいずれか1項に記載の方法を実現させる、記憶媒体。
  13. 命令を含むコンピュータプログラム製品であって、前記命令がコンピュータ上で実行されると、請求項1乃至9のいずれか1項に記載の方法をコンピュータに実行させる、コンピュータプログラム製品。
JP2022549363A 2020-07-16 2021-06-01 3次元顔モデルの構築方法、3次元顔モデルの構築装置、コンピュータ機器、及びコンピュータプログラム Active JP7456670B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010685183.0A CN111710036B (zh) 2020-07-16 2020-07-16 三维人脸模型的构建方法、装置、设备及存储介质
CN202010685183.0 2020-07-16
PCT/CN2021/097567 WO2022012192A1 (zh) 2020-07-16 2021-06-01 三维人脸模型的构建方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023514289A true JP2023514289A (ja) 2023-04-05
JP7456670B2 JP7456670B2 (ja) 2024-03-27

Family

ID=72546119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022549363A Active JP7456670B2 (ja) 2020-07-16 2021-06-01 3次元顔モデルの構築方法、3次元顔モデルの構築装置、コンピュータ機器、及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20220284679A1 (ja)
EP (1) EP4057234A4 (ja)
JP (1) JP7456670B2 (ja)
CN (1) CN111710036B (ja)
WO (1) WO2022012192A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111710036B (zh) * 2020-07-16 2023-10-17 腾讯科技(深圳)有限公司 三维人脸模型的构建方法、装置、设备及存储介质
CN112418030B (zh) * 2020-11-11 2022-05-13 中国标准化研究院 一种基于三维点云坐标的头面部号型分类方法
CN112613460A (zh) * 2020-12-30 2021-04-06 深圳威富优房客科技有限公司 人脸生成模型的建立方法和人脸生成方法
CN112801082B (zh) * 2021-01-22 2024-01-12 北京百度网讯科技有限公司 图像的采样方法、装置及电子设备
CN114363405B (zh) * 2021-05-26 2023-09-22 科大国创云网科技有限公司 基于上网话单与mr用户轨迹的司机群体识别方法及系统
CN113343925B (zh) * 2021-07-02 2023-08-29 厦门美图宜肤科技有限公司 人脸三维重建方法、装置、电子设备及存储介质
CN115830262B (zh) * 2023-02-14 2023-05-26 济南市勘察测绘研究院 一种基于对象分割的实景三维模型建立方法及装置
CN116385705B (zh) * 2023-06-06 2023-08-29 北京智拓视界科技有限责任公司 用于对三维数据进行纹理融合的方法、设备和存储介质
CN116452403B (zh) * 2023-06-16 2023-09-01 瀚博半导体(上海)有限公司 点云数据处理方法、装置、计算机设备及存储介质
CN116912402A (zh) * 2023-06-30 2023-10-20 北京百度网讯科技有限公司 人脸重建的方法、装置、电子设备、存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663810B (zh) * 2012-03-09 2014-07-16 北京航空航天大学 一种基于相位偏移扫描的三维人脸全自动建模方法
US20150325044A1 (en) * 2014-05-09 2015-11-12 Adornably, Inc. Systems and methods for three-dimensional model texturing
US9940504B2 (en) * 2015-06-17 2018-04-10 Itseez3D, Inc. Method to produce consistent face texture
CN107958489B (zh) * 2016-10-17 2021-04-02 杭州海康威视数字技术股份有限公司 一种曲面重建方法及装置
CN107945267B (zh) * 2017-12-13 2021-02-26 四川川大智胜软件股份有限公司 一种用于人脸三维模型纹理融合的方法和设备
CN107945278A (zh) * 2017-12-14 2018-04-20 桂林电子科技大学 一种生物体结构的三维重构与有限元分析方法
CN110210374B (zh) * 2018-05-30 2022-02-25 沈阳工业大学 基于光栅条纹投影的三维人脸定位方法
CN109191552A (zh) * 2018-08-16 2019-01-11 Oppo广东移动通信有限公司 三维模型处理方法、装置、电子设备和存储介质
DE102018129600A1 (de) * 2018-11-23 2020-05-28 Fielmann Ventures GmbH Verfahren und System zur virtuellen Anprobe einer Brille
CN110807836B (zh) * 2020-01-08 2020-05-12 腾讯科技(深圳)有限公司 三维人脸模型的生成方法、装置、设备及介质
CN111325823B (zh) * 2020-02-05 2022-09-27 腾讯科技(深圳)有限公司 人脸纹理图像的获取方法、装置、设备及存储介质
CN111710036B (zh) * 2020-07-16 2023-10-17 腾讯科技(深圳)有限公司 三维人脸模型的构建方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US20220284679A1 (en) 2022-09-08
CN111710036A (zh) 2020-09-25
EP4057234A4 (en) 2023-07-05
WO2022012192A1 (zh) 2022-01-20
CN111710036B (zh) 2023-10-17
JP7456670B2 (ja) 2024-03-27
EP4057234A1 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
JP7456670B2 (ja) 3次元顔モデルの構築方法、3次元顔モデルの構築装置、コンピュータ機器、及びコンピュータプログラム
CN111325823B (zh) 人脸纹理图像的获取方法、装置、设备及存储介质
US11410320B2 (en) Image processing method, apparatus, and storage medium
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
WO2021093453A1 (zh) 三维表情基的生成方法、语音互动方法、装置及介质
Wei et al. Fisheye video correction
US8933928B2 (en) Multiview face content creation
JP2004537082A (ja) 仮想現実環境における実時間バーチャル・ビューポイント
JPWO2006049147A1 (ja) 三次元形状推定システム及び画像生成システム
CN110246146A (zh) 基于多次深度图像渲染的全视差光场内容生成方法及装置
US11928778B2 (en) Method for human body model reconstruction and reconstruction system
Wenninger et al. Realistic virtual humans from smartphone videos
CN111382618B (zh) 一种人脸图像的光照检测方法、装置、设备和存储介质
CN109461197B (zh) 一种基于球面uv和重投影的云实时绘制优化方法
EP3980975B1 (en) Method of inferring microdetail on skin animation
CN113989434A (zh) 一种人体三维重建方法及设备
CN114299225A (zh) 动作图像生成方法、模型构建方法、设备及存储介质
Narayanan et al. Virtual worlds using computer vision
US11145109B1 (en) Method for editing computer-generated images to maintain alignment between objects specified in frame space and objects specified in scene space
CN115375832A (zh) 三维人脸重建方法、电子设备、存储介质及程序产品
Takai et al. 3D video technologies: capturing high fidelity full 3D shape, motion, and texture
CN117808943A (zh) 一种三维卡通人脸重建方法、装置、设备及存储介质
Yamada et al. Development of a High-Definition Visualization System for Immersion into a Moving Miniature World
CN117351142A (zh) 基于ai绘图的自动生成三维贴图方法、系统及存储介质
Sudhakar et al. M. Tech Project Report

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7456670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150