JP7362044B2 - 修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善 - Google Patents

修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善 Download PDF

Info

Publication number
JP7362044B2
JP7362044B2 JP2022503564A JP2022503564A JP7362044B2 JP 7362044 B2 JP7362044 B2 JP 7362044B2 JP 2022503564 A JP2022503564 A JP 2022503564A JP 2022503564 A JP2022503564 A JP 2022503564A JP 7362044 B2 JP7362044 B2 JP 7362044B2
Authority
JP
Japan
Prior art keywords
initial
vertices
grid
triangular mesh
rectangular grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022503564A
Other languages
English (en)
Other versions
JP2022542548A (ja
Inventor
ジエ フー
モハメド ガラヴィ-アルクハンサリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022542548A publication Critical patent/JP2022542548A/ja
Application granted granted Critical
Publication of JP7362044B2 publication Critical patent/JP7362044B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

〔関連出願との相互参照/引用による組み入れ〕
なし。
本開示の様々な実施形態は、3次元(3D)モデリング、仮想人間技術及び仮想現実に関する。具体的には、本開示の様々な実施形態は、修正されたシェイプフロムシェーディング(SFS)スキームを使用した三角形3Dメッシュの形状改善のための電子装置及び方法に関する。
3次元(3D)コンピュータグラフィクス及び3Dモデリング分野の進歩は、コンピュータ生成画像(CGI)環境などの3D環境において異なるタイプのオブジェクト(例えば、人間の顔)のリアルな3Dモデルを開発して視覚化する道を開いてきた。通常、関心オブジェクトの3Dモデルは、多角形表面を使用して関心オブジェクトの形状及び構造を定める3Dメッシュからレンダリングすることができる。関心オブジェクトのリアルな3Dモデルを生成するには、3Dモデルの形状及びカラーテクスチャを精細化して関心オブジェクトの実際のテクスチャ及び形状に一致させることが必要となり得る。
通常、異なるオブジェクトは、そのそれぞれの表面に関連する異なる反射特性を有する。これらの特性は、所与の照明条件下で画像内のオブジェクトの表面上に異なるシェーディングパターンをもたらす。例えば、3Dの人間の顔をモデル化する場合、リアルな形状モデルを達成するには、一般的形状、並びにしわ及びほくろなどの顔の細部を正確にモデル化する必要がある。いくつかのシナリオでは、従来のシェイプフロムシェーディング(SFS)法を使用して3Dモデルの形状を精細化することができる。従来のSFS法は、オブジェクトの入力画像を使用して3Dモデルを精細化し、顔の細部などの細部を再構成するために広く使用されている方法である。しかしながら、通常、SFS法は、オブジェクトの3D三角形メッシュの非線形最適化を必要とする。このため、特にメモリ/処理が制約されたシステムでは、不必要に時間が消費されて計算効率が悪くなってしまうことがある。
当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的な手法のさらなる限界及び不利点が明らかになるであろう。
実質的に少なくとも1つの図に関連して図示及び/又は説明し、特許請求の範囲にさらに完全に示すような、修正されたシェイプフロムシェーディング(SFS)スキームを使用した三角形3Dメッシュの形状改善のための電子装置及び方法を提供する。
全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態による、修正されたシェイプフロムシェーディング(SFS)スキームを使用した三角形3次元(3D)メッシュの形状改善のための例示的なネットワーク環境を示すブロック図である。 本開示の実施形態による、修正されたSFSスキームを使用した三角形3Dメッシュの形状改善のための例示的な電子装置のブロック図である。 本開示の実施形態による、修正されたSFSスキーム、を使用した三角形3Dメッシュの形状改善のための例示的な動作を示す図である。 本開示の実施形態による、画像平面上に位置する方形グリッド頂点の初期グリッド深度値、画像強度値及びアルベド値の推定のための例示的なシナリオを示す図である。 本開示の実施形態による、修正されたSFSスキームを使用した三角形3Dメッシュの形状改善のための例示的な方法を示すフローチャートである。
開示する修正されたシェイプフロムシェーディング(SFS)スキームを使用した三角形3Dメッシュの形状改善のための装置及び方法では、後述する実装を見出すことができる。本開示の例示的な態様は、人間の顔部分などのオブジェクト部分の三角形3Dメッシュの形状改善のための電子装置を提供する。開示する電子装置は、修正されたSFSスキームを使用することによって初期三角形3Dメッシュの細部(例えば、顔の細部)をモデル化するように構成される。初期三角形3Dメッシュと、オブジェクト部分の対応するテクスチャマップ及びカラー画像とを使用して、初期三角形3Dメッシュから形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定することができる。正投影を採用して、方形グリッドを含む2D画像平面上に初期三角形3Dメッシュを投影する。修正されたシェイプフロムシェーディング(SFS)スキームをさらに適用して、方形グリッドの全ての頂点のz座標値を再推定する。次に、SFSスキームの結果に基づいて、初期三角形3Dメッシュの各頂点のz座標値を更新する。2D画像平面に対する初期三角形3Dメッシュ、すなわち方形グリッド上のメッシュの投影は、正投影に基づく。重心補間(barycentric interpolation)によって、メッシュグリッドの各頂点の深度、画像強度及びアルベドの値を推定する。修正されたSFSスキーム、及びランバートの反射率モデルなどの反射率モデルをさらに使用して、方形グリッドの各頂点の深度値を精細化する。線形最適化モデルの適用によって、方形グリッド上のメッシュから形状改善された3D三角形メッシュを再推定する。
一般に、例えばリアルな形状モデリングを達成するために3Dの人間の顔をモデル化する際には、一般的形状、並びにしわ、ほくろ及び深いしわの線(furrow lines)などの顔の細部を正確にモデル化する必要がある。通常、入力画像を使用して形状モデル(メッシュ)を精細化できる既存のSFSスキームは、方形グリッド上のメッシュに作用することによって、通常は最適化を線形関数として単純化する。既存のSFSスキームには、三角形3Dメッシュのための効率的解法が欠けている。本開示では、三角形3Dメッシュに作用する効率的な修正されたSFSスキームを提示する。通常、三角形3Dメッシュ上の既存のSFSスキームは、非線形最適化問題を直接解決するものであり、時間が掛かるとともに計算効率が悪い。
図1は、本開示の実施形態による、修正されたシェイプフロムシェーディング(SFS)スキームを使用した三角形3Dメッシュの形状改善のための例示的なネットワーク環境を示すブロック図である。図1には、ネットワーク環境100を示す。ネットワーク環境100は、電子装置102、スキャニング装置104及びサーバ106を含むことができる。スキャニング装置104は、イメージセンサ104A及び深度センサ104Bを含むことができる。電子装置102、スキャニング装置104及びサーバ106は、通信ネットワーク108を介して互いに通信可能に結合することができる。一例として、図示の電子装置102は、顔部分などのオブジェクト部分のカラー画像110、カラー画像110に対応する深度情報112、及び顔部分などのオブジェクト部分の初期3次元(3D)三角形メッシュ114を記憶するように構成することができる。さらに、電子装置102及び/又はスキャニング装置104に関連することができるユーザ116も示す。
電子装置102は、複数の方形グリッド頂点を含む画像平面上の初期3D三角形メッシュ114の正投影に基づいてオブジェクト部分の平坦な2次元(2D)メッシュを生成するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。生成された平坦な2Dメッシュは、方形グリッド上のメッシュに対応することができる。電子装置102は、修正されたSFSスキームに基づいて、平坦な2Dメッシュの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するようにさらに構成することができる。電子装置102は、初期3D三角形メッシュ114と、複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定するようにさらに構成することができる。電子装置102の例としては、以下に限定するわけではないが、コンピュータ装置、ビデオ会議システム、仮想現実(VR)ベースの装置、拡張現実(AR)ベースの装置、ゲーム装置、メインフレームマシン、サーバ、コンピュータワークステーション及び/又は消費者電子(CE)装置を挙げることができる。
スキャニング装置104は、ユーザ116の顔部分などのオブジェクト部分をスキャンするように構成できる好適なロジック、回路及びインターフェイスを含むことができる。スキャニング装置104は、ユーザ116の顔などのオブジェクト部分の複数のカラー画像及び対応する深度情報を1又は2以上の視野角から取り込むように構成することができる。スキャニング装置104は、取り込まれた複数のカラー画像及び対応する深度情報を、通信ネットワーク108を介して電子装置102及びサーバ106に送信するようにさらに構成することができる。スキャニング装置104は、様々な視野角からオブジェクト部分をスキャンするために使用できる(イメージセンサ104Aなどの)イメージセンサ、(深度センサ104Bなどの)深度センサ、(赤色-緑色-青色(RGB)センサなどの)カラーセンサ及び/又は赤外線(IR)センサの組み合わせなどの複数のセンサを含むことができる。スキャニング装置104の例としては、以下に限定するわけではないが、深度センサ、RGBセンサ、IRセンサ、3Dメッシュ構造生成器、イメージセンサ又は動き検出装置を挙げることができる。
ある実施形態によれば、スキャニング装置104は、放射線又は光に依拠して3D空間内のオブジェクト部分の3D構造を取り込むアクティブ3Dスキャナを含むことができる。例えば、アクティブ3Dスキャナは、飛行時間(TOF)ベースの3Dレーザースキャナ、レーザー測距器、TOFカメラ、ハンドヘルド式レーザースキャナ、構造光3Dスキャナ(structured light 3D scanner)、変調光3Dスキャナ、点群データを出力するCTスキャナ、空中光検知及び測距(aerial Light Detection And Ranging:LiDAR)レーザースキャナ、3D LiDAR、及び3Dモーションセンサなどとすることができる。
図1では、スキャニング装置104を電子装置102から独立した装置として示している。しかしながら、本開示はそのように限定されるわけではなく、いくつかの実施形態では、スキャニング装置104を電子装置102と一体化することもできる。或いは、本開示の範囲から逸脱することなく、スキャニング装置104の機能全体を電子装置102に組み込むこともできる。
サーバ106は、スキャニング装置104によって取り込まれた複数のカラー画像及び対応する深度情報を記憶するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。ある実施形態によれば、サーバ106は、初期3D三角形メッシュ114を記憶するようにさらに構成することができる。サーバ106の例としては、以下に限定するわけではないが、データベースサーバ、ファイルサーバ、ウェブサーバ、クラウドサーバ、アプリケーションサーバ、メインフレームサーバ又はその他のタイプのサーバを挙げることができる。
通信ネットワーク108は、電子装置102、スキャニング装置104及びサーバ106が互いに通信できるようにする通信媒体を含むことができる。通信ネットワーク108の例としては、以下に限定するわけではないが、インターネット、クラウドネットワーク、ワイヤレスフィディリティ(Wi-Fi)ネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って通信ネットワーク108に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定するわけではないが、送信制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE802.11、ライトフィデリティ(Li-Fi)、802.16、IEEE802.11s、IEEE802.11g、マルチホップ通信、無線アクセスポイント(AP)、装置間通信、セルラー通信プロトコル及びBluetooth(BT)通信プロトコルのうちの少なくとも1つを挙げることができる。
動作中、スキャニング装置104は、人間、ロボット、動物、生物オブジェクト、無生物オブジェクト又は他のいずれかのタイプの関心オブジェクトなどの関心オブジェクトのオブジェクト部分をスキャンするように構成することができる。例示的な実施形態では、関心オブジェクトがユーザ116に対応することができ、オブジェクト部分がユーザ116の顔部分に対応することができる。スキャニング装置104は、オブジェクト部分がスキャニング装置104の視野(FoV)内に存在している間に1又は2以上の視野角からユーザ116の顔などのオブジェクト部分をスキャンするように構成することができる。
スキャン動作では、スキャニング装置104を、オブジェクト部分の複数のカラー画像及び対応する深度情報を取り込むようにさらに構成することができる。複数のカラー画像及び対応する深度情報は、複数のカラー画像の各々のFoVがオブジェクト部分の深度情報の対応する部分のFoVと整列している間に同時に(すなわち、時間的に同期して)取り込むことができる。複数のカラー画像に対応する深度情報は、3D空間内のユーザ116の顔部分などのオブジェクト部分の「Z」座標に関する情報を含むことができる。複数のカラー画像及び対応する深度情報は、3D視点からのオブジェクト部分の各領域の異なる形状特徴及び深度の理解を高めることができる。いくつかの実施形態では、各カラー画像及び深度情報の対応する深度部分を高解像度(例えば、フルハイビジョン(FHD)、ウルトラHD(UHD)など)で取り込み、オブジェクト部分の全ての必要な形状及びテクスチャ関連の詳細をまとめて保持することができる。
一例として、イメージセンサ104Aは、1又は2以上の視野角からユーザ116の顔の複数のカラー画像を取り込むように構成することができる。同様に、深度センサ104Bは、ユーザ116の顔の複数のカラー画像に対応する深度情報を取り込むように構成することができる。取り込まれた複数のカラー画像の各カラー画像は、対応する深度画像を有することができる。複数のカラー画像に対応する深度情報は、ユーザ116の顔などのオブジェクト部分の異なる領域の深度に関する情報を示すことができる。一例として、しわを有する顔部分の異なる領域は、しわを含まない他の領域と比べて異なる深度値を有することができる。これらのしわを有する異なる領域は、3Dモデルリング中に正確な形状改善を必要とし得る顕著な領域とすることができる。
スキャニング装置104は、複数のカラー画像及び対応する深度情報を、通信ネットワーク108を介して電子装置102及びサーバ106に送信するようにさらに構成することができる。電子装置102は、複数のカラー画像のうちのカラー画像110と、カラー画像110に対応する深度情報112とを記憶するように構成することができる。また、電子装置102は、ユーザ116の顔などのオブジェクト部分の初期3D三角形メッシュ114を記憶するようにさらに構成することができる。初期3D三角形メッシュ114は、オブジェクト部分の形状改善されていない三角形メッシュに対応できる予め推定された3D三角形メッシュとすることができる。形状改善されていない三角形メッシュは、対応する深度値がオブジェクト部分上の対応する点の実際の深度値に一致しない異なる頂点を含むことができる。初期3D三角形メッシュ114では、オブジェクト部分のいくつかの部分の形状が不正確に取り込まれ、オブジェクト部分の実際の/リアルな形状を表さないことがある。一例として、ユーザ116の顔部分の初期3D三角形メッシュ114には、しわ、深いしわの線又はほくろなどの複雑な形状特徴が存在せず、又は部分的にしか取り込まれないことがある。
いくつかの実施形態では、初期3D三角形メッシュ114をサーバ106などのサーバに記憶することができる。このような事例では、電子装置102を、通信ネットワーク108を介してサーバ106から初期3D三角形メッシュ114を検索するように構成することができる。他のいくつかの実施形態では、電子装置102を、取り込まれた複数のカラー画像及び対応する深度情報に基づいてオブジェクト部分の初期3D三角形メッシュ114を生成するように構成することができる。
電子装置102は、画像平面上の初期3D三角形メッシュ114の正投影に基づいて平坦な2Dメッシュを生成するようにさらに構成することができる。画像平面は、複数の方形グリッド頂点を含む2D平面とすることができる。平坦な2Dメッシュは、2D平面上に投影された初期3D三角形メッシュ114の2D対応とすることができ、初期3D三角形メッシュ114を2D空間で表すことができる。初期3D三角形メッシュ114の各頂点は、3D座標(すなわち、x、y及びz座標値)に関して表すことができる。同様に、初期3D三角形メッシュ114の対応する頂点を表す平坦な2Dメッシュ上の各投影点は、2D座標(すなわち、x及びy座標値)に関して表すことができる。画像平面上の各投影点の(x、y)座標値は、初期3D三角形メッシュ114の対応する頂点の(x、y)座標値と同じであることができる。
初期3D三角形メッシュ114上における従来のSFSスキームの適用は非線形最適化を必要とすることがあり、従来のSFSスキームの適用に基づく初期3D三角形メッシュ114の各頂点の深度値の再推定には時間が掛かる場合がある。平坦な2Dメッシュは、初期3D三角形メッシュ114の各頂点の深度値を再推定するために生成することができる。初期3D三角形メッシュ114の各頂点の深度値は、平坦な2Dメッシュ上における修正されたSFSの適用に基づいて再推定することができる。平坦な2Dメッシュ上における修正されたSFSの適用は、再推定プロセスを線形最適化問題として単純化する。また、平坦な2Dメッシュ上における修正されたSFSの適用に基づく初期3D三角形メッシュ114の各頂点の深度値の再推定は、従来のSFSスキームに比べて時間が掛からない。
通常、初期3D三角形メッシュ114の異なる頂点は、初期3D三角形メッシュ114の異なる頂点上に適用されるために(深度補正などの)位置補正を必要とすることがある。この理由は、初期3D三角形メッシュ114は不正確な表面配向を有することがあり、本開示は、オブジェクト部分のしわ、モデル及び深いしわの線などの異なる形状特徴を正確にモデル化する形状改善された3D三角形メッシュを取得することを目的とするからである。位置補正は、初期3D三角形メッシュ114からレンダリングできる3Dモデルの表面の配向(又は表面パッチ)を回復させるために必要となり得る。本開示は、オブジェクト部分の単一のカラー画像と、修正されたシェイプフロムシェーディング(SFS)スキームとを使用して、初期3D三角形メッシュ114の異なる頂点に位置補正を適用し、形状改善された3D三角形メッシュを取得する。修正されたSFSスキームを使用する目的は、表面法線を推定するとともに、初期3D三角形メッシュ114の異なる頂点の正確な位置値をさらに推定するためである。
電子装置102は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを推定するように構成することができる。初期深度値セットは、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて推定することができる。初期深度値セットは、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組のz座標値セットとすることができる。
電子装置102は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定される初期深度値セットの重心補間に基づいて、複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定するようにさらに構成することができる。複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値の推定については、例えば図3及び図4でさらに詳細に説明する。
電子装置102は、修正されたSFSスキームに基づいて、平坦な2Dメッシュの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するように構成することができる。修正されたSFSスキームは、画像平面上の複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値、初期グリッド深度値及びグリッドアルベド値間の客観的関係(objective relationship)に対応することができる。複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値は、複数の方形グリッド頂点の各方形グリッド頂点の再推定される深度値とすることができる。最終的な深度値は、ユーザ116の顔などのオブジェクト部分のカラー画像110の照明条件にさらに基づいて推定することができる。照明条件は、ランバートの反射率モデルなどの反射率モデルを使用して定めることができる。いくつかの実施形態では、乱反射のみをカラー画像110の照明条件として考慮することができる。平坦な2Dメッシュの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値の推定については、例えば図3でさらに詳細に説明する。
電子装置102は、初期3D三角形メッシュ114と、複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定するようにさらに構成することができる。推定される最終的な3D三角形メッシュの形状は、ユーザ116の顔などのオブジェクト部分の実際の形状に類似することができる。電子装置102は、推定される最終的な3D三角形メッシュに基づいて、オブジェクト部分の3Dモデルをレンダリングするようにディスプレイ装置を制御するようさらに構成することができる。オブジェクト部分の3Dモデルは、オブジェクト部分の表面特徴を写実的に表すことができる。いくつかの例示的なシナリオでは、この3Dモデルを、仮想現実(VR)又は拡張現実(AR)環境内でユーザ116の顔部分などのオブジェクト部分を表すようにさらにレンダリングすることができる。オブジェクト部分の3Dモデルの応用としては、ビデオゲーム内のアニメーション、視覚効果(VFX)、コンピュータ生成画像(CGI)、及び3Dモデルベースのビデオ会議を挙げることができる。
図2は、本開示の実施形態による、修正されたSFSスキームを使用した三角形3Dメッシュの形状改善のための例示的な電子装置のブロック図である。図2の説明は、図1の要素に関連して行う。図2には、電子装置102のブロック図200を示す。電子装置102は、回路202を含むことができる。回路202は、プロセッサ204などの1又は2以上のプロセッサをさらに含むことができる。電子装置102は、メモリ206、入力/出力(I/O)装置208、及びネットワークインターフェイス214をさらに含むことができる。I/O装置208は、グラフィカルユーザインターフェイス(GUI)212をレンダリングするために利用できるディスプレイ装置210を含むことができる。回路202は、メモリ206及びI/O装置208に通信可能に結合することができる。回路202は、ネットワークインターフェイス214を使用してスキャニング装置104及びサーバ106と通信するように構成することができる。
プロセッサ204は、メモリ206に記憶された命令を実行するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。プロセッサ204は、初期3D三角形メッシュ114に基づいてオブジェクト部分の平坦な2Dメッシュを生成し、修正されたSFSスキームに基づいて平坦な2Dメッシュの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するように構成することができる。プロセッサ204は、複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値及び初期3D三角形メッシュ114に基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定するようにさらに構成することができる。プロセッサ204は、当業で周知の複数のプロセッサ技術に基づいて実装することができる。プロセッサ技術の例としては、以下に限定するわけではないが、中央処理装置(CPU)、X86ベースプロセッサ、縮小命令セットコンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、グラフィカルプロセッシングユニット(GPU)、及びその他のプロセッサを挙げることができる。
メモリ206は、プロセッサ204によって実行される命令を記憶するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。メモリ206は、初期3D三角形メッシュ114を記憶するようにさらに構成することができる。メモリ206は、カラー画像110と、カラー画像110に対応する深度情報112とを記憶するようにさらに構成することができる。メモリ206の実装例としては、以下に限定するわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電子的に消去可能なプログラマブルリードオンリメモリ(EEPROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、CPUキャッシュ、及び/又はセキュアデジタル(SD)カードを挙げることができる。
I/O装置208は、ユーザ(ユーザ106など)から入力を受け取り、ユーザから受け取られた入力に基づいてユーザに出力を提供するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。様々な入力及び出力装置を含むことができるI/O装置208は、回路202と通信するように構成することができる。I/O装置208の例としては、以下に限定するわけではないが、タッチ画面、キーボード、マウス、ジョイスティック、マイク、ディスプレイ装置(例えば、ディスプレイ装置210)、及びスピーカを挙げることができる。
ディスプレイ装置210は、オブジェクト部分の初期3D三角形メッシュ114の形状改善に基づいてオブジェクト部分の3Dモデルを表示するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。いくつかの実施形態では、ディスプレイ装置210を、電子装置102に関連する外部ディスプレイ装置とすることができる。いくつかの実施形態では、ディスプレイ装置210を、ユーザ116などのユーザがディスプレイ装置210を介してユーザ入力を提供することを可能にすることができるタッチ画面とすることができる。タッチ画面は、抵抗性タッチ画面、容量性タッチ画面、又は熱タッチ画面のうちの少なくとも1つとすることができる。ディスプレイ装置210は、以下に限定するわけではないが、液晶ディスプレイ(LCD)ディスプレイ、発光ダイオード(LED)ディスプレイ、プラズマディスプレイ、又は有機LED(OLED)ディスプレイ技術、或いはその他のディスプレイ装置などの複数の既知の技術を通じて実現することができる。ある実施形態によれば、ディスプレイ装置210は、頭部装着型装置(HMD)、スマートグラス装置、シースルーディスプレイ、投影式ディスプレイ、エレクトロクロミックディスプレイ、又は透明ディスプレイのディスプレイ画面を意味することができる。
GUI212は、ディスプレイ装置210などのディスプレイ装置上にレンダリングされるユーザインターフェイス(UI)に対応することができる。GUI212は、オブジェクト部分の3Dモデルを表示するように構成することができる。いくつかの実施形態では、GUI212を、電子装置102に通信可能に結合できる外部ディスプレイ画面上にレンダリングすることができる。GUI212は、情報を表示して、3Dモデルの表示及び/又は表示された3Dモデルに関連する情報を制御する(又はこれらと相互作用する)ために使用できる異なるGUI及び非GUI要素を含むことができる。
ネットワークインターフェイス214は、通信ネットワーク108を介して電子装置102、スキャニング装置104及びサーバ106間の通信を容易にするように構成できる好適なロジック、回路及びインターフェイスを含むことができる。ネットワークインターフェイス214は、電子装置102と通信ネットワーク108との有線又は無線通信をサポートする様々な既知の技術を使用することによって実装することができる。ネットワークインターフェイス214は、以下に限定するわけではないが、アンテナ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ-デコーダ(CODEC)チップセット、加入者アイデンティティモジュール(SIM)カード、又はローカルバッファ回路を含むことができる。
ネットワークインターフェイス214は、インターネット、イントラネットなどのネットワーク、又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び都市エリアネットワーク(MAN)などの無線ネットワークと無線通信を介して通信するように構成することができる。無線通信は、グローバルシステムフォーモバイルコミュニケーション(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W-CDMA)、長期進化(LTE)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、(IEEE802.11a、IEEE802.11b、IEEE802.11g又はIEEE802.11nなどの)ワイヤレスフィディリティ(Wi-Fi)、ボイスオーバーインターネットプロトコル(VoIP)、ライトフィデリティ(Li-Fi)、ワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(Wi-MAX)、電子メール用プロトコル、インスタントメッセージング及びショートメッセージサービス(SMS)などの複数の通信規格、プロトコル及び技術のうちの1つ又は2つ以上を使用するように構成することができる。回路202の動作については、例えば図3及び図4で詳細に説明する。
図3に、本開示の実施形態による、修正されたSFSスキームを使用した三角形3Dメッシュの形状改善のための例示的な動作を示す。図3の説明は、図1及び図2の要素に関連して行う。図3には、初期3D三角形メッシュ114の形状改善のための処理パイプライン300の一部としての一連の例示的な動作を示す。
302において、平坦な2Dメッシュ生成動作を実行することができる。平坦な2Dメッシュ生成動作では、プロセッサ204を、メモリ206から初期3D三角形メッシュ114を検索するように構成することができる。いくつかの実施形態では、プロセッサ204を、通信ネットワーク108を介してサーバ106から初期3D三角形メッシュ114を検索するように構成することができる。
プロセッサ204は、画像平面上の初期3D三角形メッシュ114の正投影に基づいて平坦な2Dメッシュ302Aを生成するようにさらに構成することができる。一例として、この画像平面は、ユーザ116の顔などのオブジェクト部分の正面像に対応することができる。正投影を利用して、2D空間内の画像平面上に初期3D三角形メッシュ114を投影することができる。平坦な2Dメッシュ302Aは、複数の多角形(例えば、方形グリッドメッシュ)で構成することができる。平坦な2Dメッシュ302Aは、複数の方形グリッド頂点を含むことができ、オブジェクト部分の表面の投影を表すことができる。
304において、初期グリッド深度推定動作を実行することができる。初期グリッド深度推定動作では、プロセッサ204を、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定するように構成することができる。本明細書では、初期グリッド深度値の推定プロセスについて説明する。
最初に、プロセッサ204は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを推定するように構成することができる。初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットは、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて推定することができる。一例として、プロセッサ204は、初期3D三角形メッシュ114の第1の三角形の第1の頂点、第2の頂点及び第3の頂点の初期深度値セットを推定するように構成することができる。初期深度値セットは、第1の三角形の第1の頂点、第2の頂点及び第3の頂点の各々のz座標値を含むことができる。第1の三角形の第1の頂点、第2の頂点及び第3の頂点の各々のz座標値の推定は、第1の三角形の第1の頂点、第2の頂点及び第3の頂点の対応する3D座標に基づいて実行することができる。
プロセッサ204は、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定するようにさらに構成することができる。初期グリッド深度値は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定される初期深度値セットの重心補間に基づいて、複数の方形グリッド頂点の各方形グリッド頂点について推定することができる。一例として、プロセッサ204は、初期3D三角形メッシュ114の対応する第1の三角形の対応する頂点の組について推定される初期深度値セットの重心補間に基づいて、複数の方形グリッド頂点のうちの第1の方形グリッド頂点の初期グリッド深度値を推定するように構成することができる。第1の方形グリッド頂点の初期グリッド深度値は、初期3D三角形メッシュ114の第1の三角形の重心座標に対応することができる。
プロセッサ204は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の基準画像強度値セットを推定するようにさらに構成することができる。基準画像強度値セットは、オブジェクト部分のカラー画像110上の対応する頂点の組の投影に基づいて推定することができる。一例として、プロセッサ204は、初期3D三角形メッシュ114の第1の三角形の第1の頂点、第2の頂点及び第3の頂点の基準画像強度値セットを推定するように構成することができる。第1の三角形の第1の頂点、第2の頂点及び第3の頂点の基準画像強度値セットは、カラー画像110上の第1の三角形の第1の頂点、第2の頂点及び第3の頂点の対応する投影位置における強度値とすることができる。
プロセッサ204は、複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値を推定するようにさらに構成することができる。各方形グリッド頂点の基準グリッド画像強度値は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定される基準画像強度値セットの重心補間に基づいて推定することができる。一例として、プロセッサ204は、初期3D三角形メッシュ114の対応する第1の三角形の対応する第1の頂点、第2の頂点及び第3の頂点の推定される基準画像強度値セットの重心補間に基づいて、複数の方形グリッド頂点の第1の方形グリッド頂点の基準グリッド画像強度値を推定するように構成することができる。
プロセッサ204は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組のアルベド値セットを推定するようにさらに構成することができる。対応する三角形の対応する頂点の組のアルベド値セットは、ユーザ116の顔などのオブジェクト部分のテクスチャマップに基づいて推定することができる。一例として、プロセッサ204は、初期3D三角形メッシュ114の第1の三角形の第1の頂点、第2の頂点及び第3の頂点のアルベド値セットを推定するように構成することができる。アルベド値セットは、いずれかの外部光源からの照明影響を受けないオブジェクト部分の表面の実際の色の尺度とすることができる。第1の三角形の第1の頂点、第2の頂点及び第3の頂点のアルベド値は、テクスチャマップの対応する頂点から抽出することができる。さらに、テクスチャマップは、オブジェクト部分のテクスチャ情報又は色情報を表すこともできる。テクスチャマップは、反射率モデルに基づくことができる。反射率モデルは、表面上の点の照明の経験的モデルとすることができる。反射率モデルの例は、カラー画像110内のオブジェクト部分の乱反射をモデル化したランバートの反射率モデルとすることができる。この反射率モデルは、表面(例えば、ユーザ116の顔)が乱反射に基づいて光を反射できる方向を示すことができる。反射率モデルは、例えば以下のような方程式(1)を使用して表すことができ、
Figure 0007362044000001
ここで、
Figure 0007362044000002
は、オブジェクト部分の表面上の照明条件の調和展開(harmonic expansion)の係数を表し、
nは、オブジェクト部分の表面上の複数の点の各々の表面法線を表し、
Figure 0007362044000003
は、複数の点の表面法線において評価される球面調和ベース(surface spherical harmonics bases)を表し、
ρは、複数の点の各々におけるアルベド値を表す。
方程式(1)の単純化形態は、例えば以下のような方程式(2)によって表すことができ、
Figure 0007362044000004
ここで、
ρは、複数の点の各々におけるアルベド値を表し、
ωは、オブジェクト部分の表面上の照明方向及び照明強度を表し、
Figure 0007362044000005
は、球面調和(surface spherical harmonics)の一次近似を表す。
プロセッサ204は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定されるアルベド値セットの重心補間に基づいて、複数の方形グリッド頂点の各方形グリッド頂点のグリッドアルベド値を推定するようにさらに構成することができる。一例として、プロセッサ204は、初期3D三角形メッシュ114の対応する第1の三角形の対応する第1の頂点、第2の頂点及び第3の頂点の推定されるアルベド値セットの重心補間に基づいて、複数の方形グリッド頂点の第1の方形グリッド頂点のグリッドアルベド値を推定するように構成することができる。第1の方形グリッド頂点のグリッドアルベド値は、いずれかの外部光源からの照明影響を受けない初期3D三角形メッシュ114の対応する第1の三角形上の点の実際の色値の尺度に対応することができる。
306において、修正されたSFSスキーム適用動作を実行することができる。修正されたSFSスキーム適用動作では、プロセッサ204を、平坦な2Dメッシュ302A上に修正されたSFSスキームを適用するように構成することができる。修正されたSFSスキームは、複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値、初期グリッド深度値及びグリッドアルベド値間の客観的関係に対応することができる。修正されたSFS動作は、表面法線推定動作及び最終的なグリッド深度推定を含むことができる。
306Aにおいて、表面法線推定動作が実行される。表面法線推定動作では、プロセッサ204を、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の表面法線を推定するように構成することができる。平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の表面法線は、複数の方形グリッド頂点の各方形グリッド頂点の2D座標、及び複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値に基づいて推定することができる。各方形グリッド頂点の表面法線は、例えば以下に示すような方程式(3)、方程式(4)及び方程式(5)を使用して推定することができ、
Figure 0007362044000006

Figure 0007362044000007

Figure 0007362044000008
ここで、
pは、X軸に沿った深度値の勾配を表し、
qは、Y軸に沿った深度値の勾配を表し、
n(v’)は、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の表面法線を表し、
xは、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点のX座標を表し、
yは、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点のY座標を表す。
306Bにおいて、最終的なグリッド深度推定動作を実行することができる。最終的なグリッド深度推定動作では、プロセッサ204を、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するように構成することができる。各方形グリッド頂点の最終的なグリッド深度値は、オブジェクト部分の表面法線、アルベド及び表面上の照明を使用してレンダリングされる画像と、オブジェクト部分のカラー画像110との間の色差の客観的関係の最小化(又は最適化)に基づいて推定することができる。客観的関係は、例えば以下のような方程式(6)によって表すことができ、
Figure 0007362044000009
ここで、
Iは、カラー画像110を表し、
z’は、複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を表し、
n(v’)は、複数の方形グリッド頂点の各方形グリッド頂点の表面法線を表し、
α|z-z’|2は、第1の平滑化項を表し、
β(ΔG*(z-z’))2は、第2の平滑化項を表し、
ΔG*は、ガウシアンのラプラシアン(Laplacian of a Gaussian)を表す。
方程式(6)によって表される客観的関係の最適化中に、対応する頂点の組の初期深度値セットを「p」及び「q」を計算するものであるとみなすことができる場合には、方程式(3)の項「p2+q2+1」を定数とみなすことができる。さらに、客観的関係の最適化中には、球面調和の一次近似(すなわち、方程式(6)において表される
Figure 0007362044000010
)を考慮することができる。この結果、目的関数を従来の非線形最適化問題の代わりに線形最適化問題として単純化することができる。
308において、初期3D三角形メッシュ114の最終的な深度計算動作を実行することができる。最終的な深度計算動作では、プロセッサ204を、対応する三角形内に位置する対応する方形グリッド頂点の推定される最終的なグリッド深度値に基づいて、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の最終的な深度値セットを計算するように構成することができる。最終的な深度値セットは、初期3D三角形メッシュ114の複数の三角形の各三角形についてさらに推定することができる。一例として、プロセッサ204は、対応する第1の三角形内に位置する第1の方形グリッド頂点の推定される最終的なグリッド深度値に基づいて、第1の三角形の対応する頂点の組の最終的な深度値セットを計算するように構成することができる。
310において、最終的な3D三角形メッシュ推定動作を実行することができる。最終的な3D三角形メッシュ推定では、プロセッサ204を、初期3D三角形メッシュ114と、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の計算された最終的な深度値セットとに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュ310Aを推定するようにさらに構成することができる。最終的な深度値セットは、対応する三角形内に位置する対応する方形グリッド頂点の推定される最終的なグリッド深度値に基づいて計算することができる。
本明細書では、最終的な3D三角形メッシュ310Aの推定の詳細について説明する。プロセッサ204は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の計算された最終的な深度値セットに基づいて、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを更新するようにさらに構成することができる。初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを更新するために、修正されたSFSスキームの結果について最適化問題を定式化することができる。(308において推定される)最終的な深度値セットは、修正されたSFSスキームの結果と呼ぶことができる。最適化問題は、目的関数に関連することができる。この目的関数の最小化に基づいて、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを更新することができる。
目的関数は、対応する三角形内に位置する対応する方形グリッド頂点の初期グリッド深度値と最終的なグリッド深度値との間の関係、並びに対応する三角形上の各頂点及び隣接する頂点の最終的な深度値間の自乗差を含むことができる。目的関数は、例えば以下に示すような方程式(7)によって表すことができ、
Figure 0007362044000011
ここで、
ortho、kは、方形グリッド頂点「k」の初期グリッド深度値を表し、
Figure 0007362044000012
は、方形グリッド頂点「k」の最終的なグリッド深度値を表し、
iは、対応する三角形上のグリッド頂点「i」の深度値を表し、
jは、対応する三角形上のグリッド頂点「j」の深度値を表す。ある実施形態によれば、最終的な深度値セットは、複数の方形グリッド頂点の最終的な深度値セットと、複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定している間に決定できる重心補間パラメータセットの係数との線形結合として表すことができる。
図4に、本開示の実施形態による、画像平面上に位置する方形グリッド頂点の初期グリッド深度値、画像強度値及びアルベド値の推定のための例示的なシナリオを示す。図4の説明は、図1、図2及び図3の要素に関連して行う。図4には、画像平面上に位置する複数の方形グリッド頂点の初期グリッド深度値の推定のための例示的なシナリオ400を示す。例示的なシナリオ400には、カラー画像402、平坦な2Dメッシュ404、カラー画像402上の第1の三角形406、及び平坦な2Dメッシュ404上の第2の三角形408を示す。平坦な2Dメッシュ404は、図3の平坦な2Dメッシュ302Aに対応することができる。さらに、(「p5」によっても表される)第1の方形グリッド頂点410、(「t1」によっても表される)第1の頂点412A、(「t2」によっても表される)第2の頂点412B、及び(「t3」によっても表される)第3の頂点412Cも示す。第1の頂点412A、第2の頂点412B及び第3の頂点412Cは、初期3D三角形メッシュの対応する三角形に属することができる。
プロセッサ204は、カラー画像402上の第1の三角形406を平坦な2Dメッシュ404上の第2の三角形408にマッピングするように構成することができる。第1の三角形406は、画像平面上のカラー画像402の投影に基づいて第2の三角形408にマッピングすることができる。プロセッサ204は、第2の三角形408の対応する頂点の組の3D座標セットに基づいて、第2の三角形408の対応する頂点の組の初期深度値セットを推定するようにさらに構成することができる。例えば、プロセッサ204は、カラー画像402及び深度情報に基づいて、第2の三角形406の(「t1」によって表される)第1の頂点412A、(「t2」によって表される)第2の頂点412B及び(「t3」によって表される)第3の頂点412Cの各々の初期深度値を推定するように構成することができる。
プロセッサ204は、(「t1」によって表される)第1の頂点412A、(「t2」によって表される)第2の頂点412B及び(「t3」によって表される)第3の頂点412Cに対応する推定される初期深度値セットの重心補間に基づいて、(「p5」によって表される)第1の方形グリッド頂点410の初期グリッド深度値を推定するようにさらに構成することができる。
プロセッサ204は、カラー画像402上の対応する頂点の組の投影に基づいて、第2の三角形408の対応する頂点の組の基準画像強度値セットを推定するようにさらに構成することができる。例えば、プロセッサ204は、第2の三角形408の(「t1」によって表される)第1の頂点412A、(「t2」によって表される)第2の頂点412B及び(「t3」によって表される)第3の頂点412Cの各々の基準画像強度値を推定するように構成することができる。
プロセッサ204は、(「t1」によって表される)第1の頂点412A、(「t2」によって表される)第2の頂点412B及び(「t3」によって表される)第3の頂点412Cに対応する推定される基準画像強度値セットの重心補間に基づいて、(「p5」によって表される)第1の方形グリッド頂点410の基準グリッド画像強度値を推定するようにさらに構成することができる。
プロセッサ204は、ユーザ116の顔などのオブジェクト部分のテクスチャマップに基づいて、第2の三角形408の頂点の組のアルベド値セットを推定するようにさらに構成することができる。例えば、プロセッサ204は、第2の三角形408の(「t1」によって表される)第1の頂点412A、(「t2」によって表される)第2の頂点412B及び(「t3」によって表される)第3の頂点412Cの各々のアルベド値を推定するように構成することができる。プロセッサ204は、(「t1」によって表される)第1の頂点412A、(「t2」によって表される)第2の頂点412B及び(「t3」によって表される)第3の頂点412Cの推定されるアルベド値セットの重心補間に基づいて、(「p5」によって表される)第1の方形グリッド頂点410のグリッドアルベド値を推定するようにさらに構成することができる。
図5は、本開示の実施形態による、修正されたSFSスキームを使用した三角形3Dメッシュの形状改善のための例示的な方法を示すフローチャートである。図5の説明は、図1、図2、図3及び図4の要素に関連して行う。図5にはフローチャート500を示す。フローチャート500の動作は、電子装置102において実行することができる。動作は、502から開始して504に進むことができる。
504において、複数の方形グリッド頂点を含む画像平面上の初期3D三角形メッシュ114の正投影に基づいて、平坦な2Dメッシュ302Aを生成することができる。プロセッサ204は、画像平面上の初期3D三角形メッシュ114の正投影に基づいて平坦な2Dメッシュ302Aを生成するように構成することができる。平坦な2Dメッシュ302Aは、2D空間における初期3D三角形メッシュ114を表すことができる。平坦な2Dメッシュ302Aの生成については、例えば図1及び図3において説明した。
506において、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを推定することができる。プロセッサ204は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを推定するように構成することができる。対応する三角形の対応する頂点の組の初期深度値セットは、ユーザ116の顔などのオブジェクト部分の初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて推定することができる。初期深度値セットの推定については、例えば図3で説明した。
508において、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定される初期深度値セットの重心補間に基づいて、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定することができる。プロセッサ204は、複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定するように構成することができる。複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値の推定については、例えば図3及び図4で説明した。
510において、修正されたSFSスキームに基づいて、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定することができる。プロセッサ204は、修正されたSFSスキームに基づいて、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するように構成することができる。複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値は、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の再推定される深度値とすることができる。平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値の推定については、例えば図3で説明した。
512において、初期3D三角形メッシュ114と、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュ310Aを推定することができる。プロセッサ204は、初期3D三角形メッシュ114と、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値とに基づいて、ユーザ116の顔などのオブジェクト部分の形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュ310Aを推定するように構成することができる。最終的な3D三角形メッシュ310Aは、オブジェクト部分の実際の形状及び表面特徴を表すことができる。最終的な3D三角形メッシュ310Aの推定については、例えば図3で説明した。制御は終了に進むことができる。
本開示の様々な実施形態は、修正されたSFSスキームを使用した三角形3Dメッシュの形状改善のための電子装置102などの機械及び/又はコンピュータが実行できる命令を記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体、及び/又は非一時的機械可読媒体及び/又は記憶媒体を提供することができる。少なくとも1つのコードセクションが、複数の方形グリッド頂点を含む画像平面上の初期3次元(3D)三角形メッシュの正投影に基づく平坦な2Dメッシュの生成を含む動作を機械及び/又はコンピュータに実行させることができる。初期3D三角形メッシュは、オブジェクト部分の形状改善されていない三角形メッシュに対応することができる。動作は、修正されたシェイプフロムシェーディング(SFS)スキームに基づく、平坦な2Dメッシュの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値の推定をさらに含む。修正されたSFSスキームは、複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値、初期グリッド深度値、及びグリッドアルベド値間の客観的関係に対応することができる。動作は、初期3D三角形メッシュと、複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定することをさらに含む。
本開示の例示的な態様は、回路202を含む電子装置102を含むことができる。回路202は、複数の方形グリッド頂点を含む画像平面上の初期3D三角形メッシュ114の正投影に基づいて、平坦な2Dメッシュ302Aを生成するように構成することができる。初期3D三角形メッシュ114は、オブジェクト部分の形状改善されていない三角形メッシュに対応することができる。回路202は、修正されたSFSスキームに基づいて、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するようにさらに構成することができる。修正されたSFSスキームは、複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値、初期グリッド深度値及びグリッドアルベド値間の客観的関係に対応することができる。回路202は、初期3D三角形メッシュ114と、複数の方形グリッド頂点の各方形グリッド頂点の推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュ310Aを推定するようにさらに構成することができる。
ある実施形態によれば、電子装置102は、オブジェクト部分の複数のカラー画像と、複数のカラー画像に対応する深度情報とを取り込むように構成されたスキャニング装置104をさらに含むことができる。回路202は、取り込まれた複数のカラー画像及び対応する深度情報に基づいて、オブジェクト部分の形状改善されていない三角形メッシュに対応する初期3D三角形メッシュ114を生成するようにさらに構成することができる。
ある実施形態によれば、回路202は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを推定するようにさらに構成することができる。対応する三角形の対応する頂点の組の初期深度値セットは、初期3D三角形メッシュの対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて推定することができる。回路202は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定される初期深度値セットの重心補間に基づいて、複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値を推定するようにさらに構成することができる。
回路202は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の基準画像強度値セットを推定するようにさらに構成することができる。対応する三角形の対応する頂点の組の基準画像強度値セットは、オブジェクト部分のカラー画像110上の対応する頂点の組の投影に基づいて推定することができる。回路202は、複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値を推定するようにさらに構成することができる。各方形グリッド頂点の基準グリッド画像強度値は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定される基準画像強度値セットの重心補間に基づいて推定することができる。
回路202は、オブジェクト部分のテクスチャマップに基づいて、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組のアルベド値セットを推定するようにさらに構成することができる。回路202は、複数の方形グリッド頂点の各方形グリッド頂点のグリッドアルベド値を推定するようにさらに構成することができる。複数の方形グリッド頂点の各方形グリッド頂点のグリッドアルベド値は、初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の推定されるアルベド値セットの重心補間に基づいて推定することができる。
ある実施形態によれば、修正されたSFSスキームにおいて、回路202を、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の表面法線を推定するようにさらに構成することができる。複数の方形グリッド頂点の各方形グリッド頂点の表面法線は、複数の方形グリッド頂点の各方形グリッド頂点の2D座標、及び複数の方形グリッド頂点の各方形グリッド頂点の初期グリッド深度値に基づいて推定することができる。修正されたSFSスキームでは、回路202を、平坦な2Dメッシュ302Aの複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定するようにさらに構成することができる。複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値は、オブジェクト部分の表面法線、アルベド及び照明を使用してレンダリングされる画像と、オブジェクト部分のカラー画像110との間の色差の客観的関係の最小化に基づいて推定することができる。
回路202は、初期3D三角形メッシュ114の複数の三角形の各三角形について、対応する三角形の対応する頂点の組の最終的な深度値セットを計算するようにさらに構成することができる。対応する三角形の対応する頂点の組の最終的な深度値セットは、対応する三角形内に位置する対応する方形グリッド頂点の推定される最終的なグリッド深度値に基づいて計算することができる。回路202は、初期3D三角形メッシュ114の複数の三角形の各三角形について、対応する三角形の対応する頂点の組の初期深度値セットを更新するようにさらに構成することができる。対応する三角形の対応する頂点の組の初期深度値セットは、対応する三角形の対応する頂点の組の計算された最終的な深度値セットに基づいて更新することができる。
回路202は、初期3D三角形メッシュ114の複数の三角形の各三角形について、目的関数の最小化に基づいて初期3D三角形メッシュ114の対応する三角形の対応する頂点の組の初期深度値セットを更新するようにさらに構成することができる。目的関数は、対応する三角形内に位置する対応する方形グリッド頂点の初期グリッド深度値と最終的なグリッド深度値との間の関係、並びに対応する三角形上の各頂点及び隣接する頂点の最終的な深度値間の自乗差を含むことができる。回路202は、推定される最終的な3D三角形メッシュ310Aに基づいてオブジェクト部分の3Dモデルをレンダリングするようにディスプレイ装置を制御するようさらに構成することができる。
本開示は、ハードウェアで実現することも、又はハードウェアとソフトウェアの組み合わせで実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアとの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアで実現することができる。
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムは、情報処理能力を有するシステムに特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、いずれかの言語、コード又は表記法におけるいずれかの表現を意味する。
いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することもできると理解するであろう。また、本開示の範囲から逸脱することなく、特定の状況又は内容を本開示の教示に適合させるように多くの修正を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、添付の特許請求の範囲内に収まる全ての実施形態を含むように意図される。

Claims (20)

  1. 回路を備えた電子装置であって、前記回路は、
    複数の方形グリッド頂点を含む画像平面上の初期3次元(3D)三角形メッシュの正投影に基づいて、オブジェクト部分の平坦な2次元(2D)メッシュを生成し、
    前記複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値、初期グリッド深度値及びグリッドアルベド値間の客観的関係に対応する修正されたシェイプフロムシェーディング(SFS)スキームに基づいて、前記平坦な2Dメッシュの前記複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定し、ここで、前記基準グリッド画像強度値は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組の基準画像強度値セットに基づいて推定されたものであり、前記初期グリッド深度値は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組の初期深度値セットに基づいて推定されたものであり、前記グリッドアルベド値は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組のアルベド値セットに基づいて推定されたものであり、
    前記初期3D三角形メッシュと、前記複数の方形グリッド頂点の各方形グリッド頂点の前記推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定する、
    ように構成される、
    ことを特徴とする電子装置。
  2. 前記オブジェクト部分の複数のカラー画像と、該複数のカラー画像に対応する深度情報とを取り込むように構成されたスキャニング装置をさらに備える、
    請求項1に記載の電子装置。
  3. 前記回路は、前記取り込まれた複数のカラー画像及び前記深度情報に基づいて、前記オブジェクト部分の形状改善されていない三角形メッシュに対応する前記初期3D三角形メッシュを生成するようにさらに構成される、
    請求項2に記載の電子装置。
  4. 前記回路は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて、前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の初期深度値セットを推定するようにさらに構成される、
    請求項1に記載の電子装置。
  5. 前記回路は、前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の前記推定される初期深度値セットの重心補間に基づいて、前記複数の方形グリッド頂点の各方形グリッド頂点の前記初期グリッド深度値を推定するようにさらに構成される、
    請求項4に記載の電子装置。
  6. 前記回路は、前記オブジェクト部分のカラー画像上の前記初期3D三角形メッシュの対応する三角形の対応する頂点の組に基づいて、前記対応する頂点の組の投影の基準画像強度値セットを推定するようにさらに構成される、
    請求項1に記載の電子装置。
  7. 前記回路は、前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の前記推定される基準画像強度値セットの重心補間に基づいて、前記複数の方形グリッド頂点の各方形グリッド頂点の前記基準グリッド画像強度値を推定するようにさらに構成される、
    請求項6に記載の電子装置。
  8. 前記回路は、前記オブジェクト部分のテクスチャマップに基づいて、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組のアルベド値セットを推定するようにさらに構成される、
    請求項1に記載の電子装置。
  9. 前記回路は、前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の前記推定されるアルベド値セットの重心補間に基づいて、前記複数の方形グリッド頂点の各方形グリッド頂点の前記グリッドアルベド値を推定するようにさらに構成される、
    請求項8に記載の電子装置。
  10. 前記修正されたSFSスキームにおいて、前記回路は、前記複数の方形グリッド頂点の各方形グリッド頂点の2D座標、及び前記複数の方形グリッド頂点の各方形グリッド頂点の前記初期グリッド深度値に基づいて、前記平坦な2Dメッシュの前記複数の方形グリッド頂点の各方形グリッド頂点の表面法線を推定するようにさらに構成される、
    請求項1に記載の電子装置。
  11. 前記修正されたSFSスキームにおいて、前記回路は、前記オブジェクト部分の表面法線、アルベド及び前記表面上の照明を使用してレンダリングされる画像と、前記オブジェクト部分のカラー画像との間の色差の前記客観的関係の最小化に基づいて、前記平坦な2Dメッシュの前記複数の方形グリッド頂点の各方形グリッド頂点の前記最終的なグリッド深度値を推定するようにさらに構成される、
    請求項1に記載の電子装置。
  12. 前記回路は、前記初期3D三角形メッシュの複数の三角形の各三角形について、前記初期3D三角形メッシュの対応する三角形内に位置する対応する方形グリッド頂点の前記推定される最終的なグリッド深度値に基づいて、前記対応する三角形の対応する頂点の組の最終的な深度値セットを計算するようにさらに構成される、
    請求項11に記載の電子装置。
  13. 前記回路は、前記初期3D三角形メッシュの前記複数の三角形の各三角形について、前記対応する三角形の前記対応する頂点の組の前記計算された最終的な深度値セットに基づいて、前記対応する三角形の前記対応する頂点の組の初期深度値セットを更新するようにさらに構成される、
    請求項12に記載の電子装置。
  14. 前記回路は、前記初期3D三角形メッシュの前記複数の三角形の各三角形について、目的関数の最小化に基づいて前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の初期深度値セットを更新するようにさらに構成され、
    前記目的関数は、前記対応する三角形内に位置する対応する方形グリッド頂点の前記初期グリッド深度値と前記最終的なグリッド深度値との間の関係、並びに前記対応する三角形上の各頂点及び隣接する頂点の最終的な深度値間の自乗差を含む、
    請求項12に記載の電子装置。
  15. 前記回路は、前記推定される最終的な3D三角形メッシュに基づいて前記オブジェクト部分の3Dモデルをレンダリングするようにディスプレイ装置を制御するようさらに構成される、
    請求項1に記載の電子装置。
  16. 前記初期3D三角形メッシュは、前記オブジェクト部分の形状改善されていない三角形メッシュに対応する、
    請求項1に記載の電子装置。
  17. 電子装置において、
    複数の方形グリッド頂点を含む画像平面上の初期3次元(3D)三角形メッシュの正投影に基づいて、オブジェクト部分の平坦な2次元(2D)メッシュを生成することと、
    前記複数の方形グリッド頂点の各方形グリッド頂点の基準グリッド画像強度値、初期グリッド深度値及びグリッドアルベド値間の客観的関係に対応する修正されたシェイプフロムシェーディング(SFS)スキームに基づいて、前記平坦な2Dメッシュの前記複数の方形グリッド頂点の各方形グリッド頂点の最終的なグリッド深度値を推定し、ここで、前記基準グリッド画像強度値は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組の基準画像強度値セットに基づいて推定されたものであり、前記初期グリッド深度値は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組の初期深度値セットに基づいて推定されたものであり、前記グリッドアルベド値は、前記初期3D三角形メッシュの対応する三角形の対応する頂点の組のアルベド値セットに基づいて推定されたものであることと、
    前記初期3D三角形メッシュと、前記複数の方形グリッド頂点の各方形グリッド頂点の前記推定される最終的なグリッド深度値とに基づいて、形状改善された3D三角形メッシュとしての最終的な3D三角形メッシュを推定することと、
    を含むことを特徴とする方法。
  18. 前記初期3D三角形メッシュの対応する三角形の対応する頂点の組の対応する3D座標セットに基づいて、前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の初期深度値セットを推定することをさらに含む、
    請求項17に記載の方法。
  19. 前記初期3D三角形メッシュの前記対応する三角形の前記対応する頂点の組の前記推定される初期深度値セットの重心補間に基づいて、前記複数の方形グリッド頂点の各方形グリッド頂点の前記初期グリッド深度値を推定することをさらに含む、
    請求項18に記載の方法。
  20. 前記オブジェクト部分のカラー画像上の前記初期3D三角形メッシュの対応する三角形の対応する頂点の組に基づいて、前記対応する頂点の組の投影の基準画像強度値セットを推定することをさらに含む、
    請求項17に記載の方法。
JP2022503564A 2019-07-18 2020-07-09 修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善 Active JP7362044B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/515,295 2019-07-18
US16/515,295 US10922884B2 (en) 2019-07-18 2019-07-18 Shape-refinement of triangular three-dimensional mesh using a modified shape from shading (SFS) scheme
PCT/IB2020/056487 WO2021009631A1 (en) 2019-07-18 2020-07-09 Shape-refinement of triangular three-dimensional mesh using a modified shape from shading (sfs) scheme

Publications (2)

Publication Number Publication Date
JP2022542548A JP2022542548A (ja) 2022-10-05
JP7362044B2 true JP7362044B2 (ja) 2023-10-17

Family

ID=71662147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022503564A Active JP7362044B2 (ja) 2019-07-18 2020-07-09 修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善

Country Status (6)

Country Link
US (1) US10922884B2 (ja)
EP (1) EP3984004A1 (ja)
JP (1) JP7362044B2 (ja)
KR (1) KR102487918B1 (ja)
CN (1) CN113826148A (ja)
WO (1) WO2021009631A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2018261257B2 (en) 2017-05-01 2020-10-08 Symbol Technologies, Llc Method and apparatus for object status detection
KR20190129539A (ko) * 2018-05-11 2019-11-20 서울대학교산학협력단 곡면을 가지는 3차원 구조체의 표면에 부착하는 전자 기기 및 이의 제조 방법
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US11763524B2 (en) * 2019-09-13 2023-09-19 Ansys, Inc. Layered meshing for additive manufacturing simulations
CN110766808B (zh) * 2019-11-05 2020-03-27 北京智拓视界科技有限责任公司 人脸数据的处理方法、设备和计算机可读存储介质
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
CN111784821B (zh) * 2020-06-30 2023-03-14 北京市商汤科技开发有限公司 三维模型生成方法、装置、计算机设备及存储介质
US11164375B1 (en) * 2020-10-21 2021-11-02 Tanzle, Inc. Stereoscopic rendering of non-flat, reflective or refractive surfaces
US11593915B2 (en) * 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
CN116597109B (zh) * 2023-01-13 2023-12-22 东莘电磁科技(成都)有限公司 一种复杂三维曲面共型网格生成方法
CN116228943B (zh) * 2023-05-10 2023-07-14 深圳市腾讯计算机系统有限公司 虚拟对象面部重建方法、面部重建网络训练方法及装置
CN117593485B (zh) * 2024-01-16 2024-04-30 山东大学 基于豪斯多夫距离感知的三维模型简化方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295258A (ja) 2003-03-25 2004-10-21 Hokkaido Univ 表面詳細抽出システム及び表面詳細抽出プログラム
JP2009521062A (ja) 2005-12-20 2009-05-28 メンタル イメージズ ゲーエムベーハー 二次元画像のシェーディングによる対象物の三次元形状のモデル化
JP2015028782A (ja) 2013-07-30 2015-02-12 ダッソー システムズDassault Systemes 三次元モデル化オブジェクトの圧縮
US20160140753A1 (en) 2014-11-13 2016-05-19 Adobe Systems Incorporated Constructing 3D Surfaces for Multi-Color Objects

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3635359B2 (ja) * 1995-11-09 2005-04-06 株式会社ルネサステクノロジ 透視投影計算装置および透視投影計算方法
US6879324B1 (en) * 1998-07-14 2005-04-12 Microsoft Corporation Regional progressive meshes
US7538764B2 (en) * 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
GB0101371D0 (en) * 2001-01-19 2001-03-07 Virtual Mirrors Ltd Production and visualisation of garments
US7212664B2 (en) * 2003-08-07 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Constructing heads from 3D models and 2D silhouettes
US7239321B2 (en) * 2003-08-26 2007-07-03 Speech Graphics, Inc. Static and dynamic 3-D human face reconstruction
US7167173B2 (en) * 2003-09-17 2007-01-23 International Business Machines Corporation Method and structure for image-based object editing
US7567248B1 (en) * 2004-04-28 2009-07-28 Mark William R System and method for computing intersections between rays and surfaces
KR100632535B1 (ko) * 2004-12-29 2006-10-11 엘지전자 주식회사 이동통신단말기용 삼차원 그래픽 엔진 및 그래픽 제공 방법
JP2006285627A (ja) * 2005-03-31 2006-10-19 Hokkaido Univ 3次元モデルの類似検索装置及び方法
US9147288B1 (en) * 2006-11-08 2015-09-29 Lucasfilm Entertainment Company Ltd. Subdivision of surfaces approximation
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US9183672B1 (en) * 2011-11-11 2015-11-10 Google Inc. Embeddable three-dimensional (3D) image viewer
EP2750109B1 (en) * 2012-12-28 2021-07-07 Dassault Systèmes Tessellation of a parameterized 3D modeled object
CN104091366B (zh) * 2014-07-17 2017-02-15 北京毛豆科技有限公司 基于二维阴影信息的三维模型智能数字化生成方法和系统
EP3021286B1 (en) * 2014-11-13 2017-09-27 Thomson Licensing Device and method to compute shadow in a 3D scene
JP6910130B2 (ja) * 2015-11-06 2021-07-28 三星電子株式会社Samsung Electronics Co.,Ltd. 3dレンダリング方法及び3dレンダリング装置
US20180005432A1 (en) * 2016-06-29 2018-01-04 AR You Ready LTD. Shading Using Multiple Texture Maps
US20180068178A1 (en) * 2016-09-05 2018-03-08 Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. Real-time Expression Transfer for Facial Reenactment
EP3293705B1 (en) * 2016-09-12 2022-11-16 Dassault Systèmes 3d reconstruction of a real object from a depth map
WO2018195485A1 (en) * 2017-04-21 2018-10-25 Mug Life, LLC Systems and methods for automatically creating and animating a photorealistic three-dimensional character from a two-dimensional image
US10417810B2 (en) * 2017-05-31 2019-09-17 Verizon Patent And Licensing Inc. Methods and systems for rendering virtual reality content based on two-dimensional (“2D”) captured imagery of a three-dimensional (“3D”) scene
CN108010119A (zh) * 2017-11-23 2018-05-08 网易(杭州)网络有限公司 阴影区域的调整方法、装置、存储介质、处理器及终端
CN108510573B (zh) * 2018-04-03 2021-07-30 南京大学 一种基于深度学习的多视点人脸三维模型重建的方法
CN108898665A (zh) * 2018-06-15 2018-11-27 上饶市中科院云计算中心大数据研究院 三维人脸重建方法、装置、设备及计算机可读存储介质
US11069135B2 (en) * 2019-03-07 2021-07-20 Lucasfilm Entertainment Company Ltd. On-set facial performance capture and transfer to a three-dimensional computer-generated model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295258A (ja) 2003-03-25 2004-10-21 Hokkaido Univ 表面詳細抽出システム及び表面詳細抽出プログラム
JP2009521062A (ja) 2005-12-20 2009-05-28 メンタル イメージズ ゲーエムベーハー 二次元画像のシェーディングによる対象物の三次元形状のモデル化
JP2015028782A (ja) 2013-07-30 2015-02-12 ダッソー システムズDassault Systemes 三次元モデル化オブジェクトの圧縮
US20160140753A1 (en) 2014-11-13 2016-05-19 Adobe Systems Incorporated Constructing 3D Surfaces for Multi-Color Objects

Also Published As

Publication number Publication date
KR20210146353A (ko) 2021-12-03
WO2021009631A1 (en) 2021-01-21
JP2022542548A (ja) 2022-10-05
US10922884B2 (en) 2021-02-16
CN113826148A (zh) 2021-12-21
EP3984004A1 (en) 2022-04-20
KR102487918B1 (ko) 2023-01-13
US20210019939A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7362044B2 (ja) 修正されたシェイプフロムシェーディング(sfs)スキームを使用した三角形3次元メッシュの形状改善
US10572720B2 (en) Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data
EP2852935B1 (en) Systems and methods for generating a 3-d model of a user for a virtual try-on product
CN113826144B (zh) 使用单幅彩色图像和深度信息的面部纹理贴图生成
US10347052B2 (en) Color-based geometric feature enhancement for 3D models
US10713850B2 (en) System for reconstructing three-dimensional (3D) human body model using depth data from single viewpoint
US9437034B1 (en) Multiview texturing for three-dimensional models
US10818078B2 (en) Reconstruction and detection of occluded portions of 3D human body model using depth data from single viewpoint
US10650578B2 (en) Dynamic soft shadow
US11557086B2 (en) Three-dimensional (3D) shape modeling based on two-dimensional (2D) warping
US10460503B2 (en) Texturing of a three-dimensional (3D) model by UV map in-painting
US9019268B1 (en) Modification of a three-dimensional (3D) object data model based on a comparison of images and statistical information
US11682234B2 (en) Texture map generation using multi-viewpoint color images
US10748351B1 (en) Shape refinement of three dimensional shape model
US12002292B2 (en) Online calibration of 3D scan data from multiple viewpoints
JP2023527438A (ja) リアルタイム深度マップを用いたジオメトリ認識拡張現実効果
US20240127529A1 (en) Generation of reflectance maps for relightable 3d models
US11734868B2 (en) Motion retargeting based on differentiable rendering
US20230101230A1 (en) Eyeball positioning for 3d head modeling
US10726602B2 (en) Apparatus and method to generate realistic three-dimensional (3D) model animation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230917

R151 Written notification of patent or utility model registration

Ref document number: 7362044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151