JP2018530045A - 一連のイメージからのオブジェクトの3d再構成のための方法、一連のイメージからのオブジェクトの3d再構成を実行するように構成されたコンピュータ読取可能記憶媒体及び装置 - Google Patents
一連のイメージからのオブジェクトの3d再構成のための方法、一連のイメージからのオブジェクトの3d再構成を実行するように構成されたコンピュータ読取可能記憶媒体及び装置 Download PDFInfo
- Publication number
- JP2018530045A JP2018530045A JP2018507649A JP2018507649A JP2018530045A JP 2018530045 A JP2018530045 A JP 2018530045A JP 2018507649 A JP2018507649 A JP 2018507649A JP 2018507649 A JP2018507649 A JP 2018507649A JP 2018530045 A JP2018530045 A JP 2018530045A
- Authority
- JP
- Japan
- Prior art keywords
- mesh model
- point cloud
- dummy mesh
- images
- series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
一連のイメージからのオブジェクトの3D再構成に関する方法、一連のイメージからのオブジェクトの3D再構成を実行するように構成されたコンピュータ読取可能記憶媒体及び装置(20、30)が開示される。点群生成器(23)は、一連のイメージからオブジェクトの点群を生成する(10)。アラインメントプロセッサ(24)は、オブジェクトのダミーメッシュモデルを点群と粗くアラインする(11)。変換プロセッサ(25)は、粗くアラインされたダミーメッシュモデルの弾性変換を介して、オブジェクトのダミーメッシュモデルを点群にフィットする(12)。
Description
本解決策は、一連のイメージからのオブジェクトの3D(3次元)再構成(3D reconstruction of an object from a sequence of images)に関する方法及び装置に関連する。さらに、本解決策は、一組のイメージからの3D再構成を可能にする命令をその中に記憶したコンピュータ読取可能記憶媒体に関連する。特に、点群(Point Cloud)のダミーベースメッシュ法(dummy-based meshing)を使用した3D再構成に関する解決策が説明される。
一般的な3D再構成技法(3D reconstruction techniques)は、視覚システム(visual system)でキャプチャすることが難しい隙間(crevices)、小さな外観(small features)、及び凹部(concave parts)などの困難な幾何学の特徴を持つオブジェクトの再構成に難しさがある。その結果、生成されたメッシュは、一般的に、アーチファクト(artefacts)に悩まされる。点群データ(Point cloud data)は、一般的により信頼性があるが、モデルに欠点(holes)もある。
困難な幾何学的な特性を持つオブジェクトの1例は、人間の耳である。図1は、人間の耳の再構成の例を示す。オリジナルの耳の例となるキャプチャされたイメージが、図1a)に図示される。図1b)は、そのようなキャプチャされた一連のイメージから生成された点群を示す。ポアソン・メッシュアルゴリズム(a Poisson-Meshing algorithm)を点群に適用して得られた再構成が図1c)に示されている。図に示すように、点群が詳細を極めて上手くキャプチャしたとしても、ポアソン・メッシュアルゴリズムの適用は、アーチファクト(artifacts)を引き起こす。
不完全な点群データに対する穴埋めの1つのアプローチが[1]で説明されている。このアプローチは、幾何学的形状プリミティブに基づき、グローバルオプティマイゼーションを使用して、プリミティブの接続に気をつけながら、フィットされる。これは、主にCADシステムに適用可能である。
スキャンされたデータから3D物体モデル(3D body models)を生成する方法は、[2]に説明されている。スキャナーから取得した複数の点群がアラインされ(aligned)、初期アラインメント(initial alignment)によって取得された3Dデータ点の組は、点群から抽出された平均物体表面(mean body surface)によって、精密なレジストレーション(precise registration)に持ち込まれる。次に、存在するメッシタイプ物体モデルテンプレート(existing mesh-type body model template)は、3Dデータ点の組にフィットされる。テンプレートモデルは、ジオメトリが再構成が難しい欠けている細部を埋めることに使用することができる。
一連のイメージからオブジェクトの3D再構成のための改良された解決策を持つことが望まれる。
本原理によると、一連のイメージからオブジェクトの3D再構成のための方法は、
・一連のイメージからオブジェクトの点群を生成することと、
・オブジェクトのダミーメッシュモデルを点群に粗くアラインすることと、
・粗くアラインしたダミーメッシュモデルの弾性変換(elastic transformation)を通して、オブジェクトのダミーメッシュモデルを点群にフィットさせることと、
を含む。
・一連のイメージからオブジェクトの点群を生成することと、
・オブジェクトのダミーメッシュモデルを点群に粗くアラインすることと、
・粗くアラインしたダミーメッシュモデルの弾性変換(elastic transformation)を通して、オブジェクトのダミーメッシュモデルを点群にフィットさせることと、
を含む。
従って、コンピュータ読取可能非一時的記憶媒体は、一連のイメージからオブジェクトの3D再構成を可能にする命令をその中に記憶し、それらの命令は、コンピュータによって実行されたときに、コンピュータに、
・一連のイメージからオブジェクトの点群を生成し、
・オブジェクトのダミーメッシュモデルをその点群と粗くアラインし、
・粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルを点群にフィット(fit)させる。
・一連のイメージからオブジェクトの点群を生成し、
・オブジェクトのダミーメッシュモデルをその点群と粗くアラインし、
・粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルを点群にフィット(fit)させる。
1実施形態において、一連のイメージからオブジェクトの3D再構成のための装置は、
・一連のイメージを受信するように構成された入力と、
・一連のイメージからオブジェクトの点群を生成するように構成された点群生成器と、
・オブジェクトのダミーメッシュモデルを点群と粗くアラインさせるように構成されたアラインメントプロセッサと、
・粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルを点群にフィットさせるように構成された、変換プロセッサと、
を備える。
・一連のイメージを受信するように構成された入力と、
・一連のイメージからオブジェクトの点群を生成するように構成された点群生成器と、
・オブジェクトのダミーメッシュモデルを点群と粗くアラインさせるように構成されたアラインメントプロセッサと、
・粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルを点群にフィットさせるように構成された、変換プロセッサと、
を備える。
別の実施形態において、一連のイメージからオブジェクトの3D再構成のための装置は、処理デバイスとその中に命令を記憶するメモリデバイスとを備え、それらの命令は、処理デバイスによって実行されたときに、装置に、
・一連のイメージを受信し、
・一連のイメージからオブジェクトの点群を生成し、
・オブジェクトのダミーメッシュモデルを点群に粗くアラインし、
・粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルを点群にフィットする、
ことをさせる。
・一連のイメージを受信し、
・一連のイメージからオブジェクトの点群を生成し、
・オブジェクトのダミーメッシュモデルを点群に粗くアラインし、
・粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルを点群にフィットする、
ことをさせる。
本原理によると、ある構造的なプロパティをシェアするオブジェクトのクラスにオブジェクトが属する場合、3D再構成に対するマルチステッププロシージャが、実行される。第1に、点群は、例えば、最先端のマルチビューステレオアルゴリズムを使用して、生成される。次に、既知の構造的プロパティをキャプチャする一般的なダミーメッシュモデルが選択され、点群データに粗くアラインされる。粗いアラインメントに続いて、ダミーメッシュモデルは、弾性変換を通して点群にフィットされうる。最新の点群生成方法と3D非剛性メッシュから点群へのフィッティング技法とのこの組み合わせは、結果として生じる3Dモデルの改良された正確さへと導く。同時に、この解決策は、完全に自動的に又は非常に少ないユーザ入力を伴う半自動的な方法で実行することができる。
1実施形態において、点群と粗くアラインされるダミーメッシュモデルは、ダミーメッシュモデル及び点群において対応する面を判定することと、ダミーメッシュモデルの面を点群の面とアラインすることを含む。再構成されるオブジェクトが、おおよそ面の部分を持つとき、次に、粗いアラインメントは、点群データにおける主要な平面を検出すること及びメッシュモデルの対応する主要な平面をこの面とアラインすることとによって、制限された計算機の負荷で行うことができる。
1実施形態において、ダミーメッシュモデルの点群との粗くアラインすることは、さらに、点群において目立つスポットを判定することと、目立つスポットの位置に基づいて点群に対するダミーメッシュモデルの向きを適合することとを含む。目立つスポット(prominent spot)は、自動的に判定されるか又はユーザ入力によって特定され、ダミーメッシュモデルの向き(orientation)を適合するために効果的な解決策を続行する。適切な目立つスポットの1例は、耳輪(the helix)上の耳の頂点、例えば、耳の外縁である。
1つの実施形態において、ダミーメッシュモデルを点群と粗くアラインすることは、さらに、点群における特性線を判定することと、特性線に基づいて点群に対するダミーメッシュモデルのスケールとダミーメッシュモデルの位置のいずれか1つを適合させることを含む。例えば、点群における特性線(characteristic line)は、点群におけるエッジ(edges)を検出することによって判定される。この目的で、点群に関連するデプスマップ(depth map)を使用することができる。特性線、例えば、エッジは、点群データにおいて検出することは、比較的容易である。そのため、それらは、点群データに対してダミーメッシュモデルのスケールと位置を調整するのに非常に適している。
1実施形態において、粗くアラインされたダミーメッシュモデルの弾性変換を通してオブジェクトのダミーメッシュモデルを点群にフィットさせることは、点群においてオブジェクトの境界線を判定することと、境界線に向かって境界線によって定義されるオブジェクトの外側に位置するダミーメッシュモデルの頂点を引き込むこととを含む。好ましくは、計算上の負担を削減するために、点群と境界線の2D投影は、ダミーメッシュモデルの頂点がオブジェクトの外側に位置するかどうかを判定するために使用される。境界線(border line)は、点群データにおいて検出することは比較的容易である。しかしながら、ユーザは、追加の制約を指定することを要求されるかもしれず、又はそのような追加の制約は、マシンラーニング技法とデータベースを使用して判定することができる。
より良い理解のために、本発明の実施形態の原理が図を参照して、これから以下でより詳細に説明される。発明は、これらの例となる実施形態に制限されず、その特定の構成要件は、添付請求項において定義されるように本発明の範囲から逸脱せずに適切に組み合わせられ及び/又は修正することもできることが理解される。
一連のイメージから3D再構成のための方法を説明するフローチャートが、図2に図示されている。第1に、オブジェクト(object)の点群が一連のイメージから生成される10。オブジェクトのダミーメッシュモデルは、次に、点群と粗くアラインされる11。最後に、粗くアラインされたダミーメッシュモデルの弾性変換を通して、オブジェクトのダミーメッシュモデルは点群にフィットされる12。
図3は、一連のイメージから3D再構成のための装置20の第1の実施形態を概念的に示す。装置20は、例えば、ネットワーク、カメラ、又は外部ストレージから、一連のイメージを受信するための入力21を有する。一連のイメージは、装置20の内部ストレージ22から同様に読み取ることができる。点群生成器23は、一連のイメージからオブジェクトの点群を生成する10。代替方法としては、オブジェクトの既に利用可能な点群を、例えば、入力21を経由して、又は内部ストレージ22から、読み取る。アラインメントプロセッサ24は、オブジェクトのダミーメッシュモデルを点群と粗くアラインする。変換プロセッサ25は、粗くアラインされたダミーメッシュモデルの弾性変換を通してオブジェクトのダミーメッシュモデルを点群にフィットさせる12。最終的なメッシュモデルは、次に、内部ストレージ22中に記憶される、又は出力26を経由してさらなる処理回路へ提供される。例えば、出力26を経由して装置に接続されたディスプレイ又は装置に包含されるディスプレイ27は、ディスプレイ上の出力に対して同様に処理を行うことができる。好ましくは、装置20は、さらに、ユーザ入力を受信するためのユーザインタフェース28を有する。異なるユニット23、24、25のそれぞれは、異なるプロセッサとして具体化することができる。もちろん、異なるユニット23、24、25は、同様に、完全に又は部分的に単一のユニットに合併することができるし、又はプロセッサ上で動作するソフトウェアとして実装することもできる。その上、入力21と出力26は、同様に、単一の双方向インタフェースに合併することができる。
一連のイメージから3D再構築のための装置の第2の実施形態は、図4に説明される。装置30は、処理デバイス31と命令を記憶したメモリデバイス32を備え、命令は、実行されたときに、装置に、一連のイメージを受信させ、一連のイメージからオブジェクトの点群を生成(10)し、オブジェクトのダミーメッシュモデルを点群と粗くアラインさせ、粗くアラインされたダミーメッシュモデルの弾性変換を通してオブジェクトのダミーメッシュモデルを点群にフィットさせる。装置30は、さらに、例えば、処理される命令、ユーザ入力、又はデータを受信するための入力33、例えば、ディスプレイ、ネットワーク、又は外部ストレージに処理結果を提供するための出力34を備える。入力33と出力34は、同様に、単一の双方向インタフェースとして合併することができる。
例えば、処理デバイス31は、上述のステップを実行するために適合されたプロセッサであり得る。実施形態において、この適合(adaptation)は、これらのステップを実行するために構成されたプロセッサを備える。
本明細書で使用されるプロセッサは、マイクロプロセッサ、デジタルシグナルプロセッサ、又はそれらの組み合わせなどの1つ以上の処理ユニットを含むことができる。
メモリデバイス32は、揮発性及び/又は不揮発性のメモリ領域とハードディスクドライブ、DVDドライブなどのストレージデバイスを含むことができる。メモリの一部は、処理デバイス31によって読み取り可能な非一時的プログラムストレージ・デバイスであり、処理デバイス31によって実行可能な命令のプログラムを有形的に具体化し、本発明の原理に従って本明細書で説明されるプログラムステップを実行する。
以下で、本原理に従う解決策は、人間の耳の3D再構成の例として、より詳細に説明される。信頼性のある耳のモデルは、高い品質のオーディオシステムに対して特に興味深く、それは、ユーザのイマージョン(没入感:immersion)を強化するために、空間音源のイリュージョンを作り出す。空間オーディオソースのイリュージョン(錯覚:illusion)を作り出す1つのアプローチは、バイノーラルオーディオ(binaural audio)である。用語、「バイノーラル(binaural)」は、各耳に独立した信号を伝えようとするシステムに対して、典型的に使用される。本目的は、音源オブジェクトによって生成される音に出来るだけ近い2つの信号を作り出すことである。そのようなシステムを作り出すことのボトルネックは、すべての人間が彼自身の耳の/頭の/肩の、形状(shape)を持っていることである。結果として、頭部伝達関数(head related transfer function (HRTF))は、各人間に対して異なる。HRTFは、空間において点からの音をいかに耳が受信するかを特徴付ける応答(response)であり、その周波数は、減衰されたり(attenuated)又はされなかったりする。一般に、音源は、異なる個人によって同じ方法で知覚されない。非個別化HRTFバイノーラルシステム(non-individualized HRTF binaural system)は、従って、異なる音源のローカライゼーションの間での混同(confusion)を増加させる傾向にある。そのようなシステムに対して、HRTFは、パーソナライズされたバイノーラルシステムを作り出す前に個々に計算しなければならない。HRTFの計算において、耳の形状は、人間の体の中で最も重要な部分であり、耳の3Dモデルは、頭及び肩に対するものよりもより良い品質であるべきである。
残念ながら、耳は、その困難な形状(geometry)により再構成するはとても難しい。詳細な構成は、個人に対して固有であるが、耳の一般的な構造は、どんな人にも同じであると考えられる。それ故に、これは本原理に従う3D再構成に対して良い候補である。
再構成は、耳の一連のイメージが既に利用可能であることを前提とする。3D再構成に関して使用される例となる一連のイメージは、図5に描写されている。カメラの位置と向き(camera positions and orientations)も利用可能である。例えば、カメラの位置と向きは、例えば、[3]に説明された方法の1つ、マルチビューステレオ(MVS)法を使用して推定することができる。例えば、AgisoftのPhotoScan[4]又はAutodeskの123DCatchのツールを使用して、これらのデータから3D点群が決定される。図6は、カメラの設定に対するPhotoScanツールによって取得された点群の表現を与え、ここで全てのカメラは、同じ線上に置かれ、互いに非常に近接している。このモデルには、特に遮蔽され領域(耳の後ろと内部)において、いくつかの欠点(holes)があるが、一般的には良いモデルを達成できる。
本原理によると、再構成は、ダミーメッシュモデルの点群データに対する粗いアラインメントから始まる。後の段階で耳のモデルの頭部モデルへの統合を簡単化するために、ダミーメッシュモデルは、頭部の一部も含むように準備される。点群の耳平面と適合することができるように、粗い耳平面(rough ear plane)を含むように、頭のメッシュ部分はトリミングされる(cropped)。例となる、耳を含むダミーメッシュモデルとトリミングされた点群が、それぞれ、図7a)と図7b)に図示されている。
ダミーメッシュモデルの粗いアラインメントは、2つのステージに分かれる。第1に、モデルは、3Dのデータにアラインされる。次に、モデルの耳の向きとスケールがデータに大雑把に適合するように適応される。第1のステージは、好ましくは、耳に対する境界ボックスを抽出することから始まる。これは、耳検出技法、例えば、[6]に説明されたアプローチの1つを使って自動的に行うことができる。代替方法としては、耳境界ボックス抽出が単純なユーザ対話によって遂行される。人間の頭の側面図を包含する耳の再構成に使用されるイメージの1つから、ユーザは、耳周辺の矩形(rectangle)を選択する。有利なことに、ユーザは、耳輪(helix)上の耳のトップ点(top point)もマークを付ける。これらの単純な対話は、関連する耳検出技法を適用する必要を回避する。マークが付けられたトップ点を持つトリミングされた耳の例は、図8に描写されている。トリミングされた領域から、耳の周りの境界ボックスが、点群から抽出される。このトリミングされた点群から2つの面が推定され、1つは頭の点に対する面HPであり、もう1つは、耳上の点に対する面EPである。この目的のために、[1]で説明されたRANSAC面フィットアルゴリズムの修正されたバージョンが使用される。オリジナルのアプローチは、全ての点が平面上にあると仮定しているので、この適応は、有益であり、一方、この場合、形状は、直行方向において実質的にそれる。図9は、例となるトリミングされた点群に対する2つの推定された平面HP、EPを示す。
耳の平面は、メッシュモデルの耳の平面を点群のそれとアラインさせるために必要な変換を計算するために主に使用される。耳の向き(例えば、ユーザ入力から取得された)と、耳の平面と頭の平面の相対的な向きとに基づいて、点群が左の耳又は右の耳のいずれを示すかの簡単な検出をフィットは可能にする。加えて、フィットは更に、耳の平面に近い点群のこれらの点の抽出を可能する。耳に属する、点群から抽出された点の1例が、図10に示される。これらの点から、外側の耳輪の線が抽出され、それにより、モデルの適切なスケールと耳の中心との推定が単純化される。そのために、点群の抽出された点から耳の点のデプスマップ(depth map)が取得される。このデプスマップは一般にかなり良いが、それにもかかわらずデプス(深度)情報以外の多くのピクセルを含む可能性がある。この数を削減するために、デプスマップは、好ましくはフィルターされる。例えば、デプス情報を持たない各ピクセルに対して、デプス情報を持つ十分な周囲のピクセルがあれば、周囲のピクセルから中央値(median value)は、計算することができる。この中央値は、次に、それぞれのピクセルに対するデプス値として使用される。この中央値フィルターの有益な特性は、興味のある情報であるデプスマップからエッジを平滑化しないことである。フィルターされたデプスマップの例が、図11a)に示される。続いて、図11b)に説明されるように、エッジは、フィルターされたデプスマップから抽出される。これは慎重なエッジ検出器(canny edge detector)を使用して行うことができる。検出されたエッジから接続された線が抽出される。最終的に外側の耳輪を抽出するために、左/右の耳に対する右側/左側の最もながい接続された線が開始線として取得される。この線は、次に、ダウンサンプルされ、最も長い部分のみ取得される。最も長い部分は、3つの連続する点によって定義される、2つの連続するエッジの間の角度がしきい値を超えない限り、線をたどることによって判定される。例が図11c)に与えられ、グレーの四角は、選択された線を示す。最適なダウンサンプリングファクタが耳輪の線の長さを最大化することによって見つけられる。開始点として、小さいダウンサンプリングファクタは、選択され、次に、反復的に増加される。最も長い外側の耳輪を与えるファクターのみが保存される。この技法は、ある異常値(outliers)によって破損される(corrupted)線を「平滑化すること(smoothing)」を可能にする。さらに、耳輪は、平滑であり、角度のしきい値によって強制される、連続するエッジの向きの突然の変化(abrupt changes)を含まない、と仮定される。データの品質に依存して、耳輪の線は、切れる(broken)ことがある。その結果、第1の選択された線は、耳輪の境界全体に広がらないことがある。十分に小さい相対的なスキュー(skew)を持ち、十分クローズな線の間の接続を探すことによって、図11d)に描写されるように、いくつかの線は接続することができる。
ここまで得られた情報によって、粗いアラインメントが計算できる。そのため、モデル耳平面は、点群における耳平面にアラインされる。次に、モデル耳の向きは、耳平面における回転によって点群のそれとアラインされる。この目的のために、耳のユーザ選択のトップの位置は、好ましくは使用される。次のステップにおいて、耳のサイズと中心が推定される。最後に、モデルは、変換され、それに応じてスケール化される。トリミングされた点群に対するメッシュ耳モデルの適合の例となる結果は、図12に示されている。
粗いアラインメントに続いて、メッシュモデルをデータ点にフィットさせるために、精緻な弾性変換が適用される。これは、非剛体レジストレーション技法(non-rigid registration technique)の特定の例である[7]。耳は粗い平面であり、それ故に、その2D構造によって良く特徴付けることができるので、弾性変換は、2つのステップで実行される。第1に、前に検出された耳輪の線のような2D情報によってアラインされる。次に、2D条件に配慮しながら、ガイドされた3D変換が適用される。この2つのステップは、以下でより詳細に説明される。
モデル準備のために、メッシュモデルの耳領域が、例えば、ユーザ入力によって選択される。この選択は、耳又は頭に属するような全てのメッシュモデルの頂点を分類することを可能にする。メッシュモデルの選択された耳領域の例が図13に示され、この耳領域は、非透明なメッシュによって示される。
以下でメッシュモデルの非剛体アラインメントは、図14を参照して説明される。非剛体アラインメントに対して、メッシュモデルは、以下で構成されるモーフィングエネルギー(morphing energy)を最小化することによってデータ点に合致するように変形することができる:
・モデル頂点とその最も近いデータ点とに対するポイント・ツー・ポイントのエネルギーと;
・モデル頂点、その最も近いデータ点、とその法線とに対するポイント・ツー・ポイントのエネルギーと;
・グローバル剛性変換期間(term)と;
・ローカル剛性変換期間と、
を含む。
これによって、弾性変換が可能となる。しかしながら、このエネルギーは、後述されるように、本解決策に対して適合される。耳平面における全ての点の2D位置のみが考慮される点に留意すべきである。
・モデル頂点とその最も近いデータ点とに対するポイント・ツー・ポイントのエネルギーと;
・モデル頂点、その最も近いデータ点、とその法線とに対するポイント・ツー・ポイントのエネルギーと;
・グローバル剛性変換期間(term)と;
・ローカル剛性変換期間と、
を含む。
これによって、弾性変換が可能となる。しかしながら、このエネルギーは、後述されるように、本解決策に対して適合される。耳平面における全ての点の2D位置のみが考慮される点に留意すべきである。
耳輪線を使用するために、抽出された耳輪境界が第1にアップサンプルされる。各モデル耳点
(外1)
に対して、次に、2D平面における耳の投影(projection)が内側
又は外側
であるかが判定され、ここでniは、最も近い耳輪データ点の近傍の耳輪線要素の法線である。
(外1)
に対して、次に、2D平面における耳の投影(projection)が内側
又は外側
であるかが判定され、ここでniは、最も近い耳輪データ点の近傍の耳輪線要素の法線である。
外側の点が、モーフィングエネルギーに追加のエネルギーを加えることによって境界上の最近点(closest point)に向かって引き込まれる。モデル点は、耳平面に対して垂直に動くことが許されない。これは、図14に示され、図14a)は、モデル耳点
(外2)
が「外側」と分類された場合を描写し、図14b)は、モデル耳点
(外3)
が「内側」と分類された場合を描写する。
(外2)
が「外側」と分類された場合を描写し、図14b)は、モデル耳点
(外3)
が「内側」と分類された場合を描写する。
抽出された耳輪がトップ(top)上とボトム(bottom)上で耳の内側で連続することも起こりうる。これは、データへのモデルの悪いアラインメントへ導く。これを防止するために、判定プロセスが予め特定されたトップ耳点から開始される。線に沿って動くとき、以前のものに対する2D点のXのずれがチェックされる。耳輪は、耳輪線が内側になることを示す、このズレがマイナスになるところでカットされる。これは、ボトム点に対して同様の方法で動作する。この停止基準(stopping criterion)が図15に説明される。
ユーザは、利用可能な耳輪線に加えて、制約としてさらに2Dランドマークを特定することを要求されるかも知れない。ともかく、2Dにおけるアラインメントの後で、完全な3D弾性変換が実行される。しかしながら、2D線とランドマークによるアラインメントは、以下のように保持される。2D線の制約に対して、「外側」耳モデル頂点のサブセットは、2Dランドマークとして次に使用される2Dアラインメントの後で選択される。各ランドマークに対して、2Dにおいてモデルランドマーク頂点をランドマーク位置に引き込む3Dモーフィングエネルギーが加えられる。これは、所定の位置にある耳平面上にランドマーク頂点の投影(projection)を保持する。
例となるアラインメントの結果は、図16と図17に示され、図16はレジストレーション前の結果を描写し、図17はレジストレーション後の結果を描写する。両方の図において、左の部分は、モデルの耳点と投影された耳輪線を示し、一方、右の部分は、点群上の重ね合わせられたメッシュ耳モデルを描写する。図17から、メッシュ耳モデルからトリミングされた点群への改良されたアラインメントが迅速に明白である。外側の点は、エネルギーの最小化の後の2Dにおいて投影された耳輪線と良くアラインされる。メッシュは、頭の領域に影響を与えることなく耳の領域において弾性的に変換された。
引用文献
[1] シュナベール他(Schnabel et al.):「点群形状検出のための効率的なRANSAC(Efficient RANSAC for point-cloud shape detection)」、コンピュータグラフィックスフォーラム(Computer graphics forum)、Vol. 26(2007)、pp. 214−226
[2] GB 2 389 500 A.
[3] サイツ他(Seitz et al.)」「マルチビューステレオ再構成アルゴリズムの比較及び評価(A Comparison and Evaluation of Multi-View Stereo Reconstruction Algorithms)」、2006 IEEE コンピュータビジョン及びパターン認識におけるコンピュータソサイエティコンファレンス(CVPR)、pp. 519−528
[4] PhotoScan Software:www.agisoft.com/
[5] 123DCatch Software:www.123dapp.com/catch.
[6] アバザ他(Abaza et al)」「耳バイオメトリックスに対するサーベイ」、ACMコンピューティングサーベイ(2013)、Vol. 45、記事22。
[7] ボウアジズ他(Bouaziz et al.):「ダイナミックな2D/3Dレジストレーション」、ユーログラフィックス(チュートリアル)2014
[1] シュナベール他(Schnabel et al.):「点群形状検出のための効率的なRANSAC(Efficient RANSAC for point-cloud shape detection)」、コンピュータグラフィックスフォーラム(Computer graphics forum)、Vol. 26(2007)、pp. 214−226
[2] GB 2 389 500 A.
[3] サイツ他(Seitz et al.)」「マルチビューステレオ再構成アルゴリズムの比較及び評価(A Comparison and Evaluation of Multi-View Stereo Reconstruction Algorithms)」、2006 IEEE コンピュータビジョン及びパターン認識におけるコンピュータソサイエティコンファレンス(CVPR)、pp. 519−528
[4] PhotoScan Software:www.agisoft.com/
[5] 123DCatch Software:www.123dapp.com/catch.
[6] アバザ他(Abaza et al)」「耳バイオメトリックスに対するサーベイ」、ACMコンピューティングサーベイ(2013)、Vol. 45、記事22。
[7] ボウアジズ他(Bouaziz et al.):「ダイナミックな2D/3Dレジストレーション」、ユーログラフィックス(チュートリアル)2014
例となるアラインメントの結果は、図16と図17に示され、図16はレジストレーション前の結果を描写し、図17はレジストレーション後の結果を描写する。両方の図において、左の部分は、モデルの耳点と投影された耳輪線を示し、一方、右の部分は、点群上の重ね合わせられたメッシュ耳モデルを描写する。図17から、メッシュ耳モデルからトリミングされた点群への改良されたアラインメントが迅速に明白である。外側の点は、エネルギーの最小化の後の2Dにおいて投影された耳輪線と良くアラインされる。メッシュは、頭の領域に影響を与えることなく耳の領域において弾性的に変換された。
ここで例としていくつかの付記を記載する。
(付記1)
一連のイメージからのオブジェクトの3D再構成の方法であって、
前記一連のイメージから前記オブジェクトの点群を生成すること(10)と、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインすること(11)と、
前記粗くアラインしたダミーメッシュモデルの弾性変換を通して前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせること(12)と、
を含む、方法。
(付記2)
前記ダミーメッシュモデルの前記点群との粗くアラインすること(11)は、前記ダミーメッシュモデルと前記点群とにおける対応する平面を判定することと、前記ダミーメッシュモデルの前記平面を前記点群の前記平面とをアラインすることとを含む、付記1に記載の方法。
(付記3)
前記ダミーメッシュモデルを前記点群と粗くアラインすること(11)が、さらに、前記点群における突き出た領域を判定することと、前記突き出た領域の位置に基づいて前記点群に対する前記ダミーメッシュモデルの向きを適合することを含む、付記2に記載の方法。
(付記4)
前記ダミーメッシュモデルを前記点群と粗くアラインすること(11)は、さらに、前記点群の特性線を判定することと、前記特性線に基づいて前記点群に対する前記ダミーメッシュモデルの位置と前記ダミーメッシュモデルのスケールのうちの少なくとも1つを適合させることとを含む、付記2又は3に記載の方法。
(付記5)
前記点群において前記特性線を判定することが、前記点群におけるエッジを検出することを含む、付記4に記載の方法。
(付記6)
前記点群においてエッジを検出することが、前記点群と関連するデプスマップを使用する、付記4に記載の方法。
(付記7)
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせること(12)が、
前記点群において前記オブジェクトの境界線を判定することと、
前記境界線に向かって前記境界線によって定義される前記オブジェクトの外部に位置する前記ダミーメッシュモデルの頂点を引き込むことと、
を含む、付記1乃至6のいずれか1項記載の方法。
(付記8)
前記点群と前記境界線の2D投影は、前記ダミーメッシュモデルの頂点が、前記オブジェクトの外側に位置するか否かを判定するために使用される、付記7に記載の方法。
(付記9)
一連のイメージからオブジェクトの3D再構成を可能にする命令をその中に記憶するコンピュータ読取可能記憶媒体であって、前記命令は、コンピュータによって実行されたときに、前記コンピュータに、
前記一連のイメージから前記オブジェクトの点群を生成させ(10)、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインさせ(11)、
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせる(12)、
コンピュータ読取可能記憶媒体。
(付記10)
一連のイメージからオブジェクトの3D再構成のための装置(20)であって、前記装置(20)は、
一連のイメージを受信するように構成された入力(21)と、
前記一連のイメージから前記オブジェクトの点群を生成する(10)ように構成された点群生成器(23)と、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインさせる(11)ように構成されたアラインメントプロセッサ(24)と、
前記粗くアラインしたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせる(12)ように構成された変換プロセッサ(25)と、
を備える、装置(20)。
(付記11)
一連のイメージからオブジェクトの3D再構成のための装置(30)であって、前記装置(30)は、処理デバイス(31)と、中に命令を記憶したメモリデバイス(32)とを備え、前記命令は、前記処理デバイス(31)によって実行されたとき、前記装置(30)に、
一連のイメージを受信させ、
前記一連のイメージから前記オブジェクトの点群を生成させ(10)、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインし(11)、
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して前記オブジェクトの前記ダミーメッシュモデルを前記点群をフィットさせる(12)、
装置。
ここで例としていくつかの付記を記載する。
(付記1)
一連のイメージからのオブジェクトの3D再構成の方法であって、
前記一連のイメージから前記オブジェクトの点群を生成すること(10)と、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインすること(11)と、
前記粗くアラインしたダミーメッシュモデルの弾性変換を通して前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせること(12)と、
を含む、方法。
(付記2)
前記ダミーメッシュモデルの前記点群との粗くアラインすること(11)は、前記ダミーメッシュモデルと前記点群とにおける対応する平面を判定することと、前記ダミーメッシュモデルの前記平面を前記点群の前記平面とをアラインすることとを含む、付記1に記載の方法。
(付記3)
前記ダミーメッシュモデルを前記点群と粗くアラインすること(11)が、さらに、前記点群における突き出た領域を判定することと、前記突き出た領域の位置に基づいて前記点群に対する前記ダミーメッシュモデルの向きを適合することを含む、付記2に記載の方法。
(付記4)
前記ダミーメッシュモデルを前記点群と粗くアラインすること(11)は、さらに、前記点群の特性線を判定することと、前記特性線に基づいて前記点群に対する前記ダミーメッシュモデルの位置と前記ダミーメッシュモデルのスケールのうちの少なくとも1つを適合させることとを含む、付記2又は3に記載の方法。
(付記5)
前記点群において前記特性線を判定することが、前記点群におけるエッジを検出することを含む、付記4に記載の方法。
(付記6)
前記点群においてエッジを検出することが、前記点群と関連するデプスマップを使用する、付記4に記載の方法。
(付記7)
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせること(12)が、
前記点群において前記オブジェクトの境界線を判定することと、
前記境界線に向かって前記境界線によって定義される前記オブジェクトの外部に位置する前記ダミーメッシュモデルの頂点を引き込むことと、
を含む、付記1乃至6のいずれか1項記載の方法。
(付記8)
前記点群と前記境界線の2D投影は、前記ダミーメッシュモデルの頂点が、前記オブジェクトの外側に位置するか否かを判定するために使用される、付記7に記載の方法。
(付記9)
一連のイメージからオブジェクトの3D再構成を可能にする命令をその中に記憶するコンピュータ読取可能記憶媒体であって、前記命令は、コンピュータによって実行されたときに、前記コンピュータに、
前記一連のイメージから前記オブジェクトの点群を生成させ(10)、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインさせ(11)、
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせる(12)、
コンピュータ読取可能記憶媒体。
(付記10)
一連のイメージからオブジェクトの3D再構成のための装置(20)であって、前記装置(20)は、
一連のイメージを受信するように構成された入力(21)と、
前記一連のイメージから前記オブジェクトの点群を生成する(10)ように構成された点群生成器(23)と、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインさせる(11)ように構成されたアラインメントプロセッサ(24)と、
前記粗くアラインしたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせる(12)ように構成された変換プロセッサ(25)と、
を備える、装置(20)。
(付記11)
一連のイメージからオブジェクトの3D再構成のための装置(30)であって、前記装置(30)は、処理デバイス(31)と、中に命令を記憶したメモリデバイス(32)とを備え、前記命令は、前記処理デバイス(31)によって実行されたとき、前記装置(30)に、
一連のイメージを受信させ、
前記一連のイメージから前記オブジェクトの点群を生成させ(10)、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインし(11)、
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して前記オブジェクトの前記ダミーメッシュモデルを前記点群をフィットさせる(12)、
装置。
Claims (11)
- 一連のイメージからのオブジェクトの3D再構成の方法であって、
前記一連のイメージから前記オブジェクトの点群を生成すること(10)と、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインすること(11)と、
前記粗くアラインしたダミーメッシュモデルの弾性変換を通して前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせること(12)と、
を含む、方法。 - 前記ダミーメッシュモデルの前記点群との粗くアラインすること(11)は、前記ダミーメッシュモデルと前記点群とにおける対応する平面を判定することと、前記ダミーメッシュモデルの前記平面を前記点群の前記平面とをアラインすることとを含む、請求項1に記載の方法。
- 前記ダミーメッシュモデルを前記点群と粗くアラインすること(11)が、さらに、前記点群における突き出た領域を判定することと、前記突き出た領域の位置に基づいて前記点群に対する前記ダミーメッシュモデルの向きを適合することを含む、請求項2に記載の方法。
- 前記ダミーメッシュモデルを前記点群と粗くアラインすること(11)は、さらに、前記点群の特性線を判定することと、前記特性線に基づいて前記点群に対する前記ダミーメッシュモデルの位置と前記ダミーメッシュモデルのスケールのうちの少なくとも1つを適合させることとを含む、請求項2又は3に記載の方法。
- 前記点群において前記特性線を判定することが、前記点群におけるエッジを検出することを含む、請求項4に記載の方法。
- 前記点群においてエッジを検出することが、前記点群と関連するデプスマップを使用する、請求項4に記載の方法。
- 前記粗くアラインされたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせること(12)が、
前記点群において前記オブジェクトの境界線を判定することと、
前記境界線に向かって前記境界線によって定義される前記オブジェクトの外部に位置する前記ダミーメッシュモデルの頂点を引き込むことと、
を含む、請求項1乃至6のいずれか1行記載の方法。 - 前記点群と前記境界線の2D投影は、前記ダミーメッシュモデルの頂点が、前記オブジェクトの外側に位置するか否かを判定するために使用される、請求項7に記載の方法。
- 一連のイメージからオブジェクトの3D再構成を可能にする命令をその中に記憶するコンピュータ読取可能記憶媒体であって、前記命令は、コンピュータによって実行されたときに、前記コンピュータに、
前記一連のイメージから前記オブジェクトの点群を生成させ(10)、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインさせ(11)、
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせる(12)、
コンピュータ読取可能記憶媒体。 - 一連のイメージからオブジェクトの3D再構成のための装置(20)であって、前記装置(20)は、
一連のイメージを受信するように構成された入力(21)と、
前記一連のイメージから前記オブジェクトの点群を生成する(10)ように構成された点群生成器(23)と、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインさせる(11)ように構成されたアラインメントプロセッサ(24)と、
前記粗くアラインしたダミーメッシュモデルの弾性変換を通して、前記オブジェクトの前記ダミーメッシュモデルを前記点群にフィットさせる(12)ように構成された変換プロセッサ(25)と、
を備える、装置(20)。 - 一連のイメージからオブジェクトの3D再構成のための装置(30)であって、前記装置(30)は、処理デバイス(31)と、中に命令を記憶したメモリデバイス(32)とを備え、前記命令は、前記処理デバイス(31)によって実行されたとき、前記装置(30)に、
一連のイメージを受信させ、
前記一連のイメージから前記オブジェクトの点群を生成させ(10)、
前記オブジェクトのダミーメッシュモデルを前記点群と粗くアラインし(11)、
前記粗くアラインされたダミーメッシュモデルの弾性変換を通して前記オブジェクトの前記ダミーメッシュモデルを前記点群をフィットさせる(12)、
装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15306294.8 | 2015-08-14 | ||
EP15306294 | 2015-08-14 | ||
PCT/EP2016/051694 WO2017028961A1 (en) | 2015-08-14 | 2016-01-27 | 3d reconstruction of a human ear from a point cloud |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018530045A true JP2018530045A (ja) | 2018-10-11 |
Family
ID=55310804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018507649A Pending JP2018530045A (ja) | 2015-08-14 | 2016-01-27 | 一連のイメージからのオブジェクトの3d再構成のための方法、一連のイメージからのオブジェクトの3d再構成を実行するように構成されたコンピュータ読取可能記憶媒体及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20180218507A1 (ja) |
EP (1) | EP3335193A1 (ja) |
JP (1) | JP2018530045A (ja) |
KR (1) | KR20180041668A (ja) |
CN (1) | CN107924571A (ja) |
WO (1) | WO2017028961A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022545141A (ja) * | 2020-07-20 | 2022-10-26 | チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド | 三次元メッシュモデルの再構築方法およびその装置、機器、並びに記憶媒体 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG10201800147XA (en) | 2018-01-05 | 2019-08-27 | Creative Tech Ltd | A system and a processing method for customizing audio experience |
SG10201510822YA (en) * | 2015-12-31 | 2017-07-28 | Creative Tech Ltd | A method for generating a customized/personalized head related transfer function |
US10805757B2 (en) * | 2015-12-31 | 2020-10-13 | Creative Technology Ltd | Method for generating a customized/personalized head related transfer function |
US10380767B2 (en) * | 2016-08-01 | 2019-08-13 | Cognex Corporation | System and method for automatic selection of 3D alignment algorithms in a vision system |
US20180357819A1 (en) * | 2017-06-13 | 2018-12-13 | Fotonation Limited | Method for generating a set of annotated images |
CN108062766B (zh) * | 2017-12-21 | 2020-10-27 | 西安交通大学 | 一种融合颜色矩信息的三维点云配准方法 |
EP3502929A1 (en) * | 2017-12-22 | 2019-06-26 | Dassault Systèmes | Determining a set of facets that represents a skin of a real object |
US10390171B2 (en) | 2018-01-07 | 2019-08-20 | Creative Technology Ltd | Method for generating customized spatial audio with head tracking |
CN108805869A (zh) * | 2018-06-12 | 2018-11-13 | 哈尔滨工业大学 | 一种基于重建模型吻合度的空间目标三维重建评估方法及应用 |
US11551428B2 (en) * | 2018-09-28 | 2023-01-10 | Intel Corporation | Methods and apparatus to generate photo-realistic three-dimensional models of a photographed environment |
US11503423B2 (en) | 2018-10-25 | 2022-11-15 | Creative Technology Ltd | Systems and methods for modifying room characteristics for spatial audio rendering over headphones |
US11418903B2 (en) | 2018-12-07 | 2022-08-16 | Creative Technology Ltd | Spatial repositioning of multiple audio streams |
US10966046B2 (en) | 2018-12-07 | 2021-03-30 | Creative Technology Ltd | Spatial repositioning of multiple audio streams |
CN109816784B (zh) * | 2019-02-25 | 2021-02-23 | 盾钰(上海)互联网科技有限公司 | 三维重构人体的方法和系统及介质 |
US10905337B2 (en) | 2019-02-26 | 2021-02-02 | Bao Tran | Hearing and monitoring system |
US11221820B2 (en) | 2019-03-20 | 2022-01-11 | Creative Technology Ltd | System and method for processing audio between multiple audio spaces |
US10867436B2 (en) * | 2019-04-18 | 2020-12-15 | Zebra Medical Vision Ltd. | Systems and methods for reconstruction of 3D anatomical images from 2D anatomical images |
WO2020240497A1 (en) * | 2019-05-31 | 2020-12-03 | Applications Mobiles Overview Inc. | System and method of generating a 3d representation of an object |
US11547323B2 (en) * | 2020-02-14 | 2023-01-10 | Siemens Healthcare Gmbh | Patient model estimation from camera stream in medicine |
KR20220038996A (ko) | 2020-09-21 | 2022-03-29 | 삼성전자주식회사 | 특징 임베딩 방법 및 장치 |
WO2022096105A1 (en) * | 2020-11-05 | 2022-05-12 | Huawei Technologies Co., Ltd. | 3d tongue reconstruction from single images |
CN112950684B (zh) * | 2021-03-02 | 2023-07-25 | 武汉联影智融医疗科技有限公司 | 基于表面配准的目标特征提取方法、装置、设备和介质 |
CN113313822A (zh) * | 2021-06-30 | 2021-08-27 | 深圳市豪恩声学股份有限公司 | 3d人耳模型构建方法、系统、设备及介质 |
US11727639B2 (en) * | 2021-08-23 | 2023-08-15 | Sony Group Corporation | Shape refinement of three-dimensional (3D) mesh reconstructed from images |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0209080D0 (en) | 2002-04-20 | 2002-05-29 | Virtual Mirrors Ltd | Methods of generating body models from scanned data |
CN101751689B (zh) * | 2009-09-28 | 2012-02-22 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
CN101777195B (zh) * | 2010-01-29 | 2012-04-25 | 浙江大学 | 一种三维人脸模型的调整方法 |
US9053553B2 (en) * | 2010-02-26 | 2015-06-09 | Adobe Systems Incorporated | Methods and apparatus for manipulating images and objects within images |
CN104063899A (zh) * | 2014-07-10 | 2014-09-24 | 中南大学 | 一种岩心保形三维重建方法 |
-
2016
- 2016-01-27 CN CN201680047800.6A patent/CN107924571A/zh active Pending
- 2016-01-27 KR KR1020187004229A patent/KR20180041668A/ko unknown
- 2016-01-27 JP JP2018507649A patent/JP2018530045A/ja active Pending
- 2016-01-27 EP EP16703278.8A patent/EP3335193A1/en not_active Withdrawn
- 2016-01-27 WO PCT/EP2016/051694 patent/WO2017028961A1/en active Application Filing
- 2016-01-27 US US15/752,777 patent/US20180218507A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022545141A (ja) * | 2020-07-20 | 2022-10-26 | チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド | 三次元メッシュモデルの再構築方法およびその装置、機器、並びに記憶媒体 |
JP7395617B2 (ja) | 2020-07-20 | 2023-12-11 | チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド | 三次元メッシュモデルの再構築方法およびその装置、機器、並びに記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
WO2017028961A1 (en) | 2017-02-23 |
CN107924571A (zh) | 2018-04-17 |
US20180218507A1 (en) | 2018-08-02 |
EP3335193A1 (en) | 2018-06-20 |
KR20180041668A (ko) | 2018-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018530045A (ja) | 一連のイメージからのオブジェクトの3d再構成のための方法、一連のイメージからのオブジェクトの3d再構成を実行するように構成されたコンピュータ読取可能記憶媒体及び装置 | |
Martin et al. | Real time head model creation and head pose estimation on consumer depth cameras | |
KR102504246B1 (ko) | 3d 재구성에서 구조 특징들을 검출하고 결합하기 위한 방법들 및 시스템들 | |
JP5818773B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR102146398B1 (ko) | 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법 | |
US7856125B2 (en) | 3D face reconstruction from 2D images | |
KR101560508B1 (ko) | 3차원 이미지 모델 조정을 위한 방법 및 장치 | |
WO2009091029A1 (ja) | 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム | |
US11783443B2 (en) | Extraction of standardized images from a single view or multi-view capture | |
WO2018040982A1 (zh) | 一种用于增强现实的实时图像叠加方法及装置 | |
US9224245B2 (en) | Mesh animation | |
JP2007310707A (ja) | 姿勢推定装置及びその方法 | |
CN110245549B (zh) | 实时面部和对象操纵 | |
WO2021218568A1 (zh) | 图像深度确定方法及活体识别方法、电路、设备和介质 | |
JP2013185905A (ja) | 情報処理装置及び方法、並びにプログラム | |
Lin et al. | Robust non-parametric data fitting for correspondence modeling | |
US10397540B2 (en) | Method for obtaining and merging multi-resolution data | |
EP1580684B1 (en) | Face recognition from video images | |
JP5419773B2 (ja) | 顔画像合成装置 | |
JP2008003800A (ja) | 画像処理装置及び画像処理プログラム | |
EP3809372B1 (en) | Method of real-time generation of 3d imaging | |
KR102112019B1 (ko) | 중간시점 영상 생성 장치 및 방법 | |
US20220230342A1 (en) | Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor | |
WO2022213364A1 (zh) | 图像处理方法、图像处理装置、终端及可读存储介质 | |
Liu | Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications |