JP7119023B2 - オブジェクトの3dイメージングを実施するためのシステムおよび方法 - Google Patents

オブジェクトの3dイメージングを実施するためのシステムおよび方法 Download PDF

Info

Publication number
JP7119023B2
JP7119023B2 JP2020096120A JP2020096120A JP7119023B2 JP 7119023 B2 JP7119023 B2 JP 7119023B2 JP 2020096120 A JP2020096120 A JP 2020096120A JP 2020096120 A JP2020096120 A JP 2020096120A JP 7119023 B2 JP7119023 B2 JP 7119023B2
Authority
JP
Japan
Prior art keywords
camera
image
data
processor
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020096120A
Other languages
English (en)
Other versions
JP2021026759A (ja
Inventor
ロゴテティス フォティオス
メッカ ロベルト
シポラ ロベルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2021026759A publication Critical patent/JP2021026759A/ja
Application granted granted Critical
Publication of JP7119023B2 publication Critical patent/JP7119023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

本明細書に記載の実施形態は、オブジェクトの3Dイメージングを実施するためのシステムおよび方法に関する。
大抵の技法は特定のフレームワークにおいて良好な結果をもたらすが、オブジェクトの3D幾何形状を回復することは、コンピュータビジョンにおける挑戦課題である。特に、2つの周知の手法、すなわち、マルチビューおよびフォトメトリックステレオが、鍵となる相補的な想定を考慮してすばらしい結果を生み出すために開発されている。実際、マルチビューはテクスチャ化されたオブジェクトの粗い3Dボリューム再構成をもたらすとみなされているが、フォトメトリックステレオは、単一のビューから非常に詳細なサーフェスを回復すると考えられている。シェーディング情報で粗いマルチビュー再構成を洗練することによって達成されるオブジェクトの高品質なボリューム再構成は、相補的な情報をマージする1つの可能性のある方法である。
図1は、一実施形態に係るシステムの概略図である。 図2は、一実施形態に係る3Dイメージングを実施するためのカメラおよびライトの配置を示す概略図である。 図3は、一実施形態に係る方法を示すフローチャートである。 図4は、フォトメトリックステレオ(PS)データおよびマルチビューステレオ(MVS)画像データの収集の概略図である。 図5は、SDFを決定するための一実施形態に係るフローチャートである。 図6は、八分木実装を示すフローチャートである。 図7は、画像平面とボクセルとの間の関係を示す図である。 図8は、八分木実装におけるノードおよびその子を示す図である。 図9(a)は、レイトレーシングを示す概略図である。 図9(b)は、一実施形態に係るレイトレーシング及びボクセルサイズ変更を示す概略図である。 図10(a)は、異なる解像度段階での3Dモデルのサーフェスの取得を示す結果である。 図10(b)は、異なる解像度段階での3Dモデルのサーフェスの取得を示す結果である。 図11は、合成テストデータベースからのテストデータを示す。 図12(a)は、図11のモデルのグラウンドトゥルースを示す。 図12(b)は、図11からのビジュアルハルを示す。 図12(c)は、本明細書に記載の方法のための開始点としてのオブジェクトの初期推定結果の図である。 図12(d)は、本明細書に記載の方法のための開始点としてのオブジェクトの初期推定結果の図である。 図12(e)は、本明細書に記載の方法のための開始点としてのオブジェクトの初期推定結果の図である。 図13(a)は、図11のグラウンドトゥルースについての一実施形態に係る方法からの結果を示す。 図13(b)は、ビジュアルハルについての結果を示す。 図14は、2つの彫像について実データおよび初期推定結果を示す。 図15は、実データのデータセットからのサンプル画像を示す。 図16は、アルベド有り(左側)およびアルベド無し(右側)の3軒の(玩具の)家のシーンの3D再構成を示し、下段にサンプル画像を示し、シーンのスケールは、左下画像上のコインによって示される。 図17は、図14の実データセットに対する定性的評価を示す。 図18は、図15のデータセットについて提案方法(右)と従来技術(左)の比較を示す拡大レンダリングを示す。 図19は、提案方法(右)と従来技術(左)の比較を示す拡大レンダリングを示す。 図20は、図16に提示された「村」データセットの再構成の上面図であり、これは、SFMで得られた初期幾何形状推定結果(左)、他の方法で得られた初期幾何形状推定結果(中央)、および提案方法で得られた初期幾何形状推定結果(右)を含む。 図21は、図11のアルマジロデータセットの再構成の上面図である。 図22は、図15および図16におけるデータセットのアルベドマッピングされた再構成の結果を示し、アルベドは、最終的な幾何形状推定結果(オクルージョン/シャドウマップと共に)を使用して式(2)に対する単純な最小二乗を使用して計算され、黒いアルベド領域は、サーフェスのこの特定の部分がどの画像でも見えないことを示し、(左)従来技術(中央)および提案されている方法(右)である。 図23は、一実施形態に係るシステムである。
一実施形態では、オブジェクトの3D画像を生成するためのシステムが提供され、このシステムは、
マルチビューステレオフォトメトリックデータを受け取るように構成されたプロセッサを備え、前記マルチビューフォトメトリックステレオデータは、画像データの第1のセットを備え、画像データの前記第1のセットは、異なる照明方向からの照明で複数の位置において第1のカメラによって取得された複数の画像を備え、前記第1のカメラの各位置について異なる照明方向からの複数の画像があり、
前記プロセッサは、拡散反射と鏡面反射の両方をモデル化する反射モデルを使用する放射照度の定式化を用いるフォトメトリックステレオ法を使用して前記マルチビューフォトメトリックステレオデータを処理するように構成される。
上記は、統一微分モデル(unified differential model)によって定義されるマルチビューフォトメトリックステレオ問題に対するボリューム法(volumetric approach)を可能にする。上記の方法は、高周波数細部を再投影する複雑なステップを回避する符号付き距離場パラメータ化を使用する。
八分木実装を加えたボリュームパラメータ化は、オクルージョン、不連続、シャドウなどを効果的にレイトレーシングする(ray-trace)フォトメトリックモデル化を可能にする。また、定式化(formulation)は、点光源伝搬および減衰と拡散反射および鏡面反射の両方との間のいくつかの物理的要素を扱うことが可能な近接場フォトメトリック画像形成モデル(near-field photometric image formation model)を含む。これは、合成シーンおよび現実世界シーンの両方に対して現況技術の方法を凌ぐ、適度な数のフォトメトリックステレオ撮影によるサブミリメートルの精密な3D再構成を可能にする。
一実施形態では、第2のカメラが設けられ、カメラ位置および初期推定結果(initial estimate)が非フォトメトリックステレオ法を使用して決定される。したがって、一実施形態では、プロセッサは、ステレオ画像データを受け取るように構成され、前記ステレオ画像データは、画像データの第2のセットを備え、前記画像データは、画像の対を複数備え、画像の各対は、第1のカメラによって得られた画像、および第1のカメラに対して既知の位置を有する第2のカメラによって得られた画像であり、プロセッサは、画像の各対について第1のカメラおよび第2のカメラのグローバルな位置を決定するように構成される。
一実施形態では、第1のカメラおよび第2のカメラは異なる視野を有する。2つのカメラを有することにより、よりロバストなカメラ位置と共に世界のスケール(scale of the world)を得ることができる。これらのカメラは、シーンおよび環境からも特徴を取得するステレオトラッキングを異なる視野により実施することを可能にする異なる焦点距離を有するレンズを使用する。
第1のカメラおよび第2のカメラは、可動なマウントに設けられてよく、前記第1のカメラは、複数の個々の光源によって囲まれて設けられ、前記個々の光源は、どの時点においてもただ1つの光源をオンになるように制御することができるように制御可能である。
上述のように、一実施形態では、フォトメトリックステレオ法は、符号付き距離関数を使用することによってオブジェクトのサーフェス(surface)の位置を決定し、符号付き距離関数は、点からサーフェスまでの距離を決定し、符号付き距離関数は、下記のサーフェス法線に関係し、
Figure 0007119023000001
ここで、n(x)は、3D点xでのサーフェス法線であり、d(x)は、3D点xでの符号付き距離関数であり、∇は勾配演算子であり、符号付き距離関数は、放射照度(irradiance)をモデル化するときにサーフェス法線の代わりに使用される。
上記を使用することによって、サーフェスは、符号付き距離関数が最小であるときに示される。
一実施形態では、プロセッサは、ボリューム法を使用してフォトメトリックステレオデータを処理し、オブジェクトを含むボリューム(volume)は、ボクセルに細分され、符号付き距離関数は、ボクセルごとに計算される。
プロセッサは、反復法を使用してフォトメトリックステレオデータを処理するように構成されてよく、ボクセルサイズは、第1のサイズに設定され、符号付き距離関数が閾値未満である場合、さらに細分される。
プロセッサは、ステレオ画像データから符号付き距離関数の初期推定結果を得るように構成されてよい。
さらなる実施形態では、プロセッサは、オクルージョンを決定するために第1のカメラまたは照明に向かってボクセルをレイトレーシングすることを実施するように構成される。これは、トレースされる光線に沿ってボクセル間で符号付き距離関数の符号の変化からオクルージョンを決定することによって行われてよい。
プロセッサは、オブジェクトのサーフェスの光沢を示すパラメータを使用して拡散反射と鏡面反射の両方をモデル化する反射モデルを使用して放射照度を決定するように構成される。光沢パラメータは、オブジェクトについて固定であってよく、PSデータの処理の前に決定されてよい。さらなる実施形態では、光沢パラメータは、未知であり、SDFで決定される。
一実施形態では、プロセッサは、ブリンフォン(Blinn-Phong)反射モデルを使用して拡散反射と鏡面反射の両方をモデル化する下記の反射モデルを使用して放射照度を決定するように構成される。
Figure 0007119023000002
ここで、
Figure 0007119023000003
は、3D点xの画像平面投影であり、ρ(x)は、アルベド(albedo)を示し、ak(x)は、減衰を示し、c(x)は、光沢を示し、wk(x)は、重み付きハーフベクトル
Figure 0007119023000004
であり、vq(x)は、カメラ位置Cqについてのボリューム上のq番目の視線方向であり、εは、遷移パラメータである。
さらなる実施形態では、プロセッサは、複数の画像対を処理するように構成され、各画像対は、異なる照明方向から照明される同じカメラ視点からの一対の画像を備え、複数の画像対は、異なるカメラ視点からの複数の画像を備え、可視性重み(visibility weight)が各画像対に適用される。
例えば、各画像対は、
Figure 0007119023000005
を生成するように処理されてよく、ここで、
Figure 0007119023000006
であり、可視性重み付きは、bhk(x)に適用される。
上記の式(7)は、重み付き最小二乗問題として解かれてよい。
上記の式は、スタックされ、各ボクセルについて解かれてよい。
上記のシステムは、多数の用途を有する。一実施形態では、システムは、検査装置の一部として使用され、この装置は、
第1のカメラと、
第2のカメラと、
複数の空間的に分散された光源と
をさらに備える。
上記のシステムは、既知のオブジェクト認識および登録方法と組み合わせて使用されてもよい。
一実施形態では、システムは、金属オブジェクトなどの高い光沢を有するオブジェクトの3D画像を生成するために使用される。それは、通常、1(純粋な拡散反射)から0.2(鏡面反射が優勢であるとき、例えば、金属オブジェクト)の間の範囲である。
上記は、幾何学的に複雑なオブジェクトのボリューム再構成の2Dフォトメトリック画像を介して非常に正確な品質管理システムにおいて使用することができる。
また、品質管理目的のために非常に鏡面のオブジェクトの3Dボリュームスキャン技術のために使用することもできる。
また、手持ち型/可搬3Dスキャナのために使用することもできる。
さらなる実施形態では、オブジェクトの3D画像を生成するための方法が提供され、この方法は、
マルチビューステレオフォトメトリックデータを受け取ることと、前記マルチビューフォトメトリックステレオデータは、画像データの第1のセットを備え、画像データの前記第1のセットは、異なる照明方向からの照明で複数の位置において前記第1のカメラによって取り込まれた複数の画像を備え、第1のカメラの各位置について異なる照明方向からの複数の画像があり、
拡散反射と鏡面反射の両方をモデル化する反射モデルを使用する放射照度の定式化を用いるフォトメトリックステレオ法を使用して前記マルチビューフォトメトリックステレオデータを処理することとを備える。
上記は、コンピュータ上で実行中のソフトウェアによって実装され得る。ソフトウェアは、物理的なキャリアで、またはソフトウェアダウンロードとして提供され得る。
図1は、一実施形態に係るシステムの概略図である。このシステムは、オブジェクトまたはシーンの3D画像データを取得し、オブジェクトを再構成するために使用することができる。本明細書で使用されるとき、「オブジェクト」という用語は、イメージングされるものを指すために使用される。しかし、これは複数のオブジェクトまたはシーンなどを包含することができることに留意されたい。
一実施形態では、3D画像データは、装置3を使用して取得される。装置3の詳細については図2を参照して説明する。
装置3によって得られるデータは、コンピュータ5に送られて処理される。図1では、コンピュータ5は、デスクトップコンピュータとして示されている。しかし、これは任意のプロセッサ、例えば、分散プロセッサまたはプロセッサまたは携帯電話などとすることができる。可能なプロセッサの詳細については図23を参照して説明する。
図2は、図1の装置3の可能な配置を詳細に示す。図2は、第1のカメラ51と、第2のカメラ53と、複数の光源55とを互いに固定された関係で保持するマウント(mount)を示す。これは、第1のカメラ51と、第2のカメラ53と、光源55とが一緒に移動し、互いに一定の離隔距離で維持されることを可能にする。
一実施形態では、光源は、第1のカメラ51を囲む。第2のカメラ55は、光源のエッジに設けられる。一実施形態では、第2のカメラ内の第1のカメラは、2ビューステレオ測定を実施するために共に使用される。第1のカメラ51は、マルチビューフォトメトリックステレオデータを得るために、光源55と共に単体で使用される。
一実施形態では、これら2つのカメラは、異なる焦点距離を有する。第1のカメラ(有用なマルチビューステレオである)の焦点距離は、第2のカメラの焦点距離より長いことになる。第1のカメラのより長い焦点距離により、カバレッジは、オブジェクトサーフェスの細かい細部を撮影するために使用され、オブジェクトサーフェスの近くに提供されることができる。第1のカメラは、近接場データを得るために使用することができる。
第2のカメラ53は、第1のカメラ51より大きな視野を有し、このより大きな視野は、2ビューステレオイメージングを実施するとき、後続の画像間のより良好なマッチングを可能にする。
特定の実施形態では、2つのFLIRカメラFL3-U3-32S2C-CSが第1のカメラおよび第2のカメラとして使用される。第1のカメラ51は、8mmレンズを有し、近接場におけるデータを取得するために光源55としてのOSRAM超高輝度LEDによって囲まれる。第2のカメラ53は、両カメラの軌跡を追跡する助けとなるようにより広い範囲を撮影するために、4mmレンズを有する。この特定の例では、2つのカメラ間の距離は、15cmである。しかし、多数の異なる距離、例えば、3cmから6cmまでの距離を使用することができる。さらなる例では、4.5cmを使用することができる。
したがって、8mmレンズは、オブジェクトサーフェス上のより多くの細部を撮ることができる。2つのカメラは、ビュー間でより確実なマッチングを提供することが可能なより広い視角4mmレンズを用いて、MVSを実施するために使用される。
次に、一実施形態に係る方法の基本的なステップについて、図3を参照して説明する。
ステップS101では、カメラアセンブリ3(図1)がオブジェクト1周りで移動される。
アセンブリ3を移動させる前に、第1のカメラおよび第2のカメラは、近接光モデル化(near light modeling)(下記の式4を参照して説明する)に使用される世界の絶対スケールを取得することができるように、Matlabのコンピュータビジョンツールボックスとチェッカーボードとを使用して較正される。
ステップS101では、図2のカメラアセンブリが図1のオブジェクト1周りで移動される。マルチビューステレオデータが2つのカメラから収集される。フォトメトリックステレオデータが、単一の中央のカメラ51を使用することによって取得される。中央のカメラがフォトメトリックステレオデータを取得することを可能にするために、個々のLED55が次々に作動される。一実施形態では、6~8個のLED間のシーケンスを使用して取得された画像が使用される。
画像は、シーン周りでセットアップを移動させながら撮影される。図4は、オブジェクト201周りでカメラアセンブリ203(図1のカメラアセンブリ3に対応する)を移動させることの概略図を示す。カメラアセンブリはオブジェクト周りで移動され、各カメラ地点および複数の異なる照明条件で画像が取得される。異なる照明条件の各々では、オブジェクトは、単一の照明方向から照明される。これは、ただ1つの光源をオンに切り替えることによって行われる。様々な位置において、2ビューステレオもまた、2つのカメラを使用することによって収集される。これらの点は、ボックス内のカメラアセンブリ、例えば205として示されている。したがって、マルチビューステレオ画像とフォトメトリックステレオ画像の両方が得られる複数の位置205と、ただマルチビューフォトメトリックステレオ画像が得られる位置207とがある。
ステップS103では、マルチビューステレオデータ(すなわち、2つのカメラ51、53からの画像)を使用して粗い再構成が得られる。この画像は、非フォトメトリック技法を使用して構成され、すなわち、オブジェクトの照明方向は、再構成において使用されない。混乱を回避するために、このデータをMVSデータと称することとする。異なる照明方向から単一のカメラにより得られたデータをPSデータと称することとする。
一実施形態では、COLMAP-SFMアルゴリズムが、フォトメトリックステレオビュー間のカメラ回転および平行移動、ならびに初期推定結果として使用される低品質の再構成を得るために、MVSデータを処理するために使用される。この初期推定結果がどのように使用されることになるかは後述する。
さらに、SFMを画像間の小さすぎる重なり合いに対してよりロバストなものにするために、さらにいくつかの画像がフォトメトリックステレオ(PS)シーケンス(ニュートラル照明を用いたもの)間で取得される。MVSを通じて得られるモデルをノイズのより少ないものにするために、いくつかのノイズの多い領域と注目のシーンから離れた背景点とが除去される。
COLMAPは、MVS取得における(例えば、両カメラからの)すべての画像の中でグローバルなマッチング(global matches)を探す。COLMAPは、相対的なカメラ姿勢(「カメラ離隔距離(camera separation)」)を知らないが、この情報は、正しいサイズを有するように、ステップS105において3D再構成(COLMAPから)をスケールするために帰納的に使用される。MVSで3Dシーンを再構成するために2つのカメラを使用することにより、「世界のスケール」を見つけ出すことができる。
次いで、初期推定結果が連続的なサーフェス(点群でない)を含むように、Poisson再構成が低レベル設定で実施される。最後に、符号付き距離関数(SFD)の初期推定が、初期サーフェスの距離変換として実施される。
さらに、フォトメトリック画像品質を改善するために、最小限の前処理が、シャドウエリアに変わる飽和した非常に暗い領域を除去する。
ステップS107では、符号付き距離関数が決定される。次に、これがどのように行われるかについて、図5を参照して説明する。
上記のステップから次のこと、すなわち、第1のカメラおよび第2のカメラのグローバルな位置と、各PS画像についての1つである光の位置とが既知である。
したがって、これは、Cq、vq(x)、pkの知識を提供する。
q-q番目の位置における第1のカメラのカメラ位置
q(x)-Cqについての3D点xについてのボリューム上のq番目の視線方向
k-グローバル座標系に対する光源の既知の位置
さらに、Φk、sk、μkが既知である。
Φk-光源の固有の輝度
k-光源の主方向
μk-光源の角度散逸係数(angular dissipation factor)
ステップS301では、SDFを決定する際に使用するために、上記のデータが取り出される。
一実施形態では、立体オブジェクトの集まりの好適な数学的特性付けをするために、暗黙のサーフェスパラメータ化が、
Figure 0007119023000007
によって考慮される。
符号付き距離関数は、点xの座標が与えられたとき、xと定められたサーフェスとの間の最短の距離を返す。このパラメータ化は、サーフェスに対する外向きの法線ベクトルを記述する実用的な方法のため、本実施形態に適している。
SDFは、ボリュームサーフェス(volumetric surface)がdのゼロ番目レベルセット、d(x)=0として記述されることを可能にする。
本明細書に記載の手法には、以下のようにサーフェス法線NがSDFDの勾配に等しいという観察に基づく微分手法がある。
Figure 0007119023000008
次いで、SDFが、ボリューム微分マルチビューフォトメトリックステレオ定式化(volumetric differential multi-view photometric stereo formulation)を導出するための放射照度式のために使用され、ここで、各既知のカメラ位置CqについてNps個の画像(すなわち光源)を有することが仮定される(すなわち、Nps(Cq),q=1,...Nviews)。
フォトメトリックステレオ問題の単眼の面(monocular aspect)を利用するために、拡散反射と鏡面反射とを統一的に切り替える放射照度式についての影像比が考慮される。
Figure 0007119023000009
ここで、
Figure 0007119023000010
は、3D点xの画像平面投影であり、ρ(x)はアルベドを示し、ak(x)は減衰を示す。光沢パラメータc(x)は、c(x)=1のときの拡散反射と、0<c(x)<1のときの鏡面ブリンフォン反射とを切り替えることを可能にする。
ブリンフォン反射では、シェーディングをモデル化するために、視線方向を画定するベクトルと光源の方向を画定するベクトルとの間の中間であるハーフウェイベクトルが計算される。これは、視線の方向と光反射の方向との間に大きな角度があるとき、鏡面ライティングのモデル化を可能にする。
拡散反射と鏡面反射との間で切り替えるために、以下の重み付きハーフベクトルが考えられる。
Figure 0007119023000011
q(x)は、カメラ位置Cqについてのボリューム上のq番目の視線方向であり、εは、10-4に設定された遷移パラメータである。
一実施形態では、ボリューム法が考えられているので、各3D点xについて、放射照度式を考えることができる。次いで、以下のlk(x)=x-pkを考えることによって光源をモデル化することができ、ここで、pkは、グローバル座標系に対する点光源の既知の位置である。ベクトルの上のバーは、それが正規化されていることを意味する
Figure 0007119023000012
次いで、以下の散逸の非線形放射モデル(non-linear radial model of dissipation)を考えて、光の減衰をモデル化することができる。
Figure 0007119023000013
ここで、Φkは、光源の固有の輝度であり、skは、主方向(すなわち、LED点光源の向き)であり、μkは、角度散逸係数である。
一実施形態では、アルベドならびに法線の非線形正規化に対する依存性をなくすことによって、フォトメトリックステレオ問題を著しく単純化する影像比法が使用される。したがって、ステップS303では、画像の対が選択される。
画像ihおよびik(同じ視点Cqからの異なる光源)について式を分割すると、
Figure 0007119023000014
となり、これは、
Figure 0007119023000015
をもたらす。
法線のパラメータ化を代わりに使用することによって、以下のアルベド非依存の均質な線形PDEがステップS305において生成される。
Figure 0007119023000016
ここで、
Figure 0007119023000017
である。
(7)の幾何学的意味は、PDE手法の3Dボリューム再構成の延長である。実際、フォトメトリックステレオモデルは、依然として均質な線形PDEからなり、サーフェス上のbhkの接線方向性(tangentiality)は、定義のとおり、SDFのゼロ番目レベルセットである。しかし、bhk(x)は、関連の量がサーフェスの存在から独立であるグローバル座標系上で表されることにより、dに依存しない(すなわち、(7)は線形である)。このSDF定式化は、より自然な「オブジェクト中心の」深度であり、これは、下記で述べるように、統一的な最適化を可能にする。
表記を単純化するために、対hkは、pとして書き換えられ、これが画像の対のすべての組合せのセットについて使用されることになる(繰り返しなし)。
単一の数学的フレームワーク内の異なるビューに由来する複数のフォトメトリックステレオ画像を扱うことができるように、式7の重み付けされたバージョンが、ステップS307で単一のシステム内でスタックされる。
Figure 0007119023000018
ここで、wp(Cq,x)=max(n(x)・vq(x),0)である。この重み項wpは、本質的に可視性の尺度である。次いで、得られるシステムは、下記の式(10)に示されているように
Figure 0007119023000019
式をカウントする。
Figure 0007119023000020
上記を最小二乗問題としてステップS309で解くために、これらの正規方程式は、
Figure 0007119023000021
のように考えられ、ここで、
Figure 0007119023000022
である。
いま、B(x)は、半正定値の3×3行列である。
式(7)に由来する幾何学的制約は、すべてのベクトル場
Figure 0007119023000023
がそのボリュームの同じ2次元空間∀xにまたがることを保証する。なぜなら、それらは、SDFのレベルセットを定義するからである。これは、理想的な状況下で、(11)におけるBのランクが正確に2であるはずであることを意味する。
しかし、数値的近似により、これは、決して正確に真ではない。したがって、この制約は、Bの固有値分解を使用することによって実施され、したがって、
Figure 0007119023000024
ここで、Λ1≧Λ2≧Λ3であり、Λ3=0に設定する。
このランク補正は、サニティチェックステップであることに留意されたい。
実際、B∇d=0で、Bがフルランクである場合には、∇d=0であり、これは|∇d|=1(アイコナール方程式)であるので決して真になり得ず、その結果、dは、どの実サーフェスのSDFにもなり得ない。実際、アイコナール方程式は、∇d=q3であることを要求することによって暗黙に実施されることができ、ここで、q3は、Qの第3列であり、Bのヌル空間に対応する(q3は、単位ベクトルであり、したがって、アイコナール方程式を実施する)。したがって、(11)の正則化バージョンは、以下になる(I3×3は、単位行列である)。
Figure 0007119023000025
この正則化は、フルランクシステムをもたらし、dのスケールを設定する。
一実施形態では、上記で導入された符号付き距離場ベースのパラメータ化を計算するために、変分ソルバ(variational solver)が構築される。
一実施形態では、過剰な計算を回避するために、フォトメトリックステレオ式は、ボリューム全体において計算される必要はなく、サーフェスに近いボクセルのサブセット
Figure 0007119023000026
に対してのみでよいことに留意されたい。
実際、式(1)は、サーフェスの近傍で真であるにすぎない。したがって、この変分問題は、1次前進有限差分(first order forward finite difference)∇d=G・dを使用することによって離散化され、dは、すべてにおけるベクトルスタッキングd(x)である。Gは、Ωにおける連結度を表す疎なカーネル行列である。
微分手法はランク不足である(理論的に最小の解のための積分定数を必要とする)ことに留意されたい。この問題を解決するために、d=d0の形態のチコノフ正則化が使用され、ここでd0は、ステップS103およびステップS105においてMVSデータから得られた初期サーフェス推定結果の距離変換から得られるSDFのある初期推定結果である。したがって、正則化された問題は、以下になる(λ=0.05を使用)。
Figure 0007119023000027
ここで、BΩおよびqΩは、Ωにおけるすべてのボクセルについて(13)からの関連の量をスタックすることによって得られる。得られる線形システムは、共役勾配法で解かれる。
上記のボクセルの必要とされるセット∈Ωを管理するために、八分木構造が使用される。Ωは、木の葉において定義され、有限差分を計算するための隣接ボクセルは、木の走査(traversal)をボトムアップすることによって見出される。
次に、この処理の概要について、図6を参照して説明する。
図7は、有限サイズsを有するボクセルのセット503に離散化されたボリュームを示す。これは、線形補間を実施し、それによりi(x;y;z)を決定するために、ピクセルに対する対応を決定するために使用される。この処理は、ボクセルとピクセルとの間の1対多のマッピングの可能性を強調するために、灰色の異なる陰影で画像平面505上の連続するピクセルを着色することによって示されている。Cはカメラ501の中心であり、fはカメラの焦点距離であることに留意されたい。画像平面上のボクセル投影が1ピクセルより小さい場合、これは、精密さの限界に達しており、再構成が終了され得ることを意味する。
図8では、各ノードが空間内の位置(上記で「x」と称される)、ボクセル521サイズs(i(x)を計算するために画像平面505への投影を決定するために使用される、図7参照)、符号付き距離値d(x)、ならびに次のレベルの子ノード523に対する8つのポインタ(葉ノードの場合にはヌルとすることができる)を有する階層構造が示されている。
図8では、ノードは、3D立方体(位置、サイズ)の情報、SDF値(グレイスケールでコード化され、ここでは、明るい灰色が正であり、暗い灰色が負である)、ならびに全3次元におけるボックスを細分することに対応する次のレベルのノードに対するポインタ(この2D図は、4つの子ノードだけを示すが、実際には、それらは8つである)を単純に含む。
初期ボクセルサイズがS401で設定される。403では、SDFが推定される。初めてアルゴリズムが実行されるときにつき、MVSデータからの初期サーフェス推定結果からSDFが推定される。ボクセルについてSDFを推定する処理は、反復処理である。このSDF推定結果を使用して、レイトレーシングがステップS405で実施される。
図9(b)では、明るい灰色陰影611、613は、正のSDFを有するボクセルを示し、暗い灰色/黒い陰影は、負のSDFを有するものを示す。光源603からの光線601のトレーシングが明るいボクセルから暗いボクセルに移動するときオクルージョンが検出され、したがって、それはサーフェスと交差していることを意味する。オクルージョンが検出されたとき、式(10)における可視性重みが、オクルージョンが発生した照明/カメラ位置についてゼロに設定される。しかし、各ボクセルについて多数の照明/カメラ位置があるので、オクルージョンが検出されたところでの重みだけがゼロに設定されることになる。
次いで、非ゼロの可視性重みが、式(9)に従って上記で述べたようにステップS407で計算される。次いで、SDFが式(14)を使用して再推定される。
ステップS404では、SDF推定結果が収束されたかどうか決定される。収束していない場合、レイトレーシングが実施され、ステップS407で、可視性重みが更新される。次いで、ステップS404で、収束するまでSDFが再推定される。
ボクセルについてSDFが収束した後で、ボクセルのサブセットを細分する必要があるかどうか決定される。一実施形態では、これは、SDFのサイズをボクセルのサイズと比較することによって行われる。一実施形態では、SDFの絶対値が2ボクセルサイズより小さいボクセルが選択される。したがって、これらのボクセルは、サーフェスに近づくことになる。これらのボクセルは、ステップS413で細分され、処理は、式(14)を使用してこれらの細分されたボクセルについてSDFを推定するためにステップS403に戻る。
この手順は、ステップS411で、ボクセルが、画像平面上のそれらの投影がピクセルサイズより小さく、したがって、得ることができる最大解像度に達したと決定されるまで繰り返される。その結果、ボリュームの小さな一部分だけが計算のために考えられ、ボクセルの階層は、提案される八分木SDFパラメータ化が固定解像度パラメータ化に比べてレイトレーシングをいかに加速するかを示す図9(a)および図9(b)に示されているように、サーフェス周りで密にパックされる(packed)。ボクセルのサイズは可変であるため、光線が固定解像度深度マップ上でトレーシングされる(a)とは対照的に、調べる必要があるボクセルが少ない。
次いで、SDFのゼロレベルセットがS415で得られる。ここで、SDFの値が解像度によって可能にされるだけゼロに近いボクセルがサーフェスとなるようにとられる。次いで、再構成されたサーフェスが、ステップS417で、例えばマーチングキューブ法、例えば、M. Kazhdan, A. Klein, K. Dalal, and H. Hoppe. Unconstrained isosurface extraction on arbitrary octrees. In ESGP, 2007で論じられている変形形態を使用して計算される。マーチングキューブでは、アルゴリズムの前提は、入力ボリュームを立方体の離散的なセットに分割することである。線形再構成フィルタリングを仮定することによって、1つの所与のアイソサーフェスを含む各立方体は、立方体頂点におけるサンプル値は目標アイソサーフェス値に及ばなければならないため、容易に識別することができる。アイソサーフェスのセクションを含む各立方体について、内部立方体内のトリリニア補間の挙動を近似する三角形メッシュが生成される。
複雑な幾何形状および複数のオブジェクトを有するシーンに対処するために、オクルージョンおよびキャストシャドウが対処される必要がある。一実施形態では、これは、各ボクセルから各光源およびカメラへの線をレイトレーシングし、幾何形状の現在の推定結果を使用することによって実施される。八分木構造は、非常に迅速な可視性チェックを可能にし、オクルージョン/シャドウが検出されるときはいつでも、(10)における関連の重みが0に設定される。
本明細書に記載のボリューム法は、特に八分木として実装されたとき、非常に速い可視性推定を可能にする。実際、N×N×N次元のボクセルグリッドを仮定すると、サーフェス周りのボクセル数は、Ο(N2)であることが予想される。次いで、各ボクセルについて、可視性計算は、密なボリューム/深度マップパラメータ化のためのΟ(N)演算、またはメッシュパラメータ化フレームワークにおいて必要とされるΟ(N2)演算(すなわち、すべての光線-ボックス交点をチェックする)とは反対に、Ο(logN)(図9(b)のキャプションに示されているように)を調べることだけを必要とする。
したがって、総合的な複雑さは、密な深度マップパラメータ化のためのΟ(N3)、およびメッシュパラメータ化におけるΟ(N4)とは反対に、Ο(N2 logN)である。
この方法は、mexファイルにおけるc++を使用する八分木コードでMatlabにおいて実装された。
図10(a)および図10(b)は、各ボクセル細分ステップ後のサーフェス品質の増大の図である。図は、各木レベルで符号化された細部の、異なるレベルを示す。この例について、八分木は、深度7で初期化され、3細分ステップ後、深度10に達し、ボクセルサイズを8分の1に縮小し、ボクセル数を約96Kから約4.2Mに増大した。得られた最終サーフェスは、1.1M個の頂点および2.2M個の三角形からなる。
実際には、図10(a)の例について、木は、レベル10、したがってN=210=1024に達し、したがって、他のパラメータ化に比べた高速化は、それぞれ約100倍および105倍である。実際には、すべてのビューに対するレイトレーシング可視性ならびにキャストシャドウは、これらのデータセットに対して数分しかかからない。
複雑なシーンを再構成するための本明細書に記載の手法の能力を証明するために、合成データと実データの両方を使用して調査が実施された。
合成の場合について、本発明者らは、Stanford 3D Scanning Repositoryからの図11に示されているアルマジロモデルを使用した。この仮想オブジェクトは、約半径20mmを有するようにスケールされ、焦点距離6mmの仮想カメラが、オブジェクト周りの45mmの球上のいくつかの場所に配置された。
このモデルは、それぞれの解像度がピクセル当たり1200×800×24ビットの8つの画像を有する12のビューでレンダリングされた。図11は、オクルージョン問題を示す、異なる視線およびライティング角度からオブジェクトの合成データサンプルを示す。上2つの図は、同じ視線方向であるが異なる照明方向からのものである。下段では、2つの左側画像が同じ視線方向であるが異なる照明方向からのものであり、2つの右側画像が同じ視線方向であるが異なる照明方向からのものである。
図12(a)から図12(e)は、合成データ例からの結果を示す。図12(a)は、グラウンドトゥルースを示し、図12(b)はビジュアルハル(visual hull)を示す。図12(c)から図12(e)は、PS最適化を初期化するために使用された合成データ初期推定結果を示す。下の行の可変品質の初期推定結果は、MeshLabのedge collapse decimation機能を使用して図12(a)のグラウンドトゥルースをサブサンプリングすることによって生成される。図12(c)は、500個の三角形についてのものであり、図12(b)は1500個の三角形についてのものであり、図12(e)は10,000個の三角形についてのものである。
初期推定結果に対するボリューム再構成の精度の依存性について定量的に述べるために、初期メッシュは、三角形の数が250から30Kの範囲である(元のメッシュは150k個の三角形であった)5つの異なるメッシュにサブサンプリングされた。これらのメッシュのそれぞれについて、ガウスノイズが平均三角形サイズの標準0、5、10%で頂点座標に追加された。最後に、素朴なボクセル彫刻を有するオブジェクトのビジュアルハルが最終実験のために計算された。
評価メトリックは、グラウンドトゥルースに対するRMSハウスドルフ距離である(MeshLabで計算)。結果は図13および表1に示されている。図13(a)は、グラウンドトゥルースの推定結果(RMS誤差0.141mm)、および図13(b)はビジュアルハルのもの(RMS誤差0.305mm)である。
Figure 0007119023000028
上記のボリュームは、この光沢パラメータについて均一の値c=0.2を仮定して再構成された。
現実世界データセットは、大理石の仏像と、エリザベス女王の石膏胸像(図14)と、フクロウ彫像隣のアルマジロのプラスチック3D印刷バージョン(図15)と、玩具の村シーン(図16)とを含む。
図14は、実データ、すなわち、2/108フォトメトリックステレオ画像(ビューごとに9個のライトを用いた12個のビューが使用された)と、MVSで得られた初期幾何形状推定結果とを示す。この初期推定結果は、女王および仏像データセットについてそれぞれ8千個および1万1千個の三角形だけである。
実験は、サーバマシン上で実行された。計算要件は、合成実験および図14に示されている単一のオブジェクトデータセットのために、15~20GBのRAMおよび10~20分のCPU時間であった。図15および図16は、はるかに大きなボリュームに対応し、したがって、それらは、約2時間および150GBのRAMを必要としたが、このコストは、八分木が数リットルのボリュームをカバーするために必要とされるサイズ0.2mmのボクセル約3千万(30M)個に増大させるという事実が根拠となる。
単純なオブジェクト(図17参照)では、本明細書に記載の方法は、初期推定結果によって制限されず、精密さの限界までサーフェスを繰り返し洗練するので、非常に詳細なサーフェスを得ることができる。この方法は、2Dドメインを作成し、変位マップを計算するために使用されるので、初期推定結果によって制限されない。
八分木実装は、連続的な洗練およびシーンの異なる部分における異なるレベルの精密さを自然に可能にする。
図17は、図14の実データセットに対する定性的評価を示す。提案されているものは、詳細な再構成を生成する。
図18は、図15のデータセットについて、提案方法(右)と従来技術(左)の比較を示す拡大レンダリングである。
図19は、提案方法(右)と従来技術(左)の比較を示す拡大レンダリングである。特に、キャストシャドウにより特に難しいシーンの中央におけるビュー(図16参照)に対応する上段において、提案方法が競争相手を明らかに凌ぐことに留意されたい。
図20は、図16に提示されている「村」データセットの再構成の上面図である。これは、SFMで得られた初期幾何形状推定結果(左)と、他の方法で得られた初期幾何形状推定結果(中央)と、提案方法で得られた初期幾何形状推定結果(右)とを含む。
図21は、アルマジロデータセットの再構成の上面図である。これは、SFMで得られた初期幾何形状推定結果を含む。
図22は、2つのマルチオブジェクトデータセットのアルベドマッピング再構成(Albedo-mapped reconstruction)である。アルベドは、最終的な幾何形状推定結果(オクルージョン/シャドウマップと共に)を使用して式(2)に対する単純な最小二乗を使用して計算される。黒いアルベド領域は、サーフェスのこの特定の部分がどの画像でも見えないことを示す。(左)従来技術(中央)および提案方法(右)。
上記の方法は、キャストシャドウの存在により再構成の品質が非常に劣化する難しいデータセットに対して非常に良好に機能する。これは、この方法がキャストシャドウをレイトレーシングするからであると予想される。最後に、アルベドカラー化再構成(albedo colourised reconstructions)が図22において見ることができる。
上記の実施形態に係る方法は、MVPS問題に関して符号付き距離関数に基づく第1のボリュームパラメータ化を提示する。
木においてボリュームを処理およびレイトレーシングするために八分木実装を使用することによって、非常に高い精度が達成される。フォトメトリックステレオ画像について考えているが、上記の完全な微分定式化は、近接場フォトメトリックステレオのために放射照度式比(irradiance equation ratio)手法を使用するので、アルベド非依存である。
一実施形態では、影像比ベースのモデル化は、鏡面ハイライトを扱うために拡張されることができる。これは、ボクセルごとの追加の未知数として、光沢パラメータを含めることと共に変分ソルバのエンハンスメントを必要とする。
図23は、実施形態に係る方法を実装するために使用することができるハードウェアの概略図である。これは1つの例にすぎず、他の構成を使用することができることに留意されたい。
ハードウェアは、コンピューティングセクション900を備える。この特定の例では、このセクションの構成要素について共に説明する。しかし、それらは必ずしも同じ場所にあるとは限らないことを理解されたい。
コンピューティングシステム900の構成要素は、処理ユニット913(中央処理ユニット(CPU)など)と、システムメモリ901と、システムメモリ901を含む様々なシステム構成要素を処理ユニット913に結合するシステムバス911とを含み得るが、これらに限定されない。システムバス911は、様々なバスアーキテクチャのいずれかを使用するメモリバスまたはメモリコントローラ、周辺バスおよびローカルバスを含むいくつかのタイプのバス構造のいずれかであってよい。コンピューティングセクション900は、バス911に接続された外部メモリ915をさらに含む。
システムメモリ901は、揮発性メモリ、または読出し専用メモリなどの不揮発性メモリの形態にあるコンピュータ記憶媒体を含む。起動時などにおいてコンピュータ内の要素間で情報を転送する助けとなるルーチンを含むベーシックインプットアウトプットシステム(BIOS)903が、典型的にはシステムメモリ901に記憶される。さらに、システムメモリは、オペレーティングシステム905と、アプリケーションプログラム907と、CPU913によって使用中であるプログラムデータ909とを含む。
さらに、インターフェース925がバス911に接続される。インターフェースは、コンピュータシステムがさらなるデバイスから情報を受信するためのネットワークインターフェースであってよい。また、インターフェースは、ユーザが特定のコマンドなどに応答することを可能にするユーザインターフェースであってもよい。
この例では、ビデオインターフェース917が設けられる。ビデオインターフェース917は、グラフィクスプロセッシングメモリ921に接続されるグラフィクスプロセッシングユニット919を備える。
グラフィクスプロセッシングユニット(GPU)919は、多重並列コールの動作のため上記の方法に特によく適している。したがって、一実施形態では、処理は、CPU913とGPU919との間で分割されてもよい。
一実施形態では、GPUは、11Gbメモリ付きのNVIDIA1080Tiである。
上記のアーキテクチャは、GPUを使用する携帯電話にも適している。
上記の方法は、マルチビューイメージング技法を複数シェーディング情報視点(フォトメトリックステレオ)とマージすることが可能である。これは、3Dボリューム再構成を、競合する手法に対してより詳細なものにする。これは、物理現象を光の伝搬および減衰としてより一貫した数学的モデルでモデル化することによって、提案手法が近接場フォトメトリックステレオデータをより確実にパラメータ化することができることによる。さらに、拡散反射と鏡面反射の両方を単一の数学的モデルにおいて扱うために、光の反射もまたパラメータ化される。これは、金属オブジェクトのフォトメトリック画像からの幾何学的情報の導出を可能にする。
上記のように、レイトレーシング処理が、複雑な幾何形状を有するオブジェクトまたはシーンの確実な可視性および影領域(shadowed areas)を決定するために使用される。光線およびカメラ可視性を効果的にレイトレーシングするために、一実施形態では、八分木実装が提案される。
実験セットアップユーザデータ取得は、2つのRGBカメラおよび観察下でシーンをライティングするためのいくつかのLEDの使用からなる。LED当たり単一の画像を撮るようにLEDとカメラを同期させるために、Arduinoマイクロコントローラが使用される。高価な構成要素に基づく他の技術とは異なり、上記の方法は、安価な構成要素に基づく。
上記の実装では、標準的なマルチビュー技法で得られる粗い3D再構成を改善するために、複数のフォトメトリック画像が使用される。
一実施形態では、ボリューム再構成上で非常に正確な細部を投影するために、光の伝搬および減衰を説明する専用の数学的モデルで光の伝搬がパラメータ化される。
一実施形態では、複数のカメラ位置からのオブジェクトの可視性問題に対処するために、レイトレーシングアルゴリズムは、キャストシャドウを確立し、ならびにあらゆる画像の不可視領域を検出することが可能である。
上記は、サーフェス上の正確な細部を取り出すことが可能な3Dスキャン技術を可能にする。また、品質管理、製造、インバースエンジニアリングなどにおけるいくつかの応用例のためのオブジェクトのボリューム3D再構成をも可能にする。
この技術は、検査中のオブジェクトのサーフェスのサブミリメートルの細部を提供する3Dボリュームシップ(3D volumetric ship)を取り出すことが可能である。
要するに、上記の実施形態は、
マルチビューとフォトメトリックステレオイメージングデータとをマージする符号付き距離関数を用いたボリュームの微分パラメータ化を使用する3Dボリューム再構成と、
複数の視点からの情報を単一のシステム内でフォトメトリックステレオ画像と融合する変分最適化と、
新分野フォトメトリックステレオイメージングに対処し、鏡面反射および拡散反射に関連してポイントライトの伝搬と減衰とをモデル化する、放射照度式と、
可視性情報、ならびに複数の離散的なオブジェクトを有するシーンにおいて決定的に重要なシャドウをレイトレーシングすることが可能な八分木実装と、を提供する。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示されているにすぎず、本発明の範囲を限定することは意図していない。実際、本明細書に記載された新規なデバイスおよび方法は、様々な他の形態で実施され得、さらに、本明細書に記載されたデバイス、方法および製品の形態の様々な省略、置換、および変更は、発明の要旨から逸脱しない範囲でなされ得る。添付の特許請求の範囲およびそれらの均等物は、本発明の範囲および要旨に入る形態または修正を包含することが意図されている。

Claims (21)

  1. オブジェクトの3D画像を生成するためのシステムであって、
    マルチビューフォトメトリックステレオデータおよびステレオ画像データを受け取るように構成されたプロセッサを備え、前記マルチビューフォトメトリックステレオデータは、画像データの第1のセットを備え、画像データの前記第1のセットは、異なる照明方向からの照明で複数の位置において第1のカメラによって取得された複数の画像を備え、前記第1のカメラの各位置について異なる照明方向からの複数の画像があり、前記ステレオ画像データは、画像データの第2のセットを備え、画像データの前記第2のセットは、複数の第1画像対を備え、各第1画像対は、前記第1のカメラによって得られた画像、および前記第1のカメラに対して既知の位置を有する第2のカメラによって得られた画像であり、前記第2のカメラは前記第1のカメラより大きい視野を有し、
    前記プロセッサは、各第1画像対について前記第1のカメラおよび前記第2のカメラのグローバルな位置を決定するように構成され、
    前記プロセッサは、拡散反射と鏡面反射の両方をモデル化する反射モデルを使用する放射照度の定式化を用いるフォトメトリックステレオ法を使用して前記マルチビューフォトメトリックステレオデータを処理するように構成される、システム。
  2. 前記プロセッサは、前記オブジェクトのサーフェスの光沢を示すパラメータを使用して拡散反射と鏡面反射の両方をモデル化する反射モデルを使用して放射照度を決定するように構成される、請求項に記載のシステム。
  3. 前記プロセッサは、ブリンフォン反射モデルを使用して拡散反射と鏡面反射の両方をモデル化する下記の反射モデルを使用して放射照度を決定するように構成され、
    Figure 0007119023000029
    ここで、
    Figure 0007119023000030
    は、3D点xの画像平面投影であり、ρ(x)は、アルベドを示し、ak(x)は、減衰を示し、c(x)は、光沢を示し、w(x)は、重み付きハーフベクトル
    Figure 0007119023000031
    であり、vq(x)は、カメラ位置Cqについてのボリューム上のq番目の視線方向であり、εは、遷移パラメータである、請求項に記載のシステム。
  4. 前記プロセッサは、複数の第2画像対を処理するように構成され、各第2画像対は、異なる照明方向から照明される同じカメラ視点からの一対の画像を備え、前記複数の第2画像対は、異なるカメラ視点からの複数の画像を備え、可視性重みが各第2画像対に適用される、請求項に記載のシステム。
  5. 第2画像対は、
    Figure 0007119023000032
    を生成するように処理され、ここで、
    Figure 0007119023000033
    であり、可視性重み付きは、bhk(x)に適用される、請求項に記載のシステム。
  6. オブジェクトの3D画像を生成するためのシステムであって、
    マルチビューフォトメトリックステレオデータおよびステレオ画像データを受け取るように構成されたプロセッサを備え、前記マルチビューフォトメトリックステレオデータは、画像データの第1のセットを備え、画像データの前記第1のセットは、異なる照明方向からの照明で複数の位置において第1のカメラによって取得された複数の画像を備え、前記第1のカメラの各位置について異なる照明方向からの複数の画像があり、前記ステレオ画像データは、画像データの第2のセットを備え、画像データの前記第2のセットは、複数の第1画像対を備え、各第1画像対は、前記第1のカメラによって得られた画像、および前記第1のカメラに対して既知の位置を有する第2のカメラによって得られた画像であり、
    前記プロセッサは、各第1画像対について前記第1のカメラおよび前記第2のカメラのグローバルな位置を決定するように構成され、
    前記プロセッサは、拡散反射と鏡面反射の両方をモデル化する反射モデルを使用する放射照度の定式化を用いるフォトメトリックステレオ法を使用して前記マルチビューフォトメトリックステレオデータを処理するように構成され、
    前記プロセッサは、ブリンフォン反射モデルを使用して拡散反射と鏡面反射の両方をモデル化する下記の反射モデルを使用して放射照度を決定するように構成され、
    Figure 0007119023000034
    ここで、
    Figure 0007119023000035
    は、3D点xの画像平面投影であり、ρ(x)は、アルベドを示し、ak(x)は、減衰を示し、c(x)は、光沢を示し、w(x)は、重み付きハーフベクトル
    Figure 0007119023000036
    であり、vq(x)は、カメラ位置Cqについてのボリューム上のq番目の視線方向であり、εは、遷移パラメータであり、
    前記プロセッサは、複数の第2画像対を処理するように構成され、各第2画像対は、異なる照明方向から照明される同じカメラ視点からの一対の画像を備え、前記複数の第2画像対は、異なるカメラ視点からの複数の画像を備え、可視性重みが各第2画像対に適用され、
    第2画像対は、
    Figure 0007119023000037
    を生成するように処理され、ここで、
    Figure 0007119023000038
    であり、可視性重み付きは、bhk(x)に適用される、システム。
  7. 前記第1のカメラおよび前記第2のカメラは異なる視野を有する、請求項に記載のシステム。
  8. 前記プロセッサは、式(7)を重み付き最小二乗問題として解くように構成される、請求項5乃至7のいずれか1項に記載のシステム。
  9. 前記プロセッサは、反復処理を使用して前記最小二乗問題を解くように構成される、請求項に記載のシステム。
  10. 前記第1のカメラおよび前記第2のカメラは、可動なマウントに設けられ、前記第1のカメラは、複数の個々の光源によって囲まれて設けられ、前記個々の光源は、どの時点においてもただ1つの光源をオンになるように制御することができるように制御可能である、請求項1乃至9のいずれか1項に記載のシステム。
  11. 前記フォトメトリックステレオ法は、符号付き距離関数を使用することによって前記オブジェクトのサーフェスの位置を決定し、前記符号付き距離関数は、点からサーフェスまでの距離を決定し、前記符号付き距離関数は、下記のサーフェス法線に関係し、
    Figure 0007119023000039
    ここで、n(x)は、3D点xでのサーフェス法線であり、d(x)は、3D点xでの前記符号付き距離関数であり、∇は勾配演算子であり、前記符号付き距離関数は、放射照度をモデル化するときにサーフェス法線の代わりに使用される、請求項乃至10のいずれか1項に記載のシステム。
  12. サーフェスは、前記符号付き距離関数が最小であるときに示される、請求項11に記載のシステム。
  13. 前記プロセッサは、ボリューム法を使用して前記マルチビューフォトメトリックステレオデータを処理し、前記オブジェクトを含むボリュームは、ボクセルに細分され、前記符号付き距離関数は、ボクセルごとに計算される、請求項11または12に記載のシステム。
  14. 前記プロセッサは、反復法を使用して前記マルチビューフォトメトリックステレオデータを処理するように構成され、ボクセルサイズは、第1のサイズに設定され、前記符号付き距離関数が閾値未満である場合、さらに細分される、請求項13に記載のシステム。
  15. 前記プロセッサは、前記ステレオ画像データから前記符号付き距離関数の初期推定結果を得るように構成される、請求項13または14に記載のシステム。
  16. 前記プロセッサは、オクルージョンを決定するために前記第1のカメラまたは照明に向かってボクセルをレイトレーシングすることを実施するように構成される、請求項13乃至15のいずれか1項に記載のシステム。
  17. トレースされる光線に沿うボクセル間での前記符号付き距離関数の符号の変化からオクルージョンが決定される、請求項16に記載のシステム。
  18. 第1のカメラと、
    第2のカメラと、
    空間的に分散された複数の光源と、
    請求項1乃至17のいずれか1項に記載のシステムと
    を備える検査装置。
  19. オブジェクトの3D画像を生成するための方法であって、
    マルチビューフォトメトリックステレオデータおよびステレオ画像データを受け取ることと、前記マルチビューフォトメトリックステレオデータは、画像データの第1のセットを備え、画像データの前記第1のセットは、異なる照明方向からの照明で複数の位置において第1のカメラによって取得された複数の画像を備え、前記第1のカメラの各位置について異なる照明方向からの複数の画像があり、前記ステレオ画像データは、画像データの第2のセットを備え、画像データの前記第2のセットは、複数の第1画像対を備え、各第1画像対は、前記第1のカメラによって得られた画像、および前記第1のカメラに対して既知の位置を有する第2のカメラによって得られた画像であり、前記第2のカメラは前記第1のカメラより大きい視野を有し、
    各第1画像対について前記第1のカメラおよび前記第2のカメラのグローバルな位置を決定することと、
    拡散反射と鏡面反射の両方をモデル化する反射モデルを使用する放射照度の定式化を用いるフォトメトリックステレオ法を使用して前記マルチビューフォトメトリックステレオデータを処理することと
    を備える方法。
  20. オブジェクトの3D画像を生成するための方法であって、
    マルチビューフォトメトリックステレオデータおよびステレオ画像データを受け取ることと、前記マルチビューフォトメトリックステレオデータは、画像データの第1のセットを備え、画像データの前記第1のセットは、異なる照明方向からの照明で複数の位置において第1のカメラによって取得された複数の画像を備え、前記第1のカメラの各位置について異なる照明方向からの複数の画像があり、前記ステレオ画像データは、画像データの第2のセットを備え、画像データの前記第2のセットは、複数の第1画像対を備え、各第1画像対は、前記第1のカメラによって得られた画像、および前記第1のカメラに対して既知の位置を有する第2のカメラによって得られた画像であり、
    各第1画像対について前記第1のカメラおよび前記第2のカメラのグローバルな位置を決定することと、
    拡散反射と鏡面反射の両方をモデル化する反射モデルを使用する放射照度の定式化を用いるフォトメトリックステレオ法を使用して前記マルチビューフォトメトリックステレオデータを処理することと
    を備え、
    前記マルチビューフォトメトリックステレオデータを処理することは、ブリンフォン反射モデルを使用して拡散反射と鏡面反射の両方をモデル化する下記の反射モデルを使用して放射照度を決定することを含み、
    Figure 0007119023000040
    ここで、
    Figure 0007119023000041
    は、3D点xの画像平面投影であり、ρ(x)は、アルベドを示し、ak(x)は、減衰を示し、c(x)は、光沢を示し、w(x)は、重み付きハーフベクトル
    Figure 0007119023000042
    であり、vq(x)は、カメラ位置Cqについてのボリューム上のq番目の視線方向であり、εは、遷移パラメータであり、
    前記マルチビューフォトメトリックステレオデータを処理することは、複数の第2画像対を処理することを含み、各第2画像対は、異なる照明方向から照明される同じカメラ視点からの一対の画像を備え、前記複数の第2画像対は、異なるカメラ視点からの複数の画像を備え、可視性重みが各第2画像対に適用され、
    第2画像対は、
    Figure 0007119023000043
    を生成するように処理され、ここで、
    Figure 0007119023000044
    であり、可視性重み付きは、bhk(x)に適用される、方法。
  21. 実行されたときに、コンピュータに請求項19または20の方法を実行させるコンピュータ可読命令を搬送する非一時的キャリア媒体。
JP2020096120A 2019-08-08 2020-06-02 オブジェクトの3dイメージングを実施するためのシステムおよび方法 Active JP7119023B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1911354.7 2019-08-08
GB1911354.7A GB2586157B (en) 2019-08-08 2019-08-08 System and method for performing 3D imaging of an object

Publications (2)

Publication Number Publication Date
JP2021026759A JP2021026759A (ja) 2021-02-22
JP7119023B2 true JP7119023B2 (ja) 2022-08-16

Family

ID=67991120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020096120A Active JP7119023B2 (ja) 2019-08-08 2020-06-02 オブジェクトの3dイメージングを実施するためのシステムおよび方法

Country Status (3)

Country Link
US (1) US11394945B2 (ja)
JP (1) JP7119023B2 (ja)
GB (1) GB2586157B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003994B2 (ja) * 2017-08-08 2022-01-21 ソニーグループ株式会社 画像処理装置および方法
US11710272B2 (en) * 2021-03-24 2023-07-25 Disney Enterprises, Inc. Volumetric representation of digital objects from depth renderings

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124984A (ja) 2016-12-01 2018-08-09 トムソン ライセンシングThomson Licensing モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2452944B8 (en) * 2007-09-19 2016-09-14 Toshiba Res Europ Ltd An imaging system and method
GB2490872B (en) * 2011-05-09 2015-07-29 Toshiba Res Europ Ltd Methods and systems for capturing 3d surface geometry
CN104428732A (zh) * 2012-07-27 2015-03-18 诺基亚公司 与近眼显示器的多模交互
WO2016074725A1 (en) * 2014-11-13 2016-05-19 Huawei Technologies Co., Ltd. Non local image denoising
US9978140B2 (en) * 2016-04-26 2018-05-22 Optos Plc Retinal image processing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124984A (ja) 2016-12-01 2018-08-09 トムソン ライセンシングThomson Licensing モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Fotios Logothetis,Detailed and Practical 3D Reconstruction with Advanced Photometric Stereo Modelling,Doctorial thesis,University of Cambridge,2019年05月18日,https://www.repository.cam.ac.uk/handle/1810/292450

Also Published As

Publication number Publication date
JP2021026759A (ja) 2021-02-22
GB201911354D0 (en) 2019-09-25
GB2586157B (en) 2022-01-12
US11394945B2 (en) 2022-07-19
GB2586157A (en) 2021-02-10
US20210044788A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
Hedman et al. Scalable inside-out image-based rendering
Attal et al. Learning neural light fields with ray-space embedding
Bi et al. Deep 3d capture: Geometry and reflectance from sparse multi-view images
Hong et al. Stereopifu: Depth aware clothed human digitization via stereo vision
Berger et al. State of the art in surface reconstruction from point clouds
Liu et al. Continuous depth estimation for multi-view stereo
Dall'Asta et al. A comparison of semiglobal and local dense matching algorithms for surface reconstruction
Li et al. Detail-preserving and content-aware variational multi-view stereo reconstruction
Knyaz et al. Image-to-voxel model translation with conditional adversarial networks
Kim et al. Multi-view inverse rendering under arbitrary illumination and albedo
Cross et al. Surface reconstruction from multiple views using apparent contours and surface texture
Bemana et al. Eikonal fields for refractive novel-view synthesis
WO2018133119A1 (zh) 基于深度相机进行室内完整场景三维重建的方法及系统
JP7119023B2 (ja) オブジェクトの3dイメージングを実施するためのシステムおよび方法
Liu et al. High-quality textured 3D shape reconstruction with cascaded fully convolutional networks
Merras et al. Multi-view 3D reconstruction and modeling of the unknown 3D scenes using genetic algorithms
Delaunoy et al. Towards full 3D Helmholtz stereovision algorithms
CN116310228A (zh) 一种针对遥感场景的表面重建与新视图合成方法
McCann 3D Reconstruction from multiple images
Yao et al. 3D modeling and rendering from multiple wide-baseline images by match propagation
Salvador et al. Multi-view video representation based on fast Monte Carlo surface reconstruction
Glumova et al. Investigation of algorithms for generating surfaces of 3D models based on an unstructured point cloud
Birkbeck et al. Basis constrained 3d scene flow on a dynamic proxy
Ham et al. Occlusions are fleeting-texture is forever: Moving past brightness constancy
Aung et al. Multi-view Stereo Dense Reconstruction using SfM-based PMVS for Image-based Modeling (IBM)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R151 Written notification of patent or utility model registration

Ref document number: 7119023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151