JP2010541058A - 三次元デジタル化方法 - Google Patents

三次元デジタル化方法 Download PDF

Info

Publication number
JP2010541058A
JP2010541058A JP2010526336A JP2010526336A JP2010541058A JP 2010541058 A JP2010541058 A JP 2010541058A JP 2010526336 A JP2010526336 A JP 2010526336A JP 2010526336 A JP2010526336 A JP 2010526336A JP 2010541058 A JP2010541058 A JP 2010541058A
Authority
JP
Japan
Prior art keywords
point
speckle pattern
image
optical axis
reference plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010526336A
Other languages
English (en)
Inventor
ルモンド,ヴィンセント
ブレザス,ルドヴィック
Original Assignee
ノオメオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノオメオ filed Critical ノオメオ
Publication of JP2010541058A publication Critical patent/JP2010541058A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明は、物理的物体(4)の三次元表面(3)の合成イメージ(2)を構築する方法であって、以下の動作、物体の表面(3)を選択すること、表面(3)に対向して、光源(10)、光軸(13)、および所定の光強度および/または色強度を有する複数の点を含むスペックルパターンを画定するラスタ(12)を有するプロジェクタ(8)を配置すること、プロジェクタ(8)の光軸(13)を、デジタル化する表面(3)に向けること、スペックルパターンを光軸(13)に沿って表面(3)上に投射すること、プロジェクタ(8)の光軸(13)内に配置された光センサを使用して、表面(3)上に投射され、表面(3)により変形したスペックルパターン(14’)の二次元イメージを取得し記憶すること、スペックルパターン内の選択された少なくとも1つの点について、変形したスペックルパターン(14’)のイメージを、参照平面(Γ)上に投射された変形のないスペックルパターン(14)のイメージと比較すること、選択された各点について、少なくとも、表面(3)上のその点の投射および物体上へのその点の投射の、光軸(13)と平行に測定される奥行き座標を計算することを含む、方法に関する。
【選択図】図2

Description

本発明は、接触せずに三次元物理物体からデジタルイメージを構築することに関する。この教示は、一般に三次元または3Dスキャンまたはイメージングと呼ばれる。
現実物体のデジタルイメージを生成する必要性が、一般に「リバースエンジニアリング」と呼ばれる競争相手の製品の解析が、これらの製品に関連する情報の共有および記憶と共に、特に製品の革新およびリニューアル速度に対する一般の期待という視点から不可欠になりつつある製品デザイナから始まり、多くの産業分野で明らかになりつつある。関わるのは、これら分野のみではない。生物測定、医学(特に手術)、および産業酪農業(以下に引用する文献を参照のこと)において、3Dイメージングの利用が増えつつある。
従来の技法は、製品を分解し、鉛筆画を作成すること、または接触計測ツールを使用することからなる。長く面倒であったこれらの方法は、設計プロセス中での物体の設計および三次元表示を可能にするコンピュータ支援設計/ドラフト(CAD)に関する技法の出現に伴い、時間と共に進化した。より総合的なツールによっては、製造プロセスとの直接リンクを提供するものもある(CAD/CAM)。近頃、高速ターンアラウンドプロトタイプ処理解決策がCADツールと併せて出現した。
CADツールにリンクされた3Dイメージングツールにより、かなりの時間量を節減できることは言うまでもない。このようなツールは一般に、1つまたは複数の向きでの物体のトポグラフィ(topography)の取得を実行する、ポータブルまたは他の1つまたは複数のスキャナを備え、このトポグラフィが次に使用されて、CAD環境内での物体の三次元デジタル再構築が実行される。
接触せずに取得するいくつかの技法が存在する。一般に言えば、これら技法は、物体に光を投射することに基づき、歪みが(所与の精細度または分解能で)点毎に視覚的に取り込まれて解析される所与の形状(線、反復パターン等)を有するイメージにより、各点の三次元座標および特に奥行き座標を計算することができる。
これら技法は、以下の2つの大きな系統に分類することができる、
−線形イメージ(一般に、薄い面光線がレーザ源により生成される)が物体に投射されること、および連続した歪みにより、照明面全体の漸進的な再構築を可能にするこの線により、物体の表面をスキャンすることにあるスキャン、および
−1度に物体の1点に、平面上への投射に対する全般的な歪みが点毎に解析されて、照明された面の再構築を可能にする所定のパターンを含む構造化されたイメージを投射することにある瞬間取り込みまたは「ワンショット」。
これら2つの技法は、物体の照明面に向けられたイメージ取り込み装置(静止カメラまたはシネ/ビデオカメラ)により、歪んだイメージの取得を実行し、この装置自体は、3Dイメージ解析および再構築装置(一般に、コンピュータプロセッサに実装される、CADソフトウェアモジュールに関連する再構築ソフトウェアモジュールの形態)に接続される。
欧州特許第0840880号明細書(Crampton)および米国特許第5835241号明細書(Xerox)の両方には、スキャン技法が示されている。この技法には、正確であるという利点があるが、それにもかかわらず、時間がかかる(各スキャンに数秒)と共に、物体が全投射時間にわたって完全に静止している必要がある。この技法を生物測定(人体の限られた部位を除く)に適用することが困難であり得る理由が、容易に理解される。さらに、レーザの使用には問題があり、人の顔のスキャンに使用される場合には危険にもなる恐れがある。
この理由により、ワンショット技法が現在、取得を実行可能な速度および物体の不動性に頼る制約が少なく、単純に手で持つことが可能なこと(サイズおよび重量により許容される場合)により、最も将来性があると考えられる。この技法を説明するために、特に、米国特許出願公開第2005/0116952号明細書(Jeら)、米国特許第6549289号明細書(Pheno Imaging)、同第6377353号明細書(Pheno Imaging)、英国特許第2410794号明細書(Sheffield Hallam University)、米国特許出願公開第2006/0120576号明細書(Biomagnetic Imaging)、および同第2006/0017720号明細書(Li)を参照することができる。
しかし、既知の技法(ワンショットのものを含む)は、特定の欠点なしでは使用することができない。
第1に、投射ツールおよび取得ツールの分散により、真の携帯性を可能にするために十分な小型軽量性をスキャナに持たせることができず、したがって、限られたサイズの物体(電話等)をイメージングする場合であっても、周辺機器全体を物体の周囲に配置する必要がある。
第2に、取得から得られたイメージに対して実行される計算は一般に、複雑であり(特に、上述した文献米国特許出願公開第2006/0017720号明細書を参照のこと)、面倒なプログラムを強力なプロセッサに実装する必要がある。
欧州特許第0840880号明細書 米国特許第5835241号明細書 米国特許出願公開第2005/0116952号明細書 米国特許第6549289号明細書 米国特許第6377353号明細書 英国特許第2410794号明細書 米国特許出願公開第2006/0120576号明細書 米国特許出願公開第2006/0017720号明細書 米国特許出願公開第2006/0017720号明細書
本発明は特に、物体の3Dイメージングを単純かつ高速に実行できるようにする技術的解決策を提供することにより、上記欠点を解消することを目的とする。
このために、本発明は、物理的物体の三次元表面のデジタルイメージを構築する方法であって、
−物体の表面を選択すること、
−上記表面に面して、光源、光軸、および所定の光強度および/または色を有する複数の点を備えたスペックルパターンを画定するマスクが備えられたプロジェクタを配置すること、
−プロジェクタの光軸をイメージングする表面に向けること、
−光軸に沿って、スペックルパターンを表面に投射すること、
−プロジェクタの光軸内に配置された光センサにより、表面に投射され、表面により変形したスペックルパターンの二次元イメージを取得して記憶すること、
−少なくとも、スペックルパターンから選択された点について、変形したスペックルパターンのイメージを、参照平面に投射された変形のないスペックルパターンのイメージと比較すること、
−選択された各点について、少なくとも、表面上のこの点の投射の、光軸に平行に測定される奥行き座標を計算すること
にある動作を含む、方法を提供する。
本発明の他の目的および利点が、添付図面を参照して以下に提示される説明に鑑みて明らかになるであろう。
物理的物体、この場合、りんごの感知に適用される3Dイメージング装置の三次元図である。 別の視角から内部構成要素の部分を示す、図1中の装置の分解組み立て斜視図である。 図2中の装置の上面図である。 本発明によるイメージング技法の基礎をなす数学的モデルの、ユークリッド幾何学での概略表現である。 投射軸に垂直な参照平面に投射された光スペックルパターンの平面図である。 写真取得により照明面のトポグラフィを実行可能にする、人間工学的枕の種類の物体の前面へのスペックルパターンの投射を示す概略斜視図である。 図6中の物体の面上に投射されたスペックルパターンの、感知装置の軸における平面図である。 三次元空間の横軸、縦軸、および奥行き軸のそれぞれである3つの直交軸に沿ったスペックルパターンの歪みの解析を示す。 三次元空間の横軸、縦軸、および奥行き軸のそれぞれである3つの直交軸に沿ったスペックルパターンの歪みの解析を示す。 三次元空間の横軸、縦軸、および奥行き軸のそれぞれである3つの直交軸に沿ったスペックルパターンの歪みの解析を示す。 図8〜図10に示した解析から再構築された、図6中の物体の照明された前面の前からの斜視図および後ろからの斜視図である。 図8〜図10に示した解析から再構築された、図6中の物体の照明された前面の前からの斜視図および後ろからの斜視図である。 再構築された図6中の物体の照明された前面の平面図である。 図6中の物体の照明された前面の2つの異なる向きでの側面図である。 図6中の物体の照明された前面の2つの異なる向きでの側面図である。
図1〜図3には、物理的物体4の三次元表面3のデジタルイメージ2を構築することができるコンタクトレスイメージング装置1を概略的に示す。図1〜図3の図では、この物体4はりんごであるが、イメージングされる1つまたは複数の三次元表面を有する他の任意の物体であってよく、これら表面は起伏を示してもよい(換言すれば、非平面であってもよい)。
この装置1は、保持し携帯するためのハンドル7が備えられたポータブル筐体6を備える装置5を備え、この筐体6内には、プロジェクタ8およびシネ/ビデオカメラ型(換言すれば、連続して、例えば、24イメージ/秒の標準速度でイメージを取得可能な)または静止カメラ型(換言すれば、瞬間写真を撮影する)のイメージ取り込み装置9が取り付けられる。以下の説明では、イメージ取り込み装置9が、必要に応じて静止カメラとして利用可能なシネ/ビデオカメラであると仮定する。
図2および図3から分かるように、プロジェクタ8は、光源10と、光源10の前に配置されたフォーカス光学系11およびマスク12とを備える。
光源10は、好ましくは、例えばフィラメント型(図2および図3に示す概略例でのように)またはハロゲン型の白色光源である。
フォーカス光学系11は、単純な集束レンズとして図2および図3に概略的に表され、光源10を通る主光軸13を画定する。
マスク12は、所定の光強度(コントラスト)および/または色を有する複数の点を含むスペックルパターン14を画定する。このようなスペックルパターン14は、図6の平面図に示され、スペックルパターンの定義としては、例えば、Juliette SELB,“Source virtuelle acousto−optique pour l’imagerie des milieux diffusants”[散乱媒体のイメージングの音響光学仮想線源]、博士論文,Paris XI,2002)を参照のこと。実際には、マスク12は、スペックルパターン14が従来のプロセス(転写、オフセット、シルクスクリーン、フレキソ印刷、レーザ、インクジェット等)によりプリントされた、写真スライド型の正方形または長方形の半透明または透明な板(ガラスまたはプラスチック)の形態をとることができる。マスク12は、光学系11の軸13上で、換言すれば、光軸13に直交し、光軸13がマスク12の中心(この場合、マスク12の対角線の交差点により定義される)を通るように、光源10と光学系11との間に配置される。マスク12は、光学系11の焦点距離に応じて、光学系11から所定の距離に配置される(以下の例を参照のこと)。
マスク12の隣辺のうちの2つのそれぞれが、横軸(x)および縦軸(y)を定義し、光軸が奥行き軸(z)を定義する。
カメラ9は、図2および図3では単純な集束レンズとして概略的に表され、補助光軸16を画定する光学系セット15を備える。
カメラ9は、正方形または長方形の平面の形態をとり、補助光軸16上に、換言すれば、補助光軸16に直交して、補助光軸16がセンサ17の中心(この場合、対角線の交点により定義される)を通るように、光学系15の前に配置される、例えば、CCD型の感光センサ17も備える。センサ17は、光学系15の焦点距離に応じて、光学系15から所定の距離に配置される(以下の例を参照のこと)。
図2および図3から分かるように、プロジェクタ8およびカメラ9は、光軸13および16が同一の平面上にあり、かつ直交するように配置される。
装置5は、主光軸13上の補助光軸16との交点上に配置される半反射ミラー18も備える。より正確には、ミラー18は、2つの対向する平らな主面、すなわち、プロジェクタ8に面して配置される後面19およびカメラ9に面して配置される前面20を有する。
図示の例では、半反射ミラー18は、面19および20が平行な薄いスライドの形態をとるが、面が互いに対して45°傾斜したプリズムの形態をとってもよい。
この場合、主光軸13に対して45°の角度で傾斜した後面19は、プロジェクタ8からの入射光を光軸13に沿って伝達するように構成される。
前面20に関して、これは主光軸13および補助光軸16に対して45°の角度で傾斜した平面内(換言すれば、軸13および16により形成される平面に直交し、かつ軸13および16により形成される直角の二等分線を含む平面内)にある。この前面20は、半反射性を有し、換言すれば、プロジェクタ8からの入射光を主光軸13に沿って伝達するが、照明された物体4から主光軸13に沿って前面20に到達した反射光を補助光軸16に沿って反射するように構成される。
ミラー18は、主軸13および補助軸16が、半反射性前面20(ビームスプリッタとも呼ばれる)上で、より正確には、半反射性前面20の中心(この場合、前面20の対角線の交点により定義される)で交わるように配置される。
したがって、光源10により発せられた入射光はまず、マスク12を通り、光学系11により合焦され、次に、反射されずに半反射性ミラー18を透過する。この光は、マスク12の投射と共に、イメージングされる物体4を照明し、物体4は光の一部を反射し、反射された光は主光軸13に沿って入射光とは逆の方向に放射され、ビームスプリッタ20により直角に、補助光軸16に沿ってカメラ9の方向に反射される。この反射光は、カメラ9の光学系15により合焦され、最終的にセンサ17に衝突する。
この構成により、補助光軸16は主光軸13と略同じになる。換言すれば、カメラ9は物理的には主軸13上に配置されないが、あらゆることが、物体4により反射されセンサ17に衝突する光がまるでいかなる偏向もないかのように行われるという点で、主光軸13内に配置される。
実際に、半反射ミラー18の介在により、仮にカメラ9を主光軸13上のプロジェクタ8の前に物理的に設置した場合に生じるであろうプロジェクタ8の遮蔽、または逆に、仮にカメラ9を主光軸13上のプロジェクタ8の背後に設置した場合に生じるであろうカメラ9の遮蔽が回避される。
図2および図3に示される好ましい一実施形態によれば、センサ17からビームスプリッタ20までの距離は、マスク12からビームスプリッタ20までの距離未満である。換言して、実質的に言えば、カメラ9は主光軸13上のプロジェクタ8の前に配置される。これにより、図8〜図10から分かるように、視野が厳密にスペックルパターン14のイメージ内にある妥当なサイズ(ひいては妥当なコスト)のセンサ17の使用が可能になる。
以下に、プロジェクタ8およびカメラ9の設計寸法の実験例を提供する。
(表1)
Figure 2010541058
(表2)
Figure 2010541058
好ましい設計値(「好ましい値」列を参照のこと)により、大寸法が約350mmであるスペックルパターン14(図5)の鮮鋭なイメージを、マスク12から390mmに配置された目標平面Г(参照平面)上に投射することが可能であり、センサ17は、このイメージ内で、大寸法が約300mmである視野が可能である。
装置5は、ハンドル6に取り付けることができ、プロジェクタ8およびカメラ9、換言すれば、マスクの投射およびイメージの取り込みをアクティブ化できるようにする手動始動機構(例えば、ピストルトリガ型)をさらに備える。始動機構は、フラッシュ型、換言すれば、スペックルパターン14の投射およびイメージの取り込みを瞬時かつ同時に実行することができ、または遅延型、換言すれば、投射が連続して実行される時間間隔にわたってイメージの取り込みを自動的または手動で始動させることができる。この後者の解決策では、装置5の前後移動により、物体4上に投射されたスペックルパターン14のイメージを素早く合焦させることができる。
装置1は最後に、センサ17からのデータを処理するユニット21を備える。実際には、この処理ユニット21は、装置5内のオンボードプロセッサの形態をとり、または図1に示すように、有線または無線の通信インタフェースを介して装置5に接続された遠隔コンピュータ23の中央プロセッサ22に一体化され、プロセッサ21に、センサ17からのデータからデジタルイメージを構築するソフトウェアアプリケーションが実装される。
上述した装置1を実施する、物理的物体4の三次元表面のデジタルイメージを構築する方法について、これより説明する。
物体4上のイメージングされる表面3がまず選択され、次に、装置5をプロジェクタ8がこの表面3に面するように向け、主光軸13を表面3(図1)に向けることにより、装置5が、スペックルパターン14の鮮鋭なイメージを得ることができる距離(換言すれば、参照平面Гが通常配置される距離)に近いと推定される距離に配置される。
次に、始動機構をアクティブ化して、スペックルパターン14のイメージをマスク12からイメージングされる表面3上に主光軸13に沿って投射する。物体4上のスペックルパターン14のイメージは、少なくとも局所的に、参照平面に投射されたイメージに対して、照明された表面3の起伏による歪みを示す(図6)。
同時に(フラッシュ)で実行されるか、それとも遅延して実行されるかに関わりなく、次に、イメージの取り込みが、カメラ9により実行されて、照明された表面3により変形したスペックルパターン14’の二次元イメージ(図7)を取得して記憶し、このイメージは、物体4の表面3およびビームスプリッタ20により連続して反射される。
以下の動作は、変形したスペックルパターン14’のイメージを、参照平面Гに投射される変形のないスペックルパターン14のイメージと比較することにある。この比較は、歪みのないイメージ内で実行されるスペックルパターン14の点毎に実行してもよく、または選択された所定の点に対して実行してもよい。
可能な限り正確な構築を得るためには、比較をイメージの点毎に、換言すれば、センサ17により取得されたイメージのピクセル毎に行うことが好ましい。構築の精度がセンサ17の精度に依存することは言うまでもない。約900万ピクセルを備えたセンサ17の場合、上記で提案された好ましい設計寸法は、1/10mm程度の精度を提供し、この精度は、サイズが人間規模であるあらゆる種類の物体の許容可能なデジタルイメージ2を構築するために十分である。
次の動作は、選択されたすべての点について、歪みのないスペックルパターン14の各点を、歪んだスペックルパターン14’の対応する点とマッチングすることにある。
点毎に、このマッチングは、相関付けにより、換言すれば、局所的には不一致を示すが、2つのイメージの近い領域内で同様に見える領域内の試行錯誤により実行することができる。
各点がマッチングされると、この点のずれ、換言すれば、歪みのないスペックルパターン14のイメージ内の位置に対する、点の位置での歪んだスペックルパターン14’のイメージのシフトが測定される。これらイメージのそれぞれは平面であるため、このずれは水平成分(横軸に平行)および垂直成分(縦軸に平行)に分解される。
センサ17からのデータを使用して処理ユニット21内で実行される三角測量計算により、歪みのないスペックルパターン14のイメージ内の選択された点に対応する、歪んだスペックルパターン14’のイメージの点の少なくとも奥行き座標を、これから推定することができる。
図4は、この計算を実行するために利用される幾何学的方法を示す。この数学的表現では、主光軸13および補助光軸16は上述した構成により同じである。
以下の表記が使用される。
Г、参照平面、
P、参照平面に投射される、スペックルパターンのイメージ内の選択された点、
O、イメージが点Pであるマスクの点、
A、センサの点、点Pのイメージ、
B、参照平面上への点Oの直交(光軸に平行な)投射、
M、物体上の点Pのイメージ、
M’、点Aに端を発する参照平面上への点Mの投射、
B,x,y,z、参照平面において原点としてBを有するデカルト座標の直交系、
x(P)、系B,x,y,z内の点Pの横座標、
y(P)、系B,x,y,z内の点Pの縦座標、
x(M)、系B,x,y,z内の点Mの横座標、
y(M)、系B,x,y,z内の点Mの縦座標、
z(M)、系B,x,y,z内の点Mの奥行き座標、
Δx=x(M’)−x(P)、M’とPとの間のシフトの水平成分(横座標)、
Δy=y(M’)−y(P)、M’とPとの間のシフトの垂直成分(縦座標)、
M’’、点Mの軸OB上への投射、
f、距離OB
である。
図4の解釈は以下の通りである。マスク12の点Oを透過した光線が、参照平面内の点Oのイメージである参照平面の点Pに衝突する。物体4がそのパス内に配置されると、同じ光線は、物体4上の点Oのイメージである物体の点Mに衝突する。点Aは、軸OB上での、センサ17上の点Mのイメージである。あらゆることは、Aがまるで、点Aに端を発した点Mの投射として数学的に定義され、参照平面Г内の、スペックルパターンのイメージ内の点Pのシフトに対応する虚点である点M’のセンサ17上へのイメージであるかのように行われる。
パラメータfおよびABは分かっており、装置1の構造に依存する。パラメータx(P)、y(P)は、主光軸13上を中心とした座標系から始まり、参照平面Г内の点Oの直交投射である点B上を中心とした系への単純な変換により平凡に計算することができる。
マッチングが実行されると、換言すれば、点M’が、上述した相関付け方法により検出されると、パラメータΔxおよびΔyを参照平面Г内で測定することができる。図8および図9は、物体4への投射によるスペックルパターンイメージの歪みによる、スペックルパターンのイメージ内で観測されるずれΔxおよびΔyをグレースケールで示す。
こうして分かった、計算された、または測定されたパラメータから、点Mの奥行き座標z(M)、換言すれば、物体上の点OのイメージMの参照平面Гまでの距離。したがって、この奥行きは、以下の式により計算することができる。
Figure 2010541058
図10は、物体4に投射されたスペックルパターンのイメージの各点について計算された奥行きのマッピングを示す。
こうして計算された奥行き座標z(M)を使用して、以下の式、
Figure 2010541058

により、系B,x,y,z内の点Mの横座標x(M)および縦座標y(M)を計算することが可能である。
光軸13を中心とした系内の、参照平面内の点Mの座標は、参照平面Г内の単純な変換により、座標x(M)およびy(M)から平凡に推定することができる。
次に、こうして各点Mについて計算された完全な座標に基づいて、処理ソフトウェアは、図11〜図15においてグレースケールで示すデジタルイメージ2の形態の物体4の照明された面3を再構築することができる。
物体4の広域構築が望まれる場合、上で説明した動作を、物体の複数の隣接表面に対して繰り返される。次に、イメージングされたすべての表面のデジタルイメージを組み立て、例えば、イメージ補正技法を用いて、2つの隣接する表面の重複領域により、イメージの縁に沿ってこれら表面を正確にステッチングすることが可能である。
上述した装置1および方法は、特定数の利点を提供する。
第1に、プロジェクタ8−カメラ9組立体の簡易性およびコンパクト性により、携帯性および取り扱い易さに関して十分に小型で軽量な装置5を製造することができる。
第2に、装置には1台のみのカメラ9しか備えられないが、参照平面Г上に投射された歪みのないスペックルパターン14の事前取得により、イメージングされる三次元表面3(の起伏)のマッピングに繋がる比較が実行されるベースとなる参照を提供する、仮想的ではあるが第2のカメラが提供される。
第3に、ビームスプリッタ20を介在させて、カメラ9をプロジェクタ8の光軸13に配置することにより、軸方向立体視(axial stereovision)、換言すれば、仮にカメラ9がプロジェクタ8の軸13に対して角度的に変位する場合に直面する遮蔽現象回避の利点という恩益が提供され、このような構成では、イメージングされる表面3の起伏の特定の領域が実際には、プロジェクタの視点からは照明されるが、カメラの視点から遮られたままになる。この理由により、参照イメージ(参照平面Г内に投射されたような、歪みのないスペックルパターン14)のすべての点が、物体に投射されるスペックルパターン14’のイメージ内に必然的に存在するため、同じ表面3のいくつかのショットを撮影する必要がなく、これは同時に、計算の精度、簡易性、およびプロセスの実行速度にとって有益である。しかし、従来の軸方向立体視と比較して、固定焦点距離での動作は、この種のシステム内で直面する倍率に関連する歪み現象を最小に抑える(この点について、Catherine Delherm,“Reconstruction volumique dense par stereovision axiale”[軸方向立体視による密な3D再構築],These de doctorat[博士論文],Clermont Ferrand,1995を参照のこと)。

Claims (6)

  1. 物理的物体(4)の三次元表面(3)のデジタルイメージ(2)を構築する方法であって、
    −前記物体の表面(3)を選択すること、
    −前記表面(3)に面して、光源(10)、光軸(13)、および所定の光強度および/または色を有する複数の点を含むスペックルパターンを画定するマスク(12)が備えられたプロジェクタ(8)を配置すること、
    −前記プロジェクタ(8)の前記光軸(13)を、イメージングされる前記表面(3)に向けること、
    −前記光軸(13)に沿って、前記スペックルパターンを前記表面(3)上に投射すること、
    −前記プロジェクタ(8)の前記光軸(13)内に配置された光センサ(17)により、前記表面(3)上に投射され、前記表面(3)により変形した前記スペックルパターン(14’)の二次元イメージを取得し記憶すること、
    −前記スペックルパターンからの少なくとも選択された点について、前記変形したスペックルパターン(14’)の前記イメージを、参照平面(Γ)上に投射された歪みのないスペックルパターン(14)のイメージと比較すること、
    −前記選択された点のそれぞれについて、少なくとも、前記表面(3)上のこの点の前記投射の、前記光軸(13)に平行して測定される奥行き座標(z)を計算すること
    にある動作を含む、方法。
  2. 前記比較動作は、前記選択された点について、前記変形のないスペックルパターン(14)の各点を前記変形したスペックルパターン(14’)の対応する点とマッチングすることを含む、請求項1に記載の方法。
  3. 前記比較動作は、前記参照平面(Γ)において、選択された各点について、前記物体(4)の前記表面(3)による前記スペックルパターンの変形による前記点のずれを測定することを含む、請求項1または2に記載の方法。
  4. 前記計算動作において、前記物体上への前記点の投射と前記参照表面(Γ)上への前記点の投射との距離として定義される前記奥行き座標(z)が、以下の式、
    Figure 2010541058

    により計算され、式中、
    Pは、前記参照平面(Γ)に投射された前記スペックルパターンの前記イメージ内の前記選択された点であり、
    Mは、前記物体(4)の前記表面(3)上の前記点Pの前記イメージであり、
    Bは、前記点Pに対応する前記マスク(12)内の前記点の、前記参照平面(Γ)上への直交投射であり、
    fは、前記マスク(12)と前記参照平面(Γ)との間の距離であり、
    Aは、前記センサ(17)上の前記点Mの前記イメージであり、
    x(P)およびy(P)はそれぞれ、前記参照平面にリンクされた直交系内の前記点Pの横座標および縦座標であり、
    ΔxおよびΔyはそれぞれ、前記物体(4)の前記表面(3)による前記スペックルパターンの前記変形による前記点Pのずれの、前記参照平面内の横座標測定値および縦座標測定値である、請求項1〜3のいずれか一項に記載の方法。
  5. 前記計算動作は、以下の式、
    Figure 2010541058

    を使用して、前記参照平面(Γ)での前記点Mの横座標および縦座標のそれぞれを計算することを含む、請求項4に記載の方法。
  6. 三次元物理的物体(4)のデジタルイメージを構築する方法であって、請求項1〜5のいずれか一項に記載の方法により、前記物体(4)の複数の隣接する表面(3)のデジタルイメージ(2)を構築すること、およびそうして構築された前記表面(3)の前記イメージ(4)を組み立てることを含む、方法。
JP2010526336A 2007-09-28 2008-09-26 三次元デジタル化方法 Pending JP2010541058A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0706822A FR2921719B1 (fr) 2007-09-28 2007-09-28 Procede de construction d'une image de synthese d'une surface tridimensionnelle d'un objet physique
PCT/FR2008/001340 WO2009074751A2 (fr) 2007-09-28 2008-09-26 Procédé de numérisation tridimensionnelle

Publications (1)

Publication Number Publication Date
JP2010541058A true JP2010541058A (ja) 2010-12-24

Family

ID=39386375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010526336A Pending JP2010541058A (ja) 2007-09-28 2008-09-26 三次元デジタル化方法

Country Status (5)

Country Link
US (1) US8483477B2 (ja)
EP (1) EP2195609A2 (ja)
JP (1) JP2010541058A (ja)
FR (1) FR2921719B1 (ja)
WO (1) WO2009074751A2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1398460B1 (it) * 2009-06-09 2013-02-22 Microtec Srl Metodo per la classificazione di prodotti alimentari in grado di rotolare sulla propria superficie esterna, quali frutta ed ortaggi.
US8908958B2 (en) * 2009-09-03 2014-12-09 Ron Kimmel Devices and methods of generating three dimensional (3D) colored models
FR2950140B1 (fr) 2009-09-15 2011-10-21 Noomeo Procede de numerisation tridimensionnelle comprenant une double mise en correspondance
FR2950157A1 (fr) 2009-09-15 2011-03-18 Noomeo Procede de numerisation tridimensionnelle d'une surface comprenant laprojection d'un motif combine
JP2012002780A (ja) * 2010-06-21 2012-01-05 Shinko Electric Ind Co Ltd 形状計測装置、形状計測方法、および半導体パッケージの製造方法
TWI428568B (zh) * 2010-09-03 2014-03-01 Pixart Imaging Inc 測距方法、測距系統與其處理軟體
EP2643819A4 (en) * 2011-01-07 2017-10-18 Landmark Graphics Corporation Systems and methods for the construction of closed bodies during 3d modeling
US9800795B2 (en) * 2015-12-21 2017-10-24 Intel Corporation Auto range control for active illumination depth camera
JP6780315B2 (ja) * 2016-06-22 2020-11-04 カシオ計算機株式会社 投影装置、投影システム、投影方法及びプログラム
CN108759720B (zh) * 2018-06-07 2020-02-21 合肥工业大学 光滑表面面型测量方法
US11783506B2 (en) * 2020-12-22 2023-10-10 Continental Autonomous Mobility US, LLC Method and device for detecting a trailer angle

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003166A (en) * 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US5835241A (en) * 1996-05-30 1998-11-10 Xerox Corporation Method for determining the profile of a bound document with structured light
US6377353B1 (en) * 2000-03-07 2002-04-23 Pheno Imaging, Inc. Three-dimensional measuring system for animals using structured light
FR2842591B1 (fr) * 2002-07-16 2004-10-22 Ecole Nale Sup Artes Metiers Dispositif pour mesurer des variations dans le relief d'un objet
US7929752B2 (en) * 2003-10-31 2011-04-19 Nano Picture Co., Ltd. Method for generating structured-light pattern
US7330577B2 (en) * 2004-01-27 2008-02-12 Densys Ltd. Three-dimensional modeling of the oral cavity by projecting a two-dimensional array of random patterns
GB2410794A (en) 2004-02-05 2005-08-10 Univ Sheffield Hallam Apparatus and methods for three dimensional scanning
US20060017720A1 (en) * 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
US7609865B2 (en) * 2004-11-08 2009-10-27 Biomagnetics 3D fingerprint and palm print data model and capture devices using multi structured lights and cameras
WO2007043036A1 (en) * 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
US8050461B2 (en) * 2005-10-11 2011-11-01 Primesense Ltd. Depth-varying light fields for three dimensional sensing
CN101496032B (zh) * 2006-02-27 2011-08-17 普莱姆传感有限公司 使用斑纹解相关的距离映射的方法及设备
WO2007105215A2 (en) * 2006-03-14 2007-09-20 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing
JP5174684B2 (ja) * 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出

Also Published As

Publication number Publication date
US20110170767A1 (en) 2011-07-14
EP2195609A2 (fr) 2010-06-16
WO2009074751A2 (fr) 2009-06-18
US8483477B2 (en) 2013-07-09
WO2009074751A3 (fr) 2009-08-06
FR2921719B1 (fr) 2010-03-12
FR2921719A1 (fr) 2009-04-03

Similar Documents

Publication Publication Date Title
JP2010541058A (ja) 三次元デジタル化方法
JP3624353B2 (ja) 3次元形状計測方法およびその装置
EP2839238B1 (en) 3d scanner using merged partial images
US7433024B2 (en) Range mapping using speckle decorrelation
US9188430B2 (en) Compensation of a structured light scanner that is tracked in six degrees-of-freedom
TW488145B (en) Three-dimensional profile scanning system
US6741279B1 (en) System and method for capturing document orientation information with a digital camera
JP2016516993A (ja) 三次元座標スキャナと操作方法
JP2006514739A5 (ja)
US6508403B2 (en) Portable apparatus for 3-dimensional scanning
US7620235B2 (en) Device for scanning three-dimensional objects
US20240087167A1 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
US20200081412A1 (en) Three-dimensional measuring device and method
JP2007093412A (ja) 3次元形状測定装置
WO2018168757A1 (ja) 画像処理装置、システム、画像処理方法、物品の製造方法、プログラム
US6730926B2 (en) Sensing head and apparatus for determining the position and orientation of a target object
JP3817640B1 (ja) 三次元形状計測システム
EP4386677A2 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
WO2016084065A1 (en) 3d scanners for simultaneous acquisition of multiple 3d data sets of 3d object
JP2005024438A (ja) 曲面鏡の鏡面精度検査方法、曲面鏡の鏡面精度検査装置、曲面鏡の鏡面精度検査用パターンの作成方法および曲面鏡の鏡面精度検査用パターン
CA2346278C (en) Portable apparatus for 3-dimensional scanning
TW201508413A (zh) 立體掃描裝置
JP2002031511A (ja) 3次元デジタイザ
JPH03255910A (ja) 三次元位置測定方式
JPH11104938A (ja) 板金加工における画像処理方法およびその装置