JP6429772B2 - 3d走査および位置決めシステム - Google Patents

3d走査および位置決めシステム Download PDF

Info

Publication number
JP6429772B2
JP6429772B2 JP2015519446A JP2015519446A JP6429772B2 JP 6429772 B2 JP6429772 B2 JP 6429772B2 JP 2015519446 A JP2015519446 A JP 2015519446A JP 2015519446 A JP2015519446 A JP 2015519446A JP 6429772 B2 JP6429772 B2 JP 6429772B2
Authority
JP
Japan
Prior art keywords
target
image
camera
coordinates
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015519446A
Other languages
English (en)
Other versions
JP2015528109A (ja
Inventor
エベール,パトリック
ロシェット,フェリックス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creaform Inc
Original Assignee
Creaform Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creaform Inc filed Critical Creaform Inc
Publication of JP2015528109A publication Critical patent/JP2015528109A/ja
Application granted granted Critical
Publication of JP6429772B2 publication Critical patent/JP6429772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、一般に、物体の表面ジオメトリの3次元走査の分野に関し、より詳細には、構造光立体像に関する。
物体の表面ジオメトリの3次元走査およびデジタル化は、多くの業界およびサービスで広く利用されており、それらの用途は多数存在する。物体の形状は、センサと表面上の点の組との間の距離を測定する測距センサを使用して走査およびデジタル化される。センサは、与えられた視点からの物体の表面の断面をキャプチャする。走査断面を延長するまたは表面全体を走査するために、センサまたは物体は、いくつかの視点のうちの1つに移動し、センサと物体との間の全ての相対姿勢の間の空間的関係を取得する。これらの空間的関係を測定および算出するためのいくつかの手法がある。これらの手法の1つは、再帰反射標的などの標的を利用する。米国特許第7,912,673号のシステムは、構造光のパターンを投影した後に、少なくとも一対のカメラを使用して再帰反射標的を観察しつつ、物体の表面形状を同時に測定する。システムは、表面ジオメトリのモデルを形成し、一方で同時に単一モデル座標系における標的の3D位置のモデルを蓄積する。完全システムの大抵の機能性を保持しつつ、1台のカメラを用いた操作が可能なモデリングシステムを単純化することが有益であろう。
本発明の1つの広範な態様によれば、投影部とともに1台のカメラを使用して全領域における3D表面点をキャプチャしつつ、単一視点から表面上の基準標的の3D位置、任意的に向きをキャプチャすることが可能である。
本発明の別の広範な態様によれば、再帰反射標的の3D表面および位置を同時にキャプチャする、カメラ、投影部および光源を備えたシステムが提供される。
一実施形態では、このシステムを使用して、各フレームにおける3D点を統合することによって、標的モデルに加えて物体の表面の3Dモデルを取得する。
一実施形態では、このシステムは、リアルタイムで使用される。すなわち、取得中に運動可能なワンショットシステムである。
本発明の別の広範な態様によれば、物体付近およびそこの固定位置の1つに各々が提供された少なくとも1つの基準標的の組を有する表面に関する3次元情報を取得するためのシステムが提供される。このシステムは、基準標的の組のうちの少なくとも1つの標的および投影パターンの少なくとも一部分を2D画像上に明らかにするための、表面に投影パターンを提供するパターン投影部、および視点からの表面の2D画像を取得するためのカメラであって、パターン投影部と共に機能するカメラを有する検出装置と、カメラおよびパターン投影部の外在および内在パラメータを含む較正データのための記憶部と、2D画像から投影パターンの表面点および標的輪郭の2D画像座標を抽出するための画像処理プロセッサと、較正データを使用して表面点の2D画像座標から表面点の3D座標を算出するための3D表面点算出部と、表面点の3D座標および較正データを使用して、標的輪郭の2D画像座標から、基準標的に対する3D位置および実際の向きの少なくともいずれかを算出するための3D標的算出部と、を備える。
一実施形態では、基準標的は再帰反射標的であり、検出装置は表面を照らすための光源をさらに備える。この光源は、カメラと共に機能する。
一実施形態では、光源は、カメラを囲む環状光源である。
一実施形態では、環状光源は、少なくとも2つの発光ダイオード(LED)を有する。
一実施形態では、パターン投影部は、レーザーパターン投影部および広帯域パターン投影部のいずれかである。
一実施形態では、パターン投影部とカメラとは同期して投影パターンを同時に提供し、カメラが2D画像を取得する。
一実施形態では、システムは、表面の標的のモデルを保存するための標的モデル記憶部と、標的と標的のモデル内の同じ標的とを照合して、検出装置の座標系を標的モデルの座標系にマッピングする剛体変換を生成する標的照合部と、をさらに備える。
一実施形態では、システムは、基準標的に対する3D位置を、剛体変換を使用して基準標的に対する変換3D位置に変換するための標的変換部と、基準標的に対する変換3D位置を使用して、標的モデル記憶部内の標的のモデルを更新するための標的モデル生成部と、をさらに備える。
一実施形態では、システムは、表面点の3D座標を、剛体変換を使用して表面点の変換3D座標に変換するための表面点変換部と、表面点の変換3D座標を使用して、表面の表面モデルを生成するための表面再構成部と、をさらに備える。
一実施形態では、システムは、表面の表面モデルおよび標的のモデルの少なくともいずれかを表示するためのユーザーインターフェース表示部をさらに備える。
一実施形態では、検出装置は複数の別個の視点に移動するように構成され、カメラは、複数の視点の各視点における2D画像を取得する。3D表面点算出部および3D標的算出部は、少なくとも2つの2D画像からの2D画像座標を使用する。
一実施形態では、カメラは、視点における少なくとも2つの2D画像を取得する。3D表面点算出部および3D標的算出部は、少なくとも2つの2D画像からの2D画像座標を使用する。
一実施形態では、検出装置は複数の別個の視点に移動するように構成され、カメラは、複数の視点の各視点における少なくとも2つの2D画像を取得する。3D表面点算出部および3D標的算出部は、少なくとも2つの2D画像からの2D画像座標を使用する。
一実施形態では、カメラは第一のカメラであり、2D画像は第一の2D画像である。検出装置は、表面の第二の2D画像を取得するための第二のカメラをさらに備える。この第二のカメラは、第一のカメラと共に機能する。第一のカメラと第二のカメラとの空間的関係は既知であり、較正データは、第二のカメラの外在および内在パラメータを含む。
一実施形態では、検出装置は、第一のカメラ、第二のカメラおよびパターン投影部と通信する同期ユニットをさらに備える。同期ユニットは、第一の時間間隔中に第一の2D画像をキャプチャするように第一のカメラおよびパターン投影部を制御し、第二の時間間隔中に第二の2D画像をキャプチャするように第二のカメラおよびパターン投影部を制御する。第一の時間間隔は、第二の時間間隔とは異なる。
一実施形態では、同期ユニットは、パターン投影部が第一の時間間隔中に投影パターンを提供し、第二の時間間隔中には投影パターンを提供しないようにパターン投影部を制御する。
一実施形態では、第二のカメラはテクスチャカメラであり、第二の2D画像は表面の2Dテクスチャ画像である。システムは、表面点の2D画像座標における表面のテクスチャを抽出し、表面点に対するテクスチャ情報を取得するためのテクスチャ抽出部をさらに備える。
本発明の別の広範な態様によれば、表面に関する3次元情報を取得するためのシステムが提供される。システムは、基準標的の組のうちの少なくとも1つの標的および投影パターンの少なくとも一部分を2D画像上に明らかにするための、表面に投影パターンを提供するパターン投影部、および視点からの表面の2D画像を取得するためのカメラを有する検出装置と、較正データのための記憶部と、2D画像から投影パターンの表面点および標的輪郭の2D画像座標を抽出するための画像処理プロセッサと、表面点の2D画像座標から表面点の3D座標を算出するための3D表面点算出部と、基準標的に対する3D位置および/または実際の向きを算出するための3D標的算出部と、を備える。
本発明の別の広範な態様によれば、表面に貼付した標的に対する3D位置、表面に投影されたパターンを抽出するための方法が提供される。方法は、標的サイズを含む標的情報を取り出すことと、外在および内在パラメータを含む較正データを取り出すことと、標的および投影パターンの少なくとも一部分が2D画像上に明らかとなる、表面の2D画像を提供することと、2D画像から標的の標的輪郭の2D画像座標を抽出することと、標的輪郭の2D画像座標および較正データを使用して、標的に対する少なくとも1つのとり得る向きを算出することと、標的輪郭の2D画像座標、較正データおよび標的サイズを使用して、標的に対する概算3D位置を概算することと、2D画像から投影パターンの表面点の2D画像座標を抽出することと、標的の周りに位置する隣接した表面点を特定し、較正データおよび標的輪郭の2D画像座標を使用して、表面点の2D画像座標から隣接した表面点の3D座標を算出することと、標的輪郭の2D画像座標を使用して、表面断面モデルを隣接した表面点の3D座標にフィッティングすることと、フィッティングした表面断面モデル、標的輪郭の2D画像座標および少なくとも1つのとり得る向きを使用して、概算3D位置をさらに正確な3D位置にすることおよび標的の実際の向きを特定することの少なくともいずれかを行うことと、を含む。
一実施形態では、標的情報は標的厚さを含み、概算3D位置の正確化は、正確化のために標的厚さを使用することを含む。
添付の図面は、本発明の主要な態様のよりよい理解を提供するために含まれ、本明細書の一部に組み込まれ、本明細書を構成するが、本発明の原理を説明する役目をする記載と共に、本発明の例示的な実施形態を例証する。添付図面は、必ずしも縮尺通りに描かれるようには意図されていない。図面を以下に説明する。
環状光源を備えた2つのカメラを含むステレオペアを示す(先行技術)。 環状光源を備えた1つのカメラおよび投影部を含むステレオペアを示す。 基準標的を含む、物体の表面に投影されたグリッドパターンを図示する。 3D空間における基準標的の逆投影法の2つの解に加えて、基準標的およびグリッドパターンの画像を図示する。 2D表面点の箇所をさらに含む図4の画像である。 例示的なインタラクティブ3D表面モデリングシステムのブロック図である。 3Dにおいて標的を抽出するための例示的な方法のフローチャートである。
添付の図面の全体を通して、同様の機構が同様の参照符号によって識別されることに留意されたい。
実施形態の以下の説明において、添付図面への言及は、それによって本発明を実施できる例証である。他の実施形態が、開示される本発明の範囲から逸脱せずに作成可能であることが理解されよう。
図1(先行技術)は、2つのカメラ102および2つの環状光源101を備えたステレオペア100を図示する。再帰反射標的がシーンに貼付すると、先行技術のステレオペア100の使用により、シーンの2つの画像を同時にキャプチャし、再帰反射標的の3D位置を抽出することができる。画像処理後、これらの基準標的の2D位置、任意的に向きを各画像において取得する。次に、通常、ステレオペア座標系における基準標的の3D座標を抽出するための三角測量を適用する前に、エピポーラ幾何拘束を利用して、双方の画像における2D抽出標的を照合させる。照合の促進、または最終座標の精度の改善のために、1つまたはいくつかのカメラをこの先行技術のステレオペアに追加できる。先行技術のステレオペアの双方のカメラの代わりに1台のカメラを使用すると、それらの3D位置を算出する前に同じ基準標的を再観察するために、カメラを少なくとも1つの追加の視点に移動させる必要が生じるであろう。少なくとも直線を含むパターンを投影し、パターンが表面に反射するところのシーンにおける3D表面点を抽出するのに同じカメラを利用するために、先行技術のステレオペアにパターン投影部を追加することもできる。パターンはレーザーパターンでもよい。この原理は、システムが、観察した物体の3D表面モデルとともに基準標的モデルを同時に形成する間のインタラクティブモデリングに関して米国特許第7,912,673号において使用されてきた。
先行技術の方法を用いて表面点を測定するために、カメラとともにフルフィールドパターン投影部も使用できる。3D表面点は、投影部が表面に光を投影するところの視野全体にわたって抽出できる。抽出した表面点の密度は、投影部の種類および利用する方法に応じて異なる。時間符号化に基づくいくつかの周知の方法は、三角測量を適用する前であって、像点をデコードする時までに画像の組を投影することを含む。投影部の役割は、投影部とカメラ画素との点の照合を支援することである。そのような方法の例として、グレイコードおよび位相法が挙げられる。数多くの可能なバリエーションがある。取り込み時間を短縮するために、多重スペクトル投影を単一または少数のフレームに利用することさえできる。単一フレームに対する取り込み時間を短縮する別の手法は、照合を支援するために空間コードを利用する。投影パターンは、唯一の位置を局所的にエンコードする。時空間コードの使用は、空間および時間コードの両方の種類のコードを組み合わせる別のバリエーションである。単一画像に対する取り込み画像の数を減少することにより3D表面点をキャプチャする期間にセンサまたは物体が運動できる。これらのシステムは、スナップショットシステムと呼ばれる。
本発明は、投影部とともに1台のカメラを使用して全領域における3D表面点をキャプチャしつつ、単一視点から基準標的の3D位置および向きをキャプチャすることが可能になる。
例示的なセンサ200(「検出装置」とも呼ばれる)の代表例を図2に描写する。環状光源201とともに1つのカメラ202が、装置の一方の先端に取り付けられ、一方で、フルフィールド投影部203が他方の先端に取り付けられる。フルフィールド投影部203は、レーザーパターン投影部または白色光パターン投影部などの広帯域パターン投影部でもよい。赤外線パターン投影部または青色LEDパターン投影部などの他の種類の投影部も使用できる。
フルフィールド投影部203は、カメラ202と同期して、画像をキャプチャするのと同時にパターンを投影できる。あるいは、フルフィールド投影部は、カメラ202と同期しなくても、物体の表面に連続的にパターンを提供するように作動できる。いかなる場合でも、パターンの少なくとも一部分が、カメラがキャプチャした画像上で明らかとなるはずである。
図3は、基準標的306が貼付し、パターン305が投影された表面断面の代表例300を示す。この例では、基準標的306は再帰反射標的である。パターンは、再帰反射性材料に加えて物体の表面においても視認できる。この例では、再帰反射性材料は、黒色などのソリッドカラーの環によって囲まれる。黒色の環は、センサの画像における標的の特定を支援する。環は有益であるが、削除することもできる。環状光源レベルは、画像をわずかに飽和させるように調節できる。これもセンサの画像における標的の特定を支援する。
容易に理解されるように、光源はカメラと同期し、その近辺に提供される。これにより確実に、カメラが画像をキャプチャするときに、基準標的306の再帰反射性材料が光源の光を反射することによって、画像において基準標的306が明らかになる。
基準標的306は、画像をキャプチャする期間に物体がその周囲環境に移動しない場合には、物体の表面および/または物体に近接する周囲環境の表面に位置できる。基準標的306は、写真測量標的、再帰反射標的、符号化された標的、円形標的、単純反射標的、描かれたマーク、および特有の形状特徴でもよい。基準標的306が反射性材料から作られる場合には、基準標的の適切な識別を可能にするために、物体の表面を照らす必要が生じ得る。
図4に、単一ビューカメラから基準標的の位置および向きを算出した結果400を示す。カメラの像平面412および投影の中心411を示す。像平面412は、投影パターン416および基準標的413を含む観察した表面の画像を示す。標的が円形である場合、例えばこの例では、画像において投影した再帰反射標的の歪んでいない輪郭を抽出した後に、楕円輪郭が取得される。カメラを較正した以後は、当技術分野において周知の方法を使用して歪みを取り除くことができる。この例は、J.Heikkila in IEEE transactions on Pattern analysis and machine intelligence,Vol.22 no.10,Oct.2000,pp.1066−1077による「Geometric camera calibration using circular control points」に見られる。
画像における楕円輪郭の方程式から3D空間内のその向きの算出が可能になる。標的法線ベクトルについては、2つの解414,415をとり得る。光線420が、カメラの投影の中心411から発生し、解414,415の中心を通り抜ける。法線ベクトル向きに対するこれらの2つの解を算出する一つの方法を以下に記載する。そのより詳細な検討については、「Introductory techniques for 3−D computer vision」,Chap.11,E.Trucco,A.Verri,Prentice Hall,1998を参照できる。円がカメラの投影の中心を投影するため、それは3D空間における錐体を交差する。その方程式を以下に与える。
Figure 0006429772
ここで、P=[X,Y,Z]およびCは、画像楕円の実対称行列である。輪郭点を抽出した後、画像処理工程においてCを取得する。これらの輪郭点は、数ミリメートル以内であってもよい。
Cから、3つの固有値λ,λ,λおよび対応する固有ベクトルe,e,eが算出される。固有値から、向きθに対する2つの角度値を取得できる。
Figure 0006429772
次に、回転行列を算出する。
Figure 0006429772
最終的に、回転行列の第三の列が、基準標的法線と平行になる。このようにして、法線ベクトルの向きに対する曖昧さが得られる。さらに、投影の中心と標的との間の距離は、この段階では分からない。標的のサイズが既知であるため、楕円方程式からこの距離を概算できる。それにもかかわらず、この概算はベースラインに沿って位置する2つの個々のカメラに基づく測定よりは不正確である。
向きにおける曖昧さを除去し、標的までの距離のより正確な測定を取得するために、投影部とカメラとの間のベースライン距離を利用できる。しかしながら、投影部はセンサではないため、直接に三角測量は適用できない。解500を図5に描写する。像平面512および投影の中心511を示す。像平面512は、投影パターン516および基準標的513を含む観察した表面の画像を示す。投影パターン516から、表面点517がカメラの像平面512において特定され、前述の時間または空間符号化手法のいずれかを使用して投影部に照合させることができる。さらに、装置のカメラと投射部との対を、それらの内在および外在パラメータについて較正できるため、表面点に三角測量を適用できる。カメラと投射部との対を較正するための当技術分野におけるいくつかの方法がある。次に、特定された標的の周りに位置し、通常、楕円のサイズの2倍よりも短い距離内にある点を抽出する。
較正したカメラと投射部との対に基づいて、これらの点の3D座標をセンサ座標系において算出する。特定された標的の周りにおいて抽出された点は、従って3Dの518に位置付けられる。次に、標的の補間位置における法線ベクトルを算出する前に、局所表面パッチ519を3Dにフィッティングすることができる。この補間位置は、カメラの投影の中心から発生し、画像楕円の中心を通り抜け、最後に、フィッティングされた表面断面を交差する光線520の交差点にまたはその付近に位置する。錐体の実際の軸を使用することによって精度が改善し、従って、補間位置が近似値となる。
3D点の局所組にフィッティングされたモデルは、平面でも、より精度のよい二次多項式でもよい。後者の場合では、以下のモデルに最小二乗法が適用される。
Figure 0006429772
他の表面モデルも同様に使用できることが明らかである。フィッティングされたモデルのパラメータから、基準標的中心の座標が、フィッティングされた表面との光線520の交差点において算出される。そして、方程式2において画像楕円を用いて算出された2つの向きのうちの1つが、フィッティングされた面法線とのその最小の差異に基づいて選択される。選択された向き525および却下された向き524を図5に示す。
次に、標的中心の座標(x,y,z)をさらに正確にできる。そのために、標的中心座標(x,y,z)が、フィッティングされた局所表面に制限された場合に、局所検索が実行され、標的材料厚を補正した後、標的の向きを既に決定した向きに制限する。次に、3D空間内の標的円と、画像において対応する観察した楕円との間のホモグラフィを規定できる。円錐方程式1が与えられると、標的円の点を画像楕円Cにマッピングする3×3ホモグラフィ行列が存在する。
Figure 0006429772
方程式5では、Cは、それ自体の座標系における標的円を表す3×3行列であり、これは(x,y,z)を中心とし、カメラ座標系における算出された向きを有する。ホモグラフィHを、第一の2つの列RおよびRを取り、第三の列をX=[x y z]に設定した後、方程式3の回転行列Rから設定できる。
Figure 0006429772
最適化中、標的の位置Xは、予測された楕円中心と観察した楕円中心との間の距離を最小化するようにさらに正確にされる。ホモグラフィおよび標的円行列が与えられると、楕円中心は、次の通りに予測できる。
Figure 0006429772
ここで、uおよびvは、正規化された像平面における楕円中心の座標である。
予測された楕円中心値と画像楕円中心とを比較するために、sの値が、焦点距離F、較正工程において決定されたカメラの内在パラメータに設定される。次に、同じ座標系におけるそれらの座標およびそれらの向きを含む基準標的の組とともに、センサの座標系において測定された3D点の組を決定する。
図7は、3Dにおいて標的を抽出するための手順700を要約したフローチャートである。手順は、与えられたフレームにおける全ての標的に応用できる。まず、標的輪郭を現在の画像において抽出し(701)、抽出された標的輪郭を使用して(702)、その3D位置の第一の概算に加えて、標的の2つのとり得る3D向きを算出する(703)。3D位置の算出では、標的サイズ704が標的サイズ記憶部から提供される(705)。3D位置および2つのとり得る向きを使用して(706)、標的3D位置をさらに正確にし、3Dにおける実際の向きを特定する(707)。その目的のため、物体表面における投影パターンから得られた特定された位置における表面点を画像において抽出する(708)。次に、これらの像点を使用して(709)、それらの対応する3D表面点711を算出する(710)。標的の抽出された輪郭を使用して(702)、表面断面をそれらの3D対応点にフィッティングする(712)前に、画像において標的の周りに位置する2D表面点を特定する。最後に、標的厚さ記憶部714内の標的厚さ715とともにフィッティングされた局所表面モデル713を使用して、標的位置をさらに正確にし、実際の向きを特定する(707)。
3D表面モデリングエンジンにおいてそのようなシステムを利用できる。図6に、例示的な3Dモデリングエンジンのブロック図600を示す。センサ601が、与えられた視点からの1つまたはいくつかの画像をキャプチャする。投影パターンの時間符号化にはいくつかの画像が必要である。ユーザは、取得期間に物体またはセンサのいずれかを手に保持することができる。物体またはセンサは、取得期間に静止を維持される必要はない。空間および/またはスペクトル符号化を有するワンショットフルフィールドパターンは、ハンドヘルドモデリングを可能にする。ワンショットシステムでは、露出時間は、通常、取得期間に手動で動かすことが可能なように数ミリ秒よりも短い。次に、画像602を画像処理プロセッサ603に転送し、ここで、投影パターンをデコードして観察した表面点を抽出し、基準標的輪郭を抽出する。
画像処理プロセッサ603から、観察した表面点の2D画像座標604を3D表面点算出部605に転送する。3D表面点算出部605は、それらの2D画像座標、ならびにカメラおよび投影部の外在および内在パラメータ621から表面点の3D座標を算出する。パラメータ621は、3D表面点算出部605によってアクセス可能なメモリ622に保存できる。較正のノンパラメトリックモデル、例えば、ルックアップテーブルの形態のものも使用でき、メモリ622に保存できることが明らかである。センサ座標系において算出された3D点の組606を3D表面点変換部607に転送する。3D表面点変換部607は、センサの座標系をモデル座標系にマッピングする、剛体変換のない6次のパラメータ614も必要とする。
画像処理プロセッサ603は、観察した基準標的に対応する楕円輪郭610の2D画像座標の組も抽出する。これらの輪郭610は、現在の画像フレームにおいて観察された3D表面点の組606も受け取る3D位置決め特徴算出部611に転送される。3D位置612、任意的に基準標的の向きが、センサの座標系において算出され、位置決め特徴照合部613に転送される。位置決め特徴照合部613は、現在のセンサフレームにおいて観察された基準標的を、蓄積されたモデルフレームにおける同じ標的に照合させ、センサの座標系をモデル座標系にマッピングする剛体変換614を生成する。
次に、3D位置決め特徴変換部615および3D表面点変換部607が変換614を使用する。3D位置決め特徴変換部615および3D表面点変換部607は3D基準標的位置および任意的に向き、ならびにセンサの座標系からの3D表面点をそれぞれ、モデル座標系に変換する。次に、変換された3D基準標的位置616、および任意的に向きが、参照位置決め特徴生成部617によって使用され、観察した基準標的の蓄積されたモデルを更新する。更新されたモデル618は、次のフレームにおいて抽出された情報を処理するための位置決め特徴照合部613と通信する。更新されたモデル618は、ユーザーインターフェース表示部619にも通信し、ここで基準標的の蓄積されたモデルを視覚化できる。
センサの座標系をモデル座標系にマッピングする剛体変換614は、3D表面点変換部607にも転送される。ここで、センサの座標系からの3D表面点を表面モデルの座標系に変換する。次に、これらの変換された表面点608は、表面再構成部609に転送され、ここで、取得された点の組から表面モデルを生成する。最後に、再構成された表面620が、表示のため、ユーザーインターフェース表示部619に伝達される。
当業者は、追加のカメラを使用できることを理解する。これらのカメラを使用して、表面のテクスチャなどの他の特性をキャプチャできる。
追加のカメラは、カメラが2D画像をキャプチャした後、投影パターンが表面に明らかになっていないときに、第二の2D画像をキャプチャするように形成できる。第二の2D画像を2D画像のキャプチャの直前または直後にキャプチャする場合には、システムは、2回のキャプチャの間に大幅に移動しなくてもよい。検出装置の起こり得る移動の考慮を望む場合には、2つの画像のキャプチャ間の時間遅延における検出装置の理論上の移動のための補正を算出できる。
検出装置は、カメラ、追加のカメラおよびパターン投影部と通信する同期ユニットを含むことができる。同期ユニットは、第一の時間間隔中に第一の2D画像をキャプチャするように第一のカメラおよびパターン投影部を制御し、第二の時間間隔中に第二の2D画像をキャプチャするように第二のカメラおよびパターン投影部を制御する。2つの時間間隔は互いに異なる。同期ユニットは、パターン投影部が第一の時間間隔中に投影パターンを提供し、第二の時間間隔中には投影パターンを提供しないようにパターン投影部を制御できる。
追加のカメラがテクスチャカメラである場合には、第二の2D画像は表面の2Dテクスチャ画像であり、システムは、表面点の2D画像座標における表面のテクスチャを抽出し、表面点に対するテクスチャ情報を取得するためのテクスチャ抽出部をさらに備える。
上記の説明は、発明者らによって現在想到されるような例示的な実施形態に関連するが、広範な態様において本発明が、本明細書で説明される要素の均等物を含むことが理解されよう。
上記の実施形態は、単に例示的であるように意図されている。従って、本発明の範囲は、もっぱら添付の特許請求の範囲によって限定されるように意図されている。

Claims (19)

  1. 基準標的を有する表面に関する3次元情報を取得するためのシステムであって、
    前記表面に投影パターンを提供するパターン投影部、および
    視点から前記表面の2D画像を取得するためのカメラであって、前記基準標的および前記投影パターンの少なくとも一部分を前記2D画像上に明らかにするための、前記パターン投影部と共に機能するカメラを有する検出装置と、
    前記カメラおよび前記パターン投影部の外在および内在パラメータを含む較正データのための記憶部と、
    前記2D画像から前記投影パターンの表面点および標的輪郭の2D画像座標を抽出するための画像処理プロセッサと、
    前記較正データを使用して前記表面点の前記2D画像座標から前記表面点の3D座標を算出するための3D表面点算出部と、
    前記表面点の前記3D座標、前記較正データおよび標的サイズを使用して、前記標的輪郭の前記2D画像座標から、前記基準標的に対する3D位置および実際の向きの少なくともいずれかを算出するための3D標的算出部と、を備え、
    前記3D標的算出部は、
    前記基準標的に対する概算3D位置を概算し、
    前記基準標的の周りに位置する隣接した表面点を特定し、
    前記隣接した表面点の3D座標を算出し、
    表面断面モデルを前記隣接した表面点の前記3D座標にフィッティングし、
    前記フィッティングした表面断面モデルを使用して、前記概算3D位置を前記3D位置にすることおよび前記基準標的の2つのとり得る向きを使用して前記基準標的の実際の向きを特定することの少なくともいずれかを行う、システム。
  2. 前記基準標的が再帰反射標的であり、前記検出装置が、前記表面を照らすための、前記カメラと共に機能する光源をさらに備える、請求項1に記載のシステム。
  3. 前記光源が前記カメラを囲む環状光源である、請求項2に記載のシステム。
  4. 前記環状光源が少なくとも2つの発光ダイオード(LED)を有する、請求項3に記載のシステム。
  5. 前記パターン投影部がレーザーパターン投影部および広帯域パターン投影部のいずれかである、請求項1から請求項4のいずれか1項に記載のシステム。
  6. 前記パターン投影部と前記カメラとが同期して前記投影パターンを同時に提供し、前記カメラが前記2D画像を取得する、請求項1から請求項5のいずれか1項に記載のシステム。
  7. 前記表面の標的のモデルを保存するための標的モデル記憶部と、
    前記標的と前記標的のモデル内の同じ標的とを照合して、前記検出装置の座標系を前記標的モデルの座標系にマッピングする剛体変換を生成する標的照合部と、をさらに備える、請求項1から請求項6のいずれか1項に記載のシステム。
  8. 前記基準標的に対する前記3D位置を、前記剛体変換を使用して前記基準標的に対する変換3D位置に変換するための標的変換部と、
    前記基準標的に対する前記変換3D位置を使用して、前記標的モデル記憶部内の前記標的のモデルを更新するための標的モデル生成部と、をさらに備える、請求項7に記載のシステム。
  9. 前記表面点の前記3D座標を、前記剛体変換を使用して前記表面点の変換3D座標に変換するための表面点変換部と、
    前記表面点の前記変換3D座標を使用して、前記表面の表面モデルを生成するための表面再構成部と、をさらに備える、請求項7または請求項8に記載のシステム。
  10. 前記表面の前記表面モデルおよび前記標的のモデルの少なくともいずれかを表示するためのユーザーインターフェース表示部をさらに備える、請求項9に記載のシステム。
  11. 前記検出装置が複数の別個の視点に移動するように構成され、前記カメラが前記複数の視点の各視点における前記2D画像を取得し、前記3D表面点算出部および前記3D標的算出部が、少なくとも2つの前記2D画像からの2D画像座標を使用する、請求項1から請求項10のいずれか1項に記載のシステム。
  12. 前記カメラが前記視点における少なくとも2つの前記2D画像を取得し、前記3D表面点算出部および前記3D標的算出部が、少なくとも2つの前記2D画像からの2D画像座標を使用する、請求項1から請求項11のいずれか1項に記載のシステム。
  13. 前記検出装置が複数の別個の視点に移動するように構成され、前記カメラが前記複数の視点の各視点における少なくとも2つの前記2D画像を取得し、前記3D表面点算出部および前記3D標的算出部が、少なくとも2つの前記2D画像からの2D画像座標を使用する、請求項1から請求項12のいずれか1項に記載のシステム。
  14. 前記カメラが第一のカメラであり、前記2D画像が第一の2D画像であり、前記検出装置が、前記表面の第二の2D画像を取得するための第二のカメラをさらに備え、前記第二のカメラが前記第一のカメラと共に機能し、前記第一のカメラと前記第二のカメラとの空間的関係が既知であり、前記較正データが前記第二のカメラの外在および内在パラメータを含む、請求項1から請求項13のいずれか1項に記載のシステム。
  15. 前記検出装置が、前記第一のカメラ、前記第二のカメラおよび前記パターン投影部と通信する同期ユニットをさらに備え、前記同期ユニットが、第一の時間間隔中に前記第一の2D画像をキャプチャするように前記第一のカメラおよび前記パターン投影部を制御し、第二の時間間隔中に前記第二の2D画像をキャプチャするように前記第二のカメラおよび前記パターン投影部を制御し、前記第一の時間間隔が前記第二の時間間隔とは異なる、請求項14に記載のシステム。
  16. 前記同期ユニットが、前記パターン投影部が前記第一の時間間隔中に前記投影パターンを提供し、前記第二の時間間隔中には前記投影パターンを提供しないように前記パターン投影部を制御する、請求項15に記載のシステム。
  17. 前記第二のカメラがテクスチャカメラであり、前記第二の2D画像が前記表面の2Dテクスチャ画像であり、前記表面点の2D画像座標における前記表面のテクスチャを抽出し、前記表面点に対するテクスチャ情報を取得するためのテクスチャ抽出部をさらに備える、請求項14から請求項16のいずれか1項に記載のシステム。
  18. 表面に貼付した標的に対する3D位置、前記表面に投影されたパターンを抽出するための方法であって、
    標的サイズを含む標的情報を取り出すことと、
    外在および内在パラメータを含む較正データを取り出すことと、
    前記標的および前記投影パターンの少なくとも一部分が2D画像上に明らかとなる、前記表面の前記2D画像を提供することと、
    前記2D画像から、前記標的の標的輪郭の2D画像座標を抽出することと、
    前記標的輪郭の2D画像座標および前記較正データを使用して、前記標的の少なくとも1つのとり得る向きを算出することと、
    前記標的輪郭の前記2D画像座標、前記較正データおよび前記標的サイズを使用して、前記標的に対する概算3D位置を概算することと、
    前記2D画像から前記投影パターンの表面点の2D画像座標を抽出することと、
    前記標的の周りに位置する隣接した表面点を特定し、前記較正データを使用して、前記表面点の前記2D画像座標から、前記隣接した表面点の3D座標を算出することと、
    前記標的輪郭の前記2D画像座標を使用して、表面断面モデルを前記隣接した表面点の前記3D座標にフィッティングすることと、
    前記フィッティングした表面断面モデルおよび前記少なくとも1つのとり得る向きを使用して、前記概算3D位置をさらに正確な3D位置にすることおよび前記標的の実際の向きを特定することの少なくともいずれかを行うことと、を含む、方法。
  19. 前記標的情報が標的厚さを含み、
    前記概算3D位置の前記正確化が、前記正確化のために前記標的厚さを使用することを含む、請求項18に記載の方法。
JP2015519446A 2012-07-04 2013-06-26 3d走査および位置決めシステム Active JP6429772B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261667974P 2012-07-04 2012-07-04
US61/667,974 2012-07-04
PCT/IB2013/055256 WO2014006545A1 (en) 2012-07-04 2013-06-26 3-d scanning and positioning system

Publications (2)

Publication Number Publication Date
JP2015528109A JP2015528109A (ja) 2015-09-24
JP6429772B2 true JP6429772B2 (ja) 2018-11-28

Family

ID=49881430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015519446A Active JP6429772B2 (ja) 2012-07-04 2013-06-26 3d走査および位置決めシステム

Country Status (6)

Country Link
US (1) US9816809B2 (ja)
EP (1) EP2870428B1 (ja)
JP (1) JP6429772B2 (ja)
CN (1) CN104335005B (ja)
CA (1) CA2875820C (ja)
WO (1) WO2014006545A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513724B1 (ko) * 2022-09-20 2023-03-24 중앙대학교 산학협력단 마커를 이용한 구조광 정밀 정렬 시스템

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166915A1 (ja) * 2014-04-30 2015-11-05 シナノケンシ株式会社 計測装置
US10660600B2 (en) * 2015-04-13 2020-05-26 Accumetra, Llc Table top image calibration phantom
US10739670B2 (en) * 2015-12-04 2020-08-11 Augmency Teknoloji Sanayi Anonim Sirketi Physical object reconstruction through a projection display system
CN106940185A (zh) * 2016-01-05 2017-07-11 北京雷动云合智能技术有限公司 一种基于深度摄像机的移动机器人定位和导航方法
US10445898B2 (en) 2016-02-05 2019-10-15 Sony Corporation System and method for camera calibration by use of rotatable three-dimensional calibration object
EP3236286B1 (en) * 2016-04-18 2023-01-25 Otis Elevator Company Auto commissioning system and method
JP6780315B2 (ja) * 2016-06-22 2020-11-04 カシオ計算機株式会社 投影装置、投影システム、投影方法及びプログラム
US10782126B2 (en) * 2016-10-19 2020-09-22 Scantech (Hangzhou) Co., Ltd. Three-dimensional scanning method containing multiple lasers with different wavelengths and scanner
US10121237B1 (en) 2017-04-17 2018-11-06 Rohr, Inc. Component inspection method
DE102017007078A1 (de) 2017-07-27 2018-01-25 Daimler Ag Messsystem und Verfahren zur Bestimmung von 3D-Koordinaten von Messpunkten eines Objekts, insbesondere eines Umformwerkzeuges zur Herstellung von Fahrzeugen
CN107527369B (zh) * 2017-08-30 2020-03-10 广州视源电子科技股份有限公司 图像校正方法、装置、设备和计算机可读存储介质
CN107464266B (zh) * 2017-08-30 2019-09-13 广州视源电子科技股份有限公司 摄像机标定参数的校正方法、装置、设备和存储介质
US10415967B2 (en) 2017-10-16 2019-09-17 Electronic Theatre Controls, Inc. System and method for determining a position of a light fixture
EP3722976A1 (en) * 2019-04-11 2020-10-14 Aptiv Technologies Limited Method for estimating visibility of objects
CN110207605B (zh) * 2019-06-13 2024-06-14 广东省特种设备检测研究院东莞检测院 一种基于机器视觉的金属结构变形的测量装置及方法
KR102249769B1 (ko) * 2019-12-06 2021-05-12 주식회사 모빌테크 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
GB201918095D0 (en) * 2019-12-10 2020-01-22 Rolls Royce Plc Methods and apparatus for inspecting an engine
GB201918094D0 (en) 2019-12-10 2020-01-22 Rolls Royce Plc Methods and apparatus for inspecting an engine
US11763491B2 (en) 2020-10-21 2023-09-19 Faro Technologies, Inc. Compensation of three-dimensional measuring instrument having an autofocus camera
US11481917B2 (en) * 2020-10-21 2022-10-25 Faro Technologies, Inc. Compensation of three-dimensional measuring instrument having an autofocus camera
US11908162B2 (en) * 2020-12-23 2024-02-20 Faro Technologies, Inc. Line scanner having target-tracking and geometry-tracking modes
WO2023220805A1 (en) * 2022-05-20 2023-11-23 Creaform Inc. System, apparatus and method for performing a 3d surface scan and/or texture acquisition using rolling shutter cameras
WO2023220804A1 (en) * 2022-05-20 2023-11-23 Creaform Inc. 3d scanner with structured light pattern projector and method of using same for performing light pattern matching and 3d reconstruction
AT526212A1 (de) * 2022-06-01 2023-12-15 Zactrack Gmbh Verfahren zur Positionsbestimmung und Kalibrierung eines Scheinwerfers
CN117346695B (zh) * 2023-12-04 2024-02-13 合肥埃科光电科技股份有限公司 表面轮廓检测标定方法、系统、自动化检测设备及介质

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5561526A (en) * 1994-05-26 1996-10-01 Lockheed Missiles & Space Company, Inc. Three-dimensional measurement device and system
JP3738456B2 (ja) 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
AU712090B2 (en) 1996-06-13 1999-10-28 K.U. Leuven Research & Development Method and system for acquiring a three-dimensional shape description
JPH1021401A (ja) 1996-07-04 1998-01-23 Canon Inc 三次元情報処理装置
JP2002516443A (ja) 1998-05-15 2002-06-04 トリコーダー テクノロジー ピーエルシー 3次元表示のための方法および装置
US6137491A (en) 1998-06-05 2000-10-24 Microsoft Corporation Method and apparatus for reconstructing geometry using geometrically constrained structure from motion with points on planes
US6748112B1 (en) 1998-07-28 2004-06-08 General Electric Company Method and apparatus for finding shape deformations in objects having smooth surfaces
JP2000175176A (ja) 1998-12-04 2000-06-23 Hitachi Ltd 移動物体の監視方法および画像監視装置
US6700668B2 (en) 2002-06-25 2004-03-02 General Electric Company Method of measuring a part with a wide range of surface reflectivities
US6922632B2 (en) 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US6985238B2 (en) 2002-09-25 2006-01-10 General Electric Company Non-contact measurement system for large airfoils
JP3779308B2 (ja) * 2004-07-21 2006-05-24 独立行政法人科学技術振興機構 カメラ校正システム及び三次元計測システム
US7447558B2 (en) * 2004-09-18 2008-11-04 The Ohio Willow Wood Company Apparatus for determining a three dimensional shape of an object
JP4871352B2 (ja) 2005-03-11 2012-02-08 クリアフォーム インク. 3次元スキャンの自動参照システム及び装置
US8082120B2 (en) 2005-03-11 2011-12-20 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
JP4230525B2 (ja) 2005-05-12 2009-02-25 有限会社テクノドリーム二十一 3次元形状計測方法およびその装置
US7275008B2 (en) 2005-09-02 2007-09-25 Nokia Corporation Calibration of 3D field sensors
EP1952198A2 (en) * 2005-11-08 2008-08-06 Garrett J Young Apparatus and method for generating light from milti-primary colors
US7929751B2 (en) * 2005-11-09 2011-04-19 Gi, Llc Method and apparatus for absolute-coordinate three-dimensional surface imaging
CN101331379B (zh) 2005-12-16 2012-04-11 株式会社Ihi 自身位置辨认方法和装置以及三维形状的计测方法和装置
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US8117668B2 (en) * 2006-04-27 2012-02-14 Stephen James Crampton Optical scanning probe
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US7768655B2 (en) 2006-12-20 2010-08-03 General Electric Company Methods and system for measuring an object
JP5029618B2 (ja) 2006-12-25 2012-09-19 日本電気株式会社 パターン投影法による3次元形状計測装置、方法およびプログラム
DE102007022361A1 (de) * 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche
WO2008144370A1 (en) * 2007-05-16 2008-11-27 Honda Motor Co., Ltd. Camera-projector duality: multi-projector 3d reconstruction
CN100554873C (zh) 2007-07-11 2009-10-28 华中科技大学 一种基于二维编码的三维形貌测量方法
US7768656B2 (en) 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
JP5412169B2 (ja) 2008-04-23 2014-02-12 株式会社日立ハイテクノロジーズ 欠陥観察方法及び欠陥観察装置
US8107721B2 (en) * 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
WO2010015086A1 (en) * 2008-08-06 2010-02-11 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
AU2010218298A1 (en) * 2009-02-27 2011-10-13 Body Surface Translations, Inc. Estimating physical parameters using three dimensional representations
JP5602392B2 (ja) 2009-06-25 2014-10-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN101620676B (zh) * 2009-07-02 2012-05-23 浙江省电力公司 绝缘子轮廓的快速图像识别方法
KR20110097140A (ko) 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
JP5625490B2 (ja) * 2010-05-25 2014-11-19 セイコーエプソン株式会社 プロジェクター、投射状態調整方法及び投射状態調整プログラム
JP2011252794A (ja) * 2010-06-02 2011-12-15 Konica Minolta Sensing Inc 情報処理システムおよびプログラム
CN102042814B (zh) 2010-06-24 2012-03-07 中国人民解放军国防科学技术大学 大型堆场三维形貌的投影辅助摄像测量方法
CN102338616B (zh) 2010-07-22 2016-08-17 首都师范大学 结合定位定姿系统的三维旋转扫描测量系统及方法
JP4940461B2 (ja) 2010-07-27 2012-05-30 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
CN102175182B (zh) 2011-01-27 2012-10-10 浙江大学宁波理工学院 结构光三维测量装置及其完整点云数据的获取方法
WO2012168904A2 (en) 2011-06-07 2012-12-13 Creaform Inc. Sensor positioning for 3d scanning
US8662676B1 (en) * 2012-03-14 2014-03-04 Rawles Llc Automatic projector calibration
US9338447B1 (en) * 2012-03-14 2016-05-10 Amazon Technologies, Inc. Calibrating devices by selecting images having a target having fiducial features
US9325973B1 (en) * 2014-07-08 2016-04-26 Aquifi, Inc. Dynamically reconfigurable optical pattern generator module useable with a system to rapidly reconstruct three-dimensional data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513724B1 (ko) * 2022-09-20 2023-03-24 중앙대학교 산학협력단 마커를 이용한 구조광 정밀 정렬 시스템

Also Published As

Publication number Publication date
CN104335005A (zh) 2015-02-04
US20150138349A1 (en) 2015-05-21
CN104335005B (zh) 2017-12-08
US9816809B2 (en) 2017-11-14
JP2015528109A (ja) 2015-09-24
CA2875820C (en) 2018-08-21
EP2870428B1 (en) 2017-12-06
EP2870428A4 (en) 2016-02-24
WO2014006545A1 (en) 2014-01-09
CA2875820A1 (en) 2014-01-09
EP2870428A1 (en) 2015-05-13

Similar Documents

Publication Publication Date Title
JP6429772B2 (ja) 3d走査および位置決めシステム
CN110383343B (zh) 不一致检测系统、混合现实系统、程序和不一致检测方法
JP5337243B2 (ja) 表面特徴の適応型3次元走査システム
JP3624353B2 (ja) 3次元形状計測方法およびその装置
JP4986679B2 (ja) 非静止物体の三次元画像計測装置、三次元画像計測方法および三次元画像計測プログラム
JP4883517B2 (ja) 三次元計測装置および三次元計測方法並びに三次元計測プログラム
WO2019015154A1 (zh) 基于单目三维扫描系统的三维重构方法和装置
JP5583761B2 (ja) 動的基準フレームを用いた3次元表面検出方法及び装置
US20170280132A1 (en) System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
JP5635218B1 (ja) 空間コード化スライド画像に対するパターンのアライメント方法およびシステム
EP3069100B1 (en) 3d mapping device
JP2018518750A (ja) 反射マップ表現による奥行きマップ表現の増補
US9107613B2 (en) Handheld scanning device
Jia et al. Scene depth perception based on omnidirectional structured light
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
JP6282377B2 (ja) 3次元形状計測システムおよびその計測方法
KR101004629B1 (ko) 비강압적 3차원 얼굴 데이터 획득 시스템 및 그 방법
JP2005195335A (ja) 3次元画像撮影装置および方法
CN108175535A (zh) 一种基于微透镜阵列的牙科三维扫描仪
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20050286059A1 (en) Attitude and position measurement of objects using image processing processes
KR101639280B1 (ko) 3차원 컬러 영상 획득을 위한 영상 정합장치 및 이의 영상 정합방법
JP2018160145A (ja) 3次元計測装置、3次元計測プログラム、および3次元計測システム
Lee Development of Handheld 3D Scanner for Human Bodies based on IR Sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R150 Certificate of patent or registration of utility model

Ref document number: 6429772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250