JP2010507079A - 三次元輪郭の非接触検出のための装置および方法 - Google Patents

三次元輪郭の非接触検出のための装置および方法 Download PDF

Info

Publication number
JP2010507079A
JP2010507079A JP2009532738A JP2009532738A JP2010507079A JP 2010507079 A JP2010507079 A JP 2010507079A JP 2009532738 A JP2009532738 A JP 2009532738A JP 2009532738 A JP2009532738 A JP 2009532738A JP 2010507079 A JP2010507079 A JP 2010507079A
Authority
JP
Japan
Prior art keywords
camera
image
stripe pattern
phase
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009532738A
Other languages
English (en)
Inventor
パルメ、マーティン
リーマン、ステファン
クムステッド、ピーター
ブロイエル−バーチャード、クリスチャン
ノトニ、グンサー
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー filed Critical フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー
Publication of JP2010507079A publication Critical patent/JP2010507079A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明は、三次元輪郭の非接触検出のための装置に関する。装置は、イメージング素子(1)を有するプロジェクタと、イメージング素子(1)上に生成されたストライプパターンを物体空間(3)内にイメージングする投影レンズ(2)とを備える。本発明は、2つのカメラレンズ(4)を有し、物体区間(3)を2つの異なる方向から監視するカメラ配列もさらに備える。プロジェクタおよびカメラ配列は、手に持てる測定ヘッド内に共に収容される。本発明は、さらに、当該装置を用いてs何次元輪郭を検出する方法にも関する。
【選択図】図1

Description

本発明は、プロジェクタと、2つのカメラレンズを有するカメラ配列とを備える、三次元輪郭の非接触検出のための装置に関する。また、本発明は、当該装置に対応する、少なくとも1つのストライプパターンが物体に投影される三次元輪郭の非接触検出方法に関する。
従来技術において、本発明に匹敵する方法として知られているのは、いわゆるグレイコードをストライプパターンと共に投影することにより、物体上に記録されたストライプパターンの画像におけるストライプパターンの個別の対のラインを識別し、特定の物点に関連する画像点を識別することで、物体の三次元輪郭を検出する三角測量を実現することである。従来技術におけるこのタイプの方法の欠点は、物体上には比較的広範囲な情報を投影するので、多数の記録を必要とすることである。このことは、特に、ハンドヘルドデバイスにおいてこのような方法を使用する場合に不利に影響する。したがって、本発明の根底にある目的は、上記欠点を克服し、特に、歯の表面、あるいは、義歯または入れ歯の表面の口腔内または口腔外の検出に関し、少なくとも1つの用いられる測定ヘッドの手動操作を可能にする、三次元輪郭の非接触検出のための装置および対応する方法を提案することである。
この目的は、本発明に係る請求項1の特徴を有する装置、および、請求項10の特徴を有する方法により達成される。本発明の有利な実施形態および改良は、従属項の特徴で明らかにされる。特に、提案される装置、または、当該装置に含まれてよい制御・評価ユニットは、方法の請求項の1つに従い、方法を実装するためのプログラミング技術によってインストールされうる。
輪郭の手動検出は、三次元輪郭の非接触検出のための提案される装置によりなされてよい。装置は、画像生成素子を有するプロジェクタと、画像生成素子上に生成されうるストライプパターンを物体空間内にイメージングする投影レンズと、2つの異なる方向から物体空間を観察する2つのカメラレンズを有するカメラ配列とを備え、プロジェクタおよびカメラ配列は、ハンドヘルドデバイスとして用いられうる1つの測定ヘッド内に共に収容される。
特に機動性のある実施形態は、カメラ配列が両カメラレンズ用の共通のカメラチップを有する場合に実現する。カメラレンズのそれぞれは、カメラチップの半分ずつに画像を生成する。これは、折り曲げられたビーム経路により実現し、例えば、それぞれのカメラレンズに対して2つの傾斜ミラーが設けられる。カメラチップは、例えば、CCDに関係してよい。これに対応し、2つのカメラチップによる実施形態では、2つのCCDが用いられてよい。
2つのカメラレンズを用いることにより、ストライプパターンの個別の対のラインの投影方向が正確に知られていないアプリオリである場合でも、物体空間内のあるポイントの三角測量が可能である。それどころか、同じ絶対位相の画像点の識別も十分行える。三角測量を十分正確に行うことを可能とする一方で、急なエッジも測定可能とすべく、カメラレンズは、5度から20度の角度を形成する光軸を有するように配置されているという利点を有してよい。できるだけ小型の構造を有し、三角形ができるだけ測定されるためには、投影レンズの光軸が位置する平面に対して2つのカメラレンズの光軸が鏡面対称に配置されていることが有利である。都合がよいことには、3つの光軸は、すべて、1つの平面内に位置しうる。しかしながら、投影レンズの光軸は、カメラレンズの光軸が横断する平面に対し5度から8度の角度で傾けられてもよい。
装置が都合よく口腔内測定をできる一方で、装置が十分小型でありかつ十分正確に三角測量できるよう、カメラレンズおよび/または投影レンズは、7cmから13cmの物体側断面幅を有してよい。これによって、例えば、1つの傾斜ミラーまたは2つの傾斜ミラーによって物体とカメラレンズまたはプロジェクタレンズとの間のビーム経路が折り曲げられるようになる。少なくとも1つの有利な点は、測定ヘッドの少なくとも7cmの長さのハウジング端が2.5cm未満の高さで設計されることにより、口腔内測定が可能になることである。
また、装置は、プロジェクタ用の光源を有してよく、当該光源は、測定ヘッド内に収容されるか、または、光導波路を介して測定ヘッドに接続されてよい。これによって画像生成素子は、光源から発せられる光を反射的または透過的に輝度変調するように形成されてよい。特に、画像生成素子は、LCoSチップ、または、通常のLCD、または、画素のように動作しうる異なる画像生成素子に関係してよい。さらに、装置は、画像生成素子を起動し、カメラ配列によって生成される画像データを評価する制御・評価ユニットも備えてよい。制御・評価ユニットは、プログラミング技術によってインストールされることにより、画像生成素子上に少なくとも1つのストライプパターンを生成し、それらのコースの不変性に関し、両方のカメラレンズの画像平面における相互に対応するエピポーラ線に沿ってカメラ配列により決定される位相値を評価し、エピポーラ線を一定の位相コースの間隔に分割し、相互に対応するエピポーラ線における相互に対応する間隔を識別し、相互に対応する間隔内の同じ位相値の相互に対応する画像点を識別し、さらに、物点に対応しかつ互いに対応する画像点に基づき、当該物点を三角測量する。また、制御・評価ユニットは、好ましくは、複数の相互に位相シフトしたストライプパターンのシーケンス、および/または、異なる方向に配向されるストライプを有する少なくとも1つのストライプパターンが生成されることができるように形成されなければならない。
例えば、上記タイプの装置により実装されうる三次元輪郭の非接触検出のための提案される方法では、少なくとも1つのストライプパターンが物体に投影され、互いに定められた間隔を置いて配置される2つのカメラレンズによって、ストライプパターンが投影された物体の2つの画像が2つの異なる方向から記録され、2つの両画像における画像点についてストライプパターンの位相値が決定され、その後、2つの画像における相互に対応する画像点に基づく三角測量によって、それらの画像点に対応する物点の深さ情報が決定されうる。2つの画像における相互に対応する画像点を決定すべく、2つの画像における相互に対応するエピポーラ線が選択され、これらのエピポーラ線に沿い、決定された位相値が不変性に関して評価され、エピポーラ線は、一定の位相コースの間隔に分割される。これは、例えば、当然知られている不変性アルゴリズムによって行われてよく、例えば、相互に隣接する画素により記録された位相値がそこでチェックされてよく、当該チェックは、位相値が定められた小さい値以下だけ異なるかどうかに関して、必要に応じて位相値モジュロ2Πを観察することによりなされてよい。最後に、相互に対応するエピポーラ線における相互に対応する間隔が識別されるが、それは、例えば、異なる間隔に含まれる期間の数、と、相互に対応する間隔内に含まれる期間の数とを比較することによりなされ、同じ位相値のポイントが相互に割り当てられる。このことは、上記間隔内の位相値が一定にされることにより、簡単に実現できる。したがって、不変性に関して評価される前の位相値は、粗い位相値とも呼ばれ、これは、0から2Πの期間のパラメータ化の間に唯一の情報量モジュロ2Πを有する。その一方で、エピポーラ線を一定の位相コースの間隔に分割した後の位相値、すなわち、一定にされた後の位相値は、細かい位相値と呼ばれてよい。上記の相互に対応する対のエピポーラ線は、両方のカメラレンズの投影の中心を通って延びる1つの平面からのすべてのポイントの画像としてそれぞれ定義されてよい。これらの投影の中心は、三角測量の間の視差の定義としても役立ちうる。上記の投影中心およびエピポーラ線は、使用する装置に合わせて選ばれる配置によって生成されるのは明白である。
方法は本質的に簡単であり、複数の相互に位相シフトしたストライプパターンのシーケンスが物体上に連続して投影され、位相値を決定するために記録される。好ましくは、少なくとも3つ、より好ましくは、少なくとも4つの相互に位相シフトしたストライプパターンが一組の位相値を決定するために物体に投影される。できるだけ良好な解像度を実現する一方で、ラインまたは細密な位相の個別の対の識別を不必要に難しくしないようにすべく、用いられるストライプパターンは、10から80の対のライン、すなわち、輝度周期を有しうる。2つのカメラレンズの投影中心の結合に対して垂直に向いたストライプを有するストライプパターンを用いると都合がよい。相互に対応する画像点の識別は、さらに単純化されてよく、異なる向きのストライプによるストライプパターンが時間的にオフセットになる方法で物体に投影され、このさらなるストライプパターンの位相値が評価される。したがって、このさらなるストライプパターンは、最初に説明したストライプパターンのストライプか、または、それに相当する、回転したストライプによるストライプパターンシーケンスを有する。また、この方法で回転し、相互に位相シフトしたさらなるストライプパターンの全体のシーケンスがそれぞれ物体に投影され、記録されてよい。相互に対応する画像点の識別をできるだけ簡単にする一方で、記録時間を全体的にできるだけ短くすることに関しては、ストライプパターンを有する画像を全体で5から11記録することが有益である。
最後に、ストライプパターンの記録、より好ましくはストライプパターンを同時に記録する(ストライプパターンに埋め込む)ことに加え、物体の1つまたは複数の記録は、2つのカメラレンズにより実現でき、前に、同時に、または、後に記録されるストライプパターンに関して定められたやり方で配置される少なくとも1つのマーキングが物体に投影される場合、この方法でマーキングされた物点は、三角測量されることができる。このように位置を特定可能なマーキングのさらなる記録は、2つの対応する画像点の明快な識別として役立ち、方法を支援する。したがって、マーキングは、個別の画像として記録されるか、または、ストライプ画像と結合されて同時に記録される。
あるいはまたは加えて、1つのマーキングまたは複数のマーキングのこのような投影または三角測量は、方法に用いられる装置の較正にも役立ちうる。このような較正は、物体自体の測定の間、または、他の物体(検体)を用いる前に、装置の内部パラメータ、および、2つのカメラレンズの相対的な配向のどちらの決定のためにも実行される。特に、検体を用いる場合に、1つ以上のストライプ画像記録と共に較正が実行されてよいが、較正測定は時間がかかる可能性があるので、グレイコード投影または相当する方法を用いてもよい。
本方法において選択され、位相コースに関して評価されるエピポーラ線は、好ましくは、2つのカメラレンズにより生成される画像内に高密度で存在しなければならない。これは、エピポーラ線の狭い周囲のストライプが2つの画像を覆うことにより、表面をカバーする三次元検出が可能になることを意味する。
本方法の有益な実施形態では、検出された位相値を補間することにより、画像生成器、および/または、1つまたは複数のカメラチップに関し、画像点を位相値にサブ画素単位で正確に割り当てることができる。
手で誘導される測定ヘッドによる測定を手振れによる測定エラーなしに実現すべく、1つの輪郭の検出に用いられうるすべてのストライプパターン、および、追加してまたは同時に投影されうるマーキングは、100ミリ秒から500ミリ秒の時間間隔内で記録され、および/または、15Hzから60Hzの画像繰返し速度で記録される。
以下、図1から7までを参照して発明の実施形態を説明する。
本発明における装置のビーム経路を示す。
本発明の異なる実施形態における、相当する装置の2つのカメラレンズのビーム経路の対応する表現である。
本発明における装置の第3の実施形態のビーム経路の相等する表現である。
図3の装置のビーム経路の側面図である。
図1の実施形態に相等するビーム経路を有する、本発明に従う装置のハウジングを開放させた状態を示す。
本発明における方法の一実施形態を表すフローチャートである。
図2に対応する表現であり、装置の変形例における2つのカメラレンズのビーム経路が示されている。
三次元の輪郭の非接触検出、特に、歯の輪郭の口腔内または口腔外で非接触検出するための装置の光学部品が図1に示される。図示される装置は、画像生成素子1を有するプロジェクタと、画像生成素子1上で生成されうるストライプパターンを物体空間内3にイメージングする投影レンズ2とを備える。装置は、ほぼ12度の角度で相互に傾けられた2つの方向から物体空間3を観察することができる、カメラ配列が有する2つのカメラレンズ4をさらに備える。プロジェクタと、カメラレンズ4のそれぞれに対するモノクロCCDチップとして構成されるそれぞれ1つのカメラチップ5をここでは有するカメラ配列とは、ハンドヘルドデバイスとして用いられうる共通の測定ヘッドに収容される。
図示される装置には、カメラレンズ4により定められる2つの光軸間を二分する線と一致する光軸を有するようにプロジェクタが配置される。カメラレンズ4および投影レンズ2はどちらも約10cmの物体断面幅を有する。内部で投影の焦点が合わされ、カメラ配列の焦点深度範囲内にある物体空間3は、約25mm×15mmの横方向寸法と、プロジェクタの光軸方向における、約13mmの深さとを有する。
ここで採り上げられる画像生成素子1は、約6mm×4mmから16mm×12mmまでの横方向寸法を有するLCoSに関係する。ここで採り上げられる画像生成素子1は、図1には示されていない光源から発せられる光の反射輝度変調のために機能する。あるいは、チップが光源の光を透過して変調する通常のLCDチップが提供されてもよい。
図2には本発明の他の実施形態が示され、ここでは、対応する装置のカメラ配列のみが図示される。以下の図面に繰り返される特徴は、同じ参照番号が付される。上記実施形態とは異なり、当該カメラ配列は、モノクロCCDチップに関連する単一のカメラチップ5のみを有し、カメラレンズ4の両方のビーム経路は、カメラレンズ4のそれぞれがカメラチップ5の半分ずつに画像を生成するように、画像側の2つの傾斜ミラー6のよりそれぞれ折り曲げられる。図2に示される実施形態では、プロジェクタのビーム経路は、カメラレンズ4の光軸により定められる平面からほぼ5度の角度だけ傾けられる。それとは別に、投影ビーム経路ができるだけ非対称に配置されてもよい。
第3の実施形態が図3および4に示される。ここでは、ビーム経路の両方に対し、カメラ配列は単一のカメラチップ5のみを有し、その半分ずつがカメラレンズ4のそれぞれによって露光されうる。カメラチップ5は、カメラレンズ4の光軸により定められる平面と平行に配置される。図4に示されるように、本実施形態におけるプロジェクタは、2つの傾斜ミラー6'によって折り曲げられたビーム経路を有する。
図5では、図1に示される実施形態とは異なる本発明の実施形態が示される。ここでは、特に口腔内測定を容易にすべく、傾斜ミラーを物体側に設ける点だけが図1とは異なる。傾斜ミラー7を担持する比較的狭いハウジング端9を有する装置の測定ヘッドのハウジングも図5に示される。図5に示された数値は、ミリメートル単位でのハウジング8のサイズを示す。図示される装置は、図5には示されていない、ハウジング8の外側に配置された光源を有し、当該光源は、直径約5mmの光導波路10を介し測定ヘッドに接続される。本発明の変形例では、光源は、測定ヘッド内に収容されてもよい。
図1から5では、それぞれの装置に含まれる制御・評価ユニットは示されていないが、当該制御・評価ユニットがプログラミング技術によってインストールされることにより、装置は、次に図6を参照して説明される方法を実装するのに適するようになる。
本方法は、三次元輪郭、特に、口腔内または口腔外からスキャンされる歯、義歯、または、入れ歯の表面の非接触検出に役立つ。本方法では、一連のストライプパターンは、まず、プロジェクタにより物体に投影され、当該物体の三次元輪郭を検出することを目的とし、それぞれ投影されたストライプパターンを有する当該物体の2つの画像がカメラレンズ4により記録される。まず、例えば、局所的空間においてシフトされた位相分だけそれぞれ異なる4つのストライプパターンが投影され記録されることにより、いわゆる4−位相アルゴリズムを用い(もちろん本方法の他の実施形態では、他の適切な位相アルゴリズムを用いてもよい)、2つの画像それぞれに対し、ストライプパターンまたはストライプパターンシーケンスの位相値が決定され、その結果、例えば、粗い位相画像が生成される。これは、シーケンスのそれぞれのストライプパターンを記録すべく、それぞれのカメラチップ5の各画素の輝度が測定されることで簡単に実現できる。0から2Πの輝度周期のパラメータ化により、モジュロ2Πのみが許容範囲なので、粗い位相の輝度位相と呼ばれる。
図6に菱形で示されているさらなるステップでは、2つの画像における相互に対応するエピポーラ線が選択されることにより、カメラレンズ4により記録される2つの画像における相互に対応する画像点が決定される。エピポーラ線に沿って決定された位相値は、不変性に関して検査され、それからエピポーラ線は、一定の位相コースの間隔に分割され、その後、相互に対応するエピポーラ線における相互に対応する間隔が識別され、相互に対応する間隔内では、同じ位相値のポイントが相互に割り当てられる。上記間隔内の位相値は、細かい位相値と呼ばれ、位相不変性が保証されていることにより、当該間隔における各ポイントを明確に識別するに十分な情報量が送信される。位相不変性、すなわち、エピポーラ線に沿った位相値の不変性に関して評価することと、エピポーラ線を一定の位相コースの間隔に分割すること、とは、周知である不変性アルゴリズムを用いて行われてよい。好ましくは、対のエピポーラ線は、両方の画像をできるだけ高密度にカバーするよう選択される。相互に対応するエピポーラ線は、それぞれの画像における各画像点に対して明確に生成されるので、簡単に決定できる。
最後に、2つのカメラレンズ4により生成される2つの画像内の相互に対応する画像点に基づき、それらの画像点に対応する物点の深さ情報が三角測量により決定される。図6では、技術的または計算プロセスは、対応してラベル付けされた矩形によって示され、それに対応してラベル付けされた卵形線により入力および出力データが示されている。
用いられるストライプパターンは、約50の等間隔の周期が図1に示された物体空間3をカバーするような大きさである。一連のストライプパターンは、図1から3における図平面に対し垂直なストライプにより生成される。さらに、異なる向きを有する1から7までのさらなるストライプパターンが物体に投影され、方法を支援すべく同様に評価される。加えてまたは同時に、明確に見つけられるマーキングが物体に投影される少なくとも1つの記録が行われてよく、これによって、相互に対応する画像点の識別をサポートする形で方法を支援しうる。
上記のやり方では、多くのエピポーラ線が検査されることにより、画素間隔の4倍までの幅を有するこれらのエピポーラ線の周囲のストライプが画像を完全にカバーするようになるはずである。測定された輝度を補間することにより、位相値が画像点に割り当てられる。この割り当ては、画素単位より精密であり、同様に、輪郭の三角測量も非常に精密に行われてよい。位相計算に高速演算の4−位相アルゴリズムを用いることにより、ストライプパターンを有する画像シーケンスの記録時間は、短時間に維持される。例えば、1画像につき20ミリ秒から40ミリ秒の持続時間での8から10画像の記録シーケンスでは、測定位置ごとに160ミリ秒から400ミリ秒の記録時間を作ることができる。口腔内の用途に関しては、使用される装置が取り外し可能なマウスピース付きのモジュラー測定ヘッドまたはセンサヘッドを有すれば有益であろう。
本願明細書中に記載される本発明の本質的な特徴は、特に、2つの異なる方向から2つのカメラによって記録される輝度画像から粗い位相を決定すること、エピポーラ配置、および、粗い位相の不変性に基づき三次元データを計算すること、位相相関によって対応する画素を決定すること、および、対応する画素に基づき、三角測量によって深さ値を計算すること、である。
再び、提案される発明の好適な実施形態を以下に概略的に説明する。
ハンドスキャナと呼ばれる装置は、口の中で歯をスキャンする装置である。装置は、口の中に導入される部分と、光学、電子、および、磁気部品を有する手に持つ部分とを備え、光学、電子、および、磁気部品は、照明源からの照明ビームを、照明光学系を介して歯に伝送し、歯から発せられた観察ビームをセンサ(CCD)に至るまで観察光学系に伝送する。
装置は、一連のストライプパターンを測定の対象(歯)に投影する投影チップを画像生成素子1として有する。このストライプパターンシーケンスは、2つの観察方向から観察されて記録される。記録された輝度画像から位相値が計算される。三次元測定データは、2つの観察チャネルの間において三角測量を用い、位相相関による位相測量法によって得られる(例えば図1を参照)。
2つの観察方向と、1つの照明方向とを同時に形成する原理は、観察のための2つの別々の光チャネルを含み、当該チャネルの軸は、照明方向に対し通常略対照的に左右に配置される。
場合によっては存在しうる、投影の光軸と、カメラの2つの光軸により定められる平面との間の予定外の角度は、5度未満であることが望ましい。
照明および観察により、横に約25mm×15mmの測定範囲が形成される。物体空間3、または、光軸方向(焦点範囲の深さ)における測定体積の増減範囲は、約+−6.5mmから13mmである。
オフセット冷光源は、照明源として機能する。(オフセット)光源の光は、直径約5mmの液体光導波路を介して口腔内で動作するセンサヘッドまたは測定ヘッドに結合される。
照明光学系は、あまり歪まずに動作するよう設計されている。観察に際しては、CCDカメラ技術、および、ほぼ歪まないレンズが用いられる。1つのカメラチップ5のみが観察用に用いられるように2つの観察方向を結合させることができる(図2から4を参照)。あるいは、カメラチップ5を2つ用いてもよい(図1を参照)。
測定値を得るべく、基本的な測定原理としての位相測量法が方法として用いられる。位相測量法は、写真測量法と、アクティブなパターン投影との数学的融合を表す。
異なる向きのパターンシーケンスが測定されるべき物体に投影され、観察しているカメラによって記録される。細かい位相値は、対応するアルゴリズムによって決定される。2つの観察方向の細かい位相値を相関させることにより、装置の内部の向きのパラメータ、観察方向間の相対的な向きのパラメータが三次元測定値として生成される。
観察方向間の内部の向きおよび相対的な向きのパラメータは、較正測定の範囲内で決定される。これは、測定自体のデータから、または、より正確な個別の較正測定によるアプリオリに基づき決定されてよい。このために、較正用本体の1つ以上の口腔外測定が最も高い精度で実装される。較正の間に粗い位相画像(=位相モジュロ2Π)を生成すべく、例えば、4−または16−位相アルゴリズムが用いられる。カメラ、そしておそらくはプロジェクタの内部配向の決定は、写真測量法によって実行される。さらに、2つの観察方向の間の相対的な向きは、較正測定から決定されてよい。
三次元測定データを計算すべく、観察方向により定められるビーム束が用いられ、カメラ画像における位相相関が実装される。画像シーケンスの記録は、第1のステップで実施される。
合計5から11のストライプパターンの画像の2つの交差するシーケンスは、投影ユニットにより投影され、両方の観察方向から記録される。30Hzの画像繰り返し速度での画像の記録には、160ミリ秒から370ミリ秒を要する。
位相アルゴリズムを用い、各観察方向に対して粗い位相画像が計算される。画像の1つ以上において、1つ以上の画像点がマーキングまたはマーカとして用いられてよい。マーカは、画像における明確に識別可能なポイントであり、その起点は、投影チップ上でわかる。マーカは、絶対的な位相を決定するのに役立つ。
第2のステップでは、カメラ画像間へのポイントの割り当てが実行される。
三次元ポイント計算では、2つのカメラの画像間における明確なポイント割り当てを実現すべく、粗い位相画像は、細かい位相画像に変換されなければならない。両観察方向の画像点の割り当ては、粗い位相情報と、エピポーラ配置とを利用して実行される。
この目的のために、両観察方向の画像における対応するエピポーラ線に位置する画像点のみが観察される。これらのエピポーラ線は、画像内の特定のポイントと、内部および相対的な向きのデータとを選択することにより明確に決定される。
測定ポイントを適切に選択すべく、対応する高密度なエピポーラ線系統が画像を覆う。エピポーラ線は、2つの観察方向の投影中心を通って延びる空間内の平面の画像であり、この空間平面は、物体空間におけるポイントにより特徴付けられる。それゆえ、エピポーラ線は、対応する直線として画像内に示される。
第1の画像のエピポーラ線におけるすべてのポイントは、第2の画像における対応するエピポーラ線におけるそれらの対応するポイントを有する。それゆえ、ポイントの対応を見つけることの目的は、一次元の場合に限定される。
対応を見つけることは、エピポーラ線における位相値の相関によってなされうる。この目的のためには、エピポーラ線における粗い位相値の他の不変性が要求される。これは、周期遷移の分析、非不変性ポイントの検出、隣接する画像点の観察、および、画像における周期遷移の追跡によって実現する。検出されたマーカは、画像内における追跡の出発点、および、制御点として機能する。
三次元測定データの計算は、第3のステップで実行される。
この目的のために、相対的な向きおよび内部の向きのパラメータと共に、サブ画素単位で精密に決定された対応する画像点の座標が三角測量を用いて計算され、スキャンプロセスの結果を表す三次元の点雲を形成する。
したがって、図示される方法には、粗い位相の不変性が必要である。この粗い位相の不変性は、対応する直線が両方の画像で観察されるという点から、エピポーラ配置を用いる場合は二次元表面で実現される必要はなく、一次元の問題に限定される。
対応する出発点が両画像における直線の2つの部分で見つかり、直線部分における位相値の関数が一定である限り、どんな場合でも明確な粗い位相割り当てが実現しうる。非不変性のポイントが新たな直線部分を定める。したがって、対応するエピポーラ線における対の対応する直線部分のそれぞれについて、対応するポイントが見つかるはずである(それによって、隣接するエピポーラ線間の位相値の不変性分析に再び頼ることになる場合もある)。ポイント割り当てのためのアルゴリズム(粗い位相の不変性)は、対応するエピポーラ線を不変の部分に分解し、それぞれの対応する部分において対応する出発点を見つける。
カメラ配列に対して1つのチップを用いる場合(図2から4を参照)、エピポーラ配置は、それに対応してカメラの2つの部分的なチャネル間で計算される。このようにして、小型の構造が得られるばかりでなく、より単純な電子評価システムを用いることができる。
最後に、三次元輪郭の非接触検出のための装置の一部が図7における本発明のさらなる実施形態で示されている。当該表現は、広く言えば図2に対応する。上述の対応する特徴には同じ参照符号が付されている。図2の実施形態と異なる点のみここで扱うこととする。
物体空間から見た場合、両カメラレンズ4のビーム経路には、図2における合計4つの傾斜ミラー6'に対応する第1の傾斜ミラー6および第2の傾斜ミラー6がそれぞれ1つずつ傾斜部材として配置される。図2の実施形態と異なる点は、カメラレンズ4のすべてのレンズが、それぞれのビーム経路に配置された両傾斜ミラー6および6'の物体側に配置されていることであり、それによって、すべての傾斜部材の物体側は、カメラレンズ4のビーム経路の外側に位置するようになり、物体空間から見て第1の傾斜ミラー6と第2の傾斜ミラー6'との間には回析要素は存在しなくなる。これによって、図2に示される二重矢印の方向に移動可能なスライドにそれぞれ装着可能であり、所望の位置にネジ止めすることで固定されうる第1の傾斜ミラー6を移動させるおよび/または回転させることにより、カメラ用光学部品の調整が容易になる。このスライドでは、2つの第1の傾斜ミラー6のそれぞれが図2の図平面に対して垂直な軸の回りを回転可能であり、所望の位置で固定可能なように配置される。
この設計により、カメラレンズ4の調整は、カメラレンズ4、すなわち、ここでは、それぞれの5つの検出可能なレンズの画像生成素子の内部配置を変更せずに、第1の傾斜ミラー6を調整することによって可能となる重要な利点をもたらす。したがって、調整によってカメラレンズ4のイメージング品質を損なうことはない。さらに、2つの第2の傾斜ミラー6'から形成されたプリズムブロックは、線形スライドに配置されることもありえ、また、調整の目的で、カメラチップ5の対称な軸または光軸の方向に移動されてもよい。カメラレンズ4のすべてのレンズが傾斜ミラー6の物体側に配置され、傾斜ミラー6は、上記方法で調整されるよう、図3および4の実施形態も相応に修正されてよいことは言うまでもない。
図には示されていないプロジェクタの照明光学系により、光は、画像生成素子1に向けられる。画像生成素子は、例えば、できる限り放射出力を高めるよう好ましくはテレセントリックに構成されたLCoSチップとして構成される。
上記のようなタイプの装置により、代替方法、特に、グレイコードによるストライプパターンの投影によっても三次元輪郭が非接触に検出できる。この目的のために、制御・評価装置がプログラミング技術によってインストールされてよい。制御・評価装置は、画像生成素子1を起動し、カメラ配列によって生成されるそれぞれの装置の画像データを評価し、グレイコードを含むストライプパターンを画像生成素子1上に生成し、グレイコードを評価することによって、2つのカメラレンズで生成される画像における相互に対応する画像点を識別し、物点に対応しかつ相関していると識別される画像点に基づき、当該物点を三角測量する。
三次元輪郭を非接触に検出する対応する方法においては、例えば、グレイコードを含むストライプパターンが物体に投影され、互いに定められた間隔を置いて配置された2つのカメラレンズを用いて、ストライプパターンが投影される物体の2つの画像が2つの異なる方向から記録され、ストライプパターンの位相値が両画像における画像点に対して決定され、その後、2つの画像におけるそれぞれ相互に対応する画像点に基づく三角測量により、これらの画像点に対応する物点の深さ情報が決定され、グレイコードの評価によって、2つの画像における相互に対応する画像点が決定される。
これによって、少なくとも制御・評価ユニットの対応するプログラミングにより、測定を行う目的で、それぞれ平行なストライプを有するストライプパターンの少なくとも第1のセットおよび第2のセットが投影され、第1のセットのストライプと、第2のセットのストライプとは、ゼロでない角度、好ましくは、少なくとも約90°の角度で重なる。ストライプの各セットは、少なくとも3つ、正確には4つが好ましい正弦波輝度コースを有する相互に位相シフトしたストライプを含み、それらは、実際に単独で位相モジュロ2Πを決定することができ、また、各ストライプセットは、絶対位相を決定するためのグレイコーディングされたさらなるストライプパターンを含む。
このように、全体として比較的多数のストライプパターンが投影されて記録される。それに伴い、特にストライプパターンを投影して記録するハンドへルドデバイスを用いたときに、比較的測定時間が長くなることによる振れを防止すべく、本発明の特に好適な実施形態は、第1のセットのストライプパターンからの正弦波輝度コースを有する多数のストライプパターンと、第2のセットのストライプパターンからの正弦波輝度コースを有する多数のストライプパターンとが時を移さず連続して投影されることを実現する。一方で、正弦波輝度コースを有する上記2つの多数のストライプパターンの前および/または後にグレイコーディングされたストライプパターンが投影される。ただし、当該グレイコードストライプパターンは、正弦波輝度コースを有するストライプパターンの個々の間には投影されないものとする。第1のセットのストライプパターンからの正弦波輝度コースを有するストライプパターンと、第2のセットのストライプパターンからの正弦波輝度コースを有するストライプパターンとは、いかなる順序で投影されてもよく、例えば、最初に第1のセットからのストライプパターンがすべて投影され、その後に、第2のセットからのストライプパターンが正弦的に延びてよい。この測定により、正弦波輝度コースを有するストライプパターンが非常に短い耐振期間内に投影されて記録されることができる。その場合、2つのストライプ方向に通常合計で8つのストライプパターンが存在し、これらのストライプパターンのうちの十分なものは6つであってよい。実際、グレイコーディングされたストライプパターンは、この非常に短い期間には収まらないが、既知のモジュロ2Π位相の絶対位相を決定する目的のためにだけにまだ機能し、それらの記録は、振れにほとんど影響されないので、実害はない。都合が良いことには、グレイコードの投影による2つのカメラレンズの画像平面における画像点の明確な割り当ては、ハンドヘルドデバイスのような相当する装置の耐振動作と組み合わせることもできる。

Claims (18)

  1. 三次元輪郭を非接触検出する装置であって、
    画像生成素子(1)を有するプロジェクタと、
    前記画像生成素子(1)上に生成されうるストライプパターンを物体空間(3)内にイメージングする投影レンズ(2)と、
    前記物体空間(3)を2つの異なる方向から観察する2つのカメラレンズ(4)を有するカメラ配列と、
    を備え、
    前記プロジェクタおよび前記カメラ配列は、ハンドヘルドデバイスとして用いられることができる1つの測定ヘッド内に共に収容される、装置。
  2. 前記カメラ配列は、前記カメラレンズ(4)の両方のための共通のカメラチップ(5)を有し、前記カメラレンズ(4)のそれぞれは、前記カメラチップ(5)の半分ずつに対して画像を生成する、請求項1に記載の装置。
  3. それぞれ少なくとも2つの傾斜部材(6、6')が前記2つのカメラレンズ(4)のそれぞれのビーム経路に配置され、前記カメラレンズ(4)のすべてのレンズは、前記傾斜部材(6、6')の物体側に配置され、前記傾斜部材(6、6')の少なくとも1つの第1の傾斜部材(6)は、調整用の移動可能スライドにおいて前記2つのカメラレンズ(4)のそれぞれの前記ビーム経路の外側に配置される、請求項2に記載の装置。
  4. 前記2つのカメラレンズ(4)は、5度から20度の角度を形成する光軸を有する、請求項1から3のいずれかに記載の装置。
  5. 前記2つのカメラレンズ(4)は、前記投影レンズ(2)の前記光軸が位置する平面に対し鏡面対称に配置される光軸を有する、請求項1から4のいずれかに記載の装置。
  6. 前記カメラレンズ(4)および/または前記投影レンズ(2)は、7cmから13cmの物体側断面幅に合わせて設計されている、請求項1から5のいずれかに記載の装置。
  7. 前記プロジェクタには光源が設けられ、前記光源から発せられる光は、透過型または反射型の前記画像生成素子(1)により輝度変調されることができる、請求項1から6のいずれかに記載の装置。
  8. 前記光源は、前記測定ヘッド内に収容されるか、または、光導波路(10)を介し前記測定ヘッドに接続される、請求項7に記載の装置。
  9. 前記装置は、前記画像生成素子(1)を起動し、前記カメラ配列により生成された画像データを評価する制御・評価ユニットをさらに備え、前記制御・評価ユニットは、プログラミング技術を用いてインストールされ、
    前記画像生成素子(1)上に少なくとも1つのストライプパターンを生成し、
    前記カメラレンズ(4)の両方の、画像平面内の相互に対応するエピポーラ線に沿って、前記カメラ配列により決定された位相値のコースの不変性に関して評価し、
    前記エピポーラ線を一定の位相コースの間隔に分割し、
    前記相互に対応するエピポーラ線における相互に対応する間隔を識別し、
    相関するものと識別された前記間隔内の同じ位相値を有する相互に対応する画像点を識別し、
    物点に対応しかつ相関する前記識別された画像点に基づき、前記物点を三角測量する、請求項1から8のいずれかに記載の装置。
  10. 三次元輪郭を非接触検出する方法であって、
    少なくとも1つのストライプパターンが物体に投影され、
    互いに定められた間隔を置いて配置された2つのカメラレンズ(4)を用いて、前記ストライプパターンが投影された前記物体の2つの画像が2つの異なる方向から記録され、
    前記2つの画像の両方における画像点に対して前記ストライプパターンの位相値が決定され、
    前記2つの画像における相互に対応する画像点に基づく三角測量により、前記画像点に対応する物点の深さ情報が決定され、
    前記2つの画像における前記相互に対応する画像点を決定すべく、
    前記2つの画像における相互に対応する対のエピポーラ線が選択され、
    前記エピポーラ線に沿い前記決定された位相値の不変性が評価され、
    前記エピポーラ線が、一定の位相コースの間隔に分割され、
    前記相互に対応するエピポーラ線における相互に対応する間隔が識別され、
    前記相互に対応する間隔内で、同じ位相値のポイントが相互に割り当てられる、
    方法。
  11. 前記位相値を決定すべく、一連の複数の相互に位相シフトしたストライプパターンが前記物体に連続して投影され、記録される、請求項10に記載の方法。
  12. 異なる向きのストライプを有する少なくとも1つのさらなるストライプパターンが、時間的にオフセットになるよう前記物体に投影され、前記2つの画像における前記相互に対応する画像点を識別すべく、前記さらなるストライプパターンの位相値も評価される、請求項10または11に記載の方法。
  13. 前記物体の少なくとも1つの記録は、前記2つのカメラレンズを用いて行われ、その場合、同時に、前に、または、後に記録されたストライプパターンに関して定められたやり方で配置された少なくとも1つのマーキングが2つの対応する画像点を識別すべく前記物体に投影されることにより、前記方法を支援し、および/または、前記方法に用いられる装置の較正に役立つ、請求項10から12のいずれかに記載の方法。
  14. 前記評価されたエピポーラ線は、前記2つの画像内に高密度に存在する、請求項10から13のいずれかに記載の方法。
  15. 前記位相値のサブ画素単位での前記画像点への精密な割り当てが、補間により実行される、請求項10から14のいずれかに記載の方法。
  16. 1つの輪郭の検出に対してすべての前記ストライプパターンが用いられ、さらに投影されたマーキングが100ミリ秒から500ミリ秒、および/または、15Hzから60Hzの画像繰り返し速度で記録される、請求項10から15のいずれか記載の方法。
  17. 前記物体は、歯、義歯、または、入れ歯に関係する、請求項10から16のいずれかに記載の方法。
  18. 請求項10から17のいずれかに記載の方法を実装するための請求項1から9のいずれかに記載の装置の使用。
JP2009532738A 2006-10-16 2007-10-16 三次元輪郭の非接触検出のための装置および方法 Pending JP2010507079A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006049695A DE102006049695A1 (de) 2006-10-16 2006-10-16 Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
PCT/EP2007/009164 WO2008046663A2 (de) 2006-10-16 2007-10-16 Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur

Publications (1)

Publication Number Publication Date
JP2010507079A true JP2010507079A (ja) 2010-03-04

Family

ID=39052402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009532738A Pending JP2010507079A (ja) 2006-10-16 2007-10-16 三次元輪郭の非接触検出のための装置および方法

Country Status (7)

Country Link
US (1) US8243286B2 (ja)
EP (1) EP2079981B1 (ja)
JP (1) JP2010507079A (ja)
CN (1) CN101558283B (ja)
DE (1) DE102006049695A1 (ja)
HK (1) HK1138638A1 (ja)
WO (1) WO2008046663A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013531237A (ja) * 2010-06-21 2013-08-01 ライカ ジオシステムズ アクチエンゲゼルシャフト 測定対象物表面上の三次元座標を求めるための光学式測定方法および測定システム
JP2016075662A (ja) * 2014-08-19 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company 繊維強化複合材構成要素の製造中の繊維配置検査のためのシステムおよび方法

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE46012E1 (en) 2007-08-17 2016-05-24 Renishaw Plc Non-contact probe
DE102007058590B4 (de) * 2007-12-04 2010-09-16 Sirona Dental Systems Gmbh Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts und Aufnahmevorrichtung
KR20120000071A (ko) 2009-02-27 2012-01-03 보디 설피스 트랜스레이션 인크. 삼차원 표현들을 사용한 물리적 파라미터들의 추정
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
US8503539B2 (en) 2010-02-26 2013-08-06 Bao Tran High definition personal computer (PC) cam
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
EP2511656A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
WO2012141868A1 (en) 2011-04-15 2012-10-18 Faro Technologies, Inc. Enhanced position detector in laser tracker
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
EP2527784A1 (de) 2011-05-19 2012-11-28 Hexagon Technology Center GmbH Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
KR101854188B1 (ko) * 2011-10-25 2018-05-08 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법
DE102012207499B3 (de) 2012-05-07 2013-09-05 Sirona Dental Systems Gmbh Verfahren zur Vermessung einer Zahnsituation
DE102012013079B4 (de) 2012-06-25 2023-06-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur
US9325966B2 (en) 2012-07-30 2016-04-26 Canon Kabushiki Kaisha Depth measurement using multispectral binary coded projection and multispectral image capture
TWI472711B (zh) * 2012-10-30 2015-02-11 Ind Tech Res Inst 非接觸式三維物件量測方法與裝置
ES2593800T3 (es) * 2012-10-31 2016-12-13 Vitronic Dr.-Ing. Stein Bildverarbeitungssysteme Gmbh Procedimiento y patrón de luz para medir la altura o el curso de la altura de un objeto
EP2728306A1 (en) * 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Method and device for determining three-dimensional coordinates of an object
DE102012022952A1 (de) 2012-11-16 2014-05-22 Friedrich-Schiller-Universität Jena Verfahren und System zum berührungslosen Erfassen einer dreidimensionalen Oberfläche eines Objekts
DE102012112321B4 (de) * 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE202012104890U1 (de) 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) 2012-12-14 2015-11-05 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP2772795A1 (en) * 2013-02-28 2014-09-03 Shamir Optical Industry Ltd Method, system and device for improving optical measurement of ophthalmic spectacles
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
DE102014104993A1 (de) 2013-06-24 2014-12-24 Qioptiq Photonics Gmbh & Co. Kg Dentalmessvorrichtung zur dreidimensionalen Vermessung von Zähnen
DE202013012494U1 (de) 2013-07-26 2017-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aufsatz und Vorrichtung zum berührungslosen Vermessen einer Oberfläche
DE102013013791B4 (de) 2013-08-14 2015-03-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen
DE102013111761B4 (de) * 2013-10-25 2018-02-15 Gerhard Schubert Gmbh Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
CN105930750B (zh) * 2015-04-28 2018-12-04 陆劲鸿 一种识别物理物件及其朝向的方法及系统
DE102015208285A1 (de) 2015-05-05 2016-11-10 Friedrich-Schiller-Universität Jena Vorrichtung und verfahren zum räumlichen vermessen von oberflächen
DE102015211954B4 (de) 2015-06-26 2017-12-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum berührungslosen Vermessen einer Objektoberfläche
EP3133369B1 (en) * 2015-08-19 2017-12-20 Mitutoyo Corporation Methods for measuring a height map of multiple fields of view and combining them to a composite height map with minimized sensitivity to instrument drift
WO2018020244A1 (en) 2016-07-28 2018-02-01 Renishaw Plc Non-contact probe and method of operation
CN106580506B (zh) * 2016-10-25 2018-11-23 成都频泰医疗设备有限公司 分时三维扫描系统和方法
DE102017220720A1 (de) 2017-11-20 2019-05-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum berührungslosen Vermessen dreidimensionaler Oberflächenkonturen
US10883823B2 (en) * 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
DE102020201536A1 (de) 2020-02-07 2021-08-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren und Vorrichtung zum berührungslosen Vermessen einer Objektoberfläche
CN113066164A (zh) * 2021-03-19 2021-07-02 河南工业大学 一种基于相移轮廓术的单条纹运动物体三维重建方法
DE102022120088A1 (de) 2022-08-09 2024-02-15 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Vermessung dreidimensionaler virtueller Bilder und Objekte eines Head-Up-Displays

Citations (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5793208A (en) * 1980-12-01 1982-06-10 Nippon Kogaku Kk <Nikon> Optical system of distance measuring apparatus
US4842411A (en) * 1986-02-06 1989-06-27 Vectron, Inc. Method of automatically measuring the shape of a continuous surface
US5104216A (en) * 1988-12-05 1992-04-14 Igm Industriegerate- Und Maschinenfabriksgesellschaft Mbh Process for determining the position and the geometry of workpiece surfaces
JPH05209728A (ja) * 1991-09-11 1993-08-20 Carl Zeiss:Fa 物体表面を3次元で光学的に測定する方法および装置
JPH05288532A (ja) * 1992-04-06 1993-11-02 Ricoh Co Ltd 立体画像入力装置
JPH06331350A (ja) * 1993-05-27 1994-12-02 Kyocera Corp カメラの測距装置
JPH0791927A (ja) * 1993-08-06 1995-04-07 Murata Mach Ltd 三次元計測装置
JPH07151522A (ja) * 1993-11-29 1995-06-16 Sanyo Electric Co Ltd 電子部品検査装置
JPH07260446A (ja) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd 画像処理装置
JPH09287943A (ja) * 1996-04-18 1997-11-04 Omron Corp 距離測定装置及び安全走行システム
JPH10104527A (ja) * 1996-09-30 1998-04-24 Toyota Central Res & Dev Lab Inc 双眼光学装置
JP2000056412A (ja) * 1998-08-05 2000-02-25 Jiro Sekine 立体画像撮影用アタッチメント
JP2000092517A (ja) * 1998-09-08 2000-03-31 Sanyu Seni:Kk 2、3次元映像取り込み装置
JP2001012925A (ja) * 1999-04-30 2001-01-19 Nec Corp 三次元形状計測方法及び装置並びに記録媒体
US20020044682A1 (en) * 2000-09-08 2002-04-18 Weil Josef Oster Method and apparatus for subject physical position and security determination
DE10149750A1 (de) * 2001-03-09 2002-09-19 Tecmath Ag Handgeführter 3D-Scanner
JP2002366931A (ja) * 2001-06-08 2002-12-20 Nec Corp 形状計測装置およびその方法
US20030072011A1 (en) * 2001-10-09 2003-04-17 Shirley Lyle G. Method and apparatus for combining views in three-dimensional surface profiling
JP2003121126A (ja) * 2001-10-15 2003-04-23 Pentax Corp 3次元画像検出装置及び3次元画像検出用アダプタ
JP2003532062A (ja) * 2000-04-25 2003-10-28 インスペック・インコーポレーテッド 立体視、カラーの3dデジタル化、およびモーション・キャプチャの複合システム
JP2004258266A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
WO2004106857A1 (ja) * 2003-05-29 2004-12-09 Olympus Corporation ステレオ光学モジュール及びステレオカメラ
WO2005010825A2 (en) * 2003-07-24 2005-02-03 Cognitens Ltd. Method and sytem for the three-dimensional surface reconstruction of an object
JP2005077130A (ja) * 2003-08-28 2005-03-24 Olympus Corp 物体認識装置
DE10344051A1 (de) * 2003-09-23 2005-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes
JP2005173091A (ja) * 2003-12-10 2005-06-30 Yasushi Haruta ステレオビュア及びステレオマウントフレーム
JP2005338977A (ja) * 2004-05-25 2005-12-08 Aichi Gakuin 立体画像処理システム
DE102004052199A1 (de) * 2004-10-20 2006-04-27 Universität Stuttgart Streifenprojektions-Triangulationsanordnung zur dreidimensionalen Objekterfassung, insbesondere auch zur dreidimensionalen Erfassung des Gesichts eines Menschen
JP2006177781A (ja) * 2004-12-22 2006-07-06 Matsushita Electric Works Ltd 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム
WO2006094409A1 (en) * 2005-03-11 2006-09-14 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0726828B2 (ja) * 1986-04-18 1995-03-29 株式会社トプコン 形状測定装置
US5257184A (en) * 1990-04-10 1993-10-26 Mushabac David R Method and apparatus with multiple data input stylii for collecting curvilinear contour data
US5561526A (en) * 1994-05-26 1996-10-01 Lockheed Missiles & Space Company, Inc. Three-dimensional measurement device and system
US6956963B2 (en) * 1998-07-08 2005-10-18 Ismeca Europe Semiconductor Sa Imaging for a machine-vision system
EP1093562A1 (en) * 1998-07-08 2001-04-25 PPT Vision, Inc. Machine vision and semiconductor handling
JP4115801B2 (ja) * 2002-10-10 2008-07-09 オリンパス株式会社 3次元撮影装置
JP2004212385A (ja) * 2002-12-19 2004-07-29 Olympus Corp 撮影装置とその撮影装置の撮影方法及び制御方法

Patent Citations (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5793208A (en) * 1980-12-01 1982-06-10 Nippon Kogaku Kk <Nikon> Optical system of distance measuring apparatus
US4842411A (en) * 1986-02-06 1989-06-27 Vectron, Inc. Method of automatically measuring the shape of a continuous surface
US5104216A (en) * 1988-12-05 1992-04-14 Igm Industriegerate- Und Maschinenfabriksgesellschaft Mbh Process for determining the position and the geometry of workpiece surfaces
JPH05209728A (ja) * 1991-09-11 1993-08-20 Carl Zeiss:Fa 物体表面を3次元で光学的に測定する方法および装置
JPH05288532A (ja) * 1992-04-06 1993-11-02 Ricoh Co Ltd 立体画像入力装置
JPH06331350A (ja) * 1993-05-27 1994-12-02 Kyocera Corp カメラの測距装置
JPH0791927A (ja) * 1993-08-06 1995-04-07 Murata Mach Ltd 三次元計測装置
JPH07151522A (ja) * 1993-11-29 1995-06-16 Sanyo Electric Co Ltd 電子部品検査装置
JPH07260446A (ja) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd 画像処理装置
JPH09287943A (ja) * 1996-04-18 1997-11-04 Omron Corp 距離測定装置及び安全走行システム
JPH10104527A (ja) * 1996-09-30 1998-04-24 Toyota Central Res & Dev Lab Inc 双眼光学装置
JP2000056412A (ja) * 1998-08-05 2000-02-25 Jiro Sekine 立体画像撮影用アタッチメント
JP2000092517A (ja) * 1998-09-08 2000-03-31 Sanyu Seni:Kk 2、3次元映像取り込み装置
JP2001012925A (ja) * 1999-04-30 2001-01-19 Nec Corp 三次元形状計測方法及び装置並びに記録媒体
JP2003532062A (ja) * 2000-04-25 2003-10-28 インスペック・インコーポレーテッド 立体視、カラーの3dデジタル化、およびモーション・キャプチャの複合システム
US20020044682A1 (en) * 2000-09-08 2002-04-18 Weil Josef Oster Method and apparatus for subject physical position and security determination
DE10149750A1 (de) * 2001-03-09 2002-09-19 Tecmath Ag Handgeführter 3D-Scanner
JP2002366931A (ja) * 2001-06-08 2002-12-20 Nec Corp 形状計測装置およびその方法
US20030072011A1 (en) * 2001-10-09 2003-04-17 Shirley Lyle G. Method and apparatus for combining views in three-dimensional surface profiling
JP2003121126A (ja) * 2001-10-15 2003-04-23 Pentax Corp 3次元画像検出装置及び3次元画像検出用アダプタ
JP2004258266A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
WO2004106857A1 (ja) * 2003-05-29 2004-12-09 Olympus Corporation ステレオ光学モジュール及びステレオカメラ
JP2006528770A (ja) * 2003-07-24 2006-12-21 コグニテンス リミテッド 対象物の3次元表面再構築の方法およびシステム
WO2005010825A2 (en) * 2003-07-24 2005-02-03 Cognitens Ltd. Method and sytem for the three-dimensional surface reconstruction of an object
JP2005077130A (ja) * 2003-08-28 2005-03-24 Olympus Corp 物体認識装置
DE10344051A1 (de) * 2003-09-23 2005-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes
JP2005173091A (ja) * 2003-12-10 2005-06-30 Yasushi Haruta ステレオビュア及びステレオマウントフレーム
JP2005338977A (ja) * 2004-05-25 2005-12-08 Aichi Gakuin 立体画像処理システム
DE102004052199A1 (de) * 2004-10-20 2006-04-27 Universität Stuttgart Streifenprojektions-Triangulationsanordnung zur dreidimensionalen Objekterfassung, insbesondere auch zur dreidimensionalen Erfassung des Gesichts eines Menschen
JP2006177781A (ja) * 2004-12-22 2006-07-06 Matsushita Electric Works Ltd 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム
WO2006094409A1 (en) * 2005-03-11 2006-09-14 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
JP2008533451A (ja) * 2005-03-11 2008-08-21 クリアフォーム インク. 3次元スキャンの自動参照システム及び装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013531237A (ja) * 2010-06-21 2013-08-01 ライカ ジオシステムズ アクチエンゲゼルシャフト 測定対象物表面上の三次元座標を求めるための光学式測定方法および測定システム
JP2016075662A (ja) * 2014-08-19 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company 繊維強化複合材構成要素の製造中の繊維配置検査のためのシステムおよび方法

Also Published As

Publication number Publication date
EP2079981A2 (de) 2009-07-22
EP2079981B1 (de) 2016-03-23
CN101558283A (zh) 2009-10-14
DE102006049695A1 (de) 2008-04-24
WO2008046663A3 (de) 2008-12-11
WO2008046663A2 (de) 2008-04-24
US20100046005A1 (en) 2010-02-25
HK1138638A1 (en) 2010-08-27
US8243286B2 (en) 2012-08-14
CN101558283B (zh) 2012-01-11

Similar Documents

Publication Publication Date Title
JP2010507079A (ja) 三次元輪郭の非接触検出のための装置および方法
USRE46012E1 (en) Non-contact probe
US9329030B2 (en) Non-contact object inspection
US9675429B2 (en) Confocal surface topography measurement with fixed focal positions
US20190191141A1 (en) Motion blur compensation
JPH0616799B2 (ja) 口腔内の歯の三次元測量用光プローブ
US10463243B2 (en) Structured light generation for intraoral 3D camera using 1D MEMS scanning
US11350077B2 (en) Handheld three dimensional scanner with an autoaperture
KR100499697B1 (ko) 3차원형상 측정장치 및 방법
JP3912666B2 (ja) 光学的形状測定装置
JP4858842B2 (ja) 形状測定装置
Turnbull An Investigation of Structured Light Scanner Calibration Degradation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130903