JP5346033B2 - 物体の三次元形状を光学的に測定する方法 - Google Patents

物体の三次元形状を光学的に測定する方法 Download PDF

Info

Publication number
JP5346033B2
JP5346033B2 JP2010533608A JP2010533608A JP5346033B2 JP 5346033 B2 JP5346033 B2 JP 5346033B2 JP 2010533608 A JP2010533608 A JP 2010533608A JP 2010533608 A JP2010533608 A JP 2010533608A JP 5346033 B2 JP5346033 B2 JP 5346033B2
Authority
JP
Japan
Prior art keywords
image
pattern
data
correlation
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010533608A
Other languages
English (en)
Other versions
JP2011504586A (ja
Inventor
フェイファー,ジョアキン
ティエル,フランク
Original Assignee
シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング filed Critical シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング
Publication of JP2011504586A publication Critical patent/JP2011504586A/ja
Application granted granted Critical
Publication of JP5346033B2 publication Critical patent/JP5346033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Description

本発明は、物体の三次元形状の光学的に測定する方法に関し、縞投影法を用いて取得した走査物体の3Dデータに生じるカメラぶれの問題、特に、歯科用目的において、走査する際にカメラと物体との間に相対的な動きがある場合の3D走査のタスクに関する。
通常の印象を生成する必要のない歯科補綴製品のコンピュータ支援製造用デジタルデザインデータは、患者口内の1つ以上の歯を光学的に走査することによって取得することができる。
かかる走査において、三角測量法の原理に基づいた測定方法を利用することが多い。欧州特許第0160797号には位相シフト三角測量法が開示されており、三次元データセットは、画像から画像に変位しているパターンの一連の画像から得られる。
従来の三角測量法では、単一の直線縞の光をプロジェクタによって被走査物体上に投影し、投影画像を観察方向において視差角γでカメラで記録し、画像Pを作成する。
物体の表面構造に応じて、光縞はもはや直線ではなく、その直線形に対して曲がったり、変位したりする。被走査物体の表面構造は、光縞の位置および形状から結論づけられる。
光縞を光縞の配向方向の横方向に動かすことで、物体全体を走査し、画像P1〜PNを作成することができる。個々の画像から得られた走査物体のレリーフデータは、コンピュータのメモリに2次元パターンの形態で保存することができ、これは、基準面としてベース面上に走査物体表面のレリーフ情報を投影することに相当する。走査作業の後、走査物体のデジタル三次元データモデルが得られ、これを、例えば、静止画として画面上に表示することができる。
物体の三次元画像の作成方法は、国際公開第2004/085956 A2号に開示されており、露光Piとほぼ同時に走査物体の表面構造を測定するという手順により上記の走査方法を改良している。
光縞は実際には光の点からなるように、例えば、画像作成(露光)期間中にレーザービームを素早く動かすことで光縞を生成することができる。露光Pi中に、ピンポイントのレーザー光線は、光縞の二次元パターンに沿って、被走査物体に向けられる。ここで、少なくともいくつかの光縞は互いに略平行であり、即ち、方向R1に延びている。光縞間には間隔が設けられる。
露光中に、複数の平行で間隔をあけた光縞またはその部分に沿って被走査物体のレリーフデータを収集する。
従って、すでに得られた画像は、まだ作成されていない三次元データセットの2次元パターンの複数の間隔ラインの第1のグループにおいて、被走査物体のレリーフデータを提供する。
これにより、光縞部分の接線ベクトルは三角測量面に直角ではなく、投影方向と撮影方向とによって画定される。
次の露光中に、レーザービームは、好ましくは同じ光縞パターンに沿って案内されるが、先行画像の後の空間で、平行光縞の配向方向に直角方向で先行画像に対して空間平行変位して案内されることにより、各画像は、被走査物体の異なる隣接部分をカバーする。従って、各画像は、2次元パターンの間隔をあけたラインの別のグループでの被走査物体のレリーフデータを提供する。
複数の走査後、被走査物体の表面全体が網羅されるまで、光縞の配向方向に略直角に各々がずれた光縞パターンを有する複数の適当なマッチング画像を実行することによって、物体全体をレーザーにより走査することができる。所望の精度の表面走査を達成するために、互いに十分近くにある十分な枚数の画像スライスを作成しなければならない。画像を合成することで、2次元パターンのライン毎の被走査物体のレリーフデータが得られる。
個々の画像から得られた独自のレリーフデータは、国際公開第2004/085956 A2号により公知の、露光毎に1つの縞、あるいは、露光毎に複数の離散縞で、各露光中は準静的な縞投影を含む上記の2つの手順により合成される。こうして、被走査物体の3Dデータ全てを表すかまたは含む全体画像を形成する。
カメラと物体間の配向が、例えば、カメラぶれにより個々の露光間で変化する場合、個々の画像の座標系はもはや同じにはならない。しかしながら、カメラと物体間の配向における変化は未知であるため、画像Piの2次元パターンを正しく合成して、例えば、第1の露光の座標系と同じになるように選択される全体画像の共通の二次元パターンを形成することができない。
かかる走査において、カメラぶれとは、個々の露光で測定された被走査物体のスライスがある露光から次の露光ではもはや互いに平行ではないことを意味する。
ボケた個々の画像の二次元パターンのラインに含まれるレリーフデータを合成して共通の二次元パターンを形成する場合、被走査物体の誤った表面構造が得られる。
それにもかかわらず、画像を正確に統合して共通の二次元パターンを形成し、それから被走査物体の正確な三次元画像を得ることを可能にするためには、共通の座標系で個々の画像の座標系を再現する座標変換を測定する必要がある。これをするためには、互いの個々の画像の2次元パターンの配向および/または位置を知る必要がある。
J.Guhringによる論文「3D Erfassung und Objektrekon−struktion mittels Streifenprojektion」(University of Stuttgart、2002)には、カメラぶれを補償する可能な手段がどのように合成画像Pによって表される物体の表面を最小限にするかが述べられている。かかる最小化または同様の処理は、平面または球面などの均一表面によく適しているが、歯などの際立った凹凸(pronounced topography)がある物体の走査には使用が限られている。
本課題は、特に、歯科用目的において、カメラぶれが起こった場合にも十分に正確な3Dモデルを作成する、被走査物体の三次元画像を作成する方法を提供することである。
この目的は、本発明の以下の特徴により達成される。
本発明によれば、3Dデータセットを得るために被走査物体上にパターンを投影する三角測量法によって物体の三次元形状を光学的に測定する方法を提供する。投影パターンは各画像に記録される。少なくとも1枚の第1の画像を作成する第1の工程において、第1のパターンを投影し、少なくとも1枚の別の画像を作成する第2の工程において、位置または形状に関して第1のパターンからずれている別のパターンを被走査物体上に投影して、それぞれの場合において画像を作成する。次の工程において、第1の画像と別の画像とから得られた3Dデータを組み合わせて3Dデータセットに合成する。走査されて記録された物体上に投影したパターンの第1の画像と、走査されて記録された物体上に投影した別のパターンの別の画像とが、2つのパターンが部分的に重なり合い、なおかつ、両方の記録パターンに存在する被走査物体上に少なくとも1つの共通点を含むように、互いに向きを揃えている。これらの画像から得られた3Dデータを、両画像に記録された少なくとも1つの共通点の3Dデータに基づいて合成し、画像から得られた3Dデータが3Dデータセットにおける前記共通点の3Dデータを基準にして少なくとも一致するように3Dデータセットを生成する。
本発明で用いる三角測量法は、以下の原理に基づく。
被走査物体を測定する特定点は、投影ビームによって一方向から照射され、別の方向からセンサによって監視される。
従って、(光源とセンサとを結ぶ)ベースラインと投影ビーム間と、該ベースラインと監視ビーム間との2つの角度が存在する。ベースラインの長さを知ることにより、光源とセンサとを備える走査装置の座標系に対する測定点の座標を決定することができる。
本発明は、平行縞のパターンを被走査物体上に投影する縞投影法を利用し、この手段により複数の測定点を同時に走査できる点が有利である。
測定点の座標を決定するために、測定点をセンサ上の画像座標に割り当てる投影座標が1つ分かっていなければならない。測定点は光縞のそれぞれに割り当てなければならない。
そのような割り当ては、個々の縞の本数を決定するために、センサ上に登録された輝度値のシーケンスを評価することにより縞をカウントすることによって行われる。
あるいは、この割り当ては、バイナリコード法(例えば、グレーコード)を用いて達成できる。ここで、各縞は、縞の本数を表わす輝度値のバイナリシーケンスを含む。このコードを読み取って解釈することで、各縞の本数を決定することができる。
投影座標のより高精度な割り当ては、いわゆる位相シフト法を用いて達成できる。しかしながら、位相シフト法では、少なくとも4枚の個々の位相シフト画像を読み取った後にのみ被走査物体の3Dデータを生成できるため、本発明にはこれを適用しない。
バイナリコード法を用いてカウントすることにより割り当てる利点は、パターンにより照射された領域の3Dデータを個々の露光の直後に生成できることである。
パターンは、単一の縞または複数の平行縞により構成することができる。
第2のパターンは、その位置または形状が第1のパターンからずれている。第2のパターンは、例えば、第1のパターンに対して特定の角度に回転させられても、特定の方向に配置しても、あるいは、異なる形状を有していてもよい。第1のパターンおよび第2のパターンが平行縞からなり、なおかつ、第2のパターンが第1のパターンの平行縞の配向方向に対して直角方向に変位しており、ある角度にも回転させられる場合、第1のパターンおよび第2のパターンの両方に照射される交点が生じる。得られた2枚の画像におけるこれらの共通点は、両方の画像の3Dデータを組み合わせて単一の3Dデータセットを生成するために、相関点として用いられる。
第1のパターンに対する第2のパターンの回転は、第1の露光と第2の露光との間の測定点を中心にして走査装置を手作業で回転させるか、あるいは、パターンを生成する走査装置内のグリッドを回転させることにより達成できる。
従来の方法と異なり、本発明の方法の利点の1つは、手持式走査装置のぶれの動きによって生じる誤差を補正することである。これは、歯面の3Dデータセットの生成に用いられる手持ち式の歯科用口腔内カメラには特に有利である。カメラぶれにより、得られた3D画像に尖頭構造または階段構造などの欠陥が現れる原因となり、3D走査を繰り返さなければならない。
共通点の重なり合いにより、カメラぶれに起因するパターン位置の変化を特定し、補償することができる。
別の利点は、本発明の方法によりオンザフライ測定が可能になる点である。走査装置を被走査物体に対して滑らかに動かすことができ、異なる方向から走査された個々の画像を組み合わせて完全な3Dデータセットを生成することができる。従って、露光中に走査装置を静止させる必要がない。走査装置を物体に対して動かしながら、一連の露光を中断させることなく行うことができる。
別の工程において3回以上の露光を行うことができ、なおかつ、得られた画像の共通点を利用することで、取得した3Dデータを組み合わせて単一の3Dデータセットを生成できる点が有利である。
従って、例えば、第1の工程で露光を1回行い、パターンを回転させた後に、別の露光を4回行うことができる。ここで、縞幅は縞間の距離の1/4であり、パターンは縞幅だけ平行縞に対して、縞の配向方向に対して横方向に変位しているため、被走査物体の表面は完全にカバーされる。
少なくとも1枚の別の画像からの3Dデータの相対位置は、少なくとも1つの共通点の3Dデータに基づいて、第1の走査画像に対して決定できる点が有利である。この相対位置に基づいて、少なくとも1枚の別の画像の3Dデータの位置補正を行うことができる。少なくとも1枚の別の画像の補正3Dデータと、第1の画像の3Dデータとを組み合わせて単一の3Dデータセットを生成する。
これにより、走査装置の不安定な動きに起因する画像欠陥が補正される。共通点は、種々の画像から得られた3Dデータの相対位置を決定するために、補正点として実行される。相対位置を知ることで、3Dデータの位置補正は、例えば、共通点の位置が合うように座標変換によって行われる。
少なくとも1つの共通点の位置は、被走査物体上の少なくとも2つのパターンに記録されるため、検索アルゴリズムを用いて画像の3Dデータを見分けることができる点が有利である。
これにより、種々の画像の共通点が自動的に特定される。画像処理アプリケーションの検索アルゴリズムは、個々の画像の特徴的な形状、被走査物体の表面上の共通点の位置に基づいて決定することができる。
少なくとも1つの共通点を特定するため、検索アルゴリズムとしてICP法またはトポロジーマッチング法を用いることができる点が有利である。
ICP(Iteractive Closest Point(繰り返し最接近点))法は、少なくともいくつかの領域で形態が類似した3Dデータの評価に用いられる。
画像処理に用いる方法は、異なるトポロジーの比較にMRG(Multiresolutional Reeb Graph(多重解像度レーブグラフ))を用いるトポロジーマッチング法である。MRGは、類似した3Dデータセットの検索基準として特によく適している。この方法では、位置の変化、あるいは、いずれの回転の変化を算出する必要がないため、かかる類似性の算出は、この方法で迅速かつ効率的に行われる。
第1のパターンが一方向に延びる平行縞を示し、別のパターンが別の方向に延びる平行縞を示すことができ、この場合、前記別のパターンの平行光縞の前記第2の方向が、少なくとも5°かつ90°以下の所定の角度αで、第1のパターンの平行縞の第1の方向を包囲するので有利である。次いで、共通点が、パターンの光縞が交差する点によって形成される。
これにより、2つのパターンが交差し、共通点が交点で確実に形成される。交点の位置の特定は、角度が5°よりも大きい場合は容易になるが、交点は、最適角度である90°で最もよく見分けることができる。
第2の方向に延びる光縞を含む前記別のパターンの光縞が、第1の方向に延びる光縞を含む第1のパターンの光縞よりも、より大きな個々の縞間の間隔を示すことができる点が有利である。
このようにして、個々の縞間の距離がより大きいことで輝度値の分析が容易になるため、交点はより簡単に特定することができる。
少なくとも1回の露光が第1のグループからなり、第1の方向に実質的に延びる光縞を有するパターンを含む画像を得ることができ、なおかつ、その少なくとも1回の露光が第2のグループからなり、第1の方向とは5°を超える角度αだけ異なる方向に光縞が延びるパターンを含む画像を得ることができる点が有利である。
それにより、3Dデータセットの解像度が改善される。例えば、1回の露光は第1の方向で行い、一連の露光は第2の方向で行うことができる。ここで、パターンは、それぞれの場合において、縞1つの幅だけ変位しており、その結果、走査物体の表面は完全に走査される。第2の方向における第2のグループの各縞パターンは、第1のグループにおける個々の画像との交点を含む。その結果、位置補正を画像毎に行うことができる。
第2の方向に延びる光縞を含む画像の少なくとも第2のグループは、第1の方向に延びる光縞を含む画像の第1のグループよりも小さなグループサイズをもつことができる点が有利である。
方向R1またはR2に延びる一様に配向された光縞をもつ画像のグループに対する光縞間の距離は、積分因子によって光縞幅よりも大きくできる点が有利である。
個々の光縞幅により、3Dデータの解像度が決定する。より高解像度を達成するには、より多くの画像を作成しなければならない。露光を同じ方向で行う場合、パターンは、それぞれの場合において、光縞の配向方向の横方向に光縞幅だけ変位しているので、光縞間の距離は縞幅の数倍である。例えば、光縞間の距離は光縞幅の4倍であり、4回の露光を要する。
第1の方向と第2の方向とのなす角度αが90°であることが有利である。
90°の角度がコンピュータ支援の位置特定に最もよい。
パターンの第1の方向および第2の方向R2の方向ベクトルは、三角測量法によって予め定められた三角測量面に対して30°よりも大きく最大でも90°の角度にできる点が有利である。
三角測量面は、投影ビームと監視ビームとによって画定される。縞投影法が誤りなく機能するには、光縞の方向ベクトルと三角測量面とのなす角度は、0°よりも大きくなければならず、少なくとも30°であることが有利である。90°の角度が画像の作成に最も適している。
第1の方向および第2の方向が、角度βおよび角度γがそれぞれ+60°または−60°までの角度で、三角測量面を取り囲むことができる点が有利である。
従って、第1の方向と第2の方向とのなす角度αは交点の正確な決定に十分であり、第1の方向と三角測量面、および第2の方向と三角測量面とのなす角度βおよび角度γは、それぞれ、縞投影法が誤りなく機能するのに十分である。本発明の方法は、角度αが90°であり、角度βが45°であり、なおかつ、角度γが45°である場合に特に有利である。
第1の画像と別の画像は、物体の同じ測定領域をカバーすることができる点が有利である。
これにより、2つのパターン間の共通点を確実に特定することができる。
第1の露光と別の露光、あるいは、第1のグループの露光と別のグループの露光が、少なくとも100msの時間間隔で行われる点が有利である。
このようにして、露光間のカメラぶれを最小限にする。
走査装置内のグリッドを機械的に調整することによって、パターンを角度αだけ回転させることができる点が有利である。
グリッドを回転させて、光縞の方向を所望の角度αだけ正確に調整することができる。これにより、光縞の配向方向を所定の角度αだけ調整することができる。これは、できる限り90°に近づけるべきである。
走査装置全体を回転させることによって、パターンを角度αだけ回転させることができる点が有利である。
その結果、光縞が第1のグループの露光のものと交差する露光の第2のグループをつくるために第1のグループの露光を行った後に、走査装置を手作業で角度αだけ回転させることができる。このような場合、走査装置は、できる限り90°に近い角度αまで回転させるべきである。本実施形態は、装置全体が回転するので、光縞と三角測量面とのなす角度βおよびγが同じままであり、有利なことに、90°にできるという、調整可能なグリッドを用いた実施形態を上回る利点を有する。
第1のパターンは別のパターンによって部分的に重なり合い、なおかつ、被走査物体上の両方のパターンに共通な少なくとも3つの点を有することができる点が有利である。
共通点の数が多いほど、位置補正は容易になる。
本発明は、3Dデータセットを得るために被走査物体上にパターンを投影し、パターンを画像に記録する、三角測量法によって物体の三次元形状を光学的に走査する代替方法にも関する。少なくとも1枚の第1の画像を作成する第1の工程において、第1のパターンを被走査物体上に投影し、少なくとも1枚の別の画像を作成する第2の工程において、位置または形状に関して第1のパターンからずれている別のパターンを前記物体上に投影して画像を作成し、次の工程において、第1の画像と第2の画像とから得られた3Dデータを組み合わせて3Dデータセットを生成する。さらに、被走査物体上に投影した相関パターンを用いて少なくとも1枚の相関露光を行い、前記第1および第2の画像が、それぞれ、2つのパターンを含む画像に記録される相関画像と少なくとも1つの共通点を示すように、得られた相関画像と、被走査物体上に投影した第1のパターンの第1の画像と、被走査物体上に投影した別のパターンの得られた別の画像とが互いに方向付けられている。画像から得られた3Dデータが、3Dデータセットにおける共通点で相関画像から得られた3Dデータと一致するように、画像と相関画像とにおける少なくとも1つの共通点の3Dデータに基づいて、画像から得られた3Dデータを3Dデータセットと合成する。
第1の実施形態とは異なり、2回の走査露光に加えて相関露光をさらに行い、相関画像のパターンと、第1および第2の画像のパターンとの間の交点を基準にして位置補正を行う。
この手順の利点は、走査物体の表面を完全に走査するために、各露光において光縞1つの幅だけ変位させて、定配向の光縞で一連の露光を行うことができ、なおかつ、得られた相関画像の光縞が得られた第1および第2の画像のものと交差するように、別の方向に向けられた光縞による相関露光を行うことができることである。次いで、共通点に基づいて位置補正を行うことができる。
相関画像における共通点を利用することにより3枚以上の画像を作成することができ、得られた3Dデータを組み合わせて単一のデータセットを生成することができる点が有利である。
従って、例えば、第1の工程で4枚の画像を生成し、パターンを回転させた後に、相関画像を生成することができる。走査物体の表面を完全にカバーするために、縞間の距離は縞幅の4倍になる。
相関画像の3Dデータに対する画像の3Dデータ間の位置関係を決定するため、画像における少なくとも1つの共通点の3Dデータと、相関画像における共通点の3Dデータとを組み込むことができる点が有利である。画像からの3Dデータの位置補正は、前記位置関係に基づいて行われる。次に、少なくとも2枚の画像から得られた補正データを組み合わせて3Dデータセットを提供する。
これにより、走査装置の不安定な動きによって生じる撮像誤差が補正される。種々の画像から得られた3Dデータ間の位置関係を決定するために、画像と相関画像とによって共有される共通点を相関点として利用する。空間関係が分かっている場合、3Dデータの位置補正は、共通点の位置が互いに合っているように、例えば、座標変換によって行う。
一方では、画像の3Dデータにおいて、他方では、相関画像の3Dデータにおいて、少なくとも1つの共通点の実際の位置を検索アルゴリズムによって特定することができる点が有利である。
このようにして、種々の画像の共通点を自動的に特定する。
第1のパターンと別のパターンとは重なり合わないようにできる点が有利である。
これにより、第1のグループの画像における別のパターンが第1の画像のパターンと平行であるが、各パターンは、走査物体の表面全体が走査されるように縞幅だけ変位していることが保証される。
第1のパターンおよび別のパターンは、第1の方向に向けられた平行縞をもつことができる点が有利である。
その結果、第1のパターンおよび第2のパターンの配向は一致する。
別のパターンの平行縞は、第1のパターンのものに対して変位できる点が有利である。
その結果、被走査物体の表面全体を最小の画像数でカバーすることができる。パターンは縞幅だけ変位していることが有利である。
別のパターンの光縞と、第1のパターンの光縞とは、単一の縞幅の数倍の距離まで互いに離すことができる点が有利である。
単一の光縞幅により3Dデータの解像度が決まる。従って、より高解像度を達成するには、より多くの画像を作成しなければならない。
相関パターンは、第1の画像と別の画像とが方向付けられる第1の方向に対して少なくとも5°かつ90°以下の所定の角度αだけ異なる第2の方向に沿って延びている光縞を含むことができる点が有利である。1枚の画像におけるパターンの光縞と、相関画像における相関パターンの光縞との間の交点によって共通点が生成される。
これにより、2つのパターンが交差し、共通点を交点で形成することが保証される。
第2の方向に延びる光縞の相関画像は、第1の方向に延びる第1の画像および別の画像よりも、より大きな光縞間の距離を示すことができる点で有利である。
光縞間の間隔が増すにつれて、輝度値の違いを評価することで交点がより効率的に認識される。
第1の方向と第2の方向とのなす角度αを90°に等しくできる点が有利である。
角度αが90°で、交点を最もよく特定することができる。
画像に対するパターンの第1の方向に関する方向ベクトルと、相関画像に対するパターンの第2の方向に関する方向ベクトルとが、三角測量法によって予め定められた三角測量面に対して、30°よりも大きくかつ90°以下の角度にできる点が有利である。
三角測量面は、測定点上に投影される投影ビームと、測定点からセンサへと導く監視ビームとによって形成される。縞投影法では、縞の方向と三角測量面とのなす角度は少なくとも30°を要し、90°の角度が有利である。
画像の第1の方向は、角度βで三角測量面を取り囲み、相関画像の第2の方向は、角度γが+60°または−60°の角度まで三角測量面を取り囲むことができる点で有利である。
従って、第1の方向と第2の方向とのなす角度αは交点の正確な決定に十分であり、第1の方向と三角測量面、第2の方向と三角測量面とのなす角度βおよびγは、それぞれ、縞投影法を誤りなく機能させるのに十分である。本発明の方法は、角度αが90°であり、角度βが45°であり、なおかつ、角度γが45°である場合に特に有利である。
少なくとも1枚の画像のパターンは相関画像に対する補正パターンによって部分的に重なり合い、なおかつ、走査物体上のパターンおよび相関パターンに共通な少なくとも3つの点を有することができる点が有利である。
共通点の数が多いほど、位置補正は容易になる。
基本的な原理は、適切で、部分的に重複したデータを得ることであり、これにより、個々の画像における2次元パターンの相対位置を再構築することができる。これらの相対位置が分かる場合、個々の画像から得られたレリーフデータを合成して、適当な全体画像を形成することができる。
重複データは、個々の画像間の相関度を可能な限り最も高くするため可能な限り最小のデータを用いて、記憶装置の要求と、データ取得に必要な時間とが両方とも最小限になるようにすべきである。
本発明は、個々の画像の少なくとも1枚を作成中に、他の個々の画像における光縞が実質的に方向付けられている第1の方向から非ゼロ角度αだけ実質的に異なる第2の方向に実質的に向けられた1つ以上の光縞によって被測定物体を走査するという考えに基づいている。
この少なくとも1枚の画像は、パターンが別の方向に延びているものの1枚か、あるいは、相関画像であってもよい。第1の場合では、全ての画像から得られた全ての3Dデータを組み合わせてデータセットを生成する。第2の場合では、交点を特定し、位置補正を行うためにのみ相関画像を用いる。
少なくとも1回の露光は、他の露光と同様、物体上の同じ領域をカバーするので、他の画像に存在する点と同じ被測定物体の点が、少なくとも1枚の画像から得られた3Dデータに存在する。従って、物体表面の特定点、すなわち、少なくとも1枚の画像の2次元パターンの光縞と、他の画像の2次元パターンの光縞とが交差する点は、少なくとも2回画像化される。これらの交点は共通点と呼ばれる。
少なくとも1枚の画像と他の画像とのなす角度αは、カメラぶれに起因する部分以外は分かっているため、これらの共通点に基づいて、全ての画像の2次元パターンの相対位置間の相関関係を確立することができる。相関画像と1枚の他の画像とからなる任意のペアの画像の共通点におけるレリーフ情報が可能な限り最もよく一致するように2次元パターンを適当に調整し、適応させた後、個々の画像から得られた3Dデータを組み合わせて単一の3Dデータセットを生成することができる。
以下、図面を参照して、本発明に係る実施形態を説明する。
歯科用口腔内カメラと歯を走査するための走査装置とを示す、本発明の方法の概略図である。 配向が異なる5枚の画像を示す被走査物体の表面領域を示す図である。 第1の方向と第2の方向とのなす角度αが40°である2枚の画像のパターンの概略図である。 第1の方向と第2の方向とのなす角度αが90°である2枚の画像のパターンの概略図である。 角度αが45°で、第2のパターンにおける光縞間の距離が第1のパターンのものよりも広い、第2の画像の第1のパターンと第2のパターンとの概略図である。 4枚の異なる画像を組み合わせ、角度αが90°であり、なおかつ、三角測量面に対する角度βおよびγが45°である相関画像により単一画像を形成した概略図である。
図1は、光源2と、センサ3と、グリッド4と、ピボットミラー5とを備えた走査装置1として歯科用口腔内カメラを示す図である。光源2は投影ビーム6を発し、該投影ビーム6はグリッド4を通過し、ピボットミラー5によって物体7、すなわち、被走査歯面上に向けられる。グリッド4は、三角測量面8に直角なスリット4.1を有しているため、平行縞10を備えた構造化パターン9が被走査物体7の表面上に投影される。構造化パターン9は概略的にのみ示しており、被走査物体7上の光縞10の実際の投影は表していない。
投影ビーム6は、物体7の表面によって反射され、監視ビーム11として逆投影される。監視ビーム11は、センサ3に向けられ、これにより検出される。三角測量面8は、投影ビーム6と監視ビーム11とによって画定される。投影ビーム6は、監視ビーム11とで、いわゆる三角測量角12で包囲する。センサによって取得された画像データは、評価部13として機能するコンピュータに送られる。該評価部13は、表示部14としてモニターと、入力部15として機能するキーボードとマウスとを備える。
ピボットミラー5は、軸16を中心に回動可能なため、パターン9は、三角測量面8において方向17に順次移動する。本発明の方法によれば、物体7の表面が完全に走査されるまで、各露光間でパターン9を方向17に縞幅だけ動かして複数の画像を得る。評価部13によって個々の画像から3Dデータを算出する。かかる算出は三角測量法の原理を用いて行われ、走査装置の座標系に対する測定点の座標は、光源とセンサとを結ぶベースラインと投影ビームとの間、該ベースラインと監視ビームとの間の2つの角度と、ベースラインの長さとから決定される。
次いで、個々の画像から得られた3Dデータを組み合わせて単一の3Dデータセットを生成し、3D画像18として表示部14上に表示する。
従来の三角測量手順では、走査中にユーザに起因する走査装置1のカメラぶれは、画像に欠陥を引き起こし、3D画像18において尖頭構造または階段構造として現れる。これらの欠陥は、データを合成して完全な3Dデータセットを生成する際に、個々の露光間のパターン位置における変化を考慮していないために生じる。
本発明の方法は、個々の画像について位置補正を行うことによりこの問題を解決する。これは以下の通りに行われる:グリッド4は、グリッドの軸19を中心にして方向20に切り替えることができる。グリッド4が軸19を中心にして切り替わると、投影パターン9も被走査物体7に対して回転する。その結果、物体7の表面を完全にカバーするために、パターン9の光縞10が第1の方向R1に延びている状態で複数の画像が生成され、その後、グリッド4が切り替わり、パターン9’における第2の方向R2の光縞10’で別の画像が生成される。この別の画像は、先に生成された画像との交点を示し、位置補正に使用される。
図2は、被走査物体7の表面領域の概略図である。物体7上のパターン9の平行光縞10の実方向を示す鎖線によって表される最初の4枚の画像31、32、33、および34は、グリッド4の第1の位置で方向R1において生成され、その後、光縞パターンの配向を示す鎖線によって表される別の画像35が生成される。該画像35は、グリッド4を90°の角度αだけ切り替えた後に、方向R2に配置されたグリッド4により生成される。
ユーザによって走査装置1がブレるたびに、投影パターン9もブレるため、画像31、32、33、および34の光縞は互いに平行ではなく、部分的に重なり合う。画像35の光縞が画像31、32、33、および34のものと交差すると、交点36の3Dデータは画像31および画像35の両方に記録される。交点37において、画像32と35の3Dデータが記録される。交点38の3Dデータは画像33と35に記録される。交点38の3Dデータは画像34と35に記録される。その結果、これらの交点は、画像35に存在する個々の画像31、32、33、および34の共通点である。共通点36、37、38、および39が個々の画像31、32、33、および34で特定された後、互いの画像の相対位置を決定し、ユーザによる走査装置1のブレから生じた画像欠陥を補償するために位置補正を行う。
図3は、光縞10が方向R1に向けられた第1のパターン9を示す第1の画像40と、光縞10’が第2の方向R2に向けられた第2のパターン9’を示す第2の画像41との概略図である。第1の方向R1と第2の方向R2とのなす角度αは40°である。被走査物体7、すなわち、歯は、上面図で示されている。物体7は、前記第1の画像40の測定領域42と、第2の画像41の測定領域43との両方の内側にあるように配置される。第1のパターン9の光縞10は、交点44で第2のパターン9’の第1の縞10’と交差しており、該交点44は画像40および41の共通点である。これらの共通点44に基づいて、前記第1の画像40に対する第2の画像41の相対位置を決定し、相対位置を考慮しながら、画像40および41から得られた3Dデータを組み合わせて単一の3Dデータセットを生成することができる。第1の画像40における光縞10間の第1の距離d1と、第2の画像41における光縞10’間の第2の距離d2は同じである。
方向R1およびR2における各画像40および41において、光縞10および10’は図1に示す三角測量面8に平行ではない。これは、三角測量法に基づいて縞投影法を正しく機能させるのに不可欠である。この場合、三角測量面8と方向R1とのなす角度βは45°であり、三角測量面8と方向R2とのなす角度γは45°である。
図3と同様にして、図4は、光縞10が方向R1に向けられた第1のパターン9をもつ第1の画像40と、光縞10’が第2の方向R2に向けられた第2のパターン9’をもつ第2の画像41との概略図である。第1の方向R1と第2の方向R2とのなす角度αは90°である。
交点44は、2枚の画像40および41間の類似点に対応する。
各画像40および41において、走査光縞の接線ベクトル、すなわち、光縞10および10’の方向R1およびR2は、図1に示す三角測量面8に平行ではない。この場合、方向R1と三角測量面8とのなす角度βは45°であり、方向R2と三角測量面8とのなす角度γは45°である。
画像の第1のグループG1において、光縞は方向R1に実質的に向けられており、画像の第2のグループG2において、光縞は方向R2に実質的に向けられているとも考えられる
一般に、光縞が方向R1に向けられた画像のグループか、あるいは、光縞が方向R2に向けられた画像のグループに属していても、任意の画像は1つ以上の光縞を含み得る。
略平行な光縞間の距離d1およびd2は、全画像において同一である必要はない。
画像のグループにおける光縞間の間隔は方向R1またはR2で同一であるときに有利である。
重複データの記録に使用される、光縞が方向R2に向けられた画像のグループが、被走査物体の表面構造を正確に測定するためのものである、光縞が方向R1に向けられた画像のグループよりもより大きな光縞間の間隔、もしくは、より小さなグループサイズをもつときに特に有利である。
角度αが90°である場合、輝度値の違いをコンピュータ支援分析することによって共通点44を最もよく特定することができるため、角度αが90°で示した実施形態は好適な実施形態である。
角度βが45°であり、角度γが45°である実施形態についても、これらの角度は縞投影法をうまく用いるのに十分であるため、好適な実施形態である。
図3および図4と同様にして、図5は、第1の方向R1と第2の方向R2とのなす角度αが45°である2枚の画像40および41を示す。第2の画像41における光縞10’間の距離d2は、前記第1の画像40における光縞10間の第1の距離d1よりも大きい。この好適な実施形態は、第2の方向R2における第2の画像41が、第1の画像40における光縞10の本数よりも光縞10’の本数が少ないという利点を有する。従って、算出する必要がある交点44の数はより少なくなる。方向R2における第2の画像41または画像の第2のグループG2は位置補正の相関としてのみの役割を果たし、方向R1における第1の画像40または画像の第1のグループG1は、走査物体の表面構造を正確に測定するための役割を果たす。
さらに、物体7上の被走査領域は第1のパターンによって完全にカバーされるが、第2のパターン9’は物体7上の被走査領域を部分的にのみカバーされる。その結果、交点44は、2枚の画像9および9’の重なり領域内だけにあり、物体7上の被走査領域の一部しかカバーしない。それにもかかわらず、画像9および9’間の位置関係はこれらの交点に基づいて決定することができる。従って、方向R2における別の画像41が画像40における被走査領域を完全にカバーする必要がなくなる。
図6は、どのように4枚の画像を組み合わせて単一の全体画像を形成するかを模式的に示す。第1の画像50では、パターン9.1は第1の位置であり、第1の方向R1に向けられた光縞10.1によって形成される。第2の画像51では、パターン9.2は第2の位置であり、方向R1に向けられているが、図1に示す方向17において縞幅tだけ光縞10.1に対して変位している光縞10.2によって形成される。第3の画像52では、パターン9.3は第3の位置にあり、方向R1に向けられているが、図1に示す方向17において縞幅tだけパターン9.2に対して変位している光縞10.3によって形成される。第4の画像53では、パターン9.4は第4の位置にあり、方向R1に向けられているが、図1に示す方向17において縞幅tだけパターン9.3に対して変位している光縞10.4によって形成される。
相関画像は第5の画像54として形成され、その光縞10.5は第2の方向R2に向けられている。R1とR2とのなす角度αは90°であるが、角度βは45°であり、角度γは45°である。
パターン9.1、9.2、9.3、および9.4の光縞間の距離d1は光縞幅tの4倍であるため、被走査物体7の表面は、4枚の画像50、51、52、および53によって完全にカバーされる。第5の画像54は、最初の4枚の画像の相関関係に対する共通の交点44を特定するための相関画像としてのみ役割を果たす。
第5の画像54における光縞10.5間の第2の距離d2は、示した実施形態における距離d1と等しいが、該距離d1よりも大きくてもよい。
従って、個々の画像50、51、52、および53は、完全な合成画像55に存在するデータの1/4を含む。4枚の画像を組み合わせるだけで、所与の離散化という状況において、2次元パターン9によって全被走査領域をカバーする。
これらの個々の画像50、51、52、および53間でカメラぶれがなかった場合、すなわち、走査作業中に走査装置1と物体7との間の相対位置が著しく変化しなかった場合にのみ、画像50、51、52、および53を組み合わせて、融合画像55を意味をなすように形成し、なおかつ、所与の離散化という状況において、被測定物体7の正しい表面を生成することができる。従って、画像50、51、52、および53の座標系は全く同じままである。その場合にのみ、個々の画像50、51、52、および53における2次元パターンの光縞10.1、10.2、10.3、および10.4の3Dデータ間の相関関係を確立し、共通の2次元パターンを、被走査物体7の正しい3Dデータを含む全体画像55に融合することができる。
個々の画像50、51、52、および53の作成中に走査装置1と物体7との間の位置関係が、例えば、カメラぶれにより変化した場合、個々の画像50、51、52、および53の座標系はもはや同一ではない。走査装置1と物体7との間の配向の変化は分からないため、画像50、51、52、および53の2次元パターンを正しく融合して全被走査領域の全体画像55を形成することができない。
かかる走査において、カメラぶれとは、個々の画像50、51、52、および53に記録される被走査物体のスライスが、ある画像から次の画像に対して互いに平行ではないことを意味している。これは図2に概略的に示されている。例えば、第2の露光51中、物体7の部分は、回転しているか、あるいは、第1の画像50の光縞10.1に対して変位している光縞10.2に沿って走査される。その結果、各画像50、51、52、および53は、僅かに変位しているか回転している物体7の3Dデータの一部を含んでしまう。
画像50、51、52、および53の2次元パターンの光縞10.1、10.2、10.3、および10.4に含まれるこれらのデータを組み合わせて融合画像55を形成すれば、得られる物体7の表面構造は誤ったものとなる。
これらの撮像誤差は位置補正によって回避できる。これをするためには、どの座標変換が画像50、51、52、および53の座標系を共通の座標系上で再現するのかを決定する必要がある。このため、個々の画像における2次元パターン9.1、9.2、9.3、および9.4の互いの相対配向および/または位置が分かっていなければならない。これは、相関点の役割を果たす交点44を特定することによって行われる
1)走査装置、2)光源、3)センサ、4)グリッド、4.1)スリット、5)ピボットミラー、6)投影ビーム、7)被走査物体、8)三角測量面、9)パターン、9’)パターン、9.1)パターン、9.2)パターン、9.3)パターン、9.4)パターン、10)平行光縞、10’)光縞、10.2)光縞、10.3)光縞、10.4)光縞、10.5)光縞、11)監視ビーム、12)三角測量角、13)評価部、14)表示部、15)制御部、17)方向、18)3D画像、19)グリッド軸、20)方向、30)セクション、31)画像、32)画像、33)画像、34)画像、35)画像、36)交点、37)交点、38)交点、39)交点、40)第1の画像、41)第2の画像、42)測定領域、43)測定領域、44)交点、50)第1の画像、51)第2の画像、52)第3の画像、53)第4の画像、54)第5の画像55)全体画像/全体3Dデータセット、R1)第1の方向、R2)第2の方向、d1)第1の距離、d2)第2の距離、G1)第1のグループ、G2)第2のグループ、t)光縞幅

Claims (11)

  1. 三角測量法によって物体の三次元形状を光学的に走査するための方法であって、3Dデータセットを得るために被走査物体(7)上にパターン(9.1、9.2、9.3、9.4)投影され投影されたパターン(9.1、9.2、9.3、9.4)画像(50、51、52、53)に記録され、少なくとも1枚の第1の画像(50)を作成する第1の工程において、第1のパターン(9.1)前記被走査物体(7)上に投影され、少なくとも1枚の別の画像(51、52、53)を作成する第2の工程において、位置または形状に関して前記第1のパターン(9.1)からずれている別のパターン(9.2、9.3、9.4)前記被走査物体(7)上に投影されて前記別の画像(51、52、53)作成され、次の工程において、前記第1の画像(50)と前記別の画像(51、52、53)とから得られた3Dデータが、3Dデータセット(18)を生成するように合成されるのに対し、前記被走査物体(7)上に投影された相関パターン(9.5)を含む少なくとも1枚の相関画像(54)作成され、前記第1の画像(50)および前記別の画像(51、52、53)が、前記相関画像(54)との少なくとも1つの共通点(44)をそれぞれ有し、前記少なくとも1つの共通点(44)が、前記相関パターン(9.5)と前記第1のパターン(9.1)もしくは前記別のパターン(9.2、9.3、9.4)の両方に照射され、なおかつ、それぞれ、前記パターン(9.1、9.2、9.3、9.4)の前記画像(50、51、52、53)と、前記相関パターン(9.5)の前記相関画像(54)とにおいて前記被走査物体(7)上に記録されるように、前記相関パターン(9.5)の前記相関画像(54)と、前記物体(7)上に投影された前記第1のパターン(9.1)の前記第1の作成画像(50)と、前記物体(7)上に投影された前記別のパターン(9.2、9.3、9.4)の前記別の画像(51、52、53)とが互いに方向付けられており、前記画像(50、51、52、53)および前記相関画像(54)における前記少なくとも1つの共通点(44)の3Dデータに基づいて前記画像(50、51、52、53)から得られた3Dデータが、前記画像(50、51、52、53)から得られた前記3Dデータが前記共通点(44)で前記相関画像(54)の3Dデータからなる前記3Dデータセット(18)と位置が合っているように前記3Dデータセット(18)を生成するように合成され、前記パターン(9.1、9.2、9.3、9.4)が前記画像(50、51、52、53)の前記パターン(9.1、9.2、9.3、9.4)が方向付けられている方向R1に向けられた平行光縞を示し、前記相関パターン(9.5)が、前記方向R1に対して少なくとも5°かつ90°以下の所与の角度αだけ異なる方向R2に向けられた光縞(10.5)を示し、前記共通点(44)が、前記画像(50、51、52、53)における前記パターン(9.1、9.2、9.3、9.4)の光縞(10.1、10.2、10.3、10.4)と、前記相関画像(54)における前記相関パターン(9.5)の光縞(10.5)との間の交点により生成され、なおかつ、前記方向(R2)に向けられた光縞を含む前記相関画像(54)が、前記方向(R1)に向けられた光縞(d1)を含む前記画像(50、51、52、53)よりも、前記光縞のより大きな間隔を示すことを特徴とする方法。
  2. 前記画像(50、51、52、53)のうち2枚以上が作成され、それらから得られた3Dデータが、前記相関画像(54)の前記共通点(44)に基づいて3Dデータセットを生成するように合成されることを特徴とする請求項1に記載の方法。
  3. 前記画像(50、51、52、53)における前記少なくとも1つの共通点(44)の3Dデータと、前記相関画像(54)における前記共通点(44)の3Dデータとに基づいて、前記画像(50、51、52、53)の3Dデータと、前記相関画像(54)の3Dデータとの位置関係決定され、前記位置関係に基づいて、前記画像(50、51、52、53)の3Dデータの位置補正われ、前記画像(50、51、52、53)のうち少なくとも2枚の補正3Dデータが、3Dデータセットを生成するように合成されることを特徴とする請求項1または請求項2に記載の方法。
  4. 一方では、前記画像(50、51、52、53)の3Dデータにおいて、他方では、前記相関画像(54)の3Dデータにおいて、前記少なくとも1つの共通点(44)の実際位置検索アルゴリズムによって特定されることを特徴とする請求項1〜3のいずれか1項に記載の方法。
  5. 前記第1のパターン(9.1)と前記別のパターン(9.2、9.3、9.4)とが重なり合っていないことを特徴とする請求項1〜4のいずれか1項に記載の方法。
  6. 前記別のパターン(9.2、9.3、9.4)の平行光縞(10.2、10.3、10.4)が、前記第1のパターン(9.1)の平行光縞(10.1)からずれていることを特徴とする請求項1〜5のいずれか1項に記載の方法。
  7. 前記別のパターン(9.2、9.3、9.4)の前記光縞(10.2、10.3、10.4)と、前記第1のパターン(9.1)の前記光縞(10.1)とが、所要の解像度に必要な距離で互いに離間されていることを特徴とする請求項6に記載の方法。
  8. 前記方向R1前記方向(R2)とのなす角αが90°であることを特徴とする請求項1〜7のいずれか1項に記載の方法。
  9. 前記パターン(9.1、9.2、9.3、9.4)および前記相関パターン(9.5)の前記方向(R1、R2)に関する方向ベクトルが、前記三角測量法によって定められた三角測量面(8)に対して、0°よりも大きくかつ90°以下の角度(β、γ)であることを特徴とする請求項1〜8のいずれか1項に記載の方法。
  10. 前記方向(R1)および前記方向(R2)が、角度(β)および角度(γ)が+60°または−60°までの角度で、前記三角測量面(8)を取り囲むことを特徴とする請求項9に記載の方法。
  11. 記画像(50、51、52、53)のうち少なくとも1枚における前記パターン(9.1、9.2、9.3、9.4)が、前記相関画像(54)における前記相関パターン(9.5)によって部分的に重なり合い、前記パターン(9.1、9.2、9.3、9.4)の画像と、前記相関パターン(9.5)の画像とに記録される、前記被走査物体(7)上の少なくとも3つの共通点(44)を示すことを特徴とする請求項1〜10のいずれか1項に記載の方法。
JP2010533608A 2007-11-15 2008-11-14 物体の三次元形状を光学的に測定する方法 Active JP5346033B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102007054906A DE102007054906B4 (de) 2007-11-15 2007-11-15 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
DE102007054906.9 2007-11-15
US98857007P 2007-11-16 2007-11-16
US60/988,570 2007-11-16
PCT/EP2008/065626 WO2009063087A2 (en) 2007-11-15 2008-11-14 Method for optical measurement of the three dimensional geometry of objects

Publications (2)

Publication Number Publication Date
JP2011504586A JP2011504586A (ja) 2011-02-10
JP5346033B2 true JP5346033B2 (ja) 2013-11-20

Family

ID=40576795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010533608A Active JP5346033B2 (ja) 2007-11-15 2008-11-14 物体の三次元形状を光学的に測定する方法

Country Status (5)

Country Link
US (1) US8280152B2 (ja)
EP (1) EP2212645B1 (ja)
JP (1) JP5346033B2 (ja)
DE (1) DE102007054906B4 (ja)
WO (1) WO2009063087A2 (ja)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054906B4 (de) * 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
JP5016520B2 (ja) * 2008-02-26 2012-09-05 パナソニック株式会社 3次元形状計測方法および装置
WO2009113068A1 (en) * 2008-03-12 2009-09-17 Optimet, Optical Metrology Ltd. Intraoral imaging system and method based on conoscopic holography
US20110273443A1 (en) * 2008-08-22 2011-11-10 Nippon Telegraph And Telephone Corp. System and a method for three-dimensional modeling of a three-dimensional scene features
CA2957077C (en) * 2009-06-01 2019-07-02 Gerd Hausler Method and device for three-dimensional surface detection with a dynamic reference frame
US8878905B2 (en) 2009-06-17 2014-11-04 3Shape A/S Focus scanning apparatus
US20110123098A1 (en) * 2009-11-24 2011-05-26 Maurice Moshe Ernst System and a Method for Three-dimensional Modeling of a Three-dimensional Scene Features with a Cooling System
KR101043976B1 (ko) * 2009-12-15 2011-06-24 데오덴탈 주식회사 구강용 스캐너
EP2533679B1 (en) * 2010-02-12 2017-01-11 Koninklijke Philips N.V. Laser enhanced reconstruction of 3d surface
DE102010036841A1 (de) 2010-08-04 2012-02-09 Charité - Universitätsmedizin Berlin Verfahren zum Erzeugen einer digitalen Zahntopologie für eine Zahnstruktur sowie Messverfahren
AU2010257224B2 (en) * 2010-12-15 2014-09-18 Canon Kabushiki Kaisha Block patterns as two-dimensional ruler
AT511223B1 (de) * 2011-03-18 2013-01-15 A Tron3D Gmbh Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten
DE102011101476B4 (de) * 2011-05-11 2023-05-25 Cognex Ireland Ltd. Verfahren zur 3D-Messung von Objekten
DE102011080180B4 (de) * 2011-08-01 2013-05-02 Sirona Dental Systems Gmbh Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
US9349182B2 (en) * 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
US20150079534A1 (en) * 2012-02-15 2015-03-19 Media Co., Ltd. Apparatus for imaging dental arch in oral cavity
JP5995484B2 (ja) * 2012-03-30 2016-09-21 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法、及びプログラム
DE102012220048B4 (de) * 2012-11-02 2018-09-20 Sirona Dental Systems Gmbh Kalibrierungsvorrichtung und Verfahren zur Kalibrierung einer dentalen Kamera
DE102014104993A1 (de) 2013-06-24 2014-12-24 Qioptiq Photonics Gmbh & Co. Kg Dentalmessvorrichtung zur dreidimensionalen Vermessung von Zähnen
US9772173B2 (en) * 2013-06-27 2017-09-26 Faro Technologies, Inc. Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera
US9860520B2 (en) * 2013-07-23 2018-01-02 Sirona Dental Systems Gmbh Method, system, apparatus, and computer program for 3D acquisition and caries detection
JP6184289B2 (ja) * 2013-10-17 2017-08-23 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法、三次元画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2015109387A1 (en) * 2014-01-21 2015-07-30 Vorum Research Corporation Method and system for generating a three-dimensional scan of an object
EP2904988B1 (de) * 2014-02-05 2020-04-01 Sirona Dental Systems GmbH Verfahren zur intraoralen dreidimensionalen Vermessung
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
JP6535020B2 (ja) * 2014-03-02 2019-06-26 ブイ.ティー.エム.(バーチャル テープ メジャー)テクノロジーズ リミテッド 内視鏡画像内で可視の物体の3d距離および寸法を測定するシステム
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
CN106796727B (zh) 2014-08-28 2020-05-12 锐珂牙科技术顶阔有限公司 使用光学多线法的3d口腔内测量
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US11553844B2 (en) 2014-10-14 2023-01-17 East Carolina University Methods, systems and computer program products for calculating MetaKG signals for regions having multiple sets of optical characteristics
CN107257655B (zh) 2014-10-14 2020-06-16 东卡罗莱娜大学 用于利用从多谱段血液流动和灌注成像获取的信号确定血液动力学状态参数的方法、系统和计算机程序产品
US10722173B2 (en) 2014-10-14 2020-07-28 East Carolina University Methods, systems and computer program products for visualizing anatomical structures and blood flow and perfusion physiology using imaging techniques
DE112015005020T5 (de) 2014-11-05 2017-07-27 Trw Automotive U.S. Llc Verbesserte objektdetektion unter verwendung von strukturiertem licht
US9506744B2 (en) 2014-12-16 2016-11-29 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
WO2017125926A2 (en) 2016-01-18 2017-07-27 Dentlytec G.P.L. Ltd Intraoral scanner
US10058256B2 (en) 2015-03-20 2018-08-28 East Carolina University Multi-spectral laser imaging (MSLI) methods and systems for blood flow and perfusion imaging and quantification
US10390718B2 (en) 2015-03-20 2019-08-27 East Carolina University Multi-spectral physiologic visualization (MSPV) using laser imaging methods and systems for blood flow and perfusion imaging and quantification in an endoscopic design
WO2016171263A1 (ja) * 2015-04-22 2016-10-27 新日鐵住金株式会社 形状測定装置及び形状測定方法
US10159542B2 (en) 2015-05-01 2018-12-25 Dentlytec G.P.L. Ltd. System, device and methods for dental digital impressions
JP2018538107A (ja) * 2015-09-23 2018-12-27 イースト カロライナ ユニバーシティ 発光体を使用して物体距離及びターゲット寸法を測定する方法、システム、及びコンピュータプログラム製品
KR102482062B1 (ko) * 2016-02-05 2022-12-28 주식회사바텍 컬러 패턴을 이용한 치과용 3차원 스캐너
US11690604B2 (en) 2016-09-10 2023-07-04 Ark Surgical Ltd. Laparoscopic workspace device
CN106580506B (zh) * 2016-10-25 2018-11-23 成都频泰医疗设备有限公司 分时三维扫描系统和方法
CN110177995A (zh) * 2016-11-21 2019-08-27 锐珂牙科技术顶阔有限公司 3d口内表面表征
EP3648703B1 (en) 2017-07-04 2023-04-26 Dentlytec G.P.L. Ltd. Dental scanner with ultrasonic sensor component for augmentation of optical data
EP3658069A4 (en) 2017-07-26 2021-03-24 Dentlytec G.P.L. Ltd. INTRA-ORAL SCANNER
EP3692396A4 (en) * 2017-10-08 2021-07-21 Magik Eye Inc. DISTANCE MEASUREMENT USING A LONGITUDINAL GRID PATTERN
US10835352B2 (en) * 2018-03-19 2020-11-17 3D Imaging and Simulation Corp. Americas Intraoral scanner and computing system for capturing images and generating three-dimensional models
CN109186493B (zh) * 2018-04-17 2021-02-19 苏州佳世达光电有限公司 三维扫描系统
WO2019236563A1 (en) 2018-06-06 2019-12-12 Magik Eye Inc. Distance measurement using high density projection patterns
US10986328B2 (en) 2018-06-08 2021-04-20 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a camera
JP7297891B2 (ja) 2018-07-19 2023-06-26 アクティブ サージカル, インコーポレイテッド 自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法
JP6701277B2 (ja) * 2018-08-01 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
TWI676781B (zh) * 2018-08-17 2019-11-11 鑑微科技股份有限公司 三維掃描系統
BR102018016952A2 (pt) * 2018-08-18 2020-03-10 Insfor - Innovative Solutions For Robotics Ltda - Me Sistema de inspeção e monitoramento de tubulações em movimento
TWI704907B (zh) * 2018-11-29 2020-09-21 財團法人金屬工業研究發展中心 牙體建模裝置以及牙體建模方法
US11483503B2 (en) 2019-01-20 2022-10-25 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
WO2020197813A1 (en) 2019-03-25 2020-10-01 Magik Eye Inc. Distance measurement using high density projection patterns
KR20220021920A (ko) 2019-04-08 2022-02-22 액티브 서지컬, 인크. 의료 이미징을 위한 시스템 및 방법
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11450083B2 (en) * 2019-09-27 2022-09-20 Honeywell International Inc. Dual-pattern optical 3D dimensioning
WO2021113135A1 (en) 2019-12-01 2021-06-10 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
DE102020133627A1 (de) 2020-12-15 2022-06-15 Infinisense Technologies GmbH Verfahren und Intraoralscanner zum Erfassen der Topographie der Oberfläche eines transluzenten, insbesondere dentalen, Objektes

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH665551A5 (de) * 1984-03-06 1988-05-31 Werner Hans Dr Med De Moermann Rohling zur herstellung zahntechnischer formteile.
DE4007502A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
GB9116151D0 (en) * 1991-07-26 1991-09-11 Isis Innovation Three-dimensional vision system
DE4416108C2 (de) * 1994-05-06 2000-05-11 Fraunhofer Ges Forschung Vorrichtung zum berührungsfreien Vermessen einer Objektoberfläche
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
DE19638758A1 (de) * 1996-09-13 1998-03-19 Rubbert Ruedger Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US5946645A (en) * 1997-04-09 1999-08-31 National Research Council Of Canada Three dimensional imaging method and device
US6219063B1 (en) * 1997-05-30 2001-04-17 California Institute Of Technology 3D rendering
DE19747061B4 (de) * 1997-10-24 2005-02-10 Mähner, Bernward Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
AU3991799A (en) * 1998-05-14 1999-11-29 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
CA2278108C (en) * 1999-07-20 2008-01-29 The University Of Western Ontario Three-dimensional measurement method and apparatus
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
JP2002164066A (ja) * 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP3962588B2 (ja) * 2002-01-07 2007-08-22 キヤノン株式会社 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
ATE380997T1 (de) * 2002-10-18 2007-12-15 Aepsilon Rechteverwaltungs Gmb Vorrichtungen und verfahren zur oberflächenerfassung und zur herstellung von zahnersatzteilen
ES2324658T3 (es) * 2002-12-31 2009-08-12 D4D Technologies Llc. Sistema digitalizador por laser para aplicaciones dentales.
WO2004085956A2 (en) 2003-03-24 2004-10-07 D3D, L.P. Laser digitizer system for dental applications
US7330577B2 (en) * 2004-01-27 2008-02-12 Densys Ltd. Three-dimensional modeling of the oral cavity by projecting a two-dimensional array of random patterns
JP4525240B2 (ja) * 2004-08-23 2010-08-18 富士ゼロックス株式会社 3次元画像入力装置および方法
US7657081B2 (en) * 2004-09-03 2010-02-02 National Research Council Of Canada Recursive 3D model optimization
ATE421077T1 (de) * 2004-10-29 2009-01-15 Degudent Gmbh Verfahren und vorrichtung zur erfassung von konturdaten und/oder optischen eigenschaften eines dreidimensionalen semitransparenten objekts
DE602006016013D1 (de) * 2005-11-28 2010-09-16 3Shape As Codiertes strukturiertes licht
US7978892B2 (en) * 2006-10-25 2011-07-12 D4D Technologies, Llc 3D photogrammetry using projected patterns
USRE46012E1 (en) * 2007-08-17 2016-05-24 Renishaw Plc Non-contact probe
DE102007054906B4 (de) * 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten

Also Published As

Publication number Publication date
JP2011504586A (ja) 2011-02-10
WO2009063087A3 (en) 2009-09-24
US20100209002A1 (en) 2010-08-19
US8280152B2 (en) 2012-10-02
EP2212645B1 (en) 2018-06-06
EP2212645A2 (en) 2010-08-04
WO2009063087A2 (en) 2009-05-22
DE102007054906B4 (de) 2011-07-28
DE102007054906A1 (de) 2009-05-28

Similar Documents

Publication Publication Date Title
JP5346033B2 (ja) 物体の三次元形状を光学的に測定する方法
JP5583761B2 (ja) 動的基準フレームを用いた3次元表面検出方法及び装置
US10064553B2 (en) Detection of a movable object when 3D scanning a rigid object
US8160334B2 (en) Method for optical measurement of objects using a triangulation method
JP5943547B2 (ja) 非接触測定を行う装置および方法
JP5106418B2 (ja) 口腔内の3次元モデリング
JP2013504752A (ja) 非接触物体検査
JP6293122B2 (ja) 歯の状況の測定方法
JP2008145139A (ja) 形状計測装置
JP5746046B2 (ja) 特に歯科医療を目的とした物体表面の三次元測定方法
JP2021117228A (ja) 三次元形状測定装置及び三次元形状測定方法
US20220101618A1 (en) Dental model superimposition using clinical indications
Chen Calibration of Intraoral 3D Measurement System with Using Consummated Model Combined with Highly Accurate Data Pairs
JP2021092550A (ja) 三次元形状測定装置及び三次元形状測定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130522

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130815

R150 Certificate of patent or registration of utility model

Ref document number: 5346033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250