JP6007178B2 - 3次元撮像システム - Google Patents

3次元撮像システム Download PDF

Info

Publication number
JP6007178B2
JP6007178B2 JP2013527054A JP2013527054A JP6007178B2 JP 6007178 B2 JP6007178 B2 JP 6007178B2 JP 2013527054 A JP2013527054 A JP 2013527054A JP 2013527054 A JP2013527054 A JP 2013527054A JP 6007178 B2 JP6007178 B2 JP 6007178B2
Authority
JP
Japan
Prior art keywords
camera position
frame
information
image
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013527054A
Other languages
English (en)
Other versions
JP2013541081A (ja
Inventor
ガリブ,モルテザ
ハーバード,アレクセイ
ルー,ジアン
シェ,スコット
Original Assignee
カリフォルニア インスティテュート オブ テクノロジー
カリフォルニア インスティテュート オブ テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カリフォルニア インスティテュート オブ テクノロジー, カリフォルニア インスティテュート オブ テクノロジー filed Critical カリフォルニア インスティテュート オブ テクノロジー
Publication of JP2013541081A publication Critical patent/JP2013541081A/ja
Application granted granted Critical
Publication of JP6007178B2 publication Critical patent/JP6007178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/214Image signal generators using stereoscopic image cameras using a single 2D image sensor using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

それぞれが発明者としてGharibを含み、かつカリフォルニア工科大学に譲渡された複数の特許は、単一のイメージャレンズおよび1つ以上のカメラ/イメージャに関連して、多開口デフォーカスを用いたプロフィロメトリを行うのに有用なハードウェア構成を包含している。これらの特許としては、米国特許第6,278,847号、第7,006,132号、第7,612,869号および第7,612,870号が挙げられ、その全てのライセンスが本明細書の譲受人に与えられており、その内容全体が参照により本明細書に組み込まれる。2次元走査データを用いて3次元座標情報を生成するデフォーカス原理は、これらの特許を参照して理解することができる。これらのデフォーカス原理を適用するためにさらに改良されたハードウェアが本明細書に記載されている。
ハードウェアのそのような改良に関わらず、対象物の表面をマッピングするために、デフォーカスによって決定される3次元情報を集めるには、鋭い位置情報が必要である。
多くの場合カメラ「姿勢」と呼ばれるそのような位置情報は、様々な方法で取得することができる。Zhangに付与され(3M社に譲渡された)米国特許第7,605,817号明細書には1つの手法が記載されており、Gharibに付与され(カリフォルニア工科大学に譲渡された)米国特許出願公開第2009/0295908号明細書には、別の手法が記載されている。どちらの手法にも、本明細書に記載されている姿勢技術の利点は示されていない。
従って、任意に対象物のプロフィロメトリを行うためのハードウェアおよびソフトウェア構成を開示する。有利な撮像装置(すなわち、イメージャ、カメラまたはスキャナ)について記載する。イメージャ位置を決定する有利な手法についても記載する。一緒に使用すると有利であるが、記載されている各態様を互いに独立して使用してもよい。さらに、本教示を、速度測定などを含む他の分野に応用してもよい。
ハンドヘルドイメージャ/カメラ/スキャナを用いて3次元情報を取得してもよい。時として、走査される対象は、スキャナの視野よりも大きく、かつ/または、当該対象は異なる有利な地点から走査される。そのような情報を取り込むために、スキャナ装置の姿勢は、異なる時間で変化する。そこで、任意の数の画像シーンにわたって空間的に関連した基準でカメラ姿勢を決定することに関連して、組み合わせられたか集められた画像シーンを用意してもよい。カメラ姿勢決定の忠実性から、以下、それをカメラの「真の姿勢」という。
カメラ位置を決定するためのこの実施は、潜在的にマッチング可能であることを示す情報が既に決定されているシーンを比較することによって開始する(ここでは、以下にさらに詳しく述べる相互相関、最小二乗平均、超解像PIVまたは歪み処理/歪み補正処理手法などの様々な技術によって、マッチングを行ってもよい)。最終的もしくは実際の(すなわち、システム出力のためにデータセットを組み合わせるための)カメラ位置の真の姿勢の決定は、画像の取り込み後の後処理設定で行う。
シーンは、画像の取り込みの間に(すなわち「リアルタイム」などで)行われるおよそ正確なカメラ位置決定(すなわち「ラフな姿勢」)に基づいて潜在的にマッチング可能なものとして示されている。「リアルタイム」で実行される処理および他の動作は、ユーザがシステム性能の遅れを認識しないように実行される。可能であれば、データセットに基づく所与の暫定的な姿勢情報を(上記のように)マッチングすることによって、ラフな姿勢を生成する。
ラフな姿勢を決定する際に使用される(もはや信頼されない)最初のカメラ位置情報(すなわち「暫定的な姿勢」)は、複数の方法で生成することができる。一般に、ロバストな処理を用いて暫定的な姿勢を見つける。1つの手法は、1つのフレームに由来する容易に認識可能な特徴に関する減少したデータセットを、その後のフレームに由来する容易に認識可能な特徴に関する減少したデータセットと比較するという標準的な方法を使用することである。米国特許出願公開第2008/0201101号明細書の0010段落(本出願の優先日前の最先端技術の状態を記載している)を参照されたい。但し、そのような手法は、前の(例えば、20〜100)フレームから蓄積されたか集められたものから現在のフレーム中のそのような特徴を比較することによって、変更および強化することができる。
いずれの場合も、暫定的な姿勢それ自体は、対象データを組み合わせてスキャナ出力を生成するための上記任意の方法では使用されない。その解決法は、本システムの要件を全く満たさないため、歯冠の製造および/または他の高精度のプロフィロメトリ用途にとって望ましい実行可能な画像ファイル出力を提供することができない。但し、いくつかの状況では、暫定的な姿勢データは、空間的/グローバルマッチングによって真の姿勢の決定を実行する際に、ラフな姿勢データの代役を務めることができる。
類似性を使用すると、暫定的な姿勢により、米国の郵便配達の状態を示すのに類似した位置データが得られる。地域の郵便番号に類似したより近い位置は、ラフな姿勢手順によって決定される。特定の私書箱位置に類似した真の姿勢を単独で使用して、最終的に提供可能なものが得られる。
従って、画像集合のために真の姿勢を使用することにより、不正確なアドレス情報に関連する誤差の累積およびデータ/パッケージの喪失を回避する。暫定的もしくはラフな姿勢を使用することにより、計算時間の面から実行可能な真の姿勢の発見を行う(これは、特に、ラフな姿勢の空間的な精度の向上がより明白である完全な顎の走査のようなより長い走査の際にラフな姿勢を用いる場合に当てはまる)。
より直接的には、「暫定的な姿勢」は、とりあえず使用される位置情報であるが、非常に不確かで予備的である。「ラフな姿勢」は、まだ不確かであるが、カメラ位置について言えば、より正確であり、およそ正確である。「真の姿勢」は、意図された目的のためにシステム仕様を満たすのに必要な程度に正確なカメラ位置決定である。一例として、この精度は、それが以下の仕様(1本の歯に対して約35ミクロン以下のRMS誤差、3本の歯に対して約40ミクロン以下のRMS誤差)を有するプロフィロメトリ出力ファイルを提供することができるような精度である。
そのような結果を提供する際に、本明細書の発明者らは、順次/経時的に生成された位置情報(すなわち暫定的な姿勢)に対する信頼により、誤差の累積または集積が生じるため、暫定的な姿勢を精密化して、可能であれば真の姿勢を決定する際にさらに使用されるラフな姿勢を生成することが重要であることを見出した。重要な/関連した領域を走査する際は(歯冠の製造のために走査する場合など)、生成される誤差があまりに大きいために、正確に情報を集めて関連したモデルを生成することができない。
本明細書で検討される別の態様は、マッチングそのものを行う方法である。様々な技術が用いられる。そのような技術としては、以下に記載する相互相関技術ならびに「姿勢に基づくマッチング」処理全体に回転要素を任意に組み込むことが挙げられる。1つのフレームを回転させて、いくらか知られている(すなわち、暫定的もしくは大まかに知られている)空間的な関係を有する別のフレームにより密接に一致させることにより、そうしなければ行うことができない相互相関を可能にする。
有利なハードウェアの実装に関しては、参照されている手法と同様に、それは多開口を有する単レンズを用いる。好ましい実施形態は、市販のセンサの異なるカラーチャネルを用いて、簡易ハードウェアで、(任意にLEDなどの単一のカラー光源によって発光された)光の異なる波長を取り込む。従って、さらなるビームスプリッタ、ロックダウンを有する位置合わせ制御装置または他の扱いにくいハードウェアは必要ではないため、非常に小型かつ(衝撃、熱循環などに対して)ロバストなイメージャハンドピースの製造が可能になる。
本発明は、それを具体化するハードウェアおよびソフトウェアを含む主題の装置および方法を含む。より詳細な考察を、以下の図に関連して示す。
本願は、2010年9月3日に出願された「複数の決定を有する3次元画像システム(Three-Dimensional
Image System with Multiple Determinations)」という発明の名称の米国仮特許出願第61/380094号の優先権を主張するものであり、上記出願の開示内容全体が参照により本明細書に組み込まれる。
本明細書で提供されている図は必ずしも縮尺どおりではなく、いくつかの構成要素および特徴は、明確性のために誇張されている。図示されている実施形態からの本発明の変形も想定されている。従って、図中の本発明の態様および要素の描写は、本発明の範囲を限定するものではない。
一実施形態のハードウェアのブロック図である。 市販のカラーセンサに関連するフィルタ特性を示す。 要約フローチャートである。 図3A〜図3Cは、図2のリアルタイム動作のより詳細なフローチャートである。 図3A〜図3Cは、図2のリアルタイム動作のより詳細なフローチャートである。 図3A〜図3Cは、図2のリアルタイム動作のより詳細なフローチャートである。 図4Aおよび図4Bは、相互相関マッチングを詳述する。 図4Aおよび図4Bは、相互相関マッチングを詳述する。 3次元点位置の決定を示すフローチャートである。 走査手順を概略的に示す。 対象の歯の画像を取得することに関連して、複数の異なるライブラリの使用を示す。 グローバルマッチングを行う方法を示す。 フレームの発見と、図3Cおよび図7で言及されている姿勢に基づく歪み処理における平行移動を示す。 姿勢に基づく歪み処理の技術を関数で詳述する。
本発明の様々な例示的な実施形態について以下に記載する。非限定的な意味でこれらの例は参照されている。より広く適用可能な本発明の態様を例示するためにそれらは提供されている。本発明の真の趣旨および範囲を逸脱しない範囲で、記載されている本発明に様々な変更をなしてもよく、かつ均等物を代わりに用いてもよい。さらに、本発明の趣旨または範囲を逸脱しない範囲で、特定の状況、材料、化合物、方法、処理行為または工程を目的に合わせるために、多くの修正を行ってもよい。そのような修正は、本明細書に記載されている特許請求の範囲に含まれるものとする。
(撮像ハードウェア)
図1Aは、ハードウェアの実施形態のブロック図である。ハンドヘルドスキャナ100を使用して対象物99を撮像する。スキャナ100は、複数の光学および電気部材を保持する外側ハウジング102を有する。スキャナは、任意の種類のカメラ140、または光学情報を受け取ってその光学情報を電気情報に変換する任意の他の装置を備えることができる。例えば、スキャナは、CCDカメラ、CMOSイメージセンサ、または光量子を電気信号に変換する任意の他の種類の光センサを備えていてもよい。カメラ140は、2次元情報および/または3次元情報のうちの一方または両方を示す出力情報を生成する。2次元情報を、撮像装置と撮像される対象物との間のz軸方向111に垂直な座標として定義されるxおよびy座標と称してもよい。3次元情報は、カメラ110と撮像される対象物との距離を示す、xおよびy座標に直交するz軸座標を含んでいてもよい。この特定の座標配置に限度されるものではないため、従来どおりに、軸を傾けたり反転させたりすることもできる。
画像情報は、x,yおよびz座標として格納されていてもよく、3次元点群、3次元メッシュ、または2次元および/または3次元情報を表すことができる任意の他の形態などの任意の他の形態で格納されていてもよい。
ウィンドウ105は、3次元対象物99の走査を可能にするスキャナ100の一部に形成されている。一実施形態では、これを、歯などの歯科対象物を走査して歯のマップを形成するために使用してもよい。本実施形態は歯の走査について記載しているが、撮像される対象物99は、任意の対象物、対象物の集合体、対象物の一部または他の対象であってもよい。例えば、歯科撮像用途では、対象物99としては、1本の歯、歯の四半部、または仮想的な歯科印象が望まれる歯の完全な集合体が挙げられる。他の実施形態では、対象物は、いくつかの他の医用対象、例えば、目、鼻、頭または耳などであってもよい。
異なるカラー光要素115、116を含む照明器は、歯99に光を与える。また、照明された対象物の画像は、ウィンドウ105によって受け取られる。コーナー反射鏡120は、受け取った照り返し(radiation)を光学系125に反射させる。他の実施形態では、光学系を、コーナー反射鏡なしで動作させてもよい。
光学系は、レンズ130と、多開口135を有するマスクとを備えていてもよい。開口135は、色分けされた開口であってもよく、すなわち、一方の開口が唯一または主に青い色を透過させてもよく、他方の開口は、赤い色を有する光のみを透過させてもよい。照明115、116は、マスクの色に一致する色(ここでは、115から青い照明、116から赤い照明)を与えてもよい。これにより、2つの異なるチャネル、すなわち2つの開口のそれぞれから1つのチャネルの情報が生成される。本明細書に記載されている処理は、これらの2つの異なるチャネルを識別して2つのチャネルから異なる情報を入手する。
開口135からの光は、電子カメラ140に提供され、電子カメラ140は、開口から受け取った光を示す電子出力を生成する。上記カメラは、ケーブル145によって、上記カメラを駆動しかつ情報を分析するためのソフトウェアを備えた計算装置150に接続されている。ワイヤ145は、上記カメラを駆動するための電力を含んでいてもよく、上記カメラから情報を受け取ってもよい。
計算装置150は、本出願の技術に従って記述された内部プログラムに従って動作するマイクロプロセッサ153を有する汎用プロセッサであってもよい。上記計算装置は、これに加えて、あるいはこれに代えて、例えば、表示装置160を駆動するビデオカード内にグラフィック処理装置またはGPU155を備えていてもよい。GPU155は、例えばATIまたはNvidiaビデオカードであってもよい。上記計算装置は、これに加えて、あるいはこれに代えて、フィールドプログラマブルメモリ(例えばゲートアレイ)または任意のカスタムハードウェアもしくはカスタムロジックを備えていてもよい。
一実施形態では、図1Aの携帯型ハンドヘルドスキャナを移動しながら、走査領域に関する情報をなお入手ことができる。カメラが複数の異なる時間でそれぞれ移動すると、その新しいカメラ位置に関する新しい情報が得られる。これにより、最終的に撮像される対象物99全体をウィンドウ105よりも大きいものにすることができる。
カメラ140は、既にカメラ140内のイメージセンサの一部である色を分離するためのカラーフィルタアレイを使用する標準的なカラーカメラ(例えば、Micron Technology社製の1/3-Inch SOC Megapixel
CMOS Digital Image Sensor)であってもよい。カメラ140のカラーフィルタアレイ部分のフィルタは、カラー光線(ここでは赤および青のチャネル)を分離して情報を入手し、かつ開口135のカラーフィルタを透過したカラー光線を識別する。各カラーフィルタ付開口からの情報は、カメラ140の適当なフィルタ部分によってのみ受け取られる。
カラーフィルタアレイは、米国特許第3,971,065号明細書に記載されているようなベイヤーフィルタであってもよく、あるいは、これに代えて、CYGMフィルタおよびRGBEフィルタなどの異なる種類のカラーフィルタまたはカスタムフィルタアレイであってもよい(例えば、青および赤として色分けされた2つの開口がある場合、フィルタアレイは青および赤の交互フィルタを有する)。カスタム二色フィルタが組み込まれたカメラであれば、二色二開口システムに関連して利用可能なセンサ域の全てを使用するという利点を有するであろう。
しかし、そのような標準的なイメージャを使用する際は、利用可能な3チャネルカラー(RGB)のうちの2つ(R,B)のみが使用される。これは、光センサの不動産の一部、すなわち使用されないカラーが配置されている領域が本質的に無駄になることを意味している。理論では、そのような手法では、使用することができない光センサ表面の量に等しい比率だけ、システムのダイナミックレンジが低下する。従来のベイヤーフィルタを用いた場合、これは、センサ領域のおよそ半分になる。
驚くべきことに、そのような手法は、なお有利に実施されている。最適以下のデータセットが記録されるという従来からの懸念により、システムユーティリティが妨げられるという問題は生じない。実際には、赤および青のチャネルのみを選択することによって、処理の観点からは、第3の緑の色分けされた開口および緑のチャネルが記録される場合よりもノイズの導入は少ない。この事実は、図1Bに関連して示されている。すなわち、センサについて例示されている赤(R)および青(B)のフィルタの分離により、本質的に(所与の強度のカットオフまたは閾値で)赤で色分けされた開口を透過する光をセンサの赤のチャネルのみに確実に記録することができ、青についても同様である。緑のチャネルが導入される場合、透過範囲の重複により、緑の開口からの光は、赤および青のセンサチャネルのそれぞれによってより容易に吸収され、また、緑のセンサチャネル(G)は、赤および青で色分けされた開口のそれぞれからの(ここでも所与の閾値の)光をより容易に吸収するであろう。
よりクリーンなセンサデータのためにそのような「クロストーク」を回避することにより、画素数の(効果的な)減少を十二分に補償することが見出された。本質的には、チャネルの下位選択により、低コスト(それらは既製品として入手可能なため)のセンサ部品を有する高品質の画像システムを製造することができる。
本発明のハードウェアの態様は上記に焦点を当てているが、本発明のソフトウェアおよび関連する方法論は異なる数の開口および/または色を用い得ることを理解されたい。いずれの場合も、控えめながら色のついたエミッタについて上に記載しているが、合成色(琥珀色または白色など)を用いることができる。特に、最終的に使用されるカラーチャネル間のさらなる分離を達成するために緑のチャネルの使用を省くと、この最後の状況でさらにより顕著な利点が得られることがある。
(デフォーカス)
本明細書で全体として参照されている複数の参考文献(Gharibに付与された上記特許を含む)は、「デフォーカス」の概念について述べている。最も広い意味で、「デフォーカス」は、公知の空間的関係を有する複数のピンホールカメラ型の開口による撮像を必要とする。上記開口により、カメラのセンサシステムによって受け取られる画像が制限される。単一のセンサまたは複数の協働センサを使用するか否かに関わらず、各開口から受け取られた画像から特定された特徴のx,y座標の差を比較して、それらの特徴のz座標値を決定する。
走査対象物からある距離で記録された特徴間のスカラ差を、別の距離で記録された特徴間のスカラ差と比較する。例えば、開口の千鳥形配列で撮像して得られた三角パターン間の差を使用してz軸差を決定する。さらに、較正セットを使用して、その結果の精度を高めることができる。公知の格子パターンを撮像し、較正表を格納することによって、記録された画像データの非線形性を画像特徴位置の「歪み補正」によって補うことができる。
(マージンの定義)
3次元データ出力ファイル(例えば、歯冠の製造で使用されるSTLファイル)を生成するために不規則な物体(例えば1つ以上の歯)を走査する際は、3次元走査データがデータベースに追加される境界を定義すると有用である。そのような境界(すなわち「マージン」)の定義は、ユーザが走査活動を完全な走査を生成する領域に集中するように指示されている範囲を定義するのに有用となり得る。また、走査は完了していないがマージンが定義されている場合、走査されてない領域の近似値は、代わりに補間によって補うことができる。なおさらに、明確に定義された境界は、点の外れ値のフィルタリングに有用である(すなわち、マージンの視野から外れた点は、内側表面の計算では考慮されない)。
マージンのユーザによる定義により、特定の利点が得られる。走査されるか走査された対象物のデジタル表現に関して、(ワンド、タッチスクリーンインタフェースまたは他の手段を用いて)線または線分をデジタル的に描画することによって行う場合、ユーザは、観察および経験に基づいて主観的判断を行うことができる。このように人間の能力を利用することにより、高コストまたは複雑なプログラミングの埋め込みの必要性および/またはそれがない場合にユーザの定性的な「目」で避けることができる誤差の導入を回避する手助けをしてもよい。
上に記載されているユーザによって生成されるマージンの定義に対する手法では、xおよびy座標情報は、表示画面の基準面に記録される。これを行う際は、表示される(走査したか走査される)物体の画像上にユーザによって線または曲線が描かれる。従って、この平面の各(例えば青のチャネルの)x,y点は、複数の可能なz値と交わる。次いで、走査からの高密度点群/情報集合および較正セットに関連して、真のx,y,zを決定することができる。従って、この行為により、ユーザが入力した2次元情報に基づいて、3次元特徴が生成される。
(画像決定ソフトウェアの概要)
図2は、画像の決定および処理の演算の概要フローチャートである。200では、本システムは、第1の時間tで画像情報を取得する。
一実施形態では、この情報は、開口を識別することができる方法で取り込まれた多開口からの複数画像である。上に例示されている実施形態では、カラーフィルタを使用してチャネルを分離する。開口のうちの一方は、唯一もしくは主に赤い光を透過させる赤のフィルタに関連づけることができ、他方の開口は、唯一もしくは主に青い光を透過させること青のフィルタに関連づけることができる。この手法では、1つの情報が2つの分離した開口のそれぞれを透過したものである2つのチャネルの情報が生成される。別の実施形態によれば、色によってチャネルを分離するのではなく、開口が正三角形などの指定された配列で配置されており、プロセッサ153は、最終画像中でその正三角形を認識して、開口に由来する画像の一部を見つける。別の実施形態によれば、異なる開口およびカメラセンサに異なる偏光を与えることにより開口およびカメラの両方に偏光を使用することによって異なるチャネルの偏光を修正して、異なるチャネルを形成することができる。本実施形態は、異なるチャネルとしてそれらの異なる偏光を使用する。異なる物理的なマスク形状(成形された開口)を与えることによって、あるいは開口を変更する時分割によって(例えば、それを至るところに移動させることによって)、チャネルを異なる方法で形成することができる。
実施の有無に関係なく、205では、ロバストな特徴検出器(例えば、ロバストな特徴検出器は、既製の「SIFT」ソフトウェアまたは簡単に実装されるカスタムソフトウェアを使用することができる)を使用して、この例では青のチャネルからの減少したデータセットを用いて現在の画像フレームに対する基準を決定する。任意のある時間で取得された画像フレームは、画像フレーム全体よりも小さなものであることに留意されたい。本明細書では基準を「キーポイント」と称するが、異なる画像で認識することができる任意の基準を使用することができる。ロバストな特徴検出器は、キーポイントの位置の2次元情報(x,y)ならびにそれらのキーポイントの特徴ベクトル式記述子を見つける。その特徴ベクトル式記述子は、点のあらゆるスケール回転および照明において一定のままである。
特徴ベクトル式記述子は、対象物に関する興味深い点を抽出して対象物の「特徴記述」を得ることによって取得することができる。この記述は、他の対象物を含む他の画像中に当該対象物を配置することを試みる場合および/または異なる視点/有利な地点から撮像する場合に、当該対象物を特定するのに使用することができる十分な情報を有する。トレーニング画像から抽出される特徴は、確実な認識を行うために画像スケール、ノイズ、照明および局所的な幾何学的歪みの変化にロバストであるように選択する。これは、例えば、米国特許第6,711,293号明細書に記載されている技術を使用してもよい。この検出のために、市販のスケール不変特徴量変換(SIFT:Scale Invariant Feature Transform)ソフトウェアを使用することができる。また、キーポイントのそれぞれに関する3次元点情報を、デフォーカス原理および本明細書に記載されているか米国特許第6,278,847号明細書および米国特許第7,006,132号明細書に記載されている種類の方程式を用いて決定する。
210では、次のフレームを取得し、ここでは、次のフレームは、時間tのフレーム番号2とすることができる。一般に、フレームを1つずつ増加させて次のフレームを得ることができる。
215では、異なるtから暫定的な姿勢マップを形成する。それにより、t間の変換T(平行移動および回転)を取得するために、キーポイントに対応する3次元情報の異なる部分のマッチングを行う。これは、コア時間tと任意の他の時間tとの間の変換を表し、組み合わせられた情報によって、複数のns例えば、(tn1、tn2...)を含むことができる。
220では、各取得されたフレームtの高密度点群を取得する。高密度点群により、上に記載されている技術を適用したデフォーカスを用いて、3次元画像情報を取得することができる。高密度集合(点およびそれらの位置)の発見およびロバストな特徴の特定を同時に行うことができる。他の情報を既に決定した後に、ロバストな特徴の3次元座標の発見を行ってもよい。
225では、異なる時間の間の暫定的な姿勢に関連する線形変換Tを使用して、異なる時間に取得された高密度点群を取り囲む画像の16×16画素のウィンドウ間で変換および/または相互相関させて、ラフな姿勢を取得する。現在の高密度点集合(例えば、中心点の周囲の16×16画素のウィンドウ)を前の高密度点集合と相互相関させるか、あるいは、前の低密度点集合(例えば青のチャネル)に対するロバストな特徴検出を使用して、前のフレームセットに対してマッチングを行って一致を見つけることにより、これを行う。従って、225では、3次元情報およびラフな姿勢の両方を取得する。
そのラフな姿勢に基づいて、230では、現在の情報が2つのフレームを相互相関させるのに十分な程に基準フレームに近いか否かを決定する。基準フレームに近い場合、相互相関を行う。フレームが十分に近くない場合、現在のフレームは拒絶される。現在の情報が、2つのフレームを相互相関させるのに十分な程に基準フレームに近いが、新しいフレームが235でいくらか閾値距離の外側にある場合、それは拒絶もされるが、新しい基準フレームとして追加される。次いで、姿勢復元演算を使用して、暫定的な姿勢を決定または精密化してもよい。
演算中、プロセッサは、デフォーカス方程式と共に点集合を処理して、3次元画像を取得するようにプログラムされている。赤および青のチャネルを、本明細書に記載されているように多重格子と相互相関させる。226では、フレームを位置によって編成する。
227では、異なるより正確な位置情報(すなわち「真の姿勢」)を取得するために、スキャナのラフな姿勢を表す変換情報を後処理によって決定する。後処理では、前の姿勢決定のいずれかを用いた技術よりもロバストではないが、より正確な技術を使用してもよい。例えば、よりロバストでない技術では、特定の量を超える画素差のマッチングを行うのに計算コストがより高くなることがあるが、そのマッチングに関するより多くの情報が提供されることがある。
本発明者らは、相互相関技術が極めてロバストであり、異なる変換の間で非常に正確な値を提供し得ることを見出した。しかし、このよりロバストな技術を使用して、姿勢間に大きな画素シフトを有する姿勢を復元することは、計算時間の面から実行不可能である(従って、単なる暫定的な姿勢に対するラフな姿勢を使用するのが有用である)。現在のNvidiaGPUを用いる場合、姿勢間で64もしくは128画素を超えるシフトは、計算時間の面からリアルタイムでは実行不可能である。
227の後処理では、これらのフレームが「変換」されて、画素シフトがより少なくなるようにシフトされると、後処理のためにより正確な技術を使用できることが分かる。従って、一実施形態では、工程200〜225をリアルタイムで行い、226および227を非リアルタイムで行い、リアルタイム後に、ラフな姿勢を計算する。従って、演算の第1の部分はリアルタイムで暫定的な姿勢およびラフな姿勢を計算し、次の部分はそれらの姿勢評価を精密化する。
(相互相関)
本明細書の全体にわたって言及されている相互相関すなわち「CC」演算が図4Aに示されている。これは、ロバストな相互相関演算であってもよく(例えば、ロバストな特徴を使用する場合)、あるいは、これを点群データのマッチングを行うために使用してもよい。例えば、マイクロプロセッサ153またはGPU155などのプロセッサで、図4Aの演算を実行してもよい。
アイテム400が、415では第1の時間/姿勢で、416では第2の時間/姿勢で示されている。例えば、異なる時間/姿勢は、同じフレームの異なるカラーチャネルであってもよく、あるいは他のチャネル分離技術を使用することができる。点は、自然な点であっても、例えば固定された照明器によって照射されたものであってもよく、あるいは、造影剤を用いて塗布されたものであってもよい。これにより、特定の輝度、コントラストまたは外観を有する表面領域である任意の位置を調べることもできる。
各フレーム415、416を、401などの複数の小部分に細分する。415中の小部分401は、416中の別の小部分411と比較して示されている。図4Aでは、これらの2つの小部分401/411が比較されるものとして示されているが、この演算は、複数の小部分のそれぞれに対して実行するものであることを理解されたい。
420では、2つの小部分401、411を相関させる。各相関は、画像の複数の異なるシフトを表す。425では、各相関により、複数の画素を含む相関画像を生成する。相関画像中の各画素は、1つの相関シフトの結果を表す。例えば、401と411を相互相関させると、全シフトを表す単一のCC画像425が得られる。なお、使用される相互相関技術は、循環、ゼロパディング、高速フーリエ変換(FFT)系または任意の他の種類などの任意の種類の相互相関型であってもよい。
例えば、画素427は、x方向にゼロだけシフトされ、下に向かって(y方向に)3だけシフトされた画素を表す。相関画像中の各画素値は、1つのシフト全体と、相関画像中の画素の位置の量を掛けた1つの乗算全体を表す。例えば、GPUのシェーダ、またはプロセッサ、あるいはゲートアレイもしくはカスタムハードウェアなどの専用のロジックで、これらの値をそれぞれ計算することができる。
相関平面中の最も明るい画素を見つける。画素を調べることによってこれを行い、周囲の画素を使用して副画素位置のピークを見つける。このように、複数の異なるピークフィッティング技術のいずれかを使用することができる。最も一般的なピークフィッティングは、ガウス形状を取る。
副画素のガウスピークフィッティングを使用することができる。図4Bは、青のチャネル中の点格子と第2のチャネル中のそれらの対応点との一致を見つけるためのこの技術の使用方法を示す。
445では、相関画像の格子中の最も明るい画素は、画像間で最良の一致を有する位置を表す。この一致を使用して、画像間のオフセットを表す。バイキュービックス(登録商標)プラインを使用して、格子点間を補完することができる。
450では、粗いオフセット群を見つける(445で)。次いで、450では、オフセットに基づいて、画像のうちの1つ(例えば赤)を他の画像(例えば青)に近似するように歪ませる。これにより、合成画像455を生成する。
460では、画像を互いにより近づけるように歪ませる。より細かい小部分の格子を取得する。次いで、相関演算420、425を繰り返して、より細かい格子に対して画像間に新しい歪みを生じさせる。
次いで、より細かい小部分を表す新しい格子を再度形成する。この手順を数回(例えば4回)行い、本実施形態の465で入手可能な計算精度に釣り合った所望の精度を反映させる。あるいは、繰返しを他のある回数で(例えば、16×16の画素サイズに到達するまで)続けてもよい。この時点すなわち470で、最終画像情報を取得する。最終画像情報は、x,y(または、青のチャネル情報のための位置情報として表現される「bx,by」)およびdx,dy(青と赤のチャネル間での位置のシフト)を含む。
(3次元点位置の決定)
一実施形態では、相互相関技術に関連して(図3Aの325に従って)3次元点群を生成する。一般に、相互相関を青と赤のチャネル間に用いて、これらのチャネル間に多数の対応する画像画素を見つける。相互相関によって(例えば上記のとおりに)取得した点位置情報を用いて、対応する3次元点位置を、スキャナ較正情報に関連して取得することができる。
較正手順のために、較正格子に基づいて較正セットもしくは表を定義するために、最初の演算を行う。より具体的には、複数の「z値」のそれぞれで撮像された較正格子のために、青のチャネル中の値を赤のチャネル中の値と比較する。例えば、青のチャネル中の0,0位置は、赤のチャネル中の対応する位置を有するであろう。この較正セット/表は、青のチャネルから赤のチャネルまでのオフセットを表す。
475では、これらのオフセットdxおよびdy(それらは赤のチャネルに対するオフセットである)を知る。各値について、x,y,z位置への平行移動も較正手順から知る。従って、任意のbx,by(すなわち、青のチャネル中のxおよびy)およびdx,dyのために、較正表を用い、線形代数を適用して、対応するx,y,z値を決定することができる。別の言い方をすれば、(bx,by,dx,dy)を用いて、図4Bの480に従って、青および赤の画像を一致させるために使用された変形分だけ後に辿って、zを決定することができる。
すなわち、図4Bでは、各歪み/変形の繰返し(450〜465)は、前の画像から次の変形までの差を表す。これらの変形を互いに追加して、470で最終画像情報を取得する(任意に、x,y,dx,dyに換算して表現される)。480では、較正セットをこの情報に適用される関数として使用して、高密度点群を定義する際のx,yおよびz位置情報を取得する。それにより、特定のカメラに対して個別の較正情報を用いて4次元から3次元に減少させて精度を向上させる。
(姿勢に基づく歪み処理)
相互相関技術により、「投影面」特徴に関連する手段も得られる。「姿勢に基づく歪み処理」は、平面を投影した後に相互相関させる機能と見なしてもよい。
大きな移動(例えば、大きな中/外への平面回転および/または平行移動)により、画像を直接に相互相関させることができない場合、相互相関または他の同様の画像マッチングアルゴリズムを用いて姿勢を復元することは、計算時間の面からみて実行不可能である。RおよびT(例えば、現在の方法では実施の点に応じた暫定的もしくはラフな姿勢)に関する知識によって、オフセットが64画素よりも大きい場合であっても、相互相関される画像のうちの1つを調整した後に相互相関は可能となる。
調整を行うために使用される投影面特徴が図8に関連して記載されている。800では、すぐ近くのベクトルを特定する。802では、相互相関のために、可能な限り離れたベクトルを特定する。805では、より詳細でない姿勢情報に基づいて1つのフレームをシフト(平行移動/回転)させて、より詳細な姿勢情報を決定する途中で他のフレームに近似させる。
より具体的には、第1および第2の画像(11,12)のために、12が11の平面でどのように見えるかという予測として画像12’を生成する。そこで、12’中の代表点を選び、それを(較正セット、利用可能な姿勢情報および高密度点群情報を用いて)3次元で平行移動および回転(すなわち投影)させて、12中のその位置を見つける。検討される整数点の全てについて、f(x,y)は、連続関数のような動作を表す。
最終的に、任意にラフな姿勢および真の姿勢を決定する際に使用される姿勢に基づく歪み処理における投影面演算は、相互相関のために互いにより近似している複数の異なる画像からデータを生成することを目的としている。例えば、図6を見てみると、異なる姿勢のカメラは、同じアイテムおよび、さらにはそのアイテム上の同じ場所を見ていても、異なる視点から見ているもしれない。例えば、姿勢1の画像1(R1,T1)は、650で発見されたものかもしれない。しかし、姿勢2の画像2(R2,T2)は、652で発見されたものかもしれない。これら両方が同じ実際のアイテムを見ていても、650は651に示すように見えるが、652は653に示すように見えるかもしれない。この時点で、これらの値は、あまりに異なり、かつあまりにかけ離れているため、相互相関させることができない。
図9に従って、関数f(x,y)を使用して、画像2’が画像1に類似した姿勢パラメータを有するように(投影面プロセス800に表されているように)、画像2’を画像2にマッピングする。次いで、相互相関プロセス400によって、フローチャート要素900は、画像2’を画像1の座標系まで歪ませる関数を見つけて、同じ座標系で画像1および画像2’の両方を得る。
要素905に係る記述では、画像1を画像2’に相互相関させる際に、画像2’は既に反転させられているため、この関数のために反転を求める必要はない。これにより、簡易な歪みが生成される。そのような歪みは、Z値の全てがゼロであると仮定している。
但し、これは典型的な事例ではないため、900のf(x,y)の計算は、最小二乗平面を変換f(x,y)→(x’,y’,z’)に当てはめることによって、異なるz軸深さを補うこともできる
(式中、
x’;=a;+b;+c
y’;=a;+b;+c
z’1=...
である)
これを行列形式で書くことができる。
次いで、新しいx,y,zの一致を用いて新しい点格子を生成して、この形状を滑らかにすることができる。新しい点格子により、スプライン(「Sp」)解釈に基づいて、f(x,y)と(x,y,z)との関係を生成する。ここでは、以下の関係:
(x,y)→xSpx
(x,y)→ySpy
(x,y)→zSpz
を使用し、よって、平面を3次元の滑らかなスプラインにマッピングする。
上で言及したように、カメラのために取得された較正セットを用いて、青のチャネルのための点を、x,y,zに変換することができる。x,yおよびzが変化するにつれて姿勢は倍率を変えるため、変換は完全な一次関数ではない。これらの値を行列形式で計算することによって、非線形性の量をこのようにして補償することができる。
(画像の取り込みおよびリアルタイムの姿勢決定の詳細)
図3A〜図3Cは、プロセッサ153および/またはGPU155上で実行されるプログラムの実施におけるフローチャートまたはリアルタイム動作を定めている。300では、時間フレームt0において、本システムは、その1回の時間フレームt0で2つの画像を取り込む。これらの2つの画像は、本明細書に使用されている2つのチャネルを形成する。2つの画像(この場合、色分けされている)を取得した後、2つの平行な処理経路305、306を実行する。経路305を使用して(図3Bに従って)、カメラ姿勢を決定し、かつカメラ情報の粗い決定を行い、よって、予備的な平行移動情報(すなわち、暫定的な姿勢)を見つける。経路306を使用して、高密度3次元情報を決定する。本出願は、これらを平行して実行するものとして記載しているが、これらの計算は任意の時間に実行することができることを理解されたい。
310では、スケール不変特徴量変換「SIFT」ソフトウェアまたは上記のような他の手段などの、よりロバストであるが、より正確でない技術を用いて、キーポイントを取得する。いずれの場合も、典型的に、複数のキーポイントのそれぞれに対して特徴ベクトル記述子を決定する。その特徴ベクトル記述子は、キーポイントがどのように見えるかについて記述している。選択される特徴は、画像の平行移動、拡大縮小および回転に対して不変であり、部分的に照明変化に対して不変であり、かつ局所的幾何学的歪みに対してロバストである。例えば、繰り返しサンプリングした一連の滑らかな画像に対して、スケール空間に適用されるガウス関数の差の結果の最大値および最小値を用いて、これを行ってもよい。
一実施形態では、ペインテッドオン特徴、例えばコントラストを用いて塗布された特徴を用いて、撮像を行ってもよい。一実施形態では、エアロゾルで吹き付けられた白色および黒色粒子からなるコントラストを使用してもよい。
一実施形態では、青のチャネル画像に対してキーポイントの抽出を行う。次いで、315では、他のカラーチャネル(ここでは赤のチャネル)からの情報を使用して、対応する特徴を見つけることができる。そのような特徴発見では、本明細書に記載されているように、相互相関を用いることができる。
320では、このようにして取得されたキーポイントは、デフォーカスを用いて現在の時間フレームで決定されたそれらの3次元位置に関する情報を有する。従って、各キーポイントを処理して、そのキーポイントに対応する3次元情報ならびにその関連する記述子を取得する。この情報は、時間フレームt0に関する記述子と共に1組の低密度キーポイントを形成する。
暫定的な姿勢の決定経路305と平行して、高密度点群経路306を実行して、高密度3次元情報(但し記述子はない)を決定する。時間間隔t0のために、デフォーカスされた情報を用いて点の高密度3次元群を決定することによって、工程325は開始する。青と赤のチャネルを330で相互相関させて、これらのチャネル間に多くの対応する点もしくは画像画素を見つけることによって、これを行ってもよい。335では、これらの点の3次元位置を取得する。2つのチャネルからのデフォーカスされた情報を使用して、この3次元情報を決定する。
340では、姿勢および3次元点群の両方の決定を行う。時間フレームt0では、その時点で、記述子を有する低密度集合(経路305から)と記述子のない高密度群(経路306から)の2組の3次元点群が存在する。
345では、tと呼ばれる次のtを見つける演算の次の部分が進行する。このプロセスを繰り返し続けて、複数の異なる時間フレームで複数の異なる値を見つける。
上記演算によれば、対象物全体に関する高密度および低密度点集合の複数の異なるライブラリが存在する。例えば、図6は、これをどのように使用して600、602、604および606などの走査対象の歯の画像を取得するのかを示す。610の第1のライブラリ1は、単一走査によりスキャナから取得することができる視野を表す。これは、画像、例えば、歯600、602であってもよい。しかし、歯604は、ライブラリ1(610)ではスキャナの視野の中にはない。従って、620として示されているライブラリ2を使用して、歯604、606の画像を取り込んでもよい。異なるライブラリはそれぞれ、異なる基準を表してもよい。
(姿勢方法論の概要)
最初のカメラ位置決定(「暫定的な姿勢」の生成)により、t次元で一致したリアルタイムの回転および平行移動RおよびTが得られる。ここでは、点間の差を受け入れる1つ以上のロバストなマッチング技術を用いる(例えば、上記のような相互相関および/またはキーポイントを比較することによって行われる)。この動作の後で、任意に姿勢に基づく歪み処理による特徴マッチングにより、マッチング可能なフレーム間で姿勢を精密化する(ラフな姿勢を得る)。後処理では典型的に、そのラフな姿勢情報を使用する。ラフな姿勢により、選択されたフレームに関するより多くの情報が得られ、ここでも任意に姿勢に基づく歪み処理により、空間的に関連したフレームに対する完全なマッチングを可能にして、さらなる先験的な知識を利用することによって、より正確な姿勢点を決定する(「真の姿勢」を得る)。
(暫定的な姿勢の決定)
図3Bでは、暫定的な姿勢を決定する演算を開始する。350では、相互相関技術により、現在の点集合を前の点集合と比較する。355では、点集合間に相互相関すなわち「CC」の一致があるか否かの決定を行う。一致がある場合、360は、2つの一致した高密度点群が存在することを決定し、制御は、ノード3C(工程390)に移動して、ライブラリの比較および形成を表す図3Cに示されている処理演算を実行する。
355でCCの一致が存在しない場合、制御は、365で前のフレーム群のロバストな記述子(例えばSIFT記述子)を使用するように移動し、そこでは、フレーム群は、例えば、20フレーム〜100フレームであってもよい。370では、前の20〜100フレームと現在のフレームとの一致があるか否かを決定する。一致がある場合、これは、375で低密度点群の間に一致を確立し、制御は、ライブラリノード3C(図3C)に移動する。
現在のフレームと前の20〜100フレームとの間に一致が存在しない場合、380では、キーポイントの格納されたライブラリに関する記述子を用いて姿勢復元を行う。ここでは、ロバストな記述子を、生成されているキーポイントの全ライブラリと比較する。一致が存在する場合、これは暫定的な姿勢とみなされ、制御は3Cのライブラリ決定に移動する。385で一致が存在しない場合、これは、386では、全ての基準フレームが現在のフレームから非常にかけ離れていることを意味する。この時点で、現在のフレームは拒絶される(すなわち破棄される)。
(ラフな姿勢の決定)
図3Cは、図3Bで発見された暫定的な姿勢を用いて、姿勢決定を続ける。これは、工程391で開始し、暫定的な姿勢情報を取得した後、392で近いCCフレームがあるか否かを決定する。392の動作の結果が、十分に近いCCフレームが存在しないとなった場合、全てのフレームは非常にかけ離れているため、フレームは破棄される。あるいは、それを、今後のCC動作のためのライブラリ基準として追加してもよい。但し、十分に近いCCフレームが存在する場合、それを393で取得し、新しいフレームをより古いフレームに対して歪ませる(すなわち、393でフレームを投影し、394で相互相関させる)。
一般に、本演算は、最も近い複数の異なるベクトル(シーン位置の値)を発見する試みである。本目的は、なお相互相関可能である限り、可能な限り離れたベクトルを相互相関させることである。図8は、フレーム発見と、上で言及した平面の投影を伴う平行移動を視覚的に詳述する。
図3Cに戻ると、393での投影後に、R,Tを使用して、現在のフレームを発見されたフレームと相互相関させる。これを使用して、新しい姿勢(ラフな姿勢)のためのRおよびTを見つける。395でRおよびTを見つけることができた場合、399では、ユーザインタフェース装置(例えば、コンピュータモニタ)に表示するために、このより詳細な姿勢を、3次元点群データを集めるために使用することができる。そうでない場合、396では、現在のフレームをSIFT基準と比較する。RおよびTがこの段階397で発見されない場合、398では、それをSIFT基準として追加する。それ以外の場合は、処理は完全であり、工程3Aで次の点を得るために演算は進行する。
なお、上記では、記述子によって、現在のフレーム内の3次元点およびキーポイントを、複数の異なる前の時間フレーム内のキーポイントとマッチングさせる。すなわち、各コアフレームtnについて、各キーポイントを、複数の前のフレームt(n−x)(ここで、xは設定数であってもよい)のそれぞれとマッチングさせる。例えば、利用可能な処理電力およびメモリに応じて、xを0〜10000の任意の数に設定してもよい。本実施形態では、これを20〜100フレームとしている。そのため、ここでは、複数のフレームのそれぞれをコアフレームとマッチングさせる。
350では、一致を使用して、現在のフレームから前のフレームまでの変換を見つける。この演算により、フレームnと、フレームnと比較する予定の全ての他のフレームとの間の変換Tn(平行移動および回転)を決定する。この同じ情報は、高密度点に関する変換も表す。このようにして、フレームの全てが、最終的に基準座標系と呼ばれる単一の座標系になる。基準座標系は任意であるが、一般に全ての基準フレームにわたって同じままである。本明細書に記載されているように、カメラの動きにより対象の画像が最初の位置から非常に離れて移動してしまった場合、基準フレームは時には変わる可能性がある。
別の実施形態によれば、多くの異なるフレームをベース/基準フレームとして使用することができるため、多くの異なる変換が存在する。例えば、指定された時間毎に新しいベースフレームが存在する可能性がある。さらに別の実施形態では、変換を見つけることができることから、中間フレームが存在する可能性がある。さらに別の実施形態では、変換を組み合わせる代わりに、変換の平均を使用してもよい。
360(図3B)では、基準フレームと任意の他のフレームtとの間で変換がなされる。これにより、同じ座標系内に全てが存在するデータライブラリが形成される。データの全てが単一の座標系に存在し、ここでは、その座標系は本質的に無作為に選択される。
この連続的な変換は、任意の所与のフレームのために組み合わせられる変換数を最小限に抑え、それにより誤り伝播を最小限に抑えてもよい。
図3A〜図3Cで最大解像度での画像の生成を可能にするように高密度集合を変換した後に(例えば、処理中にユーザフィードバックとして走査時にのみ表示するため)、図7に示すように姿勢の後処理を行う。この後処理では、CNCまたは他の生成技術によって代表的なデータから物理的な対象物を提供するために、「グローバルマッチング技術」を使用して、誤り伝播を最小限に抑えながら、より良好なフレームマッチングを可能にして、上に定義されている真の姿勢を見つけ、かつ最終走査出力生成物(例えば、コンピュータ可読媒体内に具体化されるSTLファイル)を生成してもよい。
(さらに詳細な/真の姿勢の決定)
このグローバルマッチング手法を記載する前置きとして、図5は、より大きな領域を撮像する際に、カメラがどのように異なる位置間を移動し得るかについて示す。図5の上部は方向500に移動しているカメラを示し、下部は方向505への移動を示す。図示されている1、2、3...254、255、256の順序でフレームが取得される。カメラが順次に画像を通過すると、カメラは、1秒につき10回画像を撮影する。フレーム1および2は時間的に近いが、実際にはフレーム1と256との間により多くの類似点が存在するかもしれない。例えば、カメラは、1/2よりも1/256において空間的に近いかもしれない。
本手法は、画像データを比較する際に最良の空間的一致を追求して、画像を組み合わせるために使用されるカメラ姿勢情報を決定することによって、この可能性を補償している。他のシステム(例えば、Zhang)は、姿勢を決定する際に、最も近い時間の一致(すなわち順次フレーム)に焦点を当てる。
実際には、本発明者らは、異なるフレームのうちのどれが最良の空間的一致を生成するのかについて事前に予測する方法が実際には存在しないことを見出した。実際には、暫定的な/仮の一致を発見した後に異なるフレームの集合体に対してその暫定的な一致を精密化することによって、最良の情報が取得される。
この問題を認めて、言及されている後処理をグローバルに行う。1つのフレームを次のフレームと自動的に比較するのではなく、本実施形態の処理は、異なるフレームのライブラリ全体を調べる。例えば、空間的により近いという理由から、古いフレームから現在のフレームに関するより多くの情報が得られるかもしれない。
本発明者らは、複数のフレームに対して同時にマッチングを行うと、連続フレームに対するマッチングよりも良好な結果が得られるという予想外の結果を見出した。このグローバルマッチングシステムは、本質的に点ライブラリ全体を調べて、実行可能な限り複数のフレームにわたって同じ点を追跡し続け、その情報を平均化する。そのライブラリ全体の全ての記述子を比較して「最良の記述子」を見つけ、それらの最良の記述子を有する点を比較することができる。その点は撮像されるアイテムにあるため、複数のフレームにわたるその点を平均化することで、その点に関するより多くの情報が得られる。平均化することにより、複数のフレームのそれぞれが、他の空間的に近いフレームに姿勢情報を与える。また、平均化を使用して、様々な種類の統計的ノイズを除去することによってそれらの真の位置をより正確に見つけてもよい。
後処理では、可能な限り離れた異なるフレーム間にグローバルマッチングを使用する。同じ点の異なる視点を含む異なるフレームは、その同じ点を表す。それらの点が常に同じであるため、それらを平均化することにより精度が高まる。本システムによれば、フレーム間の点位置の誤差を累積することなく、点を平均化する。
図7のフローチャートを参照しながら、そのような後処理を詳細に示す。700では、最良の既存の回転および平行移動R,T(典型的にはラフな姿勢)を取得する。これにより、全ての時間でカメラが存在する全ての場所のマップを生成する。各時間の各場所は、特定の3次元姿勢に対応している。
705では、このライブラリのためのルートノードとして姿勢を選択する。例えば、リストで第1の姿勢を選択することによって、これを本質的に無作為に選択することができる。あるいは、例えば、ルートノード姿勢として重心点を選ぶことによって、判定基準を選択することができる。
710では、選択された姿勢に近い全ての隣接姿勢を見つけることによって演算を継続させる。演算により、近接さに基づいて全ての3次元姿勢のグラフを表す情報が生成される。
最初に、706で姿勢に基づく歪み処理を行って、互いにより近似するように姿勢を歪ませる。本明細書では、図9を参照しながら、姿勢に基づく歪み処理について詳細に説明する。
歪み処理後に、710では、出発姿勢のT1内にある全ての隣接姿勢を見つける。これらの隣接姿勢のそれぞれを取り除き、ラベルをつける。T1は、誤り伝播を減少させるのに最大で実行可能な距離であるように選択されている値であるが、計算の実行可能性によってなお制限されている。
715では、隣接姿勢を取り除いた後に、第2の閾値T2を使用して子姿勢を見つける。残されている全ての姿勢が、ルートノードに対する隣接姿勢ではない。閾値T2は、異なる基準面の画像間において最小の重なりがあるか全く重なりがないような閾値である。T2は、T1よりも大きく、姿勢に基づく歪み処理により姿勢を見つけることができる最大距離として選択される。ルートノードに対してT2内にある点を子ノードと呼ぶ。T1+T2を超えるものはいずれもルートノードから非常にかけ離れているため、子ノードのT1は、親ノードによる影響を受けない。
全ての点をこのようにして分析する。フローチャート要素720は、全ての子ノードが見つかるまでこの演算を続けることを表す。725では、ライブラリ内の全てのノードは、子もしくは隣接ノードのいずれか一方である。この時点で、このサブプロセスは「完了している」と呼ばれる。
730では、ルートノードに対する隣接ノードをそれぞれ、ルートノードと共に平均化する。子ノードに対する隣接ノードをそれぞれ、その子ノードの全てと共に平均化する。これにより、平均姿勢値を形成する複数の異なる隣接ノードと共に平均化された重量なノードが生成される。
この時点で、子ノードとルートノードと間の平行移動を決定する。子ノードを平行移動させて、子ノードが親ノード内のどこにあるか決定する。次いで、重量な子ノードを平行移動させて、親ノードと共に平均化する。そのような動作により、多くの異なる姿勢に基づく非常に重量なノードが形成される。このようにして平均化された姿勢により、平均化によって向上したルートノードの非常に正確な描写が得られる。735で取得された新しいR,Tは、705として選択されたルートノードとその全ての隣接および子ノードと間の重量平均である。
この新しいRおよびTを、後処理された姿勢(最も詳細な真の姿勢)として使用して、より大きな精度で3次元値を再計算する。
本システムの利点は、時間的手法から生じ得るような誤差を累積することなく複数のフレームからの同じ点を互いに平均化することができる点である。また、演算を1つの層深さのみで実行するため、誤差は層を通って伝播しない。これは、相互相関点の識別誤差が伝播しないことを意味している。
(変形例)
一実施形態は、バイキュービックス(登録商標)プライン関数を用いた値間の補間を含む画像処理の特定の部分を行う。一実施形態によれば、バイキュービックス(登録商標)プライン関数は、1組のスプライン係数を形成する。各係数を使用して次の係数を計算する。係数の一覧は、1つの係数が他の係数の値に影響を与える因果関係を表す。
一実施形態によれば、スプライン係数全体のスライディングウィンドウとして、いくつか前の数の係数のみを用いて、バイキュービックス(登録商標)プライン関数を単純化する。本発明者らは、このスライディングウィンドウをバイキュービックス(登録商標)プライン計算を達成しない値まで(ここでは16ブロックだけ)選択することができることを見出した。例えば16ブロックを用いることによって、係数における誤差を、浮動小数点の変数の精度よりも小さくすることができる。しかし、このようにして結果を減少させることによって、各アイテムをGPUのシェーダで同時に計算することができる。これにより、超並列処理が可能になり、その結果、各単一のシェーダは、このようにして16個の係数のみを用いて一部を計算することができ、従って、各シェーダに1つの画素の値を計算させることができる。
重要なことに、本発明者らは、このような処理をGPUで行う場合、全ての値をシェーダ内に維持することが重要であることを見出した。例えば、バイキュービックス(登録商標)プラインなどの計算の中にはシェーダでより高速に実行することができるものもあるが、ソートや比較などの他の計算は、プロセッサでより高速に実行することができる。しかし、本発明者らは、シェーダとメインプロセッサと間の書込みでは、より多くの時間を要するため、シェーダでより非効率的に実行されるものでさえ、全てをシェーダ内で実行するとより高速となることを見出した。姿勢に基づく歪み処理では、上記のようにバイキュービックス(登録商標)プライン計算を使用し、また、この計算の一部または全てを、一実施形態に従ってGPUでより効率的に実行することができる。
CC演算の前に実行される別の演算では、他の値よりも中心、左および右の値に重み付けしてもよい。
別の演算では、相互相関演算の一部として実行される最終的な16×16の正方形中の全ての値の標準偏差を利用してもよい。画像の指定されたピークよりも高い任意の標準偏差値は、それらのピークがデータを偏らせないように切り捨てられる。これにより、異常に明るい画素を取り除いて、データを偏らせることを回避する。
別の演算では、青/赤の開口が1次元のみシフトされるように公知の値を利用してもよい。従って、相互相関細分のために、この1次元シフトは、生じ得る最大の変形を表してもよい。これよりも大きいあらゆる変形を相互相関細分で検出し、これを使用して最終値に重み付けすることができる。
以上、実施形態のほんの数例について詳細に開示してきたが、他の実施形態も可能であり、本発明者らは、これらも本明細書に包含することを意図している。本明細書は、別の方法で達成され得るより一般的な目的を達成するための具体例について記載している。本開示は、例示のためのものであり、特許請求の範囲は、当業者には予測可能であり得るあらゆる修正または他の形態を含むことが意図されている。例えば、相互相関以外のマッチングの他の形態を使用することができる。
当業者であれば、本明細書に開示されている実施形態に関連して記載されている様々な例示的な論理ブロック、モジュール、回路およびアルゴリズム工程が、電子ハードウェア、コンピュータソフトウェアまたはその両方の組み合わせとして実装され得ることをさらに理解しているであろう。ハードウェアおよびソフトウェアのこの互換性を明確に例示するために、概してそれらの機能性に関して、様々な例示的な構成要素、ブロック、モジュール、回路および工程について上に記載してきた。そのような機能性がハードウェアまたはソフトウェアとして実装されるか否かは、特定用途およびシステム全体に課される設計制約によって決まる。当業者は、各特定用途のために様々な方法で上記機能を実装することができるが、そのような実装の決定は、本発明の例示的な実施形態の範囲から逸脱するものとして解釈されてはならない。
本明細書に開示されている実施形態に関連して記載されている様々な例示的な論理ブロック、モジュールおよび回路を、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブルロジックデバイス、個別ゲートもしくはトランジスターロジック、個別ハードウェア構成要素、または本明細書に記載されている機能を実行するように設計されたそれらの任意の組み合わせと共に実装または実行してもよい。汎用プロセッサはマイクロプロセッサであってもよいが、これに代えて、プロセッサは、任意の従来のプロセッサ、制御装置、マイクロコントローラまたは状態機械であってもよい。プロセッサは、ユーザインタフェースと通信するユーザインタフェースポートも有しかつユーザによって入力された命令を受け取るコンピュータシステムの一部であってもよく、上記コンピュータシステムは、プロセッサの制御下で、ユーザインタフェースポートを介して通信可能に動作するプログラムなどの電子情報を格納する少なくとも1つのメモリ(例えば、ハードドライブまたは他の相当する記憶装置およびランダムアクセスメモリ)と、任意の種類のビデオ出力フォーマット(例えば、VGA、DVI、HDMI(登録商標)、ディスプレイポートまたは任意の他の形態)でその出力を生成するビデオ出力部とを有する。
プロセッサは、計算装置の組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、DSPコアと複数のマイクロプロセッサすなわち1つ以上のマイクロプロセッサとの組み合わせ、または任意のそのような他の構成として実装されていてもよい。また、これらの装置を使用して、本明細書に記載されている装置のための値を選択してもよい。
本明細書に開示される実施形態に関連して記載されている方法またはアルゴリズムの工程を、ハードウェアに、プロセッサによって実行されるソフトウェアモジュールに、あるいはこれらの2つの組み合わせに、直接具体化してもよい。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読取り専用メモリ(ROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、レジスタ、ハードディスク、取り外し可能なディスク、CD−ROM、または当該技術分野で知られている任意の他の形態の記憶媒体中に存在していてもよい。例示的な記憶媒体は、プロセッサが記憶媒体からの情報を読み込み、かつそこに情報を書き込むことができるように、プロセッサに接続されている。あるいは、記憶媒体は、プロセッサに一体化されていてもよい。プロセッサおよび記憶媒体は、ASIC内に存在していてもよい。ASICは、ユーザ端末内に存在していてもよい。あるいは、プロセッサおよび記憶媒体は、ユーザ端末内の個別の構成要素として存在していてもよい。
1つ以上の例示的な実施形態では、記載されている機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実装されていてもよい。ソフトウェア内に実装されている場合、当該機能は、コンピュータ可読媒体に格納されているか、1つ以上の命令もしくはコードとしてそこに伝送されてもよい。コンピュータ可読媒体としては、1つの場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含むコンピュータ記憶媒体および通信媒体の両方が挙げられる。記憶媒体は、コンピュータによってアクセスすることができる任意の利用可能な媒体でもあってもよい。一例であって、限定されるものではないが、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMもしくは他の光学ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶装置、または、命令もしくはデータ構造の形態で所望のプログラムコードを保持もしくは格納するために使用することができ、かつコンピュータによってアクセスすることができる任意の他の媒体を含むことができる。メモリ記憶装置は、回転磁気ハードディスクドライブ、光学ディスクドライブまたはフラッシュメモリ系記憶装置ドライブ、あるいは他のそのようなソリッドステート、磁気もしくは光学記憶装置であってもよい。また、任意の接続は、コンピュータ可読媒体と適切に称される。例えば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)または赤外線、無線およびマイクロ波などの無線技術を用いて、ウェブサイト、サーバまたは他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSLまたは赤外線、無線およびマイクロ波などの無線技術は媒体の定義に含まれる。本明細書に使用されているディスク(disk)およびディスク(disc)としては、コンパクトディスク(CD)、レーザディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイディスクが挙げられ、ここでは、ディスク(disk)は通常、磁気的にデータを再生するが、ディスク(disc)は、レーザで光学的にデータを再生する。上記組み合わせも、コンピュータ可読媒体の範囲に含まれるものとする。
本明細書に記載されている演算を、ウェブサイト上またはウェブサイトを通じて行うことができる。ウェブサイトは、サーバコンピュータで動作させるか、例えば、クライアントコンピュータにダウンロードすることによって、ローカルで動作させるか、あるいは、サーバファームを介して動作させることができる。ウェブサイトには、携帯電話またはPDAによって、あるいは任意の他のクライアント上でアクセスすることができる。ウェブサイトは、例えば、MHTMLまたはXMLなどの任意の形態のHTMLコードをカスケーディングスタイルシート(「CSS」)などの任意の形態で使用することができる。
また、本発明者らは、「〜のための手段」という言葉を使用するそれらの特許請求の範囲のみが米国特許法第112条第6段落の下で解釈されることを意図している。さらに、本明細書からの限定は、それらの限定が特許請求の範囲に明示的に含まれていない限り、いずれの請求項にも読み込まれないものとする。本明細書に記載されているコンピュータは、任意の種類のコンピュータ、すなわち、汎用コンピュータまたはワークステーションなどのいくつかの特定の目的のコンピュータのうちのいずれか一方であってもよい。プログラムは、CもしくはJava(登録商標)、Brewまたは任意の他のプログラミング言語で書かれていてもよい。プログラムは、例えば、磁気もしくは光学の記憶媒体、例えば、コンピュータハードディスク、メモリースティックもしくはSD媒体などの取り外し可能なディスクもしくは媒体、または他の取り外し可能な媒体に常駐していてもよい。また、プログラムを、例えば、本明細書に記載されている演算を行わせることができるローカル機械に信号を送信するサーバまたは他の機械を用いて、ネットワーク上で実行してもよい。
本明細書において具体的な数値が言及されている場合、本出願の教示の範囲内になお留まっており、異なる範囲が具体的に言及されていない限り、その値は20%で増減し得るものとみなす。これらの実施形態の多くが64ビットについて述べているが、128もしくは256ビットのプロセッサもしくは処理を代わりに使用することができる。特定の論理的意味が使用されている場合、反対の論理的意味も含まれるものとする。
開示されている例示的な実施形態の先の記述は、任意の当業者が本発明を製造または利用できるように提供されている。当業者には、これらの例示的な実施形態に対する様々な修正は容易に明らかであり、本明細書に定義されている一般的な原理は、本発明の趣旨または範囲を逸脱しない限り、他の実施形態に適用してもよい。従って、本発明は、本明細書に示されている実施形態に限定されるものではなく、本明細書に開示されている原理および新しい特徴と矛盾しない最も広い範囲を認めるものとする。

Claims (8)

  1. 3次元高密度データセットを表し、対象物の走査された画像フレームを有するスキャナ出力のためにカメラ位置を決定する方法であって、
    前のフレーム群のロバストな記述子を使用して、前記前のフレーム群と現在のフレームとの一致があるか否かを決定することによって、逐次的に撮影された複数の画像フレームから暫定的なカメラ位置を決定する工程と、
    前記暫定的なカメラ位置を使用して、前記現在のフレームと発見されたフレームとを相互相関させることによってラフなカメラ位置を決定する工程と、
    を含み、
    前記画像フレームは、少なくとも2つの異なるチャネルから取得され、前記少なくとも2つの異なるチャネルは、(a)マスク中のレンズおよび第1の開口を通して光が透過する第1のチャネルと、(b)前記マスク中の前記レンズおよび第2の開口を通して光が透過する第2のチャネルとを含む、方法。
  2. 前記3次元高密度データセットは、関連する3次元キーポイントデータセットを有し、前記暫定的なカメラ位置が決定されない場合は、前記関連する3次元キーポイントデータセットに基づきフレームをマッチングすることによって前記暫定的なカメラ位置を決定する、請求項1に記載の方法。
  3. 前記ラフなカメラ位置決定を用いて、単なる表示用の前記高密度データセット集合を生成する工程をさらに含む、請求項1に記載の方法。
  4. 前記暫定的なカメラ位置およびラフなカメラ位置の決定を、コンピュータプロセッサでリアルタイムに決定する、請求項1に記載の方法。
  5. 前記ラフなカメラ位置を用いて詳細なカメラ位置を決定する工程をさらに含む、請求項1に記載の方法。
  6. 前記詳細なカメラ位置の決定を後処理で行う、請求項5に記載の方法。
  7. 前記詳細なカメラ位置を決定する工程は、
    第1の閾値距離で複数の前記3次元高密度データセットのマッチングを行う工程と、
    別の複数の3次元高密度データセットを前記第1の閾値距離でマッチングした前記複数のうちの1つとマッチングする工程と、
    全ての対象のフレームがそのようにマッチングされるまで、別の複数の3次元高密度データセットを前記第1の閾値距離でマッチングした前記複数の別の一つとマッチングする工程と、
    前記マッチングしたセットの相対位置を決定する工程と、
    を含む、請求項5に記載の方法。
  8. 前記詳細なカメラ位置の決定を用いて前記高密度データセット集合から物理的なモデルを生成するためにコンピュータ可読走査出力を生成する工程をさらに含む、請求項7に記載の方法。
JP2013527054A 2010-09-03 2010-11-19 3次元撮像システム Active JP6007178B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US38009410P 2010-09-03 2010-09-03
US61/380,094 2010-09-03
PCT/US2010/057532 WO2012030357A1 (en) 2010-09-03 2010-11-19 Three-dimensional imaging system

Publications (2)

Publication Number Publication Date
JP2013541081A JP2013541081A (ja) 2013-11-07
JP6007178B2 true JP6007178B2 (ja) 2016-10-12

Family

ID=43857920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013527054A Active JP6007178B2 (ja) 2010-09-03 2010-11-19 3次元撮像システム

Country Status (6)

Country Link
US (2) US10182223B2 (ja)
EP (2) EP2612297B1 (ja)
JP (1) JP6007178B2 (ja)
CN (2) CN107103622B (ja)
DK (2) DK3091508T3 (ja)
WO (1) WO2012030357A1 (ja)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100017234A (ko) 2007-04-23 2010-02-16 캘리포니아 인스티튜트 오브 테크놀로지 편광 감지 센서와 연결된 편광 코드화 개구 마스크를 사용하는 단일-렌즈, 3-d 영상화 장치
WO2012046413A1 (ja) * 2010-10-05 2012-04-12 パナソニック株式会社 内視鏡
US9403238B2 (en) 2011-09-21 2016-08-02 Align Technology, Inc. Laser cutting
US9375300B2 (en) 2012-02-02 2016-06-28 Align Technology, Inc. Identifying forces on a tooth
US9220580B2 (en) 2012-03-01 2015-12-29 Align Technology, Inc. Determining a dental treatment difficulty
US8999371B2 (en) 2012-03-19 2015-04-07 Arges Imaging, Inc. Contrast pattern application for three-dimensional imaging
JP5924086B2 (ja) * 2012-04-04 2016-05-25 セイコーエプソン株式会社 画像処理装置および画像処理方法
US9414897B2 (en) 2012-05-22 2016-08-16 Align Technology, Inc. Adjustment of tooth position in a virtual dental model
FR2994057B1 (fr) * 2012-07-31 2015-04-03 Tiam Robot de taille de vignes comprenant des moyens de captation d'images mettant en œuvre des moyens de projection d'un faisceau laser
EP2775256B1 (de) * 2013-03-07 2019-07-10 a.tron3d GmbH Verfahren zum optischen Erfassen der dreidimensionalen Geometrie von Objekten
US20160189419A1 (en) * 2013-08-09 2016-06-30 Sweep3D Corporation Systems and methods for generating data indicative of a three-dimensional representation of a scene
EP2860550B1 (de) 2013-10-09 2016-03-02 Hexagon Technology Center GmbH Scanner zur Raumvermessung
US11122180B2 (en) * 2014-05-02 2021-09-14 Dentsply Sirona Inc. Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3D scan
US9591286B2 (en) * 2014-05-14 2017-03-07 3M Innovative Properties Company 3D image capture apparatus with depth of field extension
US10772506B2 (en) 2014-07-07 2020-09-15 Align Technology, Inc. Apparatus for dental confocal imaging
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
US10449016B2 (en) 2014-09-19 2019-10-22 Align Technology, Inc. Arch adjustment appliance
US9610141B2 (en) 2014-09-19 2017-04-04 Align Technology, Inc. Arch expanding appliance
US9706105B2 (en) 2014-10-20 2017-07-11 Symbol Technologies, Llc Apparatus and method for specifying and aiming cameras at shelves
CN104403923B (zh) * 2014-11-11 2016-11-23 南京卡迪睿伯生物技术有限公司 三维组织器官培养模型及其高通量自动化立体图像分析平台及其应用
US9744001B2 (en) 2014-11-13 2017-08-29 Align Technology, Inc. Dental appliance with cavity for an unerupted or erupting tooth
US20160191901A1 (en) * 2014-12-24 2016-06-30 3M Innovative Properties Company 3d image capture apparatus with cover window fiducials for calibration
US10504386B2 (en) 2015-01-27 2019-12-10 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
CN104783801A (zh) * 2015-04-14 2015-07-22 精迪测量技术(上海)有限公司 人体高速扫描仪及三维建模方法
US10248883B2 (en) 2015-08-20 2019-04-02 Align Technology, Inc. Photograph-based assessment of dental treatments and procedures
US11931222B2 (en) 2015-11-12 2024-03-19 Align Technology, Inc. Dental attachment formation structures
US11554000B2 (en) 2015-11-12 2023-01-17 Align Technology, Inc. Dental attachment formation structure
US11103330B2 (en) 2015-12-09 2021-08-31 Align Technology, Inc. Dental attachment placement structure
US11596502B2 (en) 2015-12-09 2023-03-07 Align Technology, Inc. Dental attachment placement structure
JP6906303B2 (ja) * 2015-12-30 2021-07-21 ダッソー システムズDassault Systemes 密度ベースのグラフィカルマッピング
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
TWI573432B (zh) * 2016-05-04 2017-03-01 全友電腦股份有限公司 掃描具有深度影像之物件之影像掃瞄方法及其系統
WO2017218947A1 (en) 2016-06-17 2017-12-21 Align Technology, Inc. Intraoral appliances with sensing
US10383705B2 (en) 2016-06-17 2019-08-20 Align Technology, Inc. Orthodontic appliance performance monitor
CN106878697A (zh) * 2016-06-29 2017-06-20 鲁班嫡系机器人 一种拍摄方法及其成像方法、装置和设备
DK3578131T3 (da) 2016-07-27 2020-12-21 Align Technology Inc Intraoral scanner med dentale diagnosticeringsegenskaber
US10507087B2 (en) 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
WO2018085718A2 (en) 2016-11-04 2018-05-11 Align Technology, Inc. Methods and apparatuses for dental images
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
WO2018102702A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Dental appliance features for speech enhancement
AU2017366755B2 (en) 2016-12-02 2022-07-28 Align Technology, Inc. Methods and apparatuses for customizing rapid palatal expanders using digital models
CN110035708B (zh) 2016-12-02 2021-11-05 阿莱恩技术有限公司 腭扩张器和扩张腭的方法
WO2018102770A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Force control, stop mechanism, regulating structure of removable arch adjustment appliance
US10548700B2 (en) 2016-12-16 2020-02-04 Align Technology, Inc. Dental appliance etch template
US10456043B2 (en) 2017-01-12 2019-10-29 Align Technology, Inc. Compact confocal dental scanning apparatus
CN108399633A (zh) * 2017-02-06 2018-08-14 罗伯团队家居有限公司 用于立体视觉的方法和装置
US10779718B2 (en) 2017-02-13 2020-09-22 Align Technology, Inc. Cheek retractor and mobile device holder
US10613515B2 (en) 2017-03-31 2020-04-07 Align Technology, Inc. Orthodontic appliances including at least partially un-erupted teeth and method of forming them
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
WO2018204342A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Product status detection system
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US10663590B2 (en) * 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10505057B2 (en) 2017-05-01 2019-12-10 Symbol Technologies, Llc Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US11600084B2 (en) 2017-05-05 2023-03-07 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
US11045283B2 (en) 2017-06-09 2021-06-29 Align Technology, Inc. Palatal expander with skeletal anchorage devices
WO2019005808A1 (en) 2017-06-26 2019-01-03 Align Technology, Inc. BIOCAPTOR PERFORMANCE INDICATOR FOR INTRABUCCAL DEVICES
US10885521B2 (en) 2017-07-17 2021-01-05 Align Technology, Inc. Method and apparatuses for interactive ordering of dental aligners
CN111107806B (zh) 2017-07-21 2022-04-19 阿莱恩技术有限公司 颚轮廓锚固
EP4278957A3 (en) 2017-07-27 2024-01-24 Align Technology, Inc. System and methods for processing an orthodontic aligner by means of an optical coherence tomography
WO2019023461A1 (en) 2017-07-27 2019-01-31 Align Technology, Inc. TINT, TRANSPARENCY AND DENTAL ENAMEL
CN109325394B (zh) 2017-08-01 2022-06-21 苹果公司 确定稀疏图案照明与密集图案照明
WO2019035979A1 (en) 2017-08-15 2019-02-21 Align Technology, Inc. EVALUATION AND CALCULATION OF BUCCAL CORRIDOR
WO2019036677A1 (en) 2017-08-17 2019-02-21 Align Technology, Inc. SURVEILLANCE OF CONFORMITY OF DENTAL DEVICE
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US10813720B2 (en) 2017-10-05 2020-10-27 Align Technology, Inc. Interproximal reduction templates
EP3700458B1 (en) 2017-10-27 2023-06-07 Align Technology, Inc. Alternative bite adjustment structures
CN111295153B (zh) 2017-10-31 2023-06-16 阿莱恩技术有限公司 具有选择性牙合负荷和受控牙尖交错的牙科器具
CN108269300B (zh) * 2017-10-31 2019-07-09 先临三维科技股份有限公司 牙齿三维数据重建方法、装置和系统
EP3703607A2 (en) 2017-11-01 2020-09-09 Align Technology, Inc. Automatic treatment planning
WO2019100022A1 (en) 2017-11-17 2019-05-23 Align Technology, Inc. Orthodontic retainers
EP3716885B1 (en) 2017-11-30 2023-08-30 Align Technology, Inc. Orthodontic intraoral appliances comprising sensors
WO2019118876A1 (en) 2017-12-15 2019-06-20 Align Technology, Inc. Closed loop adaptive orthodontic treatment methods and apparatuses
US10980613B2 (en) 2017-12-29 2021-04-20 Align Technology, Inc. Augmented reality enhancements for dental practitioners
AU2019212649A1 (en) 2018-01-26 2020-07-02 Align Technology, Inc. Diagnostic intraoral scanning and tracking
CN108459417B (zh) * 2018-02-05 2020-06-26 华侨大学 一种单目窄带多光谱立体视觉系统及其使用方法
US11937991B2 (en) 2018-03-27 2024-03-26 Align Technology, Inc. Dental attachment placement structure
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
CN116211501A (zh) 2018-04-11 2023-06-06 阿莱恩技术有限公司 腭扩张器、腭扩张器设备及系统、腭扩张器的形成方法
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
CA3130916A1 (en) * 2019-06-07 2020-12-10 Mayekawa Mfg. Co., Ltd. Image processing device, image processing program, and image processing method
CN110187627B (zh) * 2019-06-28 2021-04-02 赣南师范大学 一种复振幅传感成像装置和方法
CN110704883B (zh) * 2019-09-30 2020-08-04 贵州航天云网科技有限公司 一种基于增材制造协同设计的方法及系统
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
CN115272542A (zh) * 2021-04-29 2022-11-01 中兴通讯股份有限公司 三维成像方法、装置、设备及存储介质

Family Cites Families (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283641A (en) 1954-12-24 1994-02-01 Lemelson Jerome H Apparatus and methods for automated analysis
JPS5258529A (en) 1975-11-08 1977-05-14 Canon Inc Camera system
JPS52149120A (en) 1976-06-07 1977-12-12 Minolta Camera Co Ltd Interchangeable lens
US4264921A (en) 1979-06-29 1981-04-28 International Business Machines Corporation Apparatus for color or panchromatic imaging
US4879664A (en) 1985-05-23 1989-11-07 Kabushiki Kaisha Toshiba Three-dimensional position sensor and three-dimensional position setting system
US4727471A (en) 1985-08-29 1988-02-23 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Miniature lightweight digital camera for robotic vision system applications
US4650466A (en) 1985-11-01 1987-03-17 Angiobrade Partners Angioplasty device
US5235857A (en) 1986-05-02 1993-08-17 Forrest Anderson Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters
GB8617567D0 (en) 1986-07-18 1986-08-28 Szilard J Ultrasonic imaging apparatus
US5579444A (en) 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
US4948258A (en) 1988-06-27 1990-08-14 Harbor Branch Oceanographic Institute, Inc. Structured illumination surface profiling and ranging systems and methods
JP2655885B2 (ja) 1988-08-05 1997-09-24 株式会社フジクラ 限界電流式ガス濃度センサの駆動方法
CA1316590C (en) 1989-04-17 1993-04-20 Marc Rioux Three-dimensional imaging device
US5476100A (en) 1994-07-07 1995-12-19 Guided Medical Systems, Inc. Catheter steerable by directional jets with remotely controlled closures
CA1319188C (en) 1989-08-24 1993-06-15 Marc Rioux Three dimensional imaging device
JP2878409B2 (ja) 1989-09-04 1999-04-05 株式会社リコー 3次元物体撮像方式
CN1019919C (zh) 1990-03-08 1993-02-17 清华大学 具有新型声镜的反射式声显微镜
JPH03289293A (ja) 1990-04-04 1991-12-19 Mitsubishi Electric Corp 撮像装置
US5221261A (en) 1990-04-12 1993-06-22 Schneider (Usa) Inc. Radially expandable fixation member
US5071407A (en) 1990-04-12 1991-12-10 Schneider (U.S.A.) Inc. Radially expandable fixation member
US5222971A (en) 1990-10-09 1993-06-29 Scimed Life Systems, Inc. Temporary stent and methods for use and manufacture
JP3210027B2 (ja) 1991-04-05 2001-09-17 キヤノン株式会社 カメラ
US5206498A (en) 1991-06-07 1993-04-27 Asahi Kogaku Kogyo Kabushiki Kaisha Focus detecting apparatus having variable power condenser lens
US5216695A (en) 1991-06-14 1993-06-01 Anro Engineering, Inc. Short pulse microwave source with a high prf and low power drain
GB2258928B (en) 1991-08-16 1994-09-28 Keymed A borescope
US5270795A (en) 1992-08-11 1993-12-14 National Research Council Of Canada/Conseil National De Rechereches Du Canada Validation of optical ranging of a target surface in a cluttered environment
US5373151A (en) 1993-10-04 1994-12-13 Raytheon Company Optical system including focal plane array compensation technique for focusing and periodically defocusing a beam
GB9323054D0 (en) 1993-11-09 1994-01-05 British Nuclear Fuels Plc Determination of the surface properties of an omject
IL111229A (en) 1994-10-10 1998-06-15 Nova Measuring Instr Ltd Autofocusing microscope
US5527282A (en) 1994-12-09 1996-06-18 Segal; Jerome Vascular dilatation device and method
JPH08272938A (ja) * 1995-03-31 1996-10-18 Canon Inc 形状の統合方法とその装置
US5864359A (en) 1995-05-30 1999-01-26 Smith & Nephew, Inc. Stereoscopic autofocusing based on comparing the left and right eye images
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5922961A (en) 1996-05-10 1999-07-13 The United States Of America As Represented By The Secretary Of Commerce Time and polarization resolved acoustic microscope
US5745067A (en) 1996-07-17 1998-04-28 Industrial Technology Research Institute Two stage analoge-to-digital converter having unique fine encoding circuitry
JP3198938B2 (ja) 1996-09-03 2001-08-13 株式会社エフ・エフ・シー 移動カメラ用の画像処理装置
US7194117B2 (en) 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6115553A (en) 1996-09-17 2000-09-05 Asahi Kogaku Kogyo Kabushiki Kaisha Multipoint autofocus system
US6858826B2 (en) 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6045623A (en) 1997-04-24 2000-04-04 Cannon; Bradley Jay Method and apparatus for cleaning catheter lumens
US5928260A (en) 1997-07-10 1999-07-27 Scimed Life Systems, Inc. Removable occlusion system for aneurysm neck
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
US6545701B2 (en) 1997-08-13 2003-04-08 Georgia Tech Research Corporation Panoramic digital camera system and method
JP4054422B2 (ja) 1997-11-13 2008-02-27 キヤノン株式会社 カメラ及び交換レンズ装置
US7612870B2 (en) 1998-02-25 2009-11-03 California Institute Of Technology Single-lens aperture-coded camera for three dimensional imaging in small volumes
WO1999044096A2 (en) 1998-02-25 1999-09-02 California Institute Of Technology Aperture coded camera for three-dimensional imaging
US7006132B2 (en) 1998-02-25 2006-02-28 California Institute Of Technology Aperture coded camera for three dimensional imaging
US6113588A (en) 1998-03-13 2000-09-05 Corvascular, Inc. Transillumination catheter and method
US6563543B1 (en) 1998-03-31 2003-05-13 Hewlett-Packard Development Company, L.P. Digital camera and method of using same
US6304284B1 (en) 1998-03-31 2001-10-16 Intel Corporation Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US6912293B1 (en) 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US6748112B1 (en) 1998-07-28 2004-06-08 General Electric Company Method and apparatus for finding shape deformations in objects having smooth surfaces
US6262803B1 (en) 1998-09-10 2001-07-17 Acuity Imaging, Llc System and method for three-dimensional inspection using patterned light projection
US6227850B1 (en) 1999-05-13 2001-05-08 Align Technology, Inc. Teeth viewing system
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
US6271918B2 (en) 1999-02-04 2001-08-07 National Research Council Of Canada Virtual multiple aperture 3-D range sensor
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US7236622B2 (en) 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
US6519359B1 (en) 1999-10-28 2003-02-11 General Electric Company Range camera controller for acquiring 3D models
US6648640B2 (en) 1999-11-30 2003-11-18 Ora Metrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US7075930B1 (en) 2000-04-11 2006-07-11 Telefonaktiebolaget Lm Ericsson (Publ) System and method for packet data servicing node (PDSN)initial assignment and reselection
US6638239B1 (en) 2000-04-14 2003-10-28 Glaukos Corporation Apparatus and method for treating glaucoma
EP1150327B1 (en) 2000-04-27 2018-02-14 ICT, Integrated Circuit Testing Gesellschaft für Halbleiterprüftechnik mbH Multi beam charged particle device
GB2373329B (en) 2000-05-05 2003-03-05 Acoustical Tech Sg Pte Ltd Acoustic microscope
TW527518B (en) 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
JP2002034056A (ja) 2000-07-18 2002-01-31 Scalar Corp 立体視用画像の撮像装置、立体視用画像の撮像方法
JP2002164066A (ja) 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
EP1354292B1 (en) 2000-12-01 2012-04-04 Imax Corporation Method and apparatus FOR DEVELOPING HIGH-RESOLUTION IMAGERY
US7304677B2 (en) 2000-12-13 2007-12-04 Eastman Kodak Company Customizing a digital camera based on demographic factors
JP2002220991A (ja) 2001-01-25 2002-08-09 Kajima Corp 本坑シ−ルドトンネル内に設ける隔壁とその構築方法
JP2002254708A (ja) 2001-03-06 2002-09-11 Fuji Photo Film Co Ltd 色再現方法およびこの方法を用いるデジタルカラーハードコピー装置、並びに上記方法を実行するためのプログラム
US6765569B2 (en) 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US6915008B2 (en) 2001-03-08 2005-07-05 Point Grey Research Inc. Method and apparatus for multi-nodal, three-dimensional imaging
US7423666B2 (en) 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
US6701181B2 (en) 2001-05-31 2004-03-02 Infraredx, Inc. Multi-path optical catheter
JP2003050110A (ja) * 2001-08-07 2003-02-21 Minolta Co Ltd 3次元形状データ生成システム、3次元形状データ生成方法、プログラム、および記録媒体
US6741730B2 (en) * 2001-08-10 2004-05-25 Visiongate, Inc. Method and apparatus for three-dimensional imaging in the fourier domain
JP4048779B2 (ja) * 2001-12-28 2008-02-20 松下電工株式会社 距離画像処理装置
US6873868B2 (en) 2001-12-31 2005-03-29 Infraredx, Inc. Multi-fiber catheter probe arrangement for tissue analysis or treatment
CA2369710C (en) 2002-01-30 2006-09-19 Anup Basu Method and apparatus for high resolution 3d scanning of objects having voids
US7340077B2 (en) 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP3932946B2 (ja) 2002-03-28 2007-06-20 ソニー株式会社 無線通信装置および無線通信方法、並びにプログラム
JP2004046772A (ja) 2002-05-13 2004-02-12 3D Media Co Ltd 画像処理方法、画像処理システム、及び画像処理装置
US20050119684A1 (en) 2002-07-12 2005-06-02 Guterman Lee R. Aneurysm buttress arrangement
US7106375B2 (en) 2002-09-12 2006-09-12 Eastman Kodak Company Mutual display support for a digital information/imaging system
US20040155975A1 (en) 2002-09-17 2004-08-12 Hart Douglas P. 3-D imaging system
JP2006507722A (ja) 2002-10-22 2006-03-02 アートゥールワークス 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡
GB2395261A (en) 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
JP4090860B2 (ja) 2002-12-12 2008-05-28 オリンパス株式会社 3次元形状測定装置
US7171054B2 (en) 2003-05-01 2007-01-30 Eastman Kodak Company Scene-based method for determining focus
US7496226B2 (en) 2003-09-19 2009-02-24 University Of Miami Multi-camera inspection of underwater structures
US7609289B2 (en) 2003-09-25 2009-10-27 Omnitek Partners, Llc Methods and apparatus for capturing images with a multi-image lens
KR101068078B1 (ko) 2004-01-30 2011-09-28 가부시키가이샤 모리텍스 촬상장치, 촬상렌즈, 촬상렌즈에의 데이터 기록방법
US7212330B2 (en) 2004-03-22 2007-05-01 Angstrom, Inc. Three-dimensional imaging system for pattern recognition
US20050251116A1 (en) 2004-05-05 2005-11-10 Minnow Medical, Llc Imaging and eccentric atherosclerotic material laser remodeling and/or ablation catheter
GB0410551D0 (en) 2004-05-12 2004-06-16 Ller Christian M 3d autostereoscopic display
JP2005341416A (ja) 2004-05-28 2005-12-08 Toshiba Corp 撮像機能付き電子機器およびその画像表示方法
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
EP1765172B1 (en) 2004-06-18 2013-04-24 Elmaleh, David R. Intravascular imaging device and uses thereof
US20080091691A1 (en) 2004-10-28 2008-04-17 Kukui, University Of Datebase Device, Database Management Method, Data Structure Of Database, Database Management Program, And Computer-Readable Storage Medium Storing Same Program
US20060092314A1 (en) 2004-10-31 2006-05-04 Silverstein D A Autofocus using a filter with multiple apertures
US7668388B2 (en) 2005-03-03 2010-02-23 Mitutoyo Corporation System and method for single image focus assessment
ATE518113T1 (de) 2005-03-11 2011-08-15 Creaform Inc Selbstreferenziertes system und vorrichtung zum dreidimensionalen scannen
US7577309B2 (en) 2005-06-18 2009-08-18 Muralidhara Subbarao Direct vision sensor for 3D computer vision, digital imaging, and digital video
US7565029B2 (en) 2005-07-08 2009-07-21 Seiko Epson Corporation Method for determining camera position from two-dimensional images that form a panorama
TWI286921B (en) 2005-09-09 2007-09-11 Quanta Comp Inc Apparatus for minimizing electromagnetic interference and manufacturing method thereof
EP1942793A2 (en) 2005-09-30 2008-07-16 Cornova, Inc. Systems and methods for analysis and treatment of a body lumen
WO2007041690A2 (en) 2005-10-04 2007-04-12 Alexander Eugene J Device for generating three dimensional surface models of moving objects
US7715918B2 (en) 2005-10-18 2010-05-11 University Of Cincinnati Muscle energy converter with smooth continuous tissue interface
WO2007061632A2 (en) 2005-11-09 2007-05-31 Geometric Informatics, Inc. Method and apparatus for absolute-coordinate three-dimensional surface imaging
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7342658B2 (en) 2005-12-28 2008-03-11 Eastman Kodak Company Programmable spectral imaging system
US7646550B2 (en) 2006-02-13 2010-01-12 3M Innovative Properties Company Three-channel camera systems with collinear apertures
US7819591B2 (en) 2006-02-13 2010-10-26 3M Innovative Properties Company Monocular three-dimensional imaging
EP1984785B1 (en) 2006-02-13 2014-05-07 3M Innovative Properties Company Monocular three-dimensional imaging
US7372642B2 (en) 2006-02-13 2008-05-13 3M Innovative Properties Company Three-channel camera systems with non-collinear apertures
EP2013641A2 (en) 2006-04-05 2009-01-14 California Institute of Technology 3- dimensional imaging by acoustic warping and defocusing
CA2650557C (en) 2006-05-05 2014-09-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
JP5362189B2 (ja) 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
EP2062158B1 (en) * 2006-07-31 2012-09-05 OnLive, Inc. System and method for performing motion capture and image reconstruction
JP4974650B2 (ja) 2006-11-10 2012-07-11 ペンタックスリコーイメージング株式会社 交換レンズ及びレンズデータ通信方法
US8089635B2 (en) 2007-01-22 2012-01-03 California Institute Of Technology Method and system for fast three-dimensional imaging using defocusing and feature recognition
KR20090104857A (ko) 2007-01-22 2009-10-06 캘리포니아 인스티튜트 오브 테크놀로지 정량적 3-d 이미징을 위한 방법 및 장치
US7889197B2 (en) 2007-01-26 2011-02-15 Captivemotion, Inc. Method of capturing, processing, and rendering images
KR20100017234A (ko) 2007-04-23 2010-02-16 캘리포니아 인스티튜트 오브 테크놀로지 편광 감지 센서와 연결된 편광 코드화 개구 마스크를 사용하는 단일-렌즈, 3-d 영상화 장치
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8401276B1 (en) * 2008-05-20 2013-03-19 University Of Southern California 3-D reconstruction and registration
WO2009155151A2 (en) * 2008-06-20 2009-12-23 Visiongate, Inc. Functional imaging of cells optical projection tomography
WO2010011355A2 (en) 2008-07-25 2010-01-28 California Institute Of Technology Imaging catheter using laser profile for plaque depth measurement
WO2010027391A2 (en) 2008-08-27 2010-03-11 California Institute Of Technology Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing
CN101650435B (zh) * 2009-06-10 2012-02-29 电子科技大学 基于子孔径逼近线阵三维成像合成孔径雷达快速成像方法
US8773507B2 (en) 2009-08-11 2014-07-08 California Institute Of Technology Defocusing feature matching system to measure camera pose with interchangeable lens cameras
WO2011031538A2 (en) 2009-08-27 2011-03-17 California Institute Of Technology Accurate 3d object reconstruction using a handheld device with a projected light pattern

Also Published As

Publication number Publication date
CN103221975B (zh) 2017-04-19
US20200275077A9 (en) 2020-08-27
US10742957B2 (en) 2020-08-11
US20190174117A1 (en) 2019-06-06
EP3091508B1 (en) 2018-12-26
CN103221975A (zh) 2013-07-24
EP3091508A2 (en) 2016-11-09
DK3091508T3 (en) 2019-04-08
WO2012030357A1 (en) 2012-03-08
CN107103622B (zh) 2021-08-03
US10182223B2 (en) 2019-01-15
US20130235165A1 (en) 2013-09-12
JP2013541081A (ja) 2013-11-07
EP2612297B1 (en) 2017-08-09
CN107103622A (zh) 2017-08-29
EP3091508A3 (en) 2016-12-28
DK2612297T3 (da) 2017-11-13
EP2612297A1 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
JP6007178B2 (ja) 3次元撮像システム
JP6855587B2 (ja) 視点から距離情報を取得するための装置及び方法
Gallo et al. 3D reconstruction of small sized objects from a sequence of multi-focused images
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP4915859B2 (ja) 物体の距離導出装置
JP6112769B2 (ja) 情報処理装置、情報処理方法
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
JP2009509582A (ja) 3次元イメージングにおけるアーチファクトの軽減
US20150177062A1 (en) Information processing apparatus, information processing method, and storage medium
JP2016537901A (ja) ライトフィールド処理方法
WO2014011182A1 (en) Convergence/divergence based depth determination techniques and uses with defocusing imaging
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6614905B2 (ja) 三次元計測装置およびその制御方法
JP2016213535A (ja) カメラキャリブレーション装置、方法及びプログラム
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
KR101000859B1 (ko) 어안렌즈를 이용한 hdri파노라마 영상 생성장치 및 방법
JP7300895B2 (ja) 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
WO2014011179A1 (en) Defocusing with projection grid including identification features
JPWO2019016879A1 (ja) 物体検出装置、及び、物体検出手法
WO2020047692A1 (en) 3-d intraoral scanner using light field imaging
KR101775110B1 (ko) 고품질 텍스처 획득 방법 및 이를 위한 장치
Woodward et al. Real-time stereo vision on the visionserver framework for robot guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140926

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141003

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141027

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141128

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150707

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160912

R150 Certificate of patent or registration of utility model

Ref document number: 6007178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250