JP5167279B2 - 定量的な三次元撮像のための方法および装置 - Google Patents

定量的な三次元撮像のための方法および装置 Download PDF

Info

Publication number
JP5167279B2
JP5167279B2 JP2009547304A JP2009547304A JP5167279B2 JP 5167279 B2 JP5167279 B2 JP 5167279B2 JP 2009547304 A JP2009547304 A JP 2009547304A JP 2009547304 A JP2009547304 A JP 2009547304A JP 5167279 B2 JP5167279 B2 JP 5167279B2
Authority
JP
Japan
Prior art keywords
aperture
pattern
sensor
image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009547304A
Other languages
English (en)
Other versions
JP2010517039A5 (ja
JP2010517039A (ja
Inventor
ガハリブ,モーテザ
グラッフ,エミリオ
ペレイラ,フランシスコ
Original Assignee
カリフォルニア インスティテュート オブ テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カリフォルニア インスティテュート オブ テクノロジー filed Critical カリフォルニア インスティテュート オブ テクノロジー
Publication of JP2010517039A publication Critical patent/JP2010517039A/ja
Publication of JP2010517039A5 publication Critical patent/JP2010517039A5/ja
Application granted granted Critical
Publication of JP5167279B2 publication Critical patent/JP5167279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、定量的な可視化システムに関し、より具体的には、表面撮像および三次元撮像により被写体から追加的な情報を得るためのシステムに関する。
本願は非仮特許出願であり、米国特許仮出願第60/881,776号(2007年1月22日出願、発明の名称「デフォーカス技術に基づく単一レンズ三次元撮像装置」)、米国特許仮出願第60/881,779号(2007年1月22日出願、発明の名称「デフォーカス技術に基づく携帯用三次元マッピング装置」、および、米国特許仮出願第60/881,762号(2007年1月22日出願、発明の名称「カメラベースの定量三次元撮像システムにおける必要な視点の数を低減する方法」)による優先権主張をする。
三次元(3D)撮像は、撮像技術改良の恩恵を受けうる常に進化し続けている分野である。強化された三次元撮像は、例えば、(定量的三次元撮像により)撮像された被写体の定量的な情報を生成するなど、多様な目的に使用可能である。しかし、現在の撮像技術は、定量的な三次元撮像を十分支援することはできていない。例えば、撮像系の焦点面上にない点が、撮像系により撮像される時、センサーにより検出された獲得点は、デフォーカスであるといわれる。撮像系が大きな絞り開口を有する場合、この非合焦点は、ぼやけて現れる。したがって、点の画像のぼやけは、点から焦点面への空間距離を定量的に決定するために用いられうると提案されている。また、焦点面の位置を知ることにより、撮像系を用いて定量的な三次元撮像を行うことができると提案されている。点の三次元位置を再構成するためには、ぼやけた円盤の大きさおよび/または強度(Z)と、センサー上の点の位置(X、Y)とを測定することのみが必要である。
しかしながら、実践的には、このようなシステムを効果的に実現するのは難しい。第1に、ぼやけた画像は、センサー上の多大なスペースを占有するので、重複する画像を分離する洗練されたアルゴリズムが必要である。第2に、(焦点面が光学系に非常に接近していない限り)光学系に入射する光量は、合焦点と非合焦点との間で感知できるほど変わらない。したがって、ぼやけた画像も、合焦画像と同じ量のエネルギーをセンサー上へ投射するが、より大きな面積に広がっている。非合焦画像の強度は、その面積に反比例しており、その結果、ぼやけに基づいて焦点面と点との間の距離を定量的に測定するには、極端に大きい動的範囲を有するセンサーが必要である。実際のレンズでは回折効果もあり、これにより、ぼやけた画像が、ある深度領域では、広いガウス分布というよりはむしろ輪形状に見え、ソフトウェア処理側がより複雑になる。例えば、非特許文献1を参照されたい。レンズ収差または回折がない場合でさえ、深度情報はぼやけたスポットの直径の測定結果より導きだされるので、撮像された点の強度がこの測定結果に影響を与えるという事実により、画像処理は複雑になる。例えば、2つの非合焦点A・Bが同じデフォーカス量を有するが、点Aのほうが点Bよりも明るい場合、点Bの画像は、その場面において背景照度から同じように浮き上がっていないという理由だけで、通常、点Aの画像よりも小さな直径を有するものとして測定されるであろう。
元来の「デフォーカス」の概念では、このようなぼやけに基づくシステムにおける深度情報は、画像を形成する光線束の周辺(外側)光により伝えられる。例えば、非特許文献2を参照されたい。撮像系の感度を決定付けるのは、これらの光線がセンサー面となす角度である。したがって、画像を形成するために周辺光のみが通過できるように、撮像系中に小さな絞り開口を軸外に置くことによる等価の測定も可能であるべきである。もし上述のように、ぼやけシステムが、その大きな絞り開口を小さな絞り開口に代えて、大きい絞り開口の周辺部の任意の場所に有する場合、非合焦点の画像は、ぼやけ画像の周辺にあったであろうものの上に位置する小さな点となる。結果として得られるのは、ぼやけたスポットの大きさにより伝えられる深度情報ではなく、はるかにより小さいスポット中にある横方向のオフセットにより伝えられる深度情報である。画像上のスポットの位置の測定における感度は、その大きさを測定するよりも、強度差に対する感度がずっと低い。
小さな絞り開口を用いることにより、ぼやけに基づくシステムに伴う動的範囲の問題は緩和されるが、これは、小さな絞り開口の大きなFナンバーにより、回折ぼやけ(デフォーカスぼやけではなく)が画像中の主なぼやけの原因になるからである。これは、焦点面からの距離が長い領域では、画像がほぼ同じ大きさになることを意味する。
軸外絞り開口を用いるということは、空間内の点の位置の再現が、ここで、単一の点のセンサー上のすべての画像を見つけ、これらの画像間の距離を測定することを含むということを意味する。画像は、絞り開口構成と同じパターンで現れる。例えば、正三角形の頂点として、3つの小さな絞り開口が用いられる場合、非合焦点の画像は、正三角形中に配された3つの小さなスポットとなる。絞り開口の三角形に対するこれらの画像の三角形の方向により、非合焦点が焦点面の前方(ahead of)ないし前(in front of)にあるか否かがわかる。さらに、画像の三角形の大きさは、非合焦点と焦点面との間の距離に関連する。合焦点の場合は、この三角形の大きさは0になり、これは、全ての3つの画像が互いに重なり合うことにより生じる。三角形は、デフォーカスの量が増加するにつれ、大きくなる。複数の小さな画像は、1つの大きなぼやけた像よりも、センサー上で占有するスペースが小さく、したがって、この構成により重複問題が緩和される。
再現におけるマッチング問題は、新しい問題を引き起こす。撮像される被写体が、特徴のない点の集合である場合、画像は識別不可能となり、その相対的な位置によってのみ(例えば、ある画像上中の正三角形を形成するある許容誤差内の全てのドットを見つけることによって)マッチング可能である。この比較的緩やかなマッチングの基準では、ミスマッチまたは「ゴースト」の数を減らすために、3つ以上の絞り開口を用いることが必要となる。
単一の軸外絞り開口は、深度情報を記録するが、しかし、Zは、撮像される点の面内位置から分離することはできない。2つの絞り開口は、深度情報を記録し、かつ、Zに依存せずに面内位置を抽出可能となる。実地では、2つの絞り開口のみで、ランダムな点の大群を再現することは不可能であるが、これは、画像がミスマッチされる際には、多くのゴースト粒子が生成されるからである。さらに、2つの画像のみから、ある粒子が焦点面の前または後にあるかを知ることは不可能である。3つの絞り開口により、ミスマッチは低減され、粒子から焦点面への距離の符号が、複数画像により形成された三角形の方向によりわかる。例えば、非特許文献2を参照されたい。
デフォーカス概念の元来の実地での実装は、3つの軸外絞り開口を備えた単一のレンズからなり、これらの3つの軸外絞り開口が1つの白黒センサー上に撮像することよりなる。(すなわち、3つは、許容可能な結果を生じさせるための絞り開口の最低限の数であると考えられた。)デフォーカス測定は、実際には、焦点面に対して相対的な点の位置の測定であるので、所望の点の絶対的な位置を知るために、装置の位置を知ることが必要である点に留意すべきである。
この3つの軸外絞り開口が、1つの白黒センサー上へ撮像するのにも欠点がある。領域内の点の密度が高いときには、センサーの過密は、まだ問題となる。この場合、各点は、センサー上に3つまでの画像を有し、まだ、動的範囲の問題が存在する。(すなわち、焦点面上の点は、センサー上で合致する3つの画像を有し、したがって、非合焦点よりも3倍明るく見える。)動的範囲の問題は、選択的にこの体積を照射し、焦点面上の点を撮像しないようにすることにより、克服されうる。
特許文献1および特許文献2に記載されているように、過密問題の1つの解決方法は、各絞り開口を別のセンサーを用いて撮像させることである。これにより、マッチング基準が増えるが、これは、この場合画像上の各スポットが、絞り開口構成の頂点のうちの1つのみになりうるからである。各スポットの源(絞り開口)がわかるので、マッチング過程の曖昧さが少し低減する。
さらに、センサーをより追加する(例えば、電荷結合素子(CCD))ことにより、1つのセンサーシステムに比較して、製造の複雑さが増すことに加えて、コストが高く、サイズがより大きくなるという欠点がある。複数のセンサーの配置は、その配列、構造安定性に対する課題をもたらす。複数センサーは、温度、振動およびこれ以外の環境影響効果により異なる影響を受け、較正誤差が生じがちである。
上述の理由により、マッチング問題を緩和または解消する定量的な三次元撮像系の必要性が存在する。この撮像系は、簡素性および小型化のために、単一のレンズかつ単一のセンサー構成で実現可能であり、また、所望の場合、複数レンズかつ複数センサー構成へと容易に拡張可能であるべきである。
米国特許第6,955,656号明細書 米国特許第7,006,132号明細書
ウー・M(Wu,M.)、ロバーツ・J・W(Roberts,J.W.)およびバックレー・M(Buckley,M.)著、「単一カメラを用いたミクロン尺度の蛍光粒子の三次元追跡(Three dimensional fluorescent particle tracking at micron−scale using a single camera)」、液体における実験(Experiments in Fluids)、2005年、38巻、461−465頁 ウィラート・C・E(Willert,C.E.)およびガリブ・M(Gharib,M.)著、「単一カメラを用いた三次元粒子撮像(Three−dimensional particle imaging with a single camera)」、液体における実験(Experiments in Fluids)、1992年、12巻、353−358頁
本発明の目的は、被写体表面の三次元撮像用の単一レンズ装置を1つまたは複数使用するための装置(apparatus)を提供することである。
ある態様では、この装置(apparatus)は、被写体表面の三次元撮像用の単一レンズ装置を1つ有し、この単一レンズ装置は、1つのレンズと、レンズを遮る複数のフィルタリング用絞り開口であって、被写体表面から反射された光が、レンズとフィルタリング用絞り開口とを通過し、フィルターをかけられて表面のフィルターをかけられた情報になるように構成されているフィルタリング用絞り開口と、表面のフィルターをかけられた情報を獲得するために動作可能なセンサーと、表面のフィルターをかけられた情報をセンサーから受け取るためにセンサーと通信可能に接続され、さらに、被写体表面を表現する表面画像を生成するように構成されたプロセッサとを有する。
別の態様では、複数のフィルタリング用絞り開口は、色で符号化された少なくとも2つの絞り開口を有する。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に、パターンを投影するための多波長のアドレス可能なパターンの投影機を有する。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に物理的に置かれる多波長のアドレス可能なパターンを有する。
別の態様では、複数のフィルタリング用絞り開口は、偏光による符号化をされた少なくとも2つの絞り開口を有し、センサーは、偏光され符号化された情報を受け取るように構成されている。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に、パターンを投影するための多波長のアドレス可能なパターンの投影機を有する。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に物理的に置かれる多波長のアドレス可能なパターンを有する。
別の態様では、複数のフィルタリング用絞り開口は、それぞれ形状で符号化された少なくとも2つの絞り開口を有する。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に、パターンを投影するための多波長のアドレス可能なパターンの投影機を有する。
別の態様では、多波長のアドレス可能なパターンは、一連の色、一連の形状および一連の位置からなる群から選択されている。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に物理的に置かれる多波長のアドレス可能なパターンを有する。
別の態様では、複数のフィルタリング用絞り開口は、時間で符号化される少なくとも2つの絞り開口を有する。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に、パターンを投影するための多波長のアドレス可能なパターンの投影機を有する。
別の態様では、多波長のアドレス可能なパターンは、一連の色、一連の形状および一連の位置からなる群から選択されている。
別の態様では、この装置(apparatus)は、さらに、被写体表面上に物理的に置かれる多波長のアドレス可能なパターンを有する。
別の態様では、この装置(apparatus)は、被写体表面の三次元撮像用の単一レンズ装置を有し、この単一レンズ装置は、1つのレンズと、レンズを遮る複数のフィルタリング用絞り開口であって、被写体表面から反射された光が、レンズとフィルタリング用絞り開口とを通過し、フィルターをかけられて表面のフィルターをかけられた情報になるように構成されている複数のフィルタリング用絞り開口と、被写体表面上にアドレス可能なパターン情報を置くためのアドレス可能なパターンと、被写体表面のフィルターをかけられた情報およびアドレス可能なパターン情報を獲得するために動作可能なセンサーと、表面のフィルターをかけられた情報をセンサーから受け取るためにセンサーと通信可能に接続され、さらに、被写体表面を表現する表面画像を生成するように構成されたプロセッサとを有する。
別の態様では、アドレス可能なパターンは、多波長のアドレス可能なパターンの投影機から投影される。
別の態様では、複数のフィルタリング用絞り開口は、センサー上に向かう光に対して選択的にフィルターをかける。
別の態様では、アドレス可能なパターンは、複数個の多波長のフィルターから生成され、深度情報は、多波長の画像から、異なる色画像中のマーカーの距離を算定することにより得られる。
別の態様では、この装置(apparatus)は、被写体表面の三次元撮像用の単一レンズ装置を有し、この単一レンズ装置は、1つのレンズと、第1色フィルタリング用絞り開口および第2色フィルタリング用絞り開口であって、被写体表面から反射された光が、第1色フィルタリング用絞り開口および第2色フィルタリング用絞り開口を通過し、フィルターをかけられて表面のフィルターをかけられた情報になるように構成されている第1色フィルタリング用絞り開口および第2色フィルタリング用絞り開口と、被写体表面上にアドレス可能なパターン情報を置くために、アドレス可能なパターンを投影するように構成されているアドレス可能なパターンの投影機と、被写体表面のフィルターをかけられた情報およびアドレス可能なパターン情報を獲得するために動作可能なセンサーと、表面のフィルターをかけられた情報をセンサーから受け取るためにセンサーと通信可能に接続され、さらに、被写体表面を表現する表面画像を生成するように構成されたプロセッサとを有する。
本発明の目的、特徴および利点は、以下の図面と組み合わせて、本発明の開示される態様の以下の詳細な説明を参照すると明らかであろう。
センサーを含む帯域通過フィルターシステムを示す図である。 図1Aのセンサーにより受け取られた実点に関する、デフォーカスの複数の色で符号化された画像獲得を示す図である。 図1B中、枠で示した領域の拡大図であり、赤色ドットと対応する緑色ドットとの形式で、複数の波長でアドレス可能なパターンをマッチングする方法を示す図である。 焦点距離(L)と、図1Cにおけるマッチ粒子および「ゴースト」粒子のZ距離との関係を示すチャートである。 偏光フィルター撮像系を示す図である。 点を撮像するための絞り開口システムを示す図である。 単一孔のマスクを有する同期した単一絞り開口システムを示す図であり、このマスクが、第1位置Aにあるところを示す図である。 単一孔のマスクを有する同期した単一絞り開口システムを示す図であり、このマスクが、第2位置Bにあるところを示す図である。 複数のFストップを有する単一絞り開口システムを示す図である。 複数のFストップを有する単一絞り開口システムのセンサーから獲得した画像を示す図である。 図5B中、枠で示した領域の拡大図である。 プロセッサにより決定されたマッチングした点のチャートを示す図である。 振動する単一絞り開口システムを示す図である。 電子的にマスクされた撮像系を示す図であり、第1の複数窓の電子絞り開口が開いた状態であるところを示す図である。 電子的にマスクされた撮像系を示す図であり、第2の複数窓の電子絞り開口が開いた状態であるところを示す図である。 対象の被写体表面上に投影するのに適したアドレス可能な雛型パターンを示す図である。 アドレス可能な雛型を用いて撮った目標とする被写体の獲得画像を示す図である。 獲得画像および格子の一部分を示す図である。 図7Cの中央サンプルの図を再構成した図である。 非レーザーパターン投影機および撮像系を示す図である。 2つのオフセットプリズムおよび2つのセンサーを有するシステムを示す図である。 1つの銀メッキオフセットプリズムと2つのセンサーとを有するシステムを示す図である。 3つのCCDセンサーアセンブリシステムを示す図である。 狭帯域ミラーセンサーアセンブリシステムを示す図である。 レーザーパターン投影機および撮像系を示す図である。 被写体表面の像を作成するための、画像獲得および画像処理の工程を示すフローチャートである。 画像の再構成を支援するために、撮像系にアドレス可能なパターンを組み込むことを示したフローチャートである。
本発明は、安価で正確な三次元撮像方法(例えば、マッピング)という、長年に渡るニーズに応えるものである。本発明の態様は、製造部品の表面および体積検査、実際の製品と元の設計との比較、三次元走査、人体部分の診断(ヘルニア、動脈、美容整形手術前および後など)、表面粗さの評価および表面変形の実時間フィードバックに適用可能である。以下の詳細な説明では、本発明のより完全な理解のために、多くの特定の詳細を挙げる。しかし、本発明は必ずしもこれらの特定の詳細に限定されずに実施可能であることは、当業者には明確である。本発明を不明瞭にしないように、周知の構造や装置を、詳細図ではなくブロック図の形態で示している場合もある。
読者には、本明細書と同時に提出された全ての論文および文献に注意を払われたい。これらの論文および文献は、本明細書と共に公衆が閲覧できるように公開され、これらの全論文および文献の内容は、本願中に参照として組み込まれている。本明細書(添付の請求項、要約および図面を含む)中に開示された全ての特徴は、別途明示的に言明しない限りは、同一の、等価のまたは類似の目的に沿う代替となる特徴に置き換えてもよい。したがって、別途明示的に言明しない限りは、開示された各特徴は、等価または類似の一連の包括的な特徴の1つの例にすぎない。
さらに、ある特定の機能を達成する「ための手段(means for)」形式、または、ある特定の機能を達成する「ための工程(step for)」形式で、明示的に表明されていない請求項のいかなる要素も、米国特許法第112条第6項で指定された「手段」または「工程」として解釈されない。特に、本願請求項中の「〜の工程(step of)」または「〜の行為(act of)」との文言の使用は、米国特許法第112条第6項の規定の行使を意図していない。
まず、本発明の導入を行い、全般的な理解を促す。第2に、光の特性およびマスクの形状に基づくデフォーカス方法を、特徴マッピングに関して説明する。第3に、単一絞り開口システムの態様を、特徴マッピングに関して説明する。第4に、パターンマッチングの例を提示する。第5に、本発明による撮像方法を提示する。最後に、画像マッチングの説明を行う。
(1.0)導入
デフォーカスによるぼやけを用いて、ある点とレンズの焦点面との間の距離を測定することができる。ここで提案するのは、元来のデフォーカス概念の欠点を克服するように、単一レンズおよび複数の絞り開口を有する構成に光学技術および照明技術の観点からの特徴を加える点である。以下の態様により、単一のレンズ、単一のセンサーおよび複数の絞り開口を有する装置を用いて、被写体表面を頑健に測定することができる。
複数の絞り開口を有する構成に、光学的な修正を行うことより、物理的にマスクをし、フィルターをかけられた情報をセンサーに伝達して、各絞り開口が、被写体表面を再構成するために、分離可能な画像を再構成することができるようにする。分離可能な画像を生成するために、絞り開口の形状を変える、絞り開口の透過率を符号化する、または、露光中または露光の合間に孔が絞り開口表面に対して移動する単一スリットを有するマスクを提供することでマスクを修正してもよい。各絞り開口マスクは、被写体の所望の特徴の表現に役立つ追加的な情報を提供する。
単一のレンズ、単一のセンサーおよび複数の絞り開口を有する装置は、登録情報を用いて、被写体から追加的な情報を入手するよう強化されてもよい。登録情報は、被写体の識別特徴、被写体表面に投影された情報、または、被写体の上に直接おかれたマーカーから得られてもよい。
一度の露光によって獲得不可能な大きな被写体に関しては、上述の態様は、所望の被写体の表面特徴を再作成するために、複数の露光を共に合わせるのに使用可能な情報を提供してもよい。あるいは、大きな被写体と小さな被写体との両方について複数の画像を走査して、被写体または被写体特徴の高解像度の像を生成することができる。このマッチング概念は、立体視システムにも同様に適用可能である。
ここで、本発明の態様を、以下に、添付の図面を参照してより十分記載し、ここで本発明の好適な実施形態を示す。本発明は、多くの様々な形態で実施可能であり、本願で記載した実施形態に限定されるよう解釈されるべきではない。さらに、添付の図面で示した層やその他の部材の寸法は、詳細をより明確に示すために、誇張されている場合がありうる。本発明は、図面に示されている寸法関係に限定されるように解釈されるべきではなく、図面に示されている個々の部材は、図示された寸法に限定されるよう解釈されるべきではない。
(2.0)光の特性および形状に基づくシステム
照射された被写体からの光がレンズを通過し、マスクされた絞り開口を通過し、このマスクされた絞り開口からの情報を受け取るのに適したセンサー上に渡されると、マスクされた絞り開口は、識別可能な画像を生成する。マスクされた絞り開口は、被写体の符号化されたデフォーカスの情報を、適切なセンサー上に渡す。デフォーカス情報は、焦点面に対する被写体の点の測定尺度を提供する。マスクされた絞り開口からの符号化された情報は、重複画像を分離するため、かつ、センサーにより検出された対応する点をマッチングするために必要な情報を提供する。
マスクされた絞り開口が2つ以上用いられた場合、単数または複数のマスクされた絞り開口から検出された形状の波長に対しての強度(明度)の特性および/または形態が、センサー上で容易に識別可能なように、理想的には各マスクは互いに異なっている。様々なフィルタリング用絞り開口を用いて、光にその特性に応じて選択的にフィルターをかけて、光センサー上へ渡し、各絞り開口からの画像が識別可能であるようしうる。さらに、2つ以上の絞り開口の形状が識別可能な場合、センサーによって検出される各絞り開口の画像もまた識別可能である。したがって、適切な絞り開口マスクとフィルターとの非限定的な例としては、波長帯域通過フィルター、光偏光フィルターおよび異なる形状を有するマスクが含まれる。
(2.1)色による符号化フィルター
図1Aを参照すると、帯域通過フィルターシステム100が示されている。この帯域通過フィルター100は、レンズ102、赤色絞り開口106と緑色絞り開口108とを有するマスク104、および、センサー110を有する。ここでは、赤色絞り開口106と緑色絞り開口108としてそれぞれ示されているが、適切なセンサー110と組み合わせて、任意の数および任意の組み合わせの色フィルタリング用絞り開口を用いてもよい。したがって、絞り開口は、ここでは特定的に赤色絞り開口106および緑色絞り開口108として言及されているが、それに限定されることは意図せず、代わりに第1絞り開口、第2絞り開口などと言及可能である。
この帯域通過フィルターシステム100は、照射された被写体112が焦点面114の前におかれると、この照射された被写体112の像を生成する。散光116は、照射された被写体112の表面から反射され、レンズ102を通過する。レンズ102を通過すると、この散光116は、赤色絞り開口106または緑色絞り開口108のいずれかを選択的に通過するか、反射されるか、または、マスク104により吸収される。赤色絞り開口106を透過した赤色光118および緑色絞り開口108を透過した緑色光120は、画像焦点122より前に位置づけられたセンサー110上に記録される。
図1Bを参照すると、複数の実点について複数の色で符号化されたデフォーカス画像獲得124が、図1Aのセンサー110により受け取られたところが図示されている。各々の色で符号化された獲得124は、各絞り開口106・108により作られた複数波長のアドレス可能なパターンに対応している。図1Bに示すように、被写体上の各実点は、複数波長のアドレス可能なパターンである赤色ドット126と緑色ドット128とで表現される。当業者には理解されうるように、赤色ドット126と緑色ドット128とは、それぞれ赤色絞り開口と緑色絞り開口との結果である。しかしながら、ドットの色は絞り開口の色とその組み合わせとにより変更しうるので、本発明は、この態様に限定されることはない。対応する赤色ドット126と緑色ドット128は、対応線130により互いに連結されて図示されている。対応線130は見えないが、しかし、これは、色で符号化された画像獲得124における点のマッチングの困難さを強調するのに役立つ図示ツールである。対応線130により連結されているドットのみが、実際に互いに対応している。このマスク104がなければ、対応する点を連結するのに十分な情報はないであろう。
図1Cを参照すると、この図は、図1B中枠で示した領域132の拡大図であり、対応する赤色ドット126と緑色ドット128との間のマッチング方法を示した図である。複数色で符号化された画像獲得124が行われると、プロセッサは、この画像内で色で符号化された全ドットに関する検索を始める。あるいは、検索を生データから行ってもよい。(すなわち、画像124を生成する必要はない。)これに代えて、センサー110がプロセッサと接続され、プロセッサがセンサー情報を直接受け取る。いずれの場合にしても、全てのドットが検出されると、焦点面114に対する照射された点112の相対的な位置を想定して、マッチング過程が開始する。焦点面114に対する照射された点112の相対的な位置は、先験的に知られているか、ユーザーにより入力されるか、ソフトウェアにより決定されるか、あるいは、センサーにより決定されてもよい。ここでは、被写体の照射された点112は、焦点面114の前にあることが前提とされる。したがって、マッチングは、例えば以下のような指示コマンドで開始する。「2つの絞り開口を結ぶ線に対応する線の上に(ある許容誤差内で)存在する赤色ドット126・142・144・146の右側にある任意の緑色ドット128・136・138・140はマッチングである。」第1の赤色ドット126が検出され、続いて、上記指示コマンドにより、赤色ドット126の許容誤差134内の第1の緑色ドット128がマッチングする。赤色ドット126の許容誤差134内で、補足的な検索が緑色ドット136・138・140に対して行われ、合計3つの「ゴースト」マッチ(それぞれ緑色ドット136・138・140)が生成される。
図1Dを参照すると、この図は、焦点距離(L)と、図1C中のマッチ粒子および「ゴースト」粒子のZ距離との関係を示す。赤色ドット126と、全ての緑色ドット128・142・144・146とのマッチングの結果として、1つのマッチ148と、3つのゴースト150・152・154が得られる。赤色ドット126と緑色ドット128との間のマッチは、第1のマッチング点148のZ対Lの関係を演算するのに用いられる。赤色ドット126と緑色ドット136・138・140との間のミスマッチは、それぞれ第1の3つのゴースト150・152・154をもたらす。
第2の赤色ドット142に関しては、1つのマッチ156と、2つのゴースト158・160が生成される。第2の赤色ドット142と対応する緑色ドット136との間のマッチは、第2のマッチング点156のZ対Lの関係を演算するのに用いられる。赤色ドット142と緑色ドット138・140との間のミスマッチは、それぞれ2つのゴースト158・160で表現される。
第3の赤色ドット144に関しては、1つのマッチ162と、2つのゴースト158・160が生成される。第3の赤色ドット144と対応する緑色ドット138との間のマッチは、第3のマッチング点162のZ対Lの関係を演算するのに用いられる。赤色ドット144と緑色ドット140との間の1つのミスマッチは、ゴースト164で表現される。
最後に、第4の赤色ドット146に関しては、1つのマッチ162が生成されるが、ゴーストは生成されない。第4の赤色ドット146と対応する緑色ドット140との間のマッチは、第4のかつ最後のマッチング点166のZ対Lの関係を演算するのに用いられる。赤色ドット146の右には、マッチングする緑色ドット140以外の緑色のドットはないので、図1Cの枠で示した領域132に関しては、これ以上のミスマッチは存在しない。
図1C中のマッチ粒子と「ゴースト」粒子との間の、焦点距離(L)対Z距離の関係の決定においては、異なる符号化がされた点、例えば図1Bに示したような点126・128があることにより大いに強化される。絞り開口マスク104により色情報が提供されないような分離不可能な場合は、より多くのゴーストが存在するが、これは、色などの差別化要因がない場合、図1Aの各「赤色ドット」は、他の任意の「赤色ドット」ともマッチング可能となり、より多くのゴーストが生成されるからである。さらに、任意の与えられたドットが、それ自体、実際には、他のドットの上にある2つのドットではないとの想定ができず、焦点面上により多くのゴーストが追加される。
(2.2)偏光フィルター
符号化情報は、任意の数の方法でセンサーに提供されうる。非限定的な例として、図2は、偏光フィルター撮像系200を示す。この偏光フィルター撮像系200は、レンズ202、水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208とを備えたマスク204、および、偏光間での識別を行うことができるセンサー210を有する。ここでは、水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208との組み合わせとしてそれぞれ図示したが、少なくともほぼ直交する方向の対であれば、任意の数の任意の組み合わせを使用してもよい。
照射された被写体212が焦点面214の前におかれると、偏光フィルター撮像系200は照射された被写体212の像を生成する。散光216は、照射された被写体112の表面から反射され、レンズ202を透過する。レンズ202を透過すると、この散光216は、水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208のいずれかを選択的に通過するか、あるいは、マスク204により反射される。その後水平方向での偏光を行う絞り開口206を透過した水平方向に偏光された光218と、垂直方向での偏光を行う絞り開口208を透過した垂直方向に偏光された光220は、焦点面222より前に位置づけられているセンサー210上に記録される。
水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208とを異なるように符号化することで、図1Bに示したのと同様の識別可能なドットが得られる。しかし、この偏光の態様から得られる符号化情報は、色で符号化されたドットの代わりに、偏光マーカーを提供する。
(帯域通過フィルターシステム100の場合のように)選択的な光の透過、または、(偏光フィルター撮像系200の場合のように)光の特性の活用は、センサーが受け取る情報を符号化する効果的な手段である。最終的に、センサーによって検出される符号化情報は、図1Cおよび図1Dに記載したマッチングのタスクを容易にする。
(2.3)物理的なマスクの形状
図3を参照すると、この図は、ほぼ点光源と考えられるような十分小さい点を撮像するために、異なる形状を有する絞り開口システム300を示す。異なる形状を有する絞り開口システム300は、レンズ302、円形状の絞り開口306と四角形状の絞り開口308とを有するマスク304、および、センサー310を有する。ここでは円形状の絞り開口306と四角形状の絞り開口308として図示したが、任意の数の任意の組み合わせでの異なる形状のフィルタリング絞り開口を使用してもよい。適切な形状の非限定的な例には、凸多面体、凹多面体、円形、ポリフォームおよびこれらの組み合わせが含まれる。
異なる形状を有する絞り開口システム300は、露光毎に、照射された被写体312の2つの像314・316を生成する。センサー310により検出された各形状314・316は、各絞り開口306・308の形状にそれぞれ対応する。散光320は、照射された被写体312の表面から反射され、レンズ302を通過すると、円形状の絞り開口306または四角形状の絞り開口308のいずれかを通過するか、あるいは、マスク304により反射され、センサーの焦点面318より後方に反射される。円形状の絞り開口306を通過した透過光322は、センサー310上に円形のパターン314を生成する。同様に、四角形状の絞り開口308を通過した透過光324は、センサー310上に四角形のパターン316を生成する。複数個の獲得により、多数の円形のパターン314と、多数の四角形のパターン316が検出され、プロセッサ326により、マッチング規則に基づいて、マッチングがなされる。マッチとゴーストとは双方とも、図1Dに図示されたようなZ対Lのプロットグラフ上に描かれる。あるいは、ゴースト画像なしでマッチを示したプロットグラフを生成してもよい。
(3.0)単一絞り開口システム
図4Aおよび図4Bを参照すると、同期化された単一絞り開口システム400は、レンズ402、単一孔のマスク404、移動絞り開口406、センサー408、および、センサー408と通信するプロセッサ410を有し、これが図示されている。さらに、単一孔のマスク404は、それぞれ第1位置Aと第2位置Bとで示されている。反射光線414を選択的にレンズ402、および、単一孔のマスク404の長くて狭いスリット絞り開口406を通過させることにより、照射された被写体412は再構成されうる。単一孔のマスク404の絞り開口406が露光間に絞り開口面上で動くが、この単一孔のマスク404の位置は、プロセッサ410により記録される。図4Aに示すように、移動絞り開口406は光416を透過させ、センサー408により検出される第1の点414を生成する。第1露光時の移動絞り開口406の第1位置情報は、プロセッサ410により記録される。第2露光時には、移動絞り開口406が、第2位置Bへと移動する。図4Bに図示されるように、移動開口406は光418を透過させ、センサー408により検出される第2の点420を生成する。第2露光時の移動絞り開口406の第2位置情報は、プロセッサ410により記録される。第1の点414および第1位置情報、ならびに、第2の点420および第2位置情報は、その後、第1露光からの第1の点414を、第2の点420とマッチングさせるために用いられる。あるいは、第1露光と第2露光との間で、反射光414の色を変更して、マッチング過程支援用に用いられうるさらなる情報を提供してもよい。
(3.1)単一スリット絞り開口システム
図5Aを参照すると、複数のFストップを有する単一絞り開口システム500が図示されている。この異なる形状を有する絞り開口システム500は、レンズ502、長くて狭いスリット絞り開口506を1つ有するマスク504、センサー508、および、センサー508と通信するプロセッサ510を有する。ここでは、概略的に楕円形状の絞り開口506として示したが、一般的に、その形状に関わらず、幅より長さの方が著しく長い任意の絞り開口を用いてもよい。また、スリット絞り開口506は、非対称な形状で作成することもでき、これにより、焦点面の前方と後方とが識別可能となる。
反射光514がレンズおよびマスク504の長くて狭いスリット絞り開口506を選択的に通過できるようにすることにより、照射された被写体512が再構成されてもよい。この単一絞り開口システム500は、標準的な円形の絞り開口の代わりに、長くて狭いスリット絞り開口506を用いている点が顕著である。スリット絞り開口506が2方向で異なるFナンバーを有する点が効果的である。スリット絞り開口506の長さは長く、小さいFナンバーをなし、これが、センサー508上で、大きく変動する円盤516を生成する。逆に、スリット絞り開口502の狭い幅は、大きなFナンバーをなし、これは最低限の変動しか生成せず、点光源の画像は、円盤516ではなく、線518で表される。この場合の強度は、面積ではなく長さに反比例して変動すると考えられることができ、センサー上で要求される動的範囲は、純粋なぼやけシステムに比較して、大幅に小さくなる。さらに、生成された画像516・518は、一方向にのみ大きくなり、重複の可能性が最小限に抑えられる。
図5Bを参照すると、複数のFストップを有する単一絞り開口のシステム500のセンサー508により獲得された画像520が示されている。画像520の枠522内には、異なるZ軸を有する複数のプロット524・526・528・530が示されている。画像520として示されているが、示された情報は、条件づけられ、信号を介してプロセッサ510で処理されるために送られてもよい。
図5Cを参照すると、図5Bの獲得された画像中の枠で示した領域522は、絞り開口の動きに対応する複数のFストップの細長い筋524・526・528・530を見つけるために処理される。全ての複数のFストップの細長い筋524・526・528・530が見つけられると、Z対Lの関係を決定するための規則が適用される。マッチングが必要でない点が顕著である。
全ての点が、焦点面「L」より前方にあると想定して、Z対Lの関係を演算するために複数のFストップの細長い筋524、526、528・530が用いられる。プロセッサ510により決められたマッチングされた点532、534、536・538の例を図5Dに示す。一般的に、センサー508に接続されたプロセッサ510を用いて、センサーから得られた生データを収集してもよい。プロセッサ510は、続いて、Z対Lの関係を用いて、各検出されたFストップの細長い筋524・526・528・530の深度情報を演算してもよい。続いて、プロセッサ510を用いて、各照射された点512の深度情報から被写体の像を生成してもよい。別の態様では、プロセッサ510はメモリを有してもよい。このメモリを用いて、既知の距離におけるそれ以前にサンプリングをした点の較正情報を記憶しておいてもよい。この較正情報は、迅速なインライン処理のために、画像獲得システム中に参照テーブルとして記憶されていてもよい。あるいは、較正情報は遠隔で記憶され、プロセッサによりアクセスされてもよい。
図5B、図5Cおよび図5Dに示した結果は、図5Eで示したような振動する単一絞り開口システム540を用いて得られても良い。この振動する単一絞り開口システム540は、レンズ502、単一の移動絞り開口506を有するマスク504およびセンサー508を有する。
反射光514が、レンズおよびマスク504の長くて狭いスリット絞り開口506を選択的に通過できるようにすることにより、照射された被写体512が再構成されうる。この単一絞り開口システム500は、移動絞り開口506を用い、2方向で異なるFナンバーを有する効果を効果的にシュミレーションしている点が顕著である。移動絞り開口506が、制御下で、右から左へと、AとBとの方向(あるいは、これ以外の任意の方向で)で周期振動し、移動絞り開口506のAからBへの正味の変位は、小さいFナンバーを生成する。このAからBへの横方向への移動の小さいFナンバーは、センサー508上で、大きく変動する円盤516を生成する。さらに、この移動絞り開口506は、AからBへと動くので、移動絞り開口506の垂直の直径には正味の変化はない。したがって、移動絞り開口506の高さが一定であることにより、Fナンバーが大きくなり、これは最低限の変動しかせず、点光源の画像は、円盤516ではなく、線518で表される。この場合の強度は、絞り開口506が、ある特定の軸上位置で過ごす時間の量に依存し、したがって、画像は、薄暗い直線に連結された明るい端部のように見える。さらに、生成された画像516・518は、一方向にのみ大きくなり、重複の可能性が最小限に抑えられる。
ある態様では、本発明は、2つの絞り開口のシステムとして考えられ、2つの絞り開口画像を物理的に画像上で単に連結することによって、マッチングの曖昧さが除去される。絞り開口を通った大きい被写体(点光源ではなく)を撮像させるとき、3つの画像を見ることができる。中央画像が、被写体画像であり、外側の他の2つの画像は、回折およびレンズ効果の結果形成される。この被写体の尺度が小さくなるにしたがって点光源に近づき、極端な場合、点光源の被写体の画像は、絞り開口と同じ形状を有する。
(3.2)電子的にマスクされた絞り開口
図6Aおよび図6Bを参照すると、電子的にマスクされた撮像系600が、レンズ602、絞り開口板604、複数の窓を有する電子的な絞り開口606、センサー608、および、センサー608と絞り開口板604と通信するプロセッサ610を有することが示されている。適切な絞り開口板604の非限定的な例には、液晶表示(LCD)が含まれ、これは、獲得センサー608と完全に同期化されてもよい。ある態様では、感度は、絞り開口の「軸外度合い」を変えることにより制御されてもよい。反射光616が、レンズ602、および、複数の窓を有する電子的な絞り開口606の多くの窓のうちの1つを選択的に通過できるようにすることにより、照射された被写体614が再構成されうる。
図6Aに示すように、複数の窓を有する電子的な絞り開口606の第1の窓612は、光618を透過させ、センサー608により検出される第1の点620を生成する。第1露光の間、第1の開いた窓612の位置情報が、プロセッサ610により記録される。
第2露光を得るために、複数の窓を有する電子的な絞り開口606の第2の窓が開かれる。図6Bに示すように、複数の窓を有する電子的な絞り開口606の第2の窓622は、光624を透過させ、センサー608により検出される第2の点626を生成する。第2露光の間、第2の開いた窓622の位置情報が、プロセッサ610により記録される。第1の点620および第1の開いた窓612位置情報、ならびに、第2の点626および第2の開いた窓622位置情報は、その後、第1露光からの第1の点620を、第2の点626の情報とマッチングさせるために用いられる。
(4.0)パターンマッチング
対象の被写体が、その形状がマッチングされるべき表面である場合、マーカーのパターンがその表面上に投影され、投影されたマーカーの相対的な位置を測定することにより、検出される画像中の点がサンプリングされうる。センサーが許容する撮像されるドットの密度上限は、撮像系の限界である。各図中で点が特定されると、同じ点が両方の図中に存在するか否かのみが問題となる。別の態様では、マッピングされるべき体積が、ある体積中に非対称セルクラスタを含んでいる場合、セルの形状と方向とを、図同士のマッチングにおける追加的な制約として用いることができ、したがって、ミスマッチが生じうる可能性を低減することができる。これを「特徴マッチング」と称する
図7Aを参照すると、対象の被写体の表面上に投影するのに適した、アドレス可能な雛型パターン700が示されている。アドレス可能な雛型パターン700は投影され、または、目標とする表面上に物理的に置かれ、被写体から様々な距離(Z)だけ離れた位置で、撮像系により獲得される。ある態様では、アドレス可能な雛型パターン700は、識別可能な中央点702を備えた格子パターンの形状を有する。
図7Bを参照すると、アドレス可能な雛型を用いて撮られた、目標とする被写体の獲得画像704が図示されている。図示されているように、獲得された画像704中で、いくつかのドット706・708・710・712は欠如している。
図7Cを参照すると、一部の格子714を用いた獲得画像704が示されている。アドレス可能なパターン702が正しく並んでいる場合、識別可能な源を有する格子パターン714は、必要とされる視点の数または画像獲得を2つに減らすために、「構造化されたパターンマッチング」という手法を採用可能である。コンピュータで読み取り可能な媒体上に記憶されているか、または、プロセッサで実行可能であるアドレス指定を行うアルゴリズムは、雛型パターンによるアドレス可能な雛型パターン700中の各ドットの「相対的なアドレスを見つける」ために、各絞り開口の画像を処理する。適切なアドレス可能な雛型パターン700の非限定的な例を図7Aに示す。アドレス指定を行うアルゴリズムは、アドレス可能なパターン704の変形を許容するようにある程度の許容誤差を有する(図7Bおよび図7C参照)。アドレス可能なパターン704の変形は、元のアドレス可能な雛型パターン700(図7A参照)と対比してみると顕著である。さらに、アドレス指定を行うアルゴリズムは、獲得された画像704中の実体の欠如706・708・710・712を扱うこともできる。アドレス可能な雛型パターン700上のある点が、アドレス可能なパターン704中に現れなかった場合に情報の欠如が生じると考えられる。
図7Cの中央サンプル716の再構成された図を、図7Dに示す。同じアドレスを有するドット対それぞれに対してZを演算することにより、点が再構成される。欠如したドット対に関しては、再構成は行われない。
(4.1)パターン投影機(非レーザー)
図8Aを参照すると、非レーザーパターン投影機800および撮像系802が図示されている。非レーザーパターン投影機800は、撮像系802の撮像レンズ806と同じレンズ804を有する。非レーザーパターン投影機800のこのレンズ804は、撮像系802のレンズ806と等価距離分だけ、ビームスプリッター808から離れて置かれている。これにより、投影された点812の主光線810を、撮像系802のセンサー816により検出された主光線814と一致させることができる。したがって、投影された点812と撮像レンズ806の焦点面820との間の距離が変化した場合さえ、検出された画像中の投影されたパターン818は動いていないように見える。これにより、いくつかの点(例えば、ドット)が欠如している場合でさえ、アドレス可能なパターン818の特定がはるかに容易になる。
前提条件は、各視点からの画像が物理的に分離されていることである。これは、もちろん、写真測量法などの複数センサーシステムにおいては当てはまるのであるが、デフォーカス概念(単一のレンズ上の複数の絞り開口が、単一のセンサー上に撮像する)などの場合には、特別な注意が必要である。
光822が、パターンステンシル824およびレンズ804(実質的に、撮像レンズ806と同じであるレンズ)を有する投影機レンズ系826を通過することにより、投影されたパターン818が生成される。
単一のレンズ系では、絞り開口画像は分離されなくてはならない。これは、プリズム(図8Bおよび図8C参照)または光ファイバー束を用いて達成されることができ、これにより各絞り開口が分離されたセンサー上に投影される。あるいは、センサーが色センサーである場合、物理的にマスクされた絞り開口(図8Dおよび図8E参照)を用いて達成される。
図8Bを参照すると、2つのオフセットプリズムおよび2つのセンサーを有するシステム828が示されている。このシステム828は、マスクおよび2つのスリットを有する絞り開口838より後方にある、第1プリズム830、第2プリズム832、第1センサー834ならびに第2センサー836を有する。第1プリズム830および第2プリズム832は、2つのスリットを有する絞り開口838からの入射光840・842をオフセットし、第1プリズム830および第2プリズム832からの透過光が、分離されたセンサー834・836により検出されるようにする。2つのスリットを有する絞り開口838が、光の固有の特性に基づいて情報を符号化するために用いられる場合、あるいは、アドレス可能なパターン技術が採用された時のように光が分離されねばならない場合には、このような構成が用いられてもよい。適切な固有の特性の非限定的な例には、限定されるのではないが、周波数、複数の周波数、符号化され透過された光検出画像の偏光が含まれる。
図8Cを参照すると、1つの銀メッキのオフセットプリズムと2つのセンサーとを有するシステム844が示されている。このシステム844は、マスクおよび2つのスリットを有する絞り開口852より後方にある、銀メッキプリズム846、第1センサー848ならびに第2センサー850を有する。銀メッキプリズム846は、2つのスリットを有する絞り開口852からの第1の入射光束854をオフセットし、銀メッキプリズム846からの透過光が第1センサー848により検出されるようにする。あるいは、2つのスリットを有する絞り開口852を通過した光856は、第2センサー850上で別々に検出されてもよい。
図8Dを参照すると、3つのCCDセンサーを集めたシステム858が示されている。このシステム858は、マスクおよび2つのスリットを有する絞り開口862の後方にある3つのCCDセンサー860を有する。このCCDセンサー860は、青色センサー862、緑色センサー864および赤色センサー866を有する。プリズム系868は、2つのスリットを有する絞り開口856からの第1入射光束870をオフセットし、このプリズム868からの透過光が、赤色センサー866により検出されるようにしうる。あるいは、2つのスリットを有する絞り開口852を通過した光872は、別々に緑色センサー864上で別々に検出されてもよい。
図8Eは、狭帯域ミラーセンサーを集めたシステム874を示す。このシステム874は、マスクおよび2つのスリットを有する絞り開口878の後方に位置づけられた狭帯域ミラー876、2つのスリットを有する絞り開口878、ならびに、第1センサー880および第2センサー882を有する。この狭帯域ミラー系876は、2つのスリットを有する絞り開口878からの入射光束884をオフセットし、この狭帯域ミラー系876の透過光が、第1センサー880により検出されうるようにする。あるいは、2つのスリットを有する絞り開口878を通過した光886が第2センサー882上で別々に検出されてもよい。
(4.2)パターン投影機(レーザー)
任意のレンズは、2つの「主平面」により表現されうる。この主平面の位置は、このレンズの関数に過ぎず、(ある点の画像の中央線を規定する)主光線は全て、軸上で第1の主平面に入り、第2の主平面を出るように動く。
前方の主平面と視野との位置を測定することにより、所望のパターンを有する回折格子を作って、レーザー投影機からのビームが、撮像されたドットの主光線と一致するように位置づけることができる。したがって、投影されたドットと撮像レンズの焦点面との間の距離が変化する場合さえ、投影されたパターンは、画像中で動いていないように見える。これにより、いくつかのドットが撮像されていない場合でさえ、アドレス可能なパターンの検索がはるかに容易になる。
複合レンズを通る複雑な光線追跡(光線が、全ての空気/ガラスの界面で屈折するような場合)は、光線が屈折する2つの平面で数学的に表現可能である。したがって、左側の画像が、「実際の」光線追跡を示し、右側の画像は、このようなレンズの数学的表現を示す。これらの表面は、第1のガラス界面に入り、最後のガラス界面を去り、レンズ軸を交差するためにこれらを広げる、主(chief)光線(「主(principal)光線」とも称される)を用いることにより見つけられる。この交差点が、上述の平面の位置の印となる。
したがって、まず始めに較正を行い(これは、格子をいくつかのZ距離で撮像することにより行う)、次に、これらの2つの面がどこにあるのか、および、視野角度はいくらであるのかを見つけるために、最小二乗適合法を行う。次に、視野角度に合うように回折格子を特注し、ビームスプリッターからの距離を第1主平面からの距離と同じ距離にしうる。したがって、レーザー光線は、主光線とまさに同じ光路をたどる。
作動においては、被写体がレンズに近づくに従い、画像中の被写体は大きくなる。これは、被写体の縁が、画像上で、横方向に動くことを意味する。同じことが、カメラの前で表面上に投影された任意のパターンに関しても該当する。図9で示した態様と同じように光線を正確にマッチングさせることによりZ位置に関わらず、いずれの点も全く横方向には動かない。
ここで、2つの孔を有する絞り開口マスクが加えられると、対応するドットは、ここでも互いに対して離れて動く。(ドット(画像)は、周辺または外側光線により形成される。)しかし、主光線が横方向には動かないので、対応する「マッチ形状」の重心は、横方向には動かない。考えられるのは、アドレス可能なパターンの識別可能なドットが位置づけられると、マッチの重心を見つけることができる。このパターンが横方向には決して広がらないことがわかっていることにより、パターン上のこれ以外の全点の重心がどこにあるべきかがわかり、これが、点の「アドレス化」を支援する。
この点が従来のアドレス可能なパターン検索とは異なる点である。従来のアドレス可能なパターン検索では、点が全て互いに対して動き、その結果、表面のZの変化が大きくなりすぎ、パターンが再構成できなくなりえる。
図9を参照すると、レーザーパターン投影機システム900および撮像系902が図示されている。このレーザーパターン投影機システム900は、レーザー投影機904およびフィルタリング用マスク906を有する。このフィルタリング用マスク906は、投影機904からの光を、50%ビームスプリッター908上に選択的に通過させる。レーザー投影機904およびフィルタリング用マスク906は、ビームスプリッター908と一列に並び、これにより、投影された点912の主光線910は、撮像系902のセンサー916により検出された主光線914と一致する。したがって、投影された点912と撮像レンズ906の焦点面920との間の距離が変化する場合さえ、投影されたパターン918は、検出された画像中で動いていないように見える。これにより、いくつかの点(例えば、ドット)が欠如している場合でさえ、アドレス可能なパターン918の特定がずっと容易になる。
(5.0)撮像方法
図10を参照すると、被写体表面の二次元または三次元表現を作成するための、画像獲得および画像処理の工程を示すフローチャートが示される。任意の単一レンズ装置が、撮像レンズ、識別可能な画像を生成できるように構成された絞り開口、センサーおよびプロセッサを含むように形成または修正される。
撮像過程は、被写体表面を照射する工程1000から開始する。被写体表面は、撮像系または適切な外部光源により照射されうる。光は、被写体表面より反射され、絞り開口を透過する(工程1010)。この絞り開口は、撮像レンズの撮像レンズ面中、撮像レンズの前方もしくは撮像レンズの後方に置かれるか、アクセス可能な場合撮像レンズの絞り開口に適用されるか、または、リレーレンズ系を介してアクセス可能としうる。
光が絞り開口を通って移動する際、絞り開口を用いて、多くの方法でセンサーが受け取る情報を符号化しうる。センサー上に識別可能な画像を生成する工程1020用に光を符号化しうる適切な方法の非限定的な例には、限定されるのではないが以下が含まれる。すなわち、光の特性に応じて透過光にフィルターをかける方法(例えば、波長または偏光によりフィルターをかけるなどの)、時間の関数として光を透過させる方法(例えば、識別可能な画像を、時間の関数として、絞り開口を通過可能にするなど)、または、絞り開口の形状を物理的に変えて、一連の異なる形状を有するようにして、この絞り開口を通過する通過光が、識別可能な形状に基づく画像を生成する方法が含まれる。
追加的な画像を獲得する工程を行うか否かをシステムが決定するのを支援する工程1030を実装してもよい。この工程は、さらに、獲得画像の適切さを秤量するよう補強されてもよい。例えば、露光中に過度の移動が行われていた画像がセンサーにより検出された場合、この画像は、アルゴリズムにより放棄されてもよい。この場合、最後に獲得された画像が放棄され、過程は、被写体の照射工程1000から繰り返される。別の態様では、受け取った画像は処理に適したものでありうるが、しかし、より多くの画像獲得が必要である(工程1030)。この場合、アルゴリズムをさらに補強するために、さらなる決定を追加可能である。この一例は、撮像系の視点を調節すべきか否かの決定する工程1040を追加することであるだろう。撮像装置の位置または被写体の所望の領域を移す必要があれば、撮像系または目標とする被写体のいずれかが、視点を調節する工程1050のために変えられてもよい。
画像の全てまたは少なくとも一部分が獲得されれば、各画像内での点間の関係または点情報間の関係を用いて、各点に対する相対的なまたは絶対的な距離情報を演算または決定する工程1060が行われる。距離情報がわかれば、この情報は、この距離情報を用いて被写体の像(例えば、3Dマッピング)を生成する工程1070用のアルゴリズムに供給されうる。
(6.0)画像マッチング
複数の露光獲得を必要とする大きな被写体または応用では、画像マッチングにより、被写体表面を再作成するために、関連する画像獲得を互いに結び付ける方法が提供される。目標とする被写体を再作成する必要はないが、目標とする被写体に対する撮像系の相対的な位置がわかっているとき、画像マッチングにより、正確な測定尺度を用いて目標とする被写体を再作成する能力が提供される。デジタルキルティングとも称される画像マッチングは、アドレス可能なパターンの雛型画像を用いることにより、一般に多いに支援される。ある態様では、アドレス可能なパターンの投影機を、物理的に獲得装置に結び付けてもよい。別の態様では、アドレス可能なパターンの投影機は、獲得装置に依存せずに動いてもよいが、獲得装置より見えるパターンがアドレス可能であるように動く。
撮像装置は、アドレス可能なパターンの雛型画像を初期位置で獲得する。このアドレス可能なパターンの雛型画像は、通常X、YおよびZ平面において有限数の点を有する。その後、撮像装置の位置を調節して、第2のアドレス可能なパターンの雛型画像を第2位置で獲得する。移動制約を越えると決定された調節位置は無視するとの予防的措置をとってもよい。第2位置または調節された位置は、個々の6つの可変の平行移動および回転により、初期の撮像装置の位置に関連付けられる。新しい位置で獲得された画像は、部分的に第1の雛型画像と重複し、実質的に類似数の点を有しているという点により、通常、調節された位置は初期位置に関連付けられる。
作動においては、少なくとも1つの外殻が、プロセッサにより生成され、または、ユーザーにより手動で強調表示される。この外殻は、アドレス可能なパターンの雛型画像およびアドレス可能なパターンの表面画像内の全ての点を囲む。全ての場合にそうであるとはいえないが、アドレス可能なパターンの雛型画像の外殻の外側にある点は、放棄してもよい。アドレス可能なパターンの表面画像中の点の内殻も複数個生成される。この内殻は、個々の6つの可変の平行移動および回転による、複数の殻の交差内の獲得間の最大限許容可能な変位の関数である。誤差は、アドレス可能なパターンの表面画像上にある点とアドレス可能なパターンの雛型画像との間の差から演算してもよい。
殻が生成されたら、アドレス可能なパターン情報が、マッチングアルゴリズムを用いて処理される。このマッチングアルゴリズムは、アドレス可能なパターンの表面画像上の各点と、アドレス可能なパターンの雛型画像上の対応する点との間の距離を決定するように構成されている。各マッチングされた点は、その個体の移動および回転により、複数の内殻から、高解像度のデータセットを形成するために1つにまとめられる。
何百または場合によっては何千もの獲得をマッチングすると、この点の大群は、個体の平行移動および回転により1つにまとめられる。目標とする被写体の特徴を回復するのに十分なマッチング点が存在するか否かを決定するように、アドレス可能なパターン情報を用いたアルゴリズムを適応させてもよい。高解像度点の大群が作成されると、この高解像度点の大群を用いて、標準的なアルゴリズムまたは市販のパッケージを介し、補間ありまたはなしで、高解像度の表面(ナーブおよびメッシュなど)を生成または出力することができる。このような標準的なアルゴリズムまたは市販のパッケージは、例えば、ジオマジック(Geomagic)社製のジオマジック・スタジオ(Geomagic Studio)である。ジオマジック(Geomagic)社は、アメリカ合衆国、27709、ノースカロライナ州、リサーチ・トライアングル・パーク、3200 イースト・ハイウェイ 54、ケープフィアービルディング、300号室(3200 East Hwy 54, Cape Fear Building, Suite 300, Research Triangle Park,NC,27709)在である。
この適合は、全誤差が、この装置の精度の関数である、ある閾値以下であれば十分であると考えられている。これが行われれば、調節された位置における第2の獲得が雛型となり、次の獲得が、これにマッチングする表面となる。マッチングアルゴリズム中のアドレス可能なパターン情報の頑健さにより、十分な獲得が得られるまで表面形状を補間することなく、小さいセットを小さいセットにマッチングさせることができる。
図11を参照すると、この図は、画像の再構成を支援するために、撮像系にアドレス可能なパターンを使用することを示すフローチャートである。表面特徴獲得時にアドレス可能なパターンを用いるのは、分離可能な視点の三次元撮像システム中で用いられる対応検索を回避する方法の1つである。
この過程は、各画像がアドレス可能なパターンを含む(アドレス可能なパターンで照射される)多数の画像を獲得する工程1100から始まる。通常、各画像は、異なる視点から撮られるが、アドレス可能なパターンは、被写体の表面輪郭に関して静止している。複数の画像はそれぞれ、アドレス可能なパターン情報の少なくとも一部および目標とする被写体の少なくとも一面を表現する少なくとも1つの点を有する。被写体は、その上に様々な点を有しうると理解される。各点は、これから行われる被写体の再構成に関する重要な情報を提供しうる。
画像中の各点に対してアドレスが割り当てられる(工程1110)。一般的に、アドレス可能なパターンは、アドレス化(工程1110)中で支援するために参照される被写体上の一連のプロットを提供する。重要であるのは、アドレス可能なパターンは、対称形である必要はなく、通常の一連のマーカーまたは画像を包含する。適切なアドレス可能なパターン情報の非限定的な例には、色シーケンスパターン、異なる形状を有する被写体を有するパターン、および、位置シーケンスパターン、識別可能な被写体特徴または被写体ランドマーク、もしくは、これらの組み合わせが含まれる。アドレス可能なパターンの画像は、種々の方法で、被写体表面上に置かれうる。この適切な方法の非限定的な例には、アドレス可能なパターンの画像を被写体表面上に投影する方法、アドレス可能なパターンの画像を被写体表面上に物理的に置く方法、および、源としての撮像される被写体に固有の特徴を用いる方法が含まれる。
追加的な画像を獲得する工程を行うか否かをシステムが決定するのを支援する工程1120を実装してもよい。この工程は、さらに、獲得画像の適切さを秤量するよう補強されてもよい。例えば、露光中に過度の移動が行われていた画像がセンサーにより検出された場合、この画像は、アルゴリズムにより放棄されてもよい。この場合、最後に獲得された画像が放棄され、過程は、被写体の照射工程1100から繰り返される。別の態様では、アドレス可能なパターンを用いて受け取った画像は処理に適したものでありうるが、しかし、被写体を再構成するために、より多くの画像獲得が必要である。この場合、アルゴリズムをさらに補強するために、さらなる決定過程を追加可能である。この一例は、撮像系の視点を調節すべきか否かの決定する工程を追加することであるだろう。撮像装置の位置または被写体の所望の領域を移す必要があれば、撮像系または目標とする被写体のいずれかが、視点を調節する工程1140のために変えられてもよい。
画像の全てまたは少なくとも一部分が獲得されれば、各画像内での点間の関係または点情報間の関係を用いて、各点に対する相対的なまたは絶対的な距離情報を演算または決定する。距離情報がわかれば、この情報は、この距離情報を用いて被写体の像を生成する工程1160に供給されうる。
図面および関連する詳細な説明は、本発明の実施形態を図解するために提供されるものであり、本発明の範囲を限定する目的で提供されるのではない。明細書中の「1実施形態」または「ある実施形態」への言及は、この実施形態に関連して記載された特定の特徴、構造または特性が、少なくとも本発明の1実施形態中に含まれることを示すことを意図する。明細書中の種々の箇所において記載した「1実施形態中」または「ある実施形態中」との語句は、必ずしも全て同じ実施形態を言及したのではない。
別途、文脈的に必要としている場合を除いて、本開示中で用いられる、「有する(comprise)」という語句およびその変化形(“comprising”、“comprises”および“comprised”)には、他の添加物、要素、整数または工程を排除する意図はない。
また、本実施形態は、フローチャート、フローダイヤグラム、構造図またはブロック図として表した過程として開示されている点に留意されたい。フローチャートは、作動の種々の工程を、順序だてた過程として開示しうるが、多くの作動は、並行的にまたは同時に実施されうる。図示した工程は、限定的な意図はなく、示した各工程が方法にとって本質的であるとして示す意図はなく、例示的な工程のみである。
上述の明細書で、本発明は特定の実施形態を参照して記載した。しかしながら、本発明のより広い精神および範囲を離れることなく、種々の修正および変更を行ってもよいことは明らかである。したがって、明細書および図面は、制限的な意味合いではなく、例示的な意味合いで考えられるべきである。本発明は、このような実施形態によって限定されると解釈されるべきではないと理解されるべきである。
上述の詳細な説明から、本発明は多くの利点を有することが明らかであり、本願中で説明したものもあり、本発明の実施形態中で本来的なものとして記載されたり特許請求されたものもある。修正は、本願中に記載した主題の教示を離れることなく、本願中に記載した装置、装置(apparatus)および方法に対して行われうるという点も理解される。本発明はこのようなものとして、添付の請求項で要求していない限り、記載した実施形態に限定されない。

Claims (8)

  1. 被写体表面の三次元撮像用の単一レンズ装置であって、
    1つのレンズと、
    前記レンズを含んだ光学経路を遮る複数のフィルタリング用絞り開口であって、被写体表面から反射された光が、前記レンズと前記フィルタリング用絞り開口とを通過し、フィルターをかけられて前記表面を表すフィルターがかけられた情報となるように構成されているフィルタリング用絞り開口と、
    前記光学経路に沿って前記表面を表す前記フィルターをかけられた情報を獲得し、前記表面を表す出力信号を生成するために動作可能なセンサーと、
    前記表面の前記フィルターをかけられた情報を表す前記出力信号を前記センサーから受け取るために前記センサーと通信可能に接続され、さらに、前記被写体表面を表現する表面画像を生成するように構成されたプロセッサと、
    を有しており、前記プロセッサは、前記表面から、該表面によって変形されている変形パターンを検出し、前記表面により変形される前の元来のパターンを表す情報と前記パターンとを比較するものであり、前記表面画像は、デフォーカスされた情報によって前記元来のパターンと前記変形したパターンとの間の相違が見つけ出されることによって決定され、
    前記複数のフィルタリング用絞り開口は、偏光による符号化をされた少なくとも2つの絞り開口を有し、前記センサーは、偏光され符号化された情報を受け取るように構成されていることを特徴とする単一レンズ装置。
  2. 前記複数のフィルタリング用絞り開口は、色で符号化された少なくとも2つの絞り開口を有する請求項1に記載の単一レンズ装置。
  3. さらに、前記被写体表面上に、アドレス可能なパターンを投影するための多波長のアドレス可能なパターン投影機を有する請求項2に記載の単一レンズ装置。
  4. 前記複数のフィルタリング用絞り開口は、それぞれの形状で符号化された少なくとも2つの絞り開口を有する請求項1に記載の単一レンズ装置。
  5. 被写体表面の三次元撮像方法であって、
    レンズを含んだ光学経路を遮る複数のフィルタリング用絞り開口を利用し、前記光学経路に沿ってセンサーを利用するステップであって、前記フィルタリング用絞り開口は、被写体表面から反射された光が、前記レンズと前記フィルタリング用絞り開口とを通過し、フィルターをかけられて前記表面を表すフィルターがかけられた情報となるように構成されていることを特徴とするステップと、
    前記被写体の表面を表す表面画像を生成するため、前記表面の前記フィルターがかけられた情報を表す出力信号を受け取るためにセンサーと通信可能に接続されたプロセッサを使用するステップと、
    を含んでおり、前記プロフェッサを使用するステップは、前記表面から、該表面によって変形されている変形パターンを検出し、前記表面により変形される前の元来のパターンを表す情報と前記パターンとを比較するものであり、前記表面画像は、デフォーカスされた情報によって、前記元来のパターンと前記変形したパターンとの間の相違が見つけ出されることによって決定され、
    前記複数のフィルタリング用絞り開口は、偏光による符号化をされた少なくとも2つの絞り開口を有し、前記センサーは、偏光され符号化された情報を受け取るように構成されていることを特徴とする方法。
  6. 前記複数のフィルタリング用絞り開口は、色で符号化された少なくとも2つの絞り開口を有する請求項5に記載の方法。
  7. さらに、前記被写体表面上に、アドレス可能なパターンを提供する多波長のアドレス可能なパターンを投影するステップを含んだ請求項5に記載の方法。
  8. 前記複数のフィルタリング用絞り開口は、それぞれの形状で符号化された少なくとも2つの絞り開口を有する請求項5に記載の方法。
JP2009547304A 2007-01-22 2008-01-22 定量的な三次元撮像のための方法および装置 Active JP5167279B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US88176207P 2007-01-22 2007-01-22
US88177607P 2007-01-22 2007-01-22
US88177907P 2007-01-22 2007-01-22
US60/881,779 2007-01-22
US60/881,776 2007-01-22
US60/881,762 2007-01-22
PCT/US2008/000991 WO2008091691A1 (en) 2007-01-22 2008-01-22 Method and apparatus for quantitative 3-d imaging

Publications (3)

Publication Number Publication Date
JP2010517039A JP2010517039A (ja) 2010-05-20
JP2010517039A5 JP2010517039A5 (ja) 2011-03-10
JP5167279B2 true JP5167279B2 (ja) 2013-03-21

Family

ID=39345361

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009547304A Active JP5167279B2 (ja) 2007-01-22 2008-01-22 定量的な三次元撮像のための方法および装置
JP2009547283A Pending JP2010517038A (ja) 2007-01-22 2008-01-22 定量的な三次元撮像のための方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009547283A Pending JP2010517038A (ja) 2007-01-22 2008-01-22 定量的な三次元撮像のための方法および装置

Country Status (7)

Country Link
US (3) US7826067B2 (ja)
EP (2) EP2106532A1 (ja)
JP (2) JP5167279B2 (ja)
KR (2) KR20090104857A (ja)
AU (2) AU2008209445A1 (ja)
CA (2) CA2676249A1 (ja)
WO (2) WO2008091639A2 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8089635B2 (en) 2007-01-22 2012-01-03 California Institute Of Technology Method and system for fast three-dimensional imaging using defocusing and feature recognition
AU2008209445A1 (en) 2007-01-22 2008-07-31 California Institute Of Technology Method and apparatus for quantitative 3-D imaging
AU2008244493A1 (en) * 2007-04-23 2008-11-06 California Institute Of Technology Single-lens, single-aperture, single-sensor 3-D imaging device
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
WO2010005973A2 (en) * 2008-07-07 2010-01-14 The Johns Hopkins University Automated surface-based anatomical analysis based on atlas-based segmentation of medical imaging
WO2010027391A2 (en) 2008-08-27 2010-03-11 California Institute Of Technology Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing
US20100149551A1 (en) * 2008-12-16 2010-06-17 Faro Technologies, Inc. Structured Light Imaging System and Method
US8773507B2 (en) * 2009-08-11 2014-07-08 California Institute Of Technology Defocusing feature matching system to measure camera pose with interchangeable lens cameras
WO2011031538A2 (en) * 2009-08-27 2011-03-17 California Institute Of Technology Accurate 3d object reconstruction using a handheld device with a projected light pattern
DE102010014468B4 (de) 2010-04-09 2013-10-31 Umicore Ag & Co. Kg Verfahren zur Verminderung von Lachgas bei der Abgasnachbehandlung von Magermotoren
US9151607B2 (en) * 2010-05-31 2015-10-06 University Of North Carolina At Charlotte Dimensional measurement through a combination of photogrammetry and optical scattering
JP5229427B2 (ja) 2010-07-23 2013-07-03 トヨタ自動車株式会社 距離測定装置および距離測定方法
CN102985788B (zh) * 2010-07-23 2015-02-11 丰田自动车株式会社 距离测定装置以及距离测定方法
EP3091508B1 (en) 2010-09-03 2018-12-26 California Institute of Technology Three-dimensional imaging system
KR101144594B1 (ko) 2010-12-28 2012-05-11 주식회사 세니젠 비접촉식 구획방식을 이용한 고체표면 미생물 검체 채취방법 및 그 고체표면 구획장치
US9186470B2 (en) * 2012-02-08 2015-11-17 Apple Inc. Shape reflector and surface contour mapping
TWI478103B (zh) * 2012-08-10 2015-03-21 Univ Nat Taiwan 使用高度形變微分同胚度量映射法的擴散頻譜造影轉換方法
KR101858577B1 (ko) 2012-10-10 2018-05-16 삼성전자주식회사 결상 광학계 및 이를 포함하는 3차원 영상 획득 장치
JP5820831B2 (ja) * 2013-02-14 2015-11-24 オリンパス株式会社 撮像装置
US9176229B2 (en) * 2013-04-10 2015-11-03 Flex Instrument Co., Ltd. Three-dimensional distance measuring method and associated system
US9646365B1 (en) * 2014-08-12 2017-05-09 Amazon Technologies, Inc. Variable temporal aperture
US9749532B1 (en) 2014-08-12 2017-08-29 Amazon Technologies, Inc. Pixel readout of a charge coupled device having a variable aperture
US9787899B1 (en) 2014-08-12 2017-10-10 Amazon Technologies, Inc. Multiple captures with a variable aperture
US10171745B2 (en) * 2014-12-31 2019-01-01 Dell Products, Lp Exposure computation via depth-based computational photography
EP3505641A1 (en) * 2015-12-18 2019-07-03 Paris Sciences et Lettres - Quartier Latin Optical device for measuring the position of an object
WO2017132165A1 (en) 2016-01-25 2017-08-03 California Institute Of Technology Non-invasive measurement of intraocular pressure
US20220392055A1 (en) * 2021-06-07 2022-12-08 Elementary Robotics, Inc. Machine-Learning Based Continuous Camera Image Triggering for Quality Assurance Inspection Processes
US20220319026A1 (en) * 2021-03-31 2022-10-06 Ernst Leitz Labs LLC Imaging system and method
DE102021118327B4 (de) 2021-07-15 2023-03-30 Carl Zeiss Industrielle Messtechnik Gmbh Messkamera zur zweidimensionalen Vermessung von Gegenständen
DE102022108474B4 (de) 2022-04-07 2024-03-07 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Messkamera zur Messung eines Oberflächenprofils eines Objekts
DE102022116214B4 (de) 2022-06-29 2024-06-13 Carl Zeiss Industrielle Messtechnik Gmbh Messkamera und Verfahren zur zweidimensionalen Vermessung von Gegenständen

Family Cites Families (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283641A (en) 1954-12-24 1994-02-01 Lemelson Jerome H Apparatus and methods for automated analysis
JPS5258529A (en) 1975-11-08 1977-05-14 Canon Inc Camera system
JPS52149120A (en) 1976-06-07 1977-12-12 Minolta Camera Co Ltd Interchangeable lens
US4264921A (en) 1979-06-29 1981-04-28 International Business Machines Corporation Apparatus for color or panchromatic imaging
US4879664A (en) 1985-05-23 1989-11-07 Kabushiki Kaisha Toshiba Three-dimensional position sensor and three-dimensional position setting system
US4727471A (en) 1985-08-29 1988-02-23 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Miniature lightweight digital camera for robotic vision system applications
US4650466A (en) 1985-11-01 1987-03-17 Angiobrade Partners Angioplasty device
US5235857A (en) 1986-05-02 1993-08-17 Forrest Anderson Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters
GB8617567D0 (en) 1986-07-18 1986-08-28 Szilard J Ultrasonic imaging apparatus
IT1201625B (it) 1986-07-31 1989-02-02 Aeolos Holding Ag Pannelli prefabbricati per la realizzazione di celle isolanti
JP2565885B2 (ja) * 1987-02-04 1996-12-18 日本電信電話株式会社 空間パタ−ンコ−ド化方法
US5579444A (en) 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
US4948258A (en) 1988-06-27 1990-08-14 Harbor Branch Oceanographic Institute, Inc. Structured illumination surface profiling and ranging systems and methods
JP2655885B2 (ja) 1988-08-05 1997-09-24 株式会社フジクラ 限界電流式ガス濃度センサの駆動方法
CA1316590C (en) 1989-04-17 1993-04-20 Marc Rioux Three-dimensional imaging device
US5476100A (en) 1994-07-07 1995-12-19 Guided Medical Systems, Inc. Catheter steerable by directional jets with remotely controlled closures
CA1319188C (en) * 1989-08-24 1993-06-15 Marc Rioux Three dimensional imaging device
JP2878409B2 (ja) 1989-09-04 1999-04-05 株式会社リコー 3次元物体撮像方式
CN1019919C (zh) 1990-03-08 1993-02-17 清华大学 具有新型声镜的反射式声显微镜
JPH03289293A (ja) * 1990-04-04 1991-12-19 Mitsubishi Electric Corp 撮像装置
US5221261A (en) 1990-04-12 1993-06-22 Schneider (Usa) Inc. Radially expandable fixation member
US5071407A (en) 1990-04-12 1991-12-10 Schneider (U.S.A.) Inc. Radially expandable fixation member
US5222971A (en) 1990-10-09 1993-06-29 Scimed Life Systems, Inc. Temporary stent and methods for use and manufacture
JP3210027B2 (ja) 1991-04-05 2001-09-17 キヤノン株式会社 カメラ
US5206498A (en) 1991-06-07 1993-04-27 Asahi Kogaku Kogyo Kabushiki Kaisha Focus detecting apparatus having variable power condenser lens
US5216695A (en) 1991-06-14 1993-06-01 Anro Engineering, Inc. Short pulse microwave source with a high prf and low power drain
GB2258928B (en) 1991-08-16 1994-09-28 Keymed A borescope
US5270795A (en) * 1992-08-11 1993-12-14 National Research Council Of Canada/Conseil National De Rechereches Du Canada Validation of optical ranging of a target surface in a cluttered environment
US5373151A (en) 1993-10-04 1994-12-13 Raytheon Company Optical system including focal plane array compensation technique for focusing and periodically defocusing a beam
GB9323054D0 (en) 1993-11-09 1994-01-05 British Nuclear Fuels Plc Determination of the surface properties of an omject
IL111229A (en) 1994-10-10 1998-06-15 Nova Measuring Instr Ltd Autofocusing microscope
US5527282A (en) 1994-12-09 1996-06-18 Segal; Jerome Vascular dilatation device and method
US5864359A (en) 1995-05-30 1999-01-26 Smith & Nephew, Inc. Stereoscopic autofocusing based on comparing the left and right eye images
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5922961A (en) 1996-05-10 1999-07-13 The United States Of America As Represented By The Secretary Of Commerce Time and polarization resolved acoustic microscope
US5745067A (en) 1996-07-17 1998-04-28 Industrial Technology Research Institute Two stage analoge-to-digital converter having unique fine encoding circuitry
JP3198938B2 (ja) 1996-09-03 2001-08-13 株式会社エフ・エフ・シー 移動カメラ用の画像処理装置
US7194117B2 (en) 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6115553A (en) 1996-09-17 2000-09-05 Asahi Kogaku Kogyo Kabushiki Kaisha Multipoint autofocus system
US6858826B2 (en) 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6045623A (en) 1997-04-24 2000-04-04 Cannon; Bradley Jay Method and apparatus for cleaning catheter lumens
US5928260A (en) 1997-07-10 1999-07-27 Scimed Life Systems, Inc. Removable occlusion system for aneurysm neck
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
US6545701B2 (en) 1997-08-13 2003-04-08 Georgia Tech Research Corporation Panoramic digital camera system and method
JP4054422B2 (ja) 1997-11-13 2008-02-27 キヤノン株式会社 カメラ及び交換レンズ装置
US7612870B2 (en) 1998-02-25 2009-11-03 California Institute Of Technology Single-lens aperture-coded camera for three dimensional imaging in small volumes
WO1999044096A2 (en) 1998-02-25 1999-09-02 California Institute Of Technology Aperture coded camera for three-dimensional imaging
US7006132B2 (en) 1998-02-25 2006-02-28 California Institute Of Technology Aperture coded camera for three dimensional imaging
US6113588A (en) 1998-03-13 2000-09-05 Corvascular, Inc. Transillumination catheter and method
US6304284B1 (en) 1998-03-31 2001-10-16 Intel Corporation Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
US6563543B1 (en) 1998-03-31 2003-05-13 Hewlett-Packard Development Company, L.P. Digital camera and method of using same
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US6912293B1 (en) 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US6748112B1 (en) 1998-07-28 2004-06-08 General Electric Company Method and apparatus for finding shape deformations in objects having smooth surfaces
US6262803B1 (en) 1998-09-10 2001-07-17 Acuity Imaging, Llc System and method for three-dimensional inspection using patterned light projection
US6227850B1 (en) 1999-05-13 2001-05-08 Align Technology, Inc. Teeth viewing system
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
US6271918B2 (en) 1999-02-04 2001-08-07 National Research Council Of Canada Virtual multiple aperture 3-D range sensor
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
JP2001016610A (ja) 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及びカメラ
JP2001061165A (ja) 1999-08-20 2001-03-06 Sony Corp レンズ装置及びカメラ
US7236622B2 (en) 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
US6519359B1 (en) 1999-10-28 2003-02-11 General Electric Company Range camera controller for acquiring 3D models
US6648640B2 (en) * 1999-11-30 2003-11-18 Ora Metrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US7075930B1 (en) 2000-04-11 2006-07-11 Telefonaktiebolaget Lm Ericsson (Publ) System and method for packet data servicing node (PDSN)initial assignment and reselection
US6638239B1 (en) 2000-04-14 2003-10-28 Glaukos Corporation Apparatus and method for treating glaucoma
EP1150327B1 (en) 2000-04-27 2018-02-14 ICT, Integrated Circuit Testing Gesellschaft für Halbleiterprüftechnik mbH Multi beam charged particle device
GB2373329B (en) 2000-05-05 2003-03-05 Acoustical Tech Sg Pte Ltd Acoustic microscope
TW527518B (en) 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
JP2002034056A (ja) 2000-07-18 2002-01-31 Scalar Corp 立体視用画像の撮像装置、立体視用画像の撮像方法
JP2002164066A (ja) 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
WO2002045003A1 (en) 2000-12-01 2002-06-06 Imax Corporation Techniques and systems for developing high-resolution imagery
US7304677B2 (en) 2000-12-13 2007-12-04 Eastman Kodak Company Customizing a digital camera based on demographic factors
JP2002220991A (ja) 2001-01-25 2002-08-09 Kajima Corp 本坑シ−ルドトンネル内に設ける隔壁とその構築方法
JP2002254708A (ja) 2001-03-06 2002-09-11 Fuji Photo Film Co Ltd 色再現方法およびこの方法を用いるデジタルカラーハードコピー装置、並びに上記方法を実行するためのプログラム
US6765569B2 (en) 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US6915008B2 (en) 2001-03-08 2005-07-05 Point Grey Research Inc. Method and apparatus for multi-nodal, three-dimensional imaging
US7423666B2 (en) 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
US6701181B2 (en) 2001-05-31 2004-03-02 Infraredx, Inc. Multi-path optical catheter
US6873868B2 (en) 2001-12-31 2005-03-29 Infraredx, Inc. Multi-fiber catheter probe arrangement for tissue analysis or treatment
CA2369710C (en) 2002-01-30 2006-09-19 Anup Basu Method and apparatus for high resolution 3d scanning of objects having voids
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP3932946B2 (ja) 2002-03-28 2007-06-20 ソニー株式会社 無線通信装置および無線通信方法、並びにプログラム
JP2004046772A (ja) 2002-05-13 2004-02-12 3D Media Co Ltd 画像処理方法、画像処理システム、及び画像処理装置
US20050119684A1 (en) 2002-07-12 2005-06-02 Guterman Lee R. Aneurysm buttress arrangement
US7106375B2 (en) 2002-09-12 2006-09-12 Eastman Kodak Company Mutual display support for a digital information/imaging system
US20040155975A1 (en) 2002-09-17 2004-08-12 Hart Douglas P. 3-D imaging system
EP1556805B1 (en) 2002-10-22 2011-08-24 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
GB2395261A (en) * 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
JP4090860B2 (ja) 2002-12-12 2008-05-28 オリンパス株式会社 3次元形状測定装置
US7171054B2 (en) 2003-05-01 2007-01-30 Eastman Kodak Company Scene-based method for determining focus
WO2005033629A2 (en) 2003-09-19 2005-04-14 University Of Miami Multi-camera inspection of underwater structures
US7609289B2 (en) 2003-09-25 2009-10-27 Omnitek Partners, Llc Methods and apparatus for capturing images with a multi-image lens
JP4511471B2 (ja) 2004-01-30 2010-07-28 株式会社モリテックス 撮像装置、撮像レンズ、撮像レンズへのデータ書込方法
US7212330B2 (en) 2004-03-22 2007-05-01 Angstrom, Inc. Three-dimensional imaging system for pattern recognition
US20050251116A1 (en) 2004-05-05 2005-11-10 Minnow Medical, Llc Imaging and eccentric atherosclerotic material laser remodeling and/or ablation catheter
GB0410551D0 (en) 2004-05-12 2004-06-16 Ller Christian M 3d autostereoscopic display
JP2005341416A (ja) 2004-05-28 2005-12-08 Toshiba Corp 撮像機能付き電子機器およびその画像表示方法
AU2005265048B2 (en) 2004-06-18 2011-06-16 Elamleh, David R. Intravascular imaging device and uses thereof
WO2006046669A1 (ja) 2004-10-28 2006-05-04 University Of Fukui データベース管理装置、方法、プログラム
US20060092314A1 (en) 2004-10-31 2006-05-04 Silverstein D A Autofocus using a filter with multiple apertures
US7668388B2 (en) 2005-03-03 2010-02-23 Mitutoyo Corporation System and method for single image focus assessment
CA2656163C (en) 2005-03-11 2011-07-19 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
US7577309B2 (en) 2005-06-18 2009-08-18 Muralidhara Subbarao Direct vision sensor for 3D computer vision, digital imaging, and digital video
US7565029B2 (en) 2005-07-08 2009-07-21 Seiko Epson Corporation Method for determining camera position from two-dimensional images that form a panorama
TWI286921B (en) 2005-09-09 2007-09-11 Quanta Comp Inc Apparatus for minimizing electromagnetic interference and manufacturing method thereof
EP2361549A3 (en) 2005-09-30 2012-05-02 Cornova, Inc. System for analysis and treatment of a body lumen
WO2007041690A2 (en) 2005-10-04 2007-04-12 Alexander Eugene J Device for generating three dimensional surface models of moving objects
US7715918B2 (en) 2005-10-18 2010-05-11 University Of Cincinnati Muscle energy converter with smooth continuous tissue interface
CN101466998B (zh) 2005-11-09 2015-09-16 几何信息学股份有限公司 三维绝对坐标表面成像的方法和装置
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7342658B2 (en) 2005-12-28 2008-03-11 Eastman Kodak Company Programmable spectral imaging system
US7372642B2 (en) 2006-02-13 2008-05-13 3M Innovative Properties Company Three-channel camera systems with non-collinear apertures
US7646550B2 (en) 2006-02-13 2010-01-12 3M Innovative Properties Company Three-channel camera systems with collinear apertures
US7819591B2 (en) 2006-02-13 2010-10-26 3M Innovative Properties Company Monocular three-dimensional imaging
JP5426174B2 (ja) 2006-02-13 2014-02-26 スリーエム イノベイティブ プロパティズ カンパニー 単眼三次元撮像
US7715018B2 (en) 2006-04-05 2010-05-11 California Institute Of Technology 3-dimensional imaging by acoustic warping and defocusing
EP2016559A2 (en) 2006-05-05 2009-01-21 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
JP5362189B2 (ja) 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
JP4974650B2 (ja) 2006-11-10 2012-07-11 ペンタックスリコーイメージング株式会社 交換レンズ及びレンズデータ通信方法
AU2008209445A1 (en) 2007-01-22 2008-07-31 California Institute Of Technology Method and apparatus for quantitative 3-D imaging
US8089635B2 (en) 2007-01-22 2012-01-03 California Institute Of Technology Method and system for fast three-dimensional imaging using defocusing and feature recognition
US7889197B2 (en) 2007-01-26 2011-02-15 Captivemotion, Inc. Method of capturing, processing, and rendering images
AU2008244493A1 (en) 2007-04-23 2008-11-06 California Institute Of Technology Single-lens, single-aperture, single-sensor 3-D imaging device
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
WO2010011355A2 (en) 2008-07-25 2010-01-28 California Institute Of Technology Imaging catheter using laser profile for plaque depth measurement
WO2010027391A2 (en) 2008-08-27 2010-03-11 California Institute Of Technology Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing
US8773507B2 (en) 2009-08-11 2014-07-08 California Institute Of Technology Defocusing feature matching system to measure camera pose with interchangeable lens cameras
WO2011031538A2 (en) 2009-08-27 2011-03-17 California Institute Of Technology Accurate 3d object reconstruction using a handheld device with a projected light pattern

Also Published As

Publication number Publication date
US20140078261A1 (en) 2014-03-20
EP2106532A1 (en) 2009-10-07
US8576381B2 (en) 2013-11-05
KR20090104857A (ko) 2009-10-06
AU2008209480A1 (en) 2008-07-31
EP2106531A2 (en) 2009-10-07
US20080239316A1 (en) 2008-10-02
WO2008091639A2 (en) 2008-07-31
KR20090107536A (ko) 2009-10-13
JP2010517038A (ja) 2010-05-20
US7826067B2 (en) 2010-11-02
WO2008091639A3 (en) 2009-05-07
CA2676224A1 (en) 2008-07-31
US9219907B2 (en) 2015-12-22
JP2010517039A (ja) 2010-05-20
AU2008209445A1 (en) 2008-07-31
CA2676249A1 (en) 2008-07-31
US20080278804A1 (en) 2008-11-13
WO2008091691A1 (en) 2008-07-31

Similar Documents

Publication Publication Date Title
JP5167279B2 (ja) 定量的な三次元撮像のための方法および装置
JP2010525745A (ja) デフォーカスに基づく3d撮像用の空間的に偏向した絞り開口形状を有する絞り開口システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121101

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5167279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250