JP2010528499A - カメラ位置を得るための中央絞り開口を備えた、単一レンズ、単一センサー3d撮像装置 - Google Patents
カメラ位置を得るための中央絞り開口を備えた、単一レンズ、単一センサー3d撮像装置 Download PDFInfo
- Publication number
- JP2010528499A JP2010528499A JP2010506264A JP2010506264A JP2010528499A JP 2010528499 A JP2010528499 A JP 2010528499A JP 2010506264 A JP2010506264 A JP 2010506264A JP 2010506264 A JP2010506264 A JP 2010506264A JP 2010528499 A JP2010528499 A JP 2010528499A
- Authority
- JP
- Japan
- Prior art keywords
- aperture
- subject
- aperture opening
- electromagnetic radiation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/18—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
- G02B27/20—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2509—Color coding
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/005—Diaphragms
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/08—Trick photography
- G03B15/12—Trick photography using mirrors
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/02—Stereoscopic photography by sequential recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B2207/00—Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
- G02B2207/129—Coded aperture imaging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Blocking Light For Cameras (AREA)
- Polarising Elements (AREA)
Abstract
【課題】
デフォーカス技術を用いた三次元(3D)撮像装置および方法を開示する。
【解決手段】
この装置は、1つのレンズと、目標とする被写体の全体画像を投影するために、光軸に沿って位置づけられた1つの中央絞り開口と、光軸外に位置づけられた少なくとも1つのデフォーカス絞り開口と、被写体から出てかつレンズ、中央絞り開口および少なくとも1つのデフォーカス絞り開口を通過した電磁放射線を獲得するために動作可能なセンサーと、センサー情報を処理しかつ被写体の3D画像を生成するためにセンサーと通信可能に接続されたプロセッサとを有する。中央絞り開口用とデフォーカス絞り開口用とに、異なる光学フィルターをそれぞれ用いることができ、これにより、中央絞り開口により生成された背景画像が、デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別できる。
【選択図】 図5G
デフォーカス技術を用いた三次元(3D)撮像装置および方法を開示する。
【解決手段】
この装置は、1つのレンズと、目標とする被写体の全体画像を投影するために、光軸に沿って位置づけられた1つの中央絞り開口と、光軸外に位置づけられた少なくとも1つのデフォーカス絞り開口と、被写体から出てかつレンズ、中央絞り開口および少なくとも1つのデフォーカス絞り開口を通過した電磁放射線を獲得するために動作可能なセンサーと、センサー情報を処理しかつ被写体の3D画像を生成するためにセンサーと通信可能に接続されたプロセッサとを有する。中央絞り開口用とデフォーカス絞り開口用とに、異なる光学フィルターをそれぞれ用いることができ、これにより、中央絞り開口により生成された背景画像が、デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別できる。
【選択図】 図5G
Description
本発明は、三次元(3D)撮像装置および方法に関し、とりわけ、カメラ位置を得るための中央絞り開口を備えた、単一レンズ、単一センサー3D撮像装置に関する。
本願は非仮特許出願であり、米国特許仮出願第60/881,776号(2007年1月22日出願、発明の名称「デフォーカス技術に基づく単一レンズ三次元撮像装置」)、米国特許仮出願第60/881,779号(2007年1月22日出願、発明の名称「デフォーカス技術に基づく携帯用三次元マッピング装置」、および、米国特許仮出願第60/881,762号(2007年1月22日出願、発明の名称「カメラベースの定量三次元撮像システムにおける必要な視点の数を低減する方法」)、米国特許仮出願第60/925,918号(2007年4月23日出願、発明の名称「単一レンズ、単一絞り開口、単一センサー3D撮像装置(Single− lens, Single−aperture, Single−sensor 3−D Imaging Device)」)、米国特許仮出願第60/926,010号(2007年4月23日出願、発明の名称「偏光で符号化された絞り開口マスクを偏光に感度を有するセンサーと組み合わせて用いた単一レンズ三次元撮像(Single Lens Three−Dimensional imaging using Polarization−Coded Aperture Mask Combined with a Polarization−Sensitive Sensor)」)、米国特許仮出願第60/926,023号(2007年4月23日出願、発明の名称「単一センサーを用いたデフォーカスに基づく静的および動的3D撮像用の空間的に偏向したピンホール形状および位置(SDPSP)を有する絞り開口システム(An Aperture System with Spatially Biased Pinhole Shapes and Position (SDPSP) for Static and Dynamic 3−D Defocusing−Based Imaging with Single Sensor)」)による優先権主張をする。
三次元(3D)撮像は、撮像技術改良の恩恵を受ける常に進化し続けている分野である。強化された三次元撮像は、例えば、(定量的三次元撮像により)撮像された被写体の定量的な情報を生成するなど、多様な目的に使用可能である。しかし、現在の撮像技術は、定量的な三次元撮像を十分支援することはできていない。例えば、撮像系の焦点面上にない点が、撮像系により撮像される時、センサーにより検出された獲得点は、デフォーカスであるといわれる。撮像系が大きな絞り開口を有する場合、この非合焦点は、ぼやけて現れる。したがって、点の画像のぼやけは、点から焦点面への空間距離を定量的に決定するために用いられうると提案されている。また、焦点面の位置を知ることができれば、撮像系を用いて定量的な三次元撮像を行うことができると提案されている。点の三次元位置を再構成するためには、ぼやけた円盤の大きさおよび/または強度(Z)と、センサー上の点の位置(X、Y)とを測定することのみが必要である。
しかしながら、実践的には、このようなシステムを効果的に実現するのは難しい。第1に、ぼやけた画像は、センサー上の多大なスペースを占有するので、重複する画像を分離する洗練されたアルゴリズムが必要である。第2に、(焦点面が光学系に非常に接近していない限り)光学系に入射する光量は、合焦点(focused point)と非合焦点(defocused point)との間で感知できるほど変わらない。したがって、ぼやけた画像も、合焦画像と同じ量のエネルギーをセンサー上へ投射するが、より大きな面積に広がっている。デフォーカス画像の強度は、その面積に反比例しており、その結果、ぼやけに基づいて焦点面と点との間の距離を定量的に測定するには、極端に大きい動的範囲を有するセンサーが必要である。実際のレンズでは回折効果もあり、これにより、ぼやけた画像が、ある深度領域では、広いガウス分布というよりはむしろ輪形状に見え、ソフトウェア処理がより複雑になる。例えば、非特許文献1を参照されたい。レンズ収差または回折がない場合でさえ、深度情報はぼやけたスポットの直径の測定結果より導きだされるので、撮像された点の強度がこの測定結果に影響を与えるという事実により、画像処理は複雑になる。例えば、2つの非合焦点A・Bが同じデフォーカス量を有するが、点Aのほうが点Bよりも明るい場合、点Bの画像は、その場面において背景照度から同じように浮き上がっていないという理由だけで、通常、点Aの画像よりも小さな直径を有するものとして測定されるであろう。
元来の「デフォーカス」の概念では、このようなぼやけに基づくシステムにおける深度情報は、画像を形成する光線束の周辺(外側)光により伝えられる。例えば、非特許文献2を参照されたい。撮像系の感度を決定付けるのは、これらの光線がセンサー面となす角度である。したがって、画像を形成するために周辺光のみが通過できるように、撮像系中に小さな絞り開口を軸外に置くことによる等価の測定も可能であるべきである。もし上述のように、ぼやけシステムが、その大きな絞り開口を小さな絞り開口に代えて、大きい絞り開口の周辺部の任意の場所に有する場合、非合焦点の画像は、ぼやけ画像の周辺にあったであろうものの上に位置する小さな点となる。結果として得られるのは、ぼやけたスポットの大きさにより伝えられる深度情報ではなく、はるかにより小さいスポット中にある横方向のオフセットにより伝えられる深度情報である。画像上のスポットの位置の測定における感度は、その大きさを測定するよりも、強度差に対する感度がずっと低い。
小さな絞り開口を用いることにより、ぼやけに基づくシステムに伴う動的範囲の問題は緩和されるが、これは、小さな絞り開口の大きなFナンバーにより、回折ぼやけ(デフォーカスぼやけではなく)が画像中の主なぼやけの原因になるからである。これは、焦点面からの距離が長い領域では、画像がほぼ同じ大きさになることを意味する。
軸外絞り開口を用いるということは、空間内の点の位置の再現が、ここで、単一の点のセンサー上のすべての画像を見つけ、これらの画像間の距離を測定することを含むということを意味する。画像は、絞り開口構成と同じパターンで現れる。例えば、正三角形の頂点として、3つの小さな絞り開口が用いられる場合、非合焦点の画像は、正三角形中に配された3つの小さなスポットとなる。絞り開口の三角形に対するこれらの画像の三角形の方向(orientation)により、非合焦点が焦点面の前方(ahead of)ないし前(in front of)にあるか否かがわかる。さらに、画像の三角形の大きさは、非合焦点と焦点面との間の距離に関連する。合焦点の場合は、この三角形の大きさはゼロになり、これは、全ての3つの画像が互いに重なり合うことにより生じる。三角形は、デフォーカスの量が増加するにつれ、大きくなる。複数の小さな画像は、1つの大きなぼやけた像よりも、センサー上で占有するスペースが小さく、したがって、この構成により重複問題が緩和される。
再現におけるマッチング問題は、新しい問題を引き起こす。撮像される被写体が、特徴のない点の集合である場合、画像は識別不可能となり、その相対的な位置によってのみ(例えば、ある画像上中の正三角形を形成するある許容誤差内の全てのドットを見つけることによって)マッチング可能である。この比較的緩やかなマッチングの基準では、ミスマッチまたは「ゴースト」の数を減らすために、3つ以上の絞り開口を用いることが必要となる。
単一の軸外絞り開口は、深度情報を記録するが、しかし、Zは、撮像される点の面内位置から分離することはできない。2つの絞り開口は、深度情報を記録し、かつ、Zに依存せずに面内位置を抽出可能となる。実地では、2つの絞り開口のみで、ランダムな点の大群を再現することは不可能であるが、これは、画像がミスマッチされる際には、多くのゴースト粒子が生成されるからである。さらに、2つの画像のみから、ある粒子が焦点面の前または後にあるかを知ることは不可能である。3つの絞り開口により、ミスマッチは低減され、粒子から焦点面への距離の符号が、複数画像により形成された三角形の方向によりわかる。例えば、非特許文献2を参照されたい。
デフォーカス概念の元来の実地での実装は、3つの軸外絞り開口を備えた単一のレンズからなり、これらの3つの軸外絞り開口が1つの白黒センサー上に撮像することよりなる。(すなわち、3つは、許容可能な結果を生じさせるための絞り開口の最低限の数であると考えられた。)デフォーカス測定は、焦点面に対して相対的な点の位置の測定であるので、所望の点の絶対的な位置を知るために、装置の位置を知ることが必要である点に留意すべきである。
この3つの軸外絞り開口が、1つの白黒センサー上へ撮像するのにも欠点がある。領域内の点の密度が高いときには、センサーの過密は、まだ問題となる。この場合、各点は、センサー上に3つまでの画像を有し、まだ、動的範囲の問題が存在する。(すなわち、焦点面上の点は、センサー上で合致する3つの画像を有し、したがって、非合焦点よりも3倍明るく見える。)動的範囲の問題は、選択的にこの体積を照射し、焦点面上の点を撮像しないようにすることにより、克服されうる。
特許文献1および特許文献2に記載されているように、過密問題の1つの解決方法は、各絞り開口を別のセンサーを用いて撮像させることである。これにより、マッチング基準が増えるが、これは、この場合画像上の各スポットが、絞り開口構成の頂点のうちの1つのみになりうるからである。各スポットの源(絞り開口)がわかるので、マッチング過程の曖昧さが少し低減する。
さらに、センサーを追加する(例えば、電荷結合素子(CCD))ことにより、1つのセンサーシステムに比較して、製造の複雑さが増すことに加えて、コストが高く、サイズがより大きくなるという欠点がある。複数のセンサーの配置は、その配列、構造安定性に対する課題をもたらす。複数センサーは、温度、振動およびこれ以外の環境影響効果により異なる影響を受け、較正誤差が生じがちである。
上述の理由により、マッチング問題を緩和または解消する定量的な三次元撮像系の必要性が存在する。この撮像系は、簡素性および小型化のために、単一のレンズかつ単一のセンサー構成で実現可能であり、また、所望の場合、複数レンズかつ複数センサー構成へと容易に拡張可能であるべきである。
ウー・M(Wu,M.)、ロバーツ・J・W(Roberts,J.W.)およびバックレー・M(Buckley,M.)著、「単一カメラを用いたミクロン尺度の蛍光粒子の三次元追跡(Three dimensional fluorescent particle tracking at micron−scale using a single camera)」、液体における実験(Experiments in Fluids)、2005年、38巻、461−465頁
ウィラート・C・E(Willert,C.E.)およびガリブ・M(Gharib,M.)著、「単一カメラを用いた三次元粒子撮像(Three−dimensional particle imaging with a single camera)」、液体における実験(Experiments in Fluids)、1992年、12巻、353−358頁
本発明は、三次元(3D)撮像装置および方法に関し、とりわけ、カメラ位置を得るための中央絞り開口を備えた、単一レンズ、単一センサー3D撮像装置に関する。
この装置は、1つのレンズと、目標とする被写体の全体画像を投影するために、光軸に沿って位置づけられた1つの中央絞り開口と、光軸外に位置づけられた少なくとも1つのデフォーカス絞り開口と、被写体から出て、かつ、レンズ、中央絞り開口および少なくとも1つのデフォーカス絞り開口を通過した電磁放射線を獲得するために動作可能なセンサーと、センサー情報を処理し、かつ被写体の3D画像を生成するために、センサーと通信可能に接続されたプロセッサとを有する。
別の実施形態では、この装置は、さらに、マークされていない表面が3Dマッピングされるように、被写体上に所定のパターンを投影する電磁放射線投影システムを有する。
さらなる実施形態では、中央絞り開口用とデフォーカス絞り開口用とに、異なる光学フィルターがそれぞれ用いられ、これにより、中央絞り開口により生成された背景画像が、デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別できる。
本発明のさらに別の実施形態では、電磁放射線投影システムは、狭帯域電磁放射線源を有し、中央絞り開口上の光学フィルターは、狭帯域電磁放射線源からの電磁放射線を選択的に遮断し、これにより、中央絞り開口により生成された背景画像は投影されたパターンを含まない。
別の実施形態では、デフォーカス絞り開口上の光学フィルターは、狭帯域電磁放射線源から、ある波長の電磁放射線のみを許可し、これにより、投影パターンのみがデフォーカス絞り開口を通過し、したがって中央絞り開口からの視覚画像がぼやけないようにする。
さらに別の実施形態では、中央絞り開口は、被写体に対する装置の位置および方向を見積もるために、シフトされない投影パターンの物理的な位置を提供する。
さらに別の実施形態では、装置の方向は、中央絞り開口により得られた実像を適切に回転し、その歪みを正し、スケーリングすることにより得ることができる。
さらなる実施形態では、少なくとも1つのデフォーカス絞り開口により撮像された点の物理的なデカルト位置は、中央絞り開口を通って得られた視覚画像の対応する領域に割り当てられる。
当業者には理解されるであろうが、本発明は、3D撮像方法も含み、この方法は被写体から出て、かつ、1つのレンズと、光軸に沿って位置づけられた1つの中央絞り開口と、光軸外に位置づけられた少なくとも1つのデフォーカス絞り開口とを通過した電磁放射線を、センサーを用いて獲得する行為と、被写体を表現する3D画像を生成するために、センサーからの情報を処理する行為とを含む。
別の実施形態では、この方法は、さらに中央絞り開口により生成されたシフトされない投影パターンの物理的な位置から、被写体に対する装置の位置および方向を決定する行為を含む。
別の実施形態では、この方法は、さらに中央絞り開口により得られた実像を適切に回転し、その歪みを正し、スケーリングすることにより、被写体に対する装置の方向を決める行為を含む。
さらに別の実施形態では、この方法は、さらにマークされていない表面が3Dマッピングされるように、被写体上に所定の電磁放射線のパターンを投影する行為を含む。
さらなる実施形態では、この方法は、さらにデフォーカス絞り開口により撮像された点の物理的なデカルト位置を、中央絞り開口を通って得られた視覚画像の対応する領域に割り当てる行為を含む。
さらに別の実施形態では、この方法は、さらに中央絞り開口用とデフォーカス絞り開口用とに、異なる光学フィルターをそれぞれ選択する行為を含み、これにより、中央絞り開口により生成された背景画像が、デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別可能できる。
別の実施形態では、この方法は、さらに狭帯域電磁放射線源を用いて所定のパターンを被写体上に投影する行為と、狭帯域電磁放射線源からの電磁放射線を選択的に遮断するために中央絞り開口上の光学フィルターを選択する行為とを含み、これにより、中央絞り開口により生成された背景画像は投影されたパターンを含まない。
本発明の方法のさらに別の実施形態では、この方法は、さらに狭帯域電磁放射線源を用いて所定のパターンを被写体上に投影する行為と、狭帯域電磁放射線源から、ある波長の電磁放射線のみを選択的に許可するためにデフォーカス絞り開口上の光学フィルターを選択する行為とを含み、これにより、投影パターンのみがデフォーカス絞り開口を通過し、したがって中央絞り開口からの視覚画像がぼやけないようにする。
本発明の目的、特徴および利点は、以下の図面と組み合わせて、本発明の開示される態様の以下の詳細な説明を参照すると明らかであろう。
本発明は、安価で正確な三次元撮像方法(例えば、マッピング)という、長年に渡るニーズに応えるものである。本発明の態様は、製造部品の表面および体積検査、実際の製品と元の設計との比較、3D被写体走査、人体部分の診断(ヘルニア、動脈、美容整形手術前および後など)、表面粗さの評価および表面変形の実時間フィードバックに適用可能である。以下の詳細な説明では、本発明のより完全な理解のために、多くの特定の詳細を挙げる。しかし、本発明は必ずしもこれらの特定の詳細に限定されずに実施可能であることは、当業者には明確である。本発明を不明瞭にしないように、周知の構造や装置を、詳細図ではなくブロック図の形態で示している場合もある。
読者には、本明細書と同時に提出された全ての論文および文献に注意を払われたい。これらの論文および文献は、本明細書と共に公衆が閲覧できるように公開され、これらの全論文および文献の内容は、本願中に参照として組み込まれている。本明細書(添付の請求項、要約および図面を含む)中に開示された全ての特徴は、別途明示的に言明しない限りは、同一の、等価のまたは類似の目的に沿う代替となる特徴に置き換えてもよい。したがって、別途明示的に言明しない限りは、開示された各特徴は、等価または類似の一連の包括的な特徴の非限定的な1つの例を示すにすぎない。
さらに、ある特定の機能を達成する「ための手段(means for)」形式、または、ある特定の機能を達成する「ための工程(step for)」形式で、明示的に表明されていない請求項のいかなる要素も、米国特許法第112条第6項で指定された「手段」または「工程」として解釈されない。特に、本願請求項中の「〜の工程(step of)」または「〜の行為(act of)」との文言の使用は、米国特許法第112条第6項の規定の行使を意図していない。
まず、本発明の導入を行い、全般的な理解を促す。次に、光の特性およびマスクの形状に基づくデフォーカス方法を、特徴マッピングに関して説明する。その後、単一絞り開口システムの態様を、特徴マッピングに関して説明する。続いて、パターンマッチングの例を提示する。次に、本発明による撮像方法を提示する。次に、画像マッチングの説明を行う。
(1.0)導入
デフォーカスによるぼやけを用いて、ある点とレンズの焦点面との間の距離を測定することができる。本発明は追加の特徴を提案するが、これは、光学技術および照明技術の観点から、元来のデフォーカス概念の欠点を克服するように、単一レンズおよび複数の絞り開口を有する構成に追加された特徴である。以下の態様により、単一のレンズ、単一のセンサーおよび複数の絞り開口を有する装置を用いて、被写体表面を頑健に測定することができる。
デフォーカスによるぼやけを用いて、ある点とレンズの焦点面との間の距離を測定することができる。本発明は追加の特徴を提案するが、これは、光学技術および照明技術の観点から、元来のデフォーカス概念の欠点を克服するように、単一レンズおよび複数の絞り開口を有する構成に追加された特徴である。以下の態様により、単一のレンズ、単一のセンサーおよび複数の絞り開口を有する装置を用いて、被写体表面を頑健に測定することができる。
複数の絞り開口を有する構成に、光学的な修正を行うことより、物理的にマスクをし、フィルターをかけられた情報をセンサーに伝達して、各絞り開口が、被写体表面を再構成するために、分離可能な画像を再構成することができるようにする。分離可能な画像を生成するために、絞り開口の形状を変える、絞り開口の透過率を符号化する、または、露光中または露光の合間に孔が絞り開口表面に対して移動する単一スリットを有するマスクを提供することで絞り開口マスクを修正してもよい。各絞り開口マスクは、被写体の所望の特徴の表現に役立つ追加的な情報を提供する。
単一のレンズ、単一のセンサーおよび複数の絞り開口を有する装置は、登録情報を用いて、被写体から追加的な情報を入手するよう強化されてもよい。登録情報は、被写体の識別特徴、被写体表面に投影された情報、または、被写体の上に直接おかれたマーカーから得られてもよい。
一度の露光によって獲得が不可能な大きな被写体に関しては、上述の態様は、所望の被写体の表面特徴を再作成するために、複数の露光を共に合わせるのに使用可能な情報を提供してもよい。あるいは、大きな被写体と小さな被写体との両方について複数の画像を走査して、被写体または被写体特徴の高解像度の像を生成することができる。このマッチング概念は、立体視システムにも同様に適用可能である。
ここで、本発明の態様を、以下に、添付の図面を参照してより十分記載し、ここで本発明の好適な実施形態を示す。本発明は、多くの様々な形態で実施可能であり、本願で記載した実施形態に限定されるよう解釈されるべきではない。さらに、添付の図面で示した層やその他の部材の寸法は、詳細をより明確に示すために、誇張されている場合がありうる。本発明は、図面に示されている寸法関係に限定されるように解釈されるべきではなく、図面に示されている個々の部材は、図示された寸法に限定されるよう解釈されるべきではない。
(2.0)光の特性および形状に基づくシステム
照射された被写体からの光またはこれ以外の電磁放射線が、レンズを通過し、マスクされた絞り開口を通過し、このマスクされた絞り開口からの情報を受け取るのに適したセンサー上に渡されると、マスクされた絞り開口は、識別可能な画像を生成する。マスクされた絞り開口は、被写体の符号化されたデフォーカスの情報を、適切なセンサー上に渡す。デフォーカス情報は、焦点面に対する被写体の点の測定尺度を提供する。マスクされた絞り開口からの符号化された情報は、重複画像を分離するため、かつ、センサーにより検出された対応する点をマッチングするために必要な情報を提供する。「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
照射された被写体からの光またはこれ以外の電磁放射線が、レンズを通過し、マスクされた絞り開口を通過し、このマスクされた絞り開口からの情報を受け取るのに適したセンサー上に渡されると、マスクされた絞り開口は、識別可能な画像を生成する。マスクされた絞り開口は、被写体の符号化されたデフォーカスの情報を、適切なセンサー上に渡す。デフォーカス情報は、焦点面に対する被写体の点の測定尺度を提供する。マスクされた絞り開口からの符号化された情報は、重複画像を分離するため、かつ、センサーにより検出された対応する点をマッチングするために必要な情報を提供する。「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
マスクされた絞り開口が2つ以上用いられた場合、単数または複数のマスクされた絞り開口から検出された形状の波長に対しての強度(明度)の特性および/または形態が、センサー上で容易に識別可能なように、理想的には各マスクは互いに異なっている。様々なフィルタリング用絞り開口を用いて、光にその特性に応じて選択的にフィルターをかけて、光センサー上へ渡し、各絞り開口からの画像が識別可能であるようにしうる。さらに、2つ以上の絞り開口の形状が識別可能な場合、センサーによって検出される各絞り開口の画像もまた識別可能である。したがって、適切な絞り開口マスクとフィルターとの非限定的な例としては、波長帯域通過フィルター、光偏光フィルターおよび異なる形状を有するマスクが含まれる。
(2.1)色による符号化フィルター
図1Aを参照すると、帯域通過フィルターシステム100が示されている。この帯域通過フィルター100は、レンズ102、赤色絞り開口106と緑色絞り開口108とを有するマスク104、および、センサー110を有する。ここでは、赤色絞り開口106と緑色絞り開口108としてそれぞれ示されているが、適切なセンサー110と組み合わせて、任意の数および任意の組み合わせの色フィルタリング用絞り開口を用いてもよい。したがって、絞り開口は、ここでは特定的に赤色絞り開口106および緑色絞り開口108としてそれぞれ言及されているが、この絞り開口がそれに限定されることは意図せず、代わりに第1絞り開口、第2絞り開口などと言及が可能である。
図1Aを参照すると、帯域通過フィルターシステム100が示されている。この帯域通過フィルター100は、レンズ102、赤色絞り開口106と緑色絞り開口108とを有するマスク104、および、センサー110を有する。ここでは、赤色絞り開口106と緑色絞り開口108としてそれぞれ示されているが、適切なセンサー110と組み合わせて、任意の数および任意の組み合わせの色フィルタリング用絞り開口を用いてもよい。したがって、絞り開口は、ここでは特定的に赤色絞り開口106および緑色絞り開口108としてそれぞれ言及されているが、この絞り開口がそれに限定されることは意図せず、代わりに第1絞り開口、第2絞り開口などと言及が可能である。
この帯域通過フィルターシステム100は、照射された被写体112が焦点面114の前におかれると、この照射された被写体112の像を生成する。散光116は、照射された被写体112の表面から反射され、レンズ102を通過する。レンズ102を通過すると、この散光116は、赤色絞り開口106または緑色絞り開口108のいずれかを選択的に通過するか、反射されるか、または、マスク104により吸収される。赤色絞り開口106を透過した赤色光118および緑色絞り開口108を透過した緑色光120は、その後、画像焦点122より前に位置づけられたセンサー110上に記録される。当業者には理解されうるであろうが、被写体を照射するために用いられる光の色は、所望の絞り開口または絞り開口セットのみを通過するようにも選択できる。狭帯域光投影機の使用は、1セットの絞り開口が1つの色でデフォーカス情報を獲得するのに用いられ、別の絞り開口が被写体の実際の視覚画像を別の色で投影するように用いられる場合に有用であり、この結果、2つは容易に区別可能になる。
図1Bを参照すると、複数の実点について複数の色で符号化されたデフォーカス画像獲得124が、図1Aのセンサー110により受け取られたところが図示されている。各々の色で符号化された獲得124は、各絞り開口106・108により作られた複数波長のアドレス可能なパターンに対応している。図1Bに示すように、被写体上の各実点は、複数波長のアドレス可能なパターンである赤色ドット126と緑色ドット128とで表現される。当業者には理解されうるように、赤色ドット126と緑色ドット128とは、それぞれ赤色絞り開口と緑色絞り開口との結果である。しかしながら、ドットの色は絞り開口の色により変更しうるので、本発明は、この態様に限定されることはない。対応する赤色ドット126と緑色ドット128は、対応線130により互いい連結されて図示されている。対応線130は見えないが、しかし、これは、色で符号化された画像獲得124における点のマッチングの困難さを強調するのに役立つツールである。対応線130により連結されているドットのみが、実際に互いに対応している。このマスク104がなければ、対応する点を連結するのに十分な情報はないであろう。
図1Cを参照すると、この図は、図1B中枠で示した領域132の拡大図であり、対応する赤色ドット126と緑色ドット128との間のマッチング方法を示した図である。複数色で符号化された画像獲得124が行われると、プロセッサは、この画像内で色で符号化された全ドットに関する検索を始める。あるいは、検索を生データから行ってもよい。(すなわち、実画像124を生成する必要はない。)これに代えて、センサー110がプロセッサに接続され、プロセッサがセンサー情報を直接受け取る。いずれの場合にしても、全てのドットが検出されると、焦点面114に対する照射された点112の相対的な位置を想定して、マッチング過程が開始する。焦点面114に対する照射された点112の相対的な位置は、先験的に知られているか、ユーザーにより入力されるか、ソフトウェアにより決定されるか、あるいは、センサーにより決定されてもよい。ここでは、例証の目的で、被写体の照射された点112は、焦点面114の前にあることが前提とされる。したがって、マッチングは、例えば以下のような指示コマンドで開始する。「2つの絞り開口を結ぶ線に対応する線の上に(ある許容誤差内で)存在する赤色ドット126・142・144・146の右側にある任意の緑色ドット128・136・138・140はマッチ(適合)である。」第1の赤色ドット126が検出され、続いて、上記指示コマンドにより、赤色ドット126の許容誤差134内の第1の緑色ドット128がマッチングする。この場合の許容誤差134は、赤色ドット126から半径で表された距離として表示される。しかしながら、許容誤差134は、任意の所望の形状または距離の形式をとりうる。赤色ドット126の許容誤差134内で、補足的な検索が緑色ドット136・138・140に対して行われ、合計3つの「ゴースト」マッチ(それぞれ緑色ドット136・138・140)が生成される。
図1Dを参照すると、この図は、焦点距離(L)と、図1C中のマッチ粒子および「ゴースト」粒子のZ距離との関係を示す。赤色ドット126と、全ての緑色ドット128・142・144・146とのマッチングの結果として、1つのマッチ148と、3つのゴースト150・152・154が得られる。赤色ドット126と緑色ドット128との間のマッチは、第1のマッチング点148のZ対Lの関係を演算するのに用いられる。赤色ドット126と緑色ドット136・138・140との間のミスマッチ(非適合)は、それぞれ第1の3つのゴースト150・152・154をもたらす。
第2の赤色ドット142に関しては、1つのマッチ156と、2つのゴースト158・160が生成される。第2の赤色ドット142と対応する緑色ドット136との間のマッチは、第2のマッチング点156のZ対Lの関係を演算するのに用いられる。赤色ドット142と緑色ドット138・140との間のミスマッチは、それぞれ2つのゴースト158・160で表現される。
第3の赤色ドット144に関しては、1つのマッチ162と、2つのゴースト158・160が生成される。ゴースト158・160は、他の絞り開口からの対応するドットに割り当てられえないドットである。第3の赤色ドット144と対応する緑色ドット138との間のマッチは、第3のマッチング点162のZ対Lの関係を演算するのに用いられる。赤色ドット144と緑色ドット140との間の1つのミスマッチは、ゴースト164で表現される。
最後に、第4の赤色ドット146に関しては、1つのマッチ162が生成されるが、ゴーストは生成されない。第4の赤色ドット146と対応する緑色ドット140との間のマッチは、第4のかつ最後のマッチング点166のZ対Lの関係を演算するのに用いられる。赤色ドット146の右には、マッチングする緑色ドット140以外の緑色のドットはないので、図1Cの枠で示した領域132に関しては、これ以上のミスマッチは存在しない。
マッチ粒子と「ゴースト」粒子との間の、Z対Lの関係の決定においては、異なる符号化がされた点、例えば図1Bに示したような点126・128があることにより大いに強化される。絞り開口マスク104により色情報が提供されないような分離不可能な場合は、より多くのゴーストが存在するが、これは、色などの差別化要因がない場合、図1Aの各「赤色ドット」は、他の任意の「赤色ドット」ともマッチング可能となり、より多くのゴーストが生成されるからである。さらに、任意の与えられたドットが、それ自体、実際には、他のドットの上にある2つのドットではないとの想定ができず、焦点面上により多くのゴーストが追加される。
(2.2)偏光フィルター
「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
符号化情報は、任意の数の方法でセンサーに提供されうる。非限定的な例として、図2は、偏光フィルター撮像系200を示す。この偏光フィルター撮像系200は、レンズ202、水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208とを備えたマスク204、および、偏光間での識別を行うことができるセンサー210を有する。ここでは、水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208との組み合わせとしてそれぞれ図示したが、少なくともほぼ直交する方向の対であれば、任意の数の任意の組み合わせを使用してもよい。
照射された被写体212が焦点面214の前におかれると、偏光フィルター撮像系200は照射された被写体212の像を生成する。散光216は、照射された被写体112の表面から反射され、レンズ202を透過する。レンズ202を透過すると、この散光216は、水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208のいずれかを選択的に通過するか、あるいは、マスク204により反射される。その後水平方向での偏光を行う絞り開口206を透過した水平方向に偏光された光218と、垂直方向での偏光を行う絞り開口208を透過した垂直方向に偏光された光220は、焦点面222より前に位置づけられているセンサー210上に記録される。
水平方向での偏光を行う絞り開口206と垂直方向での偏光を行う絞り開口208とを異なるように符号化することで、図1Bに示したと同様の識別可能なドットが得られる。しかし、この偏光の態様から得られる符号化情報は、色で符号化されたドットの代わりに、偏光マーカーを提供する。
同様の結果は、図2Bで示すような、偏光で符号化された少なくとも1つの絞り開口を用いることによっても得られることができ、この場合、この少なくとも1つの絞り開口が、第1絞り開口位置224から第2絞り開口位置226に回転し、各位置において露光が行われると、絞り開口の偏光が、露光間で変わり、その結果、第1露光228と第2露光230とから、互いに区別可能な偏光画像228・230セットがそれぞれ得られ、これにより、同じマーカー232からの異なる露光による像228と像230との間の距離を測定することにより、深さ情報を決定できる。
(帯域通過フィルターシステム100の場合のように)選択的な光の透過、または、(偏光フィルター撮像系200の場合のように)光の特性の活用は、センサーが受け取る情報を符号化する効果的な手段である。最終的に、センサーによって検出される符号化情報は、図1Cおよび図1Dに記載したマッチングのタスクを容易にする。
(2.3)空間的に偏向された絞り開口
図3Aを参照すると、この図は、ほぼ点光源と考えられるような十分小さい点を撮像するために、異なる形状を有する絞り開口システム300を示す。異なる形状を有する絞り開口システム300は、レンズ302、円形状の絞り開口306と四角形状の絞り開口308とを有するマスク304、および、センサー310を有する。ここでは円形状の絞り開口306と四角形状の絞り開口308として図示したが、任意の数の任意の組み合わせでの異なる形状のフィルタリング絞り開口を使用してもよい。適切な形状の非限定的な例には、凸多面体、凹多面体、円形、ポリフォームおよびこれらの組み合わせが含まれる。
図3Aを参照すると、この図は、ほぼ点光源と考えられるような十分小さい点を撮像するために、異なる形状を有する絞り開口システム300を示す。異なる形状を有する絞り開口システム300は、レンズ302、円形状の絞り開口306と四角形状の絞り開口308とを有するマスク304、および、センサー310を有する。ここでは円形状の絞り開口306と四角形状の絞り開口308として図示したが、任意の数の任意の組み合わせでの異なる形状のフィルタリング絞り開口を使用してもよい。適切な形状の非限定的な例には、凸多面体、凹多面体、円形、ポリフォームおよびこれらの組み合わせが含まれる。
異なる形状を有する絞り開口システム300は、露光毎に、照射された被写体312の2つの表現314・316を生成する。センサー310により検出された各形状314・316は、各絞り開口306・308の形状にそれぞれ対応する。散光320は、照射された被写体312の表面から反射され、レンズ302を通過すると、円形状の絞り開口306または四角形状の絞り開口308のいずれかを通過するか、あるいは、マスク304により反射され、センサーの焦点面318より後方に反射される。円形状の絞り開口306を通過した透過光322は、センサー310上に円形のパターン314を生成する。同様に、四角形状の絞り開口308を通過した透過光324は、センサー310上に四角形のパターン316を生成する。複数個を獲得することにより、多数の円形のパターン314と、多数の四角形のパターン316が検出され、プロセッサ326により、マッチング規則に基づいて、マッチングがなされる。マッチとゴーストとは双方とも、図1Dに図示されたようなZ対Lのプロットグラフ上に描かれる。あるいは、ゴースト画像なしでマッチを示したプロットグラフを生成してもよい。
異なる形状の絞り開口に加えて、空間的に偏向された絞り開口は、図3Bに図示するように、同様の形状であるが、マスク329の中心から異なる放射状の位置に位置づけられている絞り開口326・328も有することができる。この絞り開口システムが、第1位置326・328から、第2位置330・332に回転し、各位置において露光が行われると(時間遅延順次撮像)、マスクの中心329からの絞り開口の距離が、被写体により生成された像336・338の撮像装置334上での位置の変化の率を決める。ここで、この変化の率は画像が露光間で動く距離を物理的に明示する。
本発明の使用に適した空間的に偏向された絞り開口の別の実施形態は、形状は似ているが大きさが異なる絞り開口であり、例えば、2つの円形の絞り開口であって、一方が他方よりも大きい絞り開口である。異なる大きさの絞り開口を用いることにより、上述し、かつ図3Aで示したような異なる形状の絞り開口を用いる場合と同じ機能を効果的に実現する。
(3.0)単一絞り開口システム
図4Aおよび図4Bを参照すると、同期化された単一絞り開口システム400は、レンズ402、単一孔のマスク404、移動絞り開口406、センサー408、および、センサー408と通信するプロセッサ410を有し、これが図示されている。さらに、単一孔のマスク404は、それぞれ第1位置Aと第2位置Bとで示されている。反射光線414を選択的にレンズ402、および、単一孔のマスク404の絞り開口406を通過させることにより、照射された被写体412は再構成されうる。単一孔のマスク404の移動絞り開口406は露光間に絞り開口面上で動くが、この単一孔のマスク404の位置は、プロセッサ410により記録される。図4Aに示すように、移動絞り開口406は光416を透過させ、センサー408により検出される第1の点414を生成する。図4Aに示すように、第1露光時の移動絞り開口406の第1位置情報は、プロセッサ410により記録される。第2露光時には、移動絞り開口406が、第2位置Bへと移動する(図4Bに図示)。図4Bに図示されるように、移動開口406は光418を透過させ、センサー408により検出される第2の点420を生成する。第2露光時の移動絞り開口406の第2位置情報は、プロセッサ410により記録される。第1の点414および第1位置情報、ならびに、第2の点420および第2位置情報は、その後、第1露光からの第1の点414を、第2の点420とマッチングさせるために用いられる。あるいは、第1露光と第2露光との間で、反射光414の色を変更して、マッチング過程の支援用に用いられる情報を提供してもよい。
図4Aおよび図4Bを参照すると、同期化された単一絞り開口システム400は、レンズ402、単一孔のマスク404、移動絞り開口406、センサー408、および、センサー408と通信するプロセッサ410を有し、これが図示されている。さらに、単一孔のマスク404は、それぞれ第1位置Aと第2位置Bとで示されている。反射光線414を選択的にレンズ402、および、単一孔のマスク404の絞り開口406を通過させることにより、照射された被写体412は再構成されうる。単一孔のマスク404の移動絞り開口406は露光間に絞り開口面上で動くが、この単一孔のマスク404の位置は、プロセッサ410により記録される。図4Aに示すように、移動絞り開口406は光416を透過させ、センサー408により検出される第1の点414を生成する。図4Aに示すように、第1露光時の移動絞り開口406の第1位置情報は、プロセッサ410により記録される。第2露光時には、移動絞り開口406が、第2位置Bへと移動する(図4Bに図示)。図4Bに図示されるように、移動開口406は光418を透過させ、センサー408により検出される第2の点420を生成する。第2露光時の移動絞り開口406の第2位置情報は、プロセッサ410により記録される。第1の点414および第1位置情報、ならびに、第2の点420および第2位置情報は、その後、第1露光からの第1の点414を、第2の点420とマッチングさせるために用いられる。あるいは、第1露光と第2露光との間で、反射光414の色を変更して、マッチング過程の支援用に用いられる情報を提供してもよい。
同様に、ミスマッチの問題は、図4Cに示すように絞り開口422を回転させることにより緩和される。ある時間をかけて絞り開口を回転させることにより、楕円の絞り開口に対して相対的に複数の画像獲得がなされた場合には、重複する画像が区別されることができ、これにより、画像重複により生じる曖昧さが緩和される。この図は、第1絞り開口位置422にある絞り開口と水平面にある2つの被写体424により形成される画像の比較を示す図である。この第1絞り開口位置422では、被写体画像426が重複し、潜在的にミスマッチが引き起こされる。しかしながら、絞り開口が第2絞り開口位置428に回転されると、形成された画像430は区別可能である。
(3.1)単一スリット絞り開口システム
図5Aを参照すると、複数のFストップを有する単一絞り開口システム500が図示されている。この異なる形状を有する絞り開口システム500は、レンズ502、実質的に楕円であるスリット絞り開口506を1つ有するマスク504、センサー508、および、センサー508と通信するプロセッサ510を有する。ここでは、概略的に楕円形状の絞り開口506として示したが、一般的に、その形状に関わらず、幅より長さの方が著しく長い任意の絞り開口を用いてもよい。
図5Aを参照すると、複数のFストップを有する単一絞り開口システム500が図示されている。この異なる形状を有する絞り開口システム500は、レンズ502、実質的に楕円であるスリット絞り開口506を1つ有するマスク504、センサー508、および、センサー508と通信するプロセッサ510を有する。ここでは、概略的に楕円形状の絞り開口506として示したが、一般的に、その形状に関わらず、幅より長さの方が著しく長い任意の絞り開口を用いてもよい。
反射光514がレンズおよびマスク504の実質的に楕円であるスリット絞り開口506を選択的に通過できるようにすることにより、照射された被写体512が再構成されてもよい。この単一絞り開口システム500は、標準的な円形の絞り開口の代わりに、長くて狭いスリット絞り開口506を用いている点が顕著である。スリット絞り開口506が2方向で異なるFナンバーを有する点が効果的である。スリット絞り開口506の長さは長く、小さいFナンバーをなし、これが、センサー508上で、大きく変動する円盤516を生成する。逆に、スリット絞り開口502の狭い幅は、大きなFナンバーをなし、これは最低限の変動しか生成せず、点光源の画像は、円盤516ではなく、線518で表される。この場合の強度は、面積ではなく長さに反比例して変動すると考えられることができ、センサー上で要求される動的範囲は、純粋なぼやけシステムに比較して、大幅に小さくなる。さらに、生成された画像516・518は、一方向にのみ大きくなり、重複の可能性が最小限に抑えられる。
また、図5Fに示すように、スリット絞り開口を非対称形状542にすることもできる。このように非対称にする目的は、焦点面550の前にある被写体546であるのか、または、後ろにある被写体548であるのかをセンサー544が決めることができるようにすることである。焦点面550の後ろにある被写体548は、センサー544上に反転した画像552を生成し、焦点面550の前にある被写体546は正像554を生成する。しかしながら、図5Aのように、絞り開口が対称形状506である場合には、焦点面550の後ろにある被写体548により生成された像516は、焦点面550の前546の対応する位置にある像と区別ができない。非対称の絞り開口542を用いることにより、これらの焦点面550の前にある被写体546と、後ろにある被写体548とは区別可能となる。図5F中に図示した非対称の絞り開口542は、全体として楕円の形状の一端に円形の孔を有するが、いずれの非対称形状の絞り開口も同じ効果を奏する。
図5Bを参照すると、複数のFストップを有する単一絞り開口のシステム500のセンサー508により獲得された画像520が示されている。画像520の枠522内には、異なるZ座標を有する複数のプロット524・526・528・530が示されている。画像520として示されているが、示された情報は、条件づけられ、信号を介してプロセッサ510で処理されるために送られてもよい。
図5Cを参照すると、図5Bの獲得された画像中の枠で示した領域522は、絞り開口の動きに対応する複数のFストップの細長い筋524・526・528・530を見つけるために処理される。全ての複数のFストップの細長い筋524・526・528・530が見つけられると、Z対Lの関係を決定するための規則が適用される。マッチングが必要でない点が顕著である。
全ての点が、焦点面「L」より前方にあると想定して、Z対Lの関係を演算するために複数のFストップの細長い筋524・526・528・530が用いられる。プロセッサ510により決められたマッチングされた点532・534・536・538の例を図5Dに示す。一般的に、センサー508に接続されたプロセッサ510を用いて、センサーから得られた生データを収集してもよい。プロセッサ510は、続いて、Z対Lの関係を用いて、各検出されたFストップの細長い筋524・526・528・530の深度情報を演算してもよい。続いて、プロセッサ510を用いて、各照射された点512の深度情報から被写体の表現を生成してもよい。別の態様では、プロセッサ510はメモリを有してもよい。このメモリを用いて、既知の距離におけるそれ以前にサンプリングをした点の較正情報を記憶しておいてもよい。この較正情報は、迅速なインライン処理のために、画像獲得システム中に参照テーブルとして記憶されていてもよい。あるいは、較正情報は遠隔で記憶され、プロセッサによりアクセスされてもよい。
図5B、図5Cおよび図5Dに示した結果は、図5Eで示したような振動する単一絞り開口システム540を用いて得られても良い。この振動する単一絞り開口システム540は、レンズ502、単一の移動絞り開口506を有するマスク504およびセンサー508を有する。
反射光514が、レンズおよびマスク504の実質的に楕円である絞り開口506を選択的に通過できるようにすることにより、照射された被写体512が再構成されうる。この単一絞り開口システム500は、移動絞り開口506を用い、2方向で異なるFナンバーを有する効果を効果的にシュミレーションしている点が顕著である。移動絞り開口506が、制御の下で、右から左へと、AとBとの方向(あるいは、これ以外の任意の方向で)で周期振動し、移動絞り開口506のAからBへの正味の変位は、小さいFナンバーを生成する。このAからBへの横方向への移動の小さいFナンバーは、センサー508上で、大きく変動する円盤516を生成する。さらに、この移動絞り開口506は、AからBへと動くので、移動絞り開口506の垂直直径には正味の変化はない。したがって、移動絞り開口506の高さが一定であることにより、Fナンバーが大きくなり、これは最低限の変動しかせず、点光源の画像は、円盤516ではなく、線518で表される。この場合の強度は、絞り開口506が、ある特定の軸上位置で過ごす時間の量に依存し、したがって、この技術で生成された画像は、薄暗い直線に連結された明るい端部のように見える。さらに、生成された画像516・518は、一方向にのみ大きくなり、重複の可能性が最小限に抑えられる。
ある態様では、本発明は、2つの絞り開口のシステムとして考えられ、2つの絞り開口画像を物理的に撮像装置上で単に連結することによって、マッチングの曖昧さが除去される。(点光源ではなく)絞り開口を通った大きい被写体を撮像させるとき、3つの画像を見ることができる。中央画像は被写体画像であり、外側の他の2つの画像は、回折およびレンズ効果の結果形成される。この被写体の尺度が小さくなるにしたがって点光源に近づき、極端な場合、点光源の被写体の画像は、絞り開口と同じ形状を有する。
(3.2)軸外デフォーカス絞り開口と共にある大きな中央絞り開口
「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
図5Gに示すように、ミスマッチの問題は、少なくとも1つの軸外デフォーカス絞り開口558と共に大きな中央絞り開口556を用いることによっても緩和できる。中央絞り開口556は、典型的なカメラの中にあるような中央可変絞り開口でありえる。この中央絞り開口556のFナンバーが、デフォーカス絞り開口558のFナンバーとは異なるので効果的である。これは、被写体561の実質的に完全な画像560が、中央絞り開口556を介して、常にセンサー562上に存在し、その上にデフォーカス絞り開口558からの非合焦ドット564が重なっていることを意味する。
常に被写体画像があることは、3つの目的に役立つ。第1に、操作者は、これによりこの装置がどこを指しているかがわかることができる。第2に、この中央絞り開口により与えられた被写体画像は、デフォーカス絞り開口により撮像された点の物理的なx−y−z位置に一致し、被写体表面マップを作ることができる(以下の項4.0「パターンマッチング」参照)。最後に、装置により生成された被写体の二次元(2D)画像から正確なPOISE(位置および方向)の見積もりが可能になる。POISEを決めるための様々な方法は、当該分野では周知である。この見積もりを行うために、既存のPOISE方法は、背景画像の特徴または予め置かれたマークされた点を使用することができる。背景画像の特徴を用いる際には、異なるカメラ位置から中央絞り開口により得られた実像を適切に回転し、その歪みを正し、スケーリングすることにより、カメラ位置が得られる。光投影システムが用いられる場合、被写体上に投影され、中央絞り開口を通って撮像された光の点を用いて、カメラ位置を得ることができる。本発明と共に用いるのに適したPOISE方法の例は、米国特許出願公開公報2007/0103460A1号(ジャーン(Zhang)他、発明の名称「カメラの動きの決定(Determining Cameral Motion)」)、米国特許出願公開公報2007/0008312A1号(ジョウ(Zhou)他、発明の名称「パノラマを形成する二次元画像からカメラ位置を決定する方法(Method for Determining Camera Position from Two−Dimensional Images that form a Panorama)」)、国際出願PCT/US2006/060724号(3Mイノベーティブ・プロパティーズ社(3M Innovative Properties Company)、発明の名称「カメラの動きの決定(Determining Camera Motion)」)、および、ロウ・デヴィッド・G(Lowe, David G)著、「単一の二次元画像からの三次元被写体認識(Three−Dimensional Object Recognition from Single Two− Dimensional Images)」、アーティフィシャル・インテリジェンス(Artificial Intelligence)、31,3(1987年3月)、P.353−395に見ることができる。
中央絞り開口は、位置付け(POISE)のために価値ある情報を提供するのだが、混雑も引き起こしうる。本発明のある実施形態では、図5Hに示すように、大きな中央絞り開口556を軸外デフォーカス絞り開口558と共に備えたシステムが、所定の光のパターン566を被写体561の表面上に投影するための光投影機564と合わせて用いられる。この所定のパターン566は、デフォーカス絞り開口558を通ってデフォーカスとなり、パターン画像568中のデフォーカス量を用いて、被写体561に関する深さ情報を決めることができる。この構成の潜在的な難点は、中央絞り開口が、全ての点のシフトされない(デフォーカスではない)画像も、投影パターン中に生成し、これが、デフォーカス絞り開口により生成された非合焦点と干渉しうるという点である。狭帯域光源を備えたドット投影システムを、投影光の波長を選択的にフィルタリングするために中央絞り開口556上の光学フィルター556(水平の線で表示)と共に用いることにより、中央絞り開口により生成されたシフトされない画像が除去されうる。さらに、デフォーカス絞り開口558上の共役フィルター(垂直の線で表示)は、投影光の波長のみを通過させることができるが、これを用いることにより、被写体の画像が軸外デフォーカス絞り開口を通って形成されるのを防ぎ、被写体画像560がぼやけないように保つことができる。
さらに、複数のデフォーカス絞り開口を用いる際、デフォーカス絞り開口が中央絞り開口に対して非対称に置かれる場合には、点の画像はこの区別も含み、画像の方向により、形成点がレンズの焦点面の前方にあるのか後にあるのかが示される。この技術は、上述の単一の非対称絞り開口を用いた場合と同じ機能を果たす。
最後に、中央絞り開口を追加することにより、2つのデフォーカス絞り開口システムを備えたシステムに、有益な参照情報を提供することができるが、3つ以上のデフォーカス絞り開口を備えたシステムへこれを適用することに関しては限りがない。
(3.3)電子的にマスクされた絞り開口
図6Aおよび図6Bを参照すると、電子的にマスクされた撮像系600が、レンズ602、絞り開口板604、複数の窓を有する電子的な絞り開口606、センサー608、および、センサー608と絞り開口板604と通信するプロセッサ610を有することが示されている。適切な絞り開口板604の非限定的な例には、液晶表示(LCD)が含まれ、これは、獲得センサー608と完全に同期化されてもよい。ある態様では、感度は、絞り開口の「軸外度合い(off−axisness)」を変えることにより制御されてもよい。反射光616が、レンズ602、および、複数の窓を有する電子的な絞り開口606の多くの窓のうちの1つを選択的に通過できるようにすることにより、照射された被写体614が再構成されうる。
図6Aに示すように、複数の窓を有する電子的な絞り開口606の第1の窓612は、光618を透過させ、センサー608により検出される第1の点620を生成する。第1露光の間、第1の開いた窓612の位置情報が、プロセッサ610により記録される。
第2露光を得るために、複数の窓を有する電子的な絞り開口606の第2の窓が開かれる。図6Bに示すように、複数の窓を有する電子的な絞り開口606の第2の窓622は、光624を透過させることができ、センサー608により検出される第2の点626を生成する。第2露光の間、第2の開いた窓622の位置情報が、プロセッサ610により記録される。第1の点620および第1の開いた窓612位置情報、ならびに、第2の点626および第2の開いた窓622位置情報は、その後、第1露光からの第1の点620を、第2の点626の情報とマッチングさせるために用いられる。
(4.0)パターン投影によるパターンマッチング
対象の被写体が、その形状がマッチングされるべき表面である場合、マーカーの予め決められたパターンがその表面上に投影され、投影されたマーカーの相対的な位置を測定することにより、検出される画像中の点がサンプリングされうる。センサーが許容する撮像されるドットの密度上限は、撮像系の限界である。各図中で点が特定されると、同じ点が両方の図中に存在するか否かのみが問題となる。別の態様では、マッピングされるべき大きな塊(volum)が、ある大きな塊中に非対称のセルの集合を含んでいる場合、セルの形状と方向とを、図同士のマッチングにおける追加的な制約として用いることができ、したがって、ミスマッチが生じうる可能性を低減することができる。これを「特徴マッチング」と称する
図7Aを参照すると、対象の被写体の表面上に投影するのに適した、アドレス可能な雛型パターン700が示されている。アドレス可能な雛型パターン700は投影され、または、目標とする表面上に物理的に置かれ、被写体から様々な距離(Z)だけ離れた位置で、撮像系により獲得される。ある態様では、アドレス可能な雛型パターン700は、識別可能な中央点702を備えた格子パターンの形状を有する。
図7Bを参照すると、アドレス可能な雛型を用いて撮られた、目標とする被写体の獲得画像704が図示されている。図示されているように、獲得された画像704中で、いくつかのドット706・708・710・712は欠如している。
図7Cを参照すると、一部の格子714を用いた獲得画像704が示されている。アドレス可能なパターン702が正しく並んでいる場合、識別可能な源を有する格子パターン714は、必要とされる視点の数または画像獲得を2つに減らすために、「構造化されたパターンマッチング」という手法を採用可能である。コンピュータで読み取り可能な媒体上に記憶されているか、または、プロセッサで実行可能であるアドレス指定を行うアルゴリズムは、雛型パターンによるアドレス可能な雛型パターン700中の各ドットの「相対的なアドレスを見つける」ために、各絞り開口の画像を処理する。適切なアドレス可能な雛型パターン700の非限定的な例を図7Aに示す。アドレス指定を行うアルゴリズムは、アドレス可能なパターン704の変形を許容するようにある程度の許容誤差を有する(図7Bおよび図7C参照)。アドレス可能なパターン704の変形は、元のアドレス可能な雛型パターン700(図7A参照)と対比してみると顕著である。さらに、アドレス指定を行うアルゴリズムは、獲得された画像704中の実体の欠如706・708・710・712を扱うこともできる。アドレス可能な雛型パターン700上のある点が、アドレス可能なパターン704中に現れなかった場合に情報の欠如が生じると考えられる。
図7Cの中央サンプル716の再構成された図を、図7Dに示す。同じアドレスを有するドット対それぞれに対してZを演算することにより、点が再構成される。欠如したドット対に関しては、再構成は行われない。
(4.1)パターン投影機(非レーザー)
「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
「光」という文言は、本発明の様々な実施形態を説明する際に用いられうるが、本発明は、電磁スペクトルの任意の部分(マイクロ波、赤外線、紫外線およびX線を含むがこれに限定されない)の使用に適していることに留意されたい。「光」との文言は、例示的な目的で使用されるのであり、本発明の範囲を、電磁スペクトルの可視部分に限定する意図はない。
図8Aを参照すると、非レーザーパターン投影機800および撮像系802が図示されている。非レーザーパターン投影機800は、撮像系802の撮像レンズ806と同じレンズ804を有する。非レーザーパターン投影機800のこのレンズ804は、撮像系802のレンズ806と等価の距離分だけ、ビームスプリッター808から離れて置かれている。これにより、投影された点812の主光線810を、撮像系802のセンサー816により検出された主光線814と一致させることができる。したがって、投影された点812と撮像レンズ806の焦点面820との間の距離が変化した場合さえ、検出された画像中の投影されたパターン818は動いていないように見える。これにより、いくつかの点(例えば、ドット)が欠如している場合でさえ、アドレス可能なパターン818の特定がはるかに容易になる。
前提条件は、各視点からの画像が物理的に分離されていることである。これは、もちろん、写真測量法などの複数センサーシステムにおいては当てはまるのであるが、デフォーカス概念(単一のレンズ上の複数の絞り開口が、単一のセンサー上に撮像する)などの場合には、特別な注意が必要である。
光822が、パターンステンシル824およびレンズ804(実質的に、撮像レンズ806と同じであるレンズ)を有する投影機レンズ系826を通過することにより、投影されたパターン818が生成される。
単一のレンズ系では、絞り開口画像は分離されなくてはならない。これは、プリズム(図8Bおよび図8C参照)または光ファイバー束を用いて達成する。これにより各絞り開口が分離されたセンサー上に投影される。あるいは、センサーが色センサーである場合、物理的にマスクされた絞り開口(図8Dおよび図8E参照)を用いて達成される。
図8Bを参照すると、2つのオフセットプリズムおよび2つのセンサーを有するシステム828が示されている。このシステム828は、マスクおよび2つのスリットを有する絞り開口838より後方にある、第1プリズム830、第2プリズム832、第1センサー834ならびに第2センサー836を有する。第1プリズム830および第2プリズム832は、2つのスリットを有する絞り開口838からの入射光840・842をオフセットし、第1プリズム830および第2プリズム832からの透過光が、分離されたセンサー834・836により検出されるようにする。2つのスリットを有する絞り開口838が、光の固有の特性に基づいて情報を符号化するために用いられる場合、あるいは、アドレス可能なパターン技術が採用された時のように光が分離されねばならない場合には、このような構成が用いられてもよい。適切な固有の特性の非限定的な例には、限定されるのではないが、周波数、複数の周波数、符号化され透過された光検出画像の偏光が含まれる。
図8Cを参照すると、1つの銀メッキのオフセットプリズムと2つのセンサーとを有するシステム844が示されている。このシステム844は、マスクおよび2つのスリットを有する絞り開口852より後方にある、銀メッキプリズム846、第1センサー848ならびに第2センサー850を有する。銀メッキプリズム846は、2つのスリットを有する絞り開口852からの第1の入射光束854をオフセットし、銀メッキプリズム846からの透過光が第1センサー848により検出されるようにする。あるいは、2つのスリットを有する絞り開口852を通過した光856は、第2センサー850上で別々に検出されてもよい。
図8Dを参照すると、3つのCCDセンサーを集めたシステム858が示されている。このシステム858は、マスクおよび2つのスリットを有する絞り開口862の後方にある3つのCCDセンサー860を有する。このCCDセンサー860は、青色センサー862、緑色センサー864および赤色センサー866を有する。プリズム系868は、2つのスリットを有する絞り開口856からの第1入射光束870をオフセットし、このプリズム868からの透過光が、赤色センサー866により検出されるようにしうる。あるいは、2つのスリットを有する絞り開口852を通過した光872は、別々に緑色センサー864上で別々に検出されてもよい。
図8Eは、狭帯域ミラーセンサーを集めたシステム874を示す。このシステム874は、マスクおよび2つのスリットを有する絞り開口878の後方に位置づけられた狭帯域ミラー876、2つのスリットを有する絞り開口878、ならびに、第1センサー880および第2センサー882を有する。この狭帯域ミラー系876は、2つのスリットを有する絞り開口878からの入射光束884をオフセットし、この狭帯域ミラー系876の透過光が、第1センサー880により検出されうるようにする。あるいは、2つのスリットを有する絞り開口878を通過した光886が第2センサー882上で別々に検出されてもよい。
(4.2)パターン投影機(レーザー)
任意のレンズは、2つの「主平面」により表現されうる。この主平面の位置は、このレンズの関数に過ぎず、(ある点の画像の中央線を規定する)主光線は全て、軸上で第1の主平面に入り、第2の主平面を出るように動く。
任意のレンズは、2つの「主平面」により表現されうる。この主平面の位置は、このレンズの関数に過ぎず、(ある点の画像の中央線を規定する)主光線は全て、軸上で第1の主平面に入り、第2の主平面を出るように動く。
前方の主平面と視野との位置測定を用いることにより、所望のパターンを有する回折格子を作って、レーザー投影機からのビームが、撮像されたドットの主光線と一致するように位置づけることができる。したがって、投影されたドットと撮像レンズの焦点面との間の距離が変化する場合さえ、投影されたパターンは、画像中で動いていないように見える。これにより、いくつかのドットが撮像されていない場合でさえ、アドレス可能なパターンの検索がはるかに容易になる。
複合レンズを通る複雑な光線追跡(光線が、全ての空気/ガラスの界面で屈折するような場合)は、光線が屈折する2つの平面で数学的に表現可能である。したがって、左側の画像が、「実際の」光線追跡を示し、右側の画像は、このようなレンズの数学的表現を示す。これらの表面は、第1のガラス界面に入り、最後のガラス界面を去り、レンズ軸を交差するためにこれらを広げる、主(chief)光線(「主(principal)光線」とも称される)を用いることにより見つけられる。この交差点が、上述の平面の位置の印となる。
したがって、まず始めに較正を行い(これは、格子をいくつかのZ距離で撮像することにより行う)、次に、これらの2つの面がどこにあるのか、および、視野角度はいくらであるのかを見つけるために、最小二乗適合法を行う。次に、視野角度に合うように回折格子をカスタマイズし、ビームスプリッターからの距離を第1主平面からの距離と同じ距離にしうる。したがって、レーザー光線は、主光線とまさに同じ光路をたどる。
作動においては、ある被写体がレンズに近づくに従い、画像中の被写体は大きくなる。これは、被写体の縁が、画像上で、横方向に動くことを意味する。同じことが、カメラの前で表面上に投影された任意のパターンに関しても該当する。図9で示した態様と同じように光線を正確にマッチングさせることによりZ位置に関わらず、いずれの点も全く横方向には動かない。
ここで、2つの孔を有する絞り開口マスクが加えられると、対応するドットは、ここでも互いに対して離れて動く。(ドット(画像)は、周辺(外側光線)により形成される。)しかし、主光線が横方向には動かないので、対応する「マッチ形状」の重心は、横方向には動かない。考えられるのは、アドレス可能なパターンの識別可能なドットが位置づけられると、マッチの重心を見つけることができる。このパターンが横方向には決して広がらないことがわかっていることにより、パターン上のこれ以外の全点の重心がどこにあるべきかがわかり、これが、点の「アドレス化」を支援する。
この点が従来のアドレス可能なパターン検索とは異なる点である。従来のアドレス可能なパターン検索では、点が全て互いに対して動き、その結果、表面のZの変化が大きくなりすぎ、パターンが再構成できなくなりえる。
図9を参照すると、レーザーパターン投影機システム900および撮像系902が図示されている。このレーザーパターン投影機システム900は、レーザー投影機904およびフィルタリング用マスク906を有する。このフィルタリング用マスク906は、投影機904からの光を、50%ビームスプリッター908上に選択的に通過させる。レーザー投影機904およびフィルタリング用マスク906は、ビームスプリッター908と一列に並び、これにより、投影された点912の主光線910は、撮像系902のセンサー916により検出された主光線914と一致する。したがって、投影された点912と撮像レンズ906の焦点面920との間の距離が変化する場合さえ、投影されたパターン918は、検出された画像中で動いていないように見える。これにより、いくつかの点(例えば、ドット)が欠如している場合でさえ、アドレス可能なパターン918の特定がずっと容易になる。
(5.0)撮像方法
図10を参照すると、被写体表面の二次元または三次元表現を作成するための、画像獲得および画像処理の工程を示すフローチャートが示される。任意の単一レンズ装置が、撮像レンズ、識別可能な画像を生成できるように構成された絞り開口、センサーおよびプロセッサを含むように形成または修正される。
図10を参照すると、被写体表面の二次元または三次元表現を作成するための、画像獲得および画像処理の工程を示すフローチャートが示される。任意の単一レンズ装置が、撮像レンズ、識別可能な画像を生成できるように構成された絞り開口、センサーおよびプロセッサを含むように形成または修正される。
撮像過程は、被写体表面を照射する行為1000から開始する。被写体表面は、撮像系または適切な外部光源により照射されうる。光は、被写体表面より反射され、絞り開口を透過する(行為1010)。この絞り開口は、撮像レンズの撮像レンズ面中、撮像レンズの前方もしくは撮像レンズの後方に置かれるか、アクセス可能な場合撮像レンズの絞り開口面に適用されるか、または、リレーレンズ系を介してアクセス可能としうる。
光が絞り開口を通って移動する際、絞り開口を用いて、多くの方法でセンサーが受け取る情報を符号化しうる。センサー上に識別可能な画像を生成する行為1020用に光を符号化しうる適切な方法の非限定的な例には、限定されるのではないが以下が含まれる。すなわち、光の特性に応じて透過光にフィルターをかける方法(例えば、波長または偏光によりフィルターをかけるなどの)、時間の関数として光を透過させる方法(例えば、識別可能な画像を、時間の関数として、絞り開口を通過可能にするなど)、または、絞り開口の形状を物理的に変えて、一連の異なる形状を有するようにして、この絞り開口を通過する通過光が、識別可能な形状に基づく画像を生成する方法が含まれる。
追加的な画像を獲得する行為を行うか否かをシステムが決定するのを支援する行為1030を実装することもできる。この行為は、さらに、獲得画像の適切さを秤量するよう補強されてもよい。例えば、露光中に過度の移動が行われていた画像がセンサーにより検出された場合、この画像は、アルゴリズムにより放棄されてもよい。この場合、最後に獲得された画像が放棄され、過程は、被写体の照射行為1000から再獲得される。別の態様では、受け取った画像は処理に適したものでありうるが、しかし、より多くの画像獲得が必要である(行為1030)。この場合、アルゴリズムをさらに補強するために、さらなる決定を追加可能である。この一例は、撮像系の視点を調節すべきか否かの決定する行為1040を追加することであるだろう。撮像装置の位置または被写体の所望の領域を移す必要があれば、撮像系または目標とする被写体のいずれかが、視点を調節する行為1050のために変えられてもよい。
画像の全てまたは少なくとも一部分が獲得されれば、各画像内での点間の関係または点情報間の関係を用いて、各点に対する相対的なまたは絶対的な距離情報を演算または決定する行為1060が行われる。距離情報がわかれば、この情報は、この距離情報を用いて被写体の表現(例えば、3Dマッピング)を生成する行為1070用のアルゴリズムに供給されうる。
(6.0)画像マッチング
複数の露光獲得を必要とする大きな被写体または応用では、画像マッチングにより、被写体表面を再び作成するために、関連する画像獲得を互いに結び付ける方法が提供される。目標とする被写体を再び作成する必要はないが、目標とする被写体に対する撮像系の相対的な位置がわかっているとき、画像マッチングにより、正確な測定尺度を用いて目標とする被写体を再び作成する能力が提供される。デジタルキルティングとも称される画像マッチングは、アドレス可能なパターンの雛型画像を用いることにより、一般に多いに支援される。ある態様では、アドレス可能なパターンの投影機を、物理的に獲得装置に結び付けてもよい。別の態様では、アドレス可能なパターンの投影機は、獲得装置に依存せずに動いてもよいが、獲得装置より見えるパターンがアドレス可能であるように動く。
複数の露光獲得を必要とする大きな被写体または応用では、画像マッチングにより、被写体表面を再び作成するために、関連する画像獲得を互いに結び付ける方法が提供される。目標とする被写体を再び作成する必要はないが、目標とする被写体に対する撮像系の相対的な位置がわかっているとき、画像マッチングにより、正確な測定尺度を用いて目標とする被写体を再び作成する能力が提供される。デジタルキルティングとも称される画像マッチングは、アドレス可能なパターンの雛型画像を用いることにより、一般に多いに支援される。ある態様では、アドレス可能なパターンの投影機を、物理的に獲得装置に結び付けてもよい。別の態様では、アドレス可能なパターンの投影機は、獲得装置に依存せずに動いてもよいが、獲得装置より見えるパターンがアドレス可能であるように動く。
撮像装置は、アドレス可能なパターンの雛型画像を初期位置で獲得する。このアドレス可能なパターンの雛型画像は、通常X、YおよびZ平面において固定の数の点を有する。その後、撮像装置の位置を調節して、第2のアドレス可能なパターンの雛型画像を第2位置で獲得する。移動制約を越えると決定された調節位置は無視するとの予防的措置をとってもよい。第2位置または調節された位置は、個々の6つの可変の平行移動および回転により、初期の撮像装置の位置に関連付けられる。新しい位置で獲得された画像は、部分的に第1の雛型画像と重複し、実質的に類似数の点を有しているという点により、通常、調節された位置は初期位置に関連付けられる。
作動においては、少なくとも1つの外殻が、プロセッサにより生成され、または、ユーザーにより手動で強調表示される。この外殻は、アドレス可能なパターンの雛型画像およびアドレス可能なパターンの表面画像内の全ての点を囲む。全ての場合にそうであるとはいえないが、アドレス可能なパターンの雛型画像の外殻の外側にある点は、放棄してもよい。アドレス可能なパターンの表面画像中の点の内殻も複数個生成される。この内殻は、個々の6つの可変の平行移動および回転による、複数の殻の交差内の獲得間の最大限許容可能な変位の関数である。誤差は、アドレス可能なパターンの表面画像上にある点とアドレス可能なパターンの雛型画像との間の差から演算してもよい。
殻が生成されたら、アドレス可能なパターン情報が、マッチングアルゴリズムを用いて処理される。このマッチングアルゴリズムは、アドレス可能なパターンの表面画像上の各点と、アドレス可能なパターンの雛型画像上の対応する点との間の距離を決定するように構成されている。各マッチングされた点は、その個体の移動により、複数の内殻から形成され、高解像度のデータセットを形成するために回転により1つにまとめられる。
何百または場合によっては何千もの獲得をマッチングすると、このよく規定された点の大群は、個体の平行移動および回転により1つにまとめられる。目標とする被写体の特徴を回復するのに十分なマッチング点が存在するか否かを決定するように、アドレス可能なパターン情報を用いたアルゴリズムを適応させてもよい。よく規定された点の大群が作成されると、この高解像度点の大群を用いて、標準的なアルゴリズムまたは市販のパッケージを介し、補間あり又はなしで、高解像度の表面(ナーブおよびメッシュなど)を生成または出力することができる。このような標準的なアルゴリズムまたは市販のパッケージは、例えば、ジオマジック(Geomagic)社製のジオマジック・スタジオ(Geomagic Studio)である。ジオマジック(Geomagic)社は、アメリカ合衆国、27709、ノースカロライナ州、リサーチ・トライアングル・パーク、3200 イースト・ハイウェイ 54、ケープフィアービルディング、300号室(3200 East Hwy 54, Cape Fear Building, Suite 300, Research Triangle Park,NC,27709)在である。
この適合は、全ての誤差が、この装置の精度の関数である、ある閾値以下であれば十分であると考えられている。これが行われれば、調節された位置における第2の獲得が雛型となり、次の獲得が、これにマッチングする表面となる。マッチングアルゴリズム中のアドレス可能なパターン情報の頑健さにより、十分な獲得が得られるまで表面形状を補間することなく、小さいセットを小さいセットにマッチングさせることができる。
図11は、画像の再構成を支援するために、アドレス可能なパターンを使用することを示すフローチャートである。表面特徴獲得時にアドレス可能なパターンを用いるのは、分離可能な視点の三次元撮像システム中で用いられる対応検索を迂回する方法の1つである。
開始過程1100が、多数の画像を獲得する行為で始まるが、各画像がアドレス可能なパターンを含む(アドレス可能なパターンで照射される)(行為1102)。通常、各画像は、異なる視点から撮られるが、アドレス可能なパターンは、被写体の表面輪郭に関して静止している。複数の画像はそれぞれ、アドレス可能なパターン情報の少なくとも一部を有し、少なくとも1つの点は、目標とする被写体の少なくとも一面を表現する。当業者は、被写体がその上に様々な点を有しうると理解するであろう。各点は、これから行われる被写体の再構成に関する重要な情報を提供しうる。
画像中の各点に対してアドレスが割り当てられる(アドレス化行為1110)。一般的に、アドレス可能なパターンは、アドレス化行為1110中で支援するために参照される被写体上の一連のプロットを提供する。重要であるのは、アドレス可能なパターンは、対称形である必要はなく、通常の一連のマーカーまたは画像を包含する。適切なアドレス可能なパターン情報の非限定的な例には、色シーケンスパターン、異なる形状を有する被写体を有するパターン、および、位置シーケンスパターン、識別可能な被写体特徴または被写体ランドマーク、もしくは、これらの組み合わせが含まれる。アドレス可能なパターンの画像は、種々の方法で、被写体表面上に置かれうる。この適切な方法の非限定的な例には、アドレス可能なパターンの画像を被写体表面上に投影する方法、アドレス可能なパターンの画像を被写体表面上に物理的に置く方法、および、源としての撮像される被写体に固有の特徴を用いる方法が含まれる。
追加的な画像を獲得する行為を行うか否かをシステムが決定するのを支援する行為1120を実装してもよい。この行為は、さらに、獲得画像の適切さを秤量するよう補強されてもよい。例えば、露光中に過度の移動が行われていた画像がセンサーにより検出された場合、この画像は、アルゴリズムにより放棄されてもよい。この場合、最後に獲得された画像が放棄され、過程は、被写体の照射行為1102から繰り返される。別の態様では、アドレス可能なパターンを用いて受け取った画像は処理に適したものでありうるが、しかし、被写体を再構成するために、より多くの画像獲得が必要である。この場合、アルゴリズムをさらに補強するために、さらなる決定過程を追加可能である。この一例は、撮像系の視点を調節すべきか否かの決定(行為1130)を追加することであるだろう。撮像装置の位置または被写体の所望の領域を移す必要があれば、撮像系または目標とする被写体のいずれかが、視点を調節する行為1140のために変えられてもよい。
画像の全てまたは少なくとも一部分が獲得されれば、各画像内での点間の関係または点情報間の関係を用いて、各点に対する相対的なまたは絶対的な距離情報を演算または決定する。距離情報がわかれば、この情報は、この距離情報を用いて被写体の表現を生成する行為1160に供給される。
図面および関連する詳細な説明は、本発明の実施形態を図解するために提供されるものであり、本発明の範囲を限定する目的で提供されるのではない。明細書中の「1実施形態」または「ある実施形態」への言及は、この実施形態に関連して記載された特定の特徴、構造または特性が、少なくとも本発明の1実施形態中に含まれることを示すことを意図する。明細書中の種々の箇所において記載した「1実施形態中」または「ある実施形態中」との語句は、必ずしも全て同じ実施形態を言及したのではない。
別途、文脈的に必要としている場合を除いて、本開示中で用いられる、「有する(comprise)」という語句およびその変化形(“comprising”、“comprises”および“comprised”)には、他の添加物、要素、整数または工程を排除する意図はない。
また、本実施形態は、フローチャート、フローダイヤグラム、構造図またはブロック図として表した過程として開示されている点に留意されたい。フローチャートは、作動の種々の工程を、順序だてた過程として開示しうるが、多くの作動は、並行的にまたは同時に実施されうる。図示した工程は、限定的な意図はなく、示した各工程が方法にとって本質的であるとして示す意図はなく、例示的な工程のみである。
上述の明細書で、本発明は特定の実施形態を参照して記載した。しかしながら、本発明のより広い精神および範囲を離れることなく、種々の修正および変更を行ってもよいことは明らかである。したがって、明細書および図面は、制限的な意味合いではなく、例示的な意味合いで考えられるべきである。本発明は、このような実施形態によって限定されると解釈されるべきではないと理解されるべきである。
上述の詳細な説明から、本発明は多くの利点を有することが明らかであり、本願中で説明したものもあり、本発明の実施形態中で本来的なものとして記載されたり特許請求されたものもある。修正は、本願中に記載した主題の教示を離れることなく、本願中に記載した装置、装置(apparatus)および方法に対して行われうるという点も理解される。本発明はこのようなものとして、添付の請求項で要求していない限り、記載した実施形態に限定されない。
Claims (20)
- 三次元(3D)撮像装置であって、
1つのレンズと、
目標とする被写体の全体画像を投影するために、光軸に沿って位置づけられた1つの中央絞り開口と、
前記光軸外に位置づけられた少なくとも1つのデフォーカス絞り開口と、
被写体から出て、かつ前記レンズ、前記中央絞り開口および前記少なくとも1つのデフォーカス絞り開口を通過した電磁放射線を獲得するために動作可能なセンサーと、
前記センサー情報を処理するため、かつ前記被写体の3D画像を生成するために、前記センサーと通信可能に接続されたプロセッサと
を有する装置。 - さらに、マークされていない表面が3Dマッピングされるように、前記被写体上に所定のパターンを投影する電磁放射線投影システムを有する請求項1に記載の装置。
- 前記中央絞り開口用と前記デフォーカス絞り開口用とに、異なる光学フィルターがそれぞれ用いられ、これにより、前記中央絞り開口により生成された背景画像が、前記デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別できる請求項2に記載の装置。
- 前記電磁放射線投影システムは、狭帯域電磁放射線源を有し、前記中央絞り開口上の前記光学フィルターは、前記狭帯域電磁放射線源からの電磁放射線を選択的に遮断し、これにより、前記中央絞り開口により生成された背景画像は投影されたパターンを含まない請求項3に記載の装置。
- 前記デフォーカス絞り開口上の前記光学フィルターは、前記狭帯域電磁放射線源から、ある波長の電磁放射線のみを許可し、これにより、前記投影パターンのみが前記デフォーカス絞り開口を通過することで、前記中央絞り開口からの視覚画像がぼやけないようにする請求項4に記載の装置。
- 前記中央絞り開口は、前記被写体に対する前記装置の位置および方向を見積もるために、シフトされない投影パターンの物理的な位置を提供する請求項1に記載の装置。
- 前記装置の方向は、前記中央絞り開口により得られた実像を適切に回転し、その歪みを正し、スケーリングすることにより得ることができる請求項1に記載の装置。
- さらに、マークされていない表面が3Dマッピングされるように、前記被写体上に所定のパターンを投影する電磁放射線投影システムを有する請求項1に記載の装置。
- 前記少なくとも1つのデフォーカス絞り開口により撮像された点の物理的なデカルト位置は、前記中央絞り開口を通って得られた視覚画像の対応する領域に割り当てられる請求項1に記載の装置。
- 前記中央絞り開口用と前記デフォーカス絞り開口用とに、異なる光学フィルターがそれぞれ用いられ、これにより、前記中央絞り開口により生成された背景画像が、前記デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別できる請求項1に記載の装置。
- 前記装置は、さらに電磁放射線投影システムを有し、前記電磁放射線投影システムは、狭帯域電磁放射線源と、前記中央絞り開口上の光学フィルターとを有し、前記光学フィルターは、狭帯域電磁放射線源からの電磁放射線を選択的に遮断し、これにより、前記中央絞り開口により生成された背景画像は投影されたパターンを含まない請求項1に記載の装置。
- 前記装置は、前記デフォーカス絞り開口上に光学フィルターを有し、前記光学フィルターは、前記狭帯域電磁放射線源から、ある波長の電磁放射線のみを許可し、これにより、投影パターンのみが前記デフォーカス絞り開口を通過し、したがって前記中央絞り開口からの視覚画像がぼやけないようにする請求項1に記載の装置。
- 三次元(3D)撮像方法であって、
被写体から出て、かつ、1つのレンズと、光軸に沿って位置づけられた1つの中央絞り開口と、前記光軸外に位置づけられた少なくとも1つのデフォーカス絞り開口とを通過した電磁放射線を、センサーを用いて獲得する行為と、
前記被写体を表現する3D画像を生成するために、前記センサーからの情報を処理する行為と
を含む方法。 - さらに、前記中央絞り開口により生成されたシフトされない投影パターンの物理的な位置から、前記被写体に対する前記装置の位置および方向を決定する行為を含む請求項13に記載の方法。
- さらに、前記中央絞り開口により得られた実像を適切に回転し、その歪みを正し、スケーリングすることにより、被写体に対する前記装置の方向を決める行為を含む請求項13に記載の方法。
- さらに、マークされていない表面が3Dマッピングされるように、前記被写体上に所定の電磁放射線のパターンを投影する行為を含む請求項13に記載の方法。
- さらに、前記デフォーカス絞り開口により撮像された点の物理的なデカルト位置を、前記中央絞り開口を通って得られた視覚画像の対応する領域に割り当てる行為を含む請求項13に記載の方法。
- さらに、前記中央絞り開口用と前記デフォーカス絞り開口用とに、異なる光学フィルターをそれぞれ選択する行為を含み、これにより、前記中央絞り開口により生成された背景画像が、前記デフォーカス絞り開口により生成されたデフォーカス画像から容易に区別可能である請求項13に記載の方法。
- さらに、狭帯域電磁放射線源を用いて所定のパターンを前記被写体上に投影する行為と、前記狭帯域電磁放射線源からの電磁放射線を選択的に遮断するために前記中央絞り開口上の光学フィルターを選択する行為とを含み、これにより、前記中央絞り開口により生成された背景画像は投影されたパターンを含まない請求項13に記載の方法。
- さらに、狭帯域電磁放射線源を用いて所定のパターンを前記被写体上に投影する行為と、前記狭帯域電磁放射線源から、ある波長の電磁放射線のみを選択的に許可するために前記デフォーカス絞り開口上の光学フィルターを選択する行為とを含み、これにより、前記投影パターンのみが前記デフォーカス絞り開口を通過することで、前記中央絞り開口からの視覚画像がぼやけないようにする請求項13に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US92591807P | 2007-04-23 | 2007-04-23 | |
US92601007P | 2007-04-23 | 2007-04-23 | |
US92602307P | 2007-04-23 | 2007-04-23 | |
PCT/US2008/005311 WO2008133957A1 (en) | 2007-04-23 | 2008-04-23 | Single-lens, single-sensor 3-d imaging device with a central aperture for obtaining camera position |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010528499A true JP2010528499A (ja) | 2010-08-19 |
Family
ID=39689478
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010506267A Pending JP2010525745A (ja) | 2007-04-23 | 2008-04-23 | デフォーカスに基づく3d撮像用の空間的に偏向した絞り開口形状を有する絞り開口システム |
JP2010506264A Pending JP2010528499A (ja) | 2007-04-23 | 2008-04-23 | カメラ位置を得るための中央絞り開口を備えた、単一レンズ、単一センサー3d撮像装置 |
JP2010506265A Pending JP2010526992A (ja) | 2007-04-23 | 2008-04-23 | 単一レンズ、単一絞り開口、単一センサー3d撮像装置 |
JP2010506266A Pending JP2010526481A (ja) | 2007-04-23 | 2008-04-23 | 偏光で符号化された絞り開口マスクを偏光に感度を有するセンサーと組み合わせて用いた単一レンズ3d撮像装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010506267A Pending JP2010525745A (ja) | 2007-04-23 | 2008-04-23 | デフォーカスに基づく3d撮像用の空間的に偏向した絞り開口形状を有する絞り開口システム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010506265A Pending JP2010526992A (ja) | 2007-04-23 | 2008-04-23 | 単一レンズ、単一絞り開口、単一センサー3d撮像装置 |
JP2010506266A Pending JP2010526481A (ja) | 2007-04-23 | 2008-04-23 | 偏光で符号化された絞り開口マスクを偏光に感度を有するセンサーと組み合わせて用いた単一レンズ3d撮像装置 |
Country Status (7)
Country | Link |
---|---|
US (10) | US7916309B2 (ja) |
EP (4) | EP2149266A1 (ja) |
JP (4) | JP2010525745A (ja) |
KR (4) | KR20100017234A (ja) |
AU (4) | AU2008244493A1 (ja) |
CA (4) | CA2684602A1 (ja) |
WO (4) | WO2008133957A1 (ja) |
Families Citing this family (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0510470D0 (en) * | 2005-05-23 | 2005-06-29 | Qinetiq Ltd | Coded aperture imaging system |
US9330324B2 (en) | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
US8390821B2 (en) * | 2005-10-11 | 2013-03-05 | Primesense Ltd. | Three-dimensional sensing using speckle patterns |
EP1934945A4 (en) * | 2005-10-11 | 2016-01-20 | Apple Inc | METHOD AND SYSTEM FOR RECONSTRUCTING AN OBJECT |
GB2434877A (en) * | 2006-02-06 | 2007-08-08 | Qinetiq Ltd | MOEMS optical modulator |
GB2434936A (en) | 2006-02-06 | 2007-08-08 | Qinetiq Ltd | Imaging system having plural distinct coded aperture arrays at different mask locations |
GB2434934A (en) * | 2006-02-06 | 2007-08-08 | Qinetiq Ltd | Processing coded aperture image data by applying weightings to aperture functions and data frames |
GB2434937A (en) | 2006-02-06 | 2007-08-08 | Qinetiq Ltd | Coded aperture imaging apparatus performing image enhancement |
GB2434935A (en) * | 2006-02-06 | 2007-08-08 | Qinetiq Ltd | Coded aperture imager using reference object to form decoding pattern |
GB0602380D0 (en) * | 2006-02-06 | 2006-03-15 | Qinetiq Ltd | Imaging system |
GB0615040D0 (en) * | 2006-07-28 | 2006-09-06 | Qinetiq Ltd | Processing method for coded apperture sensor |
US10795457B2 (en) | 2006-12-28 | 2020-10-06 | D3D Technologies, Inc. | Interactive 3D cursor |
US11228753B1 (en) | 2006-12-28 | 2022-01-18 | Robert Edwin Douglas | Method and apparatus for performing stereoscopic zooming on a head display unit |
US11315307B1 (en) | 2006-12-28 | 2022-04-26 | Tipping Point Medical Images, Llc | Method and apparatus for performing rotating viewpoints using a head display unit |
US11275242B1 (en) | 2006-12-28 | 2022-03-15 | Tipping Point Medical Images, Llc | Method and apparatus for performing stereoscopic rotation of a volume on a head display unit |
KR20090104857A (ko) | 2007-01-22 | 2009-10-06 | 캘리포니아 인스티튜트 오브 테크놀로지 | 정량적 3-d 이미징을 위한 방법 및 장치 |
US8089635B2 (en) | 2007-01-22 | 2012-01-03 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
WO2008133957A1 (en) * | 2007-04-23 | 2008-11-06 | California Institute Of Technology | Single-lens, single-sensor 3-d imaging device with a central aperture for obtaining camera position |
US8494252B2 (en) | 2007-06-19 | 2013-07-23 | Primesense Ltd. | Depth mapping using optical elements having non-uniform focal characteristics |
JP5298507B2 (ja) | 2007-11-12 | 2013-09-25 | セイコーエプソン株式会社 | 画像表示装置及び画像表示方法 |
WO2009067223A2 (en) * | 2007-11-19 | 2009-05-28 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
FR2925179B1 (fr) * | 2007-12-12 | 2010-02-26 | Eads Test & Services | Mire servant a projeter a l'infini un ensemble de reperes |
US8384997B2 (en) | 2008-01-21 | 2013-02-26 | Primesense Ltd | Optical pattern projection |
CN101984767B (zh) * | 2008-01-21 | 2014-01-29 | 普莱姆森斯有限公司 | 用于使零级减少的光学设计 |
US8243353B1 (en) | 2008-04-07 | 2012-08-14 | Applied Science Innovations, Inc. | Holography-based device, system and method for coded aperture imaging |
KR101483714B1 (ko) * | 2008-06-18 | 2015-01-16 | 삼성전자 주식회사 | 디지털 촬상 장치 및 방법 |
GB0814562D0 (en) * | 2008-08-08 | 2008-09-17 | Qinetiq Ltd | Processing for coded aperture imaging |
EP2329454A2 (en) * | 2008-08-27 | 2011-06-08 | California Institute of Technology | Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing |
GB0822281D0 (en) * | 2008-12-06 | 2009-01-14 | Qinetiq Ltd | Optically diverse coded aperture imaging |
US8462207B2 (en) | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
JP5909443B2 (ja) | 2009-06-25 | 2016-04-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 立体イメージ取得方法、システム及びカメラ |
US9582889B2 (en) | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
JP5391914B2 (ja) * | 2009-08-06 | 2014-01-15 | ソニー株式会社 | 撮像装置および映像記録再生システム |
US8773507B2 (en) | 2009-08-11 | 2014-07-08 | California Institute Of Technology | Defocusing feature matching system to measure camera pose with interchangeable lens cameras |
WO2011031538A2 (en) * | 2009-08-27 | 2011-03-17 | California Institute Of Technology | Accurate 3d object reconstruction using a handheld device with a projected light pattern |
US20110102763A1 (en) * | 2009-10-30 | 2011-05-05 | Microvision, Inc. | Three Dimensional Imaging Device, System and Method |
JP5588310B2 (ja) * | 2009-11-15 | 2014-09-10 | プライムセンス リミテッド | ビームモニタ付き光学プロジェクタ |
US8830227B2 (en) | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
JP5446834B2 (ja) * | 2009-12-18 | 2014-03-19 | ソニー株式会社 | 撮像装置および撮像方法 |
US20110187878A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd. | Synchronization of projected illumination with rolling shutter of image sensor |
US20110188054A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd | Integrated photonics module for optical projection |
WO2011097163A1 (en) * | 2010-02-03 | 2011-08-11 | Battelle Memorial Institute | Three-dimensional imaging system using a single lens system |
US8982182B2 (en) | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
KR101248908B1 (ko) | 2010-03-24 | 2013-03-28 | 삼성전자주식회사 | 자동초점 검출장치, 이를 적용한 카메라, 및 피사체 거리 산출방법 |
WO2011133406A1 (en) * | 2010-04-20 | 2011-10-27 | Gharib, Morteza | Catheter based 3-d defocusing imaging |
KR101692397B1 (ko) * | 2010-05-28 | 2017-01-03 | 삼성전자주식회사 | 광량 조절장치, 촬영장치 및 촬영방법 |
DE102010023344A1 (de) | 2010-06-10 | 2012-01-19 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Kameraobjektiv und Kamerasystem |
TW201200959A (en) * | 2010-06-29 | 2012-01-01 | Fujifilm Corp | One-eyed stereo photographic device |
TWI472801B (zh) * | 2010-07-29 | 2015-02-11 | Pixart Imaging Inc | 一種用於互動介面之三維資訊產生裝置與三維資訊產生方法 |
US9098931B2 (en) | 2010-08-11 | 2015-08-04 | Apple Inc. | Scanning projectors and image capture modules for 3D mapping |
US9036158B2 (en) | 2010-08-11 | 2015-05-19 | Apple Inc. | Pattern projector |
WO2012030357A1 (en) | 2010-09-03 | 2012-03-08 | Arges Imaging, Inc. | Three-dimensional imaging system |
US9066087B2 (en) | 2010-11-19 | 2015-06-23 | Apple Inc. | Depth mapping using time-coded illumination |
US9167138B2 (en) | 2010-12-06 | 2015-10-20 | Apple Inc. | Pattern projection and imaging using lens arrays |
EP2503852A1 (en) * | 2011-03-22 | 2012-09-26 | Koninklijke Philips Electronics N.V. | Light detection system and method |
US8593565B2 (en) | 2011-03-25 | 2013-11-26 | Gary S. Shuster | Simulated large aperture lens |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
WO2012171185A1 (en) | 2011-06-15 | 2012-12-20 | Microsoft Corporation | High resolution multispectral image capture |
WO2012174401A2 (en) * | 2011-06-16 | 2012-12-20 | Lenny Lipton | Stereoscopic camera with polarizing apertures |
US8749796B2 (en) | 2011-08-09 | 2014-06-10 | Primesense Ltd. | Projectors of structured light |
US8908277B2 (en) | 2011-08-09 | 2014-12-09 | Apple Inc | Lens array projector |
WO2013046100A1 (en) * | 2011-09-28 | 2013-04-04 | Koninklijke Philips Electronics N.V. | Object distance determination from image |
JP5831105B2 (ja) * | 2011-09-30 | 2015-12-09 | ソニー株式会社 | 撮像装置及び撮像方法 |
EP2587450B1 (en) * | 2011-10-27 | 2016-08-31 | Nordson Corporation | Method and apparatus for generating a three-dimensional model of a region of interest using an imaging system |
WO2013088690A1 (ja) * | 2011-12-12 | 2013-06-20 | パナソニック株式会社 | 撮像装置、撮像システム、撮像方法および画像処理方法 |
CN107861102B (zh) * | 2012-01-03 | 2021-08-20 | 阿森蒂亚影像有限公司 | 编码定位系统、方法和装置 |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
JP5985661B2 (ja) | 2012-02-15 | 2016-09-06 | アップル インコーポレイテッド | 走査深度エンジン |
CN113974689A (zh) | 2012-03-07 | 2022-01-28 | 齐特奥股份有限公司 | 空间对准设备 |
US9201237B2 (en) | 2012-03-22 | 2015-12-01 | Apple Inc. | Diffraction-based sensing of mirror position |
EP2667151A1 (fr) * | 2012-05-21 | 2013-11-27 | Sysmelec SA | Convertisseur chromatique d'altimétrie |
WO2014011179A1 (en) * | 2012-07-12 | 2014-01-16 | California Institute Of Technology | Defocusing with projection grid including identification features |
BR112015005465B1 (pt) * | 2012-09-11 | 2021-11-09 | Zachary A. Miller | Filtro dinâmico ajustável |
JP6112862B2 (ja) * | 2012-12-28 | 2017-04-12 | キヤノン株式会社 | 撮像装置 |
WO2014107434A1 (en) * | 2013-01-02 | 2014-07-10 | California Institute Of Technology | Single-sensor system for extracting depth information from image blur |
JP5820831B2 (ja) * | 2013-02-14 | 2015-11-24 | オリンパス株式会社 | 撮像装置 |
KR101446173B1 (ko) * | 2013-02-21 | 2014-10-01 | 주식회사 고영테크놀러지 | 트랙킹 시스템 및 이를 이용한 트랙킹 방법 |
US9232126B2 (en) * | 2013-02-22 | 2016-01-05 | Cognex Corporation | Apparatus for adjusting the focus of an image capturing device |
JP6346263B2 (ja) | 2013-03-12 | 2018-06-20 | アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated | レーザアニールシステムにおいてエッジプロファイルを制御するためのカスタマイズされた瞳ストップ形状 |
US10268885B2 (en) | 2013-04-15 | 2019-04-23 | Microsoft Technology Licensing, Llc | Extracting true color from a color and infrared sensor |
AU2014315746B2 (en) * | 2013-09-06 | 2018-09-27 | Wienerberger B.V. | A method for manufacturing a ceramic roof tile provided with a solar panel |
US9528906B1 (en) | 2013-12-19 | 2016-12-27 | Apple Inc. | Monitoring DOE performance using total internal reflection |
WO2015198331A1 (en) | 2014-06-25 | 2015-12-30 | Ramot At Tel-Aviv University Ltd. | System and method for light-field imaging |
US9675430B2 (en) | 2014-08-15 | 2017-06-13 | Align Technology, Inc. | Confocal imaging apparatus with curved focal surface |
US10617401B2 (en) | 2014-11-14 | 2020-04-14 | Ziteo, Inc. | Systems for localization of targets inside a body |
JP6408893B2 (ja) * | 2014-12-16 | 2018-10-17 | オリンパス株式会社 | 3次元位置情報取得方法及び3次元位置情報取得装置 |
US10649088B1 (en) * | 2015-01-13 | 2020-05-12 | DSCG Solutions, Inc. | Absolute object position location identification |
US9525863B2 (en) | 2015-04-29 | 2016-12-20 | Apple Inc. | Time-of-flight depth mapping with flexible scan pattern |
US10012831B2 (en) | 2015-08-03 | 2018-07-03 | Apple Inc. | Optical monitoring of scan parameters |
KR102374116B1 (ko) | 2015-09-30 | 2022-03-11 | 삼성전자주식회사 | 전자 장치 |
JP2017068058A (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR101672669B1 (ko) * | 2015-11-23 | 2016-11-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 시차를 이용하는 멀티 애퍼처 카메라 시스템 |
US11406264B2 (en) | 2016-01-25 | 2022-08-09 | California Institute Of Technology | Non-invasive measurement of intraocular pressure |
US10690495B2 (en) * | 2016-03-14 | 2020-06-23 | Canon Kabushiki Kaisha | Ranging apparatus and moving object capable of high-accuracy ranging |
US10073004B2 (en) | 2016-09-19 | 2018-09-11 | Apple Inc. | DOE defect monitoring utilizing total internal reflection |
WO2018061508A1 (ja) * | 2016-09-28 | 2018-04-05 | ソニー株式会社 | 撮像素子、画像処理装置、および画像処理方法、並びにプログラム |
EP3327481B1 (en) * | 2016-11-28 | 2019-07-03 | InterDigital CE Patent Holdings | Method for modelling an imaging device, corresponding computer program product and computer-readable carrier medium |
US10999569B2 (en) | 2016-12-22 | 2021-05-04 | Eva—Esthetic Visual Analytics Ltd. | Three-dimensional image reconstruction using multi-layer data acquisition |
EP3559740A4 (en) | 2016-12-22 | 2020-09-09 | EVA - Esthetic Visual Analytics Ltd. | REAL-TIME TRACKING FOR THREE-DIMENSIONAL IMAGING |
US11412204B2 (en) | 2016-12-22 | 2022-08-09 | Cherry Imaging Ltd. | Three-dimensional image reconstruction using multi-layer data acquisition |
US11402740B2 (en) | 2016-12-22 | 2022-08-02 | Cherry Imaging Ltd. | Real-time tracking for three-dimensional imaging |
US11199397B2 (en) * | 2017-10-08 | 2021-12-14 | Magik Eye Inc. | Distance measurement using a longitudinal grid pattern |
US11372109B1 (en) * | 2017-12-26 | 2022-06-28 | Acuity Technologies, Inc. | Lidar with non-circular spatial filtering |
WO2019236563A1 (en) | 2018-06-06 | 2019-12-12 | Magik Eye Inc. | Distance measurement using high density projection patterns |
US11422292B1 (en) | 2018-06-10 | 2022-08-23 | Apple Inc. | Super-blazed diffractive optical elements with sub-wavelength structures |
US11493606B1 (en) * | 2018-09-12 | 2022-11-08 | Apple Inc. | Multi-beam scanning system |
US11483503B2 (en) | 2019-01-20 | 2022-10-25 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
WO2020197813A1 (en) | 2019-03-25 | 2020-10-01 | Magik Eye Inc. | Distance measurement using high density projection patterns |
CN114502076A (zh) | 2019-04-09 | 2022-05-13 | 齐特奥股份有限公司 | 用于高性能和多功能分子成像的方法和系统 |
CN109856058B (zh) * | 2019-04-10 | 2021-10-08 | 河北大学 | 一种高分辨率实时偏振光谱分析装置及方法 |
US11906289B2 (en) | 2019-06-28 | 2024-02-20 | Institut National D'optique | Triangulation-based optical profilometry system |
US11132757B2 (en) * | 2019-08-27 | 2021-09-28 | Rosemount Aerospace Inc. | Secure image transmission |
US11681019B2 (en) | 2019-09-18 | 2023-06-20 | Apple Inc. | Optical module with stray light baffle |
US11506762B1 (en) | 2019-09-24 | 2022-11-22 | Apple Inc. | Optical module comprising an optical waveguide with reference light path |
US11320537B2 (en) | 2019-12-01 | 2022-05-03 | Magik Eye Inc. | Enhancing triangulation-based three-dimensional distance measurements with time of flight information |
US11314150B2 (en) * | 2020-01-08 | 2022-04-26 | Qualcomm Incorporated | Phase detection autofocus (PDAF) optical system |
US11754767B1 (en) | 2020-03-05 | 2023-09-12 | Apple Inc. | Display with overlaid waveguide |
JP2022146636A (ja) * | 2021-03-22 | 2022-10-05 | 株式会社東芝 | 光学装置、光学検査方法及び光学検査プログラム |
Family Cites Families (135)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5283641A (en) * | 1954-12-24 | 1994-02-01 | Lemelson Jerome H | Apparatus and methods for automated analysis |
JPS5258529A (en) | 1975-11-08 | 1977-05-14 | Canon Inc | Camera system |
JPS52149120A (en) | 1976-06-07 | 1977-12-12 | Minolta Camera Co Ltd | Interchangeable lens |
US4264921A (en) * | 1979-06-29 | 1981-04-28 | International Business Machines Corporation | Apparatus for color or panchromatic imaging |
US4879664A (en) * | 1985-05-23 | 1989-11-07 | Kabushiki Kaisha Toshiba | Three-dimensional position sensor and three-dimensional position setting system |
US4727471A (en) * | 1985-08-29 | 1988-02-23 | The Board Of Governors For Higher Education, State Of Rhode Island And Providence | Miniature lightweight digital camera for robotic vision system applications |
US4650466A (en) | 1985-11-01 | 1987-03-17 | Angiobrade Partners | Angioplasty device |
US5235857A (en) * | 1986-05-02 | 1993-08-17 | Forrest Anderson | Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters |
GB8617567D0 (en) | 1986-07-18 | 1986-08-28 | Szilard J | Ultrasonic imaging apparatus |
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
US4948258A (en) * | 1988-06-27 | 1990-08-14 | Harbor Branch Oceanographic Institute, Inc. | Structured illumination surface profiling and ranging systems and methods |
JP2655885B2 (ja) | 1988-08-05 | 1997-09-24 | 株式会社フジクラ | 限界電流式ガス濃度センサの駆動方法 |
CA1316590C (en) * | 1989-04-17 | 1993-04-20 | Marc Rioux | Three-dimensional imaging device |
US5476100A (en) | 1994-07-07 | 1995-12-19 | Guided Medical Systems, Inc. | Catheter steerable by directional jets with remotely controlled closures |
CA1319188C (en) * | 1989-08-24 | 1993-06-15 | Marc Rioux | Three dimensional imaging device |
JP2878409B2 (ja) * | 1989-09-04 | 1999-04-05 | 株式会社リコー | 3次元物体撮像方式 |
CN1019919C (zh) | 1990-03-08 | 1993-02-17 | 清华大学 | 具有新型声镜的反射式声显微镜 |
JPH03289293A (ja) * | 1990-04-04 | 1991-12-19 | Mitsubishi Electric Corp | 撮像装置 |
US5221261A (en) | 1990-04-12 | 1993-06-22 | Schneider (Usa) Inc. | Radially expandable fixation member |
US5071407A (en) | 1990-04-12 | 1991-12-10 | Schneider (U.S.A.) Inc. | Radially expandable fixation member |
US5222971A (en) | 1990-10-09 | 1993-06-29 | Scimed Life Systems, Inc. | Temporary stent and methods for use and manufacture |
JP3210027B2 (ja) * | 1991-04-05 | 2001-09-17 | キヤノン株式会社 | カメラ |
US5206498A (en) * | 1991-06-07 | 1993-04-27 | Asahi Kogaku Kogyo Kabushiki Kaisha | Focus detecting apparatus having variable power condenser lens |
US5216695A (en) * | 1991-06-14 | 1993-06-01 | Anro Engineering, Inc. | Short pulse microwave source with a high prf and low power drain |
GB2258928B (en) | 1991-08-16 | 1994-09-28 | Keymed | A borescope |
US5270795A (en) * | 1992-08-11 | 1993-12-14 | National Research Council Of Canada/Conseil National De Rechereches Du Canada | Validation of optical ranging of a target surface in a cluttered environment |
US5373151A (en) * | 1993-10-04 | 1994-12-13 | Raytheon Company | Optical system including focal plane array compensation technique for focusing and periodically defocusing a beam |
GB9323054D0 (en) * | 1993-11-09 | 1994-01-05 | British Nuclear Fuels Plc | Determination of the surface properties of an omject |
IL111229A (en) * | 1994-10-10 | 1998-06-15 | Nova Measuring Instr Ltd | Autofocusing microscope |
US5527282A (en) | 1994-12-09 | 1996-06-18 | Segal; Jerome | Vascular dilatation device and method |
US5864359A (en) * | 1995-05-30 | 1999-01-26 | Smith & Nephew, Inc. | Stereoscopic autofocusing based on comparing the left and right eye images |
WO1996041304A1 (en) | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
US5922961A (en) * | 1996-05-10 | 1999-07-13 | The United States Of America As Represented By The Secretary Of Commerce | Time and polarization resolved acoustic microscope |
US5745067A (en) * | 1996-07-17 | 1998-04-28 | Industrial Technology Research Institute | Two stage analoge-to-digital converter having unique fine encoding circuitry |
JP3198938B2 (ja) | 1996-09-03 | 2001-08-13 | 株式会社エフ・エフ・シー | 移動カメラ用の画像処理装置 |
US7194117B2 (en) | 1999-06-29 | 2007-03-20 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US6115553A (en) | 1996-09-17 | 2000-09-05 | Asahi Kogaku Kogyo Kabushiki Kaisha | Multipoint autofocus system |
US6858826B2 (en) * | 1996-10-25 | 2005-02-22 | Waveworx Inc. | Method and apparatus for scanning three-dimensional objects |
US6045623A (en) | 1997-04-24 | 2000-04-04 | Cannon; Bradley Jay | Method and apparatus for cleaning catheter lumens |
US5928260A (en) | 1997-07-10 | 1999-07-27 | Scimed Life Systems, Inc. | Removable occlusion system for aneurysm neck |
US6157747A (en) * | 1997-08-01 | 2000-12-05 | Microsoft Corporation | 3-dimensional image rotation method and apparatus for producing image mosaics |
US6545701B2 (en) | 1997-08-13 | 2003-04-08 | Georgia Tech Research Corporation | Panoramic digital camera system and method |
JP4054422B2 (ja) | 1997-11-13 | 2008-02-27 | キヤノン株式会社 | カメラ及び交換レンズ装置 |
US7006132B2 (en) * | 1998-02-25 | 2006-02-28 | California Institute Of Technology | Aperture coded camera for three dimensional imaging |
AU2789899A (en) * | 1998-02-25 | 1999-09-15 | California Institute Of Technology | Aperture coded camera for three-dimensional imaging |
US7612870B2 (en) * | 1998-02-25 | 2009-11-03 | California Institute Of Technology | Single-lens aperture-coded camera for three dimensional imaging in small volumes |
US6113588A (en) | 1998-03-13 | 2000-09-05 | Corvascular, Inc. | Transillumination catheter and method |
US6563543B1 (en) | 1998-03-31 | 2003-05-13 | Hewlett-Packard Development Company, L.P. | Digital camera and method of using same |
US6304284B1 (en) | 1998-03-31 | 2001-10-16 | Intel Corporation | Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera |
US7116324B2 (en) | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures |
US6912293B1 (en) * | 1998-06-26 | 2005-06-28 | Carl P. Korobkin | Photogrammetry engine for model construction |
US6748112B1 (en) * | 1998-07-28 | 2004-06-08 | General Electric Company | Method and apparatus for finding shape deformations in objects having smooth surfaces |
US6262803B1 (en) | 1998-09-10 | 2001-07-17 | Acuity Imaging, Llc | System and method for three-dimensional inspection using patterned light projection |
US6227850B1 (en) | 1999-05-13 | 2001-05-08 | Align Technology, Inc. | Teeth viewing system |
GB2343320B (en) * | 1998-10-31 | 2003-03-26 | Ibm | Camera system for three dimentional images and video |
US6271918B2 (en) * | 1999-02-04 | 2001-08-07 | National Research Council Of Canada | Virtual multiple aperture 3-D range sensor |
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
US7068825B2 (en) | 1999-03-08 | 2006-06-27 | Orametrix, Inc. | Scanning system and calibration method for capturing precise three-dimensional information of objects |
JP2001016610A (ja) | 1999-06-29 | 2001-01-19 | Fuji Photo Film Co Ltd | 視差画像入力装置及びカメラ |
JP2001061165A (ja) * | 1999-08-20 | 2001-03-06 | Sony Corp | レンズ装置及びカメラ |
US7236622B2 (en) * | 1999-08-25 | 2007-06-26 | Eastman Kodak Company | Method for forming a depth image |
US6519359B1 (en) | 1999-10-28 | 2003-02-11 | General Electric Company | Range camera controller for acquiring 3D models |
US6648640B2 (en) * | 1999-11-30 | 2003-11-18 | Ora Metrix, Inc. | Interactive orthodontic care system based on intra-oral scanning of teeth |
US7075930B1 (en) * | 2000-04-11 | 2006-07-11 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for packet data servicing node (PDSN)initial assignment and reselection |
US6638239B1 (en) * | 2000-04-14 | 2003-10-28 | Glaukos Corporation | Apparatus and method for treating glaucoma |
EP1150327B1 (en) * | 2000-04-27 | 2018-02-14 | ICT, Integrated Circuit Testing Gesellschaft für Halbleiterprüftechnik mbH | Multi beam charged particle device |
GB2373329B (en) | 2000-05-05 | 2003-03-05 | Acoustical Tech Sg Pte Ltd | Acoustic microscope |
TW527518B (en) * | 2000-07-14 | 2003-04-11 | Massachusetts Inst Technology | Method and system for high resolution, ultra fast, 3-D imaging |
JP2002034056A (ja) * | 2000-07-18 | 2002-01-31 | Scalar Corp | 立体視用画像の撮像装置、立体視用画像の撮像方法 |
JP2002164066A (ja) * | 2000-11-22 | 2002-06-07 | Mitsubishi Heavy Ind Ltd | 積層型熱交換器 |
CA2430591C (en) * | 2000-12-01 | 2011-04-19 | Imax Corporation | Techniques and systems for developing high-resolution imagery |
US7304677B2 (en) | 2000-12-13 | 2007-12-04 | Eastman Kodak Company | Customizing a digital camera based on demographic factors |
JP2002220991A (ja) | 2001-01-25 | 2002-08-09 | Kajima Corp | 本坑シ−ルドトンネル内に設ける隔壁とその構築方法 |
JP2002254708A (ja) | 2001-03-06 | 2002-09-11 | Fuji Photo Film Co Ltd | 色再現方法およびこの方法を用いるデジタルカラーハードコピー装置、並びに上記方法を実行するためのプログラム |
US6765569B2 (en) * | 2001-03-07 | 2004-07-20 | University Of Southern California | Augmented-reality tool employing scene-feature autocalibration during camera motion |
US6915008B2 (en) * | 2001-03-08 | 2005-07-05 | Point Grey Research Inc. | Method and apparatus for multi-nodal, three-dimensional imaging |
US7423666B2 (en) * | 2001-05-25 | 2008-09-09 | Minolta Co., Ltd. | Image pickup system employing a three-dimensional reference object |
US6701181B2 (en) | 2001-05-31 | 2004-03-02 | Infraredx, Inc. | Multi-path optical catheter |
US6873868B2 (en) * | 2001-12-31 | 2005-03-29 | Infraredx, Inc. | Multi-fiber catheter probe arrangement for tissue analysis or treatment |
CA2369710C (en) * | 2002-01-30 | 2006-09-19 | Anup Basu | Method and apparatus for high resolution 3d scanning of objects having voids |
US7340077B2 (en) * | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
JP3932946B2 (ja) | 2002-03-28 | 2007-06-20 | ソニー株式会社 | 無線通信装置および無線通信方法、並びにプログラム |
JP2004046772A (ja) * | 2002-05-13 | 2004-02-12 | 3D Media Co Ltd | 画像処理方法、画像処理システム、及び画像処理装置 |
US20050119684A1 (en) | 2002-07-12 | 2005-06-02 | Guterman Lee R. | Aneurysm buttress arrangement |
US7106375B2 (en) | 2002-09-12 | 2006-09-12 | Eastman Kodak Company | Mutual display support for a digital information/imaging system |
US20040155975A1 (en) * | 2002-09-17 | 2004-08-12 | Hart Douglas P. | 3-D imaging system |
US7343278B2 (en) * | 2002-10-22 | 2008-03-11 | Artoolworks, Inc. | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
GB2395261A (en) | 2002-11-11 | 2004-05-19 | Qinetiq Ltd | Ranging apparatus |
JP4090860B2 (ja) | 2002-12-12 | 2008-05-28 | オリンパス株式会社 | 3次元形状測定装置 |
US7171054B2 (en) * | 2003-05-01 | 2007-01-30 | Eastman Kodak Company | Scene-based method for determining focus |
WO2005033629A2 (en) * | 2003-09-19 | 2005-04-14 | University Of Miami | Multi-camera inspection of underwater structures |
US7609289B2 (en) | 2003-09-25 | 2009-10-27 | Omnitek Partners, Llc | Methods and apparatus for capturing images with a multi-image lens |
KR101068078B1 (ko) | 2004-01-30 | 2011-09-28 | 가부시키가이샤 모리텍스 | 촬상장치, 촬상렌즈, 촬상렌즈에의 데이터 기록방법 |
US7212330B2 (en) * | 2004-03-22 | 2007-05-01 | Angstrom, Inc. | Three-dimensional imaging system for pattern recognition |
US20050251116A1 (en) | 2004-05-05 | 2005-11-10 | Minnow Medical, Llc | Imaging and eccentric atherosclerotic material laser remodeling and/or ablation catheter |
GB0410551D0 (en) * | 2004-05-12 | 2004-06-16 | Ller Christian M | 3d autostereoscopic display |
JP2005341416A (ja) | 2004-05-28 | 2005-12-08 | Toshiba Corp | 撮像機能付き電子機器およびその画像表示方法 |
US7187809B2 (en) | 2004-06-10 | 2007-03-06 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US8029766B2 (en) | 2004-06-18 | 2011-10-04 | Elmaleh David R | Intravascular imaging device and uses thereof |
WO2006046669A1 (ja) * | 2004-10-28 | 2006-05-04 | University Of Fukui | データベース管理装置、方法、プログラム |
US20060092314A1 (en) * | 2004-10-31 | 2006-05-04 | Silverstein D A | Autofocus using a filter with multiple apertures |
US7668388B2 (en) * | 2005-03-03 | 2010-02-23 | Mitutoyo Corporation | System and method for single image focus assessment |
US7912673B2 (en) | 2005-03-11 | 2011-03-22 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
US7577309B2 (en) * | 2005-06-18 | 2009-08-18 | Muralidhara Subbarao | Direct vision sensor for 3D computer vision, digital imaging, and digital video |
US7565029B2 (en) * | 2005-07-08 | 2009-07-21 | Seiko Epson Corporation | Method for determining camera position from two-dimensional images that form a panorama |
TWI286921B (en) * | 2005-09-09 | 2007-09-11 | Quanta Comp Inc | Apparatus for minimizing electromagnetic interference and manufacturing method thereof |
JP5129749B2 (ja) | 2005-09-30 | 2013-01-30 | コルノヴァ インク | 体腔のプローブ検査及び治療のためのシステム |
WO2007041690A2 (en) * | 2005-10-04 | 2007-04-12 | Alexander Eugene J | Device for generating three dimensional surface models of moving objects |
US7715918B2 (en) * | 2005-10-18 | 2010-05-11 | University Of Cincinnati | Muscle energy converter with smooth continuous tissue interface |
WO2007061632A2 (en) * | 2005-11-09 | 2007-05-31 | Geometric Informatics, Inc. | Method and apparatus for absolute-coordinate three-dimensional surface imaging |
US7605817B2 (en) | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US7342658B2 (en) * | 2005-12-28 | 2008-03-11 | Eastman Kodak Company | Programmable spectral imaging system |
EP2762972B1 (en) * | 2006-02-13 | 2020-04-08 | Midmark Corporation | Monocular three-dimensional imaging |
US7372642B2 (en) * | 2006-02-13 | 2008-05-13 | 3M Innovative Properties Company | Three-channel camera systems with non-collinear apertures |
US7819591B2 (en) * | 2006-02-13 | 2010-10-26 | 3M Innovative Properties Company | Monocular three-dimensional imaging |
US7646550B2 (en) * | 2006-02-13 | 2010-01-12 | 3M Innovative Properties Company | Three-channel camera systems with collinear apertures |
EP2013641A2 (en) | 2006-04-05 | 2009-01-14 | California Institute of Technology | 3- dimensional imaging by acoustic warping and defocusing |
JP2009536499A (ja) | 2006-05-05 | 2009-10-08 | トムソン ライセンシング | 2次元画像から3次元オブジェクトを再構成するシステム及び方法 |
JP5362189B2 (ja) * | 2006-05-10 | 2013-12-11 | 株式会社トプコン | 画像処理装置及びその処理方法 |
JP4974650B2 (ja) | 2006-11-10 | 2012-07-11 | ペンタックスリコーイメージング株式会社 | 交換レンズ及びレンズデータ通信方法 |
US8089635B2 (en) | 2007-01-22 | 2012-01-03 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
KR20090104857A (ko) | 2007-01-22 | 2009-10-06 | 캘리포니아 인스티튜트 오브 테크놀로지 | 정량적 3-d 이미징을 위한 방법 및 장치 |
US7889197B2 (en) * | 2007-01-26 | 2011-02-15 | Captivemotion, Inc. | Method of capturing, processing, and rendering images |
WO2008133957A1 (en) * | 2007-04-23 | 2008-11-06 | California Institute Of Technology | Single-lens, single-sensor 3-d imaging device with a central aperture for obtaining camera position |
US8351685B2 (en) * | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
WO2009067223A2 (en) | 2007-11-19 | 2009-05-28 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
US8401276B1 (en) | 2008-05-20 | 2013-03-19 | University Of Southern California | 3-D reconstruction and registration |
US20100094138A1 (en) | 2008-07-25 | 2010-04-15 | Morteza Gharib | Imaging catheter using laser profile for plaque depth measurement |
EP2329454A2 (en) * | 2008-08-27 | 2011-06-08 | California Institute of Technology | Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing |
US8773507B2 (en) | 2009-08-11 | 2014-07-08 | California Institute Of Technology | Defocusing feature matching system to measure camera pose with interchangeable lens cameras |
WO2011031538A2 (en) | 2009-08-27 | 2011-03-17 | California Institute Of Technology | Accurate 3d object reconstruction using a handheld device with a projected light pattern |
WO2011133406A1 (en) | 2010-04-20 | 2011-10-27 | Gharib, Morteza | Catheter based 3-d defocusing imaging |
WO2012030357A1 (en) | 2010-09-03 | 2012-03-08 | Arges Imaging, Inc. | Three-dimensional imaging system |
WO2014011182A1 (en) | 2012-07-12 | 2014-01-16 | Calfornia Institute Of Technology | Convergence/divergence based depth determination techniques and uses with defocusing imaging |
WO2014011179A1 (en) | 2012-07-12 | 2014-01-16 | California Institute Of Technology | Defocusing with projection grid including identification features |
-
2008
- 2008-04-23 WO PCT/US2008/005311 patent/WO2008133957A1/en active Application Filing
- 2008-04-23 JP JP2010506267A patent/JP2010525745A/ja active Pending
- 2008-04-23 JP JP2010506264A patent/JP2010528499A/ja active Pending
- 2008-04-23 EP EP08743267A patent/EP2149266A1/en not_active Withdrawn
- 2008-04-23 CA CA002684602A patent/CA2684602A1/en not_active Abandoned
- 2008-04-23 EP EP08743269A patent/EP2149268A1/en not_active Withdrawn
- 2008-04-23 US US12/150,237 patent/US7916309B2/en active Active
- 2008-04-23 US US12/150,238 patent/US7894078B2/en active Active
- 2008-04-23 US US12/150,239 patent/US20080278572A1/en not_active Abandoned
- 2008-04-23 KR KR1020097024299A patent/KR20100017234A/ko not_active Application Discontinuation
- 2008-04-23 KR KR1020097024301A patent/KR20100017236A/ko not_active Application Discontinuation
- 2008-04-23 EP EP08743266A patent/EP2149265A1/en not_active Withdrawn
- 2008-04-23 WO PCT/US2008/005314 patent/WO2008133959A1/en active Application Filing
- 2008-04-23 KR KR1020097024297A patent/KR20100019455A/ko not_active Application Discontinuation
- 2008-04-23 KR KR1020097024300A patent/KR20100017235A/ko not_active Application Discontinuation
- 2008-04-23 AU AU2008244493A patent/AU2008244493A1/en not_active Abandoned
- 2008-04-23 CA CA002684565A patent/CA2684565A1/en not_active Abandoned
- 2008-04-23 JP JP2010506265A patent/JP2010526992A/ja active Pending
- 2008-04-23 WO PCT/US2008/005315 patent/WO2008133960A1/en active Application Filing
- 2008-04-23 AU AU2008244495A patent/AU2008244495A1/en not_active Abandoned
- 2008-04-23 WO PCT/US2008/005313 patent/WO2008133958A1/en active Application Filing
- 2008-04-23 AU AU2008244492A patent/AU2008244492A1/en not_active Abandoned
- 2008-04-23 EP EP08743268A patent/EP2149267A1/en not_active Withdrawn
- 2008-04-23 US US12/150,236 patent/US8619126B2/en active Active
- 2008-04-23 CA CA002684603A patent/CA2684603A1/en not_active Abandoned
- 2008-04-23 CA CA002684567A patent/CA2684567A1/en not_active Abandoned
- 2008-04-23 JP JP2010506266A patent/JP2010526481A/ja active Pending
- 2008-04-23 AU AU2008244494A patent/AU2008244494B2/en not_active Ceased
-
2011
- 2011-01-17 US US13/007,765 patent/US20110170100A1/en not_active Abandoned
- 2011-02-08 US US13/023,316 patent/US8259306B2/en active Active
-
2012
- 2012-03-01 US US13/409,961 patent/US8472032B2/en active Active
-
2013
- 2013-04-30 US US13/874,155 patent/US20130300834A1/en not_active Abandoned
- 2013-10-04 US US14/046,230 patent/US9100641B2/en active Active
-
2015
- 2015-06-15 US US14/739,565 patent/US9736463B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5167279B2 (ja) | 定量的な三次元撮像のための方法および装置 | |
JP2010528499A (ja) | カメラ位置を得るための中央絞り開口を備えた、単一レンズ、単一センサー3d撮像装置 |