JP2011514964A - 3次元シーンからの視覚情報のリアルタイムな取得のための方法およびカメラ - Google Patents

3次元シーンからの視覚情報のリアルタイムな取得のための方法およびカメラ Download PDF

Info

Publication number
JP2011514964A
JP2011514964A JP2010542653A JP2010542653A JP2011514964A JP 2011514964 A JP2011514964 A JP 2011514964A JP 2010542653 A JP2010542653 A JP 2010542653A JP 2010542653 A JP2010542653 A JP 2010542653A JP 2011514964 A JP2011514964 A JP 2011514964A
Authority
JP
Japan
Prior art keywords
image
real
resolution
stack
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010542653A
Other languages
English (en)
Other versions
JP5269099B2 (ja
Inventor
ホセ、マヌエル、ロドリゲス、ラモス
ホセ、ヒル、マリカル、エルナンデス
フェルナンド、ロサ、ゴンサレス
フェルナンド、ペレス、ナバ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de La Laguna
Original Assignee
Universidad de La Laguna
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de La Laguna filed Critical Universidad de La Laguna
Publication of JP2011514964A publication Critical patent/JP2011514964A/ja
Application granted granted Critical
Publication of JP5269099B2 publication Critical patent/JP5269099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)

Abstract

本発明は、離散的な超立方体の制約された平面の長さに沿う和変換を使用して、物体空間と関連付けられる焦点スタックをそのプレノプティック関数から計算し、それにより、計算時間をかなり減らすことができる方法に関する。また、本発明は、得られた焦点スタックの分解能を高めるための方法に関する。更に、本発明は、3次元シーンの表面の各位置でそれぞれ深度および波面の複素振幅の係数および位相をリアルタイムに回収するための2つの方法、ならびに、前述した方法を実行するようにされたシステムに関する。

Description

本発明の目的
本発明は、物体体積と関連付けられる焦点スタックを計算するための方法、得られる焦点スタックの像の分解能を高めるための方法、3次元シーンにおける距離のリアルタイムな測定のための方法、および、波面と関連する電磁場の複素振幅のリアルタイムなトモグラフィ測定のための方法に関する。
本発明より、シーンの表面の位置における電磁場の複素振幅および距離を知ることができる。
また、本発明は、対物レンズ、対物レンズの像空間内に位置するレンズレットアレイ、レンズレットの焦点に配置される(レンズレットにより形成される像を収集する)センサ、および、カメラにより測定される物体体積と関連する焦点スタックを計算しかつ物体体積に関して電磁場の複素振幅(係数および位相)を計算するとともに検出された物体空間の任意の点での放射面の3次元位置を計算するようにされた並列演算処理手段の使用によって特徴付けられる、幅広い範囲のボリュームにおいて3次元シーンの視覚情報をリアルタイムに取得するためのカメラに関する。
この発明は、波面を知ることが必要とされる任意の分野または用途、すなわち、地上天文観測、眼科、ホログラフィなどにおいて、また、計測学が必要とされる任意の分野または用途、すなわち、リアルシーン、3Dテレビ、研磨CCD、自動車システムなどにおいて役立ち得る。
技術分野
光学素子。画像処理。
発明の背景
本発明は、画質が(例えば、診断のために)最も重要な任意の光学的課題と関連する波面の複素振幅の3次元測定を達成する必要性、および、数ミクロン〜数キロメートルの幅広い範囲のボリュームで十分に信頼できる正確な深度マップを得る必要性の両方に関するとともに、3Dテレビ、3D映画、医薬などのための3次元情報のリアルタイムな生成に関する。
従来技術
大きい直径を有する現在の望遠鏡のための波面補償光学素子(GRANTECAN,Keck,…)および将来の巨大望遠鏡は、多重共役光学素子と呼ばれるトモグラフィの形態を使用して大気相の3次元分布を測定することに焦点を合わせる。望遠鏡によって観測される物体の視野内に常に点光源が存在するように十分な数の自然点光源が天空に存在しなければ、人工の点光源、すなわち、Na星(高さ90km)を使用しなければならない。
焦点アニソプラナティズム(focal anisoplanatism)を防止して、天空中の物体からくる光ビームに影響を与える大気全体を補正するためには、これらの人工の星のうちの幾つか(少なくとも5個)を使用する必要がある。それらの星のそれぞれは、発生されるために、非常に高い分解能の高出力パルスレーザを必要とし、そのため、非常に高価な技術となる。また、そのような高いコストにもかかわらず、多重共役光学素子は、(3つの同時測定位相センサを用いて)せいぜい乱流の3つの水平層と関連する大気相を測定することしかできない。すなわち、多重共役光学素子は、像に影響を及ぼす3次元円柱の非常に僅かな部分を走査する。更に、可視域での大気の安定の時間内(10ms)で光ビームの適応補正をひどく複雑にするそのような複雑な計算を用いた相の推定値が回収される。
しかしながら、発明の背景は、天体物理学の分野だけに焦点が合わされるわけではない。光学素子または眼科の分野では、人の眼のトモグラフィを行なうことへの最大の関心は、専門医がより簡単に診断を行なうことができるように患者の眼底網膜の鮮明な像を取得して有することに基づいている。眼内の房水、硝子体液、および、水晶体は、眼底網膜から取得され得る像に収差を与える手段のように振舞う。
この場合において、地表大気中と同じ頻度(10msごと)で測定値を取得する必要がないとしても、それは安定した変形であるため、眼底網膜の良好な像を取得するだけでなく想定し得る眼障害の空間的位置も検出するために十分な3次元分解能が必要とされる。
最後に、テレビまたは映画の画像の分野などの他の分野では、3次元テレビに関する課題が存在する。その場合、必須の課題のうちの1つは、技術が非常に複雑で困難であるためにそれらが既存の3Dディスプレイ上に表示され得る3Dコンテンツの生成のためのプロセス中に人の介入を必要とする場合には、コンテンツのリアルタイムな生成である。この意味において、本明細書中で提案される技術の並列演算ハードウェア(GPUおよびFPGA)での最適な実施は、リアルタイムな3次元コンテンツの生成を可能にする。
前述した分野の従来技術では、収束レンズの像平面内にレンズレットが配置され、それにより、像パラメータの測定のための装置および方法を生じさせる手法が知られているが、それらの手法は、光学収差のトモグラフィ測定値を取得するためにまたはシーンにおける距離を得るために前記アセンブリを使用しない。
例えば、AdelsonおよびWang(「Single kens stereo with a plenoptic camera」,IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.14,No.2,99−106,1992)は、本発明の技術とは完全に異なる技術を用いて距離を得るための装置を使用する。
著者Ren Ng等(「Light field photography with a hand−held plenoptic camera」,Stanford Tech Report CTSR 2005−02)は、典型的な視野深度(field depth)技術よりも明らかに良好な品質をもって数立方メートルの体積の範囲で実際のシーンの焦点の合った写真を得るためだけに像平面内のレンズレットと関連付けられるフーリエスライス技術を使用する。この場合、提案された技術は、当該技術が必要とされる体積をカバーする距離に関して繰り返し適用されれば、焦点スタックを計算でき、そのため、リアルタムな処理を不可能にする計算要件を伴う。
本明細書の全体にわたって、シーンの焦点スタックは、同じ視点から、しかし、焦点距離が異なる、一群の従来の写真画像を取得することによってもたらされる像体積として解釈される。
情報抽出のプロセスに関しては、レンズの平面の各点(u,v)からきてセンサのそれぞれの点(x,y)に到達する全ての光線を積分することによって、光照射野または4次元プレノプティック関数f(u,v,x,y)から写真画像を得ることができることが知られている。前記積分によって、プレノプティック捕捉効果が取り消される。すなわち、光線がレンズレットによって捕捉されるときに光線の方向が異なる空間位置へと変えられる場合には、従来の像をやり直すために、異なる角度値(u,v)によってもたらされる1つの位置(x,y)に関して再編成する、すなわち、一般に再び積分する必要がある。
演算子E(x,y)=∬f(u,v,x,y)du dv、または写真形成積分(photograhic formation integral)によって得られる像は、レンズレット−センサアセンブリの対物レンズに対して共役な距離Fを隔てて平面上に焦点が合わされる従来のセンサを用いて得られた写真画像を再画像化する。Fの前または後で距離F’=α×xを隔てた平面内で再画像化することが望ましい場合、Ren Ngは、三角形の類似性により、以下が評価されなければならないことを実証する。
Figure 2011514964
それぞれの想定し得る距離α・Fにおけるこの演算子の評価は、O(N)個の演算を必要とし、したがって、N個の平面に関してはO(N)個の演算を必要とする。ここで、Nは、プレノプティック関数の次元のそれぞれがサンプリングされる分解能である。
また、Ren Ngは、O(NlogN)個の複雑な加重演算および乗算演算を伴う光照射野の4Dフーリエ変換が計算される場合には、光照射野の4D変換関数の2D非フーリエ変換および不完全な2D回転を行うことによって、異なる再合焦面を得ることができることも実証しており、これらの変換のそれぞれは、検出される4D関数のフーリエ変換の初期コストに加えられるべきO(N)+(NlogN)の計算複雑さを伴う。
したがって、焦点スタックの計算の演算コストを減らすことができ、それに応じてその計算時間を減らすことができる方法が必要である。
本発明の焦点スタックを計算するための方法の最も密接に関連する背景文献は、それぞれが2次元データグリッド上に配置される原点に対する勾配および変位によって特徴付けられる一連の離散的な線の長さに沿う値の総和をO(NlogN)個の和によって同時に求めるGotzおよびDruckmuller(「A fast digital Radon transform−an efficient means for evaluating the Hough transform」.Pattern Recognition,vol.29,no.4,pp.711−718,1996.)ならびにBrady(「A Fast Discrete Approximation Algorithm for the Radon Transform」.SIAM J.Comput.,vol.27,no.1,pp.107−119,1998)によって独立して提案される離散ランダム高速(または、著者によれば、近似)変換である。この場合、各線における総和の直接的な評価はO(N)個の演算を必要とし、したがって、N個の勾配およびN個の変位に関する評価はO(N)個の総和を必要とする。
最後に、シーンの情報を得るためのプロセスを無視するとともに本発明のシステムを考慮して、Richard M.ClareおよびRichard G.lane(「Wave−front sensing from subdivision of the focal plane with a lenslet array」,J.Opt.Soc.Am.A,Vol.22,No.1,117−125,2005)は、レンズレットアレイが収束レンズの焦点の右側に配置されており像平面のいずれの位置にも配置されておらず、それにより、波面の位相がレンズの瞳孔でのみ得られるシステムを提案した。
したがって、波面の位相を、レンズの瞳孔だけでなく、トポグラフィカルに、すなわち、物体空間の3次元容積内の任意の距離で決定することができる方法が必要である。
発明の説明
本発明は、シーンと関連する焦点スタックを計算するための請求項1に係る方法を第1の態様で提供することによって前述した欠点を解決する。この方法により、プロセスの計算コストおよび計算時間をかなり減らすことができ、従来技術において知られる方法に対してかなり改善される。
本発明の更なる目的は、計算的に最適化されかつそれらの並列演算に適する、シーンの距離を測定するための方法および電磁場の複素振幅を測定するための方法を提案することである。
本発明は、
大気安定のそれぞれの時間内で単一の測定および単一のセンサに制限され得る。
使用する演算のタイプおよび数(総和)の考慮が速いがグラフィック処理ユニット(GPU)またはFPGA(フィールド・プログラマブル・ゲート・アレイ)などの再構成ハードウェアユニットに対するその知的適合によって加速され得る焦点スタックを計算するための方法によって、各乱流水平層、すなわち、大気全体のトモグラフィと関連付けられる位相および係数の回収を可能にする。
物体の像のリアルタイムな回収を地表大気への物体の到達時に行うことができるため、人工のレーザ星を使用する必要性を回避する。この新たな技術が、その後のデコンボリューションのためのポイント信号を用いた較正を必要としないからである。
SCPH(超立方体の制約された平面の総和)変換と称される本発明の焦点スタックを計算するための方法は、光軸の長さに沿う異なる位置で合焦される3次元シーンの一連の平面を得ることができ、それにより、プロセスの計算の複雑さが減少される。
本発明の焦点スタックを計算するための方法は、離散高速ランダム変換の計算のためのマルチスケール方法の原理に基づいており、再使用する部分結果を用いて実行されるべき演算の数を最小限に抑える。
焦点スタックの演算の計算コストを減少させるため、本発明の方法は、離散的な超立方体の制約された平面の長さに沿う総和変換を使用する。写真形成積分が、その領域が4次元超立方体である関数の平面の長さに沿う積分の評価と幾何学的に等しいことに留意しなければならない。これを理解することにより、写真形成積分は、実行されるべき演算の数を減らすことができる手近なケースにおいて積分平面を規定する勾配r,rが等しいという制限を加える
Figure 2011514964
の特定のケースである。
焦点スタックを計算するための提案された方法は、離散4D関数f(u,v,x,y)において平面上に位置する値の和を、そこに位置する点の座標がx=u・r+jおよびy=v・r+kを同時に満たすように、複数の離散平面によって含まれる点の部分和を再使用して特定の離散化条件下で同時に計算することから成る。この場合、uおよびvは、レンズの平面上の水平寸法および垂直寸法であり、xおよびyは、センサ平面上の水平寸法および垂直寸法であり、また、j,kおよびrは、取得されるべき焦点スタックの水平寸法、垂直寸法、および、深度寸法である。言い換えると、平面内での線積分のケースにおいて既に存在する離散高速近似ランダム変換を計算するアルゴリズムは、それが4次元超立方体の積分4次元超平面に達するまで拡張される。この場合、水平勾配および垂直勾配が同じであるという付加的なファクタを伴う。
データの部分変換は、ステップmに至るまで、以下のように規定される。
Figure 2011514964
この場合、関数がNxNxNxN寸法を有するとともに、n=logNであり、関数
Figure 2011514964
が、u∈[0,N)において一連の点
Figure 2011514964
が勾配s/(N−1)の離散的な線を形成する点(0,d)および(N−1,s+d)を結合する離散的態様を表し、また、関数
Figure 2011514964
がバイナリ
Figure 2011514964
に対応する値λ(u)∈Zを戻すことが考慮される。
ステップ0まで変換されたデータ
Figure 2011514964
が取得データf(s,t,j,k)に等しくなるようにされる場合には、すなわち、
Figure 2011514964
の場合には、
Figure 2011514964
となる。これは、N個の深度平面のボリュームに関して写真形成積分
Figure 2011514964
を近似する。
他のN個の深度平面は、マイナスの勾配に関して同様に計算できる。半ボリュームの両方が深度0を共有するため、異なる距離で再合焦される2N−1個の像から成る全焦点スタックが得られる。
2つの部分ステップm,m+1をマッピングする漸化式は、方法を完全に表しており、n回適用されなければならない。すなわち、
Figure 2011514964
O(N)個の和を必要とするプロセスでは、部分変換
Figure 2011514964
が表される領域が、4D領域から3D領域へと漸進的に変換される
Figure 2011514964
により必要とされる領域の半分であり、それにより、結果として、現在のプロセスに対して80パーセントを超える計算時間の節約になることに留意しなければならない。
このプロセスに従うことにより、また、本明細書中で提案される方法を用いると、シーンの表面の各位置で深度および波面の複素振幅の係数および位相を回収することができ、それにより、シーンの完全な3次元のリアルタイムな走査が可能となり、したがって、前述した分野で大いに適用できる。
本発明の焦点スタックを計算するための方法は、乗算または三角演算を必要とせずに総和だけを必要とするため有益であり、また、その計算の複雑さは、寸法Nの光照射野から異なる深度で合焦される2N−1個の写真面を含む最終ボリュームにおいてO(N)程度である。
本発明の方法は、全体のボリュームに関して、従来技術(Ren Ng)に記載される焦点スタックを得るための方法が単一の平面を計算するために使用する演算数よりも少ない数の演算により焦点スタックを計算することができる。
それにもかかわらず、4D光照射野を計算する際に生じる問題は、2次元センサを使用する必要性である。2Dセンサに関する情報の4Dボリューム全体を得るためには、非常に高い分解能を有するセンサが必要である。したがって、O(N)ピクセルのセンサにおいて、O(N)ピクセルの像から成る焦点スタックを得ることしかできず、したがって、O(N)個の距離しか得ることができない。O(N)程度の分解能のこの減少により、非常に高価なセンサを使用する必要がある。
この問題を解決するため、本発明の第2の態様は、焦点スタックの像の分解能を高めるための請求項2に記載の方法を提供する。前記方法では、シーンの要素がランバート型の反射率を有すること、すなわち、物体の一点によって放射される強度が角度とは無関係であることを前提とする。この場合、光照射野はO(aN)程度の冗長性情報を有する。ここで、aは任意の定数(0<a<1)である。この冗長性情報は、焦点スタックの像の分解能を高めるために使用できる。
請求項2に係る方法は、分解能O(N)を有する像を伴う焦点スタックから分解能O((1−a)N)を有する像を伴う他の焦点スタックへと移ることができる。
決定された距離の平面に対応する焦点スタックの像が与えられると、焦点スタックの分解能を高める方法は、
1.光照射野のO(N)個の光線をその面から逆投影して、これらの光線の部分位置を用いて高分解能の像を構成し、
2.ランバート前提に起因して冗長性を決定し、
3.分解能が高い(超分解能の)この像では、2つのタイプのピクセルが存在し、すなわち、逆投影された光線の値を入れられる冗長性が存在しないピクセルと、平均値などの冗長光線の代表値が入れられる冗長性が存在するピクセルが存在する。
当初の焦点スタックの像のO(N)個の像のそれぞれにおいてO(aN)個の冗長性を仮定すると、焦点スタックの像の最終的な分解能はO(N)からO((1−a)N)へと高められる。
本明細書の文脈において、超分解能は、レンズレットにおける分解能O(N)に対する両方の像および関連する距離マップの任意の高められた鮮明度として解釈される。したがって、その最大限度はピクセルの数O(N)にあり、本発明の方法によってO((1−a)N)程度の分解能が有利に得られる。
一般に、aの値は、考慮されるべき焦点スタックの像に依存する。距離の計算に関しては、最小分解能が固定され、像が暗示的にまたは明示的に再サンプリングされて前記最小分解能が得られる。
本発明の第3の態様は、3次元シーンでの距離のリアルタイムな測定のための請求項3に係る方法を与える。該方法は、位相カメラを用いて物体空間の像を取得し、請求項1の方法によって焦点スタックを計算し、焦点スタックにおいて焦点品質測定演算子(分散、ラプラス、勾配)を適用し、ランダムマルコフ場での最適状態を計算することを含む。
前述した方法のステップは、GPUまたはFPGAなどの並列演算ハードウェアで実施され得るようになっており、それにより、処理時間の非常に有利な最適化がもたらされる。
第4の態様において、本発明は、波面と関連する電磁場の複素振幅のリアルタイムなトモグラフィ測定のための請求項5に係る方法を提供する。該方法は、位相カメラを用いて物体空間の像を取得し、波面の複素振幅の平方係数のトモグラフィを与える請求項1の方法によって焦点スタックを計算し、物体空間の容積の任意の点での波面位相の勾配の生成のための演算子を適用し、関連する電磁場の波面の位相を回収することを含む。
前述した方法のステップは、GPUまたはFPGAなどの並列演算ハードウェアで実施され得るようになっており、それにより、処理時間の非常に有利な最適化がもたらされる。
3次元シーンでの距離のリアルタイムな測定のための方法、および、波面と関連する電磁場の複素振幅のリアルタイムなトモグラフィ測定のための方法のいずれにおいても、物体空間の測定は1回だけ行われる。すなわち、単一の像が3次元環境を回収するための十分な情報を含む。そのような像は、4つの寸法、すなわち、各レンズレットの内部と関連付けられる検出器上の2つの座標と、レンズレットアレイと関連付けられる2つの他の座標とから成るものと理解され得る。
アセンブリは、3次元物体空間のトモグラフィ測定値の取得を可能にする、収束レンズの像空間の位置に位置付けられる十分な分解能を検出するための検出面(例えばCCD装置)上に像を形成する単一のレンズレットアレイから成る。
最後に、本発明の第5の態様は、収束レンズと、収束レンズの像空間の位置に配置され、十分な分解能を検出するための検出面上に像を形成するレンズレットアレイと、カメラにより測定される物体空間と関連する焦点スタックを請求項1の方法によって計算し、電磁場の複素振幅(係数および位相)を取得し、検出された物体空間の任意の位置で距離を取得するようにされた並列演算処理手段と、を備える3次元シーンの視覚情報のリアルタイムな取得のための請求項7に係る位相カメラを提供する。
従来技術の方法およびシステムと比べて、本発明に係る焦点スタックを計算するための方法は、波面の位相をトポグラフィカルに、すなわち、物体空間の3次元容積内の任意の距離で決定することができる。更に、本発明の焦点スタックを計算するための方法は、平面内の波面の位相によってだけでなく全容積内の波面と関連付けられる電磁場の複素振幅によっても電磁場を特徴付けることができる。
以下で与えられる説明を完全にするため、また、本発明の特徴をより良く理解するのを助けるため、一組の図面が前記説明の一体部分として添付されており、以下の図面は例示的かつ非限定的な特徴をもって描かれている。
3次元シーンの視覚情報のリアルタイムな取得のための本発明に係るカメラの主要な要素の概略的な描写を示している。 波面補償光学素子を用いた星(8)の天体物理観測において大気トモグラフィを行うための大型の主ミラー(1)を有する望遠鏡に適用される本発明の概念図を示している。 2層の大気乱流(9)、(10)中で多重共役波面補償光学素子を使用する星(8)の従来の天体物理観測の概念図を示している。
発明の好ましい実施形態の詳細な説明
本発明の第1の実用的な実施形態では、シーンの物体が位置付けられる距離の測定が考慮される。
家具付きの部屋の内部から成るシーンのこの発明による観察の特定のケースが考慮され、その場合、カメラの位置から0.5メートル〜4メートルの範囲の深度に位置付けられる幾つかの物体を構成要素として区別できる。
図1は、本発明に係る位相カメラに含まれる開口レンズ(1)、レンズレットアレイ(2)、および、検出面(3)の配置を概略的に描いている。また、収束レンズから物体空間の決定された物体に焦点を合わせるレンズまでの距離(5)、レンズレットアレイの各レンズレットの焦点(6)、波面の局所的な傾斜角度(7)、および、収差がない乱流波面が受ける光路の互いに対する変位(4)も示されている。また、本発明のカメラは、図示しない処理手段も備える。
3次元シーンの視覚情報をリアルタイムで取得するための本発明のカメラを形成するために、最大分解能が4000×2672のCCDセンサ、Imperx IPX−11M5 モデルが使用される。CCDの前に配置される図1のアセンブリに続いて、1024×1024ピクセルをカバーするCCDに焦点が合わされる後続のレンズレットアレイ(16×16、F−Nikonマウント)と同じ口径比を有する対物レンズが存在する。この配置のカメラは、30°の水平開口角を有しており、約2メートルにあるシーンの中央領域に焦点が合わされる。
検出された像は、処理手段によって処理され、この例では、
並列演算ハードウェアで最適に実施されるように適応された本発明の焦点スタックを計算するための方法によって焦点スタックを計算し;
同じ並列演算ハードウェアに最適に適合される、焦点スタックにおける焦点品質測定演算子、例えば焦点の品質を推定するための演算子「variance」を適用し、
ランダムマルコフ場での最適状態を計算することにより、例えば並列演算ハードウェアにおいて最適化された方法で実施されるコルモゴロフツリーの再重み付けに基づく信念の伝播により、距離を回収する、
ようにされたGPU nVidia 8800 GTXグラフィックスカードによって処理される。
シーンの深度マップは、本発明のカメラおよび方法を用いて得られる。
本発明の第2の実用的な実施形態では、電磁場の複素振幅の測定が考慮される。
大気のコヒーレンス直径r(可視域で約20cm)よりも大きい直径を有する望遠鏡を用いた天体物理観測の特定のケースが考慮される。大気の乱流は、望遠鏡を用いて得られる像の分解能の損失、すなわち、高い空間周波数の情報の損失を引き起こす。これを防止するため、研究中の星からくる光の波面を大気乱流が劣化させる態様が分からなければならない。そのために、大気によってもたらされる波面の変形を特徴付けることができる自然のまたは人工の点星を基準として使用できる。
図3は、2層の大気乱流中で従来の多重共役波面補償光学素子を使用する星(8)の天体物理観測を概略的に描いている。多重共役波面補償光学素子を用いると、乱流の個々の層に対して共役なそれぞれの変形可能なミラーによって波面位相センサが使用されなければならない。すなわち、光軸の異なる位置で平行に位置合わせされて動作されなければならない2つの異なる位相センサ(WFS)が使用されなければならない。図は、各乱流層(9)、(10)に対して共役な態様で関連付けられる2つの波面センサ(11)、(12)ならびに望遠鏡(1)を描いている。従来の多重共役波面補償光学素子によれば、非常に僅かな数の個々の乱流層(最大でも3つの層)を回収することができるにすぎない。可視域では大気が10ミリ秒ごとに変化するため、速度に関する計算および必要性における複雑さにより、現在、たった3層の大気乱流において補正を克服することができない。
図1に示される構成であって、この場合にはその動作が図2に示される構成によれば、本発明において、光軸の単一の位置に配置される1つのセンサだけが使用される。
図2は、波面補償光学素子を用いた星(8)の天体物理観測において大気トモグラフィを行うための本発明に係るシステムを概略的に示している。大気中の乱流の個々の層が(9)、(10)に対応する。この場合、前述した望遠鏡(1)自体は対物レンズとして機能する。IXON ANDORモデル512×512ピクセルカメラ(3)に焦点を合わせるレンズレットアレイ(2)(32×32、マウントC)がその像空間内に配置される。本発明の位相カメラは、望遠鏡の最終的な像に影響を及ぼす大気乱流(13)の円柱全体を走査できる。データは、以下のプロセスによって実行するように既にされたVirtex ML501モデルFPGAを用いて収集されて処理される、
請求項1の方法を用いて焦点スタックを計算する。この場合、焦点スタックの平方根は、物体空間の容積の任意の点での電磁場の複素振幅の係数を直接的に与える。
物体空間の容積の任意の点での波面位相の勾配の生成のための演算子(例えば、クラーク・レーン演算子)を適用する。
例えば複素指数関数の展開、ゼルニケ多項式またはHudginアルゴリズムに応じた展開を用いた方法によって、関連する電磁場の波面の位相を回収する。
以前の技術とは異なり、本発明の方法では、波面位相の勾配の生成のための演算子が、プレノプティック像全体ではなく局所的に適用される。
その後に前述したように処理される単一の測定値は、本発明のために使用される望遠鏡を用いた観察に影響を及ぼす大気柱全体と関連付けられる乱流の3次元マップ(波面の複素振幅)、および、これらの乱流層が位置する高さ、ならびに、人工のレーザ星が使用された場合には距離および3次元プロファイルのリアルタイムな取得を可能にする。

Claims (10)

  1. 物体空間と関連付けられる焦点スタックをその離散プレノプティック関数f(s, t, j, k)から計算するための方法であって、4D超立方体の平面の長さに沿う総和としての写真形成積分を評価することを含み、写真形成積分の前記評価は、
    計算の開始時に取得データf(s,t,j,k)がステップ0までの変換データ
    Figure 2011514964
    に等しくなるようにする、すなわち、
    Figure 2011514964
    となるようにするステップと、その後、以下の部分変換
    Figure 2011514964
    をn=logN回適用するステップと、を含む方法。
  2. 請求項1に係る方法によって得られる焦点スタックの像の分解能を高めるための方法であって、
    決定された距離で焦点スタックの像が与えられると、光照射野のO(N)個の光線を逆投影して、これらの光線の部分位置を用いて高分解能の像を構成するステップと、
    シーンの要素がランバート型の反射率を有するという前提により冗長性を決定するステップと、
    冗長性が存在しない超分解能を伴う焦点スタックの位置に、逆投影された光線の値を入れるとともに、冗長性が存在する位置に、平均値などの冗長光線の代表値を入れるステップと、
    を含む方法。
  3. 3次元シーンでの距離のリアルタイムな測定のための方法であって、
    位相カメラを用いて物体空間の像を取得するステップと、
    請求項1の方法によって焦点スタックを計算するステップと、
    焦点スタックにおいて焦点品質測定演算子を適用するステップと、
    ランダムマルコフ場での最適状態を計算するステップと、
    を含む方法。
  4. 請求項2の方法によって焦点スタックの像の分解能を高めることを更に含む、請求項3に記載の3次元シーンでの距離のリアルタイムな測定のための方法。
  5. 波面と関連する電磁場の複素振幅のリアルタイムなトモグラフィ測定のための方法であって、
    位相カメラを用いて物体空間の像を取得するステップと、
    請求項1の方法によって焦点スタックを計算し、焦点スタックの平方根が、物体空間の容積の任意の点での電磁場の複素振幅の係数を直接的に与えるステップと、
    物体空間の容積の任意の点での波面位相の勾配の生成のための演算子を適用するステップと、
    関連する電磁場の波面の位相を回収するステップと、
    を含む方法。
  6. 請求項2の方法によって焦点スタックの像の分解能を高めることを更に含む請求項5に記載の波面と関連する電磁場の複素振幅のリアルタイムなトモグラフィ測定のための方法。
  7. 収束レンズと、
    収束レンズの像空間の位置に配置され、十分な分解能を検出するための検出面上に像を形成するレンズレットアレイと、
    カメラにより測定される物体空間と関連する焦点スタックを請求項1の方法によって計算し、
    電磁場の複素振幅(係数および位相)を取得し、
    検出された物体空間の任意の位置で距離を取得する、
    ようにされた並列演算処理手段と、
    を備える3次元シーンの視覚情報のリアルタイムな取得のための位相カメラ。
  8. 処理手段は、請求項2の方法によって焦点スタックの像の分解能を高めるようにされた、請求項7に記載の3次元シーンの視覚情報のリアルタイムな取得のための位相カメラ。
  9. 処理手段は、請求項3の方法によって物体空間の任意の位置で距離を取得するようにされた、請求項7に記載の3次元シーンの視覚情報のリアルタイムな取得のための位相カメラ。
  10. 処理手段は、請求項5の方法によって電磁場の複素振幅を取得するようにされた、請求項7に記載の3次元シーンの視覚情報のリアルタイムな取得のための位相カメラ。
JP2010542653A 2008-01-15 2009-01-15 3次元シーンからの視覚情報のリアルタイムな取得のための方法およびカメラ Active JP5269099B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ESP200800126 2008-01-15
ES200800126A ES2372515B2 (es) 2008-01-15 2008-01-15 Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales.
PCT/ES2009/000031 WO2009090291A1 (es) 2008-01-15 2009-01-15 Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales

Publications (2)

Publication Number Publication Date
JP2011514964A true JP2011514964A (ja) 2011-05-12
JP5269099B2 JP5269099B2 (ja) 2013-08-21

Family

ID=40885085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010542653A Active JP5269099B2 (ja) 2008-01-15 2009-01-15 3次元シーンからの視覚情報のリアルタイムな取得のための方法およびカメラ

Country Status (21)

Country Link
US (1) US8471897B2 (ja)
EP (1) EP2239706B1 (ja)
JP (1) JP5269099B2 (ja)
KR (1) KR101590778B1 (ja)
CN (1) CN101952855B (ja)
AU (1) AU2009204788B2 (ja)
BR (1) BRPI0907392A2 (ja)
CA (1) CA2711727C (ja)
CO (1) CO6300819A2 (ja)
DK (1) DK2239706T3 (ja)
EG (1) EG26176A (ja)
ES (1) ES2372515B2 (ja)
HK (1) HK1153297A1 (ja)
IL (1) IL206807A (ja)
MA (1) MA32069B1 (ja)
MX (1) MX2010007697A (ja)
NZ (1) NZ586721A (ja)
RU (1) RU2502104C2 (ja)
UA (1) UA103759C2 (ja)
WO (1) WO2009090291A1 (ja)
ZA (1) ZA201004763B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064894A (ja) * 2012-08-15 2014-04-17 Aspect Imaging Ltd 明視野カメラを組み合わせたmri装置
KR101835796B1 (ko) 2016-08-08 2018-04-19 박준현 실시간 3차원 해양공간정보를 이용한 전술 지원 시스템

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8913149B1 (en) 2010-11-30 2014-12-16 Integrity Applications Incorporated Apparatus and techniques for enhanced resolution imaging
EP2535681B1 (en) * 2011-06-17 2016-01-06 Thomson Licensing Device for estimating the depth of elements of a 3D scene
EP2541258B1 (en) 2011-06-30 2013-08-28 Siemens Aktiengesellschaft Method of and device for capturing 3D data of one or more airborne particles
WO2013007612A1 (en) 2011-07-08 2013-01-17 Carl Zeiss Meditec Ag Light field camera for fundus photography
JP5132832B1 (ja) * 2011-07-11 2013-01-30 キヤノン株式会社 計測装置および情報処理装置
US9172928B2 (en) 2011-10-21 2015-10-27 Hewlett-Packard Development Company, L.P. Color image capture system and method for light modulation
US9581966B1 (en) 2012-02-15 2017-02-28 Integrity Applications Incorporated Systems and methodologies related to 3-D imaging and viewing
US9354606B1 (en) 2012-07-31 2016-05-31 Integrity Applications Incorporated Systems and methodologies related to generating projectable data for 3-D viewing
US9219905B1 (en) 2012-08-31 2015-12-22 Integrity Applications Incorporated Systems and methodologies related to formatting data for 3-D viewing
US9036080B2 (en) 2012-09-04 2015-05-19 Canon Kabushiki Kaisha Apparatus and method for acquiring information about light-field data
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9247874B2 (en) 2013-02-01 2016-02-02 Carl Zeiss Meditec, Inc. Systems and methods for sub-aperture based aberration measurement and correction in interferometric imaging
US9132665B2 (en) * 2013-08-22 2015-09-15 Ricoh Company, Ltd. Substrate defect detection mechanism
US9569853B2 (en) * 2013-10-25 2017-02-14 Ricoh Company, Ltd. Processing of light fields by transforming to scale and depth space
US9460515B2 (en) * 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
WO2015162098A1 (en) 2014-04-24 2015-10-29 Carl Zeiss Meditec, Inc. Functional vision testing using light field displays
EP3185747A1 (en) 2014-08-31 2017-07-05 Berestka, John Systems and methods for analyzing the eye
WO2016040582A1 (en) * 2014-09-11 2016-03-17 University Of Delaware Real-time object capturing and 3d display systems and methods
CN104298638B (zh) * 2014-10-15 2017-02-08 沈阳理工大学 一种自适应光学处理平台
ES2578356B1 (es) * 2014-12-22 2017-08-04 Universidad De La Laguna Método para determinar la amplitud compleja del campo electromagnético asociado a una escena
EP3262606A1 (en) 2015-02-25 2018-01-03 BAE Systems PLC An image processing method and apparatus for determining depth within an image
GB2535726B (en) * 2015-02-25 2020-12-30 Bae Systems Plc An image processing method and apparatus for determining depth within an image
CN104658031B (zh) * 2015-03-06 2017-05-10 新维畅想数字科技(北京)有限公司 一种直接利用深度数据渲染三维图像的装置及方法
EP3088954A1 (en) 2015-04-27 2016-11-02 Thomson Licensing Method and device for processing a lightfield content
EP3106912A1 (en) 2015-06-17 2016-12-21 Thomson Licensing An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image
EP3144879A1 (en) 2015-09-17 2017-03-22 Thomson Licensing A method and an apparatus for generating data representative of a light field
WO2017046272A1 (en) * 2015-09-17 2017-03-23 Thomson Licensing Method for encoding a light field content
US10887576B2 (en) 2015-09-17 2021-01-05 Interdigital Vc Holdings, Inc. Light field data representation
EP3144885A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Light field data representation
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
CN105807550B (zh) * 2016-03-02 2019-04-23 深圳大学 反演超高速成像方法
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
CN105739091B (zh) * 2016-03-16 2018-10-12 中国人民解放军国防科学技术大学 一种可减弱大气湍流影响的成像方法及装置
CN113014906B (zh) 2016-04-12 2023-06-30 奎蒂安特有限公司 3d场景重建方法、系统及计算机程序存储介质
CN106296811A (zh) * 2016-08-17 2017-01-04 李思嘉 一种基于单光场相机的目标物三维重构方法
CN107788947A (zh) * 2016-09-07 2018-03-13 爱博诺德(北京)医疗科技有限公司 眼科检查设备和方法
EP3358321A1 (en) * 2017-02-03 2018-08-08 Wooptix S.L. Method and optical system for acquiring the tomographical distribution of wave fronts of electromagnetic fields
CA3097202A1 (en) 2018-05-02 2019-11-07 Quidient, Llc A codec for processing scenes of almost unlimited detail
WO2020018931A1 (en) 2018-07-19 2020-01-23 Activ Surgical, Inc. Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
US20220051154A1 (en) * 2018-12-26 2022-02-17 Bloomfield Robotics, Inc. Method and apparatus for measuring plant trichomes
DK3709258T3 (da) * 2019-03-12 2023-07-10 L & T Tech Services Limited Generering af sammensat billede ud fra talrige billeder taget for objekt
WO2020210168A1 (en) 2019-04-08 2020-10-15 Activ Surgical, Inc. Systems and methods for medical imaging
CN110389140A (zh) * 2019-07-11 2019-10-29 中国科学院上海应用物理研究所 实现元素空间定位的双能焦点堆栈三维重构方法
WO2021035094A1 (en) 2019-08-21 2021-02-25 Activ Surgical, Inc. Systems and methods for medical imaging
CN110648298A (zh) * 2019-11-01 2020-01-03 中国工程物理研究院流体物理研究所 一种基于深度学习的光学像差畸变校正方法及系统
CN110928113B (zh) * 2019-12-03 2021-10-08 西北工业大学 一种可变空间分辨率的光场采集装置
CN115016035B (zh) * 2022-05-31 2023-12-22 中国科学院光电技术研究所 一种基于波前探测的实时大气湍流分层强度测量方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008515110A (ja) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 撮像の装置と方法
JP2009524037A (ja) * 2006-01-20 2009-06-25 ウニベルシダッド、デ、ラ、ラグナ 波面収差・距離測定位相カメラ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19632637C2 (de) * 1996-08-13 1999-09-02 Schwertner Verfahren zur Erzeugung parallaktischer Schnittbildstapelpaare für die hochauflösende Stereomikroskopie und/oder 3D-Animation mit konventionellen, nicht stereoskopischen Lichtmikroskopen
CN100416613C (zh) * 2002-09-29 2008-09-03 西安交通大学 计算机网络环境智能化场景绘制装置系统及绘制处理方法
CN1216347C (zh) * 2003-04-10 2005-08-24 上海交通大学 基于图像的场景再照明方法
US7620309B2 (en) * 2006-04-04 2009-11-17 Adobe Systems, Incorporated Plenoptic camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008515110A (ja) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 撮像の装置と方法
JP2009524037A (ja) * 2006-01-20 2009-06-25 ウニベルシダッド、デ、ラ、ラグナ 波面収差・距離測定位相カメラ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064894A (ja) * 2012-08-15 2014-04-17 Aspect Imaging Ltd 明視野カメラを組み合わせたmri装置
KR101835796B1 (ko) 2016-08-08 2018-04-19 박준현 실시간 3차원 해양공간정보를 이용한 전술 지원 시스템

Also Published As

Publication number Publication date
ZA201004763B (en) 2011-10-26
EP2239706A4 (en) 2012-10-03
KR101590778B1 (ko) 2016-02-18
MX2010007697A (es) 2010-08-03
CN101952855A (zh) 2011-01-19
ES2372515A1 (es) 2012-01-23
EG26176A (en) 2013-04-04
UA103759C2 (ru) 2013-11-25
WO2009090291A1 (es) 2009-07-23
AU2009204788A1 (en) 2009-07-23
IL206807A (en) 2015-03-31
AU2009204788B2 (en) 2013-03-21
RU2010133943A (ru) 2012-02-27
KR20100136448A (ko) 2010-12-28
CO6300819A2 (es) 2011-07-21
CA2711727C (en) 2016-12-06
JP5269099B2 (ja) 2013-08-21
BRPI0907392A2 (pt) 2015-07-21
HK1153297A1 (en) 2012-03-23
CN101952855B (zh) 2013-04-03
DK2239706T3 (en) 2014-03-03
US8471897B2 (en) 2013-06-25
RU2502104C2 (ru) 2013-12-20
EP2239706A1 (en) 2010-10-13
ES2372515B2 (es) 2012-10-16
EP2239706B1 (en) 2013-12-04
MA32069B1 (fr) 2011-02-01
NZ586721A (en) 2012-11-30
CA2711727A1 (en) 2009-07-23
IL206807A0 (en) 2010-12-30
US20110032337A1 (en) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5269099B2 (ja) 3次元シーンからの視覚情報のリアルタイムな取得のための方法およびカメラ
US9658443B2 (en) Optics apparatus with detection of light rays received at different angles for output indicative of aliased views
KR20080108424A (ko) 파면 수차 및 거리 측정 위상 카메라
TWI687661B (zh) 用於確定場景相關電磁場的複振幅的方法及裝置
JP2008249431A (ja) 3次元画像補正方法及びその装置
Chernov et al. 3D dynamic thermography system for biomedical applications
CN110476043B (zh) 用于采集电磁场的波前的断层成像分布的方法和光学系统
CN112132971A (zh) 三维人体建模方法、装置、电子设备和存储介质
de Souza et al. Combining 3D models with 2D infrared images for medical applications
JP5091908B2 (ja) 物体数計測方法、物体数計測装置、物体数計測プログラム及びこのプログラムを記録した記録媒体
RU2773390C2 (ru) Способ определения высотного профиля показателя преломления воздуха объемной области пространства на основе анализа светового поля
Wong et al. 3D reconstruction through the ray calibration of an optically distorted stereo-photogrammetric system
Hu et al. Fast projection based depth for focused plenoptic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130425

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130507

R150 Certificate of patent or registration of utility model

Ref document number: 5269099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250