JP2012531789A - 立体イメージ取得方法、システム及びカメラ - Google Patents

立体イメージ取得方法、システム及びカメラ Download PDF

Info

Publication number
JP2012531789A
JP2012531789A JP2012516929A JP2012516929A JP2012531789A JP 2012531789 A JP2012531789 A JP 2012531789A JP 2012516929 A JP2012516929 A JP 2012516929A JP 2012516929 A JP2012516929 A JP 2012516929A JP 2012531789 A JP2012531789 A JP 2012531789A
Authority
JP
Japan
Prior art keywords
image
sensor
distance
recording
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012516929A
Other languages
English (en)
Other versions
JP5909443B2 (ja
Inventor
フリュッテルス,リュート
ブライン,フレデリック ヤン デ
ニコラエヴィッチ ズナメンスキー,ドミトリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012531789A publication Critical patent/JP2012531789A/ja
Application granted granted Critical
Publication of JP5909443B2 publication Critical patent/JP5909443B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes

Abstract

光学デバイス(8)を有するカメラ及びカメラシステムが供される。光学デバイスは、センサ上のオブジェクトの2つ以上のイメージを同時に生成し、複合イメージを形成する。複合イメージ内での、オブジェクトの構成イメージ間の距離dは、カメラに対する距離Zに依存する。複合イメージは、ダブルイメージ間の距離dを決定するために、解析される(9)、例えばデコンボリューションされる。これらの距離は、その後、深度図(10)へと変換される。

Description

本発明は、イメージデータを記録するためのシステム、イメージデータを記録するための方法及びイメージデータを記録するためのカメラに関する。
近年、3−Dイメージ表示で、3−Dイメージを供することへの大きな関心がある。3−Dイメージは、カラー画像化の後の、イメージングにおける次の大きなイノベーションになるであろうと考えられる。我々はこれから、消費者市場に関して、3D表示の採用の到来にある。
3−D表示デバイスは、通常、イメージが表示されるディスプレイ画面を有する。基本的には、3次元インプレッション(impression)は、ステレオ画像、即ち、ビューアーの2つの目で管理された(directed)、2つのわずかな違いを有するイメージ、により生成され得る。そのようなデバイスの例は、自動立体視ディスプレイである。他のデバイスにおいて、イメージは、全ての方向で送られ、ガラスが、3Dの知覚を与えるために、(複数の)イメージを妨げるように使用される。
どのようなタイプの3−Dディスプレイが使用されても、3−Dイメージ情報は、ディスプレイデバイスに供されなければならない。これは、通常、デジタルデータを含む3−Dイメージ信号の形状でなされる。
3−Dイメージの発生は、従来、追加的な深度図(depth map)によってなされ、前記深度図は、イメージ内のピクセルの深さについての情報を供し、それ故に3D情報を供する。イメージに関する深度図を使用して、左及び右のイメージを、3Dイメージを供して構成することができる。
イメージからの3D情報の復元は、3−Dイメージングに関連する基本的な課題の1つである。深度図を算出する最も一般的な方法は、立体視を使用することである。立体視において、多くの進歩がなされてきたけれども、根本的な対応問題は、現実世界のアプリケーションにおいて、困難なままである。具体的には、2つのカメラの間における、超精密調整の要求が、安価な民生用アプリケーションを妨げる。
単一のイメージから3−D情報を抽出するよう提案される、いくつかの方法がある。これらの方法の1つは、例えば、“depth from defocus”原理を使用することである。この方法において、可変レンズは、領域(scene)に至る焦点面を探索し(sweep)、どの焦点位置で、各々のオブジェクトが最もシャープに観察されるかを決定するように使用される。しかしながら、これは、単一のイメージに関してうまく機能し得るけれども、オブジェクトが動き回っているビデオイメージに関して、これは非常に困難になる。可変レンズを使用して、一方でそれと同時に、内容変化を伴うビデオイメージを記録することは、非常に速い可変レンズ及び非常に速い(massive)計算能力を必要とする、困難な課題を引き起こす。また、それは、従来のカメラにおいて、使用され得ない。もし、それが、必要とされる速度及び範囲の焦点変化(focus variation)を有する可変レンズを有していないなら。
他の方法は、所謂、Time−of−Flight(ToF)原理を使用することである。光は、調節され、オブジェクトに向かって送られ、カメラは、送られた光と受信した光との間の時間遅延を測定する。光が、固定の速度cで伝わるので、人はこの方法で距離を測定することができる。3DVシステム、メサイメージング(Mesa Imaging)及びカネスタ(Canesta)は、ToF技術に基づいて、カメラを開発してきた。しかしながら、それらは、非常に高価であり、限られた空間分解能を有する(例えば、カネスタのセンサに関して、64×64)。それらはまた、従来のカメラに適用することない、又は適用するのが非常に困難である。短い距離では、短い飛行時間により、とにかくどんなものでも(anything at all)測定することが困難となる。今のところ(yet)、他のシステムは、単一のカメラを使用して、イメージの1つが入らないようにするシャッターを使用して、左及び右のイメージを二者択一的に記録する。
左及び右のイメージを二者択一的に記録することは、静止したオブジェクトに関してうまく機能するが、オブジェクトは、イメージを撮影している間にも移動しているので、動いているオブジェクトに関して、左及び右のイメージが同じでないという欠点を有する。左のイメージと右のイメージとの間のオブジェクトの位置の差は、その結果、オブジェクトのレンズに対する距離と同時に、オブジェクトの移動にも依存する。正確な距離の決定を得るために、正確なモーション・サーチ(motion estimation)、さらに(plus)ステレオ・マッチングが実行されなければならない。距離及びモーションの、両方のパラメータは、事前に知られず、また、未知の方法で、時間変動するであろう。それは、正確なモーション・サーチが予定される前の、複数のフレームを必要とする。高速で移動している若しくは一貫性のないモーションを有している、繰り返しパターン若しくはオブジェクトを移動させるといった、状況において、正確なモーション・サーチは、ほとんど不可能である又は全く不可能である(hardly or at all possible)。
したがって、単一のカメラに基づいて、比較的単純な方法で3−D情報を供することが可能で、既存のカメラを使用することができ、上述の問題が低減される、システムに関する要求がある。
この目的に対して、本発明の方法、システム及びカメラは、イメージを記録するための、レンズ及びイメージセンサの前に、前記イメージセンサ上に、同じオブジェクトに関して、2つ以上の重ねあわされた、同時に撮影されたイメージを含む、複合イメージを作り出すための光学デバイスが供され、前記複合イメージ内の、共通するイメージセンサ上の対応するオブジェクトの間の距離は、前記のイメージ化されたオブジェクトの、前記レンズからの距離に依存し、前記複合イメージは、前記センサ上の前記複合イメージ内の対応する前記オブジェクトの間の空間距離を決定するよう解析される、ということで特徴付けられる。
本発明は、複合イメージ、即ち、同時に撮影された左の及び右の(又はそれより多くの方向から撮影された)イメージを含むイメージを作り出す光学デバイスを使用することにより、記録されたオブジェクトの、レンズに対する距離を決定し、それにより、前記記録されたイメージ関する深度図を生成することが可能であるということを、実現している。2つのカメラの必要性が無く、したがって、カメラの正確な調節の必要性が発生しない。イメージは同時に撮影され、したがって、左のイメージ及び右のイメージが撮影されている時間の間の、オブジェクトのモーションによる、動いているオブジェクトの移動が有する問題は、取り除かれる。複合イメージの解析により、例えば、複合イメージのデコンボリューション(deconvolution)により、複合イメージの、同時に撮影された、2つ以上の構成画像を抽出することができる。これにより、記録された複合イメージ内の対応するオブジェクトの間の、ピクセルでの又はcmでの距離を決定することができる。複合イメージ間での距離は、その後、レンズに対する距離に容易に変換され得る。それは、この距離によって決定されるだけであるので。
ダブルイメージを生成する多くの光学デバイスがある。例えば:
−回折格子(grating)。回折格子は、回折により、記録している平面内の、オブジェクトに関するメインイメージとは別の(next to)、(複数の)サイドイメージを生成する。メインイメージ内のオブジェクトと、サイドイメージ内のオブジェクトと、の間の距離は、レンズに対する距離に、直接依存する。この依存性は別として、前記距離は、また、光の波長にも依存する。この実施形態は、既知の波長である又はほとんど単色光である、光の使用がなされる場合に、非常に役に立つ。これは、計算を単純化するので。
−複屈折板。複屈折板は、光の偏光に依存して、2つのイメージを生成するために使用され得る。イメージに関する2つの光軸の間に小さい角度があり、これは、記録している平面内のオブジェクト間の距離が、共通のレンズからのそれらの距離の関数である、ということを意味する。このタイプのデバイスの利点は、回折格子を使用することと比して、それが、光の波長に依存しない又は適度にだけ依存するということである。
−プリズムパターン(prism pattern)。プリズムパターンを使用して、ある距離で隔てられる、同じオブジェクトの2つ以上のイメージを生成することが可能である。このタイプのデバイスの利点は、光の波長に依存しない又は適度にだけ依存するということである。
第1のビュー(view)及び第2のビューを生成するための、ミラー及びビームスプリッタを含む構成。2つのビューがイメージオブジェクト(image objects)へと向けられる角度は、異なる。このタイプのデバイスの利点は、光の波長に依存しない又はほとんど依存しないということである。
2つのミラーの構成であって、その少なくとも1つは、互いに距離を有する2つの反射面を有する、構成。このタイプのデバイスは、光の波長に依存しない又はほとんど依存しないということである。
基本的には、2つの主要タイプがある:
回折格子といった、一方のタイプでは、光は、オブジェクト上のあるポイントから、2つ以上の方向へと向かって進み、種々の位置にあるセンサに達する。単一のビューは、それにより、2つ以上のイメージに分けられ、センサ上のイメージの距離は、オブジェクトの、レンズ又はセンサに対する距離に関する評価基準(measure)である。
ミラー及びビームスプリッタの構成といった、他方のタイプでは、光は、いくつかの基準線によって隔てられた、2つの異なる位置からではあるが、同じ方向へと向かって進む。2つのわずかに異なるビューは、センサ上の複合イメージ内で記録される。
後者のタイプは、第1のタイプと比較して、最前面のオブジェクト(foreground object)の背後を、ある程度見ることが可能であるという、利点を有する。わずかに異なったビューイングポイント(viewing point)が使用されるので。
2つの異なるタイプは、センサに対する距離と、センサ上の対応するイメージ間の距離と、の間で、異なった関係性を有する。
共通の発明概念は、カメラの前に配置された光学デバイスを用いて、イメージセンサ上の同じオブジェクトの2つ以上のイメージを含む複合イメージを生成することであり、複合イメージの2つ以上のイメージは同時に撮影され、構成イメージは、記録された複合画像内の各々に関して、空間的にシフトされ、空間的なシフトは、オブジェクトのカメラに対する距離に依存する。
記録されたイメージは、その後、センサ上の距離を決定するために解析され、オブジェクトのカメラに対する距離を決定することができる。これにより、深度図を作ることが可能となる。
好ましい実施形態において、解析は、更に一歩進めて(one step further)、構成イメージの1つが、記録された複合イメージから再構成されるという点で、もたらされる。これにより、ユーザは、ユーザが見慣れているような(as he is used to see)イメージを見ることができる。
要するに、ソフトウェアは、次に挙げるタスクを実効する:
−回折プロセス(回折格子に関する)又はシフト(shift)(ミラー及びビームスプリッタに関する)による、2つ以上の構成イメージの間の、変位(displacement)を推定する。
−この変位に基づいて、深度図を計算し、そして光学的に、
−手に入れた深度図に基づいて、歪んでいない(undistorted)イメージを再構成する。
再構成されたイメージは、実施形態において、システム又はカメラのディスプレイ上に示され、深度図は、また可視化されても良く、又は、実施形態において、イメージは、2つを単一のイメージへと結合して示されても良い。あるいは、もしカメラが立体視する手段を含むなら、立体イメージが表示されても良い。
ビデオ情報がフレーム内に記憶される実施形態において、本発明のシステム及びカメラは、実施形態において、光学デバイスの作動を制御することにより、複数のシンプルイメージ(simple images)及び複数の複合イメージを含む、複数のフレームを記録するよう準備される(arranged)。
もし、単一のイメージ、即ち、複合化されていないイメージ、が知られているなら、シンプルイメージ上で得られた情報により、複合イメージから、構成イメージを比較的容易に抽出することができる、及び/又は、比較的信頼できて、結果を確認することができる、及び/又は、構成イメージの1つを比較的容易に再構成することができる。しかしながら、本発明に対する本質的要素は、複合イメージが、
1.構成イメージが同時に撮影され、
2.イメージが、同じセンサで記録されて、
撮影されることである。
第1の特徴、即ち、構成イメージを同時に記録すること、は、構成イメージが撮影される時間の間の、オブジェクトのモーションによる、オブジェクトの位置のシフトの如何なる問題を除外する。
第2の特徴は、センサの調整又はセンサ間の差異における、不確実性による、如何なる問題を除外する。好ましくは、構成イメージは、また、レンズの調整を有する如何なる問題を避けるために、同じレンズを通じて撮影される。
好ましくは、構成イメージは、強度の点又は色内容の点のいずれかで異なり、その差異は、比較的小さい。もし、2つのイメージが、同じ内容(content)を有するなら、複合イメージをデコンボリューションする(deconvolute)ことが困難となる。
本発明のこれら及び更なる様態は、添付の図を例として、かつ、参照して、より詳細に説明されるであろう。
図1は、電子イメージデータを記録するための、標準的な方法を説明する。 図2は、本発明に係る方法、システム及びカメラを説明する。 図3は、レンズの前での回折格子の使用を示す、実施形態を説明する。 図4は、レンズに対する格子間隔(grating spacing)dの距離と、複合イメージ内の構成イメージ間の距離と、の間の関係を説明する。 図5は、回折パターンの強度を説明する。 図6は、センサ上の対応するイメージのピクセルでの距離(pixel distance)と、センサに対する距離と、の間の関係を説明する。 図7は、ミラーを含む配置で、ビームスプリッタが使用される、第2の実施形態を説明する。 図8は、センサ上の対応するイメージのピクセルでの距離と、センサに対する距離と、の間の関係を説明する。 図9は、対応するオブジェクトの間の空間距離を、複合イメージから決定するための方法を説明する。 図10は、決定された距離の性質(quality)に関する、評価基準(measure)を説明する。
図1は、イメージを記録するための、システム、方法及びカメラを概略的に説明する。
オブジェクト1は、カメラ2のレンズ3により、とらえられる。イメージは、センサ4、例えば、CCD、上で焦点が合わせられる。このデバイスは、信号を生み出し、それは、例えばエンコーダ5によって信号6へと変換される。エンコーダ5は、ある画像処理をすることができる、さもなければ、イメージ信号を改善することができる。
信号は、エンコードされた形態で又は直接的のいずれかで、イメージ1’を見ることができる、ディスプレイ7を有する表示デバイスに送られ得る。信号6はまた、何らかのタイプの記録媒体上に、記録され得る。
図2は、本発明に係る、イメージデータを記録するための、システム、方法及びカメラを概略的に説明する。
レンズの前に、光学デバイス8が配置される。光学デバイスは、カメラからある距離を有して、又はカメラに取り付けられて、配置され得る。光学デバイスは、センサ上に2つ以上の重ね合わせられたイメージを生成する。ディスプレイ7上において、人は、お互いに関してわずかにシフトされた、2つ以上の構成イメージを見るであろう。シフト(shift)dは、オブジェクトのレンズに対する距離zに関する評価基準である。構成イメージは、同時に記録される。複合イメージの信号6は、複合イメージ内のオブジェクトの距離dを決定し、距離dからイメージに関するz−mapを算出するよう、イメージを解析するアナライザ9へと向けられる。このアナライザは、z−マップを直接決定するために、システム、デバイス及びカメラの一部とすることができる。或いは、複合イメージに関する信号を、z−mapを決定するために、別個のアナライザへと送ることができる。例えば、カメラはイメージを記録することができ、信号は、インターネットを介して、インターネットサイトと関連付けられたアナライザへと送られる。信号6は、また、先ず、電子記録媒体上に記録され、その後に、解析のために、アナライザへと送ることができる。
図3は、光学デバイス、この例では回折格子、が、レンズの前に配置される、本発明の実施形態を説明する。回折格子8は、回折により、ちょうど1つの直接イメージR、即ち、通常の標準的なイメージ、だけでなく、複数の、より高次の(higher order)回折イメージV1及びV2も、センサ上に生成する。データ内に供されたときのイメージは、したがって、直接イメージだけでなく、2つのサイドイメージ(side images)V1’及びV2’も含む。単純化のための目的で、これらのサイドイメージは、各々、“ゴーストイメージ”V1及びV2と呼ばれるであろう。直接イメージRと、ゴーストイメージV1及びV2と、の間の距離dは、光の波長及びオブジェクトのセンサに対する距離の関数として表現され得る。直接イメージは、また、下記で、リアルオブジェクトと呼ばれ、ゴーストイメージは、バーチャルオブジェクトと呼ばれる。
これは、変位dをもたらす、1次回折イメージの主要なラインを概略的に示す図4において、説明される。センサ4は、位置0(ゼロ)にあり、レンズ3は位置L上にあり、回折格子8は位置G上にあり、オブジェクト1は、オブジェクト位置O上にある。
効果が定性的にどのように機能するかを理解して、これより、定量的な関係を推定することができる。図4での概略図を発端として、センサ上のリアルオブジェクトとバーチャルオブジェクトとの間の距離(我々が変位dと呼ぶ)を、距離b(光軸と回折格子の偏向(deflection)ポイントとの間の)で、関連付けることができる:
Figure 2012531789
さらに、回折格子での角度の変化を、回折格子の式によって記述することができる:
Figure 2012531789
式内のdgratingは、回折格子の周期性(periodicity)であり、λは光の波長であり、n=1の回折次数である。小さい角度で機能するとき、これは、次のように近似することができる:
Figure 2012531789
ところで、次のように(小さい角度での近似において)bを計算することができる:
Figure 2012531789
この式からbを取り出すと、次の結果になる:
Figure 2012531789
そしてその式は、変位dを計算するために使用することができる:
Figure 2012531789
そして逆に、我々が変位dを測定したときの、オブジェクトOの距離は:
Figure 2012531789
この実施形態は、オブジェクトのあるポイントから、光が種々の方向へと進む、第1のタイプの光学デバイスの例である。dが測定され、L及びGが知られており、θgratingが、n=1で所定の波長に関して、知られているので、オブジェクトの距離Oを、測定されたdから計算することができる。単純化のために、−1,0,+1の回折次数だけを有する回折格子が、使用され得る;より複雑な構成において、より高次の回折次数を使用しても良い。また、例えば、1次回折パターンへと、より大きな強度を放出する、回折次数が強調される回折格子を構成することができる。主に−1,0,1の回折次数を有する回折格子は、例えば、50%のデューティサイクルを有する、位相格子により得ることができ、回折の成分α(fraction alpha)は、エッチング深さ(etching depth)に直接的に関連している。この場合、イメージ形成プロセスは、図5を参照した、中心に強度1−2αの強いピークと、回折次数に対応する所定の位置での、強度αのより弱いピークと、を有する、オリジナルのイメージ(回折格子無し)の点広がり関数(PSF)での単純なコンボリューションとして、見受けられる(the image formation process can be seen as a simple convolution of the original image (without grating)with a point−spread function (PSF))。サブピークの強度、即ちα、は、回折格子の設計(design)の一部として選択され得、一度測定される必要があるだけである。
入ってくる信号F(x)は、回折シグナルを供与する。
Figure 2012531789
このPSFは、Z−ドメイン(又はフーリエ空間)で、次のように、数学的に表現され得る:
Figure 2012531789
取得された複合イメージから深度図を得るために、イメージの一部に関して変位dを推定し、対応するオブジェクト距離Oを、変位方程式で計算すべきである。
文献で知られている、種々の推定方法があり、我々は、首尾よく、下記を試している。イメージウィンドウ(x−座標x及びy−座標yによって定義された)と、両側でのdシフトしたウィンドウとの間で相関関係にある、サブピークを見つけることにより、局所的な(local)変位dを推定することができる。
Figure 2012531789
相関関係は、もしシフトdが、回折によるシフトに等しいなら、最も高くなるであろう。その結果、ウィンドウに関して、dに関する値を見つける。
一般的に知られているように、そのような相関関係は、DCが抑制されるときに、はるかに良好に機能する。これは、イメージを、ハイパスフィルタ(例えば、微分フィルタ(derivative filter)[+1,−1])でプレフィルタリングすることにより、達成され得る。
オブジェクトの深さは知られているから、αの小さい値に関して、z−ドメインで、次のFIR(有限インパルス応答)フィルタを用いて近似され得る、回折格子のPSFを反転させることにより、回折格子の効果を外すよう試みることができる:
Figure 2012531789
液体焦点/自動焦点レンズを、その方法に付け足すこともできる。これは、利点として、焦点ボケ(defocus blur)を最小にすることができ、よりはっきりしたPSF推定をもたらす。
図6は、レンズ距離が250mmで、おおよそ650nmの波長を有する光に関する、距離Oの関数としての、ピクセルでの測定された変位dに関する、実験的な結果を示す。実験結果は、種々の回折格子に関して、数が、mmあたりのラインの数を表して、与えられる。
上で説明された実施形態は、回折格子により、同じオブジェクトの2つ以上の(この場合は3つであり、中央のイメージ及び2つのゴーストイメージである)イメージが、センサ上に作られる、デバイスを使用する。オブジェクト間の距離dは、オブジェクトのセンサに対する距離dに関する、かつ、同様に前述の構成要素に対する、知られているレンズの距離(L)及び回折構成の距離(G)を有する、評価基準である。
これらの実施形態は、それらは機能するが、欠点を有する;回折格子の回折は、波長依存性である。使用が、単一の波長λ、又はほとんど単一の波長、又は支配的な波長を有する光でなされるとき、これは問題ではない。したがって、例えば、この実施形態は、ある知られた波長の人工光が当てられた、監視カメラが測定している領域で使用されて、非常に効果的になり得る。より洗練された場合において、距離dを探索するための解析は、イメージ内で入手可能である、色情報を使用することができる。距離Oのおおまかな第1の近似は、色内容に依存する距離dを使用して為すことができ、続いて、色内容を使用して、より詳細な決定を為すことができる。
回折格子はまた、例えば、LCDセルに基づく回折格子であることができる、その回折格子は、例えば、LCDセルの透明度を調節することにより、自由自在にスイッチを入れたり、切ったりすることができる。あるいは、どこでも1の透明度(transparency)を有するが、調整は光学屈折率n内である、振幅変調よりも、より効率的である、位相調整マスクを使用することができる。1つの偏光子及びLCだけが、そのとき、必要とされる。回折格子のスイッチを入れたり、切ったりすることにより、カメラは、全てのセルが透明であるときに正常な2Dイメージを供する、‘通常の’カメラ及び“3−Dカメラ”として使用され得る。回折格子を、セルのブロッキングラインによってモデル化することにより(by simulating a grating by blocking lines of cells)。
回折格子が切替可能である実施形態において、デバイスを、多数のフレームを記録するよう手配することができる。フレームのいくつかは、回折格子の使用無しで、フレームのいくつかは、回折格子を使用して。例えば、回折格子は、1秒あたり、25の複合イメージが挟みこまれた25の単純イメージが(per second 25 simple images interleaved with 25 compound)、記録されるよう、作動され得る。
これは、多数の可能性を開き、例えば:
−複合イメージ及び通常のイメージの両方を、同じ信号で供する。通常のイメージは、その後、例えば、カメラのディスプレイに送られ、操作者は、‘通常のイメージ’を見る。一方で、複合イメージは、記憶され、及び/又は解析される。
−解析を単純化し、通常のイメージのフレームは、解析のための、良好な開始点(starting point)を形成する。
しかしながら、そのような実施形態において、動的システム(dynamic system)が使用されるけれども、それは、複合イメージが、同時に記録された複数のビューを含むという、本質的要素を残す。この例において、3つのビューがある:中央のビュー及び2つのサイドビューである。
図7は、本発明の他の実施形態を説明する。この実施形態において、光学デバイスは、ミラー72及びビームスプリッタ74を含む構成を含む。ダイレクトビュー(direct view)71は、ビームスプリッタを通じて記録され、ミラー72は、サイドビュー73を反射し、それは、その後、ビームスプリッタによって反射され、また、カメラ2のレンズに進入する。減光フィルタ75が、ビームスプリッタが、50%/50%ビームスプリッタである場合に、ミラーの前に供される。この例示された実施形態の記述において、第1のビューが“ダイレクトビュー”と呼ばれ;第2のビューが“サイドビュー”と呼ばれる。しかしながら、これは、制限するものとして取られるべきでない;少なくとも2つのビューがあり、この実施形態において、ビューの1つは、‘ダイレクトビュー’と呼ばれ得る。他の実施形態において、ビューの両方が、サイドビューとなり得る。わずかに左からの一方と、わずかに右からの他方である。また、それは、2つのビューであるという制限ではない;2つより多くのビューを同時に撮影することができる。ミラー及びビームスプリッタを有する配置は、例えば、横変位ビームスプリッタといった、これらの要素の組み合わせを含む。このタイプのデバイスは、光が、ベースラインによって、センサに向かう同じ方向へと分けられた、2つの異なる位置から来る。
光学要素は、好ましくは、図1を参照して(see Figure 1)、例えば40%/60%の、非対称な光強度分布を有するビームスプリッタ、その他にも、サイドビューの前に、減光フィルタを有する50%/50%ビームスプリッタである。カメラ2のセンサ4により取得されたイメージは、次のように形作られる(modelled)。
Figure 2012531789
式中、0.5より小さいαは、複合イメージIsensor(x,y)中のサイドビューからの寄与を表すパラメータであり、d(x,y)は、ビームスプリッタによる視差(disparity)(2つのイメージの対応する部分のセンサ上での距離)である。視差d(x,y)は、図8で説明されるように、オブジェクトに向かう距離D(x,y)と、ベースラインバンド、カメラ内のレンズとセンサとの間の距離Lといった(such as base line band the distance L between the lens and the sensor in the camera)、光学システムのパラメータと、の関数である。
Figure 2012531789
したがって、深さ推定(depth estimate)D(x,y)は、結合イメージIsensor(x,y)上の視差d(x,y)の目算(estimate)に相当する。このタイプの光学デバイスに関する、Dとdとの間の関係は、図3の回折格子によって説明されたような、第1のタイプに関するOとdとの間の関係とは、少し異なっているということが言及され得る。これは有利である。
例として、かつ、上述された実行可能なアルゴリズムに加えて、下記に、結合イメージIsensor(x,y)から、視差マップ及びダイレクトビューIdirect(x,y)を見出す、反復アルゴリズムを説明する。
アルゴリズムは反復性であり、全ての反復において、ダイレクトイメージの近似(値)(direct image approximation)Iout(x,y)及び深度図の近似(値)(depth map approximation)dout(x,y)は、結合イメージIsensor(x,y)と、ダイレクトイメージの近似Iout(x,y)及び深度図の近似dout(x,y)に関する以前の値と、から算出される。
Figure 2012531789
アップデートされた近似値は、Iout(x,y)=I(x,y)で、dout(x,y)=d(x,y)であるように初期化され、その後、それらは、ブロックベース(block basis)でアップデートされる。ブロックの大きさ(dimentions)Δ、Δは、アルゴリズムのパラメータである。Iout(x,y)及びdout(x,y)は、その後、3D回帰探索3DRSによりアップデートされる。3DRSによると、全てのイメージブロックを連続して処理し、全てのブロックに関して、複数の深さ候補値(candidate)を評価する。候補値は、隣接するブロック及びランダムのアップデートの値の入り混じりである(the mixture of values of neighbouring blocks and the random updates)。候補値を供する隣接したブロックの位置は、例えば、深さの候補値を供する、ブロックの例示された位置を示す、図9を参照して、ブロックの格子(grid)上のスキャン方向に依存し得る。図9において、既に処理されたブロックは、文字aで、現在の部炉置くは文字Cで、“空間的に”隣接しているブロックは文字Bで、“一次的な”隣接しているブロックは、文字Dで与えられる。矢印は、処理方向を示す。
ランダムの候補は、他の候補の値に対して、ランダムのアップデートを加えることによって得られうる。各々の候補は評価され、その後、最善のものが選択され、進行中のブロックで、dout(x,y)の値を供する。評価プロセスは、3つの段階から成る:第1は、進行中のブロックでの、dout(x,y)の値が、評価された候補の値へと変えられる。第2は、深度図を考慮して(given)、結合イメージIsensor(x,y)が、局所的に(部分的に)デコンボリューションされる(de−convolved)。(部分的な)デコンボリューションは、多くの方法で為すことができる。例えば、進行中のブロックの近辺で、ガウス−ザイデル デコンボリューション法の複数の反復を使用することができる:
Figure 2012531789
第3の段階で、進行中のブロックの近辺における、Iout(x,y)の品質は、非基準の(no−reference)品質測定法により評価される。この目的のために、例えば、次を使用することができる。
Figure 2012531789
式中、Bは、進行中のブロックについての、ある領域(some neighbourhood)である。品質測定を最大化する候補値が、進行中のブロックでの、dout(x,y)の値を供する最良のものとして、選択される。
ここで留意すべきは、候補値の各々の評価の後、I out(x,y)の値を初期の状態へと復元し、全ての評価の後、dout(x,y)の値がアップデートされるとき、進行中のブロックの領域内にあるIout(x,y)を(部分的に)デコンボリューションする。
上述された、深さ検出の方法は、最適性能のために最適化され得る、多数のパラメータを有する。
まず第1に、結果は、強度の混合(mix of intensities)、即ち、αに関する値、に依存し、非常に良好な結果は、0.28と0.49との間、又は、0.51と0.72との間、例えば、α≒0.45、で得られうるということがわかった。これは、イメージの一方、Idirect又はIsideのいずれか、は、他方のイメージの強度よりも、より高い、4%から133%までの間の強度を有するということを意味する。図10は効果を説明する。横軸は、αに関する値を与え、縦軸の誤差は、真値(true value)に関する、計算された視差内の平均2乗誤差(MSE)である。明らかな最小値が、α=0.45付近、特にα=0.42及び0.48の間、に現れる。好ましくは、ダイレクトビューイメージは、サイドビューよりも、より高い強度を有する。ダイレクトビュー内に大部分の強度を有することが、有利となる場合に、ダイレクトビューが、何らかの目的で、最良に再構築され得る(For some purposes the direct view can best be reconstructed, in which case it is advantageous to have most of the intensity in the direct view)。構成イメージが、等しい強度であるとき、2つのイメージを区別することが非常に困難となり、その方法は非常に複雑になる。イメージの一方が、他方と比して非常に弱いとき、このイメージは、区別することが困難となる。
深さ推定の質の、サイドビュー(alpha)からの寄与因子への依存性が、次のように調査された。所定の深度図に関してビームスプリッタで取得されたイメージが、モデル化された。その後、モデル化された複合イメージから、深度図を評価するために、記載されているデコンボリューションアルゴリズムを使用した。使用された深度図と評価された深度図との間の平均2乗誤差は、品質基準として取られた。図10において、アルファからの品質基準の依存性が与えられる。図は、最良の結果が、[0.28, 0.48]内のアルファで達成され得るということを示し、これは、ダイレクトビューの強度と、サイドビューの強度との間の割合1.07−2.57(=(1−α)/α)に対応する。最小値は、0.42と0.47との間のアルファである。
第2に、アルゴリズムは、複数の反復を仮定するので、各々の反復に関して、異なるΔ、Δを選択することができる。通常、Δ、Δの大きい値は収束(convergence)を改善する一方で、より小さい値は、近似された深度図の空間分解能を改善する。我々の評価内において、各々の反復で減少するΔ、Δで、最良の結果を得た。例えば、800×576のピクセルを有するイメージに関して、第1の反復で、Δ=Δ=16を、第2の反復で、Δ=Δ=8を、第3の反復で、Δ=Δ=4を、使用した。そのような実施形態は、結果物の迅速な収束と、高い分解能とを兼ねる。
回折格子を有する実施形態あるように、減光フィルタは、時間切替可能である又はまさに時間調節され得、その減光フィルタ(neutral filter)がオン又はオフであるかどうかに依存した、2つの目的を兼ねた使用、即ち、通常の2Dカメラ及び3Dカメラのような、可能性を供する。また、フレームの連続において、そこでは、多数のフレームは、ダイレクトビュー(又はサイドビュー)だけを表す非複合イメージを含み、かつ、多数のフレームは、複合イメージを含む(Also sequences of frames wherein a number of frames comprise a non−compound image presenting only a direct view (or side view) and a number of frames comprise compound images)。
減光フィルタは、また、空間的変動を有し得る。これにより、サイドビューは、空間フィルタリングを用いて、より容易にダイレクトビューから区別することができ、解析に関する入力データとなり得て、より迅速な及び/又はより正確な視差の決定を可能にする。しかしながら、たとえイメージのいくらかは複合物であり、いくらかは単一物であるとしても複合化されたイメージの構成イメージは、同時に撮影されるということが、本質である。構成イメージの同時記録は、オブジェクトの移動が有する問題を排除する。この観点において、左及び右のビューでの、オブジェクト間のピクセルで計測された距離は、通常、数十ピクセルであるということが言及され得る。この距離での差異が、深さの大きさ(measure)であり、したがって、通常、数十ピクセルより小さいピクセル(lower tens of pixels)内にある。フレーム間でのオブジェクトの移動は、ピクセルでの同様の距離を供し得る。
したがって、異なる時間で撮影された、即ち多層構造でない、左のイメージ及び右のイメージを比較することは、ほんの1フレームが別々になっても、事態を複雑にする。動いているオブジェクトに関して、オブジェクトのモーションを知らなければならないだろう。オブジェクトのモーションの正確な測定を取得することは、複数のフレームを必要とする。移動が知られているときにだけ、動いているオブジェクトに関する測定された距離を、深さを測定することができる、視差によるピクセルでの距離と、深さと直接関連がない、移動によるピクセルでの距離と、に分類することが可能である。移動しているオブジェクトに関する正確な深さ測定を得るために、比較的大きな数のイメージのデータが、解析されなければならない。通常、モーションにおける複数のさらなる仮定をなさなければならない。例えば、モーションが、フレーム間で、多かれ少なかれ同じである、又は直線的に変化しているという。全面的に、これは、複雑な計算につながり、移動の決定での、そのような如何なる不正確さでさえ、視差の、したがって、深さの決定での不正確さにつながる。具体的な問題は、移動しているオブジェクトが、繰り返しパターンを含むときに起こる。もし、フレーム間で、繰り返しパターンが1段階変わるように、オブジェクトがふと移動するなら、不可能ではないにしても、正確にモーション推定を供することは非常に困難になる。複合イメージの構成イメージを同時に記録することにより、モーションに付随する如何なる問題も排除される。更なる問題は、カメラからは離れて移動する又はカメラに向かって移動するオブジェクトに関して生じる。そのような移動を正確に推定することは、非常に困難である。
実施形態において、複合イメージはさておき、単一のイメージが撮影され得るという事実は、この事実を認めない(does not defer from)。単一のイメージ(中央、左又は右のイメージ)により、結果の確認ができ、これにより、深さのより正確な決定及び/又は複合イメージから構成イメージに一方又は両方を、より容易に分ける(distract)ことができる。
カメラのビューアーには、実施形態において、複合イメージでななく、非複合イメージが表示される。複合イメージを見ることは、人間に、不安を生じさせる。実施形態において、カメラはまた、z−map又は両方のパラメータを結合する映像を可視化する、奥行きイメージを直接表示することができる。
イメージを可視光で撮影することができるが、赤外光で同様に良好である。赤外線カメラは、ダブル複合イメージ(double compound image)を生成するために、光学デバイスを用いて供され得、ソフトウェアは、ダブルイメージから非複合イメージを生成し、イメージ強度は、熱をこらえ(stands for heat)、更に、カラーコードが、センサに対する距離に依存して、オブジェクトに対して使用される。これにより、ナイトゴーグルを使用している観察者は、暗闇の中で移動するときに、人やオブジェクトを見ることができるだけでなく、これらの人やオブジェクトが観察者からどれくらい離れているかが、即座に知ることができる。
要約すると、本発明は次のように述べることができる:
カメラ及びカメラシステムは、光学デバイス(8)で供される。光学デバイスは、複合イメージを形成するために、センサ(4)上に、オブジェクトの2つ以上のイメージを同時に生成する。複合イメージ内のオブジェクトの構成イメージ間の距離dは、カメラに対する距離Zに依存する。複合イメージは、ダブルイメージ間の距離dを決定するために、解析される(9)、例えばデコンボリューションされる。これらの距離は、その後、深度図(10)へと変換される。
本発明はまた、プログラムが、コンピュータ上で動くときに、本発明に係る方法を実行するための、プログラムコード手段を含む、コンピュータプログラム及び、本発明に係る方法を実行するための、コンピュータ可読媒体上に保存された、プログラムコード手段を含むコンピュータプログラムプロダクトに関連する。
特許請求の範囲内において、丸括弧間に配置された如何なる参照符号は、特許請求の範囲を制限するよう解釈されるべきでない。
“含む”なる語は、特許請求の範囲内に配置された要素又は段階より他の要素又は段階の存在を除外しない。本発明は、上述された種々の異なる好ましい実施形態の特徴の如何なる組み合わせによっても、実行され得る。
カメラは、イメージを作る如何なるデバイスである。それは、また、そのような通信といった他の目的で使用される、又は、そのような通信装置に取り付けられる、一体化される若しくは協力する、デバイスの一部でもあり得る。
左及び右のイメージを二者択一的に記録することは、静止したオブジェクトに関してうまく機能するが、オブジェクトは、イメージを撮影している間にも移動しているので、動いているオブジェクトに関して、左及び右のイメージが同じでないという欠点を有する。左のイメージと右のイメージとの間のオブジェクトの位置の差は、その結果、オブジェクトのレンズに対する距離と同時に、オブジェクトの移動にも依存する。正確な距離の決定を得るために、正確なモーション・サーチ(motion estimation)、さらに(plus)ステレオ・マッチングが実行されなければならない。距離及びモーションの、両方のパラメータは、事前に知られず、また、未知の方法で、時間変動するであろう。それは、正確なモーション・サーチが予定される前の、複数のフレームを必要とする。高速で移動している若しくは一貫性のないモーションを有している、繰り返しパターン若しくはオブジェクトを移動させるといった、状況において、正確なモーション・サーチは、ほとんど不可能である又は全く不可能である(hardly or at all possible)。
US6807295には、レンズの後に、エントランスレンズ(entrance lens)の異なる部分から光が通る、2つの小さい開口部を有するマスクが供される、システムが記載されているということがわかる。レンズの後のマスク内の開口部の供与は、焦点が合っていないイメージについて、オブジェクトに関する種々のスポットを供する。焦点がはずれたスポット間の距離は、焦点が合っているオブジェクトに関してゼロであり、オブジェクトの焦点がはずれるにつれて増加する。この構成を、従来のカメラに関して、容易に使用することはできない。
この目的に対して、本発明の方法、システム及びカメラは、イメージを記録するための、レンズ及びイメージセンサの前に、前記イメージセンサ上に、同じオブジェクトに関して、2つ以上の重ねあわされた、同時に撮影されたイメージを含む、複合イメージを作り出すための光学デバイスが供され、前記複合イメージ内の、共通するイメージセンサ上の対応するオブジェクトの間の距離は、前記のイメージ化されたオブジェクトの、前記レンズからの距離に依存し、前記の2つ以上の重ねあわされたイメージは、共通のレンズによって、共通の前記イメージセンサ上にイメージ化され、前記複合イメージは、前記センサ上の前記複合イメージ内の対応する前記オブジェクトの間の空間距離を決定するよう解析される、ということで特徴付けられる。

Claims (15)

  1. イメージを記録するためのイメージセンサの前に、光学デバイスが、前記センサ上に複合イメージを作り出すために供され、前記複合イメージは、同じオブジェクトについての、同時に撮影された、2つ以上の重ねあわされたイメージを含み、
    共通の前記イメージセンサ上の対応する複数のオブジェクト間の、前記複合イメージ内での空間距離は、イメージ化された前記オブジェクトの、前記レンズからの距離に依存し、
    前記複合イメージは、前記センサ上の前記複合イメージ内の対応する前記複数のオブジェクト間の前記空間距離を決定するために解析される、
    イメージデータを記録するための方法。
  2. イメージウィンドウ内のピクセルに関して、相関関係にあるピークが、イメージウィンドウのシフトに関して計算される、請求項1に記載のイメージデータを記録するための方法。
  3. 反復プロセスにおいて、全ての反復で、ダイレクトイメージの近似値Iout(x,y)及び深度図の近似値dout(x,y)は、結合されたイメージIsensor(x,y)と、深度図の近似値d(x,y)及びダイレクトイメージの近似値I(x,y)の以前の値と、から算出される、請求項1に記載のイメージデータを記録するための方法。
  4. 前記光学デバイスは、回折格子を含む、請求項1乃至3のいずれか一項に記載のイメージデータを記録するための方法。
  5. 前記光学デバイスは、ミラー及びビームスプリッタを含む、請求項1乃至3のいずれか一項に記載のイメージデータを記録するための方法。
  6. 前記光学デバイスは、単一のイメージが記録される第1の作動状態と、前記複合イメージが記録される第2の作動状態と、の間で切替可能であるよう構成される、請求項1乃至5のいずれか一項に記載のイメージデータを記録するための方法。
  7. 第1のビューが第1の強度(Idirect)で記録され、第2のビューが第2の強度(Iside)で記録され、
    前記強度間の比は、1.04と2.57との間、又は、1/2.57と1/1.04との間である、
    請求項3に記載のイメージデータを記録するための方法。
  8. レンズと、
    イメージセンサと、
    前記レンズの前に、同じオブジェクトについての、同時に撮影された、2つ以上の重ねあわされたイメージを含む、前記センサ上の複合イメージを作り出すための光学デバイスと、
    を含み、
    共通の前記イメージセンサ上の対応する複数のオブジェクト間の、前記複合イメージ内での空間距離は、イメージ化された前記オブジェクトの、前記レンズからの距離に依存する、
    イメージデータを記録するためのシステム。
  9. 前記光学デバイスは、単一のイメージが記録される第1の作動状態と、前記複合イメージが記録される第2の作動状態と、の間で切替可能である、請求項8に記載のイメージデータを記録するためのシステム。
  10. 前記システムは、前記センサ上の前記複合イメージ内の対応する前記複数のオブジェクト間の、前記空間距離を決定するために、前記複合イメージを解析するためのアナライザを含む、請求項8又は9に記載のイメージデータを記録するためのシステム。
  11. 前記光学デバイスは、回折格子を含む、請求項8乃至10のいずれか一項に記載のイメージデータを記録するためのシステム。
  12. 前記光学デバイスは、ミラー及びビームスプリッタを含む、請求項8乃至10のいずれか一項に記載のイメージデータを記録するためのシステム。
  13. レンズと、
    イメージセンサと、
    前記レンズの前に、同じオブジェクトについての、同時に撮影された、2つ以上の重ねあわされたイメージを含む、前記センサ上の複合イメージを作り出すための光学デバイスと、
    記録された前記複合イメージに対応するイメージ信号を出力するための出力と、
    を含み、
    共通の前記イメージセンサ上の対応する複数のオブジェクト間の、前記複合イメージ内での空間距離は、イメージ化された前記オブジェクトの、前記レンズからの距離に依存する、
    イメージデータを記録するためのカメラ。
  14. ディスプレイを有し、
    非複合イメージ及び/又は推定された深度図及び/又はイメージ情報及び深さ情報を供するイメージが、前記カメラの前記ディスプレイ上に表示される、
    請求項13に記載のカメラ。
  15. コンピュータプログラムであって、
    請求項1乃至7のいずれか一項に記載の方法を実行するためのプログラムコード手段を含み、
    当該プログラムは、コンピュータ上で動く、
    コンピュータプログラム。
JP2012516929A 2009-06-25 2010-06-21 立体イメージ取得方法、システム及びカメラ Expired - Fee Related JP5909443B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09163727 2009-06-25
EP09163727.2 2009-06-25
PCT/IB2010/052801 WO2010150177A1 (en) 2009-06-25 2010-06-21 Stereoscopic image capturing method, system and camera

Publications (2)

Publication Number Publication Date
JP2012531789A true JP2012531789A (ja) 2012-12-10
JP5909443B2 JP5909443B2 (ja) 2016-04-26

Family

ID=42710495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012516929A Expired - Fee Related JP5909443B2 (ja) 2009-06-25 2010-06-21 立体イメージ取得方法、システム及びカメラ

Country Status (7)

Country Link
US (1) US9131221B2 (ja)
EP (1) EP2446638B1 (ja)
JP (1) JP5909443B2 (ja)
KR (1) KR101945533B1 (ja)
CN (1) CN102461186B (ja)
RU (1) RU2538937C2 (ja)
WO (1) WO2010150177A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015501416A (ja) * 2011-09-28 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ 画像からの物体距離決定
KR20200094062A (ko) * 2019-01-29 2020-08-06 한국과학기술원 렌즈리스 초분광 영상 이미징 방법 및 그 장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT511312B1 (de) * 2011-03-18 2016-07-15 Martin Waitz Verfahren zum fokussieren einer filmkamera
CN102761768A (zh) * 2012-06-28 2012-10-31 中兴通讯股份有限公司 一种实现立体成像的方法及装置
KR102062765B1 (ko) 2012-09-18 2020-02-11 삼성전자주식회사 이미지 변환 메커니즘을 갖춘 3d 이미지 캡쳐 시스템과 그 사용 방법
KR101370718B1 (ko) * 2012-10-26 2014-03-06 한국과학기술원 파노라마 이미지를 이용한 2d에서 3d로의 변환 방법 및 장치
EP4016981A3 (en) * 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
US9354488B2 (en) * 2014-05-23 2016-05-31 Howard Preston Methods, apparatuses, systems and software for focusing a camera
WO2016137624A1 (en) * 2015-02-24 2016-09-01 Rambus Inc. Depth measurement using a phase grating
KR101714224B1 (ko) * 2015-09-21 2017-03-08 현대자동차주식회사 센서 융합 기반 3차원 영상 복원 장치 및 방법
CN105809717B (zh) * 2016-03-10 2019-01-11 上海玮舟微电子科技有限公司 一种深度估计方法、系统及电子设备
US9648225B1 (en) 2016-05-10 2017-05-09 Howard Preston Method, apparatus, system and software for focusing a camera
TWI630431B (zh) * 2016-08-26 2018-07-21 光寶電子(廣州)有限公司 用於捕捉立體影像的裝置及系統
JP7266523B2 (ja) 2016-12-15 2023-04-28 コーニンクレッカ フィリップス エヌ ヴェ 出産前超音波イメージング
US10523961B2 (en) 2017-08-03 2019-12-31 Samsung Electronics Co., Ltd. Motion estimation method and apparatus for plurality of frames
RU2656785C1 (ru) * 2017-08-03 2018-06-06 Самсунг Электроникс Ко., Лтд. Оценка движения путем трехмерного рекурсивного поиска (3drs) в реальном времени для преобразования частоты кадров (frc)
CN108876833A (zh) * 2018-03-29 2018-11-23 北京旷视科技有限公司 图像处理方法、图像处理装置和计算机可读存储介质
TWI719440B (zh) * 2018-04-02 2021-02-21 聯發科技股份有限公司 立體匹配方法及相應立體匹配裝置
CN112835192B (zh) * 2021-01-18 2023-01-24 浙江未来技术研究院(嘉兴) 一种面向手术显微镜的立体图像互补增强装置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08511876A (ja) * 1993-05-05 1996-12-10 アリオ,ピエール 自己立体鏡的な像を形成する装置
JP2001016612A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像撮像方法
JP2002528746A (ja) * 1998-10-20 2002-09-03 エリク ベーレ ソーレンセン,スベン マルチクローム・フィルタを使って立体画像をカラーで記録および視覚するための方法
JP2003004441A (ja) * 2001-06-18 2003-01-08 Hitachi Ltd 距離計測方法および距離計測機能を有する画像入力装置
JP2006154506A (ja) * 2004-11-30 2006-06-15 Nikon Corp 光学素子および焦点検出装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1115873A (zh) * 1995-08-01 1996-01-31 王元庆 一步法立体摄影镜头
EP0908060A4 (en) * 1996-06-28 2004-04-28 Stanford Res Inst Int SMALL IMAGE MODULES FOR REAL-TIME STEREO AND MOTION ANALYSIS
RU2221350C2 (ru) * 1999-05-25 2004-01-10 АРСЕНИЧ Святослав Иванович Стереоскопическая система
US6807295B1 (en) 1999-06-29 2004-10-19 Fuji Photo Film Co., Ltd. Stereoscopic imaging apparatus and method
DE10041053A1 (de) 2000-08-22 2002-03-14 Vision Drei Ges Fuer Audiovisu Objektivvorsatz
KR100378988B1 (ko) * 2000-10-27 2003-04-08 한국과학기술연구원 반도체 패키지의 삼차원 시각 검사방법
JP3809359B2 (ja) * 2001-10-18 2006-08-16 キヤノン株式会社 立体撮像レンズ装置および立体撮像システム
CN100462775C (zh) * 2005-06-27 2009-02-18 索尼株式会社 三维图像显示装置
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
EP1984785B1 (en) * 2006-02-13 2014-05-07 3M Innovative Properties Company Monocular three-dimensional imaging
WO2008133959A1 (en) * 2007-04-23 2008-11-06 California Institute Of Technology Single-lens 3-d imaging device using a polarization-coded aperture maks combined with a polarization-sensitive sensor
RU2340116C1 (ru) * 2007-05-15 2008-11-27 ГОУ ВПО "Саратовский государственный университет им. Н.Г. Чернышевского" Способ воспроизведения стереоскопического изображения от видеокамер со сходящимися осями
US8400493B2 (en) * 2007-06-25 2013-03-19 Qualcomm Incorporated Virtual stereoscopic camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08511876A (ja) * 1993-05-05 1996-12-10 アリオ,ピエール 自己立体鏡的な像を形成する装置
JP2002528746A (ja) * 1998-10-20 2002-09-03 エリク ベーレ ソーレンセン,スベン マルチクローム・フィルタを使って立体画像をカラーで記録および視覚するための方法
JP2001016612A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像撮像方法
JP2003004441A (ja) * 2001-06-18 2003-01-08 Hitachi Ltd 距離計測方法および距離計測機能を有する画像入力装置
JP2006154506A (ja) * 2004-11-30 2006-06-15 Nikon Corp 光学素子および焦点検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015501416A (ja) * 2011-09-28 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ 画像からの物体距離決定
KR20200094062A (ko) * 2019-01-29 2020-08-06 한국과학기술원 렌즈리스 초분광 영상 이미징 방법 및 그 장치
KR102269229B1 (ko) 2019-01-29 2021-06-25 한국과학기술원 렌즈리스 초분광 영상 이미징 방법 및 그 장치

Also Published As

Publication number Publication date
KR20120097368A (ko) 2012-09-03
CN102461186B (zh) 2015-09-23
KR101945533B1 (ko) 2019-02-07
RU2538937C2 (ru) 2015-01-10
CN102461186A (zh) 2012-05-16
US20120162375A1 (en) 2012-06-28
RU2012102418A (ru) 2013-07-27
EP2446638A1 (en) 2012-05-02
JP5909443B2 (ja) 2016-04-26
EP2446638B1 (en) 2016-12-28
US9131221B2 (en) 2015-09-08
WO2010150177A1 (en) 2010-12-29

Similar Documents

Publication Publication Date Title
JP5909443B2 (ja) 立体イメージ取得方法、システム及びカメラ
US10291894B2 (en) Single-sensor system for extracting depth information from image blur
Dufaux et al. Emerging technologies for 3D video: creation, coding, transmission and rendering
US9800856B2 (en) Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
Bishop et al. Full-resolution depth map estimation from an aliased plenoptic light field
JP6565371B2 (ja) 多視点画像システムの視差推定
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US10565717B2 (en) Depth sensing systems and methods
WO2012056685A1 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
JP2007295326A (ja) 多焦点撮像装置
JP2007288784A (ja) 非偏光状態の光により照明されたシーンの画像からアルファマットを抽出する方法
Navarro et al. Depth-of-field enhancement in integral imaging by selective depth-deconvolution
CN111465885A (zh) 用于对标准图像和全光图像的同时捕捉的设备和过程
KR101994473B1 (ko) 평면이미지의 리포커싱 방법, 장치 및 기록매체에 저장된 프로그램
JPWO2019171691A1 (ja) 画像処理装置、および撮像装置、並びに画像処理方法
JP5846895B2 (ja) 画像処理システム及びそれを備えた顕微鏡システム
Goldlücke et al. Plenoptic Cameras.
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
KR101737260B1 (ko) 영상간 피사계 심도 차이에서 깊이를 추출하는 카메라 시스템 및 그 동작 방법
JP2009211254A (ja) 画像処理ユニット、複眼撮像装置、画像処理方法、および画像処理プログラム
KR20150047604A (ko) 물체 공간의 물정의 기술을 위한 방법 및 이의 실행을 위한 연결
Damghanian et al. Spatial resolution in a multi-focus plenoptic camera
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP3852285B2 (ja) 3次元形状計測装置および3次元形状計測方法
Kunnath et al. Depth from Defocus on a Transmissive Diffraction Mask-based Sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5909443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees