JP2013531309A - 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム - Google Patents

画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム Download PDF

Info

Publication number
JP2013531309A
JP2013531309A JP2013517609A JP2013517609A JP2013531309A JP 2013531309 A JP2013531309 A JP 2013531309A JP 2013517609 A JP2013517609 A JP 2013517609A JP 2013517609 A JP2013517609 A JP 2013517609A JP 2013531309 A JP2013531309 A JP 2013531309A
Authority
JP
Japan
Prior art keywords
image
virtual camera
camera position
images
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013517609A
Other languages
English (en)
Other versions
JP2013531309A5 (ja
JP6279321B2 (ja
Inventor
ハロルド アグネス ウィルヘルムス シュミッツ
ブルアイン フレデリック ジャン デ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2013531309A publication Critical patent/JP2013531309A/ja
Publication of JP2013531309A5 publication Critical patent/JP2013531309A5/ja
Application granted granted Critical
Publication of JP6279321B2 publication Critical patent/JP6279321B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Abstract

画像捕捉装置のアレイから仮想出力画像を供給するための方法及びシステムにおいて、画像データI1(s,t)、I2(s,t)は、装置C1、C2からとられる。この画像データは、画像データを関数、例えば経路Sと畳み込み、その後、加算SUMの後又は前に、これらを、オールフォーカス画像データI0(s,t)を作るために、点広がり逆関数IPSF又は点広がり逆関数と等価のフィルタHPとデコンボルーションすることにより処理される。

Description

本発明は、異なる視点から多くの個別の画像を捕捉するための画像捕捉装置のアレイにより供給される個別の入力画像の入力画像データから、仮想出力画像のための出力画像データを作る方法に関し、当該方法は、シーンの複数の深度レイヤに基づく個別の入力画像の対応する画素値の加算及び逆フィルタリングを有する。
本発明は、また、画像捕捉装置のアレイにより得られる入力画像から仮想出力画像を構築するためのシステムに関し、当該システムは、異なる視点から画像を捕捉するための画像捕捉装置のアレイを有し、当該システムは、画像捕捉装置のアレイからの画像データを捕捉するための手段と、シーンの複数の深度レイヤに基づいて個別の入力画像の対応する画素値の加算及び逆フィルタリングのための手段とを有する。
画像捕捉装置は、画像を捕捉できる。典型的な画像捕捉装置は、レンズとレンズの後方に画像センサとを有するカメラである。レンズの前の対象物の画像は、画像センサ上にレンズにより投影される。このようにして作られた画像は、限定された被写界深度を持ち、1つの視点だけから画像内の対象物に関する情報を供給する。画像に供給できる空間解像度は、レンズの開口により制限される。
これらの課題の少なくとも幾つかは、画像捕捉装置のアレイを有するシステムを提供することにより低減できることが知られている。
斯様なシステムの例は、いわゆるプレンオプティックカメラ(plenopticカメラ、ライトフィールドカメラ)である。光照射野カメラ(light-fieldcamera)とも呼ばれるプレンオプティックカメラは、シーンに関する光照射野情報を捕捉するためにマイクロレンズアレイ(レンチキュラレンズアレイとしても知られる)を使用するカメラである。マイクロレンズアレイは、レンズと画像センサとの間にある。マイクロレンズアレイは、画像センサ上へのレンズにより捕獲される光を再フォーカスさせ、これにより、わずかに異なる視点から撮られる多くの小さな画像を作り、これらの画像は深度情報を得るためにソフトウェアにより操作されている。小さな画像の各々は、比較的低い空間解像度を持つ。マイクロレンズアレイのマイクロレンズの1つを通る小さな画像を捕捉するマイクロレンズアレイの後のセンサの各部分は、本来画像捕捉装置を形成する。よって、プレンオプティックカメラは、画像捕捉装置のアレイを有するシステムであるか、又は当該システムとして動作する。
プレンオプティックカメラにより捕捉されたデータに基づいて、特定の平面にデジタル的に再フォーカスすることは可能である。これは、例えば、NGらによるStanford Tech Report CTSR 2005-02, page1-11, "Light Field Photography with a Hand-held Plenoptic Camera"に説明されている。しかしながら、単一の平面に再フォーカスすることは可能であるが、結果として生じる画像は非常に限られた被写界深度を持つ。拡張された被写界深度画像を作ることは困難である。NGらによるStanford Tech Report CTSR 2005-02の6ページ右欄の最後の段落では、複数の深度でライトフィールドを再フォーカスさせて、その後、仮想出力画像を作るためにデジタル合成写真技術を適用することによる実験を行った。デジタル合成写真技術において、2つの技術が適用される:一つは、できるだけシームレスに結合できるように構成画像内の良好な縫い目を選択するためのグラフカット最適化(graph-cutoptimization)であり、他の一つは、合成写真内に残留する可視アーチファクトを更に低減するためにポアソン方程式に基づくプロセスである、勾配―領域融合(gradient-domainfusion)である。基本的に、合成写真技術は、カットアンドペースト技術であり、様々な深度で様々な画像の焦点の合ったピクセルが仮想出力画像を作るために結合される。しばしば、結果として生じる仮想出力画像の品質は、どのピクセルが焦点が合っているかを知るために推定された深度マップを使用することに依存している。NGらは、また、単一の副開口画像を抽出することにより拡張された被写界深度を作ったが、この技術は結果的に全く雑音が多い画像である。
結果として生じる画像は、全く雑音が多く、及び/又はユーザの積極的な役割を必要とする。
冒頭の段落の方法及びシステムは、Visual Communications and Image Processing, Proc. Of SPIE-IS & T electronic Imaging, SPIE Vol. 6508における児玉和也、久保田彰及び羽鳥好律による「View Interpolation by Inverse Filtering: Generating the Center View using Multi view images of Circular Camera Array」に開示されている。
この論文において、仮想出力画像が円に配置されているカメラアレイの中心に再構築される方法が説明されている。複数の深度レイヤに関してアレイのカメラから得られた入力画像の全ての対応する画素値を合計して、候補画像が作られ、仮想出力画像が、候補画像の逆フィルタリングにより再構築される。この方法の利点は、深度情報を前もって知る必要がないということである。
しかしながら、既知のシステムは、限られた可能性だけを持ち、特にインタラクティブシステムの実際のシミュレーション撮像を提供しない。
本発明の目的は、増大された可能性を持つ方法及びシステムを提供することにある。
このために、本発明による方法は、異なる視点からの複数の個別の画像を捕捉するための画像捕捉装置のアレイにより供給される個別の入力画像の入力画像データから仮想出力画像のための出力画像データを作る方法であって、シーンの複数の深度レイヤに基づいて前記個別の入力画像の対応する画素値の加算ステップ及び逆フィルタリングステップを有する方法において、仮想カメラ位置が仮想カメラ位置を表わす入力された仮想カメラ位置信号により供給され、加算及び逆フィルタリングステップが、前記仮想カメラ位置から見て、前記仮想出力画像のための画像データを作るために、前記仮想カメラ位置に依存して実施されることを特徴とする。
既知のシステム及び方法において、仮想カメラ位置は円形のカメラアレイの中心に固定され、作られる画像は円形のアレイの中心からの画像である。本発明者は、仮想カメラ位置に対する信号を使用して、仮想カメラ位置に対する信号に依存した加算及び逆フィルタリングが、特にインタラクティブシステムで、実際の模倣撮像を可能にすることに気付いた。これは、例えば、既存の方法及びシステムでは不可能である本当に視線を合わせたシミュレーションを可能にする。
実施例において、加算及び逆フィルタリングするステップは、前記個別の画像の前記入力画像データから、複数の深度で合成的にフォーカスされる複数の画像のための画像データを構成するステップと、統合(積分)されたぼやけた画像に対する画像データを形成するために様々な深度で前記合成的にフォーカスされる複数の画像の画像データを加算するステップと、その後、前記個別の画像の入力画像データから、仮想画像に対する画像データを作るため点広がり逆関数を使用して、前記統合されたぼやけた画像をデコンボルーションするステップとを有する。
点広がり関数は、再フォーカスされた画像のスタックを合成することにより、画像のピクセルに対する予想されるぼやけを表す関数である。
一見して、ぼやけて合成された画像を作ることは、逆効果のようである。合成された画像は、合成が加算を意味するので、多くの再フォーカスされた画像を加算することにより形成される。各再フォーカス画像は特定の被写界深度での再フォーカス画像である。斯様な合成された画像のために以下に使用される他の表現は、焦点スタックの合成である。スタックは多くの画像であり、焦点スタックは、各画像が特定の被写界深度にある画像のスタックである。合成は、画像の焦点スタックを加算することを意味する。特定の被写界深度の任意の再フォーカスされた画像は、焦点が合った画像の幾つかの部分、すなわち、特定の被写界深度に位置される部分を持つ。画像の対象物の他の部分は、焦点が合わず、よってぼやけている。斯様な多くの再フォーカスされた画像を合計する場合、結果として生じる合成された画像は非常にぼやける。よって、このステップは、結果的に非常にぼやけた合成された画像になるので、逆効果のように思われる。
しかしながら、合成は別として、当該方法は、また、点広がり関数の使用、すなわち点のぼやけた画像を供給する関数の使用を提供し、この点広がり関数を用いて、又は、より正確に言うと、点広がり逆関数を用いて、再フォーカスされた画像の合成されたスタックをデコンボルーションすることを提供する。
点広がり関数を知っていると、合成された画像をデコンボルーションして、被写界深度の範囲にわたって焦点が合っている各ピクセルを得ることは可能である。結果は、拡張された被写界深度の画像となる。仮想カメラ位置の入力によって、様々な見晴らしの良いポイントからの視野をフレキシブルに可能にする画像の視界を可能にする。
画像の深度モデルを持つことは必要でなく、カットアンドペースト方法のための複雑なアルゴリズムが必要ではない。点広がり関数は、撮られる全ての画像に対して実質的に同じである。これらの利点は、高品質の画像を提供する。
実施例において、方法は、
a前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、特定の深度に依存して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるステップを複数の深度に対して実施するステップと、
b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するステップと、
c統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するステップと、
d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するステップと、
e入力仮想カメラ位置信号により供給される仮想カメラ位置で仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する。
結果として生じる仮想出力画像は、視点からの大きな被写界深度(DoF)を持つ画像である。
このアプリケーションでは、「仮想出力画像」が述べられている所では、仮想出力画像に対する画像データが参照されることを注記する。仮想出力画像自体は、例えばディスプレイ画面上又は印刷スクリーン上に画像を作るため、画像データが(LCDセル又は印字ヘッドのような)画像ピクセル生成部分をアドレスするために使用される画像を作るための装置、例えば表示装置又は印刷装置へ仮想出力画像のための画像データを送信することにより通常作られる。画像を表示するか又は印刷する前に、例えば、エラーを修正するため、画像の一部を背景と置き換えるか、又はデータをデータが提示される装置に適するようにするため、仮想出力画像のための画像データが後処理されることは除外されない。
この第1の実施例は、基本的な解決策を提供する。
しかしながら、必要な処理電力は比較的大きく、これは、特にリアルタイムアプリケーションでの課題を提起する。
第2の実施例において、方法は、
a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
b畳み込まれた(コンボルーションされた)画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むステップと、
c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するステップと、
d前記投影経路の統合により点広がり関数を生成するステップと、
e入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する。
この第2の実施例のステップcにおいて供給される統合されたぼやけた画像は、第1の実施例のステップcの統合された画像と対応し、すなわち、(十分な焦点スタック自体がなされなかった場合であっても)様々な深度で多くの合成的にフォーカスが合った画像を加えることにより作られる画像に対応する。
第1の実施例でなされたように、十分な焦点スタックを生成し、その後合成する代わりに、第2の実施例では、アレイの画像捕捉装置からの個別の画像が、これらそれぞれの投影経路で畳み込まれる。ステップcの結果として生じる画像は、十分な焦点スタックを作り、その後十分な焦点スタックを合成することにより生成された画像に対応する画像である。しかしながら、第2の実施例による方法は、第1の実施例と比較して、必要な計算の数を大きく減らす。第2の実施例は、代替的な少ないコンピュータパワー要求で、様々な深度で再フォーカスされた画像のスタックを合成することにより画像を作ることに対応する画像を供給するルートを提供する。次のステップ、逆の点広がり関数を使用するデコンボルーションは、第1及び第2の実施例の一部である。第2の実施例は、少ない計算能力だけを必要とするので、重要であるシステム、装置又は状況のために特定の関連がある。画像間の時間が限定的なので、リアルタイムアプリケーションは、これらの重要な一つを形成する。本当に視線を合わせることはリアルタイムで可能なだけであり、目の動きが十分に速く追従できる、すなわち、仮想カメラ位置が速く変えられる場合、本当に視線を合わせたシミュレーションシステムは、これらの重要な他の一つである。また、第2の実施例は、アレイの中のカメラが故障する状況において及び/又は方法において、どれくらい多くのカメラが関係しているかの選択を持つことを所望する状況において非常に有益である。個別の画像が畳み込まれるという事実は、より速い方法を可能にする。
ピクセルの位置のシフトが、特定の画像捕捉装置と仮想カメラ位置の視点との間の距離及び深度の線形関数であるので、第1の実施例と比較した第2の実施例の計算のこの低減が可能であることが注記される。様々な数学的関数の順番が交換できるという洞察と組み合わされたこの洞察により、発明者は、この速い方法に到達した。
本発明の方法の他の実施例によると、
a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
b前記投影経路の統合により点広がり関数を生成するステップと、
c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むステップと、
d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むステップと、
e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有することにより特徴付けられる。
これは、様々な数値演算が交換できるという洞察からもたらされる第2の実施例のバリエーションである。
他の実施例において、加算及び逆フィルタリングのステップは、
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
bそれぞれの投影経路と前記個別の画像を畳み込むステップと、
c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むステップと、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する。
ハイパスフィルタは、ぼやけを補償する、すなわち、第1の態様の第1及び第2の実施例の点広がり逆関数のアプリケーションに対応する関数を持つ。
他の実施例上のバリエーションにおいて、加算及び逆フィルタリングのステップは、
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するステップと、
c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むステップと、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する。
後者の2つの実施例による方法において、必要な計算パワーが更に低減され、幾らかの正確さを犠牲にして低減される。当該方法は、最初に述べた実施例の方法の派生とみなされる。
固定のパラメータを持つフィルタが用いられるが、好ましくは、ハイパスフィルタは、投影経路の関数、特に投影経路の長さの関数であるパラメータを持つ。
本発明の方法は、プレンオプティックカメラにより実施できる。
拡張された焦点深度は、例えば顕微鏡及びデジタル病変に対して非常に有効である。
単一の捕捉は、かなり又は更に全体のサンプル深度範囲を含むことができ、例えば顕微鏡のために正確なフォーカス動作のための必要性を減らす。データレート及びサンプリング時間は、減らされる。
本発明の方法は、例えばコンピュータスクリーン周辺に置かれた、個別のカメラのアレイにより実施できる。これは、とりわけ、スクリーン表面内の仮想カメラ位置を可能にする。計算パワーに対する低減要求は、スクリーンの表面内の仮想視点の作成を単純化し、この結果、リアルタイムで実施することが可能になる。
特に、各々がディスプレイ画面周辺に画像捕捉装置のアレイを有する2つのインタラクティブシステムが利用されるとき、本発明の方法は既知の方法が提供しない可能性を開く。インタラクティブシステムの1つに、他のシステムのための仮想カメラ位置に対する信号を供給させることにより(逆もまた同じである)、本当に視線を合わせたシミュレーションシステムが可能である。仮想カメラ位置に対する信号の少なくとも1つをシステムの前に座っている人の目の位置と一致させることは、本当に視線を合わせたシミュレーションを可能にする。
本発明は、プログラムがコンピュータ上で動くとき、請求項1乃至12の何れか一項に記載の方法を実施するためのコンピュータ可読媒体に格納されたプログラムコード手段を有するコンピュータプログラムでも具現化される。
本発明は、また、異なる視点からの画像を捕捉するための画像捕捉装置のアレイを有し、画像捕捉装置のアレイにより得られる入力画像から出力画像を構成するためのシステムであって、前記システムは、前記アレイの画像捕捉装置から画像データを捕捉するための手段を有し、前記システムは、シーンの複数の深度レイヤに基づいて個別の入力画像の対応する画素値の加算及び逆フィルタリングを実施するための手段を有する前記システムにおいて、前記システムは、仮想カメラ位置を表わす入力仮想カメラ位置信号により選択される仮想カメラ位置を供給するための手段を有し、前記加算及び逆フィルタリングを実施するための手段が、選択された前記仮想カメラ位置の関数として、前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置での仮想出力画像のための画像データを作るために実施することを特徴とする、システムでも具現化される。
実施例において、前記加算及び逆フィルタリングのための手段は、前記個別の画像の前記入力画像データから、複数の深度で合成的にフォーカスされる複数の画像のための画像データを構成する手段と、統合されたぼやけた画像に対する画像データを形成するために様々な深度で前記合成的にフォーカスされる複数の画像の画像データを加算する手段と、前記個別の画像の入力画像データから、仮想画像に対する画像データを作るため点広がり逆関数を使用して、前記統合されたぼやけた画像をデコンボルーションするための手段とを有する。
実施例において、システムは、
a複数の深度に対して、前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の深度に依存して、且つ特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるための手段と、
b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するための手段と、
c前記統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するための手段と、
d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するための手段と、
e前記入力された仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する。
実施例において、前記加算及び逆フィルタリングを実施するための手段は、
a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
b畳み込まれた画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むための手段と、
c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するための手段と、
d前記投影経路の統合により点広がり関数を生成するための手段と、
e前記入力された仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する。
他の実施例において、前記加算及び逆フィルタリングを実施するための手段は、
a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
b前記投影経路の統合により点広がり関数を生成するための手段と、
c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むための手段と、
d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むための手段と、
e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する。
実施例において、前記加算及び逆フィルタリングを実施するための手段は、
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
bそれぞれの投影経路と前記個別の画像を畳み込むための手段と、
c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むための手段と、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する。
実施例において、前記加算及び逆フィルタリングを実施するための手段は、
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するための手段と、
c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むための手段と、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する。
好ましくは、画像捕捉装置のアレイは、ディスプレイ画面の周辺のカメラのアレイであり、仮想カメラ位置はディスプレイ画面のポイントである。
更に好ましくは、システムは、各サブシステムがディスプレイ画面の周辺のカメラのアレイを有する2つのインタラクティブな当該サブシステムを有し、前記サブシステムの1つのサブシステムのディスプレイ画面の仮想カメラ位置が、他方のサブシステムの観察者の目の位置を測定することにより前記他方のサブシステムにより決定される。本当に視線を合わせたシミュレーションは、このとき可能である。
実施例においてシステムは、画像捕捉装置のアレイを有するプレンオプティックカメラを有する。
実施例において、アレイは2つ以上のサブアレイに副分割されている。
これら及び他の本発明の態様は、添付の図面を参照して例示的に詳細に説明されるだろう。
図1は、光学分野のシンボルの幾つかの定義を例示する。 図2A及び図2Bは、主レンズ及びマイクロレンズアレイを通る光経路を例示する。 図3は、合成画像平面へのライトフィールドデータを再フォーカスさせることを示す。 図4は、ポイントPを観察するカメラアレイの平面図を模式的に示す。 図5は、観察されたポイントPでのカメラCの3次元印象を示す。 図6は、シフトされた画像の蓄積に基づいた合成再フォーカスの概念を示す。 図7は、フィルタカーネルのグラフィック描写を提供する。 図8は、周辺カメラアレイの模式的正面図を示す。 図9は、合成された焦点が合った出力画像の計算のブロック図を与える。 図10は、合成された焦点が合った出力画像の他の計算のブロック図を示す。 図11は、カメラのアレイによって収集されるライトフィールドデータが鼻(左)及び耳(右)で再フォーカスされた画像を示す。 図12は、推定された深度マップを示す。 図13は、デフォーカスによる画像のぼやけを示す。 図14は、センサとレンズとの間の距離を変えることによる掃引フォーカスを例示する。 図15は、レンズLの焦点距離を変えることによる掃引フォーカスを例示する。 図16は、ぼやけている図を示す。 図17は、カーネルをぼやけさせている効果的なシステムを示す。 図18は、対数スケールで同じものを示す。 図19は、ぼやけている図を例示する。 図20は、カーネルをぼやけさせている効果的なシステムを示す。 図21は、対数スケールで同じものを示す。 図22は、掃引フォーカスカメラに対するカーネルのスペクトル特性を例示する。 図23は、従来のカメラに対する同じものを示す。 図24は、掃引焦点カーネルに対する逆フィルタの断面を示す。 図25は、公称の対象物平面(ラインA)から掃引振幅の0.8(ラインB)までの対象物オフセットに対応する逆フィルタを示す。 図26は、4つのカメラを持つアレイの画像を模式的に示す。 図27は、出力画像へ寄与する個別のカメラの位置での合成的再フォーカスの効果を例示する。 図28は、合成焦点掃引からの結果としての出力画像を示す。 図29は、12個のカメラアレイに対する結果として生じる累積的な点広がり関数を示す。 図30は、全焦点画像を計算するためのブロック図を示す。 図31は、フィルタカーネルを例示する。 図32は、方法の速く正確な実行のブロックスキームを示す。 図33は、対応する点広がり関数PSF及び2つの仮想視点周りの12個のカメラ位置に対する投影経路PPを示す。 図34A及び図34Bは、本発明によるマルチユーザシステムを例示する。 図35は、図32のスキーム上のバリエーションを例示する。 図36は、それぞれの経路Sでの畳みこみの後、ハイパスフィルタ(HP)での畳みこみが実施されるブロックスキームを例示する。 図37は、本発明の他の実施例を例示する。 図38は、本発明による方法の結果を例示する。 図39は、ディスプレイ画面周辺の16個のカメラのアレイをシステムの印象を提供する。
これらの図は、一定の比率で描かれていない。一般に、同一の部品は、これらの図の同一参照符号により示される。
ライトフィールドの概念の説明:
レンズ平面とセンサ平面との間の光線の完全な収集は、しばしばライトフィールドと呼ばれ、これは、スタンフォード大学のマーク・リーボイにより紹介された用語である。ライトフィールドは、レンズ口径から出発してセンサ平面に達するまでの全ての光線の完全な(強度についての)記述である。ライトフィールドを規定する最も単純なやり方は、関数L(s、t、u、v)であり、ここで、u及びvはレンズ平面内の座標であり、s及びtは画像平面内の座標である。ライトフィールドについての十分な知識は、様々な深度での画像の十分な再構成を可能にする。図1は、特定のシンボルの規定を例示する。Lは、レンズ平面を表わし、Sはセンサ平面を表わす。
座標(s,t)での画素値は、そのスポットでの発光に正比例し、これは、全ての可能性がある角度から来る光の蓄積/統合であり、又は下記の式の形式となる。
Figure 2013531309
(1)
ここで、統合(積分)はレンズ平面(u,v)にわたってとられる。
画素値自体は、総ライトフィールドの直接的且つ十分な情報を提供しない。
マイクロレンズアレイMを、最初はセンサ平面(図2A及び図2Bを参照)であった平面Sを配置し、センサPをマイクロレンズアレイの後ろのマイクロレンズアレイの焦点距離に配置することにより、直接L(s、t、u、v)を測定できるいわゆるプレンオプティックカメラを構成できる。このデザインでは、各マイクロレンズは、やって来る光線の強度及び入射角度を捕捉できる「メタ」ピクセルとみなされる。マイクロレンズアレイMは、低い空間解像度で光を画像センサPに再フォーカスさせる。このように、方向情報が、空間解像度を代償にして格納される。マイクロレンズアレイMの各マイクロレンズは、画像センサPの小さな部分に属し、これにより画像センサPが画像捕捉装置のアレイを形成し、各画像捕捉装置がマイクロレンズの1つによりなされる低い空間解像度の画像を捕捉する。Subは被写体を表わす。
検出器平面での角度と位置との関数として強度を知ると、異なる開口/焦点設定で、画像を合成できる。寄与している光線の角度を制限する((u、v)平面の一部にわったてだけ統合する)ことにより、例えばレンズの上半分からの光だけが寄与しているように、任意の開口に属している画像を合成できる。同様に、変換をライトフィールドL(s、t、u、v)に最初に付与し、次に(u、v)平面にわたる統合ステップを付与することにより、異なる焦点面での画像を計算でき、言い換えると、異なる焦点面で画像を合成できて、十分な三次元情報を得ることができる。
図3は、これを更に詳細に示す。
レンズ平面LP(u、v)及びセンサ平面SP(s、t)の座標で記述される捕捉されたライトフィールドL(s、t、u、v)が与えられると、レンズ平面LPから距離αFの新規な合成焦点面SFP(s’、t’)内でフォーカスされ、センサ平面SPから距離βFの座標(u’、v’)を持つ合成開口平面SAを通じて撮られる画像を計算できる。この状況は、図3に示される。以下の式を定めることにより、
γ=(α+β−1)/α
及び
δ=(α+β−1)/β
(2)
合成された画像は、以下の一般式に従う。
Figure 2013531309
(3)
ここで、α≠1はセンサ平面SP以外の合成焦点面SFPを示し、β≠1は最初のレンズ平面とは異なる合成開口平面を示す。統合における(u',v')の範囲の限定は円以外の開口の任意の形状を合成可能にすることに留意されたい。
プレンオプティックカメラとカメラのアレイとの対応:
単一のカメラ、すなわちプレンオプティックカメラを持つマイクロレンズのアレイと単一のレンズを持つカメラの拡張されたアレイとの間の対応がある。両方とも、画像捕捉装置のアレイを持つシステムであり、プレンオプティックカメラにおいて、画像捕捉装置のアレイは、マイクロレンズの各々を通って光を捕捉する画像センサの小さな部分のアレイにより、画像センサ内で形成される。単一のレンズを持つカメラの拡張アレイにおいて、カメラ自体が画像捕捉装置のアレイである。従って、プレンオプティックカメラのマイクロレンズアレイに対してこの明細書で説明されるように、様々な深度での合成開口技術及び生成再フォーカス画像は、拡張されたカメラアレイにも適用でき、またこの逆も成立する。しかしながら、プレンオプティックカメラとカメラのアレイとの大きな違いは、カメラのアレイがプレンオプティックカメラによりカバーされるより大きい領域にわたって分散できるということである。カメラの拡張されたアレイを有するシステムは、このとき、全体のカメラアレイと同じ大きさの開口を持つ単一のカメラとして機能し、これは、プレンオプティックカメラの開口より通常非常に大きい。
大きな開口を持つことは、大きな実効的開口のため非常にシャープな画像が供給できるという点で、大きな利点を持つ。しかしながら、これは、被写界深度が非常に小さいという不利な点を持つ。よって、プレンオプティックカメラに対してより、更に充分な被写界深度を持つシャープな画像を提供することは、困難な作業である。
カメラのアレイ:
図4は、ポイントPを観察するカメラアレイの上面図を模式的に示す。カメラはピンホールカメラとして扱われ、この簡略化は、分析の実際的な値を制限することはない。各カメラの位置は、指数k(k=1、2、3...)でカメラセンターCにより示され、カメラセンターは、カメラのピンホールの位置である。このピンホール又は一般的には光中心は、カメラの画像平面上の世界の透視投影の中心として機能する。各カメラの画像平面は、カメラセンターから焦点距離fに位置され、ピンホールの後ろの代わりの前方の画像平面の配置も、数学的に等価である。各カメラ画像I(s,t)は、座標系(s,t)を持つ。原理的に、各カメラは、任意の位置、焦点距離及び向きを持つことができる。しかしながら、説明を簡単にするため、座標系(u,v)を持つ単一の平面にカメラが位置されると仮定し続ける。カメラセンターCの座標は、C=(u,v)として規定される。最初に、カメラが水平ラインに位置されると仮定する。焦点距離は同一であるとみなされ、これらのカメラは画像平面が一致するように前方に向かっている。これらの簡略化は、分析の一般的有効性を制限していない。
図5は、観察されたポイントPを持つカメラCの3次元印象を示し、Pは水平座標s(及び幾つかの任意の垂直座標t、ここでt=t=tとみなし、最初にカメラ位置が水平方向においてだけ異なる場合を考える)を持つ画像平面I(s,t)のその投影を示す。
合成再フォーカス:
図6は、シフトされた画像の蓄積に基づく合成再フォーカスの概念を例示する。左に、3つの異なるカメラ画像、カメラ1に対するI(s,t)、カメラ2に対するI(s,t)、カメラ3に対するI(s,t)が、それぞれ水平画像座標s、s及びsでの対象物の全く同一のポイントPの投影で示される。投影sとsとの間の距離は、図6のΔs(C、C)により与えられる。投影sとsとの間の距離は、Δs(C、C)により与えられる。ポイントs、s及びsは、距離Δs(C、C)にわたってカメラCの画像をシフトさせ、距離Δs(C、C)にわたってカメラCの画像をシフトさせることにより位置合わせされる。視差のため3つの投影されたポイント間の距離は、観察されたポイントPの距離に直接関係する。画像座標の差と距離との間の関係は、以下の式に従う。
Δs=−Δu(f/z)
(4)
例えば、カメラCとCとを比較して、Δs=s−s及びΔu=u−uを規定し、ここで、u及びuは図4に示されるようにカメラセンターC及びCそれぞれの水平座標である。
視差シフトと対象物距離との間の線形関係は、スタック内の全ての画像、この例ではカメラ1、2及び3の画像が適切に揃えられる、すなわち、ポイントPの投影が一致するようにシフトされるときだけ、ポイントPが鋭く見えるように、水平方向及び垂直方向両方において有効である。位置合わせされた画像スタックの画素値の蓄積は、結果的に、ポイントPで合成的に再フォーカスされる画像になる。その上、視差シフトと対象物距離との間の線形関係のため、式(4)により示唆されるように、ポイントPと同じ距離を持つ全てのポイントは、合成的にフォーカスされる画像においてシャープに見える。
この例では、カメラC=(u,v)の位置は、他の全てのカメラに対する基準として暗に考えられていて、(Δu,Δv)=(u−u,v−v)。カメラCに対する結果として、(Δu、Δv)=(0、0)。また、結果として、同じことが、その画像座標系に対して成り立ち、(Δs,Δt)=(s−s,t−t)。またカメラCに対して、(Δs、Δt)=(0、0)。基準としてカメラセンターCの位置を使用して、距離zでフォーカスされ合成された画像、I1、z(s,t)は、各画像Iをベクトル(Δs,Δtで並進した後に、全てのカメラ画像蓄積から以下の式に従う。
Figure 2013531309
(5)
ここで、Nはカメラの数であり、各並進ベクトルは、以下の式に従う。
Figure 2013531309
(6)
表記()はマトリックス又はベクトル転置操作を識別する。
全てのフォーカス撮像へのアプリケーションを予想して、シフトされたデルタ関数での畳み込みに関する並進のプロセスを以下の式で表わすことにより、カメラ画像シフトのより形式的な表記をここで導入する。
Figure 2013531309
(7)
ここで、表記*は畳み込みを示し、
Figure 2013531309
(8)
ここで、フィルタカーネル
Figure 2013531309
は、畳み込みの後ベクトル(Δs,Δtにわたる出力画像フレームの並進された位置に入力データが現れるようにするシフトされたδ関数である。
a,b(s、t)=δ(s−a,t−b)
(9)
δ関数は、インパルス反応関数として、以下のように規定される。
Figure 2013531309
(10)
式(9)によるフィルタカーネルのグラフィック描写が、図7に示される。
最初は明らかに扱いにくいにもかかわらず、再フォーカス画像I1,z(s,t)の計算のため式(5)、(6)を組み合わせる。
Figure 2013531309
(11)
上記式において、カメラCの位置は、基準としてとられた。
カメラCを基準カメラとして選ぶ代わりに、式11は、合成的な再フォーカス画像Iが、基準位置として任意のカメラ位置を使用して計算できることを示す。
この基準カメラ位置は、アレイの本当のカメラの何れかと一致する必要もない。C=(u,v)として、基準カメラ中心RCCと呼ぶだろう。基準カメラ中心RCCの物理的重要性は、通常既存のカメラの平面内にある位置(u,v)に位置される仮想カメラの中心を記述するということである。このように、Cは、この仮想カメラの光中心として機能し、仮想カメラの画像平面上の透視投影の中心を定める。この仮想観察位置の任意の選択にもかかわらず、仮想カメラは、距離zに位置されるカメラ中心の平面に平行な平面上に合成フォーカスを保持する。
発明の方法及びシステムは、(限定されないが)周辺カメラアレイを使用するとき、特に有効である。スクリーン周辺にあるカメラは、ディスプレイの周辺部の任意の位置に置かれる、新規な非既存のカメラからのカメラ画像を合成するための入力を提供する。これは、図8に示される。図8は、コンピュータディスプレイの周辺部に置かれる周辺カメラアレイの模式的正面図を示す。(u,v)として示される座標は、アレイの平面内の各カメラの位置を示す。DPはディスプレイフレームを表わし、ADAは活性ディスプレイ領域を表わす。
要約すると、仮想基準カメラ中心RCCがC=(u,v)に置かれると仮定する場合、活性ディスプレイ領域において、距離zで合成的に再フォーカスされるとき、このカメラからの視界を計算できる。
Figure 2013531309
(12)
図9は、一組のアレイカメラ画像Iを用いて、仮想カメラ位置(u,v)から、合成的にフォーカスされた出力画像Iの計算のブロック図を与える。仮想カメラ位置は、ブロック図の入力であり、信号Cにより表される。各画像シフトベクトル(Δs,Δt)は、式(6)によって規定される。図8は、一組のアレイカメラ画像Iを使用して、仮想カメラ位置(u,v)から、合成的にフォーカスされた出力画像I0の計算のブロック図を供給する。各画像シフトベクトル(Δs,Δt)は、式(6)によって規定される。仮想カメラ位置は、この方法のための入力である。
畳み込みに基づいた画像並進の実行を使用して、式(12)を以下の式として書くことができる。
Figure 2013531309
(13)
ここで、
Figure 2013531309
(14)
畳み込みベースの実行を使用して、図10に示されるようなブロック図を構築する。
図10は、一組のアレイカメラ画像Iを使用して、仮想カメラ位置(u,v)から、合成的にフォーカスされた出力画像Iの計算のブロック図を示す。仮想カメラ位置は、ブロック図の入力であり、信号Cにより表される。図は、式13及び式14による実行を示す。(Δs,Δt)にわたる各画像シフトは、式9によって規定されるカーネルTΔsk,Δtkでの畳み込みにより実施される。
図9及び図10は、カメラのアレイの入力データを使用した再フォーカス画像を提供し、ここで、方法は入力として仮想カメラ位置RCC及び焦点距離zを持つ。
結果として生じる画像データI(s,t)の他の使用から独立して、図9及び図10に例示される方法自体が、新規な発明の方法及び斯様な方法が用いられる装置を提供することは注記される。カメラアレイの課題は、一般に、合成された画像の極めて小さい被写界深度である。これは、カメラアレイの寸法により決定される合成開口の大きな寸法に起因する。
図11は、カメラのアレイによって収集されるライトフィールドデータが鼻(左)及び耳(右)に再フォーカスされた画像を示す。
再フォーカスされた画像の各々に対して、被写界深度(DoF)が頭全体に対してあまりに小さいことは明らかである。
充分な被写界深度DoFを持つ画像を得るために、従来技術として、カットアンドペースト方法、すなわち合成写真方法を使用できる。しかしながら、充分なDoFを持つ画像を作るために、シーンの深度モデルが必要とされる。深度マップで、出力画像の各ピクセルに対する再フォーカス距離が決定される。斯様な深度マップの推定は、計算的に厳しい作業である。更にまた、小さなエラーによって良く見えるアーチファクトが生じるので、推定された深度マップは十分に正確ではない。
図12は、推定された深度マップを持つ全フォーカス画像を作成する試みを示す。深度推定の小さな誤りによってさえ可視のアーチファクトが生じることは明らかである。
本発明は、全フォーカス撮像を可能にする他のルートをとる。
本発明の方法は、カメラアレイの限られた焦点深度を取扱うが、これは明確な深度推定に基づかないし、焦点スタックデータの反復的な分類にも基づかない。
本発明の方法は、別々のカメラ画像が焦点変動の間再結合されるので、別々のカメラ画像の各々の画素値の合成された蓄積の収集的な使用に基づく。カメラ画像当たりの特定の蓄積されたピクセルグループのこの特定の使用は、非常に拡張された被写界深度を持つカメラ画像を合成するための計算的に非常に効率的なやり方を提供する。これは、カメラ―アレイでの「全フォーカス」画像を作る新規なやり方を可能にする。上述されたように、カメラアレイとプレンオプティックカメラとの間の対応があるので、当該方法はプレンオプティックカメラセットアップに等しく適用できる。
単一のカメラに対して後述されるように、焦点変化概念は、被写界深度を拡張可能にする。点光源、レンズ及びセンサからなる概念上のカメラモデルを考える。レンズは、画像平面で点光源からの光をフォーカスする。画像平面の位置は、点光源とレンズとの間の距離に依存する。センサ平面が画像平面と一致する場合、センサはシャープな画像を受信する。さもなければ、画像はセンサ上にぼやけて現れる(図13乃至図15を参照)。
図13は、デフォーカスによる画像のぼやけを示す。レンズLによりフォーカスされる点光源PSに対する画像平面IPは、センサ平面SPと一致しない。図14は、センサとレンズとの間の距離を変化させる、掃引フォーカスを例示する。センサは、画像平面の前の位置から画像平面の後ろの位置まで移動し、よって、フォーカスを掃引する。図15は、レンズLの焦点距離を変化させる、掃引フォーカスを例示し、センサレーンSPは1つの位置にとどまるが、レンズLの焦点距離を変化させることにより、画像平面はセンサ平面の前の位置から後ろの位置へ移動される。
従来の撮像では、センサの位置は固定されているので、特定の公称の距離にある対象物だけがセンサ上にシャープに現れる。他の距離にある対象物は、センサ上にデフォーカスで現れ、ここで、非焦点ぼやけの量はセンサと公称の画像平面との間の距離に比例する。
いわゆる「掃引フォーカス」カメラにおいて、センサ平面は露出の間、画像平面の範囲にわたって掃引するか(図14)、又は、代わりに、画像平面はセンサ平面周辺の位置の範囲にわたって掃引する(図15)。従来のカメラとは対照的に、シャープなデータ及びぼやけたデータの混合が露出の間に蓄積するので、対象物がセンサ上に鋭く現れることができる単一の距離がない。蓄積されたぼやけは、対象物距離にかかわらず、画像の全ての対象物をぼやけて見せる。しかしながら、蓄積されたぼやけは、シーンの対象物の距離に仮想的に不変であるように見える。結果として、単一の空間不変の逆フィルタは、蓄積されたぼやけた画像からシャープな画像を回復させるのに十分である。回復された画像内の対象物は、カメラまでの距離にかかわらず、全てシャープに見える。
掃引フォーカスカメラが画像をどのようにぼかすかについて良く理解するために、カメラから特定の距離での単一の点光源の撮像を考える。このとき、対象物までの距離からのぼやけ効果の依存性が考察される。
以下に、掃引フォーカス概念の2つの異なる実行が考察される。第1の実行において、センサが光軸に沿って並進する(図13を参照)。第2の実行は、センサの軸並進がレンズの焦点距離の等価な変化により置き換えられる(好ましくは固定された倍率を持つ)可変焦点レンズの使用を有する(図15を参照)。両方の実行において、センサは、対象物が完全にフォーカスしている画像平面を通じて掃引する。よって、対象物は、1つの時点でだけフォーカスし、残りの捕捉時間の間、多かれ少なかれデフォーカスである。デフォーカスの量は、センサと画像平面との間の距離に正比例する(図13)。瞬時のぼやけは、ほとんどの場合ディスクであるレンズアパーチャの形状を持つ均一なカーネルとシャープな画像との畳み込みとして描かれる。センサが画像平面を通じて掃引するとき、ぼやけカーネルは空間的にスケーリングされる。カーネルの半径は、最初に、センサ平面と画像平面とが一致する位置で、(実質的に)ゼロに減少し、その後再び増大する。以下において、ぼやけカーネルKの半径Rが時刻tで線形に変化し、出発ぼやけ半径及び終了ぼやけ半径が等しい線形フォーカス掃引が考察される。図16を参照されたい。図16を観察することにより、ぼやけている図が画像平面の方へ向かって指している2つの円錐の形状を持つことがわかる。システムがセンサ上に作る全体的ぼやけは、線形に増大する半径を持つディスクカーネルにわたる時間的統合である。このシステムカーネルの実例は、実効システムぼやけカーネルを示す図17及び対数スケールで実効システムぼやけカーネルを示す図18に与えられている。システムカーネルの形状は、シャープなフォーカス画像に対応するディラックデルタと従来のカメラの平坦なディスクデフォーカスカーネルとの中間であることがわかる。
明らかに、この場合、最善の画像は単一の平坦な対象物に正確にカメラの焦点を合わせることにより得られるので、掃引焦点カメラは、従来のカメラ上の既知の距離で単一の平坦な対象物の撮像に対する何れの利点も提供しない。しかしながら、以下において、対象物までの正確な距離が知られていないとき、又は、シーン内にカメラまでの異なる距離にある幾つかの対象物があるとき、画像が対象となる全ての対象物のシャープな画像を提供するため充分な被写界深度を必要とするので利点が明白になることを示すだろう。従来のカメラに対して、デフォーカスの量は、画像平面までの距離で線形に増大する。カメラまでの1つの特定の距離にある対象物は、シャープに撮像されるが、対象物がカメラから更に離れたり近くになるにつれて、ぼやけが増大する。以下に、掃引焦点カメラ設計のぼやけの量が対象物とカメラとの距離の変化にそれほど影響されない、又は、換言すれば、レンズからの距離にかかわらず、任意の対象物に対してぼやけは多かれ少なかれ同じであることを示すだろう。
対象物までの距離が公称の距離とは異なるが、依然掃引範囲までカバーされる(すなわち、カメラは、掃引の間、正確に中間ではないが、対象物画像平面を横切る)場合を考察する。これは、センサが実際の画像平面を横切るときの時間的オフセットに至るだろう。よって、実際の画像平面周辺の二重円錐ぼやけ図の形状は、同じままであるが、出発ぼやけ半径及び終了ぼやけ半径は異なる(図19を参照)。図20及び図21は、システムカーネルと、システムカーネルの対数を示す図16及び図17と同様である。システムカーネルは点光源により供給されるぼやけた画像であり、よって、関数はまた点広がり関数とも呼ばれ、すなわちポイントが仮想出力画像上にどのように広がるかの関数である。
カメラまでの距離にかかわらず、各対象物が、ある特定の時間でシャープにフォーカスされるのが見え、更に、この時間の周りで同じぼやけ効果を経験するだろう。各時間内(図18の水平スライス)におけるぼやけカーネルのエネルギーが一定であることに留意されたい。対象物が画像平面に近いとき、フィルタエネルギーは、シャープなフォーカスの瞬間がディラックデルタカーネルに一致するように非常に集中される。時空の統合領域のこの部分は、時間的統合の結果を支配する。従って、対象物は、カメラまでの距離にかかわらず、センサ上で同様にぼやける。システムカーネル間の小さな差は、画像の詳細を変更しないまま、比較的中央下部の空間的周波数だけに影響を及ぼす。掃引焦点カーネルのスペクトルは、非常に類似した振幅プロフィールを持つ。
掃引焦点カーネルの最大の利点の1つは、逆のオペレーションが全ての空間的周波数のために存在するように、周波数応答で「ゼロ」を持たないということであり、よって、掃引カーネルが良好に規定された簡潔な逆フィルタを可能にする。標準カーネルに対して、これは可能ではない。
図22及び図23は、この効果を例示する。図22は、以下に掃引焦点カメラに対するカーネルのスペクトル特性を例示する。2次元のカーネルのフーリエ変換が円形開口に対して等方性であるので、図22は、単一の空間方向に対応する変換の断面だけを示す。ラインは、掃引範囲の振幅とオフセットとの間の様々な比率に対応する。図23は、従来のカメラに対する同じカーネルのスペクトル特性を示す。
掃引焦点カーネルのスペクトルが非常に同様の振幅プロフィールを持つ一方、従来のカメラの振幅プロフィールが全く異なることがわかる。従来のカメラにおいて、単一の関数で任意の正確さにカーネルの周波数挙動を特徴づけることは、可能ではない。掃引カメラにおいて、単一の関数を使用することは可能である。これは、効果的なデコンボルーションを可能にする。
掃引焦点カメラのぼやけ効果がほとんど実際のカメラと対象物との距離に依存しないので、画像は同じ逆フィルタ、すなわち全く同一の点広がり逆関数を使用して効率的にぼやけを除くことができ、よって、局所的な深度推定の必要性を回避する。
結果として、掃引途中でフォーカスされる対象物のぼやけカーネルに対応する同じ逆フィルタで、獲得され統合されたぼやけた画像を処理することにより非常に良好な結果を得ることが可能である。
図24は、ゼロピクセルと30ピクセルとの間のぼやけ半径を通って掃引するカメラに対応する掃引焦点カーネルに対する逆フィルタの断面を例示する。
図25は、公称の対象物平面(ラインA)から掃引振幅の0.8(ラインB)までの対象物オフセットに対応する逆フィルタが実際に同じであることを示すことにより、これを確認する。
これは、掃引焦点アプローチを説明する。発明者は、同じポジティブな効果がカメラアレイを使用して得られることに気が付いた。
発明者は、プレンオプティックカメラで、よって、上述されたように、カメラの拡張されたアレイで、数値的に多くの再フォーカス画像を生成することが可能であることに気が付いた。多くの再フォーカス画像は、掃引カメラにより撮られる画像と数学的に同じであるか又は非常に類似している。再フォーカスは、例えば図9及び図10で上述されたように画像捕捉装置のアレイの様々な画像をシフトしたり加えたりすることになる。上述されたように、シフトは、再フォーカスがなされる平面の位置と比例し、特定の画像捕捉装置と視野との間の距離に比例する。よって、多くの再フォーカス画像を供給することは、フォーカス掃引動作と概念的に同じ又は類似している。
掃引フォーカスアプローチによりなされるようにちょうど、統合された画像を提供するために焦点スタックを合成できる。斯様に合成された画像は、非常にぼやけている。再フォーカス画像の各々に対して、画像の一部だけが焦点が合っていて、すなわち、フォーカスしている平面に存在する対象物の部分に焦点が合っていて、対象物の残りは焦点がずれている。焦点スタックを統合すること、すなわち、全てのデータを加算することは、実質的に同じシステムカーネルで、すなわち実質的に同じ点広がり関数で、至る所でぼやける画像を提供する。このとき、ちょうど掃引焦点アプローチと同様に、画像をデコンボルーションし、合成オールフォーカス画像を得るために、同じ点広がり逆関数を使用できる。
カメラのアレイを使用することにより(単一のカメラは定位置を持つので、単一のカメラにより得られることができない)本発明で使われる付加的な利点は、仮想カメラ位置を選択できることであり、すなわち、仮想カメラ位置からオールフォーカス画像を構築できることである。これは、定位置を持つ掃引焦点カメラが提供しない利点である。
統合された画像は、単一の点広がり関数(PSF)でデコンボルーションできる。このデコンボルーションは、統合範囲にわたって、すなわち焦点スタックの被写界深度にわたって焦点が合っている画像に結果としてなる。DoFが非常に改良される一方で、深度マップが推定されることを必要としない。点広がり関数は、インパルス応答関数とも呼ばれている。点広がり関数は、インパルス関数のスメアを供給する。対象物の任意の画像は、対象物データとインパルス関数との畳み込みの結果である。焦点スタックを統合することにより作られる画像内の対象物のぼやけた画像は、再フォーカス及び統合の応答関数と対象物との畳み込みの結果である。
デコンボルーションする計算が単純な1つの方法は、フーリエ空間で表される、第1及び第2の関数の畳み込みのフーリエ変換が、第1の関数のフーリエ変換と第2の関数のフーリエ変換との積であるという事実を利用することである。よって、デコンボルーションすることは、ぼやけた画像のフーリエ変換を分けることになり、前記画像は、点広がり関数のフーリエ変換により、対象物と点広がり関数との畳み込みにより形成される。このとき、対象物のフーリエ変換を得る。対象物の「きれいになった」画像は、逆フーリエ変換を結果として生じる関数に適用することにより得られる。(フーリエ変換を適用し、関数を分けて、逆フーリエ変換を適用する必要があるので、計算によるぼやけを別にして)対象物の鮮明な画像が結果である。
例として、ディスプレイ画面の周りの4つのカメラを有するシステムが採用される。
通常のカメラにおいて、デフォーカスぼやけは、全体の開口領域からの光線の線形蓄積であるとみなされる。同様のやり方で、カメラアレイの合成的にフォーカスされた画像は、別々の画像の線形蓄積から生じる。全体のアレイは、カメラパターンの形状及びアレイのサイズを持つ開口を持つ単一のカメラとして機能する。周辺カメラアレイの場合、開口は、矩形のアウトラインに沿って分散されたひとまとまりのドットである。合成焦点面にない対象物は、この離散的カーネルでぼやけ、矩形の形状で対象物の離散的コピーの蓄積を作る。この状況は図26及び図27に例示され、図26は、4つのカメラ画像I、I、I及びIと仮想カメラ位置Cで合成的にフォーカスされた画像I0とを持つアレイの画像の模式的な描写である。座標(s,t)は、各カメラフレームの対象物の位置(三角形)を示し、座標(u,v)はカメラアレイの平面内の各カメラセンターの位置(丸)を示す。位置(u,v)で示された仮想カメラの画像は、画像をシフトさせることなく、4つの入力画像の蓄積から起こるだろう。画像をシフトさせないことは、無限で仮想カメラ画像を合成的にフォーカスすることになる。三角形は、カメラ1、2、3及び4により撮られる画像の対象物の位置を示す。P’、P’等は、全4つの画像の蓄積としての出力画像内の前記対象物の位置を示す。仮想カメラ位置は、これら図のための入力である。
図27は、出力画像への個別のカメラ寄与の位置の合成的な再フォーカスの効果を例示する。ポイントPの撮影距離(対象物距離)の正確な距離は、zにより示される。上から下まで、合成焦点距離zは、無限(z=∞)、対象物距離より(ずっと)大きく、4つの画像が一致する焦点距離である対象物距離(z=z)に等しく、また、対象物距離より小さく設定される。普通のデフォーカスぼやけの代わりに、誤ってフォーカスされた対象物は複数の重畳されたコピーとして現れる。
カメラアレイからの画像で焦点掃引のプロセスを合成するとき、開口の離散的性質は、重畳されたコピーの画像の統合に結果としてなる。これは、点光源に対する合成焦点距離z>zから本当の対象物距離z=zまでにわたる合成焦点掃引から、結果として生じる出力画像を例示する図28に図示される。システムカーネルは、単一のポイントz=zに収束する4つのラインにより形成される。z<zからの掃引に対して、単一のポイントから分かれる4つのラインが、結果である。累積的な点広がり関数は、仮想カメラ位置(u、v)、カメラのアレイのカメラ位置(u,v;u,v等)及び数、並びに掃引zminからzmaxの関数である。6つのカメラに対して、累積的な点広がり関数は6つの「腕」を持ち、8つのカメラに対して8つの「腕」を持つ等である。
図29は、仮想カメラ位置がディスプレイ画面の中心に非常に近い、離散的焦点ステップでの12のカメラアレイに対する結果として生じる累積的な点広がり関数を示す。
各仮想カメラ位置及びカメラの各アレイに対して、累積的な点広がり関数が確立できる。
ちょうど焦点掃引アプローチに対するように、点広がり関数は、対象物の実際の距離にそれほど依存せず、単一の点広がり逆関数が、高い正確さで全てのポイントに対して正確である画像をデコンボルーションするために用いられる。
合成焦点掃引の結果を持つ出力画像を計算するプロセスは、様々なやり方で計算できる。第1の実行は、多くの焦点距離を通じてステップすることにあって、図30のブロック図に模式的に示されるように、計算を実施する。仮想カメラ位置は、ブロック図のための入力であって、仮想カメラ位置u,vを表わす信号Cにより表わされる。ここで、異なってフォーカスされる画像の蓄積は、十分に小さな増加量を使用して、最も近い距離zminと最も遠い距離zmaxとの間の合成焦点距離の値の範囲を通ってステッピングすることにより得られる。図30において、別々の離散的距離値は、指標値z、z、...zにより示される。点線の長方形のブロック図の部分は、合成的にフォーカスされた画像を供給するため図10に示されるようなスキームを表わす。I0z1(s,t)は焦点距離zの合成的にフォーカスする画像を表わし、I0z2(s,t)は焦点距離zの合成的にフォーカスする画像を表わす等である。
Figure 2013531309
は、加算器SUMで実施される、合成的に再フォーカスされる仮想カメラ画像の蓄積を表わす。これは、非常にぼやけた画像である。しかしながら、上述されたように、この非常にぼやけた画像を点広がり関数でデコンボルーションすることにより、合成オールフォーカス画像が得られる。
Figure 2013531309
は最終的な合成オールフォーカス画像を表わし、IPSFは累積的な点広がり関数の逆関数である。
累積的な点広がり関数を決定するパラメータは、仮想カメラ位置C=(u,v)及びzminからzmaxまでの合成焦点範囲である。ここでまた、仮想出力画像と呼ばれる、この合成オールフォーカス画像は、通常、データ信号の形式である。このデータ信号は、画像表示装置、又は画像データ処理装置へ送られる。仮想出力画像に、例えばメタデータとして、又はフラグの形式で、データ信号付加的情報が加えられる。斯様な付加的なデータは、好ましくは実施例において、仮想カメラ位置及び/又は注視方向を有する。中心を外れた仮想カメラ位置から撮られる人の画像は、中心仮想カメラ位置からアレイに関して、中心を外れた席にいる人から撮られる画像と、ほぼ区別がつかない。データ信号情報に関連する、又はデータ信号情報内にある仮想カメラ位置Cを供給することにより、識別可能である。他の付加的情報は、アレイ内のカメラの配置である。
図30は、M個の合成的に再フォーカスされた画像の範囲の蓄積による合成焦点掃引の多少しらみつぶし的な計算を示す。変換のための様々な実施例があり、多くは結果的に線形オペレーションになる。説明を簡単にするため、累積的なPSFの逆関数での畳み込みを使用する変換が、ここで示される。
第1の実行は、多くの焦点距離を通じてステッピングを行って、図30に示されるように、計算を実施する。ここで、異なったフォーカス画像の蓄積は、十分に小さな増加量を使用して、最も近い距離zminと最も遠い距離zmaxとの間の合成焦点距離の値の範囲を通じてステッピングを行うことにより得られる。図30において、別々の離散的距離値は、指標値z、z、...zにより示される。全ての計算された距離に対する合成的にフォーカスされた画像の累算された合計が、
Figure 2013531309
により示される。これは、合成焦点掃引の後の累積された画像である。式(13)の畳み込みに基づいた並進を使用して、合成焦点掃引後の累積された画像は、以下の式から生じる。
Figure 2013531309
(15)
a,bは、以下に繰り返し示される式(9)で早めに規定されていて、インパルス応答関数を並進する。
a,b(s、t)=δ(s−a)δ(t−b)
(9)
並進ベクトルは、以下に繰り返し示される式(14)で前に規定されている。
Figure 2013531309
(14)
畳み込みベースの実行を使用して、以下に示されるブロック図を構成する。
充分な合成焦点距離値zを使用するとすると、累積的なPSFは、図28に示されるように、通常、「星」形状を採用し、星のスポークはアレイ内にあるカメラと同数である。
オールフォーカス再構成
Figure 2013531309
は、様々なやり方で
Figure 2013531309
から得られる。掃引焦点カメラアレイの実効PSFの逆周波数応答との線形フィルタの畳み込みが、図30に示される。
図28は、特定の距離の空間の単一のポイントの寄与が直線のラインとして投影される出力画像に、どのように合成焦点掃引が結果としてなるかを示す。各ラインは、単一のアレイのカメラに対応する。各ライン自体は、合成される焦点掃引システムの累積的なPSFへの寄与を形成する。合成焦点掃引に基づいた仮想カメラ画像の計算は、完全に線形である。これは、計算の結果を変えることなく、様々なオペレーションの順番を変えることができることを意味する。
Figure 2013531309
(16)
a,bは、(9)で規定されたインパルス応答関数を並進する。
各カメラ画像Ikは、ここで、インパルス応答関数を並進する和と畳み込まれ、一連のデルタ関数のラインを基本的に形成する。合成掃引が焦点の連続的変化に近い必要があるので、インパルス応答関数を並進する和は、単一のインパルス応答
Figure 2013531309
として処理できる連続した線を形成する。
Figure 2013531309
(17)
ここで、開始ポイント及び終了ポイントそれぞれのベクトル(Δs'、Δt'及び(Δs"、Δt"は、合成焦点範囲の開始及び終了それぞれの値z'及びz"により規定される。
Figure 2013531309
(18)
焦点掃引は物理的又は合成的であって連続のプロセスなので、ライン形状の畳み込みに対するより正確な式は、リーマン統合の使用を必要とする。
Figure 2013531309
(19)
よって、図30において、開始ポイントがアレイの個別のカメラからのデータであり、多くの合成的にフォーカスされた画像Iozik(s,t)が作られ、
Figure 2013531309
を作るために加算されるブロック図が示されるのに対し、図31に示されるように、ライン形状の畳み込みでアレイのカメラの画像データを畳み込むこともできる。ライン形状の畳み込みを使用することは、実際に、スタックの無限の数の再フォーカス画像を使用することに等しい方法になるので、経路Sを使用する後者の方法が、実際に、上記で明らかにされているように、無限の数の合成的にフォーカスされた画像を使用することに数学的に等しい。数学的に等価であるにもかかわらず、各画像が直接畳み込まれるので、計算速度が増大できる。経路Sがインパルス関数の並進の和である所において、当該方法は再フォーカス画像のスタックを使用することに等しい。
経路畳み込みを使用することは、計算の速度を増大させる。
図31は、式19で定められるフィルタカーネルを示す。
図32は、この速い正確な実行のブロックスキームを示す。
図32は、距離z=z'からz=z"までの連続範囲で合成的にフォーカスされる合成オールフォーカス画像
Figure 2013531309
の効率的な計算を示す。
Figure 2013531309
から
Figure 2013531309
へ変換する様々な実施例があり、これらの多くは結果的に線形オペレーションになる。説明を簡単にするため、累積的なPSFの逆関数との畳み込みを使用している変換がここで示される。
図30に模式的に示される第1の実施例は、以下の通りに説明できる。
1.カメラのアレイから(又はプレンオプティックカメラから)ライトフィールドデータを繰り返し再フォーカスさせることにより、焦点スタック(I0z1(s,t)、I0z2(s,t)等)を作る。
特定の深度にライトフィールドデータを再フォーカスさせる一つの技術は、視点から距離に比例して個別のカメラ画像をシフトさせ、その後シフトされた画像を加算することである。これは、各別個の焦点距離に対して繰り返される。
2.
Figure 2013531309
を形成する焦点スタック(深度方向に沿った和)を統合する。
3.例えばユニットパルスδを含む画像にステップ1及びステップ2を実施し、焦点スタックを統合することにより、点広がり関数(PSF)を生成する。
4.例えばFFT領域内での直接の分割、又はウィーナー若しくはルーシーリチャードソンデコンボルーションのような他のデコンボルーション方法で、ステップ3からPSFを用いて、ステップ2の統合された画像をデコンボルーションする。
この第1の実施例は、非常に有効であるが、大きな計算パワーを必要とする。
しかしながら、合成焦点掃引を含む仮想カメラ画像の計算は、完全に線形である。これは、上述されたように、計算の結果を変えることなく、様々なオペレーションの順番を変えることができることを意味する。
十分な焦点スタックを生成し、その後統合する代わりに、統合された画像を直接生成することができ、これにより図32に図示されるように、多くの計算を節約する。
斯様な実施例において、以下の通りに計算を再び順番付けできる。
aアレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するステップ(式19)。
b畳み込まれた画像Iconv1(s,t),Iconv2(s,t)を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むステップ。
c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するステップ。
中間の結果は、前述の実施例のステップ1及びステップ2と同一である。上述されたように、これは一致ではないが、2つの実施例は数学的に等価であり、これらは数学的に同じ計算を表わし、計算の結果を変えずに、様々なオペレーションの順番が変えられた。しかしながら、後者の方法は、特に経路が連続関数であるとき、より速くより正確である。
d前記投影経路の統合により点広がり関数を生成するステップ(式17)。
e例えばFFT領域内での直接の分割、又はウィーナー若しくはルーシーリチャードソンデコンボルーションのような他のデコンボルーション方法で、点広がり逆関数を用いて、統合された画像をデコンボルーションするステップ。
この第2の実施例のステップcにおいて供給される統合された画像は、第1の実施例のステップbの統合された画像に対応し、すなわち、これは、(十分な焦点スタック自体がなされなかった場合であっても)様々な深度で再フォーカスされた画像のスタックを統合することにより作られる画像に対応する。
図33は、12台のカメラに対する投影経路PPを例示し、中心仮想カメラ位置に対して、左側のグラフ、中心でない仮想カメラ位置に対して、右側のグラフを示す。仮想カメラ位置は、円で示される。各経路上に統合は等しく、よって、より短い経路は、より高い振幅を持つ。図33は、また、2つの仮想カメラ位置に対する点広がり関数PSFを例示し、最後に左側の一番下で、中央に置かれた仮想カメラ位置に対する点広がり関数の等角図を例示する。仮想カメラ位置がカメラのアレイに関して定められ、経路は仮想カメラ位置に関して定められることがわかる。
十分な焦点スタックを生成し、その後統合する代わりに、アレイの画像捕捉装置からの個別の画像は、それぞれの投影経路で畳み込まれる。結果として生成された画像は、あたかも十分な焦点スタックが作られて、その後統合されたかのような画像である。第2の実施例による方法は、第1の実施例と比較して、必要な計算の数を強力に低減する。図32に例示される第2の実施例は、代替の必要としているより少ないコンピュータパワーのために、図30に図示されるように、様々な深度で再フォーカスされた画像のスタックを統合することにより画像を作ることに対応する画像を供給するルートを供給する。次のステップ、点広がり逆関数IPSFを使用するデコンボルーションは、第1及び第2の実施例両方の部分である。第2の実施例は、より少ない計算パワーしか必要としないので、このことが重要であるシステム、装置又は状況に対して特定の関連がある。画像間の時間は制限されているので、リアルタイムアプリケーションは、これらの一つを形成する。この方法は、また、その速度のおかげで、特に3Dアプリケーションに適している。仮想カメラ位置u,vは、当該方法のための入力であり、任意の位置に選ばれる。よって、わずかに異なるカメラ位置から2つの画像を作ることも可能であり、これによって、オール焦点左目及び右目画像を作ることができる。これは、本発明の実施例の何れにとっても真実であるが、少ない処理パワーが必要とされる実施例によりよく適している。異なるカメラ位置からの2つ以上のオールフォーカス画像は、カメラの同じアレイからの同一データから作ることができる。これは、同一データを並列処理することによりできる。
アレイが比較的多くの数のカメラを有する実施例において、実施例では、異なる視点からの画像を供給するために、アレイは、2つのサブアレイに分割される。例えば、アレイが16台のカメラを持つ実施例では、そのうちの8台は、「右目」カメラ位置からオールフォーカス画像を作り、残りの8台は「左目」カメラ位置からオールフォーカス画像を作るために使用できる。代わりに、カメラが高いフレームレートで画像を記録する実施例において、奇数フレームは一方のタイプの画像を作り、偶数フレームは他方のタイプの画像を作るために用いられる。
図30及び図32は、焦点スタックに対応する画像が作られるスキームを提供する。この画像は、その後デコンボルーションされる。使用される点広がり関数は、選択されるカメラ位置及び焦点範囲に依存する。
点広がり関数は、各仮想カメラ位置u,v及び焦点範囲(zminからzmaxまで)に対して計算されるか、又は、代わりに、点広がり関数のためのパラメータが仮想カメラ位置及び焦点範囲の関数として与えられるテーブルが使用できる。
使用されるカメラがパラメータでもある実施例において、点広がり関数は、使用されるカメラの関数である。用いられるべきカメラの選択は、多くのアプリケーションに対して有用である。
-サブアレイが画像の一方を生成するために使われ、他のサブアレイが画像の他方を生成するために使われる左右画像のアプリケーション。
-使用されるカメラの数が、規定されたシャープな画像を作るために選択できる高解像度−低解像のアプリケーション。これは、必要な計算パワー及び利用可能な計算パワーのバランスをとるために有利である。
-一つ以上のカメラの故障を考慮すること。アレイがx台のカメラを有し、点広がり関数は、全てのカメラが機能していると仮定している場合、これらカメラの1台のカメラのデータの損失は、完全に正しくない点広がり関数に至るだろう。多数のカメラが用いられる所で、これは画像品質の認識可能なロスには多分至らないだろう。しかしながら、カメラの機能を調べて、使用中のカメラに点広がり関数を採用することにより、一つ以上のカメラが故障する場合に、より良好な結果が得られることができる。
これらの実施例の何れの実施例においても、システムは、アレイの個別のカメラより高い解像度で、出力画像を生成できる。付加的なシャープさから利益を享受するために、カメラ画像は、好ましくはサンプリング偽信号を呈する。これらのカメラ画像は、ピクセル反復によってアップスケールされる。システムの残りは、他の実施例のものに等しい。
X―Yステージに取り付けられるカメラを用いて、再構成方法を検証した。このセットアップで、カメラの最適な数及び配置を評価できる。以下は、現在の実行からの幾つかのサンプル画像である。これは、比較的低い解像度カメラ画像のアレイから高解像度画像を得ることを可能にする。図30及び図32のスキーム(又は、他の任意のスキーム)との違いは、画像データを入力する前に、カメラ画像がピクセル反復によりアップスケールされるということであり、よって例えば、1024*1024データを2048*2048ピクセルのアレイにし、各ピクセルが2倍になる。各個別のカメラに対する解像度増大は、もちろん偽であるが、最終画像の解像度の増大の効果は真である。
上記例において、仮想カメラ位置u0、v0が選択される。ライトフィールドの概念は、仮想カメラ位置を選択することとは別に、注視方向を選択可能にする。カメラのアレイからの全体の情報は、特定の注視方向を見ているアレイの各カメラへ仮想カメラが割り当てられるように、再編成でき、すなわち、特定の注視方向を見ているカメラのための画像データを作るための変換がデータに適用される。このとき、これらのカメラデータは、図30及び図32に図示されるように、スキームのための入力である。この結果は、合成的にフォーカスされた画像が、領域を持つ角度の下で構成される、又は、換言すれば、焦点スタックは注視方向を持つということと、結果として生じる画像は、選択された注視方向を見ている仮想カメラ位置からの画像であるということとである。
どのように仮想カメラ位置に対する画像を合成するべきかが上述されている。以下では、仮想カメラの位置を決定又は選択するための幾つかの方法、及び本発明の可能性が利用されるシステムが与えられる。
顕微鏡:
仮想カメラは、最初に視野の中央に配置される。位置は、その後、ユーザ制御で修正できる(対象物の「周り」を見るために)。これらのシステムにおいて、システムは、仮想カメラ位置の入力のための手段を有する。
3D可能なスクリーンと組み合わせて、2つ(以上)の視野を生成し、これにより立体視を提供することが好ましい。好ましくは、ユーザは、3D効果を最適化するため視野間の分離の量を調整できる。これらのシステムにおいて、システムは、2つの仮想カメラ位置間の違いを生成するための入力を有する。
同じ好ましい実施例(すなわち、視点及び立体視をを選択する)は、外科医がカメラ画像に基づいて処置する(ミクロ)手術のようなシステムのためにも非常に有効である。同じことが、遠隔で危険物が扱われなければならないシステムに対して当てはまる。システムは、オペレータが視点を選択し、リアルタイムで正確な3Dオールフォーカス画像を得ることができる。
テレビ会議
テレプレゼンスセットアップにおいて、対話の各参加者は、誰がアドレスしているかを知るために、自然なアイコンタクトを成し遂げることは重要である。例えば、仮想円卓周辺に参加者を配置することができるので、トポロジはスクリーン上へのマッピングのために簡単である(図34A及び図34Bを参照)。各参加者は、スクリーン上の各参加者の頭(好ましくは目)に対応する仮想カメラ位置から生成される、他の加入者へ、ビデオストリームを送る。このように、システムAがシステムBへストリームAB(システムA上のBのスクリーン位置の仮想カメラ)を送り、システムCへストリームAC(ディスプレイA上のCのスクリーン位置の仮想カメラ)を送る。図34Aは、非常に模式的なセットアップを与え、図34Bは、より詳細を示す。
システムAからシステムB及びCへそれぞれ送られる画像データに対して(u,v)B、(u,v)Cそれぞれで図34Bに示される仮想カメラ位置は、ディスプレイA上の人B及びCの頭(目)の位置に基づいて、システムAにより決定される。目の決定された位置は、信号C0B及びC0Cを提供し、ここで、これらの信号はAのスクリーン上で、それぞれBの目及びCの目の位置を示す。Aのシステムは、視点(u,v)B、すなわちBの目から見られる仮想像を作るために入力信号C0Bを使用し、システムBへ仮想出力画像のためのデータを送る。システムAは、
Figure 2013531309
すなわち(u,v)Bから見られる仮想像をシステムBへ送る。システムAの前の人が人Bの目のスクリーンを見るとき、人Bは、人Aとの直接のアイコンタクトに気付くだろう。システムAは、
Figure 2013531309
すなわち(u,v)Cから見られる仮想像をシステムCへ送る。人Cは直接のアイコンタクトに気付かないだろう。全ての必要なオペレーションがシステムAで実施できるので、本発明のこの実施例において、これは既存の通信会議システムに対して旧版互換性を持つ、すなわち、斯様な実施例において、遠隔参加者B及びCだけが本当のアイコンタクトを経験できるが、B及びCは従来のシステムの前に着席できる。しかしながら、全ての参加者A、B及びCが本発明のような仮想カメラ位置を生成するための手段を使用するとき、アイコンタクトの方向は、一貫したやり方で全ての人により知覚される。
仮想カメラ位置は、好ましくは、画面上に現れるので受信者の目の位置と一致する。この位置は、手動で選択できるか、又は最も好ましくは、ビオラ及びジョーンズにより提案される(P.Viola and M.Jones, "Rapid object detection using a boosted cascade of simple features", in Proc. CVPR2001を参照)ようなコンピュータビジョンアルゴリズムにより自動的に検出できる。何れかの人間のインタラクションを必要とすることなく、目の自動的な動的検出が追跡でき、よって、目の自動更新される位置及び動きは、ライブのアイコンタクトを本当に与える。顔認識アルゴリズムが、目検出、又は例えば角膜若しくは網膜上の光の反射により目の位置をマークするシステムのために用いられる。
全ての参加者が仮想カメラ位置を生成するための手段の前で着席するとき、固有の視点が各参加者に対して生成されるので、誰もが誰が会話中に誰とアドレスしているかを知り、本当のアイコンタクトが可能である。また、参加者の1人がテーブルのヘッドにいる会議を再形成することもできる。この場合、1人の参加者から他の参加者への情報ストリームは、テーブルの参加者の位置に関する情報を有しなければならないか、又は、テーブル配置が設定されるべきである。
代わりに、会議の間に、例えば一時的に事項を説明している人をテーブルのヘッドに配置するために、テーブル座席は、変えられる。システムは、参加者又は秘書のような外部の人の1人がテレビ会議の参加者の席を制御する手段を有する。円形又は矩形のテーブルを使用する代わりに、法廷ルーム設定又はレクチャールーム設定のような異なる設定も使用できる。実施例のシステムは、会議中又は会議前に、座席の配置だけでなく設定を選択する手段を有する。
3Dスクリーン
ステレオスクリーンのために、各目の位置に一つの2つの視点が生成される。正確な目の位置がない場合、頭部位置(又は、スクリーン/窓の中心)が採用でき、仮想カメラ位置を実現するため小さなオフセットが、加算/減算される。標準の眼間距離は、ほぼ7.5cmである。実施例のシステムは、頭部位置を決めるための手段を有する。
自動立体的なスクリーンのために、表示視点に対応する複数の視点が生成できる。ここでは同様に、各視点を作るために、位置オフセットが加算/減算される。
図30及び図32のブロックスキームにより例示される上記2つの実施例は、点広がり関数PSFを使用することに基づき、ここで、第2の実施例は、少ない計算パワーしか必要とせず、ある意味では、第1の実施例の計算ショートカットを提供する。
システムの様々な実施例が説明される。
発明者は、同じ通常の概念に基づいて、可能な限りの他の計算を簡略化したものがあると気が付いた。
図32を参照すると、逆フィルタ(蓄積PSFの逆関数との畳み込み)及びカメラ特有のカーネルを画像データとの単一の畳み込みに結合できる。このように、固有のフィルタカーネルが、カメラごとに生成される。合成オールフォーカス画像は、フィルタリングされたアレイカメラ画像の和から起こる。
このスキームは、図35に例示される。利点は、単一の畳み込みが必要とされることである。畳み込み及び加算は交換可能であり、よって、畳み込み及び加算のシーケンスは変更できる。このように、(I*S)*IPSF=(S*IPSF)*Iであり、ここで、Iが画像であり、データSは経路にわたる畳み込みであり、IPSFは点広がり逆関数である。合成オールフォーカス画像は、フィルタリングされたアレイカメラの和から、直接生じる。効果的に、図32及び図35のスキームは、数学的に同じである。
*IPSFは、画像データに依存していない。
更にワンステップ進むことができる。カメラ特有のコンボリューションカーネルS*IPSFは、一組のカメラ特有の、回転される1D畳み込みにより近似できる。この実行は、個別のコンボリューションカーネル(S*IPSF)の(近似の)可分性に基づく。各2Dコンボリューションカーネルは、それぞれのカメラ位置に応じて回転される、一対の直交する1Dコンボリューションカーネル(S'及びHP)で近似される。
フィルタカーネルS...S(すなわち投影経路)は、回転される1Dボックスフィルタとして記述され、すなわちS=R・S'と記述でき、ここでS'は1Dカーネルを示し、Rは回転マトリックスを示す。ボックスフィルタは、その経路に沿って高周波を減衰させ、従って、この方向のIPSFの効果(ハイパス挙動を持つ)を抑制する。ボックスフィルタSで畳み込まれたIPSFの残りのハイパス効果は、主にボックスフィルタ(すなわち投影経路)に対して直交であり、回転される1DカーネルR・HPに単純化でき、ここで、HPは1Dカーネルを示す。
要約すると以下の通りである。S*IPSFは、回転される1対の1Dコンボリューションカーネル(S'及びHP)で近似される。
Figure 2013531309
(20)
ここで、Rはカメラ位置u、v、u、vから導出される回転マトリックスを示す。回転角度φは以下の式により与えられる。
tan(φ)=(v−v)/(u−u
(21)
ボックスフィルタSi(投影経路)の長さは以下の式により与えられる。
Figure 2013531309
(22)
ボックスフィルタSの大きさは、1/||S||である。
コンボリューションカーネルHPは、ハイパスフィルタ挙動を持ち、周波数応答として近似的に|f|(周波数の絶対値)を生じ、V字型の大きさの応答を引き起こす。
・カーネルHPは、以下の方法の1つにより導出できる。
・(IPSFのRadon変換のような)カメラアングルφに沿って、生成されたIPSFを統合する。
・Radonと同等とみなし、好ましくはフィルタ長||S||を持つRam―Lakフィルタを使用する。
・一定のハイパスフィルタ、例えば[−2 5 ―2]を使用する。
・R ―1・(S*IPSF)の単一の値分解。S及びHPが水平及び垂直軸に位置合わせされるように、回転マトリックスR ―1は、2Dカーネルを回転させるために用いられるので、これによって、分解を単純化する。
・周波数ベースの方法(フーリエ空間でスライスする)
試行錯誤方法ももちろん可能であり、ここで、厳密な方法の結果は近似の方法と比較され、フィルタのパラメータが精細に調整される。
2つの畳み込みは、任意のシーケンスで実施でき、すなわち最初に投影経路との畳み込みと、次に投影経路と直交するフィルタHPとの畳み込みを実行するか、又は逆もまた同じである。
図36は、ハイパスフィルタ(HP)との畳み込みが、それぞれの経路Sとの畳み込みの後、実施されるブロックスキームを例示する。
図36は、フィルタリングされた逆投影に基づいて、最小の焦点距離から最大の焦点距離まで、距離の連続的範囲で合成的にフォーカスされる合成オールフォーカス画像の速い近似計算を例示する。
第1の態様と同様に、畳み込みのシーケンスは変更できる。
よって、本発明のこの態様は、様々な実施例で実施できる。
第1の実施例は、以下により与えられる。
a.アレイの各画像捕捉装置に対する画像シフトの投影経路を生成すること。
b.個別のカメラ画像をそれぞれの投影経路と畳み込むこと。
c.その後、各画像捕捉装置の画像を投影経路と直交するハイパスフィルタと畳み込むこと。
これは、図36に例示される実施例である。
第2の実施例は、以下により与えられる。
a.アレイの各画像捕捉装置に対する画像シフトの投影経路を生成すること。
b.各画像捕捉装置の画像を投影経路と直交するハイパスフィルタと畳み込むこと。
c.その後、個別のカメラ画像をそれぞれの投影経路と畳み込むこと。
これは、畳み込みのシーケンスを切り換えたことになる。
第3実施例は、以下により与えられる。
a.アレイの各画像捕捉装置に対する画像シフトの投影経路を生成すること。当該経路は、アレイに関する仮想カメラ位置に関して決定される。
b.それぞれの投影経路を当該経路に直交するハイパスフィルタと畳み込むことにより各画像に対する畳み込みフィルタを生成すること。
c.個別のカメラ画像をbで生成されたそれぞれのフィルタと畳み込むこと。
この実施例は、図35と類似している。
本発明のこの態様の利点は、方法が非常に急速であるという事実であり、不利な点は計算が概算であるということである。これは、幾らかの正確さを犠牲にして、更に計算パワーを低減する。
固定のパラメータを持つフィルタが使用できるが、好ましくは、ハイパスフィルタは、投影経路、特に投影経路の長さの関数であるパラメータを持つ。
畳み込みカーネルが一組の回転される1Dフィルタへ分解されることは、投影経路及びハイパスフィルタが本当に1次元であるように、回転を取り除くことにより、更にシステムを最適化するために意味がある。画像を回転させることは計算的により高価なようであるが、斯様なオペレーションは現代のグラフィックスカードで容易に利用可能であり、ここで、ほとんど計算労力を必要とせずに、コストは単純な座標変換へ減少される一方で、フィルタリングオペレーションのための後続の計算労力は強く低減される。
結果として生じるスキームは、図37に例示される。
図37において、ブロックR*S及びR*HPは、純粋な水平及び垂直1Dフィルタであることを注記する。図37は、好ましい実施例を例示する。
図38は、本発明による方法の結果を例示する。上半分は、ディスプレイ画面の周辺の24台のカメラにより撮られる24個の画像を模式的に示す。下半分は、オールフォーカス画像が得られることを示し、様々な仮想カメラ位置から撮られる画像が示され、それぞれ中央の仮想カメラ位置、左右の仮想カメラ位置に対する画像である。
図39は、ディスプレイ画面周辺の16台のカメラのアレイを持つシステム印象を提供する。大きな窓に描写された受信している参加者は、仮想図視点VPから、ビデオストリームを受信する。注視されるとき、参加者は直接のアイコンタクトに気が付く。
本発明の方法は、プレンオプティックカメラにより実施できる。
拡張される焦点深度は、例えば顕微鏡及びデジタル病理学に対して非常に有効である。
単一の捕捉は、大部分又は全体のサンプル深度範囲を含むことができ、例えば顕微鏡の正確なフォーカシングのニーズを減らす。データレート及びサンプリング時間が低減される。
本発明の方法は、例えばコンピュータスクリーン周辺にある個別のカメラのアレイによっても実施できる。これは、とりわけ、スクリーン表面内の仮想カメラ位置を可能にする。計算パワーの低減された要求は、スクリーンの表面内の仮想視点の作成を単純化し、その結果、リアルタイムでの実施を可能にする。
好ましい実施例において、スクリーンの周りのカメラの数は、少なくとも4台、好ましくは8台以上である。PSFの正確な決定及び仮想視点の正確な決定のため、4台以上のカメラが有効である。均一に分散された比較的多くの数のカメラが使用される実施例において、方法は、実施例において上述されたようにカメラアレイの2つのサブセットを交互に使用することを有する。2つのサブセットがわずかに異なる仮想視点を持つ場合、リアルタイムオール焦点3D記録が可能である。
本発明は、所与の例示的な実施例に制限されない。
請求項において、括弧内の何れの参照符号も、請求項を制限するものとして解釈されない。
用語「有する」は、請求項にリストされるもの以外の別の要素又はステップの存在を除外しない。本発明は、上述されたように様々な異なる好ましい実施例の特徴の組合せにより実行されてもよい。
カメラは、画像を記録するための任意の装置である。これは、通信のような他の目的にも使用される装置の一部でもよいし、斯様な通信装置に取り付けられる、一体化される、又は協働する装置の一部でもよい。
方法のステップを実施するための手段は、ハードウェア、ソフトウェア又はこれらの任意の組み合わせの形でもよい。本発明の様々な実施例によるシステム及び装置において、方法のステップを実施するための手段が供給される。明細書又は請求項の方法のステップの一つ以上のステップを実施する「ための手段」と記載されているところで、当該手段は、ステップの全てを実施するための複合手段、又は、各々が方法のステップの一つ以上を実施するための手段である多くの手段に対する略語でもよい。よって、「統合するための手段」は、ソフトウェア、ハードウェア又はこれらの組み合わせの何れかとして「統合器」も使われる。「生成するための手段」は生成のための生成器と呼ばれ、「畳み込むための手段」は畳み込み器と呼ばれ、「加算するための手段」は加算器と呼ばれ、「構成するための手段」は構成器と呼ばれ、「デコンボルーションするための手段」はデコンボルバーと呼ばれ、本発明の概念の範囲内で、これらは、ソフトウェア、ハードウェア又は他の任意のウェアの一部でもよい。様々な手段は、説明の容易さのために別々であるとして説明された。これは、本発明が別々のユニットである手段に限定されることを意味するわけではなく、これらの機能は、合成された装置又はソフトウェアの部分に組み込まれることができる。
方法及びシステムが利用される所で、何れの手段も、カメラの近く若しくはカメラ内に、又はカメラが接続されるシーンの近くの装置にあることができる。しかしながら、システムが遠隔で制御されるので、画像データは、遠隔でも分析又は処理できる。データを扱うための手段は、何れの態様でも、同じ位置に位置されている必要はない。データ処置の幾つかは、特に図35のような、カメラからのデータが単一の畳み込みで畳み込まれる実施例において、カメラに位置される又はカメラ近くの手段により実施できるのに対し、和すなわち加算のようなより通常のデータ処置はCPUの手段により実施できる。個別のカメラの画像データが処置を受け、例えばそれぞれの経路(S)で個別の画像を畳み込む実施例は、本発明の斯様な実施例において、これらの処置が、カメラ付近の、カメラにアタッチされた、又はカメラと一体化された手段によりなされる画像を捕捉した後、直ちに実施できるので、この点で有利である。これは、オペレーションの速度を増大する。
本発明は、プログラムがコンピュータで動くとき、本発明による方法を実施するためのプログラムコード手段を有するコンピュータプログラム、本発明による方法を実施するためのコンピュータ可読媒体に格納されるプログラムコード手段を有するコンピュータプログラムにも関する。
「各画像捕捉装置」という記載がある所では、本発明の方法で用いられる及び/又はシステムでアクティブである各装置が意味される。カメラの大きなアレイが例えばディスプレイ画面周辺に存在するとき、アレイはサブアレイに副分割され、一つ以上のサブアレイが本発明を実施するが、必ずしも本発明の同じ実施例でなくてもよい。システムがN個の画像捕捉装置のアレイを有するとき、例えば収集され処理及び/又は送られなければならないデータの量を減らすために、画像捕捉装置の一部(M<N)だけが使用されることも可能である。これは、意図された受信装置から受け取られるデータに応じてなされてもよい。例えば、仮想出力画像が限られた解像度だけを持つ例えば携帯機器のような装置に送られるべき場合、高品質画像を生成するためのニーズがなく、受信側で限られた解像度だけが利用可能で、よって、画像を供給する方法で使用される画像捕捉装置の数が制限されてもよいとすると、例えばディスプレイ画面周辺のカメラの半分又は1/4だけ、例えば16台のうち8台だけを使用してもよい。
要約すると、本発明は、以下のように説明できる。
画像捕捉装置のアレイから仮想出力画像を供給するための方法及びシステムにおいて、画像データ(I(s,t)、I(s,t))は、装置(C、C)からとられる。この画像データは、関数、例えば経路(S)で画像データ(I(s,t)、I(s,t))を畳みこみ、その後、加算(SUM)の後又は前で、オールフォーカス画像データ
Figure 2013531309
を作るために、これらを、点広がり逆関数(IPSF)又はそれと等価若しくは同様のフィルタ(HP)でデコンボルーションすることにより処理される。これは、位置が入力方法及びシステムを形成する当該仮想カメラ位置に関してなされる。特に、2つ以上のインタラクティブ(副)システムが用いられるとき、当該方法及びシステムは有利である。本発明は、このとき、リアルタイムの現実的なアイコンタクトシミュレーションを可能にする。

Claims (26)

  1. 異なる視点からの複数の個別の画像を捕捉するための画像捕捉装置のアレイにより供給される個別の入力画像の入力画像データから仮想出力画像のための出力画像データを作る方法であって、シーンの複数の深度レイヤに基づいて前記個別の入力画像の対応する画素値の加算ステップ及び逆フィルタリングステップを有する方法において、仮想カメラ位置が仮想カメラ位置を表わす入力仮想カメラ位置信号により供給され、加算及び逆フィルタリングステップが、前記仮想カメラ位置から見てるように仮想出力画像のための画像データを作るために、前記仮想カメラ位置に依存して実施されることを特徴とする、方法。
  2. 加算及び逆フィルタリングステップが、前記個別の画像の前記入力画像データから、複数の深度で合成的にフォーカスされる複数の画像のための画像データを構成するステップと、統合されたぼやけた画像に対する画像データを形成するために様々な深度で前記合成的にフォーカスされる複数の画像の画像データを加算するステップと、その後、前記個別の画像の入力画像データから、仮想画像に対する画像データを作るため点広がり逆関数を使用して、前記統合されたぼやけた画像をデコンボルーションするステップとを有する、請求項1に記載の方法。
  3. a前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、特定の深度に依存して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるステップを複数の深度に対して実施するステップと、b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するステップと、c前記統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するステップと、d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するステップと、e前記入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する、請求項2に記載の方法。
  4. 加算及び逆フィルタリングのステップが、a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、b畳み込まれた画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むステップと、c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するステップと、d前記投影経路の統合により点広がり関数を生成するステップと、e前記入力された仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する、請求項1に記載の方法。
  5. 加算及び逆フィルタリングステップが、a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、b前記投影経路の統合により点広がり関数を生成するステップと、c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むステップと、d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むステップと、e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する、請求項1に記載の方法。
  6. 加算及び逆フィルタリングのステップが、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、bそれぞれの投影経路と前記個別の画像を畳み込むステップと、c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むステップと、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する、請求項1に記載の方法。
  7. 加算及び逆フィルタリングのステップが、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するステップと、c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むステップと、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する、請求項1に記載の方法。
  8. 複数の仮想視点が画像捕捉装置のアレイにより捕捉された一組の画像から同時に生成される、請求項1乃至7の何れか一項に記載の方法。
  9. 画像捕捉装置の前記アレイがディスプレイ画面の周辺のカメラのアレイであり、前記仮想カメラ位置が前記ディスプレイ画面のポイントである、請求項1乃至8の何れか一項に記載の方法。
  10. 少なくとも一つの仮想カメラ位置が前記ディスプレイ画面上の目の位置を測定することにより決定される、請求項9に記載の方法。
  11. 前記少なくとも一つの仮想カメラ位置が目検出位置手段により自動的且つ動的に決定される、請求項10に記載の方法。
  12. 左右の目の仮想カメラ位置のための2つの仮想カメラ位置が、2つの仮想カメラ位置での2つの仮想出力画像を提供するために供給される、請求項1乃至11の何れか一項に記載の方法。
  13. プログラムがコンピュータ上で動くとき、請求項1乃至12の何れか一項に記載の方法を実施するためのプログラムコード手段を有する、コンピュータプログラム。
  14. プログラムがコンピュータ上で動くとき、請求項1乃至12の何れか一項に記載の方法を実施するためのコンピュータ可読媒体に格納されたプログラムコード手段を有するコンピュータプログラム。
  15. 異なる視点からの画像を捕捉するための画像捕捉装置のアレイを有し、画像捕捉装置のアレイにより得られる入力画像から出力画像を構成するためのシステムであって、前記システムは、前記アレイの画像捕捉装置から画像データを捕捉するための手段を有し、前記システムは、シーンの複数の深度レイヤに基づいて個別の入力画像の対応する画素値の加算及び逆フィルタリングを実施するための手段を有する前記システムにおいて、前記システムは、仮想カメラ位置を表わす入力仮想カメラ位置信号により、選択される仮想カメラ位置を供給するための手段を有し、前記加算及び逆フィルタリングを実施するための手段が、選択された前記仮想カメラ位置の関数として、前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置での仮想出力画像のための画像データを作るために実施することを特徴とする、システム。
  16. 前記加算及び逆フィルタリングのための手段は、前記個別の画像の前記入力画像データから、複数の深度で合成的にフォーカスされる複数の画像のための画像データを構成する手段と、統合されたぼやけた画像に対する画像データを形成するために様々な深度で前記合成的にフォーカスされる複数の画像の画像データを加算する手段と、前記個別の画像の入力画像データから、仮想画像に対する画像データを作るため点広がり逆関数を使用して、前記統合されたぼやけた画像をデコンボルーションするための手段とを有する、請求項15に記載のシステム。
  17. a複数の深度に対して、前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の深度に依存して、且つ特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるための手段と、b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するための手段と、c前記統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するための手段と、d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するための手段と、e前記入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する、請求項16に記載のシステム。
  18. 前記加算及び逆フィルタリングを実施するための手段が、a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、b畳み込まれた画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むための手段と、c統合されたぼやけた画像を形成するために畳み込まれた画像を加算するための手段と、d前記投影経路の統合により点広がり関数を生成するための手段と、e前記入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する、請求項15に記載のシステム。
  19. 前記加算及び逆フィルタリングを実施するための手段が、a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、b前記投影経路の統合により点広がり関数を生成するための手段と、c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むための手段と、d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むための手段と、e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する、請求項15に記載のシステム。
  20. 前記加算及び逆フィルタリングを実施するための手段が、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、bそれぞれの投影経路と前記個別の画像を畳み込むための手段と、c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むための手段と、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する、請求項15に記載のシステム。
  21. 前記加算及び逆フィルタリングを実施するための手段が、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するための手段と、c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むための手段と、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する、請求項15に記載のシステム。
  22. 画像捕捉装置の前記アレイがディスプレイ画面の周辺のカメラのアレイであり、前記仮想カメラ位置がディスプレイ画面のポイントである、請求項15乃至21の何れか一項に記載のシステム。
  23. 前記システムは、各サブシステムがディスプレイ画面の周辺のカメラのアレイを有する2つのインタラクティブな当該サブシステムを有し、前記サブシステムの1つのサブシステムのディスプレイ画面の仮想カメラ位置が、他方のサブシステムの観察者の目の位置を測定することにより前記他方のサブシステムにより決定される、請求項22に記載のシステム。
  24. 前記システムは、レンズと画像センサと、前記レンズと前記画像センサとの間にあるマイクロレンズアレイとを持つプレンオプティックカメラを有し、前記プレンオプティックカメラは画像捕捉装置の前記アレイを有する、請求項15乃至21の何れか一項に記載のシステム。
  25. 前記アレイが2つ以上のサブアレに副分割される、請求項15乃至24の何れか一項に記載のシステム。
  26. 異なる仮想カメラ位置を前記サブアレイ各々に割り当てる、請求項25に記載のシステム。
JP2013517609A 2010-06-29 2011-06-20 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム Active JP6279321B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10167628.6 2010-06-29
EP10167628A EP2403234A1 (en) 2010-06-29 2010-06-29 Method and system for constructing a compound image from data obtained by an array of image capturing devices
PCT/IB2011/052677 WO2012001568A1 (en) 2010-06-29 2011-06-20 Method and system for producing a virtual output image from data obtained by an array of image capturing devices

Publications (3)

Publication Number Publication Date
JP2013531309A true JP2013531309A (ja) 2013-08-01
JP2013531309A5 JP2013531309A5 (ja) 2014-08-07
JP6279321B2 JP6279321B2 (ja) 2018-02-14

Family

ID=43127439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013517609A Active JP6279321B2 (ja) 2010-06-29 2011-06-20 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム

Country Status (5)

Country Link
US (1) US9013477B2 (ja)
EP (2) EP2403234A1 (ja)
JP (1) JP6279321B2 (ja)
CN (1) CN102959945B (ja)
WO (1) WO2012001568A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002578A1 (ja) * 2014-07-04 2016-01-07 ソニー株式会社 画像処理装置および方法
JP2016126144A (ja) * 2014-12-26 2016-07-11 キヤノン株式会社 撮像装置及び撮像システム
US9681042B2 (en) 2012-09-12 2017-06-13 Canon Kabushiki Kaisha Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
JP2017520944A (ja) * 2014-04-24 2017-07-27 クゥアルコム・インコーポレイテッドQualcomm Incorporated 3dラドン画像の生成および使用
JP2019114250A (ja) * 2017-12-21 2019-07-11 株式会社ニコン 画像処理装置、画像処理プログラム、画像処理方法および撮像装置
JP2020129147A (ja) * 2018-07-26 2020-08-27 キヤノン株式会社 撮像装置及び撮像システム

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588877B1 (ko) 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2192546A1 (en) * 2008-12-01 2010-06-02 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO Method for recognizing objects in a set of images recorded by one or more cameras
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
EP2569935B1 (en) 2010-05-12 2016-12-28 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP2014519741A (ja) 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
JP5968107B2 (ja) * 2011-09-01 2016-08-10 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
JP2013101528A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US9137441B2 (en) * 2012-02-16 2015-09-15 Ricoh Co., Ltd. Spatial reconstruction of plenoptic images
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
WO2014052974A2 (en) * 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
WO2014071254A1 (en) 2012-11-01 2014-05-08 Eyecam, LLC Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
JP6091176B2 (ja) * 2012-11-19 2017-03-08 キヤノン株式会社 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
US9137524B2 (en) * 2012-11-27 2015-09-15 Qualcomm Incorporated System and method for generating 3-D plenoptic video images
US20140176532A1 (en) * 2012-12-26 2014-06-26 Nvidia Corporation Method for image correction and an electronic device embodying the same
KR101701790B1 (ko) * 2013-01-18 2017-02-02 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
WO2014133481A1 (en) * 2013-02-26 2014-09-04 Hewlett-Packard Development Company, L.P. Multiview 3d telepresence
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
TWI605418B (zh) * 2013-04-15 2017-11-11 晨星半導體股份有限公司 影像編輯方法以及影像處理裝置
TWI508554B (zh) * 2013-05-21 2015-11-11 Univ Nat Taiwan 基於光場相機的影像對焦處理方法及其系統
US9344619B2 (en) * 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9426343B2 (en) 2013-11-07 2016-08-23 Pelican Imaging Corporation Array cameras incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
EP3116216A4 (en) * 2014-03-03 2017-02-15 Panasonic Intellectual Property Management Co., Ltd. Image pickup apparatus
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9762895B1 (en) * 2014-03-11 2017-09-12 Rockwell Collins, Inc. Dual simultaneous image presentation for a three-dimensional aviation display
WO2015137635A1 (en) * 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
KR102228456B1 (ko) * 2014-03-13 2021-03-16 삼성전자주식회사 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법
CA2848794C (en) * 2014-04-11 2016-05-24 Blackberry Limited Building a depth map using movement of one camera
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9786057B2 (en) * 2014-09-19 2017-10-10 Lasertec Coporation Inspection apparatus, coordinate detection apparatus, coordinate detection method, and wavefront aberration correction method
WO2016054089A1 (en) 2014-09-29 2016-04-07 Pelican Imaging Corporation Systems and methods for dynamic calibration of array cameras
CN104363369B (zh) * 2014-11-17 2017-11-03 清华大学深圳研究生院 一种光场相机的图像恢复方法及装置
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
EP3035284A1 (en) * 2014-12-19 2016-06-22 Thomson Licensing Method and apparatus for generating an adapted slice image from a focal stack
CN105825493B (zh) * 2015-01-09 2019-05-03 华为技术有限公司 图像配准方法和装置
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
EP3094076A1 (en) 2015-05-13 2016-11-16 Thomson Licensing Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
EP3099055A1 (en) * 2015-05-29 2016-11-30 Thomson Licensing Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
EP3106912A1 (en) * 2015-06-17 2016-12-21 Thomson Licensing An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image
US10701318B2 (en) 2015-08-14 2020-06-30 Pcms Holdings, Inc. System and method for augmented reality multi-view telepresence
CL2015003495A1 (es) * 2015-11-30 2016-07-15 Univ Concepcion Un proceso que permite eliminar el ruido de patrón fijo en imágenes efectivas formadas por arreglos de sensores electromagnéticos de un campo de luz mediante un reenfoque digital.
US10810696B2 (en) * 2015-12-16 2020-10-20 Stc.Unm System and methods for computing 2-D convolutions and cross-correlations
CN108603745B (zh) * 2016-02-04 2020-04-28 富士胶片株式会社 信息处理装置、信息处理方法及程序
WO2017172528A1 (en) 2016-04-01 2017-10-05 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
EP3258456B1 (en) * 2016-06-14 2018-08-15 The Boeing Company System and method to protect the privacy of ads-b messages
JP6681068B2 (ja) * 2016-06-14 2020-04-15 国立研究開発法人理化学研究所 データ復元装置、顕微鏡システム、およびデータ復元方法
JP6742869B2 (ja) * 2016-09-15 2020-08-19 キヤノン株式会社 画像処理装置および画像処理方法
US20180096494A1 (en) * 2016-09-30 2018-04-05 Visbit Inc. View-optimized light field image and video streaming
US10460505B2 (en) * 2016-12-30 2019-10-29 Google Llc Systems and methods for lightfield reconstruction utilizing contribution regions
CN110612536B (zh) * 2017-05-19 2024-01-26 谷歌有限责任公司 神经机器翻译的逐深度可分离卷积
CN110999281B (zh) 2017-06-09 2021-11-26 Pcms控股公司 一种用于允许在虚拟景观中探索的方法及装置
US11227405B2 (en) 2017-06-21 2022-01-18 Apera Ai Inc. Determining positions and orientations of objects
EP3422288B1 (en) 2017-06-26 2020-02-26 Tecan Trading Ag Imaging a well of a microplate
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
KR20190051697A (ko) 2017-11-07 2019-05-15 삼성전자주식회사 뉴럴 네트워크의 디컨벌루션 연산을 수행하는 장치 및 방법
CN110068328B (zh) * 2018-01-22 2022-08-26 腾讯科技(深圳)有限公司 导航路线生成方法、装置、计算机可读存储介质和计算机设备
JP6569769B2 (ja) * 2018-04-25 2019-09-04 株式会社ニコン 任意視点画像合成方法及び画像処理装置
CN108922273A (zh) * 2018-07-16 2018-11-30 湖南城市学院 一种智能化英语学习桌
CN109325992B (zh) * 2018-10-19 2023-07-04 珠海金山数字网络科技有限公司 图像绘制方法和装置、计算设备及存储介质
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
TWI725620B (zh) * 2019-11-14 2021-04-21 大陸商南京深視光點科技有限公司 全向立體視覺的相機配置系統及相機配置方法
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
US11954819B1 (en) * 2020-02-28 2024-04-09 Unm Rainforest Innovations System and methods for fast and scalable 2D convolutions and cross-correlations for processing image databases and videos on CPUs
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN117795974A (zh) * 2021-08-05 2024-03-29 三星电子株式会社 支持图像数据去模糊的电子装置和方法
CN113793284B (zh) * 2021-11-17 2022-03-15 武汉工程大学 气动光学效应空变模糊图像不均匀分块的图像复原方法
US11425283B1 (en) * 2021-12-09 2022-08-23 Unity Technologies Sf Blending real and virtual focus in a virtual display environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09107534A (ja) * 1995-10-11 1997-04-22 Canon Inc テレビ会議装置及びテレビ会議システム
JPH09130768A (ja) * 1995-02-16 1997-05-16 Sumitomo Electric Ind Ltd 伝送手段を介して対話者間の視線を一致させる機構を備えた双方向対話型システム、端末装置、及び撮像装置
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法
JP2005142765A (ja) * 2003-11-05 2005-06-02 Sony Corp 撮像装置及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL148664A0 (en) * 2002-03-13 2002-09-12 Yeda Res & Dev Auto-focusing method and device
JP2006518050A (ja) * 2003-02-18 2006-08-03 オクラホマ メディカル リサーチ ファウンデーション 焦点深度拡張顕微鏡法
US8754829B2 (en) * 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130768A (ja) * 1995-02-16 1997-05-16 Sumitomo Electric Ind Ltd 伝送手段を介して対話者間の視線を一致させる機構を備えた双方向対話型システム、端末装置、及び撮像装置
JPH09107534A (ja) * 1995-10-11 1997-04-22 Canon Inc テレビ会議装置及びテレビ会議システム
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法
JP2005142765A (ja) * 2003-11-05 2005-06-02 Sony Corp 撮像装置及び方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9681042B2 (en) 2012-09-12 2017-06-13 Canon Kabushiki Kaisha Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
JP2017520944A (ja) * 2014-04-24 2017-07-27 クゥアルコム・インコーポレイテッドQualcomm Incorporated 3dラドン画像の生成および使用
WO2016002578A1 (ja) * 2014-07-04 2016-01-07 ソニー株式会社 画像処理装置および方法
JP2016126144A (ja) * 2014-12-26 2016-07-11 キヤノン株式会社 撮像装置及び撮像システム
JP2019114250A (ja) * 2017-12-21 2019-07-11 株式会社ニコン 画像処理装置、画像処理プログラム、画像処理方法および撮像装置
WO2020129280A1 (ja) * 2017-12-21 2020-06-25 株式会社ニコン 画像処理装置、画像処理プログラム、画像処理方法および撮像装置
JP7238381B2 (ja) 2017-12-21 2023-03-14 株式会社ニコン 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡
JP2020129147A (ja) * 2018-07-26 2020-08-27 キヤノン株式会社 撮像装置及び撮像システム

Also Published As

Publication number Publication date
CN102959945A (zh) 2013-03-06
EP2403234A1 (en) 2012-01-04
CN102959945B (zh) 2016-09-21
EP2589215A1 (en) 2013-05-08
JP6279321B2 (ja) 2018-02-14
US9013477B2 (en) 2015-04-21
WO2012001568A1 (en) 2012-01-05
US20130088489A1 (en) 2013-04-11
EP2589215B1 (en) 2016-01-20

Similar Documents

Publication Publication Date Title
JP6279321B2 (ja) 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム
JP4437228B2 (ja) 焦点ぼけ構造を用いたイメージング装置及びイメージング方法
TWI510086B (zh) 數位重對焦方法
EP3101624B1 (en) Image processing method and image processing device
JP5968107B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
Ideses et al. Three methods that improve the visual quality of colour anaglyphs
JP2009518877A (ja) 3次元ライトフィールドを取得し、表示するための方法およびシステム
WO2015100301A1 (en) 3-d light field camera and photography method
WO2012056685A1 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
KR101600681B1 (ko) 집적 영상시스템의 3차원 영상 표시깊이변환방법
KR101828805B1 (ko) 스테레오 카메라의 3차원 줌 영상 생성 방법 및 장치
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP2016225811A (ja) 画像処理装置、画像処理方法およびプログラム
Kwon et al. Advanced three-dimensional visualization system for an integral imaging microscope using a fully convolutional depth estimation network
WO2018079283A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR102253320B1 (ko) 집적영상 현미경 시스템에서의 3차원 영상 디스플레이 방법 및 이를 구현하는 집적영상 현미경 시스템
KR101391095B1 (ko) 이미지의 뎁스 정보를 이용한 스테레오 비전 이미지 개선 방법 및 장치
Jang et al. 3D image correlator using computational integral imaging reconstruction based on modified convolution property of periodic functions
JP7014175B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
Wafa et al. Learning-based light field view synthesis for efficient transmission and storage
JPH08116556A (ja) 画像処理方法および装置
Alazawi et al. Super Depth-map rendering by converting holoscopic viewpoint to perspective projection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140619

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160330

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180117

R150 Certificate of patent or registration of utility model

Ref document number: 6279321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250