JP2013531309A - 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム - Google Patents
画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム Download PDFInfo
- Publication number
- JP2013531309A JP2013531309A JP2013517609A JP2013517609A JP2013531309A JP 2013531309 A JP2013531309 A JP 2013531309A JP 2013517609 A JP2013517609 A JP 2013517609A JP 2013517609 A JP2013517609 A JP 2013517609A JP 2013531309 A JP2013531309 A JP 2013531309A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual camera
- camera position
- images
- array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 238000001914 filtration Methods 0.000 claims description 32
- 238000013519 translation Methods 0.000 claims description 22
- 230000014616 translation Effects 0.000 claims description 22
- 238000005316 response function Methods 0.000 claims description 20
- 230000010354 integration Effects 0.000 claims description 17
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 22
- 239000002131 composite material Substances 0.000 description 21
- 230000035508 accumulation Effects 0.000 description 14
- 238000009825 accumulation Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 11
- 230000001186 cumulative effect Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 238000003491 array Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 210000003128 head Anatomy 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 240000006829 Ficus sundaica Species 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 239000003637 basic solution Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 229910052704 radon Inorganic materials 0.000 description 1
- SYUHGPGVQRZVTB-UHFFFAOYSA-N radon atom Chemical compound [Rn] SYUHGPGVQRZVTB-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- G06T5/73—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/676—Bracketing for image capture at varying focusing conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Abstract
Description
a前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、特定の深度に依存して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるステップを複数の深度に対して実施するステップと、
b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するステップと、
c統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するステップと、
d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するステップと、
e入力仮想カメラ位置信号により供給される仮想カメラ位置で仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する。
a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
b畳み込まれた(コンボルーションされた)画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むステップと、
c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するステップと、
d前記投影経路の統合により点広がり関数を生成するステップと、
e入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する。
a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
b前記投影経路の統合により点広がり関数を生成するステップと、
c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むステップと、
d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むステップと、
e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有することにより特徴付けられる。
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
bそれぞれの投影経路と前記個別の画像を畳み込むステップと、
c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むステップと、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する。
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、
bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するステップと、
c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むステップと、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する。
a複数の深度に対して、前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の深度に依存して、且つ特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるための手段と、
b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するための手段と、
c前記統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するための手段と、
d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するための手段と、
e前記入力された仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する。
a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
b畳み込まれた画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むための手段と、
c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するための手段と、
d前記投影経路の統合により点広がり関数を生成するための手段と、
e前記入力された仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する。
a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
b前記投影経路の統合により点広がり関数を生成するための手段と、
c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むための手段と、
d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むための手段と、
e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する。
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
bそれぞれの投影経路と前記個別の画像を畳み込むための手段と、
c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むための手段と、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する。
a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、
bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するための手段と、
c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むための手段と、
d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する。
レンズ平面とセンサ平面との間の光線の完全な収集は、しばしばライトフィールドと呼ばれ、これは、スタンフォード大学のマーク・リーボイにより紹介された用語である。ライトフィールドは、レンズ口径から出発してセンサ平面に達するまでの全ての光線の完全な(強度についての)記述である。ライトフィールドを規定する最も単純なやり方は、関数Lf(s、t、u、v)であり、ここで、u及びvはレンズ平面内の座標であり、s及びtは画像平面内の座標である。ライトフィールドについての十分な知識は、様々な深度での画像の十分な再構成を可能にする。図1は、特定のシンボルの規定を例示する。Lは、レンズ平面を表わし、Sはセンサ平面を表わす。
(1)
ここで、統合(積分)はレンズ平面(u,v)にわたってとられる。
γ=(α+β−1)/α
及び
δ=(α+β−1)/β
(2)
合成された画像は、以下の一般式に従う。
(3)
ここで、α≠1はセンサ平面SP以外の合成焦点面SFPを示し、β≠1は最初のレンズ平面とは異なる合成開口平面を示す。統合における(u',v')の範囲の限定は円以外の開口の任意の形状を合成可能にすることに留意されたい。
単一のカメラ、すなわちプレンオプティックカメラを持つマイクロレンズのアレイと単一のレンズを持つカメラの拡張されたアレイとの間の対応がある。両方とも、画像捕捉装置のアレイを持つシステムであり、プレンオプティックカメラにおいて、画像捕捉装置のアレイは、マイクロレンズの各々を通って光を捕捉する画像センサの小さな部分のアレイにより、画像センサ内で形成される。単一のレンズを持つカメラの拡張アレイにおいて、カメラ自体が画像捕捉装置のアレイである。従って、プレンオプティックカメラのマイクロレンズアレイに対してこの明細書で説明されるように、様々な深度での合成開口技術及び生成再フォーカス画像は、拡張されたカメラアレイにも適用でき、またこの逆も成立する。しかしながら、プレンオプティックカメラとカメラのアレイとの大きな違いは、カメラのアレイがプレンオプティックカメラによりカバーされるより大きい領域にわたって分散できるということである。カメラの拡張されたアレイを有するシステムは、このとき、全体のカメラアレイと同じ大きさの開口を持つ単一のカメラとして機能し、これは、プレンオプティックカメラの開口より通常非常に大きい。
図4は、ポイントPを観察するカメラアレイの上面図を模式的に示す。カメラはピンホールカメラとして扱われ、この簡略化は、分析の実際的な値を制限することはない。各カメラの位置は、指数k(k=1、2、3...)でカメラセンターCkにより示され、カメラセンターは、カメラのピンホールの位置である。このピンホール又は一般的には光中心は、カメラの画像平面上の世界の透視投影の中心として機能する。各カメラの画像平面は、カメラセンターから焦点距離fに位置され、ピンホールの後ろの代わりの前方の画像平面の配置も、数学的に等価である。各カメラ画像Ik(s,t)は、座標系(s,t)を持つ。原理的に、各カメラは、任意の位置、焦点距離及び向きを持つことができる。しかしながら、説明を簡単にするため、座標系(u,v)を持つ単一の平面にカメラが位置されると仮定し続ける。カメラセンターCkの座標は、Ck=(uk,vk)として規定される。最初に、カメラが水平ラインに位置されると仮定する。焦点距離は同一であるとみなされ、これらのカメラは画像平面が一致するように前方に向かっている。これらの簡略化は、分析の一般的有効性を制限していない。
図6は、シフトされた画像の蓄積に基づく合成再フォーカスの概念を例示する。左に、3つの異なるカメラ画像、カメラ1に対するI1(s,t)、カメラ2に対するI2(s,t)、カメラ3に対するI3(s,t)が、それぞれ水平画像座標s1、s2及びs3での対象物の全く同一のポイントPの投影で示される。投影s1とs2との間の距離は、図6のΔs(C1、C2)により与えられる。投影s1とs3との間の距離は、Δs(C1、C3)により与えられる。ポイントs1、s2及びs3は、距離Δs(C1、C2)にわたってカメラC2の画像をシフトさせ、距離Δs(C1、C3)にわたってカメラC3の画像をシフトさせることにより位置合わせされる。視差のため3つの投影されたポイント間の距離は、観察されたポイントPの距離に直接関係する。画像座標の差と距離との間の関係は、以下の式に従う。
Δs=−Δu(f/z)
(4)
(5)
ここで、Nはカメラの数であり、各並進ベクトルは、以下の式に従う。
(6)
表記()Tはマトリックス又はベクトル転置操作を識別する。
(7)
ここで、表記*は畳み込みを示し、
(8)
ここで、フィルタカーネル
は、畳み込みの後ベクトル(Δsk,Δtk)Tにわたる出力画像フレームの並進された位置に入力データが現れるようにするシフトされたδ関数である。
Ta,b(s、t)=δ(s−a,t−b)
(9)
δ関数は、インパルス反応関数として、以下のように規定される。
(10)
式(9)によるフィルタカーネルのグラフィック描写が、図7に示される。
は、加算器SUMで実施される、合成的に再フォーカスされる仮想カメラ画像の蓄積を表わす。これは、非常にぼやけた画像である。しかしながら、上述されたように、この非常にぼやけた画像を点広がり関数でデコンボルーションすることにより、合成オールフォーカス画像が得られる。
は最終的な合成オールフォーカス画像を表わし、IPSFは累積的な点広がり関数の逆関数である。
により示される。これは、合成焦点掃引の後の累積された画像である。式(13)の畳み込みに基づいた並進を使用して、合成焦点掃引後の累積された画像は、以下の式から生じる。
(15)
Ta,bは、以下に繰り返し示される式(9)で早めに規定されていて、インパルス応答関数を並進する。
Ta,b(s、t)=δ(s−a)δ(t−b)
(9)
並進ベクトルは、以下に繰り返し示される式(14)で前に規定されている。
(14)
畳み込みベースの実行を使用して、以下に示されるブロック図を構成する。
(16)
Ta,bは、(9)で規定されたインパルス応答関数を並進する。
として処理できる連続した線を形成する。
(17)
ここで、開始ポイント及び終了ポイントそれぞれのベクトル(Δs'k、Δt'k)T及び(Δs"k、Δt"k)Tは、合成焦点範囲の開始及び終了それぞれの値z'及びz"により規定される。
(18)
焦点掃引は物理的又は合成的であって連続のプロセスなので、ライン形状の畳み込みに対するより正確な式は、リーマン統合の使用を必要とする。
(19)
を作るために加算されるブロック図が示されるのに対し、図31に示されるように、ライン形状の畳み込みでアレイのカメラの画像データを畳み込むこともできる。ライン形状の畳み込みを使用することは、実際に、スタックの無限の数の再フォーカス画像を使用することに等しい方法になるので、経路Sを使用する後者の方法が、実際に、上記で明らかにされているように、無限の数の合成的にフォーカスされた画像を使用することに数学的に等しい。数学的に等価であるにもかかわらず、各画像が直接畳み込まれるので、計算速度が増大できる。経路Sがインパルス関数の並進の和である所において、当該方法は再フォーカス画像のスタックを使用することに等しい。
の効率的な計算を示す。
から
へ変換する様々な実施例があり、これらの多くは結果的に線形オペレーションになる。説明を簡単にするため、累積的なPSFの逆関数との畳み込みを使用している変換がここで示される。
1.カメラのアレイから(又はプレンオプティックカメラから)ライトフィールドデータを繰り返し再フォーカスさせることにより、焦点スタック(I0z1(s,t)、I0z2(s,t)等)を作る。
2.
を形成する焦点スタック(深度方向に沿った和)を統合する。
3.例えばユニットパルスδを含む画像にステップ1及びステップ2を実施し、焦点スタックを統合することにより、点広がり関数(PSF)を生成する。
4.例えばFFT領域内での直接の分割、又はウィーナー若しくはルーシーリチャードソンデコンボルーションのような他のデコンボルーション方法で、ステップ3からPSFを用いて、ステップ2の統合された画像をデコンボルーションする。
aアレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するステップ(式19)。
b畳み込まれた画像Iconv1(s,t),Iconv2(s,t)を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むステップ。
c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するステップ。
中間の結果は、前述の実施例のステップ1及びステップ2と同一である。上述されたように、これは一致ではないが、2つの実施例は数学的に等価であり、これらは数学的に同じ計算を表わし、計算の結果を変えずに、様々なオペレーションの順番が変えられた。しかしながら、後者の方法は、特に経路が連続関数であるとき、より速くより正確である。
d前記投影経路の統合により点広がり関数を生成するステップ(式17)。
e例えばFFT領域内での直接の分割、又はウィーナー若しくはルーシーリチャードソンデコンボルーションのような他のデコンボルーション方法で、点広がり逆関数を用いて、統合された画像をデコンボルーションするステップ。
-サブアレイが画像の一方を生成するために使われ、他のサブアレイが画像の他方を生成するために使われる左右画像のアプリケーション。
-使用されるカメラの数が、規定されたシャープな画像を作るために選択できる高解像度−低解像のアプリケーション。これは、必要な計算パワー及び利用可能な計算パワーのバランスをとるために有利である。
-一つ以上のカメラの故障を考慮すること。アレイがx台のカメラを有し、点広がり関数は、全てのカメラが機能していると仮定している場合、これらカメラの1台のカメラのデータの損失は、完全に正しくない点広がり関数に至るだろう。多数のカメラが用いられる所で、これは画像品質の認識可能なロスには多分至らないだろう。しかしながら、カメラの機能を調べて、使用中のカメラに点広がり関数を採用することにより、一つ以上のカメラが故障する場合に、より良好な結果が得られることができる。
仮想カメラは、最初に視野の中央に配置される。位置は、その後、ユーザ制御で修正できる(対象物の「周り」を見るために)。これらのシステムにおいて、システムは、仮想カメラ位置の入力のための手段を有する。
テレプレゼンスセットアップにおいて、対話の各参加者は、誰がアドレスしているかを知るために、自然なアイコンタクトを成し遂げることは重要である。例えば、仮想円卓周辺に参加者を配置することができるので、トポロジはスクリーン上へのマッピングのために簡単である(図34A及び図34Bを参照)。各参加者は、スクリーン上の各参加者の頭(好ましくは目)に対応する仮想カメラ位置から生成される、他の加入者へ、ビデオストリームを送る。このように、システムAがシステムBへストリームAB(システムA上のBのスクリーン位置の仮想カメラ)を送り、システムCへストリームAC(ディスプレイA上のCのスクリーン位置の仮想カメラ)を送る。図34Aは、非常に模式的なセットアップを与え、図34Bは、より詳細を示す。
すなわち(u0,v0)Bから見られる仮想像をシステムBへ送る。システムAの前の人が人Bの目のスクリーンを見るとき、人Bは、人Aとの直接のアイコンタクトに気付くだろう。システムAは、
すなわち(u0,v0)Cから見られる仮想像をシステムCへ送る。人Cは直接のアイコンタクトに気付かないだろう。全ての必要なオペレーションがシステムAで実施できるので、本発明のこの実施例において、これは既存の通信会議システムに対して旧版互換性を持つ、すなわち、斯様な実施例において、遠隔参加者B及びCだけが本当のアイコンタクトを経験できるが、B及びCは従来のシステムの前に着席できる。しかしながら、全ての参加者A、B及びCが本発明のような仮想カメラ位置を生成するための手段を使用するとき、アイコンタクトの方向は、一貫したやり方で全ての人により知覚される。
ステレオスクリーンのために、各目の位置に一つの2つの視点が生成される。正確な目の位置がない場合、頭部位置(又は、スクリーン/窓の中心)が採用でき、仮想カメラ位置を実現するため小さなオフセットが、加算/減算される。標準の眼間距離は、ほぼ7.5cmである。実施例のシステムは、頭部位置を決めるための手段を有する。
(20)
ここで、Riはカメラ位置ui、vi、u0、v0から導出される回転マトリックスを示す。回転角度φは以下の式により与えられる。
tan(φi)=(vi−v0)/(ui−u0)
(21)
ボックスフィルタSi(投影経路)の長さは以下の式により与えられる。
(22)
ボックスフィルタSiの大きさは、1/||Si||である。
・カーネルHPiは、以下の方法の1つにより導出できる。
・(IPSFのRadon変換のような)カメラアングルφに沿って、生成されたIPSFを統合する。
・Radonと同等とみなし、好ましくはフィルタ長||Si||を持つRam―Lakフィルタを使用する。
・一定のハイパスフィルタ、例えば[−2 5 ―2]を使用する。
・Ri ―1・(Si*IPSF)の単一の値分解。Si及びHPiが水平及び垂直軸に位置合わせされるように、回転マトリックスRi ―1は、2Dカーネルを回転させるために用いられるので、これによって、分解を単純化する。
・周波数ベースの方法(フーリエ空間でスライスする)
第1の実施例は、以下により与えられる。
a.アレイの各画像捕捉装置に対する画像シフトの投影経路を生成すること。
b.個別のカメラ画像をそれぞれの投影経路と畳み込むこと。
c.その後、各画像捕捉装置の画像を投影経路と直交するハイパスフィルタと畳み込むこと。
a.アレイの各画像捕捉装置に対する画像シフトの投影経路を生成すること。
b.各画像捕捉装置の画像を投影経路と直交するハイパスフィルタと畳み込むこと。
c.その後、個別のカメラ画像をそれぞれの投影経路と畳み込むこと。
第3実施例は、以下により与えられる。
a.アレイの各画像捕捉装置に対する画像シフトの投影経路を生成すること。当該経路は、アレイに関する仮想カメラ位置に関して決定される。
b.それぞれの投影経路を当該経路に直交するハイパスフィルタと畳み込むことにより各画像に対する畳み込みフィルタを生成すること。
c.個別のカメラ画像をbで生成されたそれぞれのフィルタと畳み込むこと。
を作るために、これらを、点広がり逆関数(IPSF)又はそれと等価若しくは同様のフィルタ(HP)でデコンボルーションすることにより処理される。これは、位置が入力方法及びシステムを形成する当該仮想カメラ位置に関してなされる。特に、2つ以上のインタラクティブ(副)システムが用いられるとき、当該方法及びシステムは有利である。本発明は、このとき、リアルタイムの現実的なアイコンタクトシミュレーションを可能にする。
Claims (26)
- 異なる視点からの複数の個別の画像を捕捉するための画像捕捉装置のアレイにより供給される個別の入力画像の入力画像データから仮想出力画像のための出力画像データを作る方法であって、シーンの複数の深度レイヤに基づいて前記個別の入力画像の対応する画素値の加算ステップ及び逆フィルタリングステップを有する方法において、仮想カメラ位置が仮想カメラ位置を表わす入力仮想カメラ位置信号により供給され、加算及び逆フィルタリングステップが、前記仮想カメラ位置から見てるように仮想出力画像のための画像データを作るために、前記仮想カメラ位置に依存して実施されることを特徴とする、方法。
- 加算及び逆フィルタリングステップが、前記個別の画像の前記入力画像データから、複数の深度で合成的にフォーカスされる複数の画像のための画像データを構成するステップと、統合されたぼやけた画像に対する画像データを形成するために様々な深度で前記合成的にフォーカスされる複数の画像の画像データを加算するステップと、その後、前記個別の画像の入力画像データから、仮想画像に対する画像データを作るため点広がり逆関数を使用して、前記統合されたぼやけた画像をデコンボルーションするステップとを有する、請求項1に記載の方法。
- a前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、特定の深度に依存して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるステップを複数の深度に対して実施するステップと、b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するステップと、c前記統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するステップと、d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するステップと、e前記入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する、請求項2に記載の方法。
- 加算及び逆フィルタリングのステップが、a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、b畳み込まれた画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むステップと、c前記統合されたぼやけた画像を形成するために畳み込まれた画像を加算するステップと、d前記投影経路の統合により点広がり関数を生成するステップと、e前記入力された仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするステップとを有する、請求項1に記載の方法。
- 加算及び逆フィルタリングステップが、a前記アレイの各画像捕捉装置に対して仮想カメラ位置に関する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、b前記投影経路の統合により点広がり関数を生成するステップと、c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むステップと、d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むステップと、e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する、請求項1に記載の方法。
- 加算及び逆フィルタリングのステップが、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、bそれぞれの投影経路と前記個別の画像を畳み込むステップと、c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むステップと、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する、請求項1に記載の方法。
- 加算及び逆フィルタリングのステップが、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するステップであって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するステップと、bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するステップと、c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むステップと、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するステップとを有する、請求項1に記載の方法。
- 複数の仮想視点が画像捕捉装置のアレイにより捕捉された一組の画像から同時に生成される、請求項1乃至7の何れか一項に記載の方法。
- 画像捕捉装置の前記アレイがディスプレイ画面の周辺のカメラのアレイであり、前記仮想カメラ位置が前記ディスプレイ画面のポイントである、請求項1乃至8の何れか一項に記載の方法。
- 少なくとも一つの仮想カメラ位置が前記ディスプレイ画面上の目の位置を測定することにより決定される、請求項9に記載の方法。
- 前記少なくとも一つの仮想カメラ位置が目検出位置手段により自動的且つ動的に決定される、請求項10に記載の方法。
- 左右の目の仮想カメラ位置のための2つの仮想カメラ位置が、2つの仮想カメラ位置での2つの仮想出力画像を提供するために供給される、請求項1乃至11の何れか一項に記載の方法。
- プログラムがコンピュータ上で動くとき、請求項1乃至12の何れか一項に記載の方法を実施するためのプログラムコード手段を有する、コンピュータプログラム。
- プログラムがコンピュータ上で動くとき、請求項1乃至12の何れか一項に記載の方法を実施するためのコンピュータ可読媒体に格納されたプログラムコード手段を有するコンピュータプログラム。
- 異なる視点からの画像を捕捉するための画像捕捉装置のアレイを有し、画像捕捉装置のアレイにより得られる入力画像から出力画像を構成するためのシステムであって、前記システムは、前記アレイの画像捕捉装置から画像データを捕捉するための手段を有し、前記システムは、シーンの複数の深度レイヤに基づいて個別の入力画像の対応する画素値の加算及び逆フィルタリングを実施するための手段を有する前記システムにおいて、前記システムは、仮想カメラ位置を表わす入力仮想カメラ位置信号により、選択される仮想カメラ位置を供給するための手段を有し、前記加算及び逆フィルタリングを実施するための手段が、選択された前記仮想カメラ位置の関数として、前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置での仮想出力画像のための画像データを作るために実施することを特徴とする、システム。
- 前記加算及び逆フィルタリングのための手段は、前記個別の画像の前記入力画像データから、複数の深度で合成的にフォーカスされる複数の画像のための画像データを構成する手段と、統合されたぼやけた画像に対する画像データを形成するために様々な深度で前記合成的にフォーカスされる複数の画像の画像データを加算する手段と、前記個別の画像の入力画像データから、仮想画像に対する画像データを作るため点広がり逆関数を使用して、前記統合されたぼやけた画像をデコンボルーションするための手段とを有する、請求項15に記載のシステム。
- a複数の深度に対して、前記仮想カメラ位置に前記個別の入力画像を位置合わせするために、特定の深度に依存して、且つ特定の画像捕捉装置の位置と前記仮想カメラ位置との間の距離に比例して、前記画像捕捉装置により供給される前記個別の入力画像をシフトさせるための手段と、b前記複数の深度で合成的にフォーカスされる画像の画像データを形成するために、各深度でシフトされた画像に対する画像データを加算するための手段と、c前記統合されたぼやけた画像を形成するために複数の合成的にフォーカスされる画像を加算するための手段と、d画素に対する予想されるぼやけカーネルを統合することにより点広がり関数を生成するための手段と、e前記入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する、請求項16に記載のシステム。
- 前記加算及び逆フィルタリングを実施するための手段が、a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、b畳み込まれた画像を形成するためにそれぞれの投影経路と前記個別の画像を畳み込むための手段と、c統合されたぼやけた画像を形成するために畳み込まれた画像を加算するための手段と、d前記投影経路の統合により点広がり関数を生成するための手段と、e前記入力仮想カメラ位置信号により供給される仮想カメラ位置で前記仮想出力画像に対する画像データを作るため、前記点広がり関数の逆関数を用いて、統合されたぼやけた画像をデコンボルーションするための手段とを有する、請求項15に記載のシステム。
- 前記加算及び逆フィルタリングを実施するための手段が、a前記アレイの各画像捕捉装置に対する仮想カメラ位置に関する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、b前記投影経路の統合により点広がり関数を生成するための手段と、c各画像に対して、それぞれの投影経路を点広がり逆関数と畳み込むための手段と、d畳み込まれた画像を供給する点広がり逆関数と経路との畳みこみで各画像を畳み込むための手段と、e前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する、請求項15に記載のシステム。
- 前記加算及び逆フィルタリングを実施するための手段が、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、bそれぞれの投影経路と前記個別の画像を畳み込むための手段と、c各画像捕捉装置の画像を前記投影経路と直交するハイパスフィルタと畳み込むための手段と、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する、請求項15に記載のシステム。
- 前記加算及び逆フィルタリングを実施するための手段が、a前記仮想カメラ位置に関して決定される、前記アレイの各画像捕捉装置に対する画像シフトの投影経路を生成するための手段であって、画像捕捉装置の画像を複数の深度で前記仮想カメラ位置と位置合わせするため、インパルス応答関数の並進の和である当該投影経路を生成するための手段と、bそれぞれの投影経路を当該投影経路と直交するハイパスフィルタと畳み込むことにより、各画像に対する畳み込みフィルタを生成するための手段と、c前記個別の入力画像をbで生成されたそれぞれの畳みこみフィルタと畳み込むための手段と、d前記入力仮想カメラ位置信号により供給される前記仮想カメラ位置で前記仮想出力画像に対する画像データを作るため畳み込まれた画像を加算するための手段とを有する、請求項15に記載のシステム。
- 画像捕捉装置の前記アレイがディスプレイ画面の周辺のカメラのアレイであり、前記仮想カメラ位置がディスプレイ画面のポイントである、請求項15乃至21の何れか一項に記載のシステム。
- 前記システムは、各サブシステムがディスプレイ画面の周辺のカメラのアレイを有する2つのインタラクティブな当該サブシステムを有し、前記サブシステムの1つのサブシステムのディスプレイ画面の仮想カメラ位置が、他方のサブシステムの観察者の目の位置を測定することにより前記他方のサブシステムにより決定される、請求項22に記載のシステム。
- 前記システムは、レンズと画像センサと、前記レンズと前記画像センサとの間にあるマイクロレンズアレイとを持つプレンオプティックカメラを有し、前記プレンオプティックカメラは画像捕捉装置の前記アレイを有する、請求項15乃至21の何れか一項に記載のシステム。
- 前記アレイが2つ以上のサブアレに副分割される、請求項15乃至24の何れか一項に記載のシステム。
- 異なる仮想カメラ位置を前記サブアレイ各々に割り当てる、請求項25に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP10167628.6 | 2010-06-29 | ||
EP10167628A EP2403234A1 (en) | 2010-06-29 | 2010-06-29 | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
PCT/IB2011/052677 WO2012001568A1 (en) | 2010-06-29 | 2011-06-20 | Method and system for producing a virtual output image from data obtained by an array of image capturing devices |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013531309A true JP2013531309A (ja) | 2013-08-01 |
JP2013531309A5 JP2013531309A5 (ja) | 2014-08-07 |
JP6279321B2 JP6279321B2 (ja) | 2018-02-14 |
Family
ID=43127439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013517609A Active JP6279321B2 (ja) | 2010-06-29 | 2011-06-20 | 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9013477B2 (ja) |
EP (2) | EP2403234A1 (ja) |
JP (1) | JP6279321B2 (ja) |
CN (1) | CN102959945B (ja) |
WO (1) | WO2012001568A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016002578A1 (ja) * | 2014-07-04 | 2016-01-07 | ソニー株式会社 | 画像処理装置および方法 |
JP2016126144A (ja) * | 2014-12-26 | 2016-07-11 | キヤノン株式会社 | 撮像装置及び撮像システム |
US9681042B2 (en) | 2012-09-12 | 2017-06-13 | Canon Kabushiki Kaisha | Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus |
JP2017520944A (ja) * | 2014-04-24 | 2017-07-27 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 3dラドン画像の生成および使用 |
JP2019114250A (ja) * | 2017-12-21 | 2019-07-11 | 株式会社ニコン | 画像処理装置、画像処理プログラム、画像処理方法および撮像装置 |
JP2020129147A (ja) * | 2018-07-26 | 2020-08-27 | キヤノン株式会社 | 撮像装置及び撮像システム |
Families Citing this family (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101588877B1 (ko) | 2008-05-20 | 2016-01-26 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2192546A1 (en) * | 2008-12-01 | 2010-06-02 | Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO | Method for recognizing objects in a set of images recorded by one or more cameras |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
EP2569935B1 (en) | 2010-05-12 | 2016-12-28 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
JP2014519741A (ja) | 2011-05-11 | 2014-08-14 | ペリカン イメージング コーポレイション | アレイカメラ画像データを伝送および受信するためのシステムおよび方法 |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
JP5968107B2 (ja) * | 2011-09-01 | 2016-08-10 | キヤノン株式会社 | 画像処理方法、画像処理装置およびプログラム |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
WO2013049699A1 (en) | 2011-09-28 | 2013-04-04 | Pelican Imaging Corporation | Systems and methods for encoding and decoding light field image files |
JP2013101528A (ja) * | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
US9137441B2 (en) * | 2012-02-16 | 2015-09-15 | Ricoh Co., Ltd. | Spatial reconstruction of plenoptic images |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
US9100635B2 (en) | 2012-06-28 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays and optic arrays |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
SG11201500910RA (en) | 2012-08-21 | 2015-03-30 | Pelican Imaging Corp | Systems and methods for parallax detection and correction in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
WO2014043641A1 (en) | 2012-09-14 | 2014-03-20 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
WO2014052974A2 (en) * | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating images from light fields utilizing virtual viewpoints |
WO2014071254A1 (en) | 2012-11-01 | 2014-05-08 | Eyecam, LLC | Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing |
US9143711B2 (en) | 2012-11-13 | 2015-09-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
JP6091176B2 (ja) * | 2012-11-19 | 2017-03-08 | キヤノン株式会社 | 画像処理方法、画像処理プログラム、画像処理装置および撮像装置 |
US9137524B2 (en) * | 2012-11-27 | 2015-09-15 | Qualcomm Incorporated | System and method for generating 3-D plenoptic video images |
US20140176532A1 (en) * | 2012-12-26 | 2014-06-26 | Nvidia Corporation | Method for image correction and an electronic device embodying the same |
KR101701790B1 (ko) * | 2013-01-18 | 2017-02-02 | 인텔 코포레이션 | 디포커스 블러에 대한 분산 추정 광 필드 재구성 |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
WO2014133974A1 (en) | 2013-02-24 | 2014-09-04 | Pelican Imaging Corporation | Thin form computational and modular array cameras |
WO2014133481A1 (en) * | 2013-02-26 | 2014-09-04 | Hewlett-Packard Development Company, L.P. | Multiview 3d telepresence |
WO2014138697A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
WO2014165244A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
WO2014145856A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9497370B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Array camera architecture implementing quantum dot color filters |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
TWI605418B (zh) * | 2013-04-15 | 2017-11-11 | 晨星半導體股份有限公司 | 影像編輯方法以及影像處理裝置 |
TWI508554B (zh) * | 2013-05-21 | 2015-11-11 | Univ Nat Taiwan | 基於光場相機的影像對焦處理方法及其系統 |
US9344619B2 (en) * | 2013-08-30 | 2016-05-17 | Qualcomm Incorporated | Method and apparatus for generating an all-in-focus image |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US9426343B2 (en) | 2013-11-07 | 2016-08-23 | Pelican Imaging Corporation | Array cameras incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
US9426361B2 (en) | 2013-11-26 | 2016-08-23 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
EP3116216A4 (en) * | 2014-03-03 | 2017-02-15 | Panasonic Intellectual Property Management Co., Ltd. | Image pickup apparatus |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US9762895B1 (en) * | 2014-03-11 | 2017-09-12 | Rockwell Collins, Inc. | Dual simultaneous image presentation for a three-dimensional aviation display |
WO2015137635A1 (en) * | 2014-03-13 | 2015-09-17 | Samsung Electronics Co., Ltd. | Image pickup apparatus and method for generating image having depth information |
KR102228456B1 (ko) * | 2014-03-13 | 2021-03-16 | 삼성전자주식회사 | 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법 |
CA2848794C (en) * | 2014-04-11 | 2016-05-24 | Blackberry Limited | Building a depth map using movement of one camera |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
US9786057B2 (en) * | 2014-09-19 | 2017-10-10 | Lasertec Coporation | Inspection apparatus, coordinate detection apparatus, coordinate detection method, and wavefront aberration correction method |
WO2016054089A1 (en) | 2014-09-29 | 2016-04-07 | Pelican Imaging Corporation | Systems and methods for dynamic calibration of array cameras |
CN104363369B (zh) * | 2014-11-17 | 2017-11-03 | 清华大学深圳研究生院 | 一种光场相机的图像恢复方法及装置 |
US9292926B1 (en) | 2014-11-24 | 2016-03-22 | Adobe Systems Incorporated | Depth map generation |
EP3035284A1 (en) * | 2014-12-19 | 2016-06-22 | Thomson Licensing | Method and apparatus for generating an adapted slice image from a focal stack |
CN105825493B (zh) * | 2015-01-09 | 2019-05-03 | 华为技术有限公司 | 图像配准方法和装置 |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
EP3094076A1 (en) | 2015-05-13 | 2016-11-16 | Thomson Licensing | Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter |
EP3099055A1 (en) * | 2015-05-29 | 2016-11-30 | Thomson Licensing | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product |
EP3106912A1 (en) * | 2015-06-17 | 2016-12-21 | Thomson Licensing | An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image |
US10701318B2 (en) | 2015-08-14 | 2020-06-30 | Pcms Holdings, Inc. | System and method for augmented reality multi-view telepresence |
CL2015003495A1 (es) * | 2015-11-30 | 2016-07-15 | Univ Concepcion | Un proceso que permite eliminar el ruido de patrón fijo en imágenes efectivas formadas por arreglos de sensores electromagnéticos de un campo de luz mediante un reenfoque digital. |
US10810696B2 (en) * | 2015-12-16 | 2020-10-20 | Stc.Unm | System and methods for computing 2-D convolutions and cross-correlations |
CN108603745B (zh) * | 2016-02-04 | 2020-04-28 | 富士胶片株式会社 | 信息处理装置、信息处理方法及程序 |
WO2017172528A1 (en) | 2016-04-01 | 2017-10-05 | Pcms Holdings, Inc. | Apparatus and method for supporting interactive augmented reality functionalities |
EP3258456B1 (en) * | 2016-06-14 | 2018-08-15 | The Boeing Company | System and method to protect the privacy of ads-b messages |
JP6681068B2 (ja) * | 2016-06-14 | 2020-04-15 | 国立研究開発法人理化学研究所 | データ復元装置、顕微鏡システム、およびデータ復元方法 |
JP6742869B2 (ja) * | 2016-09-15 | 2020-08-19 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US20180096494A1 (en) * | 2016-09-30 | 2018-04-05 | Visbit Inc. | View-optimized light field image and video streaming |
US10460505B2 (en) * | 2016-12-30 | 2019-10-29 | Google Llc | Systems and methods for lightfield reconstruction utilizing contribution regions |
CN110612536B (zh) * | 2017-05-19 | 2024-01-26 | 谷歌有限责任公司 | 神经机器翻译的逐深度可分离卷积 |
CN110999281B (zh) | 2017-06-09 | 2021-11-26 | Pcms控股公司 | 一种用于允许在虚拟景观中探索的方法及装置 |
US11227405B2 (en) | 2017-06-21 | 2022-01-18 | Apera Ai Inc. | Determining positions and orientations of objects |
EP3422288B1 (en) | 2017-06-26 | 2020-02-26 | Tecan Trading Ag | Imaging a well of a microplate |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US11314399B2 (en) | 2017-10-21 | 2022-04-26 | Eyecam, Inc. | Adaptive graphic user interfacing system |
KR20190051697A (ko) | 2017-11-07 | 2019-05-15 | 삼성전자주식회사 | 뉴럴 네트워크의 디컨벌루션 연산을 수행하는 장치 및 방법 |
CN110068328B (zh) * | 2018-01-22 | 2022-08-26 | 腾讯科技(深圳)有限公司 | 导航路线生成方法、装置、计算机可读存储介质和计算机设备 |
JP6569769B2 (ja) * | 2018-04-25 | 2019-09-04 | 株式会社ニコン | 任意視点画像合成方法及び画像処理装置 |
CN108922273A (zh) * | 2018-07-16 | 2018-11-30 | 湖南城市学院 | 一种智能化英语学习桌 |
CN109325992B (zh) * | 2018-10-19 | 2023-07-04 | 珠海金山数字网络科技有限公司 | 图像绘制方法和装置、计算设备及存储介质 |
KR102646521B1 (ko) | 2019-09-17 | 2024-03-21 | 인트린식 이노베이션 엘엘씨 | 편광 큐를 이용한 표면 모델링 시스템 및 방법 |
MX2022004163A (es) | 2019-10-07 | 2022-07-19 | Boston Polarimetrics Inc | Sistemas y metodos para la deteccion de estandares de superficie con polarizacion. |
TWI725620B (zh) * | 2019-11-14 | 2021-04-21 | 大陸商南京深視光點科技有限公司 | 全向立體視覺的相機配置系統及相機配置方法 |
KR20230116068A (ko) | 2019-11-30 | 2023-08-03 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법 |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
US11954819B1 (en) * | 2020-02-28 | 2024-04-09 | Unm Rainforest Innovations | System and methods for fast and scalable 2D convolutions and cross-correlations for processing image databases and videos on CPUs |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
CN117795974A (zh) * | 2021-08-05 | 2024-03-29 | 三星电子株式会社 | 支持图像数据去模糊的电子装置和方法 |
CN113793284B (zh) * | 2021-11-17 | 2022-03-15 | 武汉工程大学 | 气动光学效应空变模糊图像不均匀分块的图像复原方法 |
US11425283B1 (en) * | 2021-12-09 | 2022-08-23 | Unity Technologies Sf | Blending real and virtual focus in a virtual display environment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09107534A (ja) * | 1995-10-11 | 1997-04-22 | Canon Inc | テレビ会議装置及びテレビ会議システム |
JPH09130768A (ja) * | 1995-02-16 | 1997-05-16 | Sumitomo Electric Ind Ltd | 伝送手段を介して対話者間の視線を一致させる機構を備えた双方向対話型システム、端末装置、及び撮像装置 |
JP2003009108A (ja) * | 2001-06-26 | 2003-01-10 | Minolta Co Ltd | 画像通信システム、画像通信装置、および画像通信方法 |
JP2005142765A (ja) * | 2003-11-05 | 2005-06-02 | Sony Corp | 撮像装置及び方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL148664A0 (en) * | 2002-03-13 | 2002-09-12 | Yeda Res & Dev | Auto-focusing method and device |
JP2006518050A (ja) * | 2003-02-18 | 2006-08-03 | オクラホマ メディカル リサーチ ファウンデーション | 焦点深度拡張顕微鏡法 |
US8754829B2 (en) * | 2012-08-04 | 2014-06-17 | Paul Lapstun | Scanning light field camera and display |
-
2010
- 2010-06-29 EP EP10167628A patent/EP2403234A1/en not_active Withdrawn
-
2011
- 2011-06-20 US US13/704,285 patent/US9013477B2/en active Active
- 2011-06-20 EP EP11731124.1A patent/EP2589215B1/en active Active
- 2011-06-20 WO PCT/IB2011/052677 patent/WO2012001568A1/en active Application Filing
- 2011-06-20 CN CN201180032543.6A patent/CN102959945B/zh active Active
- 2011-06-20 JP JP2013517609A patent/JP6279321B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09130768A (ja) * | 1995-02-16 | 1997-05-16 | Sumitomo Electric Ind Ltd | 伝送手段を介して対話者間の視線を一致させる機構を備えた双方向対話型システム、端末装置、及び撮像装置 |
JPH09107534A (ja) * | 1995-10-11 | 1997-04-22 | Canon Inc | テレビ会議装置及びテレビ会議システム |
JP2003009108A (ja) * | 2001-06-26 | 2003-01-10 | Minolta Co Ltd | 画像通信システム、画像通信装置、および画像通信方法 |
JP2005142765A (ja) * | 2003-11-05 | 2005-06-02 | Sony Corp | 撮像装置及び方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9681042B2 (en) | 2012-09-12 | 2017-06-13 | Canon Kabushiki Kaisha | Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus |
JP2017520944A (ja) * | 2014-04-24 | 2017-07-27 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 3dラドン画像の生成および使用 |
WO2016002578A1 (ja) * | 2014-07-04 | 2016-01-07 | ソニー株式会社 | 画像処理装置および方法 |
JP2016126144A (ja) * | 2014-12-26 | 2016-07-11 | キヤノン株式会社 | 撮像装置及び撮像システム |
JP2019114250A (ja) * | 2017-12-21 | 2019-07-11 | 株式会社ニコン | 画像処理装置、画像処理プログラム、画像処理方法および撮像装置 |
WO2020129280A1 (ja) * | 2017-12-21 | 2020-06-25 | 株式会社ニコン | 画像処理装置、画像処理プログラム、画像処理方法および撮像装置 |
JP7238381B2 (ja) | 2017-12-21 | 2023-03-14 | 株式会社ニコン | 画像処理装置、画像処理プログラム、画像処理方法および顕微鏡 |
JP2020129147A (ja) * | 2018-07-26 | 2020-08-27 | キヤノン株式会社 | 撮像装置及び撮像システム |
Also Published As
Publication number | Publication date |
---|---|
CN102959945A (zh) | 2013-03-06 |
EP2403234A1 (en) | 2012-01-04 |
CN102959945B (zh) | 2016-09-21 |
EP2589215A1 (en) | 2013-05-08 |
JP6279321B2 (ja) | 2018-02-14 |
US9013477B2 (en) | 2015-04-21 |
WO2012001568A1 (en) | 2012-01-05 |
US20130088489A1 (en) | 2013-04-11 |
EP2589215B1 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6279321B2 (ja) | 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム | |
JP4437228B2 (ja) | 焦点ぼけ構造を用いたイメージング装置及びイメージング方法 | |
TWI510086B (zh) | 數位重對焦方法 | |
EP3101624B1 (en) | Image processing method and image processing device | |
JP5968107B2 (ja) | 画像処理方法、画像処理装置およびプログラム | |
JP6112824B2 (ja) | 画像処理方法および装置、プログラム。 | |
JP5887267B2 (ja) | 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 | |
Ideses et al. | Three methods that improve the visual quality of colour anaglyphs | |
JP2009518877A (ja) | 3次元ライトフィールドを取得し、表示するための方法およびシステム | |
WO2015100301A1 (en) | 3-d light field camera and photography method | |
WO2012056685A1 (ja) | 3次元画像処理装置、3次元撮像装置および3次元画像処理方法 | |
KR101600681B1 (ko) | 집적 영상시스템의 3차원 영상 표시깊이변환방법 | |
KR101828805B1 (ko) | 스테레오 카메라의 3차원 줌 영상 생성 방법 및 장치 | |
JP2013026844A (ja) | 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ | |
JP2016225811A (ja) | 画像処理装置、画像処理方法およびプログラム | |
Kwon et al. | Advanced three-dimensional visualization system for an integral imaging microscope using a fully convolutional depth estimation network | |
WO2018079283A1 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
KR102253320B1 (ko) | 집적영상 현미경 시스템에서의 3차원 영상 디스플레이 방법 및 이를 구현하는 집적영상 현미경 시스템 | |
KR101391095B1 (ko) | 이미지의 뎁스 정보를 이용한 스테레오 비전 이미지 개선 방법 및 장치 | |
Jang et al. | 3D image correlator using computational integral imaging reconstruction based on modified convolution property of periodic functions | |
JP7014175B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
CN104463958A (zh) | 基于视差图融合的三维超分辨率方法 | |
Wafa et al. | Learning-based light field view synthesis for efficient transmission and storage | |
JPH08116556A (ja) | 画像処理方法および装置 | |
Alazawi et al. | Super Depth-map rendering by converting holoscopic viewpoint to perspective projection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140619 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140619 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150611 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160311 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160330 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20160513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6279321 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |