JP4752031B2 - 撮像の装置と方法 - Google Patents

撮像の装置と方法 Download PDF

Info

Publication number
JP4752031B2
JP4752031B2 JP2007534796A JP2007534796A JP4752031B2 JP 4752031 B2 JP4752031 B2 JP 4752031B2 JP 2007534796 A JP2007534796 A JP 2007534796A JP 2007534796 A JP2007534796 A JP 2007534796A JP 4752031 B2 JP4752031 B2 JP 4752031B2
Authority
JP
Japan
Prior art keywords
light
image
focal plane
data
physical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007534796A
Other languages
English (en)
Other versions
JP2008515110A (ja
Inventor
ン、イ−レン
ハンラーン、パトリック、エム.
レヴォイ、マーク、エス.
ホロヴィッツ、マーク、エー.
Original Assignee
ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ filed Critical ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ
Publication of JP2008515110A publication Critical patent/JP2008515110A/ja
Application granted granted Critical
Publication of JP4752031B2 publication Critical patent/JP4752031B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise

Description

本発明は、一般的には撮像用途に関し、より詳しくは、画像データを処理して、この画像データを結像および/または補正することに関する。
カメラ、ビデオカメラ、顕微鏡、望遠鏡などに関連するような撮像用途では、一般的に、集光量が制限されていた。すなわち、ほとんどの撮像デバイスでは、このデバイスに入ってくる光分布に関する情報のほとんどが記録されない。例えば、ディジタル式のスチールカメラやビデオカメラなどの従来のカメラでは、外界から入ってくる光分布に関する情報のほとんどが記録されない。このようなデバイスでは、集められた光は、さまざまな深度(撮像デバイスからの距離)での焦点合わせ、レンズ収差に対する補正、画角操作などのさまざまな方式のための操作のために修正することが不可能である場合が多い。
スチール撮像用途の場合、特定の場面をキャプチャする一般的な撮像デバイスは、一般に、場面中の被写体や物体に焦点を合わせるが、この場面の他の部分は焦点からはずされる。ビデオ撮像用途でも、類似の問題が広がっており、ビデオの応用例で用いられる画像の収集物では、複数の場面をピントが合った状態でキャプチャすることが不可能である。
多くの撮像用途では、光を収集するために用いられる装置(レンズ)に収差が発生するという問題がある。このような収差には、例えば、球面収差、色収差、歪み、光照射野の湾曲、斜め非点収差などがある。収差補正では、一般的に補正光学系が使用されていたが、これが大きくなるに連れて、撮像デバイスの値段と重量が増す。カメラ電話やセキュリティカメラなどの小規模光学系の利点を持っている一部の応用例では、この応用例にまつわる物理的限界のため、追加の光学系を組み込むことは望ましくない。
上記の問題に関連する難しさが、ディジタル画像の獲得と変更にともなう課題と共に撮像用途にとっての課題となっている。
本発明は、撮像デバイスとその実現に関連する上記の課題と他の課題を克服することを意図する。本発明は、多くの実施例と応用例で例示されるが、その一部を以下に要約する。
本発明の例示の実施形態によれば、光を検出して、指向性情報でこの検出された光の特徴を表す。この指向性情報を検出光と一緒に用いて、再結像された画像と補正された画像の内の一方または双方に対応して仮想画像を生成する。
本発明の別の例示的実施形態によれば、ある画面内の互いに異なった焦点深度を持った2つ以上の被写体を撮像し、この場面にあって各々の被写体に対応する部分をさまざまな焦点面で結像させる。画面からの光を物理的焦点面に焦点合わせして検出し、これと一緒に、この物理的焦点面上の特定のロケーションに光が到達した方向を特徴付ける情報を得る。物理的焦点面に焦点があっていない被写界の深度にある少なくとも1つの被写体に対応する、この物理的焦点面とは異なった仮想の焦点面が決定される。検出された光とこの指向性特徴を用いて、この少なくとも1つの被写体の仮想焦点面における結像に対応するこの光の部分を集光して加算して、この少なくとも1つの被写体の仮想結像を形成する。
本発明の別の例示的実施形態によれば、場面はディジタル的に撮像される。焦点面上のさまざまなロケーションに対して場面から到達した光が検出され、この焦点面上のさまざまなロケーションにおける検出光の入射角度が検出される。検出光の元の場面内の部分の被写界深度を検出し、測定された入射角度と一緒に用いて、この検出光をディジタル的に再ソーティングする。用途次第では、この再ソーティングは、再焦点合わせおよび/またはレンズ収差の補正を含む。
本発明に関する上記の要約は、本発明の図示する各々の実施形態やすべての実施例を説明することを意図するものではない。以下の図面と詳細な説明は、これらの実施形態をさらに特定的に例示するものである。
本発明は、さまざまなタイプのデバイスに対して有用であると信じられており、また、本発明は、電子撮像デバイスとその用途には特に適していることが分かっている。本発明は必ずしもこのような用途に限られるわけではないとはいえ、本発明のさまざまな態様が、この文脈を用いたさまざまな例を検討することによって理解される。
本発明の例示の実施形態によれば、4次元(4D)の光照射野(例えば、フリーな空間などの領域中の各々のレイに沿って進行する光)を、焦点面におかれたセンサーに到達する光の量と方向を測定する動作を伴う方式を用いて検出する。焦点面上の光の2次元位置を検出して、それと共に、光がこの面内の特定のロケーションに到達した方向の特徴を表す情報を得る。この方式によって、センサーのさまざまなロケーションに到達する指向性の光分布が測定され、これを用いて画像を形成する。光照射野の感知および/または測定のために実現されるアセンブリは、「光線センサー」または「レイセンサー」と呼ばれる。
1つの応用例では、上記の方式に類似した方式を、撮像面に入射する光線の空間を、測定されたレイの集合からさまざまな仕方で画像を表現する計算機能によってサンプリングする光学系とセンサーとを有する撮像システムを用いて実現している。これら光学系、センサーおよび計算機能体は各々が、実施レイ次第で、組み合わせてまたは別個にさまざまな方式を用いて実現される。例えば、画像を撮像面上に置かれた光センサーアレイ(複数のセンサー)上に結像させるレンズ(光学系)を有するカメラを用いて、光線の空間をサンプリングすることが可能である。この光センサーアレイからの出力を計算機能体(例えば、カメラの内部および/または外部にあるプロセッサ)で用いて、さまざまな深度でまたはさまざまな被写界深度で結像される写真を計算することおよび/またはレンズ収差を計算で補正して高品質の画像を生成することなどによって、画像を表現する。
本発明の別の例示の実施形態では、撮像システムの光学系とセンサーのコンポーネントが、光のレイをセンサー部品に対して発射し、これで、センサー部品の各々が、特定の方向で発する光線を含む光線の集合を感知するようにする。多くの応用例では、このレイの集合は、空間と方向の双方で限定されたレイの束である。多くの応用例では、このレイの束は、光学系とセンサーの解像度が増すに連れて1つの幾何学的光のレイに収束する。この点、以下の記述では、さまざまな部分で、センサー部品が感知した値を、一般的に幾何学的光線には限られないが、「光のレイ」もしくは「光線」または単に「レイ」と呼んでいる。
ここで図面に目を向けると、図28に、本発明の別の例示の実施形態による撮像装置2890を示す。この撮像装置2890は、メインレンズ2810と、自身のさまざまなロケーションに、さまざまな入射方向から到達する光の値を測定する光線センサーとを含んでいる。この文脈では、光の値の測定は、センサーのさまざまなロケーションに到達する光を、強度などのこの光の特徴と共に検出して、値を生成することによって実施される。
図1に、本発明の例示の実施形態による撮像システム100を示す。この撮像システム100は、メインレンズ110、マイクロレンズアレイ120および光センサーアレイ130を有する撮像装置190を含んでいる。この場合、マイクロレンズアレイ120と光センサーアレイ130で光線センサーを実現している。図1では特定のメインレンズ110(単一部品)と特定のマイクロレンズアレイ120を示しているが、当業者には、さまざまなレンズおよび/マイクロレンズアレイ(現在入手可能または将来開発されるもの)が、例えば、図示のメインレンズおよび/またはマクロレンズアレイを交換することによって類似の方式で選択的に実現されることが認識されるであろう。
撮像された場面中の被写体105上の1つのポイントからの光のレイは、マイクロレンズアレイ120の焦点面上の1つの収束ポイントに集められる。例えば、被写体105の撮像ポイントが、マイクロレンズからメインレンズへの距離と共役であるメインレンズからからの距離のところにあれば、図示するように、ディメンジョン「d」はディメンジョン「s」にほぼ等しい。この収束ポイントにあるマイクロレンズ122が、これら光のレイをこの光の方向に基づいて分離して、マイクロレンズの下方に光センサーのメインレンズ110のアパーチャを結像する。
光センサーアレイ130は、自身に入射する光を検出して出力するが、この出力は、さまざまなコンポーネントの内の1つ以上を用いて処理される。この応用例では、この出力された光データは、センサーデータ処理回路140に送られ、ここで、このデータを各々の光センサーに関する位置情報とともに用いて、場面(例えば、被写体105、106および107を含む場面)の画像を生成する際のデータを提供する。センサーデータ処理回路140は、例えば、コンピュータによって、または、共通のコンポーネント(例えばチップ)または互いに異なったコンポーネントとして選択的に実現されている他の処理回路によって実現される。1つの実施例では、センサーデータ処理回路140の一部分が撮像装置390中で実現され、別の部分が外部コンピュータ中で実現されている。検出された光(それと、例えば、検出光の特徴も)を、光がマイクロレンズアレイに到達した周知の方向(各々の光センサーの周知のロケーションを用いて計算されている)と共に用いて、センサーデータ処理回路140は、光データを選択的に再結像および/または補正して、画像を形成する(ここで、再結像は補正であってもよい)。検出光を処理するさまざまな方式を以下に、他の図を参照したりしなかったりして詳述する。これらの方式は、上記と呼応したセンサーデータ処理回路140で選択的に実施される。
撮像システム100のさまざまな部分が、特定の応用例にしたがって共通のまたは別個の物理的装置中で選択的に実現される。例えば、さまざまな応用物で実現すると、マイクロレンズアレイ120と光センサーアレイ130は、共通の装置180として合成される。ある応用例では、マイクロレンズアレイ120と光センサーアレイ130は、共通のチップまたは他の回路装置上に一緒にカップリングされている。カメラのようなデバイスなどの手持ち式デバイスで実現すると、メインレンズ110、マイクロレンズアレイ120および光センサーアレイ130は、手持ち式デバイスに組み込まれる共通の撮像装置190中に選択的に組み合わされる。さらに、ある種の応用例では、センサーデータ処理回路140の内の一部またはすべてを、光センサーアレイ130と一緒に(例えば共通のチップ上に)共通の回路装置中で実現する。
ある応用例では、撮像装置100が、画像をキャプチャしようとしているユーザに対してプレビュー画像を提示するプレビュー装置150を含んでいる。このプレビュー装置は光センサーアレイ130と通信可能に結合されており、光センサーアレイ130から画像データを受信する。プレビュープロセッサ160は、この画像データを処理して、プレビュー画像を生成し、これがプレビュー画面170に表示される。ある応用例では、プレビュープロセッサ160は、画像センサー180と共に共通チップ上に及び/または共通回路中で実現される。センサーデータ処理回路140が上記したように光センサーアレイ130と共に実現される応用例では、プレビュープロセッサ160は、センサーデータ処理回路140と共に選択的に実現するが、光センサーアレイ130が収集した画像データの一部または全部を用いて、プレビュー画像を生成する。
このプレビュー画像は、最終画像を生成するために用いられる場合よりも比較的少ない計算機能および/またはデータを用いて生成される。例えば、カメラや携帯電話などの手持ち式撮像デバイスで実現されると、なんら焦点合わせやレンズ補正をしないプレビュー画像で十分である。この点で、比較的安価および/または小型でもプレビュー画像を生成するような処理回路を実現することが望ましい。このような応用例では、プレビュープロセッサは、例えば、上述したような第1の拡大された被写界深度を計算する方法を用いることによって、比較的低い計算コストおよび/または少ないデータで画像を生成する。
撮像システム100は、応用例によってさまざまな仕方で実現される。例えば、マイクロレンズアレイ120は例としていくつかの顕著なマイクロレンズを含んでいるものとして示されているが、このアレイは一般に多くの(例えば数千から数百万の)マイクロレンズで実現される。光センサーアレイ130は、一般的に、そのピッチはマイクロレンズアレイ120より比較的小さく、マイクロレンズアレイ120中のマイクロレンズ各々に対して数個の光センサーが対応している。加えて、マイクロレンズアレイ120中のマイクロレンズ、及び光センサーアレイ130中の光センサーは、一般に、各々のマイクロレンズを介して光センサーアレイにまで通過する光が隣のマイクロレンズを介して通過する光とオーバーラップしないように位置付けされる。
さまざまな応用例では、メインレンズ110は、その光軸に沿って平行移動(図1に示すように、水平方向に)されて、例えばメインレンズと例示の撮像被写体105の間で所望の深度「d」のところにある対象被写体に焦点を合わせる。一例として、被写体105の1つのポイントからの光線をこの議論の目的で示す。これらの光線は、マイクロレンズアレイ120の焦点面上のマイクロレンズ122のところにある1つの収束ポイントに集められる。マイクロレンズ122は、これら光のレイを方向に基づいて分離して、マイクロレンズの下方の画素のアレイ中の画素132の集合のところにあるメインレンズ110のアパーチャを結像する。図10に、光線を分離させ、これで、メインレンズ1010上のあるポイントから発して同じマイクロレンズ(例えば1022)の表面のどこかに到達するすべてのレイがこのマイクロレンズによって方向付けされて、光センサー(例えば1023)上の同じポイントに収束するようにする1つの例示の方式を示す。図10に示すこの方式は、例えば、図1と関連させて実施される(すなわち、メインレンズ1010はメインレンズ110の代わりに実現されており、マイクロレンズアレイ1020はマイクロレンズアレイ120の代わりに実現されており、光センサーアレイ1030は光センサーアレイ130の代わりに実現されている)。
マイクロレンズアレイ122中の特定のマイクロレンズの下に形成される画像は、撮像面上のそのロケーションでのシステムの指向性解像度を決定する。一部の応用例では、指向性解像度は、メインレンズの主要面上にマイクロレンズの焦点を合わせている状態で、マイクロレンズの画像の鮮明化を促進することによって向上される。ある種の応用例では、マイクロレンズは、マイクロレンズアレイとメインレンズ110間の分離距離より少なくとも2桁小さい。これらの応用例では、メインレンズ110は、実質的にマイクロレンズの光学的無限遠にあり、したがって、マイクロレンズのピントを合わせるために、光センサーアレイ130はマイクロレンズの焦点深度のところの平面上に置かれている。
メインレンズ110とマイクロレンズアレイ120間の分離距離「s」は、マイクロレンズの被写界深度以内で鮮明な画像を達成するように選択される。多くの応用例では、この分離距離は正確に約Δxp・(fm/Δxm)であり、ここで、Δxpはセンサー画素の幅であり、fmはマイクロレンズの焦点深度であり、Δxmはマイクロレンズの幅である。1つの特定の応用例では、Δxpは約9ミクロンであり、fmは約500ミクロンである。Δxmは約125ミクロンであり、マイクロレンズアレイ120と光センサーアレイ130間の分離距離は約36ミクロンである。
マイクロレンズアレイ120はさまざまなマイクロレンズとその装置の内の1つ以上を用いて実現される。1つの例示の実施形態では、潜在的に空間的特定画変動するマイクロレンズの平面は、マイクロレンズアレイ120として実現される。例えば、マイクロレンズアレイは、均等および/または不均等で、その及ぶ範囲が方形または非方形であり、規則的に分布または不規則的に分布しており、繰り返しまたは非繰り返しパターンを持ち、オプションとして隠蔽される部分を持つレンズを含む。これらマイクロレンズ自身は、凸形状であったり、凹形状であったり、所望の物理的な光方向を実現する任意のプロフィールを有し、また、平面上のマイクロレンズごとにプロフィールが変動する。さまざまな分布とレンズプロフィールとが選択的に組み合わされている。これらのさまざまな実施形態では、サンプリングパターンが、アレイのある領域では空間的に高く(それに応じて、角度が低く)、別の領域では角度が高い(それに応じて、空間的には低い)。このようなデータの1つの用途として、4D空間での所望の空間解像度と角度解像度にマッチするように内挿しやすくする用途がある。
図24Aに、本発明の別の例示の実施形態による、マイクロレンズアレイの一部を示す(視線が平面に対して直角)。マイクロレンズは方形であり、アレイに規則的に分布している。
図24Bに、本発明の別の例示の実施形態による、マイクロレンズアレイの一部を示す。マイクロレンズの平面分布が不規則または繰り返しであり、マイクロレンズの形状が任意である。
図24Cに、凸形状プロフィールと円形アパーチャを有するメインレンズを持つ図24Aに示すような分布で、本発明の別の例示の実施形態による光センサーに現われる画像を示す。
他の例示の実施形態では、より大きいマイクロレンズやより小さいマイクロレンズからなる規則的なモザイク模様が用いられる。1つの実施例では、結果として得られる光センサーデータが内挿されて、モザイク中の1つ以上のマイクロレンズの空間解像度と角度解像度が最大である均等なサンプリングが得られる。
図19A〜19Fは、本発明の1つ以上の例示の実施形態による、上記のようなモザイクアレイを実現する方式を示す。図19Aは、マイクロレンズの例示の相対的なサイズと配置を示す平面の俯瞰図である。図19Bは、図19Aの各々のマイクロレンズを介して投射した後の光センサーアレイ上に形成される画像の形状を示す。図19Cは、図19Aのアレイの断面図であり、これらマイクロレンズが同じFナンバーを有しており、また、これらの焦点が同じ平面を共有していることを示している。このため、より小さいマイクロレンズを、大きいマイクロレンズの場合より焦点面に対してより近づける必要がある。これによって、各々のマイクロレンズの下方に現われるメインレンズの画像がオーバーラップすることなくより大きくなり、すべてが、焦点を含んでいる平面に置かれた光センサー上にピントが合うようになる。
図19Dに、本発明の別の例示の実施形態による、メインレンズ1910、モザイク風マイクロレンズアレイ1920および光センサー装置1930を含む完全な撮像装置中で実現される図19Aと19Cに示すマイクロレンズの断面図を示す。ここで、この図はいくつかのマイクロレンズとマイクロレンズごとにいくつかの画素を持つものとして示しているが、実際のマイクロレンズと画素の数は、所与の応用例の解像度用件を決定してこれら各々適当な数を実現することなどのさまざまな方式を用いて選択される。
図19Eは、メインレンズ1910上のuからスタートしてマイクロレンズ1920アレイ上のsで終わるレイの空間を示すレイのデカルト図である(レイの空間を分かりやすいように2Dで示してあるが、実際にはレイの全体的空間は4Dである)。図19C中の各々の光センサー(A〜Pちラベル付けされている)で加算されるレイの集合を、図19Dのレイのデカルト図に示す。レイの全体4D空間では、各々の光センサーはレイの4Dボックスを累積する。より大きいマイクロレンズの下の光センサーに対する4Dボックスは、より小さいマイクロレンズの下の光センサーの(u,v)方向軸では半分の幅(倍の解像度)と(x,y)空間軸では倍の幅(半分の解像度)を有している。
別の例示の実施形態では、光センサーの値を規則的なグリッドに内挿し、これで、すべての軸方向の解像度がすべての軸方向での最大の解像度となるようにする。図19Fにこのような方式を示すが、この方式では、各々の光センサーの値を表すレイのボックスを近傍のボックス値を内挿することによって分割する。図示する2Dのレイ空間では、各々のボックスを2つに分割しているが、4D空間では、各々のボックスを4つに分割している(その長手方向の側部の各々に沿って2分割ずつしている)。一部の実施形態では、この内挿された値を、近傍の値を分析することによって計算している。別の実施形態では、この内挿値を、所望の値の近傍にあるオリジナルの分割されていないボックスの値の重み付けされた和として実現している。
一部の応用例では、重み付け、近傍の値に基づいている判定関数によって異なる仕方で実現している。例えば、重み付けで、4D関数空間中のエッジを含む尤度が最も低い軸に沿って内挿する。エッジがこの値の近傍にある尤度は、これらのロケーションでの関数値の勾配の大きさと関数のラプラス演算子のコンポーネントとから推定可能である。
別の例示の実施形態では、マイクロレンズ(例えば、図19Dのアレイ1920または類似物中のそれら)は各々が内側に傾斜しており、これで、これらの光軸がすべてメインレンズのアパーチャの中心に来るようになっている。この方式によって、マイクロレンズの下でアレイのエッジに向かって形成される画像の収差が減少する。
再度図1を参照すると、メインレンズ110とマイクロレンズアレイ120中のマイクロレンズとのアパーチャサイズもまた(例えば、レンズの開口部の実効的なサイズ)、撮像装置100が実現されている特定の応用例に合うように選択される。多くの応用例では、相対的なアパーチャサイズは、収集された画像がオーバーラップすることなくできり限り大きくなるように(すなわち、光が隣の光センサーにオーバーラップするような好ましい事態が発生することがないように)選択される。この方法は、メインレンズとマイクロレンズのそれぞれのFナンバー(焦点比、すなわち、レンズの実効的な焦点距離に対するアパーチャの比)を整合させると実施しやすい。この例では、メインレンズ110のFナンバーで表した実効的な焦点距離は、メインレンズ110とマイクロレンズ120間の距離「s」に対するメインレンズのアパーチャの直径の比である。メインレンズ110の主要面が、マイクロレンズアレイ120が置かれている平面に対して平行移動される応用例では、メインレンズのアパーチャを選択的に修正し、これで、この比を維持し、したがって、マイクロレンズアレイ中の各々のマイクロレンズの下に形成される画像のサイズを維持するようにする。一部の応用例では、方形などのさまざまなメインレンズアパーチャの形状を用いて、光センサー表面上のマイクロレンズアレイの下に画像のアレイを望ましいように(例えば、効率的に)詰め込むようにする。
以下の説明では、本発明の1つ以上の例示の実施形態と共に、図1の撮像装置100の一般的な応用例を参照する。撮像装置100の内側の2面光照射野「L」を考えると、L(u,v,s,t)は、メインレンズ110と(u,v)のところで交差し、マイクロレンズアレイ120の平面とは(s,t)のところで交差する光線にそって進行する光を示している。マイクロレンズアレイ120中に理想的なマイクロレンズがあり、光センサーアレイ130中の並んだグリッド上に理想的な光センサー(例えば、軸)があると仮定すると、光センサーにまで進行する光もまたすべてが、マイクロレンズアレイ120中の自身の方形の親マイクロレンズを通過行し、さらに、メインレンズ110上の光センサーの共役な方形を通過する。メインレンズ110とマイクロレンズ上のこれら2つの方形の領域が、光照射野中の小型の4次元ボックスを指定して、光センサーが、このボックスが表すレイの集合中での光の総量を測定する。これに応じて、各々の光センサーが、光照射野中のこのような4次元ボックスを検出し、したがって、光センサーアレイ130によって検出された光照射野は、L(u,v,s,t)のボックスフィルタリングして、直線サンプリングしたものとなる。
図11に、本発明の別の例示の実施形態による、センサー画素のロケーションを収集されたデータを基準としてL(u,v,s,t)空間中の光線に対してマッピングする方式を示す。図11に示し本書に説明する方式は、例えば、光センサーアレイ130中の各々の光センサーがセンサー画素に対応している図1に応用可能である。底部右側の画像1170は、レイセンサー(光センサー)1130から読み取られた生データをダウンサンプリングしたものであり、丸で囲んだ1つのマイクロレンズの下に円形の画像1150が形成されている。底部左側の画像1180は、丸で囲んだマイクロレンズ画像1150の周りの生データの一部を、マイクロレンズ画像内で丸で囲った1つの光センサー値1140と一緒にクローズアップして表してものである。この円形状画像1150はレンズアパーチャの画像であるので、ディスク内部での選択された画素のロケーションが、メインレンズ上の図示するレイ110の開始位置の(u,v)座標となる。センサー画像1170内部でのマイクロレンズ画像1150のロケーションが、レイ1120の(x,y)座標となる。
センサー部品のレイに対するマッピングを図(と他の例示の実施形態)を参照して説明したが、さまざまなセンサー部品と関連する値は、各々の特定のセンサー部品に対して光学系を通って出力されるレイの集合の値で選択的に表される。図1の文脈では、光センサーアレイ中の各々の光センサーをこのように実現して、メインレンズ110とマイクロレンズアレイ120を介して光センサーに出力される光線の集合を現す値を提供することが可能である。すなわち、各々の光センサーが、この光センサーに入射した光に応答して出力を生成し、マイクロレンズアレイ120に対する各々の光センサーの位置が、入射光に関する方向情報を提供するために用いられる。
1つの例示の実施形態では、マイクロレンズアレイ120の解像度を、特定の応用例での最終的な画像の所望の解像度とマッチするように選択する。この光センサーアレイ130の解像度は、各々のマイクロレンズが、この応用例の所望の方向情報、すなわち、光センサーの実現され得る最も細かい解像度とマッチするために必要とされるできるだけ多くの光センサーをカバーするように選択される。この点で、撮像システム100(および本書に記載する他のシステム)の解像度は、撮像のタイプ、経費、複雑性、および特定の解像度を達成するために用いられる入手可能な装置などを考慮して、特定の応用例にあるように選択的に調整される。
いったん画像データを光学系とセンサーによって(例えば、図1の撮像装置190を用いて)キャプチャすると、さまざまな計算機能と配慮を実施して、この画像データを選択的に処理する。本発明の1つの例示の実施形態では、さまざまな光センサー集合が、各々のマイクロレンズからのこれらの分離した光線をキャプチャして、このキャプチャされた光線に関する情報をプロセッサなどの計算コンポーネントに渡す。この画面の画像を、測定された光線の集合から計算する。
図1の文脈では、センサーデータ処理回路140は、画像データを処理して、被写体105、106、107を含んでいる画面の画像を計算するように実現されている。一部の応用例では、プレビュー装置150もまた、プレビュープロセッサ160を用いてプレビュー画像を生成するが、このプレビュー画像はプレビュー画面170に表示される。プレビュープロセッサ160は、センサーデータ処理回路140で実現され、プレビュー画像は、例えば、以下に説明する方式と矛盾しない仕方で生成される。
別の実施形態では、センサー装置から出力される画像中の画素ごとに、計算コンポーネントが、測定された光のレイのサブ集合に重み付けしてこれらを加算する。加えて計算コンポーネントが、例えば、画像複合方式を用いて、上述したように計算した画像の集合を分析して合成する。本発明は必ずしもこのような応用例には限られないが、本発明のさまざまな態様が、このような計算コンポーネントのいくつかの例示の実施形態を検討することによって考えられる。
さまざまな例示の実施形態に関して、画像データ処理では、キャプチャされている画像の少なくとも一部分が再結像される。一部の実施形態では、出力画像を、特定の場面の所望の要素にピントを合わせた写真に関連させて生成される。一部の実施形態では、この計算された写真を、世界(場面)の特定の所望の深度にピントを合わせるが、ピンボケは、従来の写真同様に、この所望の深度から離れるに連れて増す。場面中の被写体が異なれば、それにピントを合わせる焦点深度も異なる。
図12に、本発明の別の例示の実施形態にしたがって測定された1つの光照射野から計算された、さまざまな深度で再結像された複数の画像1200〜1240を示す。図12に示す方式は、例えば、図1に示すような撮像装置を用いて実施される。
図13Aと13Bに、本発明の別の例示の実施形態による、再結像方式を示す。この方式は、例えば、図1に示すセンサーデータ処理回路140などの撮像システムの計算コンポーネント/プロセッサコンポーネントで実施される。撮像装置からの各々の出力画素(例えば1301)は、仮想フィルム面1310上の3次元(3D)ポイント(例えば1302)に対応している。この仮想フィルム面1310はメインレンズ1330の背後に置かれるが、この位置では、平面1310が世界(図示せず)内での所望の焦点面と光学的に共役である。すなわち、仮想フィルム面1310は、フィルム面が1つの2次元(2D)画像をキャプチャするのに望ましい位置に置かれる(例えば、この位置は、写真フィルムが、2D画像をキャプチャするために従来型のカメラで位置付けされる位置と同等である)。光を方向によって(例えば、図1のマイクロレンズアレイ120を用いて)分離することによって、仮想フィルム面1310に到達する光を選択的に計算することが可能である。この点で、出力画素1301の値は、対応する3Dポイント1302に収束する光線1320が成す円錐体を加算することによって計算される。これらのレイの値は、レイセンサー1350によって収集されたデータから探り出される。図13Aは、見た目の単純さのために、撮像構造を2Dで示す。図13Bでは、3Dポイント1340からのレイ1330の円錐体を、選択された世界の焦点深度が、メインレンズにより近ければ、これで同じ画素1310に対して加算する。
一部の実施形態では、必要とされる光線値は、レイセンサーがキャプチャする離散したサンプルロケーションには正確には対応していない。一部の実施形態では、この光線値は、選択された近接サンプルロケーションの重み付けされたとして推定される。一部の実現例では、この重み付け方式は、離散したセンサーサンプルから連続した4次元の光照射野を再構築する4次元フィルタカーネルに対応している。一部の実現例では、この4次元フィルタは、4次元空間中での16個の最も近いサンプルの4線性内挿に対応する4次元のテント関数で実現される。
図35は、本発明の別の例示の実施形態による、受信した光線センサーデータから再結像画像を計算するプロセスフローチャートである。ブロック3520で、サブアパーチャ画像の集合を光線センサーデータ3510から抽出するが、ここで、サブアパーチャ画像は各々が、画素がそのマイクロレンズの下の同じ相対的な位置にある各々のマイクロレンズ画像の下の1つの画素から成っている。ブロック3530で、サブアパーチャ画像を合成して最終的出力画像を発生する。このサブアパーチャ画像は、オプションとして、互いに対して平行移動されて複合され、所望の平面にピントを合わせる。
別の例示の実施形態では、出力画像の境界に近い画素と関連する暗化(darkening)が軽減される。例えば、出力画像の境界の近くの画素では、必要とされるレイの一部が測定された光照射野ではキャプチャされていない(これらのレイは、図1のマイクロレンズアレイ120と光センサーアレイ130などの撮像装置の空間的境界と方向的境界を越えている)。この暗化が望まれない応用例の場合、画素値は、画素(光センサーアレイでキャプチャされた画素)と関連する値を、測定された光照射野中で実際に発見されたレイの割合で除算することによって正規化される。
上述したように、互いに異なったさまざまな計算方式がさまざまな応用例に対して選択される。以下に説明では、このようなさまざまな方式に対応している。図面を参照している応用例もあれば、これらの方式を概説している応用例もある。これらの応用例の各々で、特定の方式が、図1に示すセンサーデータ処理回路140などの計算タイプのコンポーネントを用いて実現される。
別の例示の実施形態では、特定の撮像システムの各々の出力画素の撮像方法は、仮想フィルムが任意におよび/または選択的に回転されたり変形されたりし、仮想メインレンズアパーチャがこれに連れて適切に移動したりそのサイズが修正されたりする仮想のカメラモデルに対応している。例えば、図25に、仮想画像をそれが、物理的メインレンズ面2510と一致しなくてもよい仮想レンズ面2530上で任意のサイズを持つ仮想レンズアパーチャ2520の背後に存在していた場合に、仮想フィルム2560上に現われたときに計算する、例示の実施形態を示す。仮想フィルム2560上のポイント2550に対応する画素の値を、レイセンサー2570との交差ポイントと入射角度によって発見される、仮想アパーチャ2520を通過してポイント2550に収束するレイを加算することによって計算する。
図26に、本発明の別の例示の実施形態による、仮想レンズ面を操作する方式を示す。仮想レンズ面2630および/または仮想フィルム面2660は、物理的メインレンズまたは他の基準物に対して選択的に傾斜させる。この方式を用いて計算された画像は、結果として、撮像面とは平行でない世界の焦点面を有している。
図27に例示するような別の例示の実施形態では、仮想フィルム2560は平面状である必要はなく、いかなる形状でもよい。
さまざまな方式では、さまざまなアパーチャが選択的に実現される。1つの例示の実施形態では、仮想レンズ面上の仮想アパーチャは概して円形の穴であり、別の実施形態では、仮想アパーチャは概して非円形であるおよび/またはいずれかの形状の複数の互いに別個の領域で実現される。これらの実施形態および他の実施形態では、「仮想アパーチャ」という概念は、一般化可能であり、一部の応用例では、これが、選択された「仮想の」アパーチャを介して受信される光に対応する光データが処理される方式に対応している。
さまざまな実施形態で、仮想アパーチャ方式は、仮想レンズ面での所定のしかし任意の関数で実施される。図31A〜31Dに、本発明の別の例示の実施形態に関わる、仮想アパーチャ関数として選択的に実施されるさまざまなスカラー関数を示す。これらさまざまな関数には、例えば、値をスムースに変動させる(図31Bに例示するように)関数、互いに別個の複数の領域を実現する(図31Aに示すように)関数、負の値をとる(図31Dに例示するように)関数などがある。仮想フィルム上のポイント値を計算するために、仮想レンズ上のさまざまなポイントから発し、仮想フィルム上のポイントに収束するすべてのレイが、仮想アパーチャ関数と加算器とによって重み付けされる。他のさまざまな実施形態では、最終的な値が、レイの値によって異なる任意の計算関数で計算される。例えば、この計算関数は、仮想アパーチャ関数による重み付けには対応しないが、レイ値に基づいて計算されたテスト関数の値次第で不連続なプログラム分岐を含むことがある。
他の例示の実施形態では、本書に記載する他の例示の実施形態と関連して実施される出力画素計算方法を独立に選択する。例えば、1つの例示の実施形態では、仮想レンズ面の向きと仮想アパーチャのサイズとを含むパラメータを、出力画素ごとに連続的に変動させる。別の例では、図32に示すように、出力画素ごとにレイを累積するために用いられる仮想アパーチャ関数を画素ごとに変化させる。出力画像3200では、画素3201が仮想アパーチャ関数3210を用いており、画素3251が仮想アパーチャ関数3250を用いている。
別の例示の実施形態では、仮想アパーチャ関数は画素ごとに変化する。1つの特定の実施形態では、前景の好ましくない物体のような特定の場面の望ましくない部分からのレイを隠蔽するように関数を選ぶ。
別の例示の実施形態では、人間であるユーザが仮想アパーチャパラメータを対話して選ぶが、光データは、この選択にしたがって処理される。図33は、このような1つの例示の実施形態を示すプロセスフローチャートである。第1のブロック3310で、プロセスは光線センサーからデータを受信する。ブロック3320で、ユーザは出力画像の領域を選択し、ブロック3330で、ユーザは画像形成方法を選択し、ブロック3340で、ユーザは選択された方法にあるようにパラメータを変更して、ブロック3350で(例えばコンピュータのモニター上で)画面の計算画像を目視で検査する。ブロック3360で、ユーザが画像部分を編集したかどうかチェックし、編集していなければ、ブロック3330に戻る。ブロック3370で、ユーザが編集すべき画像の部分を選んだかどうかチェックし、選んでいなければ、ブロック3320に戻る。編集が完了すれば、ブロック3380で最終的な編集画像をセーブする。
別の例示の実施形態では、被写界深度を拡大した画像を、2つ以上の被写体に対して同時にピントを合わせることによって計算する。1つの実施形態では、出力画像の被写界深度を、メインレンズのアパーチャを絞って(サイズを小さくして)実施する従来式の写真撮像をシミュレートすることによって拡大する。出力画素ごとに、レイの感知で用いられたアパーチャより小さい(仮想レンズ面上の)アパーチャを介して出力画素に収束する光のレイを用いて評価する。
図1に示す例示のシステム100を用いる1つの実施例では、被写界深度は、各々のマイクロレンズ画像の下にある光センサーの値を抽出することによって拡大されるが、ここで、光センサーは各々が各々のマイクロレンズ画像中の同じ相対的な位置に置かれる。図1を参照すると、被写界深度を拡大すると、被写体105が(距離「d」と「s」間の相関関係のおかげで)ピントが合っているだけではなく、被写体106や107などの別の深度にある物体も、さもなければピンボケのためにぶれていたであろうが、ピントが合っている。結果として得られる画像をオプションとしてダウンサンプリングする動作とあいまって、この被写界深度を拡大する方式は、計算という点では効率的である。この方式は、生成された画像がプレビュー目的(例えば、図1のプレビュー画面170で表示させる目的など)であるような、画像と共に発生したノイズが許容されるような応用例で選択的に実施される。以下に説明する図4は、プレビュー画像を生成する方式をさらに対象とするものである。
図14Aと14Bに、1つ以上の例示の実施形態と関連する、さまざまな被写界深度を持つ画像を計算する方式を示す。図14Aは、ある画像と再結像で計算されたクローズアップ画像とを示す。ここで、このクルーズアップの顔は、被写界深度が浅いためぶれている。中間にある図14Bに、前のパラグラフで説明したような拡大被写界深度方式で計算された最終的な画像を示す。
図8は、本発明の別の例示の実施形態による、画像中の被写体深度を拡大する別の計算方式のプロセスフローチャートである。ブロック810で、特定の画面中のあらゆる焦点深度で再結像された画像の集合を再結像する。ブロック820で、また、画素ごとに、ローカルコントラストが最大の画素を画像の集合から判定する。ブロック830で、最高のローカルコントラストを有する画素を組み立てて最終的な仮想画像とする。この方式では、所望の信号対ノイズ比(SNR)を、比較的多くの(例えば、マイクロレンズアレイ中のマイクロレンズごとに1つの画素(光センサー)を選択する場合に対して比較的多くの)画素を用いて得ることが可能である。図14Cを参照すると、図示されている例示の画像は、図8を参照して説明され、比較的画像ノイズが低い方式に類似した方式を用いて生成される。
1つの代替実施形態では、計算すべき再結像画像の最小集合を、再結像画像ごとの仮想フィルム面と、画像の光が仮想フィルム面に進行する際に通過するメインレンズの主要面との間の距離という観点から次のように定義する。最小距離がメインレンズの焦点距離に設定され、最大距離が場面中の最も近い物体の共役深度に設定される。仮想フィルム面同士間の分離距離はΔxmf/Aであり、ここで、Δxmはマイクロレンズの幅であり、fはメインレンズとマイクロレンズアレイ間の分離距離であり、Aはレンズアパーチャの幅である。
別の例示の実施形態では、再結像された画像を合成して、各々の最終的画素のところに拡大された被写界深度を持つ画像を生成して、再結像画像のどの集合でも最良にピントが合った画素を維持するようにする。別の実施形態の画像では、維持すべき画素を、ローカルコントランスと隣の画素とのコヒーレンスとを高めることによって選ぶ。撮像に関する一般的な情報とローカルコントラストを高める撮像方式に関する特定的な情報については、Agarwala, A.、Donycheva, M.、Agrawala, M.、Drucker, S.、Colburn, A.、Cureless B.、Salesin, D.、Cohen, M.による、参照してその全体をここに組み込む2004年3月23日発行のグラフィックに関するACMトランザクションの対話式ディジタルモンタージュ写真作成法(292〜300ページ)を参照のこと。
本発明の別の例示の実施形態では、被写界深度が拡大された画像を次のように計算する。出力画像の画素ごとに、再結像計算を画素に対して実行してさまざまな深度に焦点を合わせる。深度ごとに、収束するレイの均等性の尺度を計算する。(相対的な)最大均等性を生成する深度を選んで、この画素の値に対する深度として保持する。画像画素にピントが合わされているこの方式では、そのレイのすべてが場面中の同じポイントから発し、したがって、類似の色と強度を有する尤度が高い。
均等性の尺度はさまざまな方法で定義可能であるが、多くの応用例では、次の均等性尺度を用いている。すなわち、各々のレイの色コンポーネントごとに、その色の強度と中心レイ(メインレンズの光軸に最も近い角度にある画素に到達するレイ)の対応する色コンポーネント間の差の自乗を計算する。これら差の自乗値をすべて加算して、この和の逆数を均等性であるとする。
図34は、本発明の別の例示の実施形態による、画像中の被写界深度を拡大するプロセスフローチャートである。ブロック3410で、計算予定の仮想画像中の画素を選択する。ブロック3420で、この画素を複数の焦点深度のところで再結像して、各々の深度で再結像するために合成されたレイの均等性を計算する。ブロック3430で、合成されたレイの最高の均等性と関連した再結像された画素の値を最終的な出力画像画素値として維持する。すべての画素が処理されるまで、プロセスはブロック3440に進行する。
別の例示の実施形態では、上記のプロセスを適用して、最終的な画素値を、隣の画素の値と、このような画素値を計算するために合成された関連のレイの均等性とを考慮に入れて選択するようにしている。
本発明の別の例示の実施形態では、被写界深度を、この方向で最も近い物体の深度に各々の画素を焦点合わせすることによって拡大している。図9は、このような例示の実施形態による、画像中の被写体深度を拡大するプロセスフローチャートである。ブロック910で、計算すべき最終的な仮想画像中の画素を選択する。ブロック920で、最も近い物体の深度を、選択された画素からレンズの中心を通って場面中にトレースされた光線(または光線の集合)に対して推定する。
ブロック930で、推定された深度で再結像された画像中での、この選択された画素の値を計算する。ブロック940で追加の画素を処理することが望ましい場合、別の画素をブロック910で選択して、ブロック920で、この新たに選択された画素のためにブロック920に進行する。ブロック940で追加の画素を処理することが望ましくない場合、計算された値を各々の選択された画素ごとに用いて、最終的な仮想画像を作成する。
被写界深度が拡大される一部の実施形態では、各々の出力画素での値を、所望の物体の深度より近い深度から発する光線を無視して計算し、これで、レンズに近い物体の境界の周りにおける「ブルーミング(blooming)」影響または「ハロ(halo)」影響と一般に呼ばれる影響のような影響を軽減または解消している。一例として、図23に、対象被写体2310に対して世界内の所望の焦点2301を介して達するレイの集合を示す。これらのレイの一部はメインレンズ2301から物体2320によって遮断されるが、これらは、レイセンサー2350によって検出される光線2340に対応しているが、ポイント2301の画像値を計算する際には無視される。一部の実施形態では、無視されるレイは、中心レイの色との不整合によって検出される。一部の実施形態では、結果として得られる画素値は、無視されなかったレイの割合で除算することによって正規化される。これらの実施形態は、単独で用いたり、互いにまたは、被写界深度を拡大することを対照とする実施形態を含むいずれかの他の実施形態と組み合わせたりして用いられる。
上述したように、光データは、さまざまな例示の実施形態にしたがって処理して、画像を焦点合わせおよび/または補正する。後者の補正方式をさまざま次に説明する。このような実施形態の内の一部では、収差を、レイをキャプチャする際に用いられる光学系の実際の光学部品(例えば1つ以上のレンズ)によってレイをトレースし、このトレースされたレイを光をキャプチャする特定の光センサーに対してマッピングすることによって補正している。光データを、この光学系で示された周知の欠陥と、光を検出するセンサーの周知の位置とを用いて再構成する。
1つの補正タイプの実施形態では、理想化された光学系によって形成された各々の画素に寄与するレイの世界を、合成された写真にフィルム上の画素ごとに計算する。1つの実施例では、これらのレイを、仮想フィルムのロケーションからレイを理想的な光学系を介して世界にまでトレースバックすることによって計算する。図15に、このような1つの例示の実施形態に関連する、仮想フィルム面1510上の3Dポイント1510からの光線を理想的な薄いメインレンズ1520を介して世界レイ1530から成る円錐体中にまでトレースする方式を示す。一部の実施例では、所望のレイ1525の集合は必ずしも理想的なレンズを通る方向に対応していないが、所望の画像値を生成するために重み付けされた加算されるレイのいずれかの集合には対応する。
図16に、本発明の別の例示の実施形態に関連する、特定の応用例の場合の理想的なレイに沿って走行する光の値を発見する方式を示す。これらの値は、球状界面を持つ1つの部品を有し、レイを測定する(検出する)際にときに理想的な世界レイをレイセンサー1640に対して物理的に出力するために用いられる理想的なメインレンズ1650を介して所望の理想的な世界レイ1630をトレースすることによって計算する。この実施形態では、1つの3Dポイント(1601)に対して理想的には収束するレイは、実際には収束しないで、球面収差と呼ばれる球状海面を持つレンズの欠陥を表す。レイセンサー1640は、ずれたレイ(1651など)の各々に対する個々の値を提供するが、この値を用いて、球面収差を補正する。
図17A〜17Cに、レンズを補正する方式でコンピュータシミュレーションを用いた例示の結果を示す。図17Aの画像は、理想的な512×512の写真(完全な光学系を介してみた場合)である。図17Bの画像は理想的なf/2両凸球面レンズで生成したものいであり、コントラストとぼかしにロスがある。図17Cの画像は、各々の512×512マイクロレンズでの10×10の指向性(u,v)解像度を容易なものとする光学系とセンサーとによって、上記の画像補正方式を用いて計算された写真である。
本発明の別の例示の実施形態では、色収差を、画像をキャプチャするために用いられるメインレンズで補正している。色収差は、光のレイが、光学系中を物理的に出力される際にこれらのレイが、光の波長によって定まる物理的方向の差のために発生する発散によって引き起こされる。入射光線を、磁際の光学系で発生する波長によって異なる光の屈折を考慮に入れて、実際の光学系を解してトレースする。一部の実施形態では、システムの各々の色成分を、主要な波長に基づいて別々にトレースする。
別の例示の実施形態では、カラー撮像システムでは共通である赤、緑、青の各々を、図18Aに示すように別々にトレースする。緑の世界の光線は、計算で撮像システム中にトレースバックして緑色レイ1830を生成して、どこで色レイセンサー1810と交差し、どの方向で色レイセンサー1810と交差するかを測定する。同様に、図18Bに、緑の光線より大きく屈折する所望の青色世界光線1820の計算的にトレーする方法を示す。図18Cに、緑の光線より小さく屈折する所望の赤色世界光線1830の計算的にトレーする方法を示す。各々のレイの値は、例えば、本書に記載する他の例示の実施形態と関連して検討した方式を用いて、レイセンサー1810から得られた値に基づいて計算する。各々のレイの光照射野の値を累積して、各々の特定のフィルム画素に対する補正済みの画像値を計算する。一部の実施形態の場合、色収差を、各々の色チャネルを自身の波長がもっとも良くピントが合う平面上に再結像させることによって改善している。
所望の光線は、レイセンサーでサンプリングされた離散したレイの値の内の1つに正確に収束することはない。一部の実施形態では、このような例に対して用いられる値は、離散的なレイ値の関数として計算される。一部の実施形態では、この関数は、所望の光線の近傍にある離散的なレイの値の重み付けされた和に対応する。一部の実施形態では、この重み付けされた和は、所定の重畳カーネル関数を持つ離散的サンプル値の4D重畳値に対応している。他の実施形態では、この重み付けは、16個の最も近いものに基づいた四線形性(quadrilinear)内挿に対応している。さらに別の実施形態では、この重み付けは、16個の最も近いものに基づいたキュービックまたはバイキュービック内挿に対応している。
例示の補正プロセスは、概念を簡略化する目的にとってはレイをトレーするという点に関して説明したが、補正に関してさまざまな他の方式が実施されることに注意する必要がある。1つの実施形態では、所望の出力画素ごとに、寄与する光センサー値の集合を、その相対的な重みと共に事前計算する。上述したように、このような重みは、光学系、センサー、出力画素ごとに重み付けされた加算されるレイの所望の集合および所望の光照射野再構築フィルタを含む多くの要因のプロパティである。これらの重みは、選択的にレイとレース方式を用いて事前計算されてストアされる。補正済みの画像は、出力画素ごとに適切な感知光照射野値を重み付けして加算することによって形成される。
図29と図30に、上記の補正方式に関連して用いられる他の例示の実施形態を示す。図29は、レイ(光)センサーと関連する重みと各々のレイセンサーと関連する出力画像画素値のデータベースを事前計算するするプロセスフローチャートである。最初の2つのブロック2910と2920で、データ集合(例えばデータベース中のそれ)を、出力画像画素値を生成するために重み付けされる理想的な世界光線の集合と、光線センサーに光線を物理的に出力するために用いられる実際のメインレンズ光学系の規定とから成る所望の形成プロセス用に受信する。ブロック2925で、画像画素を選ぶ。この画素の出力値に対して、世界レイの関連集合を、メインレンズの仮想表示物を介してレイセンサーまでブロック2930で計算的にトレースする。この結果、重みの集合が、各々のレイセンサーに対して適用されて、出力画素値を計算する。これらの値はブロック2940で出力データベースに記憶する。ブロック2950で、すべての画素が処理されたかをチェックして、そうでなければ、ブロック2925に戻る。すべての画素が処理されたら、最終ブロック2960で、計算されたデータベースをセーブする。
図30は、図29のプロセスなどのプロセスで計算された重みのデータベースを用いて出力画像を計算するプロセスのフローチャートである。ブロック3010でと3020で、データベースと、このデータベースの計算に用いられたメインレンズ光学系でキャプチャされたレイセンサー値の集合とを受信する。ブロック3025で、出力画像から画素を選んで、その最終的画像値を計算する。選択された画素に対して、ブロック3030で、データベースを用いて、寄与するレイセンサーの集合とその重みを発見する。ブロック3040で、3020で与えられた各々のセンサー値を重み付けして、この画像画素値の和に加算する。ブロック3050で、すべての画像画素が処理されたかチェックする。そうでなければ、プロセスはブロック3025に戻り、そうであれば、出力画素をブロック3060でセーブする。
さまざまな例示の実施形態では、光データを周波数ドメインで処理しているが、ある種の方式では、フーリエドメインで動作する再結像のための計算的方式を対象としている。図20は、別の例示の実施形態に関わる、このような1つの方式を示すフローチャートである。アルゴリズムに対する入力は離散4D光照射野2010であり、これは、メインレンズ上の(u,v)から発してマイクロレンズ面上の(s,t)で終わる(例えば、図1のメインレンズ110から発し、マイクロレンズアレイ120の平面で終わる)レイを表すL(s,t,u,v)とわれわれは呼んでいる。第1のステップで、光照射野の離散4Dフーリエ変換2020を計算する。(ks,kt,ku,kv)この4Dフーリエ変換値をあえて値M(ks,kt,ku,kv)と呼んで次式で定義する。
Figure 0004752031
ここで、exp関数は指数関数であり、exp(x)=exである。一部の実施形態では、離散光照射野を4D空間中の四線性グリッド上でサンプリングして、フーリエ変換を、高速フーリエ変換(FFT)アルゴリズムで計算する。
次のステップは、われわれが画像をピント合わせすることを希望する深度ごとに1回実行されるが、これで、4Dフーリエ変換の適切な2Dスライス2030を抽出して、さまざまな深度2040でピント合わせされた写真であるこの抽出スライスの逆2Dフーリエ変換を計算する。関数G(kx,ky)の逆フーリエ変換g(x,y)は次式で定義される。
Figure 0004752031
抽出された2Dスライス上の値は、われわれが再結像したい深度で決定される。所望の世界焦点面の共役平面(レンズの画像側にある)を考慮すると、この共役面とメインレンズ間の分離距離と、マイクロレンズ面とメインレンズ間の分離距離とがFであれば、座標(kx,ky)における抽出された2Dスライスの値は、次式で与えられる。
Figure 0004752031
さまざまな方式を用いて、離散化、再サンプリングおよびフーリエ変換によってもたらされる影響が選択的に改善される。一般的な信号処理という点では、信号をサンプリングするとき、この信号はデュアルドメインで周期的に複製される。このサンプリングされた信号を重畳によって再構築するとき、それをデュアルドメインで重畳フィルタをフーリエ変換して乗算する。この点で、オリジナルの中心の複製が隔離されて、他のすべての複製が消滅する。望ましいフィルタとしては4Dのsinc関数、すなわち、sinc(s)sinc(t)sinc(u)sinc(v)があるが、ここで、sinc(x)=sin(πx)であるが、この関数は無限の広がりを有している。
さまざまな方式で、有限範囲フィルタを周波数ドメイン処理で用いているが、このようなフィルタは欠陥があり、これを選択的に軽減している。図21Aに、特定の1Dフィルタに関するこのような欠陥を示すが、これに対応する以下の説明は、このような欠陥の軽減を対象としている。図21Aは、1Dでの線形内挿で(または4D四線形式フィルタの基底として)実施される三角フィルタ方式を示す。図21Bに、三角フィルタ方式のフーリエ変換を示すが、これは、帯域限界(2010を参照)内の単位値ではなく、また、周波数が増大するに連れて小さくなる端数値に徐々に減衰する値である。加えて、このフィルタは、真に帯域が制限されているわけではなく、所望の拒絶帯(2020)の外側の周波数でエネルギを含んでいる。
上記の第1の欠陥は「ロールオフアーティファクト」を引き起こすが、これは、計算された写真の境界を暗化させかねない。周波数が増すと発生するこのフィルタの周波数スペクトルの減衰は、このスペクトルで変調される空間光照射野もまた、エッジに近づくに連れて端数値に「ロールオフ」することを意味する。
上記の第2の欠陥は、上記の帯域限界を上回る周波数でのエネルギに関連する計算済み写真中のエリアシング影響である。帯域限界を超えて非ゼロエネルギが拡大するということは、周期的な複製が完全には解消されていなくて、2種類のエリアシングが発生すること意味する。第一に、スライス平面に平行であるように見える複製は、最終的な写真の境界を侵害する画像の2D複製のように見える。第二に、この平面に直角に置かれた複製は、画像平面に投射されて加算され、ゴーストを発生させ、コントラストが落ちる。
この例示の実施形態では、上記のロールオフタイプの欠陥補正は、フィルタの逆フーリエ変換の逆数を入力光照射野に乗算することによって解決され、これで、再サンプリング中に引き起こされた影響を無力化する。この例示の実施形態では、乗算は、4Dフーリエ変換をアルゴリズムの事前処理ステップで取り上げる以前に実行される。これでロールオフ誤差は補正されるが、事前乗算によって、自身の境界近くにある光照射野のエネルギーを拡大させて、エリアシング(aliasing)として所望の視野に折り返されるエネルギが最大となる。
エリアシングの影響を抑圧する3つの方法、すなわち、オーバーサンプリング、優越フィルタリングおよびゼロパディングを、以下のさまざまな例示の実施形態では個別にまたは組み合わせて用いている。抽出された2Dスライス内でオーバーサンプリングすると、空間ドメインでの複製周期が増す。これは、面内の複製のテールのエネルギーの内で、最終的な写真の境界内に入るエネルギーは少ないことを意味する。一方のドメイン中でのサンプリングレートを増すと、他方のドメインでの視野が増す。隣の複数からのエリアシングエネルギーは、このような外部領域に入るが、これは、消されて、対象となるオリジナルの中心画像を隔離させる。
エリアシングを軽減する別の方式として、完全なスペクトル(理想的なフィルタを用いて示されるようなもの)をできる限り緊密に近似する有限範囲フィルタを対象とするものがある。ある例示の実施形態では、4Dカイザー・ベッセル分離形関数、kb4(s、t、u、v)=kb(s)kb(t)kb(u)kb(v)をこのフィルタとして用いるが、ここで、次式が成り立つ。
Figure 0004752031
この式で、I0は、第1の種類の標準のゼロ次の修正カイザー・ベッセル関数であり、Wは所望のフィルタの幅であり、PはWによって決まるパラメータである。この例示の実施形態では、Wの値は、5,4.5,4.0,3.5,3.0,2.5,2.0及び1.5であり、Pの値は、それぞれ、7.4302,6.6291,5.7567,4.9107,4.2054,3.3800,2.3934および1.9980である。エリアシングに関する一般的な情報については、また、本発明の1つ以上の例示の実施形態に関わるエリアシング軽減方式に関する特定的な情報については、その全体を参照してここに組み込む、Jackson J.I、Meyer C.H.、Nishimura、D.G.およびMacovski A.、1997年による医療用撮像に関するIEEEトランザクションの10、3の473〜478ページのフーリエ逆変換のための重畳関数の選択を参照のこと。1つの実現例では、約2.5未満の幅「W」を実現して、望ましい画像品質を達成している。
別の例示の実施形態では、エリアシングを、事前乗算とそのフーリエ変換に先立ってゼロ値の小さい境界で光照射野をパディングすることによって軽減している。これによってエネルギが境界からさらに少し押されて、事前乗算によるエリアシングエネルギの増幅を最小化してロールオフを補正する。
図22は、本発明の別の例示の実施形態による、上記のさまざまな補正値を用いて周波数ドメインで再結像する方式を示すフローチャートである。ブロック2210で、離散4D光照射野が受信される。入力された光照射野ごとに1回発生する事前処理位相において、ブロック2215で、エリアシングの減少が望まれているかチェックし、望ましければ、ブロック2220を実行して、ゼロ値の小さい境界(例えば、このディメンジョンでの幅の5%)で光照射野をパディングする。ブロック2225で、ロールオフ補正が望まれているかチェックして、望まれていれば、光照射野をブロック2230で再サンプリングフィルタのフーリエ変換の逆数で変調する。この事前処理フェーズの最終ブロックで、光照射野の4Dフーリエ変換をブロック2240で計算する。
所望の焦点距離ごとに1回発生する再結像フェーズにおいて、例えばユーザの方向によって、ブロック2250で再結像画像の所望の焦点深度を受信する。ブロック2260で、エリアシングの減少が望まれるどうかチェックする。望まれなければ、ブロック2270で、所望の4D再サンプリングフィルタで光照射野のフーリエ変換の2Dスライスを抽出するが、ここで、2Dスライスの軌跡は、所望の焦点深度に対応しており、ブロック2275で、抽出されたスライスの逆2Dフーリエ変換を計算して、ブロック2290に進む。ブロック2260でエリアシングの減少が望まれれば、ブロック2280に進み、ここで、所望の4D再サンプリングフィルタとオーバーサンプリング(例えば、2次元のそれぞれで2xオーバーサンプリングする)での2Dスライスが抽出される。ブロック2283、このスライスの逆2Dフーリエ変換を計算し、結果得られる画像を、ブロック2286でのオーバーサンプリングなしでオリジナルサイズにまで縮小して、その後で、ブロック2290に進む。ブロック2290で、再結像が完了したかどうかチェックする。完了していなければ、別の焦点深度をブロック2250で選んで、上記の通りに進行する。再結像が完了したら、ブロック2295から脱出する。
この周波数ドメインアルゴリズムの漸近的な計算上の複雑性は、上記の代替実施形態で説明したように例を明示的に加算することによる再結像の場合より少ない。入力された離散光照射野は、その4つのディメンジョンの各々にN個のサンプルを持っているもの仮定する。そして、新たな深度ごとに再結像に対して、明示的にレイを加算するアルゴリズムの計算的複雑性はO(N4)(N4のオーダー)である。新たな深度ごとの再結像に対して、この周波数ドメインアルゴリズムの計算的複雑性はO(N2logN)であり、逆2Dフーリエ変換の経費が大きい。しかしながら、事前処理ステップでは、新たな光照射野データ集合ごとにO(N4logN)が必要である。
別の例示の実施形態では、キャプチャされた光線は光学的にフィルタリングされる。このような応用例には限られないが、このようなフィルタの例には、ニュートラルデンシティフィルタや、色フィルタや、分極フィルタがある。既存のまたは将来開発されるいかなるフィルタを用いて、光の例を所望の通りにフィルタリングしてもよい。1つの実施形態では、光線をグループでまたは個別に光学的にフィルタリングし、これで、各々のグループや個々のレイが互いに別々にフィルタリングされるようにする。別の実施例では、フィルタリング、メインレンズに取り付けられた空間的に変動するフィルタを用いて適用している。1つの例示の応用例では、ニュートラルデンシティ勾配フィルタなどの勾配フィルタを用いて光をフィルタリングしている。別の実施例では、空間的変動フィルタを、レイセンサー、マイクロレンズアレイおよび光センサーの内の1つ以上のものの前部で用いている。図1をレイとして参照すると、このようなフィルタを1つ以上選択的に、メインレンズ110、マイクロレンズアレイ120および光センサーアレイ130の内の1つ以上のものの前部で用いている。
本発明の別の例示の実施形態では、プロセッサなどの計算コンポーネントをプログラムして、出力画素を計算する際に合成されるレイを選択して、この画素値に対して所望のネットのフィルタリングを実行する。一例として、光学的にニュートラルな勾配デンシティフィルタがメインレンズのところにある実施形態を考えると、マイクロレンズの下に現われるレンズアパーチャの各々の画像に対して、この範囲全体にわたってフィルタ勾配が重み付けされる。1つの実施例では、出力画像は、この出力画像の画素に対する所望のレベルのニュートラルデンシティフィルタリングを選択することによって重み付けされる。例えば、すべての画素が広い範囲にわたってフィルタリングされた画像を生成するために、すべての画素値を、最大フィルタリングに対応する勾配の末端にある対応するマイクロレンズの下の光センサーの値に設定する。
図2は、本発明の他の例示の実施形態に関連する画像処理方式を示すデータフローチャートである。画像センサー装置210は、例えば、図1に示し、上述したマイクロレンズ120と光センサーアレイ130に類似した方法でマイクロレンズ/光センサーチップ装置212を用いて画像データを収集する。画像センサー装置210は、収集された画像データを転送するように準備するために、ある処理回路を持つ組み込み処理回路214を光学的に含んでいる。
画像センサー装置210で作成されたセンサーデータは信号プロセッサ220に送られる。この信号プロセッサは、低解像度画像プロセッサ222と、圧縮プロセッサ224および(光)レイ方向プロセッサ226の一方または双方とを含むが、これらのプロセッサは各々が、応用例次第で共通のプロセッサで別個にまたは機能単位で選択的に実現される。さらに、図2に示すプロセッサの各々が、他の図面または本書のどこかに関連して説明した1つ以上の処理機能で選択的にプログラムされる。信号プロセッサ220は、オプションとして、共通回路上および/または共通画像デバイス中でなど、画像センサー装置210で共通デバイスまたは共通コンポーネント中に実現される。
低解像度画像プロセッサ222は、画像センサー装置210から受信したセンサーデータを用いて、低解像度画像データを生成し、これがビューファインダディスプレイ230に送られる。カメラやビデオカメラの押しボタンなどの入力デバイス235は、画像キャプチャ要求を信号プロセッサ220に送って、例えば、ビューファインダディスプレイ230に表示されている特定の画像のキャプチャおよび/またはこのように実施された場合におけるビデオ撮像の開始を要求する。
画像キャプチャ要求に応答してまたは別様に指示されて、信号プロセッサ220は、画像センサー装置210がキャプチャしたセンサーデータを用いて、処理済みのセンサーデータを生成する。一部の応用例では、圧縮プロセッサ224を実現して、圧縮生データを生成し、これをデータ記憶装置240(例えばメモリー)に転送する。すると、このような生データを信号プロセッサ220および/または外図コンピュータ260もしくは他の処理デバイスで選択的に処理して、レイ方向プロセッサ226で実施されるようにレイ方向処理を実施するが、これを以下に詳述する。
ある応用例では、レイ方向プロセッサ226を実現して、信号プロセッサ220が受信したセンサーデータを処理して、結像されたおよび/または補正された画像データを生成する際に用いられるセンサーデータを再構成する。レイ方向プロセッサ226は、画像センサー装置210から受信したセンサーデータと画像記憶装置240に送られた生データの内の一方または双方を用いる。このような応用例では、レイ方向プロセッサ226は、画像センサー装置210が実現されている特定の撮像デバイス(例えば、カメラ、ビデオカメラ、モバイル電話)のレイマッピング特徴を利用して、マイクロレンズ/光センサーチップ212で感知された光線の再構成を決定する。レイ方向プロセッサ226で作成された画像データは、データ記憶装置240および/または、画像データのストリーミングや遠隔地への画像データの別様の送出などのさまざまな応用例で用いられる通信リンク250に送られる。
一部の応用例では、組み込み処理回路214は、例えば、適切な機能を持つCMOSタイプのプロセッサまたは他のプロセッサを実現することによって、信号プロセッサ220の処理機能の内の一部またはすべてを含んでいる。例えば、低解像度画像プロセッサ222は、組み込み処理回路214と一緒に含まれて、低解像度画像データが、画像センサー装置210からビューファインダディスプレイ230に対して直接に送られる。同様に、圧縮プロセッサ224またはこれと類似の機能が、組み込み処理回路214で実現される。
一部の実施形態では、最終的画像の計算を、組み込み処理回路214(例えば、最終的画像しか出力しない一部のディジタル式スチールカメラ)で実施される。画像センサー装置210が、単に、生の光線データまたはこれを圧縮したデータをデスクトップコンピュータなどの外部計算デバイスに送信するような実施形態もある。この場合、最終的画像を外部デバイスでこれらのデータから計算する。
図3は、本発明の別の例示の実施形態による、画像データ処理のフローチャートである。ブロック310で、画像データを、メインレンズまたは、図1に示すようなマイクロレンズ/光センサーアレイを持つレンズスタックを用いてカメラまたは他の撮像デバイスでキャプチャする。プレビュー画像がブロック320で望まれる場合、プレビュー画像を、例えば、ビューファインダまたは他のタイプのディスプレイを用いてブロック330で生成する。プレビュー画像を、例えば、キャプチャされた画像データのサブ集合を用いてカメラやビデオカメラのビューファインダに表示する。
光センサーアレイからの生データを、ブロック340で処理して圧縮して使用できるようにする。光線データを、この処理・圧縮されたデータからブロック350で抽出する。この抽出では、例えば、光センサーアレイ中の特定の光センサーに入射した光線の束または集合が検出される。レイマッピングデータを、画像データがキャプチャされる撮像装置用にブロック360で検索する。このレイマッピングデータと抽出された光線データとを用いて、再ソーティング済み画像をブロック370で合成する。例えば、抽出、マッピングおよび合成のブロック350〜370は、光線を収集する対象である画面の特定の画素に対する光線の束を決定し、この光線のエネルギを累積してこの特定の画素の値を合成することによって選択的に実施される。一部の応用例では、レイマッピングデータを用いて、各々の特定の画素に対する光線を、画像データ獲得目的で用いられる実際のレンズを解してトレースする。例えば、適当なレイ集合を決定してこれを一緒に加算して、特定の焦点深度にある選択された被写体に対してブロック370で収束させることによって、これらのレイを再ソーティングして、ピントがあっている画像に到達することが可能である。同様に、適当なレイ構造を決定して、撮像デバイス中のレンズ収差などの状態を補正することによって、このようなレイを再ソーティングして、収差や他の状態に関連する特徴が比較的ない画像を生成することが可能である。
さまざまな方式を選択的に用いて、カメラタイプの応用例や他の応用例に対してプレビュー画像を生成する。図4は、本発明の別の例示の実施形態による、このようなプレビュー画像を生成するプロセスフローチャートである。図4に示し、以下に説明するこの方式は、例えば、図3のブロック330でのプレビュー画像生成に関連して実施される。
生のセンサー画像データのプレビュー命令をブロック410で受信する。ブロック420で、中心画素を、この生のセンサー画像データ中の各々のマイクロレンズ画像から選択する。この選択された中心画素を収集して、ブロック430で高い被写界深度を持つ画像を形成する。ブロック440で、この高被写界深度画像を、ビューファインダディスプレイで用いられるように修正可能な解像度にまでダウンサンプリングする。例えば図2を参照すると、このようなダウンサンプリングは、1つ以上の画像センサー装置210または信号プロセッサ220で選択的に実行される。生成されたプレビュー画像データを、ブロック450でビューファインダディスプレイに送って、ブロック460で、ビューファインダディスプレイがこのプレビュー画像データを持つ画像を表示する。
図5は、本発明の別の例示の実施形態による、画像データを処理して圧縮するプロセスフローチャートである。図5に示し、以下に説明するこの方式は、例えば、図3のブロック340での画像データの処理と圧縮に関連して実施される。図2に示すような装置で実施されると、図5に示す方式は、例えば、画像センサー装置210と信号プロセッサ220の一方または双方で実施される。
ブロック510で、生の画像データをセンサーアレイから受信する。ブロック520でカラリングが所望されると、色フィルタアレイ値をブロック530でデモシアス(demosiace)されて、センサーのところに色を発生する。ブロック540で修正と整列が所望されれば、ブロック550で、マイクロレンズ画像を修正して光センサーアレイと整列させる。ブロック560で内挿が所望されれば、画素値を、各々のマクロレンズと関連する画素の整数に対してブロック570で内挿する。ブロック580で、処理された生の画像データを合成処理されるように(例えば、再結像および/補正された画像を形成するために)圧縮して提示する。
図6は、本発明の別の例示の実施形態による、画像合成のプロセスフローチャートである。図6に示し、以下に説明する方式は、例えば、図3のブロック370に示し、以下にさらに説明する画像合成方式と関連して実施される。
ブロック610で、生の画像データを光センサーアレイから受信する。ブロック620で再結像を所望されれば、画像データを、例えば、生画像データで表される選択的に光を再ソーティングする本書に記載の方式を用いてブロック630で再結像する。ブロック640で画像補正が所望されれば、画像データをブロック650で補正する。さまざまな応用例で、ブロック650での画像補正を、再結像と画像補正の双方が所望される応用例のブロック630で再結像する前にまたはそれに同時に実行する。結果としての画像を、適用可能であれば再結像データと補正データを含む処理済み画像データを用いて、ブロック660で生成する。
図7Aは、本発明の別の例示の実施形態による、あるレンズ配置で画像を再結像するプロセスフローチャートである。図7に示し、以下に解説する方式は、例えば、図6のブロック630での画像データの再結像と関連して実施される。
ブロック710で、画像部分を再結像させる仮想焦点面を選択する。ブロック720で、仮想焦点面に対する仮想画像の画素を選択する。ブロック730で補正(例えばレンズ収差に対する補正)が所望されれば、選択された画素と各々の特定のレンズ位置間を通過する仮想光線(または光線の仮想集合)がブロック740で計算される。1つの応用例では、この計算は、選択された画素に当たる共役の光線を計算して、このレイをレンズアレイ中の経路をトレースすると容易となる。
ブロック750で、特定の焦点面に対する各々のレンズ位置の光線(または光線の仮想集合)の和を加算して、選択された画素の合計値を決定する。一部の応用例では、ブロック750で加算される和は重み付けされた和であり、この場合、ある光線(または光線の集合)には他の光線より大きい重み付けがされる。ブロック760で再結像する画素がまだあれば、別の画素をブロック720で選択して、再結像が望まれる画素がなくなるまで継続される。画素がすべて再結像されると、画素データをブロック770で合成して、ブロック710で選択された仮想の焦点面のところで再結像された仮想画像を生成する。図7のブロック720、730、740および750n一部またはすべてを伴う再結像方式は、さまざまな応用例のより具体的な機能によって実行される。
本書に記載する1つ以上の例示の実施形態で実現されているセンサーデータ処理回路は、実施例にしたがって、1つ以上のマイクロプロセッサ、特定用途向けIC(ASIC)、ディジタル信号プロセッサ(DSP)および/またはプログラム可能ゲートアレイ(例えば、フィールドプログラム可能ゲートアレイ(FPGA))を含む。この点で、センサーデータ処理回路は、現在周知のまたは将来開発されるどのようなタイプまたは形態の回路でもよい。例えば、センサーデータ処理回路は、1つのコンポーネントまたは複数のコンポーネント(マイクロプロセッサ、ASIC、DSP)を含むが、これらは、能動素子であれ受動素子であれ、一緒にカップリングされて、所望の動作/機能/応用を実施、提供および/または実行する。
さまざまな応用例において、センサーデータ処理回路は、本書に記載および/または図示された特定の方法、タスクまたは動作を実行する1つ以上のアプリケーション、ルーチン、プログラムおよび/またはデータ構造を実施または実行する。これらアプリケーション、ルーチンまたはプログラムの機能性は、ある応用例では選択的に組み合わせたり配分させたりしている。一部の応用例では、アプリケーション、ルーチンまたはプログラムを、現在周知のまたは将来開発されるさまざまなプログラム言語の内の1つ以上を用いてセンサー(または他の)データ処理回路で実施している。このようなプログラム言語には、例えば、FORTRAN、C、C++、Java(登録商標)、BASICが含まれるが、これらは、コンパイル済みコードであれ未コンパイルコードであれ、本発明の1つ以上の態様と関連して選択的に実施される。
上記のさまざまな実施形態は解説目的だけのものであり、本発明を制限するものと解釈すべきではない。上記の説明と図示に基づいて、当業者であれば、本書に図示し記載した例示の実施形態と応用例を厳格に追随することなく、本発明に対してさまざまな修正と変更が可能であることが容易に認識されるであろう。例えば、このような変更には、さまざまなタイプの応用例でさまざまな光学的撮像用のアプリケーションやデバイスを実現したり、画素(または選択された他の画像エリア)ごとに収集されるレイの数を増減させたり、上記の例とは異なったアルゴリズムおよび/式を実施して画像データを組み立てるまたは別様に処理したりすることが含まれる。他の変更として、極座標などの、デカルト座標とは異なった座標表示を用いたりまたはこれに付け加えたりすることがある。このような修正と変更は、本発明の精神と範囲から逸脱しない。
本発明は、次の添付図面と一緒にして本発明のさまざまな実施形態に関する以下の詳細な説明を読めばより完全に理解されるであろう。
本発明はさまざまな修正形態や代替形態に変更することが可能であるとはいえ、その固有性は図面中に例として示されており、詳細に説明する。しかしながら、本発明は、記載される特定の実施形態に限られることを意図するものではないことを理解すべきである。それどころか、本発明は、本発明の精神と範囲から逸脱しないあらゆる修正例、等価例および代替例をその範囲に含むものである。
本発明の例示の実施形態による、光線キャプチャ・処理装置を示す図である。 本発明の別の例示の実施形態による、光学的撮像デバイスを示す図である。 本発明の別の例示の実施形態による、画像処理のプロセスフローチャートである。 本発明の別の例示の実施形態による、プレビュー画像を生成するプロセスフローチャートである。 本発明の別の例示の実施形態による、画像データを処理して圧縮するプロセスフローチャートである。 本発明の別の例示の実施形態による、画像合成のプロセスフローチャートである。 本発明の別の例示の実施形態による、画像再結像のプロセスフローチャートである。 本発明の別の例示の実施形態による、画像中の被写体深度を拡大するプロセスフローチャートである。 本発明の別の例示の実施形態による、画像中の被写体深度を拡大する別の方式のプロセスフローチャートである。 本発明の別の例示の実施形態による、光線を分離させる1つの例示の方式を示す図である。 本発明の別の例示の実施形態による、センサー画素のロケーションを収集されたデータを基準としてL(u,v,s,t)空間中の光線に対してマッピングする方式を示す図である。 本発明の別の例示の実施形態による、さまざまな深度で再結像されたいくつかの画像を示す図である。 本発明の別の例示の実施形態による、2次元での撮像構造を示す図である。 本発明の別の例示の実施形態による、ある画素に対して加算された3次元のポイントからの光線から成る円錐体を示す図である。 本発明の別の例示の実施形態による、さまざまな被写界深度を持つ画像を計算する方式を示す図である。 本発明の別の例示の実施形態による、さまざまな被写界深度を持つ画像を計算する方式を示す図である。 本発明の別の例示の実施形態による、さまざまな被写界深度を持つ画像を計算する方式を示す図である。 本発明の別の例示の実施形態による、仮想フィルム面上の3次元ポイントからの光線をトレースする方式を示す図である。 本発明の別の例示の実施形態による、光の値を発見する方式を示す図である。 本発明の別の例示の実施形態による、理想的な512×512画素の写真を示す図である。 本発明の別の例示の実施形態による、f/2球面両凸レンズで生成される画像を示す図である。 本発明の別の例示の実施形態による、画像補正方式を用いて計算された画像を示す図である。 本発明の別の例示の実施形態による、カラー撮像システムでは共通の光線トレース法を示す図である。 本発明の別の例示の実施形態による、カラー撮像システムでは共通の光線トレース法を示す図である。 本発明の別の例示の実施形態による、カラー撮像システムでは共通の光線トレース法を示す図である。 本発明の別の例示の実施形態による、モザイクアレイを実現する方式を示す図である。 本発明の別の例示の実施形態による、モザイクアレイを実現する方式を示す図である。 本発明の別の例示の実施形態による、モザイクアレイを実現する方式を示す図である。 本発明の別の例示の実施形態による、モザイクアレイを実現する方式を示す図である。 本発明の別の例示の実施形態による、モザイクアレイを実現する方式を示す図である。 本発明の別の例示の実施形態による、モザイクアレイを実現する方式を示す図である。 本発明の別の例示の実施形態による、フーリエドメイン中での再結像の計算による方式のプロセスフローチャートである。 本発明の別の例示の実施形態による、三角フィルタ方式を示す図である。 本発明の別の例示の実施形態による、三角フィルタ方式のフーリエ変換を示す図である。 本発明の別の例示の実施形態による、周波数ドメインでの再結像の方式のプロセスフローチャートである。 本発明の別の例示の実施形態による、所望の焦点を通過するレイの集合を示す図である。 本発明の別の例示の実施形態による、マイクロレンズアレイの一部を別々に見た図である。 本発明の別の例示の実施形態による、マイクロレンズアレイの一部を別々に見た図である。 本発明の別の例示の実施形態による、光センサーに現われる画像を示す図である。 仮想画像をそれが仮想フィルム上に現われたときに計算する、本発明の例示の実施形態を示す図である。 本発明の別の例示の実施形態による、仮想レンズ面を操作する方式を示す図である。 本発明の別の例示の実施形態による、仮想フィルムがいかなる形状をもとりえることを示す図である。 本発明の別の例示の実施形態による、撮像装置を示す図である。 本発明の別の例示の実施形態による、各々の出力画像画素と各々の光線センサー値と関連する重みのデータベースを事前計算するプロセスフローチャートである。 本発明の別の例示の実施形態による、重みのデータベースを用いて出力画像を計算するプロセスフローチャートである。 本発明の別の例示の実施形態による、仮想アパーチャ関数として選択的に実施されるさまざまなスカラー関数を示す図である。 本発明の別の例示の実施形態による、仮想アパーチャ関数として選択的に実施されるさまざまなスカラー関数を示す図である。 本発明の別の例示の実施形態による、仮想アパーチャ関数として選択的に実施されるさまざまなスカラー関数を示す図である。 本発明の別の例示の実施形態による、仮想アパーチャ関数として選択的に実施されるさまざまなスカラー関数を示す図である。 本発明の別の例示の実施形態による、画素ごとに変化する仮想アパーチャ関数を示す図である。 本発明の別の例示の実施形態による、ユーザが出力画像の領域を選択し、ある画像の部分を編集し、出力画像をセーブするプロセスフローチャートである。 本発明の別の例示の実施形態による、画像中の被写界深度を拡大するプロセスフローチャートである。 本発明の別の例示の実施形態による、受信した光線センサーデータから再結像画像を計算するプロセスフローチャートである。

Claims (36)

  1. 場面をディジタル的に撮像する方法において、
    前記方法が、
    光センサーアレイを用いて、物理焦点面上の互いに異なったロケーションに送られる場面からの光を同時に検出することと、
    前記光センサーアレイにおける互いに異なった光センサーで検出された光線が前記物理焦点面上の特定の場所において入射するときの入射角を、前記物理焦点面上の前記特定の場所に対する前記光センサーの位置に基づいて判定することと、
    前記光センサーアレイによって検出された光線のデータを、前記判定された光線の入射角に基づいて選択的に組み合わせることにより、画像の少なくとも一部分再結像して出力画像を計算することと、
    を含む方法。
  2. 前記出力画像を計算することが、前記検出された光線のデータを選択的に組み合わせることにより、前記検出された光前記物理焦点面とは異なる仮想焦点面で再結像して画像の少なくとも一部を形成して前記出力画像を形成することを含む、請求項1に記載の方法。
  3. 前記検出された光を再結像させることが、
    前記検出された光線のデータを選択的に組み合わせることにより、前記仮想焦点面に結像された前記画像の少なくとも一部分を形成す光線の集合を判定することと、
    前記測定された光線の集合を合成して、前記仮想焦点面のところに結像された前記出力画像の部分を形成することと、
    を含む、請求項2に記載の方法。
  4. 前記検出された光線を再結像させることが、前記検出された光線のデータを選択的に組み合わせることにより、光を検出する際に用いられる光学系の状態を補正することを含む、請求項1に記載の方法。
  5. 前記検出された光線を再結像させることが、前記検出された光線のデータを選択的に組み合わせることにより、レンズの収差を補正することを含む、請求項1に記載の方法。
  6. 場面から画像を合成するディジタル撮像システムにおいて、前記システムが、
    複数の光センサーを有する光センサーアレイと、
    物理的焦点を有し、場面からの光を物理焦点面を介して前記光センサーアレイに対して出力するように適用された光学装置であって、前記物理焦点面の特定の部分を介して通過する光線の集合に対して、複数の光センサーを配置して、前記物理焦点面の前記特定の部分のところに、互いに異なった入射角で同時に到達する光線の集合の内の互いに異なった光線を検出する、前記光学装置と、
    前記光センサーアレイにおける互いに異なった光センサーで検出された光線の前記物理焦点面における入射角に基づいて、前記光センサーアレイによって検出された光線のデータを選択的に組み合わせることにより、再結像画像を計算するようにプログラムされたプロセッサと、
    を備えるシステム。
  7. 前記光学装置が、前記焦点面上に置かれたマイクロレンズアレイを含み、前記マイクロレンズアレイが複数のマイクロレンズを含み、各々のマイクロレンズが、前記マイクロレンズに入射した光線を分離して、前記分離した光線を前記光センサーアレイ中の所定の複数の光センサー対して出力するように適用される、請求項6に記載のシステム。
  8. 前記プロセッサが、前記マイクロレンズに対する各々の光センサーの位置を用いて各々の光センサーに対する光線の入射角を判定する、請求項7に記載のシステム。
  9. 前記プロセッサが、前記検出された光線のデータを選択的に組み合わせることにより、検出された光を発する元の場面中の被写体の被写界深度を決定し、また、前記被写界深度と前記検出された光の入射角とを用いて、前記物理焦点面とは異なる仮想焦点面に結像された再結像画像を計算するようにプログラムされた、請求項6に記載のシステム。
  10. 前記プロセッサが、
    前記検出された光線が前記物理焦点面に入射するときの入射角を、前記物理焦点面に対する前記光センサーの位置に基づいて判定し、
    判定された前記光線の入射角を用いて、前記光線の経路をマッピングする、
    請求項6に記載のシステム。
  11. 前記光学装置が、複数のマイクロレンズを含むマイクロレンズアレイを有し、
    前記マイクロレンズアレイ中のマイクロレンズ毎に、複数の光センサーが対応しており、
    前記マイクロレンズは、光学装置から、対応する前記光センサーへ光を向けるように構成されている、
    請求項6に記載のシステム。
  12. 前記プロセッサが、仮想焦点面を規定するデータと、前記光線集合の物理的方向と、に基づいて前記検出された光線のデータを選択的に組み合わせることにより、前記再結像画像を計算する、
    請求項6に記載のシステム
  13. 前記仮想焦点面は、前記物理焦点面に対して傾斜された仮想焦点面である、請求項12に記載のシステム
  14. 前記仮想焦点面は、非平面状の仮想焦点面である、請求項12に記載のシステム
  15. 前記光学装置が、場面からの光を、物理的被写界深度で前記物理焦点面に投影するように構成されており、
    前記プロセッサが、前記物理的被写界深度とは異なる選択された仮想被写界深度と、前記光線集合の前記物理焦点面における物理的方向と、に基づいて前記検出された光線のデータを選択的に組み合わせることにより、前記選択された仮想被写界深度を有する前記再結像画像を計算する、請求項6に記載のシステム。
  16. 前記選択された仮想被写界深度は、前記物理的被写界深度よりも深い、請求項15に記載のシステム。
  17. 前記プロセッサが、前記光学装置のレンズ収差に基づいて、前記検出された光線のデータを選択的に組み合わせることにより前記再結像画像を計算する、請求項6に記載のシステム
  18. 前記プロセッサが、
    前記検出された光線が前記物理焦点面に入射するときの入射角を、前記物理焦点面に対する前記光センサーの位置に基づいて判定し、
    前記検出された光線の入射角に基づいて収差を有する光線を判定し、
    前記収差を有する光線を整列することにより、前記光学装置の収差を補正し、
    前記検出された光線および前記整列された収差を有する光線のデータを選択的に組み合わせることにより前記再結像画像を計算する、
    請求項6に記載のシステム。
  19. 前記プロセッサが、
    前記検出された光が前記物理焦点面上に入射するときの入射角を、前記物理焦点面に対する前記光センサーの位置に基づいて判定し、
    判定された前記光の前記入射角を用いて、前記光の経路をマッピングし、
    前記マッピングされた光の経路に基づいて収差を有する光線を判定し、
    前記収差を有する光線を整列させ、
    前記検出された光および前記整列された収差を有する光線のデータを選択的に組み合わせて再結像画像を計算することにより前記光学装置の収差を補正する、
    請求項6に記載のシステム。
  20. キャプチャされた光線の集合から画像を合成するディジタル撮像システムにおいて、前記システムが、
    物理焦点を有し、場面からの光線を物理焦点面に向けるメインレンズと、
    複数の光センサーを有し、各前記光センサーが互いに異なる光線を検出するように構成された、光センサーアレイと、
    前記メインレンズと前記光センサーアレイ間に配置されたマイクロレンズアレイであり、前記光線の集合を、前記メインレンズから記光センサーアレイ物理的に向けるように構成された、前記マイクロレンズアレイと、
    前記メインレンズから前記マイクロレンズを介して前記光センサーアレイに至る前記光線集合が前記マイクロレンズに入射する際の物理的方向に基づいて、前記光センサーアレイによって検出された光線のデータを選択的に組み合わせることにより、合成された再結像画像を計算するデータプロセッサと、
    を備えるシステム。
  21. 前記データプロセッサが、前記検出された光線のデータを選択的に加算して、前記再結像画像を計算する、請求項20に記載のシステム。
  22. 前記データプロセッサが、前記検出された光線のデータを選択的に重み付けして加算して、前記再結像画像を計算する、請求項20に記載のシステム。
  23. 前記データプロセッサが、前記検出された光線のデータを選択的に組み合わせることにより、前記マイクロレンズアレイが置かれている平面とは異なった平面に画像の一部分を再結像させる、請求項20に記載のステム。
  24. 前記データプロセッサが、前記検出された光線のデータを選択的に組み合わせることにより、レンズ収差を補正する、請求項20に記載のステム。
  25. 前記データプロセッサが、前記検出された光線のデータを選択的に組み合わせることにより、前記合成画像の被写界深度を拡大する、請求項20に記載のステム。
  26. 前記光センサーアレイが、前記マイクロレンズアレイ中のマイクロレンズごとに、複数の光センサーを含む、請求項20に記載のステム。
  27. 前記メインレンズが場面の2次元画像を前記マイクロレンズアレイ上にピントを合わせ、 前記マイクロレンズ中の各々のマイクロレンズが、自身のところに焦点合わせされた光線を前記メインレンズによって発散させ、また、前記発散した光線を前記マイクロレンズの前記複数の光センサーに対して出力するように適用される、請求項20に記載のステム。
  28. 前記データプロセッサが、前記光センサーアレイから検出された光線のデータを選択的に組み合わせることにより、後出の各々のサブ画像のさまざまな焦点深度を分離することによって検出された光線が表す場面のさまざまな部分から結像されたサブ画像を作成する、請求項20に記載のステム。
  29. 前記データプロセッサが、前記結像されたサブ画像を組み合わせることによって最終的な画像を合成する、請求項28に記載のステム。
  30. 前記前記マイクロレンズアレイが、複数のマイクロレンズを含み、
    前記マイクロレンズアレイ中のマイクロレンズ毎に、複数の光センサーが対応しており、
    前記マイクロレンズは、前記メインレンズから、対応する前記光センサーへ光を向けるように構成されている、
    請求項20に記載のシステム。
  31. 前記データプロセッサが、仮想焦点面に関するデータと、前記光線集合の物理的方向と、に基づいて前記検出された光線のデータを選択的に組み合わせることにより、前記再結像画像を計算する、
    請求項20に記載のシステム
  32. 前記仮想焦点面は、前記物理焦点面に対して傾斜された仮想焦点面である、請求項31に記載のシステム
  33. 前記仮想焦点面は、非平面状の仮想焦点面である、請求項31に記載のシステム
  34. 前記メインレンズが 場面からの光線を、所定の物理的被写界深度で前記物理焦点面に投影し、
    前記データプロセッサが、前記物理的被写界深度とは異なる選択された仮想被写界深度と、前記光線集合の前記物理焦点面における物理的方向と、に基づいて前記検出された光線のデータを選択的に組み合わせることにより、前記選択された仮想被写界深度を有する前記再結像画像を計算する、請求項20に記載のシステム。
  35. 前記選択された仮想被写界深度は、前記物理的被写界深度よりも深い、請求項34に記載のシステム。
  36. 前記プロセッサが、前記メインレンズのレンズ収差に基づいて、前記検出された光線のデータを選択的に組み合わせることにより前記再結像画像を計算する、請求項20に記載のシステム
JP2007534796A 2004-10-01 2005-09-30 撮像の装置と方法 Expired - Fee Related JP4752031B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US61517904P 2004-10-01 2004-10-01
US60/615,179 2004-10-01
US64749205P 2005-01-27 2005-01-27
US60/647,492 2005-01-27
PCT/US2005/035189 WO2006039486A2 (en) 2004-10-01 2005-09-30 Imaging arrangements and methods therefor

Publications (2)

Publication Number Publication Date
JP2008515110A JP2008515110A (ja) 2008-05-08
JP4752031B2 true JP4752031B2 (ja) 2011-08-17

Family

ID=36143078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007534796A Expired - Fee Related JP4752031B2 (ja) 2004-10-01 2005-09-30 撮像の装置と方法

Country Status (6)

Country Link
US (12) US7936392B2 (ja)
EP (3) EP2398224B1 (ja)
JP (1) JP4752031B2 (ja)
KR (1) KR101134208B1 (ja)
HK (2) HK1105334A1 (ja)
WO (1) WO2006039486A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2709352A2 (en) 2012-09-12 2014-03-19 Canon Kabushiki Kaisha Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
JP2015119395A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US9253392B2 (en) 2013-08-23 2016-02-02 Canon Kabushiki Kaisha Imaging apparatus and control method and program of imaging apparatus
US9386207B2 (en) 2013-02-14 2016-07-05 Olympus Corporation Image-capturing apparatus
US9658367B2 (en) 2012-01-30 2017-05-23 Olympus Corporation Image acquisition apparatus
US9756304B2 (en) 2012-10-05 2017-09-05 Olympus Corporation Image-acquisition apparatus for performing distance measurement using parallax
US9900565B2 (en) 2014-03-26 2018-02-20 Seiko Epson Corporation Projector capable of adjusting a light exit angle
US9946140B2 (en) 2014-03-26 2018-04-17 Seiko Epson Corporation Projector capable of projection in different positions in the depth direction
US10225537B2 (en) 2016-08-24 2019-03-05 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Families Citing this family (323)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2821533B1 (fr) * 2001-03-01 2004-01-23 Oreal Brosse pour l'application d'un produit sur les fibres keratiniques
EP1584067A2 (en) 2003-01-16 2005-10-12 D-blur Technologies LTD. C/o Yossi Haimov CPA Camera with image enhancement functions
US7773316B2 (en) 2003-01-16 2010-08-10 Tessera International, Inc. Optics for an extended depth of field
US8294999B2 (en) 2003-01-16 2012-10-23 DigitalOptics Corporation International Optics for an extended depth of field
US8406563B2 (en) * 2009-07-28 2013-03-26 National Taiwan University Photometric calibration method and device
DE602005009432D1 (de) 2004-06-17 2008-10-16 Cadent Ltd Verfahren und Gerät zur Farbbildformung einer dreidimensionalen Struktur
EP2398224B1 (en) 2004-10-01 2016-01-13 The Board of Trustees of The Leland Stanford Junior University Imaging arrangements and methods therefor
KR100943109B1 (ko) * 2005-03-22 2010-02-18 올림푸스 가부시키가이샤 화상 처리 장치 및 내시경 장치
FR2884338B1 (fr) * 2005-04-11 2007-10-19 Valeo Vision Sa Procede, dispositif et camera pour la detection d'objets a partir d'images numeriques
JP4826152B2 (ja) * 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
WO2007044725A2 (en) * 2005-10-07 2007-04-19 The Board Of Trustees Of The Leland Stanford Junior University Microscopy arrangements and approaches
US7623726B1 (en) * 2005-11-30 2009-11-24 Adobe Systems, Incorporated Method and apparatus for using a virtual camera to dynamically refocus a digital image
US8358354B2 (en) * 2009-01-26 2013-01-22 The Board Of Trustees Of The Leland Stanford Junior University Correction of optical abberations
US8248515B2 (en) 2006-02-07 2012-08-21 The Board Of Trustees Of The Leland Stanford Junior University Variable imaging arrangements and methods therefor
US8014597B1 (en) 2006-03-22 2011-09-06 Woodman Labs Method for efficient compression and decoding of single sensor color image data
US7620309B2 (en) * 2006-04-04 2009-11-17 Adobe Systems, Incorporated Plenoptic camera
US7612805B2 (en) 2006-07-11 2009-11-03 Neal Solomon Digital imaging system and methods for selective image filtration
US8155478B2 (en) * 2006-10-26 2012-04-10 Broadcom Corporation Image creation with software controllable depth of field
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US8103111B2 (en) * 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US7941213B2 (en) 2006-12-28 2011-05-10 Medtronic, Inc. System and method to evaluate electrode position and spacing
JP4264569B2 (ja) 2007-01-09 2009-05-20 ソニー株式会社 撮像装置
US7792423B2 (en) * 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
CN100585453C (zh) * 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP4306744B2 (ja) 2007-03-01 2009-08-05 ソニー株式会社 生体認証装置
CN101711125B (zh) 2007-04-18 2016-03-16 美敦力公司 针对非荧光镜植入的长期植入性有源固定医疗电子导联
US7782381B2 (en) * 2007-04-23 2010-08-24 Hewlett-Packard Development Company, L.P. Generating an instant review image using fractional readouts
JP5179784B2 (ja) * 2007-06-07 2013-04-10 株式会社ユニバーサルエンターテインメント 三次元座標測定装置及び三次元座標測定装置において実行されるプログラム
JP2008312080A (ja) 2007-06-18 2008-12-25 Sony Corp 撮像装置及び撮像方法
US8290358B1 (en) 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
JP4730347B2 (ja) * 2007-07-03 2011-07-20 ソニー株式会社 撮像装置及び撮像方法
JP4967873B2 (ja) * 2007-07-13 2012-07-04 ソニー株式会社 撮像装置
US8559756B2 (en) 2007-08-06 2013-10-15 Adobe Systems Incorporated Radiance processing by demultiplexing in the frequency domain
US8680451B2 (en) * 2007-10-02 2014-03-25 Nikon Corporation Light receiving device, focus detection device and imaging device
JP4905326B2 (ja) 2007-11-12 2012-03-28 ソニー株式会社 撮像装置
JP5067154B2 (ja) * 2007-12-27 2012-11-07 ソニー株式会社 撮像装置
ES2372515B2 (es) * 2008-01-15 2012-10-16 Universidad De La Laguna Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales.
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4941332B2 (ja) 2008-01-28 2012-05-30 ソニー株式会社 撮像装置
JP4483951B2 (ja) 2008-01-28 2010-06-16 ソニー株式会社 撮像装置
US7701636B2 (en) 2008-03-06 2010-04-20 Aptina Imaging Corporation Gradient index microlenses and method of formation
JP4900723B2 (ja) * 2008-03-14 2012-03-21 ソニー株式会社 画像処理装置、画像処理プログラムおよび表示装置
US8663120B2 (en) 2008-04-18 2014-03-04 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8839798B2 (en) 2008-04-18 2014-09-23 Medtronic, Inc. System and method for determining sheath location
US8532734B2 (en) * 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8494608B2 (en) 2008-04-18 2013-07-23 Medtronic, Inc. Method and apparatus for mapping a structure
US8340751B2 (en) 2008-04-18 2012-12-25 Medtronic, Inc. Method and apparatus for determining tracking a virtual point defined relative to a tracked member
US8457371B2 (en) 2008-04-18 2013-06-04 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8155456B2 (en) * 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
CA2665215C (en) * 2008-05-06 2015-01-06 Intertape Polymer Corp. Edge coatings for tapes
JP2009290268A (ja) * 2008-05-27 2009-12-10 Sony Corp 撮像装置
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
EP2133726B1 (en) * 2008-06-10 2011-06-01 Thomson Licensing Multi-image capture system with improved depth image resolution
JP4538766B2 (ja) 2008-08-21 2010-09-08 ソニー株式会社 撮像装置、表示装置および画像処理装置
JP5354254B2 (ja) * 2008-08-28 2013-11-27 株式会社ニコン 形状測定装置及び方法、並びにプログラム
JP2010057067A (ja) * 2008-08-29 2010-03-11 Sony Corp 撮像装置および画像処理装置
JP5369563B2 (ja) * 2008-09-11 2013-12-18 株式会社ニコン 形状測定装置
JP5369564B2 (ja) * 2008-09-11 2013-12-18 株式会社ニコン 形状測定装置
KR101441586B1 (ko) 2008-10-06 2014-09-23 삼성전자 주식회사 촬상 장치 및 촬상 방법
JP5187145B2 (ja) 2008-11-07 2013-04-24 株式会社ニコン 画像合成装置および方法
JP5472584B2 (ja) * 2008-11-21 2014-04-16 ソニー株式会社 撮像装置
US8279325B2 (en) 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
WO2010077625A1 (en) 2008-12-08 2010-07-08 Refocus Imaging, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
US9432591B2 (en) 2009-01-05 2016-08-30 Duke University Multiscale optical system having dynamic camera settings
US9395617B2 (en) 2009-01-05 2016-07-19 Applied Quantum Technologies, Inc. Panoramic multi-scale imager and method therefor
US9635253B2 (en) 2009-01-05 2017-04-25 Duke University Multiscale telescopic imaging system
US9494771B2 (en) 2009-01-05 2016-11-15 Duke University Quasi-monocentric-lens-based multi-scale optical system
US8830377B2 (en) * 2010-01-04 2014-09-09 Duke University Monocentric lens-based multi-scale optical systems and methods of use
US8259212B2 (en) * 2009-01-05 2012-09-04 Applied Quantum Technologies, Inc. Multiscale optical system
US10725280B2 (en) 2009-01-05 2020-07-28 Duke University Multiscale telescopic imaging system
JP5230456B2 (ja) * 2009-01-09 2013-07-10 キヤノン株式会社 画像処理装置および画像処理方法
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8570427B2 (en) 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
KR101563728B1 (ko) * 2009-01-30 2015-10-27 삼성전자 주식회사 가변 모듈레이터를 이용한 다중시야 광필드 데이터 획득장치 및 그 방법
JP4706882B2 (ja) 2009-02-05 2011-06-22 ソニー株式会社 撮像装置
JP5195506B2 (ja) * 2009-02-24 2013-05-08 株式会社ニコン 撮像装置および画像合成方法
KR101599872B1 (ko) * 2009-02-25 2016-03-04 삼성전자주식회사 디지털 영상 처리 장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP4766133B2 (ja) * 2009-03-11 2011-09-07 株式会社ニコン 撮像装置
JP2010210490A (ja) * 2009-03-11 2010-09-24 Ricoh Co Ltd 移動計測装置及び方法、並びにプログラム
JP5463718B2 (ja) 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
US8908058B2 (en) * 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
EP2244484B1 (en) * 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
JP5394814B2 (ja) * 2009-05-01 2014-01-22 三星電子株式会社 光検出素子及び撮像装置
JP5515396B2 (ja) 2009-05-08 2014-06-11 ソニー株式会社 撮像装置
JP5246424B2 (ja) 2009-05-11 2013-07-24 ソニー株式会社 撮像装置
US8878905B2 (en) 2009-06-17 2014-11-04 3Shape A/S Focus scanning apparatus
JP5375359B2 (ja) * 2009-06-22 2013-12-25 ソニー株式会社 撮像素子、電荷読み出し方法、撮像装置
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
JP5532741B2 (ja) * 2009-08-19 2014-06-25 株式会社ニコン 撮像装置
US8446934B2 (en) * 2009-08-31 2013-05-21 Texas Instruments Incorporated Frequency diversity and phase rotation
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
DE102009049387B4 (de) * 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
JP4952768B2 (ja) * 2009-10-27 2012-06-13 株式会社ニコン 撮像装置および画像解析コンピュータプログラム
US8355774B2 (en) 2009-10-30 2013-01-15 Medtronic, Inc. System and method to evaluate electrode position and spacing
KR101608970B1 (ko) * 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
JP5273033B2 (ja) * 2009-12-25 2013-08-28 株式会社ニコン 撮像装置および画像再生装置
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US8749620B1 (en) 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
US8860833B2 (en) * 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
KR101158065B1 (ko) * 2010-05-11 2012-06-18 서울과학기술대학교 산학협력단 다중렌즈 어레이를 가지는 공초점 현미경 및 이를 이용한 측정방법
US8358366B1 (en) 2010-05-28 2013-01-22 Adobe Systems Incorporate Methods and apparatus for high-speed digital imaging
JP2016001326A (ja) * 2010-06-16 2016-01-07 株式会社ニコン 画像表示装置
JP6149339B2 (ja) * 2010-06-16 2017-06-21 株式会社ニコン 表示装置
KR20110137700A (ko) * 2010-06-17 2011-12-23 삼성전자주식회사 광학 장치 및 광학장치를 이용한 이미징 장치
JP5506574B2 (ja) * 2010-07-02 2014-05-28 キヤノン株式会社 画像処理装置および方法、プログラム。
JP5593913B2 (ja) * 2010-07-22 2014-09-24 カシオ計算機株式会社 画像生成装置、画像生成プログラム、及び画像生成方法
US8803918B2 (en) 2010-08-27 2014-08-12 Adobe Systems Incorporated Methods and apparatus for calibrating focused plenoptic camera data
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8665341B2 (en) * 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8749694B2 (en) * 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8351120B2 (en) * 2010-09-15 2013-01-08 Visera Technologies Company Limited Optical device having extented depth of field and fabrication method thereof
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
JP5672989B2 (ja) 2010-11-05 2015-02-18 ソニー株式会社 撮像装置
US9532033B2 (en) * 2010-11-29 2016-12-27 Nikon Corporation Image sensor and imaging device
JP5906062B2 (ja) 2010-12-17 2016-04-20 キヤノン株式会社 撮像装置およびその制御方法
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
US8768102B1 (en) 2011-02-09 2014-07-01 Lytro, Inc. Downsampling light field images
US8949078B2 (en) * 2011-03-04 2015-02-03 Ricoh Co., Ltd. Filter modules for aperture-coded, multiplexed imaging systems
JP2012205111A (ja) * 2011-03-25 2012-10-22 Casio Comput Co Ltd 撮像装置
US9030550B2 (en) 2011-03-25 2015-05-12 Adobe Systems Incorporated Thin plenoptic cameras using solid immersion lenses
US8531581B2 (en) 2011-05-23 2013-09-10 Ricoh Co., Ltd. Focusing and focus metrics for a plenoptic imaging system
JP5818514B2 (ja) * 2011-05-27 2015-11-18 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
WO2013007612A1 (en) 2011-07-08 2013-01-17 Carl Zeiss Meditec Ag Light field camera for fundus photography
US9184199B2 (en) 2011-08-01 2015-11-10 Lytro, Inc. Optical assembly including plenoptic microlens array
JP5618943B2 (ja) * 2011-08-19 2014-11-05 キヤノン株式会社 画像処理方法、撮像装置、画像処理装置、および、画像処理プログラム
JP6080417B2 (ja) * 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
JP2013064996A (ja) * 2011-08-26 2013-04-11 Nikon Corp 三次元画像表示装置
JP5623356B2 (ja) * 2011-08-29 2014-11-12 キヤノン株式会社 撮像装置
JP5984096B2 (ja) 2011-08-30 2016-09-06 ディジマーク コーポレイション 物体を識別する方法及び機構
US9325883B2 (en) * 2011-09-09 2016-04-26 Bae Systems Information And Electronic System Integration Inc. Multi field of view imaging system
US20130076966A1 (en) * 2011-09-22 2013-03-28 John Norvold Border Digital imaging system with refocusable imaging mode
US8593564B2 (en) * 2011-09-22 2013-11-26 Apple Inc. Digital camera including refocusable imaging mode adaptor
WO2013043488A1 (en) 2011-09-22 2013-03-28 Eastman Kodak Company Digital imaging system with refocusable imaging mode
DE102011053999B4 (de) 2011-09-28 2018-10-04 SMR Patents S.à.r.l. Kraftfahrzeug mit einem Fahrerassistenzsystem und einem Erfassungssystem
JP2013081087A (ja) * 2011-10-04 2013-05-02 Sony Corp 撮像装置
US9036059B2 (en) 2011-11-01 2015-05-19 Sony Corporation Imaging apparatus for efficiently generating multiple forms of image data output by an imaging sensor
JP5913934B2 (ja) * 2011-11-30 2016-05-11 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム、および画像処理装置を有する撮像装置
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
US9582083B2 (en) * 2011-12-22 2017-02-28 Apple Inc. Directional light sensors
US8602308B2 (en) * 2011-12-22 2013-12-10 Symbol Technologies, Inc. Imaging device having light field sensor
US8941750B2 (en) 2011-12-27 2015-01-27 Casio Computer Co., Ltd. Image processing device for generating reconstruction image, image generating method, and storage medium
JP5310837B2 (ja) * 2011-12-28 2013-10-09 カシオ計算機株式会社 画像生成装置、デジタルカメラ、方法、及びプログラム
WO2013103410A1 (en) 2012-01-05 2013-07-11 California Institute Of Technology Imaging surround systems for touch-free display control
JP5893412B2 (ja) * 2012-01-13 2016-03-23 キヤノン株式会社 撮像装置およびその制御方法
JP5871625B2 (ja) 2012-01-13 2016-03-01 キヤノン株式会社 撮像装置、その制御方法および撮像システム
US9137441B2 (en) 2012-02-16 2015-09-15 Ricoh Co., Ltd. Spatial reconstruction of plenoptic images
WO2013123525A1 (en) 2012-02-19 2013-08-22 Nvigen, Inc. Uses of ided nanostructures in nucleic acid technology
JP2013172292A (ja) 2012-02-21 2013-09-02 Sony Corp 撮像装置及び撮像素子アレイ
CN103297677B (zh) 2012-02-24 2016-07-06 卡西欧计算机株式会社 生成重构图像的图像生成装置以及图像生成方法
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
JP6112824B2 (ja) * 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
JP5882789B2 (ja) * 2012-03-01 2016-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5627622B2 (ja) * 2012-03-15 2014-11-19 株式会社東芝 固体撮像装置および携帯情報端末
JP5459337B2 (ja) 2012-03-21 2014-04-02 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
US8687086B1 (en) 2012-03-30 2014-04-01 Gopro, Inc. On-chip image sensor data compression
US9550455B2 (en) 2012-04-25 2017-01-24 Gentex Corporation Multi-focus optical system
US9707892B2 (en) 2012-04-25 2017-07-18 Gentex Corporation Multi-focus optical system
JP6064040B2 (ja) 2012-05-09 2017-01-18 ライトロ, インコーポレイテッドLytro, Inc. ライトフィールドの取り込み及び操作を改善するための光学系の最適化
KR20130128226A (ko) * 2012-05-16 2013-11-26 엘지전자 주식회사 광학 수단 및 영상 촬영 장치
CN102739945B (zh) * 2012-05-24 2014-09-03 上海理工大学 光场成像装置及方法
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US9451147B2 (en) * 2012-06-11 2016-09-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP6045208B2 (ja) * 2012-06-13 2016-12-14 オリンパス株式会社 撮像装置
JP5906139B2 (ja) * 2012-06-20 2016-04-20 日本放送協会 補正装置、そのプログラム及び立体撮像システム
JP5938281B2 (ja) * 2012-06-25 2016-06-22 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
US9607424B2 (en) 2012-06-26 2017-03-28 Lytro, Inc. Depth-assigned content for depth-enhanced pictures
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US10129524B2 (en) 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
JP5370542B1 (ja) 2012-06-28 2013-12-18 カシオ計算機株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
US8817167B2 (en) * 2012-07-13 2014-08-26 Google Inc. Imaging device with a plurality of depths of field
US9091862B2 (en) * 2012-07-24 2015-07-28 Trustees Of Boston University Partitioned aperture wavefront imaging method and system
WO2014024745A1 (ja) * 2012-08-06 2014-02-13 富士フイルム株式会社 撮像装置
US8958005B1 (en) 2012-08-30 2015-02-17 Google Inc. Single pixel camera
US9036080B2 (en) 2012-09-04 2015-05-19 Canon Kabushiki Kaisha Apparatus and method for acquiring information about light-field data
JP6222908B2 (ja) * 2012-09-11 2017-11-01 キヤノン株式会社 画像処理装置、方法およびプログラム、並びに画像処理装置を有する撮像装置
JP5988790B2 (ja) * 2012-09-12 2016-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
JP6018468B2 (ja) * 2012-09-21 2016-11-02 日本放送協会 奥行き範囲算出装置及びそのプログラム
US9225942B2 (en) * 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
US10044985B1 (en) * 2012-10-19 2018-08-07 Amazon Technologies, Inc. Video monitoring using plenoptic cameras and mirrors
EP2725781B1 (en) * 2012-10-25 2014-06-04 Axis AB Method of setting focus of a digital video camera and a digital video camera doing the same
US8997021B2 (en) 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
JP2014102119A (ja) * 2012-11-19 2014-06-05 Canon Inc 波面収差測定方法、波面収差測定装置、及び光学系の製造方法
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
TW201426018A (zh) * 2012-12-19 2014-07-01 Ind Tech Res Inst 影像處理裝置及影像再對焦方法
US20140184861A1 (en) * 2012-12-30 2014-07-03 Todor Georgiev Accurate plenoptic rendering with defocus blur
WO2014107434A1 (en) 2013-01-02 2014-07-10 California Institute Of Technology Single-sensor system for extracting depth information from image blur
US9136300B2 (en) 2013-01-11 2015-09-15 Digimarc Corporation Next generation imaging methods and systems
US10327627B2 (en) 2013-01-18 2019-06-25 Ricoh Company, Ltd. Use of plenoptic otoscope data for aiding medical diagnosis
US9565996B2 (en) 2013-01-18 2017-02-14 Ricoh Company, Ltd. Plenoptic otoscope
US20150262424A1 (en) * 2013-01-31 2015-09-17 Google Inc. Depth and Focus Discrimination for a Head-mountable device using a Light-Field Display System
US9217665B2 (en) 2013-01-31 2015-12-22 Hewlett Packard Enterprise Development Lp Viewing-angle imaging using lenslet array
JP6103969B2 (ja) * 2013-02-07 2017-03-29 キヤノン株式会社 撮像装置、その制御方法およびプログラム
US9497380B1 (en) 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
US9456141B2 (en) * 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus
US8978984B2 (en) 2013-02-28 2015-03-17 Hand Held Products, Inc. Indicia reading terminals and methods for decoding decodable indicia employing light field imaging
JP6214236B2 (ja) 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
US10057498B1 (en) * 2013-03-15 2018-08-21 Cognex Corporation Light field vision system camera and methods for using the same
JP6189061B2 (ja) * 2013-03-19 2017-08-30 株式会社東芝 固体撮像装置
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
CN110061018B (zh) 2013-05-21 2023-11-28 弗托斯传感与算法公司 全光透镜在光传感器衬底上的单片集成
JP2014235657A (ja) * 2013-06-04 2014-12-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
DE102013009634B4 (de) * 2013-06-10 2015-07-30 Technische Universität Dortmund Plenoptisches Bildgebungsverfahren
WO2015005672A1 (en) * 2013-07-09 2015-01-15 Samsung Electronics Co., Ltd. Image generating apparatus and method and non-transitory recordable medium
KR102068748B1 (ko) 2013-07-31 2020-02-11 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 영상 재생 장치 및 방법
JP6238657B2 (ja) * 2013-09-12 2017-11-29 キヤノン株式会社 画像処理装置及びその制御方法
EP2852149A1 (en) 2013-09-20 2015-03-25 Alcatel Lucent Method and apparatus for generation, processing and delivery of 3D video
CN104580877B (zh) 2013-10-29 2018-03-06 华为技术有限公司 图像获取的装置及方法
DE112014005866B4 (de) 2013-12-24 2018-08-02 Lytro, Inc. Verbesserung der plenoptischen Kameraauflösung
US9538075B2 (en) * 2013-12-30 2017-01-03 Indiana University Research And Technology Corporation Frequency domain processing techniques for plenoptic images
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
US10009549B2 (en) 2014-02-28 2018-06-26 The Board Of Trustees Of The Leland Stanford Junior University Imaging providing ratio pixel intensity
US9525819B2 (en) * 2014-03-07 2016-12-20 Ricoh Company, Ltd. Enhancing spatial resolution of images from light field imaging systems using sub-pixel disparity
WO2015137635A1 (en) * 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
US9305375B2 (en) 2014-03-25 2016-04-05 Lytro, Inc. High-quality post-rendering depth blur
JP6360338B2 (ja) * 2014-03-31 2018-07-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
US9895057B2 (en) 2014-04-24 2018-02-20 Carl Zeiss Meditec, Inc. Functional vision testing using light field displays
JP6362433B2 (ja) * 2014-06-04 2018-07-25 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
US9232132B1 (en) 2014-06-10 2016-01-05 Gregory S. Tseytin Light field image processing
US8988317B1 (en) 2014-06-12 2015-03-24 Lytro, Inc. Depth determination for light field images
US9294672B2 (en) * 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
WO2016003253A1 (en) 2014-07-04 2016-01-07 Samsung Electronics Co., Ltd. Method and apparatus for image capturing and simultaneous depth extraction
US9282237B2 (en) 2014-07-17 2016-03-08 Schlage Lock Company Llc Multifocal iris recognition device
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
DE102014112648A1 (de) * 2014-08-29 2016-03-03 Carl Zeiss Ag Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme
EP3185747A1 (en) 2014-08-31 2017-07-05 Berestka, John Systems and methods for analyzing the eye
WO2016036364A1 (en) * 2014-09-03 2016-03-10 Apple Inc. Plenoptic cameras in manufacturing systems
US9635332B2 (en) 2014-09-08 2017-04-25 Lytro, Inc. Saturated pixel recovery in light-field images
US10438341B2 (en) 2014-09-29 2019-10-08 Sikorsky Aircraft Corporation Apparatus for detecting corrosion in an article
CN104486537B (zh) * 2014-10-27 2018-09-04 北京智谷技术服务有限公司 光场采集控制方法和装置
US9444991B2 (en) 2014-11-13 2016-09-13 Lytro, Inc. Robust layered light-field rendering
US9883798B2 (en) 2014-11-14 2018-02-06 Ricoh Company, Ltd. Simultaneous capture of filtered images of the eye
US10117579B2 (en) 2014-11-14 2018-11-06 Ricoh Company, Ltd. Simultaneous capture of filtered images of the eye
US9445086B2 (en) * 2014-12-10 2016-09-13 Facebook, Inc. Methods, systems, and apparatus for camera testing using virtual images
JP6376974B2 (ja) * 2014-12-26 2018-08-22 キヤノン株式会社 撮像装置及び撮像システム
US20160241797A1 (en) * 2015-02-17 2016-08-18 Canon Kabushiki Kaisha Devices, systems, and methods for single-shot high-resolution multispectral image acquisition
JP6598473B2 (ja) 2015-02-27 2019-10-30 キヤノン株式会社 撮像装置および画像処理装置
JP6494333B2 (ja) 2015-03-04 2019-04-03 キヤノン株式会社 画像処理装置及び画像処理方法、及び撮像装置
EP3271747B1 (en) 2015-03-17 2022-05-25 Cornell University Depth field imaging apparatus, methods, and applications
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US9824427B2 (en) * 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
CN106161920A (zh) * 2015-04-22 2016-11-23 北京智谷睿拓技术服务有限公司 图像采集控制方法和装置
US20160317050A1 (en) * 2015-04-28 2016-11-03 Federico Perego Costa Hemodynamic parameter (Hdp) monitoring system for diagnosis of a health condition of a patient
WO2016191035A1 (en) 2015-05-26 2016-12-01 Lytro, Inc. Capturing light-field images with uneven and/or incomplete angular sampling
EP3112920A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Plenoptic camera comprising an anti-vignetting optical filter and method f controlling the same
JP6934856B2 (ja) 2015-07-17 2021-09-15 ライカ マイクロシステムズ シーエムエス ゲゼルシャフト ミット ベシュレンクテル ハフツングLeica Microsystems CMS GmbH 複数の対象面を同時にイメージングする光シート顕微鏡
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10459305B2 (en) 2015-08-03 2019-10-29 Facebook Technologies, Llc Time-domain adjustment of phase retardation in a liquid crystal grating for a color display
US10552676B2 (en) 2015-08-03 2020-02-04 Facebook Technologies, Llc Methods and devices for eye tracking based on depth sensing
US9989765B2 (en) * 2015-08-03 2018-06-05 Oculus Vr, Llc Tile array for near-ocular display
US10297180B2 (en) 2015-08-03 2019-05-21 Facebook Technologies, Llc Compensation of chromatic dispersion in a tunable beam steering device for improved display
US10338451B2 (en) 2015-08-03 2019-07-02 Facebook Technologies, Llc Devices and methods for removing zeroth order leakage in beam steering devices
CN105093472B (zh) 2015-08-25 2017-11-28 华为技术有限公司 成像装置和成像方法
EP3145168A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
US10779728B2 (en) 2015-10-16 2020-09-22 Alcon Inc. Ophthalmic surgery using light-field microscopy
EP3157244A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Plenoptic camera and method of controlling the opening of the diaphragm
US10247858B2 (en) 2015-10-25 2019-04-02 Facebook Technologies, Llc Liquid crystal half-wave plate lens
US10416454B2 (en) 2015-10-25 2019-09-17 Facebook Technologies, Llc Combination prism array for focusing light
US10098529B2 (en) 2015-10-28 2018-10-16 Ricoh Company, Ltd. Optical design of a light field otoscope
JP6028082B2 (ja) * 2015-11-02 2016-11-16 オリンパス株式会社 撮像装置
US10699455B2 (en) * 2015-11-05 2020-06-30 Nec Corporation Image processing system, image processing method, and image processing program recording medium
CL2015003495A1 (es) 2015-11-30 2016-07-15 Univ Concepcion Un proceso que permite eliminar el ruido de patrón fijo en imágenes efectivas formadas por arreglos de sensores electromagnéticos de un campo de luz mediante un reenfoque digital.
WO2016177914A1 (en) * 2015-12-09 2016-11-10 Fotonation Limited Image acquisition system
JP6392742B2 (ja) * 2015-12-14 2018-09-19 日本電信電話株式会社 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム
US10203566B2 (en) 2015-12-21 2019-02-12 Facebook Technologies, Llc Enhanced spatial resolution using a segmented electrode array
EP3223062A1 (en) 2016-03-24 2017-09-27 Thomson Licensing Device for forming at least one focused beam in the near zone, from incident electromagnetic waves
EP3223063A1 (en) 2016-03-24 2017-09-27 Thomson Licensing Device for forming a field intensity pattern in the near zone, from incident electromagnetic waves
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
EP3264759A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing An apparatus and a method for generating data representative of a pixel beam
EP3264755A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing Plenoptic sub aperture view shuffling for a richer color sampling
US10270947B2 (en) * 2016-09-15 2019-04-23 Microsoft Technology Licensing, Llc Flat digital image sensor
US10690898B2 (en) 2016-09-15 2020-06-23 Molecular Devices (Austria) GmbH Light-field microscope with selective-plane illumination
EP3312646A1 (en) 2016-10-21 2018-04-25 Thomson Licensing Device and method for shielding at least one sub-wavelength-scale object from an incident electromagnetic wave
EP3312660A1 (en) 2016-10-21 2018-04-25 Thomson Licensing Device for forming at least one tilted focused beam in the near zone, from incident electromagnetic waves
WO2018097831A1 (en) * 2016-11-24 2018-05-31 Smith Joshua R Light field capture and rendering for head-mounted displays
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
JP6947438B2 (ja) * 2016-12-05 2021-10-13 フォトニック センサーズ アンド アルゴリズムス,エセ.エレ. マイクロレンズアレイ
US10296780B2 (en) 2017-03-07 2019-05-21 Ricoh Company, Ltd. Automatic eardrum registration from light field data
US10275644B2 (en) 2017-03-08 2019-04-30 Ricoh Company, Ltd Automatic classification of eardrum shape
JP6786424B2 (ja) * 2017-03-13 2020-11-18 株式会社モリタ製作所 三次元スキャナ
US10412286B2 (en) 2017-03-31 2019-09-10 Westboro Photonics Inc. Multicamera imaging system and method for measuring illumination
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
EP3385219B1 (en) 2017-04-07 2021-07-14 InterDigital CE Patent Holdings Method for manufacturing a device for forming at least one focused beam in a near zone
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
EP3460561A1 (en) 2017-09-26 2019-03-27 Thomson Licensing Device for deviating and focusing light
US10776995B2 (en) * 2017-10-17 2020-09-15 Nvidia Corporation Light fields as better backgrounds in rendering
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
JP6920009B2 (ja) 2018-02-27 2021-08-18 株式会社日立ハイテク 欠陥検出装置、欠陥検出方法および欠陥観察装置
FR3087309B1 (fr) * 2018-10-12 2021-08-06 Ateme Optimisation d'un sous-echantillonnage intervenant avant le codage d'images en compression
US10929982B2 (en) * 2019-01-25 2021-02-23 Google Llc Face pose correction based on depth information
EP3726827A1 (de) * 2019-04-15 2020-10-21 Siemens Aktiengesellschaft Kamerasensor mit halterung
KR102158324B1 (ko) * 2019-05-07 2020-09-21 주식회사 맥스트 점군 정보 생성 장치 및 방법
WO2020263958A1 (en) 2019-06-28 2020-12-30 Pcms Holdings, Inc. Optical method and system for light field (lf) displays based on tunable liquid crystal (lc) diffusers
CN111308690B (zh) * 2019-12-04 2022-04-05 中国科学院大学 一种光场电子内窥设备及其成像方法
CN111796414B (zh) * 2020-08-17 2022-04-15 中国科学院上海天文台 基于恒星间弧长变化的望远镜自动调焦方法
EP4264935A1 (en) * 2020-12-15 2023-10-25 Photonic Sensors & Algorithms, S.L. Light-field optical image system with dual mode
CN113163117A (zh) * 2021-04-20 2021-07-23 电子科技大学 一种光场相机的重聚焦方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121301A (ja) * 2001-10-19 2003-04-23 Ofura Kagi Kofun Yugenkoshi カメラのビューポイント及び焦点距離を調べる方法
JP2003289429A (ja) * 2002-03-28 2003-10-10 Minolta Co Ltd プログラム
JP2005513833A (ja) * 2001-12-18 2005-05-12 ザ ユニバーシティ オブ ロチェスター 多重焦点非球面レンズを使用して拡大焦点距離を得る撮像

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US725567A (en) * 1902-09-25 1903-04-14 Frederic E Ives Parallax stereogram and process of making same.
US3985419A (en) * 1970-10-05 1976-10-12 Canon Kabushiki Kaisha Method of making a synthetic focused image hologram
US3971065A (en) 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
JPS5672575A (en) * 1979-11-19 1981-06-16 Toshiba Corp Picture input unit
JPS57161822A (en) 1981-03-31 1982-10-05 Nippon Kogaku Kk <Nikon> Large aperture ratio lens
GB8317407D0 (en) * 1983-06-27 1983-07-27 Rca Corp Image transform techniques
US4694185A (en) * 1986-04-18 1987-09-15 Eastman Kodak Company Light sensing devices with lenticular pixels
US4920419A (en) 1988-05-31 1990-04-24 Eastman Kodak Company Zoom lens focus control device for film video player
JP3429755B2 (ja) * 1990-04-27 2003-07-22 株式会社日立製作所 撮像装置の被写界深度制御装置
US5076687A (en) * 1990-08-28 1991-12-31 Massachusetts Institute Of Technology Optical ranging apparatus
US5757423A (en) * 1993-10-22 1998-05-26 Canon Kabushiki Kaisha Image taking apparatus
JPH08107194A (ja) * 1994-10-03 1996-04-23 Fuji Photo Optical Co Ltd 固体撮像装置
JP3275010B2 (ja) * 1995-02-03 2002-04-15 ザ・リジェンツ・オブ・ザ・ユニバーシティ・オブ・コロラド 拡大された被写界深度を有する光学システム
US5629734A (en) 1995-03-17 1997-05-13 Eastman Kodak Company Adaptive color plan interpolation in single sensor color electronic camera
DE19624421B4 (de) 1995-06-30 2008-07-10 Carl Zeiss Ag Vorrichtung und Verfahren zur ortsaufgelösten Vermessung von Wellenfrontdeformationen
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
JP3753201B2 (ja) * 1996-07-22 2006-03-08 富士写真フイルム株式会社 視差画像入力装置
US6028606A (en) * 1996-08-02 2000-02-22 The Board Of Trustees Of The Leland Stanford Junior University Camera simulation system
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US6028608A (en) 1997-05-09 2000-02-22 Jenkins; Barry System and method of perception-based image generation and encoding
JP2000050141A (ja) 1998-07-30 2000-02-18 Minolta Co Ltd デジタルカメラ
US6577342B1 (en) * 1998-09-25 2003-06-10 Intel Corporation Image sensor with microlens material structure
US6320979B1 (en) * 1998-10-06 2001-11-20 Canon Kabushiki Kaisha Depth of field enhancement
US6201899B1 (en) 1998-10-09 2001-03-13 Sarnoff Corporation Method and apparatus for extended depth of field imaging
AU4837100A (en) * 1999-05-11 2000-11-21 Microsoft Corporation Rendering method using concentric mosaics images
JP2001177763A (ja) 1999-12-15 2001-06-29 Fuji Photo Film Co Ltd ディジタル・カメラおよびその制御方法
US6483535B1 (en) * 1999-12-23 2002-11-19 Welch Allyn, Inc. Wide angle lens system for electronic imagers having long exit pupil distances
US6460997B1 (en) * 2000-05-08 2002-10-08 Alcon Universal Ltd. Apparatus and method for objective measurements of optical systems using wavefront analysis
JP4128008B2 (ja) * 2000-05-19 2008-07-30 ティボル・バログ 3d画像を表示するための方法及び装置
JP2002051358A (ja) * 2000-08-03 2002-02-15 Nippon Hoso Kyokai <Nhk> 撮像装置および奥行き検出装置
US7034866B1 (en) * 2000-11-22 2006-04-25 Koninklijke Philips Electronics N.V. Combined display-camera for an image processing system
WO2002048755A2 (en) * 2000-12-13 2002-06-20 Zograph, Llc Resolution modulation in microlens image reproduction
US20020114077A1 (en) * 2001-01-23 2002-08-22 Bahram Javidi Integral three-dimensional imaging with digital reconstruction
US6842297B2 (en) * 2001-08-31 2005-01-11 Cdm Optics, Inc. Wavefront coding optics
US7053953B2 (en) * 2001-12-21 2006-05-30 Eastman Kodak Company Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image
US7817850B2 (en) 2002-06-28 2010-10-19 Nokia Corporation Information terminal
JP4171786B2 (ja) 2002-10-25 2008-10-29 コニカミノルタホールディングス株式会社 画像入力装置
JP3981034B2 (ja) 2003-03-25 2007-09-26 富士フイルム株式会社 カラー画像取得装置およびカラー電子カメラ
US7262771B2 (en) * 2003-10-10 2007-08-28 Microsoft Corporation Systems and methods for all-frequency relighting using spherical harmonics and point light distributions
US7119319B2 (en) 2004-04-08 2006-10-10 Canon Kabushiki Kaisha Solid-state image sensing element and its design support method, and image sensing device
JP4487640B2 (ja) 2004-06-01 2010-06-23 ソニー株式会社 撮像装置
US7609302B2 (en) 2004-08-11 2009-10-27 Micron Technology, Inc. Correction of non-uniform sensitivity in an image array
KR100615277B1 (ko) 2004-08-18 2006-08-25 엠텍비젼 주식회사 이미지 센서에서의 렌즈 셰이딩 현상 보정 방법 및 장치
US7336430B2 (en) 2004-09-03 2008-02-26 Micron Technology, Inc. Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture
EP2398224B1 (en) * 2004-10-01 2016-01-13 The Board of Trustees of The Leland Stanford Junior University Imaging arrangements and methods therefor
MY157955A (en) 2005-07-06 2016-08-30 Hoffmann La Roche Detection of a target antigen irrespective of the presence or absence of a corresponding therapeutic antibody
US7796180B2 (en) 2005-08-03 2010-09-14 Aptina Imaging Corporation Method for calculating circular symmetrical microlens/color filter array shift
US7409149B2 (en) 2005-11-03 2008-08-05 International Business Machines Corporation Methods for improved autofocus in digital imaging systems
US7623726B1 (en) 2005-11-30 2009-11-24 Adobe Systems, Incorporated Method and apparatus for using a virtual camera to dynamically refocus a digital image
US8248515B2 (en) * 2006-02-07 2012-08-21 The Board Of Trustees Of The Leland Stanford Junior University Variable imaging arrangements and methods therefor
JP5040493B2 (ja) * 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US7956924B2 (en) 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121301A (ja) * 2001-10-19 2003-04-23 Ofura Kagi Kofun Yugenkoshi カメラのビューポイント及び焦点距離を調べる方法
JP2005513833A (ja) * 2001-12-18 2005-05-12 ザ ユニバーシティ オブ ロチェスター 多重焦点非球面レンズを使用して拡大焦点距離を得る撮像
JP2003289429A (ja) * 2002-03-28 2003-10-10 Minolta Co Ltd プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9658367B2 (en) 2012-01-30 2017-05-23 Olympus Corporation Image acquisition apparatus
EP2709352A2 (en) 2012-09-12 2014-03-19 Canon Kabushiki Kaisha Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
CN105245867A (zh) * 2012-09-12 2016-01-13 佳能株式会社 图像拾取装置、系统和控制方法以及图像处理装置
US9681042B2 (en) 2012-09-12 2017-06-13 Canon Kabushiki Kaisha Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
CN105245867B (zh) * 2012-09-12 2017-11-03 佳能株式会社 图像拾取装置、系统和控制方法以及图像处理装置
US9756304B2 (en) 2012-10-05 2017-09-05 Olympus Corporation Image-acquisition apparatus for performing distance measurement using parallax
US9386207B2 (en) 2013-02-14 2016-07-05 Olympus Corporation Image-capturing apparatus
US9253392B2 (en) 2013-08-23 2016-02-02 Canon Kabushiki Kaisha Imaging apparatus and control method and program of imaging apparatus
JP2015119395A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US9900565B2 (en) 2014-03-26 2018-02-20 Seiko Epson Corporation Projector capable of adjusting a light exit angle
US9946140B2 (en) 2014-03-26 2018-04-17 Seiko Epson Corporation Projector capable of projection in different positions in the depth direction
US10225537B2 (en) 2016-08-24 2019-03-05 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
US20150156402A1 (en) 2015-06-04
EP1795004A2 (en) 2007-06-13
JP2008515110A (ja) 2008-05-08
US20130169855A1 (en) 2013-07-04
EP2398224B1 (en) 2016-01-13
EP1795004B1 (en) 2015-02-25
US20150326848A1 (en) 2015-11-12
US20120300097A1 (en) 2012-11-29
US8866957B2 (en) 2014-10-21
US20130033626A1 (en) 2013-02-07
US8717489B2 (en) 2014-05-06
WO2006039486A8 (en) 2006-06-01
US8395696B2 (en) 2013-03-12
KR20070057998A (ko) 2007-06-07
US20070252074A1 (en) 2007-11-01
EP2398223A1 (en) 2011-12-21
US20150029388A1 (en) 2015-01-29
US8547475B2 (en) 2013-10-01
EP2398223B1 (en) 2014-03-19
US20120019711A1 (en) 2012-01-26
US8953064B1 (en) 2015-02-10
US20140049663A1 (en) 2014-02-20
US9479685B2 (en) 2016-10-25
WO2006039486A2 (en) 2006-04-13
US20140204184A1 (en) 2014-07-24
WO2006039486A3 (en) 2007-02-01
US20120019712A1 (en) 2012-01-26
KR101134208B1 (ko) 2012-04-09
HK1163995A1 (en) 2012-09-14
US8698944B2 (en) 2014-04-15
US8358367B2 (en) 2013-01-22
US8648958B2 (en) 2014-02-11
HK1105334A1 (en) 2008-02-06
US20140028892A1 (en) 2014-01-30
EP1795004A4 (en) 2009-07-15
US9100557B2 (en) 2015-08-04
US7936392B2 (en) 2011-05-03
US9807287B2 (en) 2017-10-31
EP2398224A1 (en) 2011-12-21

Similar Documents

Publication Publication Date Title
JP4752031B2 (ja) 撮像の装置と方法
US11412158B2 (en) Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10735635B2 (en) Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
JP6091176B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP5988790B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101117

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4752031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees