JP2008219878A - 復号方法、復号装置、復号プログラム、及び電子カメラ - Google Patents

復号方法、復号装置、復号プログラム、及び電子カメラ Download PDF

Info

Publication number
JP2008219878A
JP2008219878A JP2008025431A JP2008025431A JP2008219878A JP 2008219878 A JP2008219878 A JP 2008219878A JP 2008025431 A JP2008025431 A JP 2008025431A JP 2008025431 A JP2008025431 A JP 2008025431A JP 2008219878 A JP2008219878 A JP 2008219878A
Authority
JP
Japan
Prior art keywords
image
information
focus value
image information
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008025431A
Other languages
English (en)
Other versions
JP4969474B2 (ja
JP2008219878A5 (ja
Inventor
Kenichi Horie
健一 堀江
Seiichiro Sakata
誠一郎 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008025431A priority Critical patent/JP4969474B2/ja
Publication of JP2008219878A publication Critical patent/JP2008219878A/ja
Publication of JP2008219878A5 publication Critical patent/JP2008219878A5/ja
Application granted granted Critical
Publication of JP4969474B2 publication Critical patent/JP4969474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

【課題】光線情報を含む符号化された画像情報を復号し、復号された画像情報を基に複数のフォーカス値の画像を効率的に生成および表示できる復号方法を提供する。
【解決手段】プレノプティックカメラで撮像された光線情報を基に、ユーザによって指定されたフォーカス値に対応した画像を表示する(S68,S69)。そして、当該フォーカス値に離散的に隣接した他のフォーカス値の画像データを生成して作業メモリに記憶する(S70)。次に当該他のフォーカス値が指定された場合に、その画像を即座に表示できる。
【選択図】 図14

Description

本発明は、プレノプティックカメラ(Plenoptic Camera)で撮像され符号化された画像を復号する復号方法、復号装置、復号プログラム、および光学系の形状に特徴を有する電子カメラに関する。
図25は、通常のカメラのフォーカス機能を説明するための図である。フォーカスレンズ121および図示しない他の光学系(例:ズーム光学系)により集光された光は、像平面121Fに配置されている撮像素子127に投射される。フォーカスレンズ121の像平面121Fに対する位置は、矢印121Bで示されるように、光軸121Hに沿って変更可能となっている。このフォーカスレンズ121の位置は、例えばオートフォーカス(AF)などの制御の際にカメラのファームウェアなどの処理に使われ、離散的な数値によって管理される。図中121Aは、このような「フォーカス値」を示す。
通常のカメラの光学系がズーム光学系を含む場合や、複雑な光学系である場合には、フォーカスレンズ121は複数のレンズを含むレンズ群により構成される。この場合、フォーカス値121Aはこのようなレンズ群の、変更および制御可能な総体的な状態を表すものとなる。
カメラのレンズは、平面上の物体を平面上に結像することを基本にしている。ここで、所定のフォーカス値に配置されたフォーカスレンズ121により像平面121Fにボケなしで結像される平面を「ベストな物体平面」ということにする。被写体がベストな物体平面121D上にあると、完全にピントが合った状態で撮像素子127に結像される。フォーカス値121Aを変えることにより、像平面121Fからベストな物体平面121Dまでの距離である被写体距離121Eを変えることができる。フォーカス値121Aと被写体距離121Eは一対一対応になる。
実際には、ボケの許容範囲に応じた被写界深度121Gが存在し、物体平面121Jがベストな物体平面からこの被写界深度121G分ずれていても、実質的にピントが合った状態で光が撮像素子127に投射される。
図26(A)は、このような通常のカメラでもって撮影する場合を表している。先ず、オートフォーカスまたはユーザによるマニュアルフォーカスの操作により、ピントを被写体Xに合わせる。この動作は、フォーカスレンズ121を光軸121Hの方向に移動させることにより、ベストな物体平面121Dを被写体Xの被写体面に合わせることに対応する。図26(A)は、フォーカスレンズ121が、あるフォーカス値121Aに移動され、ベストな物体平面121Dが被写体Xの被写体面と一致している状態を示している。この状況でレリーズボタンが押されると、被写体Xからの光が、フォーカスレンズ121を介して、ピントが合った状態で撮像素子127に投射される。
これに対して、プレノプティックカメラは、図26(B)に示すように、被写体Xからの光をマイクロレンズアレイ125に投射する。つまり、図26(B)における像平面121Fにはマイクロレンズアレイ125が設置されており、撮像素子127は、その後ろの面に配置されている。このような構造により、マイクロレンズアレイ125に投射された被写体Xからの様々な光線Kl、K2、K3は、個々のマイクロレンズ125Aにより分離されて、撮像素子127の一部127Aに投射される。したがって、撮像素子127の一部127Aにより結像された情報には、光線の方向の情報が含まれている。一方、マイクロレンズアレイ125には、被写体Xの光が投射されるので、撮像素子127の結像結果には、光線が被写体のどの位置からの光かを示す、位置情報が含まれているといえる。
このように、プレノプティックカメラの撮像素子の結像結果である画像情報(ライトフィールド画像)は、空間における光線の情報(光線情報)を含んでいる。プレノプティックカメラは、上述のように、4次元の光線情報をサンプリングすることができる。
例えば、特許文献1には、光線情報(ライトフィールド画像情報)を符号化する手法が開示されている。この手法では、復号スピードを向上させるために、ベクトル量子化を採用している。また、当該手法は、例えば、復号データに対してのアクセスが複雑となるMPEG(Moving Picture Experts Group)等で採用される予測符号化とは異なり、ベクトル符号化データの復号が、コードブック(辞書データ)内のインデックスを参照してそれを出力して行われる。
米国特許第6,097,394号明細書 米国特許第5,076,687号明細書 Ren Ng et al, "Light Field Photography with a Hand-held Plenoptic Camera", Stanford Tech Report CTSR, 2005-2, 2005 Ren Ng, "Fourier Slice Photography", Stanford University, 2005 高野他,"光線情報に基づく空間符号化",映像情報メディア学会誌, Vol.52, No.1 ,p.1321-1327
ところで、上述したような光線情報を符号化するカメラは、例えば、一つのフォーカス値で撮影を行って光線情報を符号化および記憶する。その後に、上記カメラは、光線情報を読み出して復号し、それを基に複数のフォーカス値に対応する画像を生成および表示することが可能である。しかしながら、上述した特許文献1には、複数のフォーカス値に対応する画像を光線情報からどのようなタイミングで生成および表示するかについては開示されていない。
非特許文献2には、プレノプティックカメラで取得した画像をリフォーカスして様々なフォーカス値でフォーカスされた画像を生成する方法であるフーリエ・スライシング(Fourier Slicing)法が開示されている。しかしながら、この非特許文献2には、光線情報を取得するプレノプティックカメラ等の機器が、複数のフォーカス値に対応する画像をどのようなタイミングで生成および表示するかについては開示していない。
また、上述した特許文献1に記載されている符号化手法では、トライ・アンド・エラーによるため処理負荷が大きく、携帯型プレノプティックカメラでリアルタイム撮像を行う場合には適切ではない。そのため、携帯型プレノプティックカメラに組み込む、さらなる適切な符号化方法および復号方法が望まれている。
本発明の第1の目的は、符号化された光線情報を復号して画像情報を生成し、当該画像情報を基に複数のフォーカス値の画像を効率的に生成および表示できる復号方法、復号装置および復号プログラムを提供することである。
また、本発明の第2の目的は、フォーカスレンズおよびマイクロレンズを介して入射した被写体からの光を2次元配置された複数のピクセルに結像する場合に、受光感度を高めることができる電子カメラを提供することである。
また、本発明の第3の目的は、比較的小さい処理負担で光線情報を符号化して高画質を提供できる電子カメラを提供することである。
上述した従来技術の問題点を解決し、上述した目的を達成するため、第1の観点の発明の復号方法は、被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報を復号する復号方法であって、被写体撮影時に得られ前記被写体に関連する、符号化された第1の画像情報と前記第1の画像情報とは異なる種類の符号化された第2の画像情報とを復号する復号工程と、前記復号された第1の画像情報と第2の画像情報とに基づいて前記光線情報を生成する光線情報生成工程と、前記生成された光線情報に基づいて、被写体撮影時の第1のフォーカス値に対応した画像情報を生成する第1の画像生成工程と、前記生成された第1のフォーカス値に対応した画像情報を記憶部に記憶する第1の記憶工程と、前記生成された前記第1の画像情報に対応した画像を表示する第1の表示工程と、前記生成された光線情報に基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像情報を生成する第2の画像生成工程と、前記生成された第2のフォーカス値に対応した画像情報を前記記憶部に記憶する第2の記憶工程とを有し、前記第2の画像生成工程は、前記第1の表示工程と並行してあるいは前記第1の表示工程よりも前に実行されることを特徴とする。
また、第2の観点の発明の復号方法は、被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報に応じた画像データを復号する復号方法であって、被写体撮影時に得られ、前記符号化された光線情報を構成する第1の画像情報を復号して、前記画像データを構成する複数の2次元ブロックデータの各々に対応する第1のピクセルデータを生成し、前記複数の2次元ブロックデータの各々について、当該2次元ブロックデータの前記第1のピクセルデータに基づいて前記符号化された光線情報を構成する第2の画像情報を復号して、第2のピクセルデータを生成し、前記生成した前記第1のピクセルデータと、前記生成した第2のピクセルデータとを基に、被写体撮影時の第1のフォーカス値に対応した画像データを生成し、前記生成した第1のフォーカス値に対応した画像データを記憶部に記憶し、前記生成した第1のフォーカス値に対応した画像データを表示し、前記第1のピクセルデータおよび前記第2のピクセルデータに基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像データを生成し、前記生成した第2のフォーカス値に対応した画像データを前記記憶部に記憶することを特徴とする。
また、第3の観点の発明の復号装置は、被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報を復号する復号装置であって、被写体撮影時に得られ、前記被写体に関連する符号化された第1の画像情報と前記第1の画像情報とは異なる種類の符号化された第2の画像情報とを復号して前記光線情報を生成する復号手段と、前記生成された光線情報に基づいて、被写体撮影時の第1のフォーカス値に対応した画像情報を生成して記憶部に記憶させる第1の画像生成手段と、前記第1の画像生成手段が生成した前記画像情報に応じた画像を表示する表示手段と、前記復号手段が生成した前記光線情報に基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像情報を生成して前記記憶部に記憶させる第2の画像生成手段とを具備することを特徴とする。
また、第4の観点の発明の復号プログラムは、被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報を復号する復号プログラムであって、被写体撮影時に得られ前記被写体に関連する、符号化された第1の画像情報と前記第1の画像情報とは異なる種類の符号化された第2の画像情報とを復号する手順と、前記復号された第1の画像情報と第2の画像情報とに基づいて前記光線情報を生成する手順と、前記生成された光線情報に基づいて、被写体撮影時の第1のフォーカス値に対応した画像情報を生成する手順と、前記生成された第1のフォーカス値に対応した画像情報を記憶部に記憶する手順と、前記生成された前記第1の画像情報に対応した画像を表示する手順と、前記生成された光線情報に基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像情報を生成する手順と、前記生成された第2のフォーカス値に対応した画像情報を前記記憶部に記憶する手順とをコンピュータに実行させる。
また、第5の観点の発明の電子カメラは、フォーカスレンズと、前記フォーカスレンズの焦点位置に配置された複数のマイクロレンズからなるマイクロレンズアレイと、前記フォーカスレンズおよび前記複数のマイクロレンズの各々を順に通って形成された被写体像を電気信号に変換する2次元配置された複数のピクセルからなる撮像素子と、前記複数のピクセルの受光結果に応じた光線情報を符号化する符号化部とを具備し、前記フォーカスレンズの光軸と垂直な面の2次元形状と前記マイクロレンズアレイを構成する各マイクロレンズの2次元形状が略同じであることを特徴とする。
本発明によれば、符号化された光線情報を復号して画像情報を生成し、当該画像情報を基に複数のフォーカス値の画像を効率的に生成および表示できる復号方法、復号装置および復号プログラムを提供できる。
また、本発明によれば、フォーカスレンズおよびマイクロレンズを介して入射した被写体からの光を2次元配置された複数のピクセルに結像する場合に、受光感度を高めることができる電子カメラを提供できる。また、本発明によれば、比較的小さい処理負担で光線情報を符号化して高画質を提供できる電子カメラを提供できる。
以下、本発明の実施形態に係わるデジタルカメラについて説明する。
<第1実施形態>
図1(A)及び図1(B)は、本発明の第1実施形態に係わるデジタルカメラ1の外観図である。図1(A)に示すように、デジタルカメラ1の前面には、被写体からの光が入射する光入射口4と、フラッシュ5とが配置されている。デジタルカメラ1は、着脱可能メモリ39が着脱可能に構成されている。また、デジタルカメラ1の上面には、静止画撮影を実行するためのレリーズスイッチ6が配置されている。
図1(B)に示すように、デジタルカメラ1の背面には、液晶等の表示部43と、操作部22とが配置されている。
図2は、本発明の実施形態に係わるデジタルカメラ1の内部構成図である。図2に示すように、デジタルカメラ1は、例えば、操作部22、光学系23、マイクロレンズアレイ25、撮像部27、AFE(Analog Front End)29、作業メモリ31、処理部32、メモリI/F33、内部メモリ35、メモリI/F37、着脱可能メモリ39、ビデオメモリ41、表示部43、外部I/F45、フラッシュメモリ47、およびCPU48を有している。
AFE29、作業メモリ31、処理部32、メモリI/F33、メモリI/F37、ビデオメモリ41、外部I/F45、およびCPU48は、信号線21を介して電気的に接続されている。
操作部22は、図1(B)に示すように、ズームインボタン810、ズームアウトボタン811、フォーカス値フォワードボタン820、フォーカス値バックワードボタン821を有する。ズームインボタン810、ズームアウトボタン811、フォーカス値フォワードボタン820、フォーカス値バックワードボタン821は十字形状に配置されている。また、デジタルカメラ1の背面の上側にフォーカス値フォワードボタン820が配置されている。デジタルカメラ1の背面の下側にフォーカス値バックワードボタン821が配置されている。デジタルカメラ1の背面の右側にズームインボタン810が配置されている。デジタルカメラ1の背面の左側にズームアウトボタン811が配置されている。ここで、図1(A)に示すボタンの配置は一例であり、適宜変更可能である。
さらに、操作部22は、例えば、デジタルカメラ1の背面のボタン810、811、820、821の下側に十字操作部830が配置されている。十字操作部830は、中心に位置するOKボタン831の周囲に、上矢印ボタン832、下矢印ボタン833、右矢印ボタン834、および左矢印ボタン835が配置されることで構成されている。上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835は、OKボタン831が押下された状態で押下される場合と、OKボタン831が押下されていない状態で押下される場合とで異なるモードを持つ。
OKボタン831が押下されている状態では、上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835は、再生画像の描写角度を指定するために用いられる。再生画像の描写角度は、例えば、上下左右に対してそれぞれ0〜10°の範囲で指定できる。デジタルカメラ1は、図25(B)を用いて説明したプレノプティックカメラであり、光線情報を基に複数の描写角度の再生画像を生成する。
また、OKボタン831が押下されていない状態では、上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835は、再生画像内でズーム画像を表示させるための窓を上下左右に移動させるために用いられる。
さらに、操作部22は、画像保存ボタン840、およびキャンセルボタン841を有している。画像保存ボタン840は、例えば光線情報に基づいて生成されたあるフォーカス値に対応する画像、またはある描写角度の画像を保存するために用いられる。キャンセルボタン841は、あらゆる操作のキャンセル、または使用中のモードの解除などに用いられる。
光学系23は、例えば、フォーカスレンズ23aとズームレンズ23bとによって構成されている。光学系23は、被写体からの光を集光等してマイクロレンズアレイ25に向けて出射する。
フォーカスレンズ23aは、被写体の各点からの光を、マイクロレンズアレイ25上の一つの収束点に投射する。ズームレンズ23bは、例えば、撮影モードにおいて、ズームインボタン810が押下されるとズームインの向き(広角側)に移動し、ズームアウトボタン811が押下されるとズームアウトの向き(望遠側)に移動する。
本実施形態では、フォーカスレンズ23aおよびズームレンズ23bの2次元形状は、例えば円形である。
マイクロレンズアレイ25は、図3および図4に示すように、s×tのマトリクス状に配置された複数のマイクロレンズML(s,t)によって構成されている。マイクロレンズアレイ25を構成する各マイクロレンズは、当該マイクロレンズに入射した被写体の各点からの光(収束光)を、当該点からの出射方向(角度)に応じて分離して(separate)、撮像部27の撮像面上の対応するピクセルに投射する。
撮像部27は、CCDやCMOSセンサであり、マイクロレンズアレイ25に対して光学系23の反対側に位置する。撮像部27は、単板式でも3板式でも良い。撮像部27は、複数のピクセルをマトリクス状に配置されて構成されている。本実施形態では、例えば、撮像部27を構成するピクセルを、6×6ピクセルのマイクロレンズブロックMLBを単位として扱う。マイクロレンズブロックMLB(s,t)は、例えば、一つのマイクロレンズML(s,t)に対応付けられている。なお、マイクロレンズブロックMLB(s,t)は、一つのマイクロレンズML(s,t)に一対一に対応付けられている必要は無い。マイクロレンズブロックMLB(s,t)はピクセル補間処理等により生成されてもよい。
各マイクロレンズブロックMLB(s,t)には、図4に示すように、6×6のピクセルPIC(u,v)が割り当てられている。撮像部27は、各ピクセルが受けた光を光電変換し、光電変換によって発生した電荷に応じたアナログのRAW画像信号を生成する。本実施形態では、後述するように、RAW画像信号から得られたデジタルのRAW画像データを基に、処理部32が補間処理等を行って、各マイクロレンズブロックMLB(s,t)のピクセルPIC(u,v)のピクセルデータL(u,v,s,t)を生成する。
また、本実施形態では、各マイクロレンズブロックMLB(s,t)の6×6のピクセルのピクセルデータL(u,v,s,t)が、光線情報を有している。
広義の意味での光線情報とは、光線の情報である。一般的に、光線の情報を得るためには、その光線が自由空間で通る一点(x,y,z)と、その点を通過する際の角度(θ,φ)を得る必要がある。しかし、デジタルカメラ1の撮影等で想定している自由空間においては、放射輝度が光線上のどの点をとっても不変であるので、一般的な光線情報を4次元の光線情報として見なせる。すなわち、ここでの光線情報とは、光線が所定の2次元多様体を交差する点の位置とこの多様体に入射した角度との情報を含む情報である。この際、所定の多様体は、仮想的なものであり、任意である。所定の多様体は、例えば、平面、または球面である。また、多様体は、単一のものではなくてもよく、例えば2つの異なる平面から構成されてもよい。さらに、光線情報の用途によっては、4次元の光線情報ではなく、光線が所定の平面を交差する点の位置(2次元)とこの平面に入射した角度(2次元)のうち、平面上の一つの方向ベクトルとこの光線が成す角度(1次元)のみを考慮することによる、3次元の光線情報であってもよい。
さらに、光線情報は、2つの所定の第1の平面と第2の平面とが交差する2つの場所の情報として記述してもよい。このような記述方法は、例えば、特許文献1に記載されている。
本実施形態におけるデジタルカメラ1においては、マイクロレンズアレイ25の平面を所定の平面としておくことができる。この際、この平面上の位置が座標(s,t)でもって記述され、この平面に対する入射角を座標(u,v)でもって記述されていると見なしてよい。
AFE29は、撮像部27から入力されたアナログの画像信号に所定のアナログ・フロントエンド処理を施す。さらに、AFE29は、処理後に得られる画像信号をA/D変換し、A/D変換によって得られるデジタルのRAW画像データを作業メモリ31に書き込む。
作業メモリ31は、処理部32の処理対象データ、あるいは処理後のデータを一時的に記憶する。作業メモリ31は、例えば、SDRAM(Synchronous DRAM)である。
処理部32は、後述するように撮像で得た画像データの符号化、復号等の処理を行う。処理部32は、例えば、DSP(Digital Signal Processor)である。処理部32の処理について後に詳細に説明する。
内部メモリ35は、例えば、フラッシュメモリ等の半導体メモリであり、デジタルカメラ1内に固定して組み込まれている。内部メモリ35は撮像によって得られた画像データを記憶するとともに、メモリインタフェース33を介して信号線21に画像データを入出力する。
着脱可能メモリ39は、例えば、フラッシュメモリからなるメモリカードであり、デジタルカメラ1に着脱可能に装着されている。着脱可能メモリ39は、撮像によって得られた画像データを記憶するとともに、メモリインタフェース37を介して信号線21に画像データを入出力する。
ビデオメモリ41は、処理部32で生成された表示用の画像データを一時的に記憶する。表示部43は、ビデオメモリ41に記憶された画像データに応じた画像を表示する。表示部43は、例えば、液晶ディスプレイである。
外部インタフェース45は、デジタルカメラ1の外部の機器との間で、データの入出力を行う。外部インタフェース45は、例えば、USB(Universal Serial Bus)インタフェースである。
フラッシュメモリ47は、撮像動作を実行するための各種プログラムと各種処理を実行するためのパラメータとを格納している。
CPU48は、フラッシュメモリ47から読み出したプログラムを実行して、デジタルカメラ1の動作を統括的に制御する。
以下、図2に示す処理部32について説明する。図5は、図2に示す処理部32の機能の一部を説明するための機能ブロック図である。
図5に示すように、処理部32は、例えば、ピクセルデータ生成部50、間引き処理部51、JPEG(Joint Photographic Experts Group)符号化部53、プレノプティック符号化部55、ヘッダ付加部61、ヘッダ解釈部63、JPEG復号部65、プレノプティック復号部67、並びに再生画像生成部68を機能ブロックとして有する。
なお、ピクセルデータ生成部50、間引き処理部51、JPEG符号化部53、プレノプティック符号化部55、ヘッダ付加部61、ヘッダ解釈部63、JPEG復号部65、プレノプティック復号部67および再生画像生成部68の一部をDSPではなく、専用のハードウェア回路で構成してもよい。また、これらの機能の一部または全部をDSP以外のプロセッサで実現してもよい。
処理部32の処理は、大きく分けて、例えば、ピクセルデータL(u,v,s,t)を生成する処理と、ピクセルデータL(u,v,s,t)を符号化する処理と、符号化されたピクセルデータL(u,v,s,t)を復号する処理と、復号したピクセルデータに応じた画像を表示する処理と、指定されたフォーカス値に応じた画像を生成して表示する処理とがある。
以下、各処理について順に説明する。
先ず、ピクセルデータ生成部50について説明する。図6は、ピクセルデータ生成部50の処理を説明するためのフローチャートである。
ステップS11:
ピクセルデータ生成部50は、例えば、作業メモリ31からRAW画像データを読み出す。
ステップS12:
ピクセルデータ生成部50は、読み出したRAW画像データにデモザイク(de-mosaic)処理、ミスアライアンス補正処理、補間処理等を行う。デモザイク処理は、撮影時に各ピクセルに対してその周辺ピクセルから足りない色情報を集め与えることで色情報を補完し、フルカラー画像を作り出す処理である。例えば、多くのデジタルカメラが採用する単板式のカラーイメージセンサでは各ピクセルが単色の色情報しか持たないために、デモザイク処理が必要となる。3板式の場合には、デモザイク処理は不要である。ミスアライアンス補正処理は、例えば、RAW画像データが示す画像を回転させて、図4に示すマイクロレンズアレイ25のマイクロレンズML(s,t)の配列と、撮像部27のマイクロレンズブロックMLBの配列との横方向のミスアライアンスを補正する処理である。補間処理は、例えば、各マイクロレンズブロックMLBに所定数のピクセルデータを含ませるために行われる。
ステップS13:
ピクセルデータ生成部50は、ステップS12で生成した1フレーム分のピクセルデータL(u,v,s,t)を被符号化画像データTEとして作業メモリ31等に書き込む。ピクセルデータL(u,v,s,t)が光線情報の一例である。
次に、被符号化画像データTEを符号化するために用いられる間引き処理部51、JPEG符号化部53、プレノプティック符号化部55およびヘッダ付加部61について説明する。
間引き処理部51は、被符号化画像データTEを構成するピクセルデータL(u,v,s,t)のうち、図7に示すように、各マイクロレンズブロックMLB内のピクセルPIC(4,4)であるピクセルPIC(u0,v0)以外のピクセルPIC(u,v)のピクセルデータL(u,v,s,t)を間引いて、画像データTE2を生成する。間引きにより、画像データTE2は、図8等に示すように、ピクセルデータL(u0,v0,s,t)によって構成されるデータになる。
JPEG符号化部53は、間引き処理部51で生成した画像データTE2に、JPEG符号化処理を施してJPEGハフマンコードJFを生成する。JPEGハフマンコードJFが第1の画像情報の一例であり、JPEG符号化部53による符号化処理が第1の符号化処理の一例である。本実施形態においては、第1の符号化処理の一例として、JPEG符号化処理を例示するが、その他の空間周波数変換を用いてもよい。
JPEG符号化部53は、画像データTE2にDCT変換処理を施してDCT変換係数Kを生成する。そして、JPEG符号化部53は、DCT変換係数Kを量子化する。次に、JPEG符号化部53は、量子化したDCT変換係数を、低い周波数成分(直流)から高い周波数成分へとジグザグ状にスキャンする。次に、JPEG符号化部53は、スキャンしたDCT変換係数にハフマン符号等のエントロピー符号化を施してJPEGハフマンコードJFを生成する。
プレノプティック符号化部55は、図5に示すように、パススキャン部57およびLZW処理部59を有する。
上述したように、JPEG符号化部53は、ピクセルデータL(u0,v0,s,t)によって構成される画像データTE2を符号化する。これに対して、プレノプティック符号化部55は、被符号化画像データTE内のピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)を可逆符号化してワード列データWORDを生成する。
パススキャン部57は、図9(A)に示すように、各マイクロレンズブロックMLB内のピクセルPIC(u0,v0)を基点としてピクセルPIC(u0,v0)以外のピクセルPIC(u,v)のピクセルデータL(u,v,s,t)をパスPATH1,PATH2,PATH3,PATH4,PATH5の5パスでスキャンする。
ここで、パススキャン部57は、パスPATH1のスキャンにおいて、ピクセルデータL(5,4,s,t)とピクセルデータL(u0,v0,s,t)との差分データD(5,4,s,t)、ピクセルデータL(5,3,s,t)とピクセルデータL(5,4,s,t)との差分データD(5,3,s,t)、ピクセルデータL(6,3,s,t)とピクセルデータL(5,3,s,t)との差分データD(6,3,s,t)、並びにピクセルデータL(6,4,s,t)とピクセルデータL(6,3,s,t)との差分データD(6,4,s,t)を生成する。そして、パススキャン部57は、差分データD(5,4,s,t)、D(5,3,s,t)、D(6,3,s,t)、D(6,4,s,t)で構成されるワードWORD1を生成する。
また、パススキャン部57は、パスPATH2のスキャンにおいて、ピクセルデータL(4,3,s,t)とピクセルデータL(u0,v0,s,t)との差分データD(4,3,s,t)、ピクセルデータL(4,2,s,t)とピクセルデータL(4,3,s,t)との差分データD(4,2,s,t)、ピクセルデータL(5,2,s,t)とピクセルデータL(4,2,s,t)との差分データD(5,2,s,t)、ピクセルデータL(4,1,s,t)とピクセルデータL(5,2,s,t)との差分データD(4,1,s,t)、並びにピクセルデータL(3,1,s,t)とピクセルデータL(4,1,s,t)との差分データD(3,1,s,t)を生成する。そして、パススキャン部57は、差分データD(4,3,s,t)、D(4,2,s,t)、D(5,2,s,t)、D(4,1,s,t)、D(3,1,s,t)で構成されるワードWORD2を生成する。
また、パススキャン部57は、パスPATH3のスキャンにおいて、ピクセルデータL(3,3,s,t)とピクセルデータL(u0,v0,s,t)との差分データD(3,3,s,t)、ピクセルデータL(3,2,s,t)とピクセルデータL(3,3,s,t)との差分データD(3,2,s,t)、ピクセルデータL(2,2,s,t)とピクセルデータL(3,2,s,t)との差分データD(2,2,s,t)、ピクセルデータL(2,3,s,t)とピクセルデータL(2,2,s,t)との差分データD(2,3,s,t)、並びにピクセルデータL(1,3,s,t)とピクセルデータL(2,3,s,t)との差分データD(1,3,s,t)を生成する。そして、パススキャン部57は、差分データD(3,3,s,t),D(3,2,s,t)、D(2,2,s,t)、D(2,3,s,t)、D(1,3,s,t)で構成されるワードWORD3を生成する。
また、パススキャン部57は、パスPATH4のスキャンにおいて、ピクセルデータL(3,4,s,t)とピクセルデータL(u0,v0,s,t)との差分データD(3,4,s,t)、ピクセルデータL(2,5,s,t)とピクセルデータL(3,4,s,t)との差分データD(2,5,s,t)、ピクセルデータL(2,4,s,t)とピクセルデータL(2,5,s,t)との差分データD(2,4,s,t)、並びにピクセルデータL(1,4,s,t)とピクセルデータL(2,4,s,t)との差分データD(1,4,s,t)を生成する。そして、パススキャン部57は、差分データD(3,4,s,t)、D(2,5,s,t)、D(2,4,s,t)、D(1,4,s,t)で構成されるワードWORD4を生成する。
また、パススキャン部57は、パスPATH5のスキャンにおいて、ピクセルデータL(4,5,s,t)とピクセルデータL(u0,v0,s,t)との差分データD(4,5,s,t)、ピクセルデータL(3,5,s,t)とピクセルデータL(4,5,s,t)との差分データD(3,5,s,t)、ピクセルデータL(3,6,s,t)とピクセルデータL(3,5,s,t)との差分データD(3,6,s,t)、ピクセルデータL(4,6,s,t)とピクセルデータL(3,6,s,t)との差分データD(4,6,s,t)、並びにピクセルデータL(5,5,s,t)とピクセルデータL(4,6,s,t)との差分データD(5,5,s,t)を生成する。そして、パススキャン部57は、差分データD(4,5,s,t)、D(3,5,s,t)、D(3,6,s,t)、D(4,6,s,t)、D(5,5,s,t)で構成されるワードWORD5を生成する。
ここで、図7に示すように、各マイクロレンズブロックMLB内の4隅のピクセルPIC(u,v)のピクセルデータL(1,1,s,t)、L(1,2,s,t)、L(2,1,s,t)、L(5,1,s,t)、L(6,1,s,t)、L(6,2,s,t)、L(1,5,s,t)、L(1,6,s,t)、L(2,6,s,t)、L(5,6,s,t)、L(6,5,s,t)、L(6,6,s,t)は、マイクロレンズブロックMLBと、マイクロレンズMLとの位置関係の理由で有効なピクセルデータが得られないため、上述したスキャンを行わない。各マイクロレンズブロックMLB内の4隅のピクセルにおいて有効なピクセルデータが得られないのは、フォーカスレンズ23aを含む光学系23が丸い形状を有しており、フォーカスレンズ23aを介してマイクロレンズブロックMLBに投影される像がぼやけた円形状になるためである。なお、フォーカスレンズ23aおよびズームレンズ23bを矩形にした場合には、例えば、図9(B)に示すように、マイクロレンズML内の4隅の各々1つのピクセル以外のピクセルのピクセルデータが有効になる。この場合には、パススキャン部57は、図9(B)に示すパスPATH11〜14でスキャンを行うようにしてもよい。
パススキャン部57は、例えば、図8に示す被符号化画像データTE内のプロセッシングブロックデータPRBKを単位として、当該プロセッシングブロックデータPRBK内のピクセルデータL(u,v,s,t)について、上述したスキャン処理を行い、ワード列データWORDを生成する。なお、プロセッシングブロックデータPRBKが処理単位ブロックの一例である。また、マイクロレンズブロックMLBが2次元ブロックデータの一例である。
ここで、プロセッシングブロックデータPRBKには、8×8の合計64個のマイクロレンズブロックMLBのピクセルデータL(u,v,s,t)が含まれる。そのため、パススキャン部57は、プロセッシングブロックデータPRBKについて、320(=5×8×8)ワードのワード列データWORDを生成することになる。
パススキャン部57は、例えば、プロセッシングブロックデータPRBK内の8×8の合計64個の各々のマイクロレンズブロックMLBについて生成したワードWORD1〜5を図10に示すように、ジグザグスキャンにより順に並べてワード列データWORDを生成する。
LZW処理部59は、パススキャン部57から入力されたワード列データWORDにLZW圧縮処理を施してLZW圧縮コードLZを生成する。なお、LZW処理部59は、LZW以外の辞書ベースのユニバーサル符号化(LZ符号化)を行ってもよい。なお、LZW圧縮コードLZが第2の画像情報の一例であり、プレノプティック符号化部55による符号化処理が第2の符号化処理の一例である。
ヘッダ付加部61は、JPEG符号化部53が生成したJPEGハフマンコードJFと、LZW処理部59が生成したLZW圧縮コードLZとのヘッダデータHEADERを生成する。ヘッダデータHEADERにはLZW圧縮コードへのポインタ、サムネイル画像データ、ファイルサイズ、画像サイズ、撮影日時、その他のタグ情報が書き込まれる。処理部32は、ヘッダ付加部61が生成したヘッダデータHEADERと、LZW圧縮コードLZへのポインタLZP、JPEGサムネイルデータTHM、JPEGハフマンコードJFとを、図11に示すデータ構造のファイル形式で内部メモリ35や着脱可能メモリ39に書き込む。
ヘッダ解釈部63は、作業メモリ31から読み出したJPEGハフマンコードJFおよびLZW圧縮コードLZのヘッダデータHEADERを解釈する。ヘッダ解釈部63は、LZW圧縮コードLZへのポインタLZPを読み出して、このポインタLZPによって示される内部メモリ35あるいは着脱可能メモリ39内のアドレスからLZW圧縮コードLZを読み出す。その後、ヘッダ解釈部63は、読み出したLZW圧縮コードLZをプレノプティック復号部67に出力する。また、ヘッダ解釈部63は、LZW圧縮コードLZに対応するJPEGハフマンコードJFを内部メモリ35あるいは着脱可能メモリ39から読み出す。その後、ヘッダ解釈部63は、読み出したJPEGハフマンコードJFをJPEG復号部65に出力する。
JPEG復号部65は、ヘッダ解釈部63から出力されたJPEGハフマンコードJFをJPEG復号してJPEG復号画像データを生成する。JPEG復号画像データは、ピクセルデータL(u0,v0,s,t)で構成される。JPEG復号部65による復号処理は、前述したJPEG符号化部53の符号化処理と対応している。すなわち、JPEG復号部65は、JPEGハフマンコードJFに対して、ハフマン復号処理、逆量子化および逆DCT処理を順に施す。プレノプティック復号部67は、JPEG復号画像データに基づいて、LZW圧縮コードLZを復号してピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)を生成する。プレノプティック復号部67の復号処理は、例えば、前述したプレノプティック符号化部55の符号化処理と対応している。
以下、図5に示す再生画像生成部68について説明する。
再生画像生成部68は、プレノプティック復号部67によって復号されて作業メモリ31等に記憶されたピクセルデータL(u,v,s,t)を基に、指定されたフォーカス値に対応した画像(再生画像)データを生成する。再生画像生成部68が生成する画像データのフォーカス値は、例えば、図1(B)に示すフォーカス値フォワードボタン820又はフォーカス値バックワードボタン821の操作信号を基に決定される。また、再生画像生成部68は、表示部43に再生画像が表示されている間に、図1(B)に示す十字操作部830のOKボタン831が押下されており、且つ上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835が操作されると、その操作に応じた描写角度の再生画像データを生成する。再生画像生成部68の処理については後に詳細に説明する。
以下、デジタルカメラ1の動作例を説明する。
[画像データ記録処理]
図12は、撮像部27の結像結果に応じた画像データを符号化して作業メモリ31に書き込む動作を説明するためのフローチャートである。
以下、図12に示す各ステップを説明する。なお、以下に示す処理のうち一部の実行順序は任意である。また、一部の処理を並列に実行してもよい。
ステップS21:
撮像部27は、操作部22のレリーズスイッチ6がオンされると、被写体からの光を各ピクセルで受け、各ピクセルが受けた光を光電変換し、光電変換によって発生した電荷に応じたアナログのRAW画像信号を生成する。
ステップS22:
処理部32は、ステップS21のRAW画像信号が生成されたときに光学系23において用いられたレンズパラメータ及びフォーカス値fを取得する。なお、フォーカス値fは、図26(B)における被写体距離121Eに一対一の対応となっている。したがって、フォーカス値fの代わりに、フォーカス値fに対応した被写体距離の値を算出して取得してもよい。以下このようにして算出された被写体距離もfで示す。また、単焦点カメラの場合には、フォーカス値fの取得は不要である。ただし、再生処理のために、カメラに固有の過焦点距離の値fをフォーカス値として取得するようにしても良い。
ステップS23:
AFE29は、撮像部27から入力されたアナログの画像信号に所定のアナログ・フロントエンド処理を施し、処理後の画像信号をA/D変換して得られるデジタルのRAW画像データを作業メモリ31に書き込む。ピクセルデータ生成部50は、RAW画像データを作業メモリ31から読み出して、デモザイク(de-mosaic)処理、ミスアライアンス補正処理、補間処理等を行ってピクセルデータL(u,v,s,t)を生成する。その後、ピクセルデータ生成部50は、1フレーム毎に、ピクセルデータL(u,v,s,t)で構成される被符号化画像データTEを作業メモリ31に書き込む。
ステップS24:
処理部32は、作業メモリ31から被符号化画像データTEを読み出して符号化を行い、JPEGハフマンコードJFと、LZW圧縮コードLZを生成する。そして、処理部32は、これらをステップS22で取得したレンズパラメータ及びフォーカス値fと共に、作業メモリ31に書き込む。ここで、符号化処理等は、図5に示す間引き処理部51、JPEG符号化部53、プレノプティック符号化部55およびヘッダ付加部61において行われる。ステップS24の処理については、後に図13を用いて詳細に説明する。
ステップS25:
ヘッダ解釈部63は、作業メモリ31からJPEGハフマンコードJFを読み出すとともに、ヘッダデータHEADERを解釈して、JPEG復号部65において復号を行う。これにより、ピクセルデータL(u0,v0,s,t)が生成される。次に、処理部32は、復号したピクセルデータL(u0,v0,s,t)を基に、サムネイル画像データとレックビュー表示用画像データとを生成する。その後、サムネイル画像データをJPEG符号化して得られたサムネイル画像データとレックビュー表示用画像データを作業メモリ31に書き込む。サムネイル画像データは、例えば、ユーザから、インデックス表示指示を受けた場合に、表示部43に複数のサムネイル画像からなるインデックス画像を表示させるための画像データである。レックビュー表示用画像データは、被写体撮影後の確認用の画像を、表示部43に一定時間表示させるための画像データである。ここで、処理部32は、例えば、サムネイル表示指示を受けた場合に、サムネイル画像データを生成してビデオメモリ41に書き込む。これによりサムネイル画像が表示部43に表示される。
ステップS26:
処理部32は、作業メモリ31に書き込まれたJPEGハフマンコードJF、JZW圧縮コードLZおよびJPEGサムネイル画像データを作業メモリ31から読み出して内部メモリ35または着脱可能メモリ39に書き込む。
[符号化処理(図12のステップS24)]
図13は、図12のステップS24の符号化処理を詳細に説明するためのフロー図である。本実施形態における図13に示すステップS35〜S37の処理(JPEG符号化処理)と、ステップS38、S39の処理(LZW符号化処理)とは並列に実行してもよい。
ステップS31:
処理部32には、JPEGハフマンコードJFの生成に用いるピクセルPIC(u0,v0)を特定するための情報が入力される。ピクセルPIC(u0,v0)を特定するための情報は、例えば、予め所定のメモリに記憶されている。本実施形態では、u0=v0=4としている。これはマイクロレンズブロックMLの中央部のピクセルが一番有効な情報を持っていると考えられるためである。
ステップS32:
処理部32は、変数PBCに初期値「0」を代入する。ここで、変数PBCが示す値は、符号化を行う図8に示すプロセシングブロックデータPRBKを特定するための値である。
ステップS33:
処理部32は、変数PBCに設定された値を「1」だけインクリメントする。
ステップS34:
処理部32は、変数PBCが示す値に対応した符号化対象のプロセシングブロックデータPRBK内のピクセルデータL(u,v,s,t)を作業メモリ31から読み出す。
ステップS35:
間引き処理部51は、ステップS31で入力された情報に基づいて、ステップS34で読み出されたプロセシングブロックデータPRBK内のピクセルデータL(u,v,s,t)のうち、ピクセルデータL(u0,v0,s,t)を抽出して画像データTE2を生成する。そして、JPEG符号化部53は、画像データTE2にDCT変換処理を施してDCT変換係数K(i,j)を生成する。
ステップS36:
JPEG符号化部53は、ステップS35で生成したDCT変換係数K(i,j)を量子化する。
ステップS37:
JPEG符号化部53は、ステップS36で量子化したDCT変換係数を、低い周波数成分(直流)から高い周波数成分へとジグザグ状にスキャンする。次に、JPEG符号化部53は、スキャンしたDCT変換係数にハフマン符号等のエントロピー符号化を施して、JPEGハフマンコードJF1を生成する。
ステップS38:
プレノプティック符号化部55のパススキャン部57は、図9(A)に示すように、符号化対象のプロセシングブロックデータPRBK内のピクセルデータL(u,v,s,t)について、各マイクロレンズブロックMLB内のピクセルPIC(u0,v0)を基点としてピクセルPIC(u0,v0)以外のピクセルPIC(u,v)のピクセルデータL(u,v,s,t)をパスPATH1、PATH2、PATH3、PATH4、PATH5の5パスに沿ってスキャンする。パススキャン部57は、前述したように、パス上のピクセルデータL(u,v,s,t)について、その一つ前のピクセルデータL(u,v,s,t)との差分データD(u,v,s,t)を生成する。そして、パススキャン部57は、差分データD(u,v,s,t)によって構成されるワードを生成する。また、パススキャン部57は、例えば、プロセッシングブロックデータPRBK内の8×8の合計64個の各々のマイクロレンズブロックMLBについて生成したワードWORD1〜5を、図10に示すように、ジグザグスキャンにより順に並べてワード列データWORDを生成する。
ステップS39:
LZW処理部59は、パススキャン部57から入力されたワード列データWORDにLZW圧縮処理を施してLZW圧縮コードLZ1を生成する。
ステップS40:
ヘッダ付加部61は、JPEG符号化部53が生成したJPEGハフマンコードJF1とLZW処理部59が生成したLZW圧縮コードLZ1とのヘッダデータHEADERを生成し、これらを対応付けて作業メモリ31に書き込む。
ステップS41:
処理部32は、被符号化画像データTE内の全てのプロセシングブロックデータPRBKについて処理が完了したかを判断し、完了したと判断するとステップS24の処理を終了する。一方、処理部32は、被符号化画像データTE内の全てのプロセシングブロックデータPRBKについて処理が完了していないと判断すると、ステップS33に戻る。
このように、プロセッシングブロックデータPRBK毎に生成されるJPEGハフマンコードJF(JF1,JF2,・・・)とLZW圧縮コードLZ(LZ1,LZ2,・・・)とを、図11に示すデータ構造のJPEGハフマンコードの記憶領域およびLZW圧縮コードの記憶領域にそれぞれ書き込んでいく。
[再生処理]
図14および図15は、再生処理を説明するためのフローチャートである。以下、図16、図17(A)〜図17(C)を参照しながら、図14および図15に示す各ステップを説明する。
ステップS61:
処理部32は、例えば、内部メモリ35あるいは着脱可能メモリ39から、サムネイル画像データ(JPEG画像データ)を読み出す。その後、処理部32は、読み出したサムネイル画像データをJPEG復号してビデオメモリ41に書き込む。これにより、サムネイル画像が表示部43に表示される。JPEG復号されたサムネイル画像データは、符号化時において間引かれた後のピクセルデータL(u0,v0,s,t)を要素として有している。インデックス表示の際には、撮影された複数枚の画像データに対応するサムネイル画像が表示部43に表示される。その後、ユーザによる操作部22の操作によって複数表示されているサムネイル画像の一つが指定されると、処理部32は、指定されたサムネイル画像に対応するJPEGハフマンコードJFおよびLZW圧縮コードLZを、内部メモリ35あるいは着脱可能メモリ39から読み出して作業メモリ31に書き込む。
ステップS62:
処理部32のJPEG復号部65は、ステップS61で指定されたサムネイル画像に対応するJPEGハフマンコードJFを作業メモリ31から読み出す。そして、JPEG復号部65は、読み出したJPEGハフマンコードJFをJPEG復号して、JPEG復号画像データを生成する。JPEG復号画像データは、ピクセルデータL(u0,v0,s,t)を要素としている。その後、処理部32は、JPEG復号画像データを作業メモリ31に書き込む。
ステップS63:
処理部32は、ステップS62で作業メモリ31に書き込んだJPEG復号画像データを読み出してビデオメモリ41に書き込む。これにより、ピクセルデータL(u0,v0,s,t)を要素とするJPEG復号画像が表示部43に表示される。
ステップS64:
プレノプティック復号部67は、ステップS62で生成したJPEG復号画像データと、ステップS61において指定されたサムネイル画像に対応したLZW圧縮コードLZとを基に、指定されたサムネイル画像に対応した画像のピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)を生成する。その後、プレノプティック復号部は、生成したピクセルデータL(u,v,s,t)を作業メモリ31に書き込む。
ステップS65:
ヘッダ解釈部63は、JPEGハフマンコードJFに対応するフォーカス値fをヘッダデータHEADERから読み出す。
ステップS66:
再生画像生成部68は、ステップS65で読み出したフォーカス値fを変数Fに代入する。また、再生画像生成部68は、フォーカス値fからのステップ数を示す変数Nに0を代入する。
ステップS67:
再生画像生成部68は、隣り合うフォーカス値間のステップ幅を示すStepに「f/10」を代入する。
ステップS68:
再生画像生成部68は、ステップS67で求めたStepを、F(N)=f+N×Stepに代入してNに対応したフォーカス値Fを求める。
ステップS69:
再生画像生成部68は、Nに対応したフォーカス値F(N)に対応した画像データIM(N)が作業メモリ31に記憶されているか否かをチェックする。このチェックの結果、画像データIM(N)が記憶されていない場合に限り、再生画像生成部68は、ステップS63で復号されたピクセルデータL(u0,v0,s,t)とステップS64で復号されたピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)とを基に、画像データIM(N)(フレームデータ)を生成する。その後、再生画像生成部68は、画像データIM(N)を作業メモリ31に書き込む。この画像データIM(N)の生成は、例えば、非特許文献1や非特許文献2に開示された手法を基に行われる。すなわち、Fourier Slicing 方式、およびインテグレーション方式などを基に行われる。インテグレーション方式とは、マイクロレンズブロックMLB内の有効ピクセルデータを所望のフォーカス値に対応する画像を得るのに適した積算演算を実行することであり、非特許文献1における数式(1)〜(6)、及び非特許文献2における数式(1)〜(3)をベースとする。Fourier Slicing 方式は、このような積算演算処理をフーリエ空間上で短い時間内に効果的に実効する手法であり、4次元のフーリエ空間を使う。何れの演算方式にせよ、画像データIM(N)を得るためのこれらの演算には、JPEGの復号処理などに比べ、高い演算能力、及びより多くの演算時間を要する。
なお、Nは例えば整数であり、Nが小さくなるに従って近距離側のフォーカスになる。Nが小さくなるに従って遠距離側のフォーカスになるように規定してもよい。
ステップS70:
再生画像生成部68は、図17(A)に示すように、画像データIM(N)をビデオメモリ41に書き込む。これによって、フォーカス値F(N)に対応した画像(再生画像)が表示部43に表示される。初期の段階では、上述のとおり、すでにピクセルデータ(u0,v0,s,t)を要素とするJPEG復号画像が表示部43に表示されている。この画像は、F(0)のフォーカス値に対応する画像である。しかしながら、各々のマイクロレンズブロックMLBの(u0,v0)以外のピクセルデータを間引いている。このため、実質的に暗い光学系で撮影された画像となる。したがって、暗いシーンなどを撮影した場合には、ノイズが重畳されている。ステップS70では、この画像がF(0)のフォーカス値に対応した画像IM(0)により置き換えられる。この画像IM(0)は、各々のマイクロレンズブロックMLBの全ての有効ピクセルデータを積分するので、より鮮明な、ノイズの少ない画像となる。
ここで、ステップS69の説明で既に述べたように、この積算演算に要する時間が長いため、ステップS63において、(u0,v0)に対応した画像をとりあえずユーザへ表示している。このように、光線情報を復号して、所望のフォーカス値、または描写角度の画像を生成して表示する動作において、先ず(u0,v0)に対応したJPEG復号画像データのみを生成し、生成したJPEG復号画像データに基づく画像を表示することにより、ユーザが指定したサムネイル画像に対応した画像を素早く表示することができる。これにより、ユーザをいらいらさせることはない。
ステップS71:
再生画像生成部68は、Nに隣接した(N±1)に対応したフォーカス値F(N±1)=f+(N±1)×Stepに対応した画像データIM(N+1)、IM(N−1)が生成されていない場合には、これらの画像データを生成して作業メモリ31に書き込む。当該画像データの生成は、例えば、前述したFourier Slicing 方式、およびインテグレーション方式等を基に行われる。
ステップS72:
再生画像生成部68は、Nに隣接していないフォーカス値に対応した画像データが存在する場合に、それらのフォーカス値に対応した画像データを作業メモリ31から削除する。
ステップS73:
再生画像生成部68は、ユーザによる図1(B)に示すフォーカス値フォワードボタン820およびフォーカス値バックワードボタン821の操作によって、新たなフォーカス値が指定されたか(フォーカス値の変更があるか)を判定する。そして、新たなフォーカス値の指定がある場合に、再生画像生成部68は、ステップS74の処理を行う。一方、フォーカス値の変更が無い場合に、再生画像生成部68は、ステップS75の処理を行う。
ステップS74:
再生画像生成部68は、ステップS73で指定されたステップに対応した新たなNを設定してステップS68に戻る。すなわち、図1(B)に示すフォーカス値フォワードボタン820が1回押されると、N(カウント)が一つアップし、フォーカス値バックワードボタン821が1回押されると、N(カウント)が一つダウンされる。これによってフォーカス値F(N)が更新される。ここで、新たに指定されたフォーカス値に対応した画像データは、予め作業メモリ31に記憶されている。したがって、指定がなされてから新たなフォーカス値に対応した画像が表示部43に表示されるまでの時間は短い。このため、本カメラは、応答性に優れている。
再生画像生成部68は、例えば、図17(B)に示すように、画像データIM(N+1)が読み出されて表示された場合には、ピクセルデータL(u,v,s,t)を基に、フォーカス値F(N+2)に対応する画像データIM(N+2)を生成して作業メモリ31に書き込む。このとき、フォーカス値F(N−1)に対応する画像データIM(N−1)は上書き等によって消去される。また、図17(C)に示すように、画像データIM(N+2)が読み出されて表示された場合には、ピクセルデータL(u,v,s,t)を基に、フォーカス値F(N+3)に対応する画像データIM(N+3)を生成して作業メモリ31に書き込む。このとき、フォーカス値F(N)に対応する画像データIM(N)は上書き等によって消去される。
また、フォーカス値フォワードボタン820およびフォーカス値バックワードボタン821の早押しなどにより、ユーザがフォーカス値を大幅に変更する指示がなされた場合には、現状の変数Nが複数のステップだけ飛んだ値に変更される。このような状況でステップS74からステップS68に進んだ場合には、画像データが作業メモリ31に存在しない。この場合には、新たに画像データを生成することとなる。
ステップS75:
処理部32は、キャンセルボタン841が押下されたかを判定する。ユーザにより、キャンセルボタン841が押された場合には、画像の再生を中止する。一方、キャンセルボタン841が押されていない場合に、処理部32は、ステップS76の処理を行う。
ステップS76:
処理部32は、画像保存ボタン840が押下されたかを判定する。ユーザにより、画像保存ボタン840が押されていない場合には、ステップS73の処理を行う。一方、画像保存ボタン840が押された場合に、処理部32はステップS77の処理を行う。
ステップS77:
処理部32は、作業メモリ31の画像データIM(N)に対して、JPEG符号化処理を施すと同時に、ヘッダデータに、フォーカス値F(N)、初期フォーカス値f、および描写角度などを書き込む。その後、処理部32は、JPEG符号化データを、内部メモリ35もしくは着脱可能メモリ39に保存する。
このように、本実施形態における再生処理では、光線情報から生成された、所望のフォーカス値fに対応した画像をユーザが確認した後に、この画像を保存できる。したがって、ユーザは撮影時にピントを気にすることなく、確実に、所望の被写体の部分にピントが合った画像を得ることができる。
[フォーカス・ズーム調整処理]
図18は、デジタルカメラ1の再生時におけるフォーカスおよびズームの調整処理を説明するためのフローチャートである。
ステップS111:
再生画像生成部68は、図1(B)に示すフォーカス値フォワードボタン820が押下されたか否かを判断する。押下されたと判断すると再生画像生成部68は、ステップS112の処理を行う。一方、押下されていないと判断すると再生画像生成部68は、ステップS113の処理を行う。
ステップS112:
再生画像生成部68は、作業メモリ31に記憶されているピクセルデータL(u,v,s,t)を基に、フォーカス値を上げた(指定されたフォーカス値の)新たな画像(再生画像)データを生成し、生成した新たな画像データをビデオメモリ41に書き込む。再生画像生成部68は、指定されたフォーカス値に対応する画像データが作業メモリ31等に既に記憶されている場合には、それを読み出してビデオメモリ41に書き込み、指定されたフォーカス値に隣接したフォーカス値に対応する未生成の画像データを生成してもよい。このことは、以下に説明するステップS114,S116,S118においても同様である。
ステップS113:
再生画像生成部68は、フォーカス値バックワードボタン821が押下されたか否かを判断する。押下されたと判断すると再生画像生成部68は、ステップS114の処理を行う。一方、押下されていないと判断すると再生画像生成部68は、ステップS115の処理を行う。
ステップS114:
再生画像生成部68は、作業メモリ31に記憶されているピクセルデータL(u,v,s,t)を基に、フォーカス値を下げた新たな画像データを生成し、これをビデオメモリ41に書き込む。
ステップS115:
再生画像生成部68は、ズームインボタン810が押下されたか否かを判断する。ズームインボタン810が押下されたと判断すると、再生画像生成部68は、ステップS116の処理を行う。ズームインボタン810が押下されていないと判断すると、再生画像生成部68は、ステップS117の処理を行う。
ステップS116:
再生画像生成部68は、再生中の画像をズームインした新たな画像の画像データを生成し、これをビデオメモリ41に書き込む。これにより、図19に示すように、表示部43に表示された全体画像602内の一部の領域にズームイン画像600が表示される。
ステップS117:
再生画像生成部68は、ズームアウトボタン811が押下されたか否かを判断する。ズームアウトボタン811が押下されたと判断すると再生画像生成部68は、ステップS118の処理を行う。ズームアウトボタン811が押下されていないと判断すると再生画像生成部68は、ステップS111の処理を行う。
ステップS118:
再生画像生成部68は、再生中の画像をズームアウトした新たな画像の画像データを生成し、これをビデオメモリ41に書き込む。その後、処理がステップS111に戻る。
プレノプティックカメラで撮像された画像情報からは、図20に示すように、対象物610を右左上下の様々な描画角度から見た画像を生成することができる。すなわち、非特許文献1等に記載されているように、マイクロレンズアレイ25下で、サブアパーチャを通った全ての光線が、対応するピクセルにフォーカスされる。そして、各マイクロレンズアレイ25下のピクセルを選択することで光線情報から、異なる視差のサブアパーチャ画像を生成できる。
[十字操作部830に応じた処理]
図21は、図1(B)に示す十字操作部830が操作された場合の処理を説明するためのフローチャートである。
ステップS121:
再生画像生成部68は、十字操作部830のOKボタン831が押下されているか否かを判断する。OKボタン831が、押下されていると判断すると、再生画像生成部68は、ステップS122(描写角度変更モード)の処理を行う。OKボタンが押下されていないと判断すると、再生画像生成部68は、ステップS124の処理を行う。
ステップS122:
再生画像生成部68は、上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835のいずれかが押下されているかを判断する。何れかの矢印ボタンが押下されていると判断すると、再生画像生成部68は、ステップS123の処理を行う。何れのボタンも押下されていないと判断すると、再生画像生成部68は、ステップS121の処理を行う。
ステップS123:
再生画像生成部68は、表示部43に表示させている再生画像の描写角度を、押下されている上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835で指定された角度方向にした新たな画像データを生成し、これをビデオメモリ41に書き込んで表示部43に画像を表示する。
ステップS124:
再生画像生成部68は、上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835のいずれかが押下されているかを判断する。何れかの矢印ボタンが押下されていると判断すると、再生画像生成部68は、ステップS125(ズームウィンドウ移動モード)の処理を行う。何れのボタンも押下されていないと判断するとステップS121の処理を行う。
ステップS125:
再生画像生成部68は、表示部43に表示されている再生画像内のズームウィンドウを、押下されている上矢印ボタン832、下矢印ボタン833、右矢印ボタン834および左矢印ボタン835に応じた向きに移動させる。
以上説明したように、デジタルカメラ1では、図14等に示すように、指定されたフォーカス値に隣接したフォーカス値に対応する再生画像を、隣接したフォーカス値が実際に指定される前に予め生成して作業メモリ31に記憶する。そのため、後に隣接したフォーカス値が指定された場合に、隣接したフォーカス値に対応する再生画像を短時間で表示部43に表示できる。これにより、フォーカス値を指定して画像を再生する際の応答性を良くできる。
また、デジタルカメラ1では、図1(B)に示すように、フォーカス値フォワードボタン820およびフォーカス値バックワードボタン821をユーザが操作することで、表示部43に表示する再生画像のフォーカス値を離散的に変更できる。これにより、ユーザは、離散的に規定された複数のフォーカス値のうち、任意のフォーカス値に対応した再生画像を簡単な操作で見ることができる。すなわち、一回の撮像を行えば、再生時に、手前や奥に位置する任意の被写体にフォーカスを合わせた多様な再生画像を簡単な操作で表示できる。
また、デジタルカメラ1では、OKボタン831が押下された状態か否かによって十字操作部830に2種類の入力モードを選択できる。これにより、表示部43に表示している再生画像の描画角度の調整操作と、ズームウィンドウの2次元的な移動操作とを少ない操作手段で実現できる。
また、デジタルカメラ1では、4次元の光線情報を含む被符号化画像データTEを、図8および図13等を用いて説明したように、プロセッシングブロックデータPRBKを単位として符号化する。そのため、図5に示す処理部32の符号化処理に伴う負荷を軽減でき、比較的低処理能力のチップを用いることができると共に、作業メモリ31に要求される記憶容量も小さくできる。
また、デジタルカメラ1では、図13等を用いて説明したように、マイクロレンズブロックMLB内のピクセルデータL(u0,v0,s,t)については、同じプロセッシングブロックデータPRBK内の他のピクセルデータL(u0,v0,s,t)と一体となってJPEG符号化される。また、マイクロレンズブロックMLB内のピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)についても、同じプロセッシングブロックデータPRBK内の他のマイクロレンズブロックMLB内のピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)と一体となってLZW符号化される。このとき、JPEG処理における8×8のブロック処理と、プロセッシングブロックPRBKのLZW圧縮処理とを並列に実行する。そのため、デジタルカメラ1によれば、従来のように全ピクセルデータを対象に空間符号化する場合に比べて符号化処理量を少なくできる。そのため、携帯型のプレノプティックカメラへの採用が容易になる。さらに、それぞれのプロセッシングブロックPRBKにおいて、JPEG処理における8×8のブロック処理と、プロセッシングブロックPRBKのLZW圧縮処理とを並列に実行させることにより、符号化処理のスピードが向上する。また、デジタルカメラ1では、ピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)はマイクロレンズブロックMLB内でLZW符号化(可逆符号化)されるため、情報量は失われず、高画質を維持した光線情報の符号化が可能になる。つまり、光線の伝播方向の情報が可逆に符号化されるため、さまざまな焦点にリフォーカスする際に必要な情報が失われずに記録されている。したがって、リフォーカスされた画像は、極めて鮮明である。そのため、デジタルカメラ1によれば、従来のように全ピクセルデータを対象に空間符号化する場合に比べて符号化処理量を少なくできる。従って、携帯型のプレノプティックカメラへの採用が容易になる。
また、デジタルカメラ1では、ピクセルデータL(u0,v0,s,t)以外のピクセルデータL(u,v,s,t)はマイクロレンズブロックMLB内でLZW符号化(可逆符号化)されるため、情報量は失われず、高画質を維持した光線情報の符号化が可能になる。
<第2実施形態>
本実施形態のデジタルカメラは、光学系223が上述した第1実施形態の光学系23とは異なる。以下、光学系223について説明する。
図22は、本実施形態のデジタルカメラの光学系223を説明するための図である。光学系223は、フォーカスレンズ223aおよびズームレンズ223bによって構成されている。この光学系223は、被写体からの光を集光等してマイクロレンズアレイ25に向けて出射する。フォーカスレンズ223aは、光軸に垂直な面が矩形形状をしている。フォーカスレンズ223aは、被写体の各点からの光を、マイクロレンズアレイ25上の一つの収束点に投射する。ズームレンズ223bは、例えば、撮影モードにおいて、ズームインボタン810が押下されるとズームインの向きに移動し、ズームアウトボタン811が押下されるとズームアウトの向きに移動する。
ここで、ズームレンズ223bの光軸に垂直な面の2次元形状は、例えば、図22に示すように、矩形をしている。
本実施形態において、マイクロレンズアレイ25を構成する個々のマイクロレンズの光軸に垂直な面の2次元形状は、フォーカスレンズ223aおよびズームレンズ223bと同様矩形である。
撮像部27は、第1実施形態で説明したように、複数のピクセル(画素)がマトリクス状に配置されて構成されている。
本実施形態では、フォーカスレンズ223a、ズームレンズ223b、並びに個々のマイクロレンズ251を同一形状、すなわち矩形にしたため、個々のマイクロレンズ251に対応するマイクロレンズブロック271内のほぼ全てのピクセルが光線を受光することができる。図24は、本実施形態のこのようなマイクロレンズブロック271の状況を示している。図24に示すように、本実施形態におけるマイクロレンズブロック271は8×8ピクセルから構成されている。このマイクロレンズブロックでは、周辺の28ピクセルが無効、つまり光を受光しないピクセルである。一方、6×6=36のピクセルが光を受光できる、すなわち有効である。
これに対して、図23では、光学系が矩形ではなく円形の場合の受光状況を示している。図23の通り、マイクロレンズブロック271の有効ピクセル数は、24個に減る。すなわち、周辺の多くのピクセルが無効になっている。有効ピクセルの領域はほぼ円形であり、円形の光学系の像である。ここで、有効ピクセルの領域を増やすために、光学系と、マイクロレンズアレイ25や撮像部27の撮像素子の位置を光軸に沿ってずらすと、この光学系を写像している円形の像が、隣接するマイクロレンズブロックの領域にまではみ出してしまうことになる。同様に、マイクロレンズブロック271の周辺のピクセルは、マイクロレンズ251に隣接するマイクロレンズの光を受光してしまうことになり、有用な情報を得られないことになってしまう。
この説明から明らかなように、マイクロレンズブロック内の有効ピクセルの数を最大にするためには、マイクロレンズブロックに写像される光学系の、光軸に垂直な面がマイクロレンズブロックと同一形状でなければならない。すなわち、光学系の形状(厳密には、フォーカスレンズ223aの形状)と、個々のマイクロレンズの形状が同一でなければならない。本実施形態では、この条件を、フォーカスレンズ223aとズームレンズ223bを含む光学系の光軸に垂直な面の2次元形状と、マイクロレンズの形状を矩形にすることにより実現している。
このような条件が満たされると、マイクロレンズブロック内の有効ピクセル数が増すので受光感度が向上される。また、マイクロレンズブロック内のピクセルが描写角度に対応しているので、より多くの周辺のピクセルが有効になることにより描写角度が拡大する、すなわち被写体をより立体的に認識できる。
さらに、光線情報L(u,v,s,t)のデータ量が増すので、いかなるリフォーカス処理(積分、Fourier Slicing)においても、生成画像の鮮明度が向上する。
本実施形態におけるプレノプティックカメラはこのような顕著な効果を得ることができる。
ここで、上述した実施形態では、本発明をデジタルカメラ1に適用した場合を例示したが、撮像機能を備えていない復号装置や表示装置に本発明を適用してもよい。
また、上述した実施形態では、図14等を用いて説明したように、表示中の画像のフォーカス値に隣接するフォーカス値に対応する画像データを生成する場合を例示したが、隣接していないフォーカス値に対応する画像データを予め生成して記憶してもよい。
また、上述した実施形態では、表示中の画像のフォーカス値に隣接しないフォーカス値に対応する画像データを作業メモリ31から消去する場合を例示したが、隣接位置が2以上離れたフォーカス値に対応する画像データを作業メモリ31から消去してもよい。
本実施形態に示したマイクロレンズブロックMLBを構成するピクセルの数、並びにプロセッシングブロックデータPRBKを構成するマイクロレンズブロックMLBの数は一例であり、これらは任意である。
また、上述した実施形態では、フォーカスレンズ23a,223aを移動させてフォーカスを調整可能なカメラを例示したが、本発明の電子カメラは、例えば、単焦点のカメラであってもよい。
また、上述した実施形態では、被写体からの光線をマイクロレンズアレイ25を通して撮像部27のピクセルに結像する場合を例示したが、光線情報を含むようにピクセルに光が入射するものであれば特に限定されない。例えば、被写体からの光線をリフレクタで反射させて撮像部27のピクセルに結像させるものでもよい。
また、上述した実施形態では、DSP等で実現される処理部32を用いて、光線情報を符号化および復号する場合を例示したが、例えば、これらの機能をマイクロプロセッサでプログラムを実行して実現してもよい。この場合には、当該プログラムは、各図で示した各ステップを記述したものになる。
また、上述した第2実施形態において、フォーカスレンズ223a、ズームレンズ223b、個々のマイクロレンズ、並びにピクセルの受光面の形状を矩形にした場合を例示したが、当該矩形は例示であり、これらの形状が同一であれば特に限定されない。
上記の実施形態は、フォーカス値fをベースとしているが、上述したように、フォーカス値fではなく、この値に対応した被写体距離121Eをパラメータgとしてベースにしても良い。この場合、gの単位はメートル(m)で与えられ、例えば図14におけるステップ幅Step=g/10としても良いが、Step=1、つまり1m、とすると、1メートルごとにピントを合わせることができる。
このように、被写体距離を再生処理に用いることにより、ユーザは、カメラから何メートル先にピントが合っているかの情報を得ることができ、より快適なリフォーカス再生を楽しめる。
本発明は、プレノプティックカメラで撮像された画像を復号・符号化するシステム等に適用可能である。
図1は、本発明の第1実施形態に係わるデジタルカメラの外観図である。 図2は、本発明の第1の実施形態に係わるデジタルカメラの全体構成図である。 図3は、図2に示すマイクロレンズアレイと撮像部のピクセルとの関係を説明するための図である。 図4は、マイクロレンズブロックを説明するための図である。 図5は、図2に示す処理部の機能の一部を説明するための機能ブロック図である。 図6は、図5に示すピクセルデータ生成部の処理を説明するためのフローチャートである。 図7は、本発明の実施形態におけるマイクロレンズブロックを説明するための図である。 図8は、本発明の実施形態におけるプロセッシングブロックを説明するための図である。 図9は、本発明の実施形態におけるマイクロレンズブロックの符号化方法を説明するための図である。 図10は、本発明の実施形態に係わる符号化方法で採用されるジグザグスキャンを説明するための図である。 図11は、本発明の実施形態において符号化された画像データを記録するフォーマットを説明するための図である。 図12は、図2に示す撮像部の結像結果に応じた画像データを符号化して作業メモリに書き込む動作を説明するためのフローチャートである。 図13は、図12に示すステップS24の処理を説明するためのフローチャートである。 図14は、本発明の実施形態における再生処理を説明するためのフローチャートである。 図15は、本発明の実施形態における再生処理を説明するための図14の続きのフローチャートである。 図16は、図14および図15に示す再生処理におけるデータの流れを説明するための図である。 図17は、図14に示す再生処理を説明するための図である。 図18は、本発明の実施形態に係わるデジタルカメラの再生時におけるフォーカスおよびズームの調整処理を説明するためのフローチャートである。 図19は、ズームイン画像を説明するための図である。 図20は、プレノプティックカメラで撮像された画像情報から対象物を様々な描画角度から見た画像を生成する場合を説明するための図である。 図21は、図1(B)に示す十字操作部が操作された場合の処理を説明するためのフローチャートである。 図22は、本発明の第2実施形態のデジタルカメラの光学系の構造を説明するための図である。 図23は、光学系が円形で且つ8×8画素の撮像部を用いた場合の有効画素を説明するための図である。 図24は、光学系が矩形で且つ8×8画素の撮像部を用いた場合の有効画素を説明するための図である。 図25は、通常のカメラの原理を説明するための図である。 図26は、従来のカメラとプレノプティックカメラの撮像原理を説明するための図である。
符号の説明
1…デジタルカメラ、22…操作部、23…光学系、23a,223a…フォーカスレンズ、23b,223b…ズームレンズ、25…マイクロレンズアレイ、27…撮像部、29…AFE、31…作業メモリ、32…処理部、35…内部メモリ、39…着脱可能メモリ、41…ビデオメモリ、43…表示部、45…外部I/F、50…ピクセルデータ生成部、51…間引き処理部、53…JPEG符号化部、55…プレノプティック符号化部、57…パススキャン部、59…LZW処理部、61…ヘッダ付加部、63…ヘッダ解釈部、65…JPEG復号部、67…プレノプティック復号部、68…再生画像生成部、810…ズームインボタン、811…ズームアウトボタン、820…フォーカス値フォワードボタン、821…フォーカス値バックワードボタン、830…十字操作部、831…OKボタン、832…上矢印ボタン、833…下矢印ボタン、834…右矢印ボタン、835…左矢印ボタン

Claims (15)

  1. 被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報を復号する復号方法であって、
    被写体撮影時に得られ前記被写体に関連する、符号化された第1の画像情報と前記第1の画像情報とは異なる種類の符号化された第2の画像情報とを復号する復号工程と、
    前記復号された第1の画像情報と第2の画像情報とに基づいて前記光線情報を生成する光線情報生成工程と、
    前記生成された光線情報に基づいて、被写体撮影時の第1のフォーカス値に対応した画像情報を生成する第1の画像生成工程と、
    前記生成された第1のフォーカス値に対応した画像情報を記憶部に記憶する第1の記憶工程と、
    前記生成された前記第1の画像情報に対応した画像を表示する第1の表示工程と、
    前記生成された光線情報に基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像情報を生成する第2の画像生成工程と、
    前記生成された第2のフォーカス値に対応した画像情報を前記記憶部に記憶する第2の記憶工程と、
    を有し、
    前記第2の画像生成工程は、前記第1の表示工程と並行してあるいは前記第1の表示工程よりも前に実行されることを特徴とする復号方法。
  2. ユーザの指示に基づいて、前記記憶された第2のフォーカス値に対応した画像情報を表示する第2の表示工程と、
    前記第2の表示工程と並行して実行され、前記光線情報に基づいて、前記第1のフォーカス値および前記第2のフォーカス値とは異なる第3のフォーカス値に対応した画像情報を生成する第3の画像生成工程と、
    前記生成された第3のフォーカス値に対応した画像情報を前記記憶部に記憶する第3の記憶工程と、
    をさらに有し、
    前記第2の表示工程と前記第3の画像生成工程とは、ユーザの指示に基づいて、繰り返し実行されることを特徴とする請求項1に記載の復号方法。
  3. 前記第1のフォーカス値および前記第2のフォーカス値の各々は、予め離散的に規定された複数のフォーカス値の一つであることを特徴とする請求項1に記載の復号方法。
  4. 前記第2のフォーカス値は、前記第1のフォーカス値に対して近距離側または遠距離側に隣接するフォーカス値であることを特徴とする請求項1または3に記載の復号方法。
  5. ユーザの指示に基づいて、前記第2のフォーカス値として任意のフォーカス値を指定するフォーカス値指定工程をさらに有することを特徴とする請求項1または3に記載の復号方法。
  6. 前記記憶部に記憶されている前記画像情報のうち、前記表示中の画像を生成する基になった画像情報に対応したフォーカス値に隣接していないフォーカス値に対応した画像情報を消去する画像消去工程をさらに有することを特徴とする請求項2または5に記載の復号方法。
  7. 前記各フォーカス値に対応して生成された画像情報の中から、ユーザの指示に従った画像情報を選択する画像選択工程と、
    前記選択された画像情報に対して空間周波数変換に基づく符号化処理を施す符号化工程と、
    前記符号化処理が施された画像情報を記録媒体に記録する記録工程と、
    をさらに有することを特徴とする請求項1または6に記載の復号方法。
  8. 前記復号工程において、前記符号化された第2の画像情報は、前記復号された第1の画像情報に基づいて復号されることを特徴とする請求項1に記載の復号方法。
  9. 前記復号工程において、前記符号化された第1の画像情報は、空間周波数変換に対応した復号処理によって復号され、前記符号化された第2の画像情報は、LZ符号化に対応した復号処理によって復号されることを特徴とする請求項1に記載の復号方法。
  10. 被写体撮影時に得られ、前記被写体に関連する符号化されたサムネイル画像データを復号するサムネイル画像復号工程と、
    前記復号されたサムネイル画像データに対応したサムネイル画像を表示するサムネイル画像表示工程と、
    をさらに有し、
    前記光線情報生成工程は、前記表示されたサムネイル画像が指示選択された後に実行されることを特徴とする請求項1に記載の復号方法。
  11. 被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報に応じた画像データを復号する復号方法であって、
    被写体撮影時に得られ、前記符号化された光線情報を構成する第1の画像情報を復号して、前記画像データを構成する複数の2次元ブロックデータの各々に対応する第1のピクセルデータを生成し、
    前記複数の2次元ブロックデータの各々について、当該2次元ブロックデータの前記第1のピクセルデータに基づいて前記符号化された光線情報を構成する第2の画像情報を復号して、第2のピクセルデータを生成し、
    前記生成した前記第1のピクセルデータと、前記生成した第2のピクセルデータとを基に、被写体撮影時の第1のフォーカス値に対応した画像データを生成し、
    前記生成した第1のフォーカス値に対応した画像データを記憶部に記憶し、
    前記生成した第1のフォーカス値に対応した画像データを表示し、
    前記第1のピクセルデータおよび前記第2のピクセルデータに基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像データを生成し、
    前記生成した第2のフォーカス値に対応した画像データを前記記憶部に記憶する、
    ことを特徴とする復号方法。
  12. 被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報を復号する復号装置であって、
    被写体撮影時に得られ、前記被写体に関連する符号化された第1の画像情報と前記第1の画像情報とは異なる種類の符号化された第2の画像情報とを復号して前記光線情報を生成する復号手段と、
    前記生成された光線情報に基づいて、被写体撮影時の第1のフォーカス値に対応した画像情報を生成して記憶部に記憶させる第1の画像生成手段と、
    前記第1の画像生成手段が生成した前記画像情報に応じた画像を表示する表示手段と、
    前記復号手段が生成した前記光線情報に基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像情報を生成して前記記憶部に記憶させる第2の画像生成手段と、
    を具備することを特徴とする復号装置。
  13. 被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報とを含む符号化された光線情報を復号する復号プログラムであって、
    被写体撮影時に得られ前記被写体に関連する、符号化された第1の画像情報と前記第1の画像情報とは異なる種類の符号化された第2の画像情報とを復号する手順と、
    前記復号された第1の画像情報と第2の画像情報とに基づいて前記光線情報を生成する手順と、
    前記生成された光線情報に基づいて、被写体撮影時の第1のフォーカス値に対応した画像情報を生成する手順と、
    前記生成された第1のフォーカス値に対応した画像情報を記憶部に記憶する手順と、
    前記生成された前記第1の画像情報に対応した画像を表示する手順と、
    前記生成された光線情報に基づいて、前記第1のフォーカス値とは異なる第2のフォーカス値に対応した画像情報を生成する手順と、
    前記生成された第2のフォーカス値に対応した画像情報を前記記憶部に記憶する手順と、
    をコンピュータに実行させるための復号プログラム。
  14. フォーカスレンズと、
    前記フォーカスレンズの焦点位置に配置された複数のマイクロレンズからなるマイクロレンズアレイと、
    前記フォーカスレンズおよび前記複数のマイクロレンズの各々を順に通って形成された被写体像を電気信号に変換する2次元配置された複数のピクセルからなる撮像素子と、
    前記複数のピクセルの受光結果に応じた光線情報を符号化する符号化部と、
    を具備し、
    前記フォーカスレンズの光軸と垂直な面の2次元形状と前記マイクロレンズアレイを構成する各マイクロレンズの2次元形状が略同じであることを特徴とする電子カメラ。
  15. 前記光線情報は、前記フォーカスレンズおよび前記複数のマイクロレンズの各々を通って前記複数のピクセルに入射した被写体からの光線が所定の面に入射した際の該面上での位置情報と前記面に入射した角度情報との情報を含み、
    前記符号化部は、前記光線情報を複数の処理単位ブロックに分割し、前記複数の処理単位ブロックの各々に対して圧縮符号化を施して前記第1の画像情報を構成する第1のブロック単位情報を生成する第1の符号化処理と、前記複数の処理単位ブロックの各々に対して圧縮符号化を施して前記第1の画像情報とは異なる種類の第2の画像情報を構成する第2のブロック単位情報を取得する第2の符号化処理とを前記処理単位ブロック毎に実行することを特徴とする請求項14に記載の電子カメラ。
JP2008025431A 2007-02-09 2008-02-05 復号方法、復号装置、及び復号プログラム Active JP4969474B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008025431A JP4969474B2 (ja) 2007-02-09 2008-02-05 復号方法、復号装置、及び復号プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007030484 2007-02-09
JP2007030484 2007-02-09
JP2008025431A JP4969474B2 (ja) 2007-02-09 2008-02-05 復号方法、復号装置、及び復号プログラム

Publications (3)

Publication Number Publication Date
JP2008219878A true JP2008219878A (ja) 2008-09-18
JP2008219878A5 JP2008219878A5 (ja) 2011-03-17
JP4969474B2 JP4969474B2 (ja) 2012-07-04

Family

ID=39685863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008025431A Active JP4969474B2 (ja) 2007-02-09 2008-02-05 復号方法、復号装置、及び復号プログラム

Country Status (3)

Country Link
US (1) US8103112B2 (ja)
JP (1) JP4969474B2 (ja)
CN (1) CN100585453C (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183316A (ja) * 2009-02-05 2010-08-19 Sony Corp 撮像装置
JP2012142918A (ja) * 2010-12-17 2012-07-26 Canon Inc 撮像装置およびその制御方法
JP2012205111A (ja) * 2011-03-25 2012-10-22 Casio Comput Co Ltd 撮像装置
JP2013042443A (ja) * 2011-08-19 2013-02-28 Canon Inc 画像処理方法、撮像装置、画像処理装置、および、画像処理プログラム
WO2013069292A1 (ja) * 2011-11-10 2013-05-16 パナソニック株式会社 画ブレ補正装置
JP2013110556A (ja) * 2011-11-21 2013-06-06 Olympus Corp プレノプティックカメラ
US8570427B2 (en) 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
WO2013180192A1 (en) * 2012-05-31 2013-12-05 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and program storage medium
JP2014007580A (ja) * 2012-06-25 2014-01-16 Canon Inc 撮像装置およびその制御方法ならびにプログラム
JP2014030181A (ja) * 2012-07-05 2014-02-13 Canon Inc 画像処理装置およびその制御方法、並びにプログラム
JP2014039125A (ja) * 2012-08-14 2014-02-27 Canon Inc 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP2014064214A (ja) * 2012-09-21 2014-04-10 Canon Inc 画像処理装置、制御方法、及びプログラム
JP2014064894A (ja) * 2012-08-15 2014-04-17 Aspect Imaging Ltd 明視野カメラを組み合わせたmri装置
JP2014155008A (ja) * 2013-02-07 2014-08-25 Canon Inc 撮像装置、その制御方法およびプログラム
JP2014220598A (ja) * 2013-05-02 2014-11-20 キヤノン株式会社 画像処理装置及び画像処理方法
JP2014220564A (ja) * 2013-05-01 2014-11-20 キヤノン株式会社 画像再生装置、画像再生方法およびプログラム、並びに撮像装置
WO2015157769A1 (en) * 2014-04-11 2015-10-15 The Regents Of The University Of Colorado, A Body Corporate Scanning imaging for encoded psf identification and light field imaging
US9736380B2 (en) 2014-03-17 2017-08-15 Canon Kabushiki Kaisha Display control apparatus, control method, and storage medium
JP2017524150A (ja) * 2014-07-16 2017-08-24 エーエスエムエル ネザーランズ ビー.ブイ. リソグラフィ装置、デバイス製造方法、並びに関連付けられたデータ処理装置及びコンピュータプログラム製品
JP2018147480A (ja) * 2017-03-08 2018-09-20 株式会社リコー プレノプティック撮像システム用のリアルタイムカラープレビュー生成
US10122988B2 (en) 2014-04-17 2018-11-06 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
US10162165B2 (en) 2014-06-24 2018-12-25 Olympus Corporation Imaging device, image processing device, image processing method, and microscope
US10587798B2 (en) 2012-02-28 2020-03-10 Nikon Corporation Image processing apparatus

Families Citing this family (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620309B2 (en) * 2006-04-04 2009-11-17 Adobe Systems, Incorporated Plenoptic camera
US8570426B2 (en) 2008-11-25 2013-10-29 Lytro, Inc. System of and method for video refocusing
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US8103111B2 (en) * 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US8290358B1 (en) * 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
WO2009020977A1 (en) 2007-08-06 2009-02-12 Adobe Systems Incorporated Method and apparatus for radiance capture by multiplexing in the frequency domain
US7956924B2 (en) * 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US8189065B2 (en) * 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US8155456B2 (en) * 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101588877B1 (ko) 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
WO2010077625A1 (en) * 2008-12-08 2010-07-08 Refocus Imaging, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8908058B2 (en) * 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
US9377776B2 (en) * 2009-06-03 2016-06-28 Mitsubishi Electric Corporation Numerical control apparatus and production system
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
RU2535640C2 (ru) 2009-08-11 2014-12-20 Конинклейке Филипс Электроникс Н.В. Формирование многоспектральных изображений
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US8558915B2 (en) * 2009-12-22 2013-10-15 Samsung Electronics Co., Ltd. Photographing apparatus and method
JP5273033B2 (ja) * 2009-12-25 2013-08-28 株式会社ニコン 撮像装置および画像再生装置
JP5468404B2 (ja) * 2010-02-02 2014-04-09 パナソニック株式会社 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
US8749620B1 (en) 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
US8817015B2 (en) 2010-03-03 2014-08-26 Adobe Systems Incorporated Methods, apparatus, and computer-readable storage media for depth-based rendering of focused plenoptic camera data
EP2569935B1 (en) 2010-05-12 2016-12-28 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8358366B1 (en) 2010-05-28 2013-01-22 Adobe Systems Incorporate Methods and apparatus for high-speed digital imaging
JP2012002923A (ja) * 2010-06-15 2012-01-05 Canon Inc 撮像装置
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8803918B2 (en) 2010-08-27 2014-08-12 Adobe Systems Incorporated Methods and apparatus for calibrating focused plenoptic camera data
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8768102B1 (en) 2011-02-09 2014-07-01 Lytro, Inc. Downsampling light field images
US9030550B2 (en) 2011-03-25 2015-05-12 Adobe Systems Incorporated Thin plenoptic cameras using solid immersion lenses
US8805104B1 (en) * 2011-05-11 2014-08-12 Google Inc. Selecting example-based predictors based on spatial continuity
JP2014519741A (ja) * 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
US8531581B2 (en) 2011-05-23 2013-09-10 Ricoh Co., Ltd. Focusing and focus metrics for a plenoptic imaging system
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9184199B2 (en) 2011-08-01 2015-11-10 Lytro, Inc. Optical assembly including plenoptic microlens array
JP6080417B2 (ja) * 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
US9137441B2 (en) 2012-02-16 2015-09-15 Ricoh Co., Ltd. Spatial reconstruction of plenoptic images
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9607424B2 (en) 2012-06-26 2017-03-28 Lytro, Inc. Depth-assigned content for depth-enhanced pictures
US10129524B2 (en) 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
GB2503656B (en) * 2012-06-28 2014-10-15 Canon Kk Method and apparatus for compressing or decompressing light field images
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
JP6071333B2 (ja) * 2012-08-27 2017-02-01 キヤノン株式会社 画像処理装置、方法およびプログラム、並びに画像処理装置を有する撮像装置
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9207759B1 (en) 2012-10-08 2015-12-08 Edge3 Technologies, Inc. Method and apparatus for generating depth map from monochrome microlens and imager arrays
US8997021B2 (en) 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
CN104184936B (zh) * 2013-05-21 2017-06-23 吴俊辉 基于光场相机的影像对焦处理方法及其系统
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9426343B2 (en) 2013-11-07 2016-08-23 Pelican Imaging Corporation Array cameras incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9538075B2 (en) 2013-12-30 2017-01-03 Indiana University Research And Technology Corporation Frequency domain processing techniques for plenoptic images
JP6321991B2 (ja) * 2014-02-21 2018-05-09 キヤノン株式会社 画像処理装置、制御方法、プログラム、及び記録媒体
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9712820B2 (en) 2014-04-24 2017-07-18 Lytro, Inc. Predictive light field compression
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
WO2016033590A1 (en) 2014-08-31 2016-03-03 Berestka John Systems and methods for analyzing the eye
US9635332B2 (en) 2014-09-08 2017-04-25 Lytro, Inc. Saturated pixel recovery in light-field images
WO2016054089A1 (en) 2014-09-29 2016-04-07 Pelican Imaging Corporation Systems and methods for dynamic calibration of array cameras
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP6355595B2 (ja) * 2015-06-02 2018-07-11 キヤノン株式会社 撮像素子、撮像装置、撮像素子の制御方法、プログラムおよび記憶媒体
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10638812B2 (en) 2017-05-24 2020-05-05 Nike, Inc. Flexible sole for article of footwear
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
CN107483819B (zh) * 2017-08-22 2020-04-07 北京小米移动软件有限公司 对焦方法、对焦装置及电子设备
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
KR20220096624A (ko) * 2020-12-31 2022-07-07 엘지디스플레이 주식회사 표시 장치
CN113124779B (zh) * 2021-04-06 2022-03-08 电子科技大学 一种快速的双向结构光解码方法
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5076687A (en) * 1990-08-28 1991-12-31 Massachusetts Institute Of Technology Optical ranging apparatus
JPH07298062A (ja) * 1994-04-28 1995-11-10 Kyocera Corp データ圧縮・復号方式
JP2000083214A (ja) * 1998-09-03 2000-03-21 Olympus Optical Co Ltd 画像処理装置及び方法
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
JP2001223874A (ja) * 2000-02-04 2001-08-17 Kiyoharu Aizawa 任意焦点画像合成装置及びこれに用いる複数画像同時撮像型カメラ
JP2003235794A (ja) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd 電子内視鏡システム
JP2005149227A (ja) * 2003-11-17 2005-06-09 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラム、情報記録媒体及び撮像装置
WO2006039486A2 (en) * 2004-10-01 2006-04-13 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangements and methods therefor
JP2006140732A (ja) * 2004-11-11 2006-06-01 Fuji Photo Film Co Ltd 画像再生装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5961807A (ja) * 1982-09-30 1984-04-09 Canon Inc 自動焦点制御装置
GB2425363A (en) * 2005-04-18 2006-10-25 Sharp Kk Panoramic adapter with mirrors formed by rotating conic section
KR100749337B1 (ko) * 2006-06-13 2007-08-14 삼성전자주식회사 복수의 카메라렌즈를 구비한 이동통신단말기를 이용한 촬영방법 및 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5076687A (en) * 1990-08-28 1991-12-31 Massachusetts Institute Of Technology Optical ranging apparatus
JPH07298062A (ja) * 1994-04-28 1995-11-10 Kyocera Corp データ圧縮・復号方式
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
JP2000083214A (ja) * 1998-09-03 2000-03-21 Olympus Optical Co Ltd 画像処理装置及び方法
JP2001223874A (ja) * 2000-02-04 2001-08-17 Kiyoharu Aizawa 任意焦点画像合成装置及びこれに用いる複数画像同時撮像型カメラ
JP2003235794A (ja) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd 電子内視鏡システム
JP2005149227A (ja) * 2003-11-17 2005-06-09 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラム、情報記録媒体及び撮像装置
WO2006039486A2 (en) * 2004-10-01 2006-04-13 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangements and methods therefor
JP2006140732A (ja) * 2004-11-11 2006-06-01 Fuji Photo Film Co Ltd 画像再生装置

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8570427B2 (en) 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
JP4706882B2 (ja) * 2009-02-05 2011-06-22 ソニー株式会社 撮像装置
US8325241B2 (en) 2009-02-05 2012-12-04 Sony Corporation Image pickup apparatus that stores adjacent and contiguous pixel data before integration of same
JP2010183316A (ja) * 2009-02-05 2010-08-19 Sony Corp 撮像装置
JP2012142918A (ja) * 2010-12-17 2012-07-26 Canon Inc 撮像装置およびその制御方法
JP2012205111A (ja) * 2011-03-25 2012-10-22 Casio Comput Co Ltd 撮像装置
JP2013042443A (ja) * 2011-08-19 2013-02-28 Canon Inc 画像処理方法、撮像装置、画像処理装置、および、画像処理プログラム
US9070189B2 (en) 2011-11-10 2015-06-30 Panasonic Intellectual Property Management Co., Ltd. Image blurring correction device
WO2013069292A1 (ja) * 2011-11-10 2013-05-16 パナソニック株式会社 画ブレ補正装置
JP2013110556A (ja) * 2011-11-21 2013-06-06 Olympus Corp プレノプティックカメラ
US10587798B2 (en) 2012-02-28 2020-03-10 Nikon Corporation Image processing apparatus
US9712755B2 (en) 2012-05-31 2017-07-18 Canon Kabushiki Kaisha Information processing method, apparatus, and program for correcting light field data
WO2013180192A1 (en) * 2012-05-31 2013-12-05 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and program storage medium
JP2014007730A (ja) * 2012-05-31 2014-01-16 Canon Inc 情報処理方法および装置、プログラム。
JP2014007580A (ja) * 2012-06-25 2014-01-16 Canon Inc 撮像装置およびその制御方法ならびにプログラム
JP2014030181A (ja) * 2012-07-05 2014-02-13 Canon Inc 画像処理装置およびその制御方法、並びにプログラム
JP2014039125A (ja) * 2012-08-14 2014-02-27 Canon Inc 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP2014064894A (ja) * 2012-08-15 2014-04-17 Aspect Imaging Ltd 明視野カメラを組み合わせたmri装置
JP2014064214A (ja) * 2012-09-21 2014-04-10 Canon Inc 画像処理装置、制御方法、及びプログラム
JP2014155008A (ja) * 2013-02-07 2014-08-25 Canon Inc 撮像装置、その制御方法およびプログラム
JP2014220564A (ja) * 2013-05-01 2014-11-20 キヤノン株式会社 画像再生装置、画像再生方法およびプログラム、並びに撮像装置
JP2014220598A (ja) * 2013-05-02 2014-11-20 キヤノン株式会社 画像処理装置及び画像処理方法
US9736380B2 (en) 2014-03-17 2017-08-15 Canon Kabushiki Kaisha Display control apparatus, control method, and storage medium
WO2015157769A1 (en) * 2014-04-11 2015-10-15 The Regents Of The University Of Colorado, A Body Corporate Scanning imaging for encoded psf identification and light field imaging
US10122988B2 (en) 2014-04-17 2018-11-06 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
US10162165B2 (en) 2014-06-24 2018-12-25 Olympus Corporation Imaging device, image processing device, image processing method, and microscope
JP2017524150A (ja) * 2014-07-16 2017-08-24 エーエスエムエル ネザーランズ ビー.ブイ. リソグラフィ装置、デバイス製造方法、並びに関連付けられたデータ処理装置及びコンピュータプログラム製品
US10754258B2 (en) 2014-07-16 2020-08-25 Asml Netherlands B.V. Lithographic apparatus, device manufacturing method and associated data processing apparatus and computer program product
US11169447B2 (en) 2014-07-16 2021-11-09 Asml Netherlands B.V. Lithographic apparatus, device manufacturing method and associated data processing apparatus and computer program product
JP2018147480A (ja) * 2017-03-08 2018-09-20 株式会社リコー プレノプティック撮像システム用のリアルタイムカラープレビュー生成

Also Published As

Publication number Publication date
US20080193026A1 (en) 2008-08-14
CN100585453C (zh) 2010-01-27
JP4969474B2 (ja) 2012-07-04
CN101241235A (zh) 2008-08-13
US8103112B2 (en) 2012-01-24

Similar Documents

Publication Publication Date Title
JP4969474B2 (ja) 復号方法、復号装置、及び復号プログラム
JP5142701B2 (ja) 符号化方法、電子カメラ、符号化プログラム、及び復号方法
JP5854984B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
EP2618585B1 (en) Monocular 3d-imaging device, shading correction method for monocular 3d-imaging device, and program for monocular 3d-imaging device
KR101888470B1 (ko) 촬상 시스템, 촬상 장치, 컴퓨터 프로그램 및 시스템
US9609192B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
US10587860B2 (en) Imaging apparatus and method for controlling same
JP2012253748A (ja) 画像処理装置およびその方法
JP6095266B2 (ja) 画像処理装置及びその制御方法
JP5896680B2 (ja) 撮像装置、画像処理装置、及び画像処理方法
JP6016516B2 (ja) 画像処理装置およびその制御方法、画像処理プログラム、並びに撮像装置
JP5869839B2 (ja) 画像処理装置およびその制御方法
JP5895587B2 (ja) 画像記録装置、画像記録方法、画像再生装置および画像再生方法
JP6138222B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP6735566B2 (ja) 画像管理装置、画像再生装置及びそれらの制御方法、プログラム並びに記憶媒体
WO2024053522A1 (ja) 画像処理装置および画像処理方法
JP2014110442A (ja) 撮像装置
JP6433474B2 (ja) 撮像装置およびその制御方法
JPH01188079A (ja) 固体テレビカメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250