JP2014086968A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2014086968A JP2014086968A JP2012236018A JP2012236018A JP2014086968A JP 2014086968 A JP2014086968 A JP 2014086968A JP 2012236018 A JP2012236018 A JP 2012236018A JP 2012236018 A JP2012236018 A JP 2012236018A JP 2014086968 A JP2014086968 A JP 2014086968A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light field
- processing apparatus
- image processing
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】画像処理装置において、ライトフィールド画像を、汎用性のある復号装置で復号できるフォーマットで効率よく符号化すること。
【解決手段】画像処理装置は、被写体から発出した光の位置と方向を特定可能な情報を含むライトフィールド画像を取得するライトフィールド画像取得手段141と、取得したライトフィールド画像から、画像間の相関が高い画像セットを生成する画像生成手段142と、生成した前記画像セットの各画像を動画のフレームとして出力する動画化手段143と、前記動画化手段143から出力される前記画像セットの各画像を動画として符号化する動画符号化手段144と、を備える。
【選択図】図1
【解決手段】画像処理装置は、被写体から発出した光の位置と方向を特定可能な情報を含むライトフィールド画像を取得するライトフィールド画像取得手段141と、取得したライトフィールド画像から、画像間の相関が高い画像セットを生成する画像生成手段142と、生成した前記画像セットの各画像を動画のフレームとして出力する動画化手段143と、前記動画化手段143から出力される前記画像セットの各画像を動画として符号化する動画符号化手段144と、を備える。
【選択図】図1
Description
本発明は画像処理装置とくにライトフィールド画像の処理を行う画像処理装置、画像処理方法及びプログラムに関する。
プレノプティックカメラ(Plenoptic Camera)で撮像されたライトフィールド(light field)画像を用いて、撮影後にピント位置、絞り設定等を変更した画像を生成する撮像装置及び方法は既に知られている(例えば、特許文献1参照)。なお、ライトフィールド画像とは、通常画像である光線の位置に加え、光線の向きについての情報も持った画像である。
ライトフィールド画像は、最終的に生成される、ピント位置、絞り等が設定される画像に比べ、一般に画素数が多く、データ量が大きいという問題がある。そのため、通常の静止画像の符号化方法では十分でなく、ライトフィールド画像にとくに適合した、つまり専用の符号化処理手段が必要である。
ライトフィールド画像は、最終的に生成される、ピント位置、絞り等が設定される画像に比べ、一般に画素数が多く、データ量が大きいという問題がある。そのため、通常の静止画像の符号化方法では十分でなく、ライトフィールド画像にとくに適合した、つまり専用の符号化処理手段が必要である。
既に知られたライトフィールド画像の符号化処理手段は、ライトフィールド画像に専用の符号化アルゴリズムを使用している。この符号化処理手段は、高い符号化効率が得られる反面、符号化されたライトフィールド画像を扱うために専用の復号装置、ソフトウェアを必要とするため、ユーザにとっては、ライトフィールド画像の活用がしづらいという問題がある。
本発明は、前記従来の問題に鑑みてなされたものであって、ライトフィールド画像の活用にあたって、従来のように、専用の復号装置やソフトウェアを必要とせず、ライトフィールド画像を汎用性のある復号装置などで復号できるフォーマットで効率よく符号化することを目的とする。
本発明は、被写体から発出した光の位置と方向を特定可能な情報を含むライトフィールド画像を取得するライトフィールド画像取得手段と、取得したライトフィールド画像から、画像間の相関が高い画像セットを生成する画像生成手段と、生成した前記画像セットの各画像を動画のフレームとして出力する動画化手段と、前記動画化手段から出力される前記画像セットの各画像を動画として符号化する動画符号化手段と、を備えた画像処理装置である。
本発明によれば、ライトフィールド画像の活用にあたって、従来のように、専用の復号装置やソフトウェアを必要とせず、ライトフィールド画像を汎用性のある復号装置などで復号できるよう、視差画像を生成してこれを動画化することで効率よく符号化することができる。
(第1の実施形態)
次に、本発明の画像処理装置の実施形態について図面を参照して説明する。
図1Aは、本発明の画像処理装置の実施形態である、ライトフィールド画像の符号化システムを概略的に示すブロック図である。
このライトフィールド画像の符号化システムは、以下で説明する他の実施形態も含め、図1Aに示すように、コントローラ1と、コントローラ1に接続された撮像素子2、SDRAM(Synchronous Dynamic Random Access Memory)3、外部ストレージ4とを備えている。
コントローラ1は、CPU(Central Processing Unit)11、SRAM(Static Random Access Memory)12、ROM(Read Only Memory)13、画像処理ブロック14、SDRAMI/F(interface)15、外部ストレージI/F16を備えている。
次に、本発明の画像処理装置の実施形態について図面を参照して説明する。
図1Aは、本発明の画像処理装置の実施形態である、ライトフィールド画像の符号化システムを概略的に示すブロック図である。
このライトフィールド画像の符号化システムは、以下で説明する他の実施形態も含め、図1Aに示すように、コントローラ1と、コントローラ1に接続された撮像素子2、SDRAM(Synchronous Dynamic Random Access Memory)3、外部ストレージ4とを備えている。
コントローラ1は、CPU(Central Processing Unit)11、SRAM(Static Random Access Memory)12、ROM(Read Only Memory)13、画像処理ブロック14、SDRAMI/F(interface)15、外部ストレージI/F16を備えている。
電子カメラ(ここではプレノプティックカメラ)による撮影時、撮像素子2によってデジタル化された画像データは、コントローラ1の画像処理ブロック14に入力される。入力された画像データは、画像処理ブロック14、CPU11、SRAM12、SDRAM3等を使って画像処理され、最終的に外部ストレージ4に保存される。
図1Bは、図1Aの画像処理ブロック14の内部構造を示すブロック図である。
画像処理ブロック14は、CPU11にROM13に格納されたプログラムを読み込ませることで実現する機能実現手段である。画像処理ブロック14は、具体的には、ライトフィールド画像取得手段141と、画像生成手段142と、動画化手段143と、動画符号化手段144と、高解像度化処理手段145と、から成っている。
画像処理ブロック14は、CPU11にROM13に格納されたプログラムを読み込ませることで実現する機能実現手段である。画像処理ブロック14は、具体的には、ライトフィールド画像取得手段141と、画像生成手段142と、動画化手段143と、動画符号化手段144と、高解像度化処理手段145と、から成っている。
ここで、ライトフィールド画像取得手段141は、プレノプティックカメラの光学系から或いは外部ストレージ4から撮影したライトフィールド画像を取得する。
画像生成手段142は、ライトフィールド画像取得手段141で取得した光の位置と方向を特定可能な情報に基づき、異なる光の位置毎に、当該位置を通過する光の前記情報を集めて、取得したライトフィールド画像から複数の画像間の相関が高い、例えば視差画像を生成する。
画像生成手段142は、ライトフィールド画像取得手段141で取得した光の位置と方向を特定可能な情報に基づき、異なる光の位置毎に、当該位置を通過する光の前記情報を集めて、取得したライトフィールド画像から複数の画像間の相関が高い、例えば視差画像を生成する。
動画化手段143は、画像生成手段142で生成した視差画像の各画像に対し、後述するフレーム順指定表に従って、各視差画像間の相関が高くなるように順位を付した相関画像を生成する。また、動画化手段143は、生成した複数の相関画像から、相関が高い順に画像を動画のフレームに見立てて(つまり、フレームとして)読み出して動画符号化手段144に送り出す。なお、この場合、視差画像であるため画像間に高い相関を与えることができる。
動画符号化手段144は、動画化手段143から送られてきた画像を、動画用として汎用的に用いられている、例えば、MPEG2(Moving Picture Experts Group phase 2)、MPEG4(Moving Picture Experts Group phase 4)系統の動画符号化方式等により符号化する。
動画符号化手段144は、動画化手段143から送られてきた画像を、動画用として汎用的に用いられている、例えば、MPEG2(Moving Picture Experts Group phase 2)、MPEG4(Moving Picture Experts Group phase 4)系統の動画符号化方式等により符号化する。
図2Aは、プレノプティックカメラの光学系を模式的に示す図であり、図2Bは図2Aの円で囲ったマイクロレンズアレイ22の一部拡大図である。
撮像レンズ、ここではメインレンズ20は、物体からの光をマイクロレンズアレイ22上に結像するように働く。そのため、撮影時には、撮影する物体までの距離によってピントを合わせる。即ち、メインレンズ20とマイクロレンズアレイ22の距離の調整を行う。マイクロレンズアレイ22は、複数のマイクロレンズ22bが2次元状に配置されており、各マイクロレンズ22bに対し、撮像素子2の複数画素が対応する。
撮像レンズ、ここではメインレンズ20は、物体からの光をマイクロレンズアレイ22上に結像するように働く。そのため、撮影時には、撮影する物体までの距離によってピントを合わせる。即ち、メインレンズ20とマイクロレンズアレイ22の距離の調整を行う。マイクロレンズアレイ22は、複数のマイクロレンズ22bが2次元状に配置されており、各マイクロレンズ22bに対し、撮像素子2の複数画素が対応する。
撮像素子2は、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)でできており、メインレンズ20、マイクロレンズアレイ22を通った光が投射される。ここで、各マイクロレンズアレイ22に対応する複数画素を画素ブロック2a(図3)とする。
図2の破線は、被写体である物体面上の特定点Aより発出された光の経路を模式的に示す。ここで、物体面とは、撮影時にピント合わせを行う面である。特定点Aより発出された光は、メインレンズ20によりマイクロレンズアレイ22の位置で結像するように屈折され、マイクロレンズアレイ22によって、入射角に応じた光路に分けられて撮像素子2に投射される。
図2の破線は、被写体である物体面上の特定点Aより発出された光の経路を模式的に示す。ここで、物体面とは、撮影時にピント合わせを行う面である。特定点Aより発出された光は、メインレンズ20によりマイクロレンズアレイ22の位置で結像するように屈折され、マイクロレンズアレイ22によって、入射角に応じた光路に分けられて撮像素子2に投射される。
従って、マイクロレンズアレイ22面における光の位置と方向が特定できる。即ち、撮像素子2上の各画素ブロック2a(図3B)に対して、光がどの画素ブロック2aに属しているかで物体面の位置が判断できる。また、画素ブロック2a内のどの位置(画素2ap(図3))にあるかで、マイクロレンズアレイ22面における光の方向を判断することができる。
また、図2から明らかなように、マイクロレンズアレイ22面での光の方向は、メインレンズ20面での通過位置20a(20a1・・・20an)と対応付けられる。そのため、画素ブロック2a内の各画素2apの位置情報は、メインレンズ20面での通過位置20a(20a1・・・20an)を示す情報と解することもできる。即ち、メインレンズ20面での通過位置20a(20a1・・・20an)と、マイクロレンズアレイ22面での通過位置22a(22a1・・・22an)を情報として持つという解釈が成り立つ。
このように、光の「位置」と「方向」を特定可能な情報を取得することができる光学系を、ここではライトフィールド光学系と呼ぶ。ライトフィールド画像はライトフィールド光学系により撮影した画像である。
なお、図2では、メインレンズ20として1枚のレンズを示しているが、必ずしも1枚である必要はなく、複数のレンズを組み合わせて、メインレンズ20としての機能を果たすような構成も当然考えられる。
このように、光の「位置」と「方向」を特定可能な情報を取得することができる光学系を、ここではライトフィールド光学系と呼ぶ。ライトフィールド画像はライトフィールド光学系により撮影した画像である。
なお、図2では、メインレンズ20として1枚のレンズを示しているが、必ずしも1枚である必要はなく、複数のレンズを組み合わせて、メインレンズ20としての機能を果たすような構成も当然考えられる。
図3Aは、マイクロレンズアレイ22の正面図であり、図3Bは、各マイクロレンズアレイ22に対応する撮像素子2の画素ブロック2aの正面図である。
本実施形態では、マイクロレンズアレイ22は、水平方向に16個、垂直方向に12個の2次元で配列した192個のマイクロレンズ22bで構成されている。また、各マイクロレンズ22bに対応する画素ブロック2aは、9×9の計81個の画素2apで構成されている。
本実施形態では、マイクロレンズアレイ22は、水平方向に16個、垂直方向に12個の2次元で配列した192個のマイクロレンズ22bで構成されている。また、各マイクロレンズ22bに対応する画素ブロック2aは、9×9の計81個の画素2apで構成されている。
図3Aでは、マイクロレンズアレイ22における各マイクロレンズ22bの位置を表す座標系として横軸にs、縦軸にtを採った(s、t)座標系を定義している。また、図3Bでは、各マイクロレンズ22bに対応する画素ブロック2a内の画素2apの位置を表す座標系として、横軸にu、縦軸にvを採った(u、v)座標系を定義している。
ここで、図2に関連して説明したように、位置座標(s、t)は物体(被写体)面での光線のメインレンズ20面での通過位置20a(20a1・・・20an)に対応している。また、位置座標(u、v)は、マイクロレンズアレイ22面での通過位置22a(22a1・・・22an)に対応している。
図3A中、黒塗りの部分はマイクロレンズアレイ22の各マイクロレンズ22bによるケラレが発生している部分であり、実際には、白い部分でのみシーン(被写体)に関する情報が撮影される。図3B中では、マイクロレンズ22bの黒塗りの部分の影響で、全体が9×9=81個の画素2ap中、白い部分の49個の画素2apのみにシーンの光(情報)が到達する。
なお、マイクロレンズアレイ22を構成するマイクロレンズ22bの数、各マイクロレンズ22bに対応する画素ブロック2aの画素数等は、用途に応じて自由に変更することができる。
図3A中、黒塗りの部分はマイクロレンズアレイ22の各マイクロレンズ22bによるケラレが発生している部分であり、実際には、白い部分でのみシーン(被写体)に関する情報が撮影される。図3B中では、マイクロレンズ22bの黒塗りの部分の影響で、全体が9×9=81個の画素2ap中、白い部分の49個の画素2apのみにシーンの光(情報)が到達する。
なお、マイクロレンズアレイ22を構成するマイクロレンズ22bの数、各マイクロレンズ22bに対応する画素ブロック2aの画素数等は、用途に応じて自由に変更することができる。
図4は、第1の実施形態における画像処理の手順を説明するフロー図である。
次に、図4を参照して、画像(ライトフィールド画像)入力後、この画像を外部ストレージ4に保存するまでの処理の手順を説明する。
まず、第1ステップでは、ライトフィールド画像取得手段141が、ライトフィールド光学系により撮影したライトフィールド画像を取得する(S101)。すなわち、ライトフィールド光学系を備えたデジタルカメラ(プレノプティックカメラ)で、シャッターボタンを押すことにより撮像素子2が取り込んだ画像を取得する。第2ステップでは、デジタルカメラにおいて基本的な処理である、ベイヤー補間処理、ガンマ変換処理を行い(S102)、カラー画像に変換する。撮像素子2が撮り込んだ画像は、そのままではモノクロ画像であるが、各画素はベイヤー配列により異なる色を検出している。
次に、図4を参照して、画像(ライトフィールド画像)入力後、この画像を外部ストレージ4に保存するまでの処理の手順を説明する。
まず、第1ステップでは、ライトフィールド画像取得手段141が、ライトフィールド光学系により撮影したライトフィールド画像を取得する(S101)。すなわち、ライトフィールド光学系を備えたデジタルカメラ(プレノプティックカメラ)で、シャッターボタンを押すことにより撮像素子2が取り込んだ画像を取得する。第2ステップでは、デジタルカメラにおいて基本的な処理である、ベイヤー補間処理、ガンマ変換処理を行い(S102)、カラー画像に変換する。撮像素子2が撮り込んだ画像は、そのままではモノクロ画像であるが、各画素はベイヤー配列により異なる色を検出している。
ここで、ベイヤー配列とは、撮像素子2上で、レッド(R)、グリーン(G)、ブルー(B)の3色のフィルターが、画素毎にRGRGRGRG・・・と並ぶラインと、GBGBGBGB・・・と並ぶラインが交互に配置されていることを云う。撮像素子2が撮り込んだ画像に対し、ベイヤー補間処理を行うことで、当該画像を画素毎にRGB3色の値を持つカラー画像に変換する。次にガンマ変換処理をすることで、人間の眼が線形に感じるような特性にRGBの特性を変換する。
なお、当然のことであるが、ベイヤー配列画像、もしくはカラー画像に適用可能なその他の画像処理をこのステップで適用することもできる。また、ベイヤー配列でない撮像素子2を使用した場合にも、ベイヤー補間処理をしない、もしくは別の適切な処理に変更することで、カラー画像を取得することができる。
なお、当然のことであるが、ベイヤー配列画像、もしくはカラー画像に適用可能なその他の画像処理をこのステップで適用することもできる。また、ベイヤー配列でない撮像素子2を使用した場合にも、ベイヤー補間処理をしない、もしくは別の適切な処理に変更することで、カラー画像を取得することができる。
第3ステップでは、画像生成手段142は、カラー化されたライトフィールド画像から複数の視差画像を生成する(S103)。視差画像の生成方法については後述する。
第4ステップでは、動画化手段143は、各視差画像を動画のフレームに見立てて、動画出力する(S104)。具体的には、各視差画像に相関が高い順に順序を定めて、所定のフレームレート(例えば30fps(frames per second))で順に画像を出力する。
第5ステップでは、動画符号化手段144は、第4ステップで出力された動画像を受け取って動画符号化処理を行う(S105)。動画に適した符号化としては、時間方向の相関の高さを利用したMPEG2、MPEG4系統の動画符号化方式を用いることができる。もちろん、その他の一般的な、つまり汎用性のある動画符号化方式を使用してもよい。
第6ステップでは、動画として符号化された複数の視差画像を外部ストレージ4に保存する(S106)。
第4ステップでは、動画化手段143は、各視差画像を動画のフレームに見立てて、動画出力する(S104)。具体的には、各視差画像に相関が高い順に順序を定めて、所定のフレームレート(例えば30fps(frames per second))で順に画像を出力する。
第5ステップでは、動画符号化手段144は、第4ステップで出力された動画像を受け取って動画符号化処理を行う(S105)。動画に適した符号化としては、時間方向の相関の高さを利用したMPEG2、MPEG4系統の動画符号化方式を用いることができる。もちろん、その他の一般的な、つまり汎用性のある動画符号化方式を使用してもよい。
第6ステップでは、動画として符号化された複数の視差画像を外部ストレージ4に保存する(S106)。
次に、図4における第3ステップ(S103)で画像生成手段142によって実施される視差画像生成について、図5に示す視差画像生成の手順を示すフロー図を用いて説明する。
第1ステップでは、画素ブロック2a内の位置座標(u、v)に、例えば図3Aにおいて、初期値(u0、v0)を設定する(S201)。なお、ここでu0=0、v0=0とする。
第2ステップでは、各マイクロレンズ画像(本実施形態では192個)から、それぞれ位置座標が初期値(u0、v0)である画素2apの画素値を抽出し、図3Aに示すマイクロレンズ位置座標(s、t)に従って並べて画像化する。即ち、全て初期値(u0、v0)に基づく1つの画像を形成する(S202)。この操作を、位置座標(u8、v0)にある画素2apまで実行して、本実施形態では9個の画像を形成する。但し、図3Aの例では、実際に画像が形成されるのは、位置座標(u4、v0)の画像だけである。
第1ステップでは、画素ブロック2a内の位置座標(u、v)に、例えば図3Aにおいて、初期値(u0、v0)を設定する(S201)。なお、ここでu0=0、v0=0とする。
第2ステップでは、各マイクロレンズ画像(本実施形態では192個)から、それぞれ位置座標が初期値(u0、v0)である画素2apの画素値を抽出し、図3Aに示すマイクロレンズ位置座標(s、t)に従って並べて画像化する。即ち、全て初期値(u0、v0)に基づく1つの画像を形成する(S202)。この操作を、位置座標(u8、v0)にある画素2apまで実行して、本実施形態では9個の画像を形成する。但し、図3Aの例では、実際に画像が形成されるのは、位置座標(u4、v0)の画像だけである。
ここでは、この画像化処理を、位置座標v(v0)を一定にして位置座標uをu0からu8まで更新にして順次実行する。つまり、全ての位置座標uについて画像化処理が完了するまでは(S203、NO)、位置座標uの値を順次更新(ここではu0からu8まで更新)しながら(S204)、ステップS202の処理を繰り返す。
対象となる全ての位置座標uについて画像化処理が完了し(S203、YES)、しかし全ての位置座標vについての画像化処理は未だ完了していなければ、(S205、NO)、位置座標vを更新(ここではv0をv1に更新)する(S206)。次に、位置座標v1を一定にして、ステップS202〜S204の処理を繰り返す。この場合は、図3Bに示すように、実際に画像が形成されるのは、位置座標(u2、v1)から位置座標(u6、v1)までの5個である。
対象となる全ての画素2apについて画像化処理が終了したときは(S205、YES)、この処理を終了する。
対象となる全ての位置座標uについて画像化処理が完了し(S203、YES)、しかし全ての位置座標vについての画像化処理は未だ完了していなければ、(S205、NO)、位置座標vを更新(ここではv0をv1に更新)する(S206)。次に、位置座標v1を一定にして、ステップS202〜S204の処理を繰り返す。この場合は、図3Bに示すように、実際に画像が形成されるのは、位置座標(u2、v1)から位置座標(u6、v1)までの5個である。
対象となる全ての画素2apについて画像化処理が終了したときは(S205、YES)、この処理を終了する。
本実施形態では、マイクロレンズ22bは水平方向に16個、垂直方向に12個並んでいるため、横方向16画素、縦方向12画素の画像が生成される。生成された画像は、それぞれが同じ位置座標(u、v)に基づくものである。従って、得られる画像は、メインレンズ20面の同じ位置を通過した光を検知した画素2apの画素値でできている。
ここで生成された複数の画像は、各々がメインレンズ20面の異なる位置を視点とする画像、すなわち、視差画像と云うことができる。
ここで生成された複数の画像は、各々がメインレンズ20面の異なる位置を視点とする画像、すなわち、視差画像と云うことができる。
次に、以上のようにして得られた視差画像を動画化すること、つまり、図4における第4ステップ(S104)で、動画化手段143によって実施される視差画像の動画化について、図6を参照して説明する。
図6は、以上のようにして位置座標(u、v)毎に生成した複数(本実施形態では49個)の視差画像(1セットの視差画像群)を、それぞれの位置座標(u、v)に従って並べた図であり、各ブロックBがそれぞれ視差画像である。各ブロックBに記載した数字は、動画化の際のフレーム順位(又は順序)を示すフレーム番号である。
図6は、以上のようにして位置座標(u、v)毎に生成した複数(本実施形態では49個)の視差画像(1セットの視差画像群)を、それぞれの位置座標(u、v)に従って並べた図であり、各ブロックBがそれぞれ視差画像である。各ブロックBに記載した数字は、動画化の際のフレーム順位(又は順序)を示すフレーム番号である。
ここで、視差画像を動画化する目的は、動画に適した汎用性のある動画符号化方式を利用するためである。この動画符号化方式においては、各フレーム間で相関の高い画像が並んでいることを利用して符号化する方式が多い。そこで、本実施形態においても、フレーム間の相関ができる限り高くなるように、フレームの並び順を決めるのが望ましい。
ここでは、位置座標(u、v)の差が大きいほど視差が大きくなり、相関も低くなるため、位置座標(u、v)の差が可能な限り小さくなるような順序として、図6において、中心から渦巻き状にフレーム順を定めている。
ただし、前記複数の視差画像は、本質的に各画像間で相関が高いため、フレームの並び順については、より単純に決定することもできる。例えば、(u、v)=(0、0)をスタートに、まずはuの値を増やし、(u、v)=(8、0)となれば、次はvを増やして(u、v)=(0、1)とし、またuを増やす、といった単純な順序でもよい。
ここでは、位置座標(u、v)の差が大きいほど視差が大きくなり、相関も低くなるため、位置座標(u、v)の差が可能な限り小さくなるような順序として、図6において、中心から渦巻き状にフレーム順を定めている。
ただし、前記複数の視差画像は、本質的に各画像間で相関が高いため、フレームの並び順については、より単純に決定することもできる。例えば、(u、v)=(0、0)をスタートに、まずはuの値を増やし、(u、v)=(8、0)となれば、次はvを増やして(u、v)=(0、1)とし、またuを増やす、といった単純な順序でもよい。
ここで、フレーム順と位置座標(u、v)は、図6に示すフレーム順となるように、予め作成したフレーム順指定表で指定するのが望ましい。
図7は、このフレーム順指定表である。即ち、1画素ブロック7×7=49個の差分画像にフレーム番号1〜49を割り振り、これらを画素ブロック2aの図3Bで左上を原点座標(0、0)として、それぞれの位置座標(u、v)を対応させている。その上で、図6に示すように、画素ブロック2aの中心画素の位置座標(4、4)に対応する差分画像の順位を1として、そこから右巻きに、螺旋状に並んだ差分画像の順に、動画化フレームの49までの順位を指定している。
図7は、このフレーム順指定表である。即ち、1画素ブロック7×7=49個の差分画像にフレーム番号1〜49を割り振り、これらを画素ブロック2aの図3Bで左上を原点座標(0、0)として、それぞれの位置座標(u、v)を対応させている。その上で、図6に示すように、画素ブロック2aの中心画素の位置座標(4、4)に対応する差分画像の順位を1として、そこから右巻きに、螺旋状に並んだ差分画像の順に、動画化フレームの49までの順位を指定している。
(第2の実施形態)
図8は、第2の実施形態における画像生成手段142による視差画像生成および動画化手段143による、生成した視差画像の動画化のための処理手順を示すフロー図である。
第1の実施形態では、まず全ての視差画像を生成してから動画化している。しかし、本実施形態では、画像生成手段142は、動画化する際のフレーム順に視差画像を生成し、動画化手段143は、視差画像を生成する毎に動画のフレーム画像として、次工程の動画符号化処理に対して出力する。
図8は、第2の実施形態における画像生成手段142による視差画像生成および動画化手段143による、生成した視差画像の動画化のための処理手順を示すフロー図である。
第1の実施形態では、まず全ての視差画像を生成してから動画化している。しかし、本実施形態では、画像生成手段142は、動画化する際のフレーム順に視差画像を生成し、動画化手段143は、視差画像を生成する毎に動画のフレーム画像として、次工程の動画符号化処理に対して出力する。
次に、この処理について図8を参照して説明する。
第1ステップ(S301)では、画像生成手段142は、フレーム番号iに1を設定する。その後、第2ステップに進む。第2ステップでは、図7に示したフレーム順指定表を参照し、フレーム番号(i=1)に対応する画素ブロック2a内の位置座標(u、v)(=(u4、v4))を設定する(S302)。
第3ステップでは、各画素ブロック2a(マイクロレンズ画像)から、設定された位置座標(u、v)(=(u4、v4))の画素値を抽出し、各画素ブロック2aが持つマイクロレンズの位置座標(s、t)に従って並べ、画像化する(S303)。
第1ステップ(S301)では、画像生成手段142は、フレーム番号iに1を設定する。その後、第2ステップに進む。第2ステップでは、図7に示したフレーム順指定表を参照し、フレーム番号(i=1)に対応する画素ブロック2a内の位置座標(u、v)(=(u4、v4))を設定する(S302)。
第3ステップでは、各画素ブロック2a(マイクロレンズ画像)から、設定された位置座標(u、v)(=(u4、v4))の画素値を抽出し、各画素ブロック2aが持つマイクロレンズの位置座標(s、t)に従って並べ、画像化する(S303)。
生成された49個の画像は、同じ位置座標(u、v)の値を持つ画素2ap、即ち、メインレンズ20面の同じ位置を通過した光を検知した画素2apでできている。従って、メインレンズ20面の特定の位置を視点とする視差画像と見なすことができる。
第4ステップでは、動画化手段143は、生成した視差画像を動画のiフレーム目の画像として出力する(S304)。
第4ステップでは、動画化手段143は、生成した視差画像を動画のiフレーム目の画像として出力する(S304)。
第5ステップでは、全てのフレーム番号iに対する処理が完了したか否かを判定する(S305)。処理が完了していなければ(S305、NO)、第6ステップで、フレーム番号iが更新される(S306)。
ステップS305では、図7のフレーム順指定表のフレーム番号は49までであるから、i≦49であればNO、そうでなければYESとすればよい。ここで処理完了であれば(S305、YES)全体の処理も完了する。
ステップS305では、図7のフレーム順指定表のフレーム番号は49までであるから、i≦49であればNO、そうでなければYESとすればよい。ここで処理完了であれば(S305、YES)全体の処理も完了する。
本実施形態では、動画化する際のフレーム順にしたがって視差画像を生成し、作成する毎に動画のフレーム画像として、次工程の動画符号化処理に対して出力する。
これに対し、第1の実施形態では、まず全ての視差画像を生成してから動画化しているため、全ての視差画像を保存するメモリが必要である。しかし、本実施形態では、生成した視差画像をそのまま動画フレームとして出力するため、視差画像を保存するためのメモリは1画像分で済むという利点がある。
これに対し、第1の実施形態では、まず全ての視差画像を生成してから動画化しているため、全ての視差画像を保存するメモリが必要である。しかし、本実施形態では、生成した視差画像をそのまま動画フレームとして出力するため、視差画像を保存するためのメモリは1画像分で済むという利点がある。
(第3の実施形態)
ライトフィールド画像は、複数の視差画像に相当するデータを1回の撮影で取得するため、1つの視差画像の解像度は小さくなることが多い。そのため、高解像度化をする必要がある。
そこで、第3の実施形態は、第1及び第2或いは後述する第4の実施形態に係る画像処理装置において、視差画像の高解像度化処理を行うための高解像度化処理手段145を備えたものである。
ライトフィールド画像は、複数の視差画像に相当するデータを1回の撮影で取得するため、1つの視差画像の解像度は小さくなることが多い。そのため、高解像度化をする必要がある。
そこで、第3の実施形態は、第1及び第2或いは後述する第4の実施形態に係る画像処理装置において、視差画像の高解像度化処理を行うための高解像度化処理手段145を備えたものである。
図9は、第3の実施形態の視差画像生成および動画化の処理手順を示すフロー図である。
本実施形態は、例えば、第2の実施形態の視差画像生成および動画化のフローに対し、高解像度化処理手段145による高解像度化処理(第4、第5ステップ(S404、S405))を追加している。その他の処理は、第2の実施形態と同様であるので説明を省略する。
ここで、高解像度化する方法としては、ニアレストネイバー法、バイリニア法、バイキュービック法等の補間法(画像補間アルゴリズム)を用いた拡大処理を行う処理方法を用いることができる。また、超解像処理と呼ばれるより複雑で高度な高解像度化処理を用いることも有効である。
なお、第1の実施形態においても、第2ステップS202の後に前記高解像度化処理を追加することができる。
本実施形態は、例えば、第2の実施形態の視差画像生成および動画化のフローに対し、高解像度化処理手段145による高解像度化処理(第4、第5ステップ(S404、S405))を追加している。その他の処理は、第2の実施形態と同様であるので説明を省略する。
ここで、高解像度化する方法としては、ニアレストネイバー法、バイリニア法、バイキュービック法等の補間法(画像補間アルゴリズム)を用いた拡大処理を行う処理方法を用いることができる。また、超解像処理と呼ばれるより複雑で高度な高解像度化処理を用いることも有効である。
なお、第1の実施形態においても、第2ステップS202の後に前記高解像度化処理を追加することができる。
(第4の実施形態)
図10は、第4の実施形態の光学系の構成について説明する図である。
本実施形態は、第1の実施形態と光学系の構成が異なっている。
即ち、第1の実施形態の光学系では、物体から発出した光は、メインレンズ20を通ってマイクロレンズアレイ22上で結像する。一方、本実施形態では、図10に示すように、物体から発出した光は、メインレンズ20を通ってマイクロレンズアレイ22に達する前に一度結像し、マイクロレンズアレイ22を通って最終的に撮像素子2上で再度結像する。但し、物体から発出した光は、光線の方向により、撮像素子2上の複数の画素2apに分かれて結像する。
図10は、第4の実施形態の光学系の構成について説明する図である。
本実施形態は、第1の実施形態と光学系の構成が異なっている。
即ち、第1の実施形態の光学系では、物体から発出した光は、メインレンズ20を通ってマイクロレンズアレイ22上で結像する。一方、本実施形態では、図10に示すように、物体から発出した光は、メインレンズ20を通ってマイクロレンズアレイ22に達する前に一度結像し、マイクロレンズアレイ22を通って最終的に撮像素子2上で再度結像する。但し、物体から発出した光は、光線の方向により、撮像素子2上の複数の画素2apに分かれて結像する。
本実施形態においても、撮影されたライトフィールド画像は、基本的には、マイクロレンズアレイ22面上の光の位置と方向が特定できる画像であることには変わりはない。そのため、動画符号化するまでの処理は、前記実施形態と同様の方法を用いることができる。
ただし、本実施形態における動画フレームとしての各画像は、前記実施形態1〜3のマイクロレンズ22bで生成した各画像と異なり、必ずしも視差画像とは呼べない。しかし、本実施形態における前記各画像も全体として画像間の相関が高い1セットの画像群を構成するため、動画フレームとするのに適している。そこで、ここでは、これらを総称して、画像間の相関が高い画像セットと呼ぶ。
なお、光学系は以上で説明したものに限らず他の周知の光学系を採用することができる。つまり、ライトフィールド画像、すなわち光の位置と方向を特定可能な画像を取得することが可能な光学系であれば、いかなる構成を用いてもよい。マイクロレンズアレイ22を使わない方法であっても、例えば、マイクロレンズアレイ22の代わりにピンホール(小さな穴)アレイを使うことも可能である。
ただし、本実施形態における動画フレームとしての各画像は、前記実施形態1〜3のマイクロレンズ22bで生成した各画像と異なり、必ずしも視差画像とは呼べない。しかし、本実施形態における前記各画像も全体として画像間の相関が高い1セットの画像群を構成するため、動画フレームとするのに適している。そこで、ここでは、これらを総称して、画像間の相関が高い画像セットと呼ぶ。
なお、光学系は以上で説明したものに限らず他の周知の光学系を採用することができる。つまり、ライトフィールド画像、すなわち光の位置と方向を特定可能な画像を取得することが可能な光学系であれば、いかなる構成を用いてもよい。マイクロレンズアレイ22を使わない方法であっても、例えば、マイクロレンズアレイ22の代わりにピンホール(小さな穴)アレイを使うことも可能である。
なお、以上の説明では、本画像処理装置は全てライトフィールド光学系を備えたものとして説明したが、必ずしもこれに限定されない。例えば、ライトフィールド光学系を備えず、ライトフィールド画像を予め蓄積しておいて、それを読み出すようにしてもよい。この場合は、ライトフィールド画像の蓄積手段として例えば外部ストレージ4を用いることができる。
以上、本実施形態によれば、汎用的な動画符号化方式を用いることができるため、復号装置、ソフトウェアの入手が、専用の符号化処理手段を用いた従来の画像処理装置よりも容易になり、様々な人がライトフィールド画像を容易に活用することができる。
1・・・コントローラ、2・・・撮像素子、3・・・SDRAM、4・・・外部ストレージ、11・・・CPU、12・・・SRAM、13・・・ROM、14・・・画像処理ブロック、141・・・ライトフィールド画像取得手段、142・・・画像生成手段、143・・・動画化手段、144・・・動画符号化手段、145・・・高解像度化処理手段、15・・・SDRAMI/F、16・・・外部ストレージI/F、20・・・メインレンズ、22・・・マイクロレンズアレイ、22b・・・マイクロレンズ、2a・・・画素ブロック、2ap・・・画素、B・・・ブロック。
Claims (9)
- 被写体から発出した光の位置と方向を特定可能な情報を含むライトフィールド画像を取得するライトフィールド画像取得手段と、
取得したライトフィールド画像から、画像間の相関が高い画像セットを生成する画像生成手段と、
生成した前記画像セットの各画像を動画のフレームとして出力する動画化手段と、
前記動画化手段から出力される前記画像セットの各画像を動画として符号化する動画符号化手段と、
を備えた画像処理装置。 - 請求項1に記載された画像処理装置において、
前記画像生成手段は、ライトフィールド画像の前記光の位置と方向を特定可能な情報に基づき、異なる光の位置毎に、当該位置を通過する光の前記情報を集めて前記画像間の相関が高い画像セットを生成する画像処理装置。 - 請求項1又は2に記載された画像処理装置において、
前記画像間の相関が高い画像セットは、前記取得したライトフィールド画像から生成する複数の視差画像である画像処理装置。 - 請求項3に記載された画像処理装置において、
前記画像生成手段は、前記取得したライトフィールド画像から、生成される複数の視差画像間における相関に基づき、前記相関の高い順に視差画像を生成し、
前記動画化手段は、前記視差画像を生成順に出力する画像処理装置。 - 請求項1ないし4のいずれかに記載された画像処理装置において、
前記ライトフィールド画像取得手段は、撮像素子と撮像レンズとの間にマイクロレンズアレイを設置した光学系を備えている画像処理装置。 - 請求項1ないし5のいずれかに記載された画像処理装置において、
前記ライトフィールド画像取得手段は、予め蓄積済みのライトフィールド画像を読み出すことにより画像取得を行う画像処理装置。 - 請求項1ないし6のいずれかに記載された画像処理装置において、
前記画像生成手段は、高解像度化処理手段を含む画像処理装置。 - ライトフィールド画像を処理する画像処理装置における画像処理方法であって、
被写体から発出した光の位置と方向を特定可能な情報を含むライトフィールド画像を取得するライトフィールド画像取得工程と、
取得したライトフィールド画像から、画像間の相関が高い画像セットを生成する画像生成工程と、
生成した前記画像セットの各画像を動画のフレームとして視差画像間の相関に基づく順序で出力する動画化工程と、
前記動画化工程で出力される前記画像セットの各画像を動画として符号化する動画符号化工程と、
を有する画像処理方法。 - コンピュータに、請求項1ないし7のいずれかに記載された画像処理装置における、ライトフィールド画像取得手段、画像生成手段、動画化手段、動画符号化手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012236018A JP2014086968A (ja) | 2012-10-25 | 2012-10-25 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012236018A JP2014086968A (ja) | 2012-10-25 | 2012-10-25 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014086968A true JP2014086968A (ja) | 2014-05-12 |
Family
ID=50789632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012236018A Pending JP2014086968A (ja) | 2012-10-25 | 2012-10-25 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014086968A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016128816A (ja) * | 2015-01-09 | 2016-07-14 | 株式会社リコー | プレノプティック・カメラを使った表面属性の推定 |
WO2016158402A1 (ja) * | 2015-03-30 | 2016-10-06 | ソニー株式会社 | 画像処理装置および方法 |
WO2016158403A1 (ja) * | 2015-03-30 | 2016-10-06 | ソニー株式会社 | 画像処理装置および方法 |
CN107529062A (zh) * | 2016-06-22 | 2017-12-29 | 汤姆逊许可公司 | 用于对代表光场内容的信号进行编码的方法和设备 |
US10638158B2 (en) | 2015-10-21 | 2020-04-28 | Interdigital Vc Holdings, Inc. | Method for encoding and method for decoding a light field based image and corresponding devices |
JP2020167479A (ja) * | 2019-03-28 | 2020-10-08 | 日本電信電話株式会社 | 符号化装置、符号化方法、及び符号化プログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6097394A (en) * | 1997-04-28 | 2000-08-01 | Board Of Trustees, Leland Stanford, Jr. University | Method and system for light field rendering |
JP2008182692A (ja) * | 2006-12-26 | 2008-08-07 | Olympus Imaging Corp | 符号化方法、電子カメラ、符号化プログラム、及び復号方法 |
JP2011082622A (ja) * | 2009-10-02 | 2011-04-21 | Sony Corp | 画像信号処理装置、画像信号処理方法、画像表示装置、画像表示方法、プログラム、および画像表示システム |
JP2011523538A (ja) * | 2008-05-20 | 2011-08-11 | ペリカン イメージング コーポレイション | 異なる種類の撮像装置を有するモノリシックカメラアレイを用いた画像の撮像および処理 |
JP2012114942A (ja) * | 2005-11-30 | 2012-06-14 | Mitsubishi Electric Research Laboratories Inc | マルチビュービデオを予測する方法及びシステム |
JP2012142918A (ja) * | 2010-12-17 | 2012-07-26 | Canon Inc | 撮像装置およびその制御方法 |
JP2012191376A (ja) * | 2011-03-10 | 2012-10-04 | Canon Inc | 撮像装置および撮像光学系 |
JP2012191351A (ja) * | 2011-03-09 | 2012-10-04 | Sony Corp | 撮像装置および画像処理方法 |
-
2012
- 2012-10-25 JP JP2012236018A patent/JP2014086968A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6097394A (en) * | 1997-04-28 | 2000-08-01 | Board Of Trustees, Leland Stanford, Jr. University | Method and system for light field rendering |
JP2012114942A (ja) * | 2005-11-30 | 2012-06-14 | Mitsubishi Electric Research Laboratories Inc | マルチビュービデオを予測する方法及びシステム |
JP2008182692A (ja) * | 2006-12-26 | 2008-08-07 | Olympus Imaging Corp | 符号化方法、電子カメラ、符号化プログラム、及び復号方法 |
JP2011523538A (ja) * | 2008-05-20 | 2011-08-11 | ペリカン イメージング コーポレイション | 異なる種類の撮像装置を有するモノリシックカメラアレイを用いた画像の撮像および処理 |
JP2011082622A (ja) * | 2009-10-02 | 2011-04-21 | Sony Corp | 画像信号処理装置、画像信号処理方法、画像表示装置、画像表示方法、プログラム、および画像表示システム |
JP2012142918A (ja) * | 2010-12-17 | 2012-07-26 | Canon Inc | 撮像装置およびその制御方法 |
JP2012191351A (ja) * | 2011-03-09 | 2012-10-04 | Sony Corp | 撮像装置および画像処理方法 |
JP2012191376A (ja) * | 2011-03-10 | 2012-10-04 | Canon Inc | 撮像装置および撮像光学系 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016128816A (ja) * | 2015-01-09 | 2016-07-14 | 株式会社リコー | プレノプティック・カメラを使った表面属性の推定 |
US9797716B2 (en) | 2015-01-09 | 2017-10-24 | Ricoh Company, Ltd. | Estimating surface properties using a plenoptic camera |
WO2016158402A1 (ja) * | 2015-03-30 | 2016-10-06 | ソニー株式会社 | 画像処理装置および方法 |
WO2016158403A1 (ja) * | 2015-03-30 | 2016-10-06 | ソニー株式会社 | 画像処理装置および方法 |
US10638158B2 (en) | 2015-10-21 | 2020-04-28 | Interdigital Vc Holdings, Inc. | Method for encoding and method for decoding a light field based image and corresponding devices |
CN107529062A (zh) * | 2016-06-22 | 2017-12-29 | 汤姆逊许可公司 | 用于对代表光场内容的信号进行编码的方法和设备 |
US11665369B2 (en) | 2016-06-22 | 2023-05-30 | Interdigital Ce Patent Holdings, Sas | Method and a device for encoding a signal representative of a light-field content |
JP2020167479A (ja) * | 2019-03-28 | 2020-10-08 | 日本電信電話株式会社 | 符号化装置、符号化方法、及び符号化プログラム |
JP7115689B2 (ja) | 2019-03-28 | 2022-08-09 | 日本電信電話株式会社 | 符号化装置、符号化方法、及び符号化プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5854984B2 (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム | |
JP5725975B2 (ja) | 撮像装置及び撮像方法 | |
JP6762766B2 (ja) | 撮像素子、撮像装置、および撮像信号処理方法 | |
JP2014086968A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2010183316A (ja) | 撮像装置 | |
JP6308748B2 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
JP5195660B2 (ja) | 撮像装置、合焦方法及びプログラム | |
JP2014057181A (ja) | 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム | |
US20170310903A1 (en) | Image capturing apparatus and method of controlling the same | |
CN107613216B (zh) | 对焦方法、装置、计算机可读存储介质和电子设备 | |
CN105814877A (zh) | 电子装置和控制该电子装置的方法 | |
JP2012065187A (ja) | 撮像装置及び復元ゲインデータ生成方法 | |
JP2015185943A (ja) | フィルタアレイ付マイクロレンズおよび固体撮像装置 | |
JP6190119B2 (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム | |
CN109963082B (zh) | 图像拍摄方法、装置、电子设备、计算机可读存储介质 | |
JP2015231052A (ja) | 撮像装置および方法、並びにプログラム | |
JP2014110444A (ja) | 撮像装置 | |
JP6702792B2 (ja) | 画像処理装置およびその制御方法 | |
JP5866826B2 (ja) | 撮像装置 | |
JP5397426B2 (ja) | 撮像装置、合焦方法及びプログラム | |
JP6955308B2 (ja) | 撮像素子、撮像装置、撮像方法及びプログラム | |
JP6467455B2 (ja) | 撮像装置、その制御方法、プログラム及び記録媒体 | |
JP2017220828A (ja) | 符号化装置、撮像装置、符号化方法及びプログラム | |
JP6448219B2 (ja) | 撮像装置、及びその制御方法 | |
JP6138222B2 (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161213 |