JP6353415B2 - 辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム - Google Patents

辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム Download PDF

Info

Publication number
JP6353415B2
JP6353415B2 JP2015150804A JP2015150804A JP6353415B2 JP 6353415 B2 JP6353415 B2 JP 6353415B2 JP 2015150804 A JP2015150804 A JP 2015150804A JP 2015150804 A JP2015150804 A JP 2015150804A JP 6353415 B2 JP6353415 B2 JP 6353415B2
Authority
JP
Japan
Prior art keywords
image
light field
feature vector
dictionary
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015150804A
Other languages
English (en)
Other versions
JP2017034388A (ja
Inventor
志織 杉本
志織 杉本
信哉 志水
信哉 志水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015150804A priority Critical patent/JP6353415B2/ja
Publication of JP2017034388A publication Critical patent/JP2017034388A/ja
Application granted granted Critical
Publication of JP6353415B2 publication Critical patent/JP6353415B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラムに関する。
撮像素子に入光する光の方向を含めた光線情報を記録するライトフィールドカメラが実用化されたことで、撮像後のピント調節や三次元情報の復元など、光線情報を活用した新たな画像処理技術とアプリケーションの研究開発が盛んに行われるようになってきている。光線情報を記録する方法は古くから存在しており、多数のカメラを密に並べて同期して撮影する方法などが有名である(例えば、非特許文献1参照)。この方法は非常に多くの同型のカメラを並べ同期して動かすシステムを必要とし、また厳密なカメラ校正が要求されることから、費用や労力の点で実用が難しいと思われてきた。
しかしながら、近年一般向けにも販売されるようになったライトフィールドカメラ(例えば、非特許文献2参照)では、カメラ内部の主レンズの前後にマイクロレンズアレイを設置することで、多数のカメラを並べた場合と同じ(マイクロレンズアレイの設置位置を変えることで異なる構成を取ることもできる)ように光線情報を記録することを可能にした。
B. Wilburn, N. Joshi, V. Vaish, E.-V. Talvala, E. Antunez, A. Barth, A. Adams, M. Horowitz, and M. Levoy, "High performance imaging using large camera arrays," ACM Transactions on Graphics, vol. 24. p. 765, 2005. R. Ng, M. Levoy, G. Duval, M. Horowitz, and P. Hanrahan, "Light Field Photography with a Hand-held Plenoptic Camera," Stanford Tech Rep. CTSR, pp. 1-11, 2005.
マイクロレンズアレイを伴うライトフィールドカメラでは従来のカメラと異なり光線情報を記録することが可能である。しかしながら、このカメラの記録方法では空間方向分解能と角度方向分解能がトレードオフであり、実用的に利用可能な撮像素子では従来のカメラによる写真撮影で要求されるような解像度を達成することは難しい。また、マイクロレンズアレイによる光の減衰によって光量が不足するためノイズの影響を受けやすく、それを補うために露出を調節するためブレの影響を受けることにもなる。このようにライトフィールドカメラによる撮像では従来のカメラで容易に達成可能な品質を得ることは難しいという問題がある。
本発明は、このような事情に鑑みてなされたもので、ライトフィールドカメラまたはその他の光線情報を取得・生成する方法によって得られた光線情報を使用してライトフィールド辞書を生成することができる辞書生成方法及び辞書生成装置を提供することを目的とする。また、光線情報を含まない一般の画像から、この画像に含まれる焦点ボケ情報等に基づきライトフィールド辞書を参照して、光線情報を復元しライトフィールド画像を生成することができる画像処理方法、画像処理装置及び画像処理プログラムを提供することを目的とする。
本発明の一態様は、辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置が行う辞書生成方法であって、前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成ステップと、前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成ステップと、前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成ステップとを有する辞書生成方法である。
本発明の一態様は、前記辞書生成方法であって、前記画像特徴ベクトル生成ステップは、前記焦点合わせ画像の焦点ボケを表すパラメータを推定するボケパラメータを推定し前記画像特徴ベクトルとする。
本発明の一態様は、光線情報を含まない入力画像と、前記辞書生成方法によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置が行う画像処理方法であって、前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定ステップと、前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成ステップとを有する画像処理方法である。
本発明の一態様は、前記画像処理方法であって、前記画像特徴ベクトル生成ステップは、前記入力画像の焦点ボケを表すボケパラメータを推定するためのボケパラメータを推定し前記画像特徴ベクトルとする。
本発明の一態様は、前記画像処理方法であって、前記ライトフィールド画像生成ステップは、前記ライトフィールド特徴ベクトルと、新たに復元されるライトフィールド画像から求められるライトフィールド特徴ベクトルとが一致するように前記ライトフィールド画像を生成する。
本発明の一態様は、辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置であって、前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成手段と、前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成手段と、前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成手段とを備える辞書生成装置である。
本発明の一態様は、光線情報を含まない入力画像と、前記辞書生成装置によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置であって、前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定手段と、前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成手段とを備える画像処理装置である。
本発明の一態様は、前記画像処理方法をコンピュータに実行させるための画像処理プログラムである。
本発明によれば、ライトフィールドカメラまたはその他の光線情報を取得・生成する方法によって得られた光線情報を使用してライトフィールド辞書を容易に生成することができる。また、光線情報を含まない一般の画像から、そこに含まれる焦点ボケ情報などの情報に基づきライトフィールド辞書を参照して、光線情報を復元しライトフィールド画像を容易に生成することができるという効果が得られる。
本発明の一実施形態による辞書生成装置の構成を示すブロック図である。 図1に示す辞書生成装置100の処理動作を示すフローチャートである。 本発明の一実施形態によるライトフィールド画像生成装置の構成を示すブロック図である。 図3に示すライトフィールド画像生成装置200の処理動作を示すフローチャートである。
以下、図面を参照して、本発明の一実施形態による辞書生成装置とライトフィールド画像生成装置を説明する。始めに、辞書生成装置について説明する。図1は同実施形態による辞書生成装置の構成を示すブロック図である。辞書生成装置100は、図1に示すように、ライトフィールド画像入力部101、焦点合わせ画像生成部102、パッチ生成部103、ライトフィールド特徴ベクトル生成部104、画像特徴ベクトル生成部105、及び学習部106を備えている。
ライトフィールド画像入力部101は、辞書学習に使用するライトフィールド画像を外部から入力する。以下では、このライトフィールド画像をLF画像と称する。焦点合わせ画像生成部102は、入力されたLF画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する。パッチ生成部103は、LF画像及び焦点合わせ画像をあらかじめ定められた大きさのパッチに分割し、ライトフィールドパッチ群と画像パッチ群を生成する。以下では、ライトフィールドパッチ群をLFパッチ群と称する。
ライトフィールド特徴ベクトル生成部104はLFパッチ群からライトフィールド特徴ベクトル群を生成し、画像特徴ベクトル生成部105は画像パッチ群から画像特徴ベクトル群を生成する。以下では、ライトフィールド特徴ベクトル群をLF特徴ベクトル群と称する。学習部106は、LF特徴ベクトル群と画像ベクトル群とからライトフィールド辞書(以下、LF辞書と称する)を生成し出力する。
次に、図2を参照して、図1に示す辞書生成装置100の処理動作を説明する。図2は、図1に示す辞書生成装置100の処理動作を示すフローチャートである。まず、ライトフィールド画像入力部101は、辞書学習に使用するLF画像を入力する(ステップS101)。LF画像はある撮像系に入光した光線の情報を記録した画像である。LF画像はどのように表現されてもよい。
一般には、通常の画像が縦・横にピクセルを並べた形の二次元配列で表されるのに対し、LF画像はさらに二方向の角度を表現する二次元を追加した四次元配列の形で表される。空間分解能がH(高さ)xW(幅)で角度分解能がNxMである場合、LF画像はHxWxNxMの四次元配列で表すことができる(参考文献1:「M. Levoy and P. Hanrahan, “Light field rendering,” Proc. 23rd Annu. Conf. Comput. Graph. Interact. Tech. - SIGGRAPH ’96, pp. 31-42, 1996.」)。
このLF画像から任意の距離に焦点を合わせた画像を生成する場合、生成される画像の解像度は再サンプリングや超解像などの解像度を増大させる処理を特別に行わなければHxWとなる。この他に、HxWの解像度を持つNxM枚の多視点画像として表現することもできる。この場合の各視点の画像は光線情報を方向別に画像としてまとめたものであり、同じ光線情報を多数のカメラを使用して撮像する場合に各カメラで撮像される画像と同一である。
以下では、この表現における各視点の画像を副開口画像(sub−aperture image)と称する。また、一般のライトフィールドカメラの撮像画像そのままに主レンズとマイクロレンズアレイを介して撮像素子に記録された画像をそのまま入力としてもよい。そのほかにどの様な形式のLF画像を入力としてもよい。また、複数のLF画像を入力してもよい。
次に、焦点合わせ画像生成部102は、入力されたLF画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する(ステップS102)。焦点距離はLF画像の撮像に用いた主レンズの焦点距離と同じとしてもよいし、また異なる焦点距離でもよい。また、入力のLF画像が複数ある場合には、同じ距離に合わせてもよいし、それぞれ異なる距離に合わせてもよい。また、焦点合わせ画像の作成方法はどのような方法でもよい。よく知られている方法としては、シフト加算法やフーリエスライス法(参考文献2「R. Ng, “Fourier slice photography,” ACM SIGGRAPH 2005 Pap. - SIGGRAPH ’05, p. 735, 2005.」)などがある。
次に、パッチ生成部103は、LF画像及び焦点合わせ画像をあらかじめ定められた大きさのパッチに分割し、LFパッチ群と画像パッチ群を生成する(ステップS103)。パッチの大きさはどのような大きさでもよい。また、複数のパッチが重複していてもよい。以下ではwxhの空間解像度、nxmの角度解像度のパッチを使用すると仮定して説明する。対になるLFパッチと画像パッチにおいて空間方向の位置は一致させることとする。
次に、ライトフィールド特徴ベクトル生成部104はLFパッチ群からライトフィールド特徴ベクトル群を生成し、画像特徴ベクトル生成部105は画像パッチ群から画像特徴ベクトル群を生成する(ステップS104)。それぞれの特徴ベクトルはどのような方法で生成してもよい。もっとも単純な場合には、それぞれの画像を一次元ベクトルとして並べ替えたものを使用してもよい。他に、各画像の勾配ベクトルや、よりLF画像の復元に特化するために、焦点ボケの特徴を含むようなベクトルを生成し使用してもよい。
例えば、焦点合わせ画像に対して任意の方法でボケ量推定やボケカーネル推定を行い、その推定量や推定カーネル、またはそのパラメータなどを特徴ベクトルとして使用してもよい。ボケ量推定の方法はどのようなものでもよいが、例えば参考文献3「S. Zhuo and T. Sim, “Defocus map estimation from a single image,” Pattern Recognit., vol. 44, no. 9, pp. 1852-1858, Sep. 2011.」で示されるように、異なる二つのパラメータでガウシアンフィルタをかけた画像の勾配量を比較する方法などがある。この方法では焦点ボケをガウスぼけと仮定し、そのパラメータを推定するものである。元画像をI,任意のガウシアンフィルタのパラメータをσ,σ:σ<σ、ガウシアンフィルタの演算子をG(x,y,σ),勾配演算子を∇とすると、位置(x,y)におけるボケパラメータσ(x,y)は、
Figure 0006353415
Figure 0006353415
と推定される。
また、同様の方法を平均ボケなどの異なるモデルに応用することも可能である。また、モデルを仮定しパラメータを推定する方法のほかに参考文献4「H. Zhang, J. Yang, Y. Zhang, and T. S. Huang, “Sparse Representation Based Blind Image Deblurring,” IEEE Int. Conf. Multimed. Expo, pp. 1-6, 2011.」で示されるように直接ボケカーネルを推定する方法などを使用し、推定されたボケカーネルを特徴ベクトルとするなどしてもよい。
また、複数の特徴ベクトルや画像を結合して一つの特徴ベクトルとしてもよい。例えば、勾配ベクトルとボケカーネルをベクトル化し結合することで画像特徴ベクトルとするなどである。ただし、LF特徴ベクトルについては、後で説明するライトフィールド画像生成装置において画像パッチから得られる情報とLF辞書を用いて復元されるライトフィールド特徴ベクトルとからLF画像を生成可能である必要がある。
例えば、LFパッチの各角度画像について画像パッチとの差分を取ったものを特徴ベクトルとするなどである。条件を満たす限りにおいてどのような特徴ベクトルを選んでもよい。また、この特徴ベクトル生成のために各種画像処理が必要である場合には、パッチ生成の前に行ってもよい。
次に、学習部106は、LF特徴ベクトル群と画像特徴ベクトル群とからLF辞書を生成し出力する(ステップS105)。LF辞書の生成はどのような方法で行ってもよい。もっとも単純には、対になるベクトル群を直接含むデータベースをLF辞書とする方法がある。さらに好適な方法としては、両ベクトル群を対になるもの同士で結合し結合ベクトル群とし、すべての結合ベクトルを最もよく表す有限な数の基底を学習によって求める方法がある。
学習方法としては主成分分析や独立主成分分析などどのような方法を使用してもよいが、以下ではスパースコーディング(参考文献5「M. Elad and M. Aharon, “Image denoising via sparse and redundant representation over learned dictionaries,” IEEE Transations Image Process., vol. 15, no. 12, pp. 3736-3745, 2006.」)を使用することとして説明する。スパースコーディングでは、どのベクトルもLF辞書内の非常に少数の基底から構成可能になるようにLF辞書を最適化する。
以下では、LF特徴ベクトル群からなる行列をF,画像特徴ベクトル群からなる行列をF、結合ベクトルからなる行列をF,辞書をD,係数行列をAとする。辞書Dを最適化する方法としてL1正則化(lasso)を使用する場合、以下の式に基づき最適化を行う。
Figure 0006353415
Figure 0006353415
第二項はスパース項であり、λはそのパラメータである。
第二項(スパース項)の影響により、サンプルとなるパッチが十分に多ければホワイトノイズなどのノイズはスパースに表現することが困難となるため、各基底は画像の本質的な特徴をよく表現するものに最適化される。ここで作成された辞書は結合ベクトルの結合点で分割することでLF辞書と画像辞書とに分割でき、ある共通の係数とそれぞれの辞書を使用して復元されるLF特徴ベクトルと画像特徴ベクトルは互いに対応関係をもつ。つまり、LF辞書をD,画像辞書をDとし、ある任意の画像特徴ベクトルfについて
Figure 0006353415
Figure 0006353415
となる係数ベクトルαを求めると、対応するLF特徴ベクトルfはおおむね
Figure 0006353415
として推定できる。
また、LF特徴ベクトル群と画像特徴ベクトル群について独立に辞書を学習し、その後で対応関係にある特徴ベクトル同士が共通の係数で表現できるように辞書間の変換演算子を作成し変換を施すこととしてもよい。
その場合、
Figure 0006353415
Figure 0006353415
となるAとAについて、
Figure 0006353415
となる変換演算子Tを求めることで、(6)式のαに対応するLF特徴ベクトルfはおおむね
Figure 0006353415
として推定できる。
また別の方法としては、LF特徴ベクトルから辞書を生成し、これに任意の演算子を作用させて画像辞書を生成するなどしてもよい。例えばLF特徴ベクトルとしてLF画像そのものを使用する場合には、辞書の各基底から焦点合わせ画像生成を使用することで各基底に対応する焦点合わせ画像を生成し、この焦点合わせ画像から画像特徴ベクトルを生成し画像辞書の基底とするなどしてもよい。また、このような場合には辞書生成と画像辞書生成を繰り返し行うことで両辞書の最適化を行ってもよい。例えば、(8)式を満たすDについて、焦点合わせ画像の生成演算子をRとして
Figure 0006353415
とし、このDに対して
Figure 0006353415
となるAを求め、
Figure 0006353415
となるDを求めるなどである。
次に、図面を参照して、本発明の一実施形態によるライトフィールド画像生成装置を説明する。図3は同実施形態によるライトフィールド画像生成装置の構成を示すブロック図である。ライトフィールド画像生成装置200は、図3に示すように、画像入力部201、辞書入力部202、パッチ生成部203、画像特徴ベクトル生成部204、係数ベクトル推定部205及びライトフィールド画像生成部206を備えている。
画像入力部201は、LF画像の元となる光線情報を含まない画像を入力する。以下では、この画像を入力画像と称する。辞書入力部202は、LF辞書及び画像辞書を入力する。パッチ生成部203は、入力画像をあらかじめ定められた大きさのパッチに分割し、画像パッチ群を生成する。画像特徴ベクトル生成部204は画像パッチ群から画像特徴ベクトル群を生成する。係数ベクトル推定部205は、画像特徴ベクトルと画像辞書とから各特徴ベクトルに対応する係数ベクトル群を推定する。ライトフィールド画像生成部206は、係数ベクトル群とLF辞書とからLF特徴ベクトルを生成し、LF特徴ベクトルからLFパッチ群を生成し、LFパッチ群からLF画像を生成し出力する。
次に、図4を参照して、図3に示すライトフィールド画像生成装置200の処理動作を説明する。図4は、図3に示すライトフィールド画像生成装置200の処理動作を示すフローチャートである。まず、画像入力部201は、LF画像の元となる光線情報を含まない画像を入力する(ステップS201)。入力画像はどのようなものでもよいが、好適には任意の点に焦点を合わせ、焦点の合っていない個所においては焦点ボケがみられるものであるとする。
次に、辞書入力部202は、LF辞書及び画像辞書を入力する(ステップS202)。両辞書は独立に入力してもよいし、結合したものでもよい。前述の辞書生成装置100についての説明の通り、辞書間に何らかの変換演算子を必要とする場合は別途入力してもよい。
次に、パッチ生成部203は、入力画像をあらかじめ定められた大きさのパッチに分割し、画像パッチ群を生成する(ステップS203)。パッチの大きさは入力する辞書によって定められるものとする。
次に、画像特徴ベクトル生成部204は画像パッチ群から画像特徴ベクトル群を生成する(ステップS204)。画像特徴ベクトルはどのような方法で生成してもよいが、画像辞書を生成する際に使用した画像特徴ベクトルと同種の画像特徴ベクトルを生成できる方法であるとする。また、この画像特徴ベクトル生成のために勾配を求める処理など各種画像処理が必要である場合には、パッチ生成の前に行ってもよい。
次に、係数ベクトル推定部205は、画像特徴ベクトルと画像辞書とから各特徴ベクトルに対応する係数ベクトル群を推定する(ステップS205)。係数ベクトルの推定にはどのような方法を使用してもよく、辞書生成装置100における最適化方法とは異なる方法であってもよい。例えば、L1正則化の代わりにL0正則化を用いることとして
Figure 0006353415
としてもよい。その他にどのような方法を用いてもよい。
次に、ライトフィールド画像生成部206は、係数ベクトル群とLF辞書とからLF特徴ベクトル群を生成し、LF特徴ベクトル群からLFパッチ群を生成し、LFパッチ群からLF画像を生成し出力する(ステップS206)。LF特徴ベクトルの生成方法は辞書生成装置100における辞書学習方法に準じ、(7)式や(11)式、または辞書生成方法に対応した任意の方法で生成する。LF特徴ベクトル群からLFパッチ群を生成する方法はどのような方法を使用してもよい。例えば、辞書生成装置100においてLFパッチの各角度画像について画像パッチとの差分を取ったものを特徴ベクトルとするなどの方法でLF特徴ベクトルを生成している場合には、復元されたLF特徴ベクトルを画像化し画像パッチの値を足すことでLFパッチが復元できる。
また、LF特徴ベクトルから線形演算でLFパッチを復元することが不可能であるようなLF特徴ベクトルを生成している場合には、どのような非線形な方法を使用してもよい。例えば、LF特徴ベクトルとしてLFパッチの勾配を使用している場合、LFパッチをp,LF特徴ベクトルをfとし、勾配演算子をGとして、
Figure 0006353415
となるようなLFパッチを推定するなどの方法を使用してもよい。このほかにどのような方法を使用してもよいし、画像パッチまたは画像特徴ベクトルの情報を利用するなどしてもよい。例えば、画像パッチをp、LF画像から焦点合わせ画像を生成する演算子をRとして、
Figure 0006353415
となるようなLFパッチを推定するなどの方法を使用してもよい。
LFパッチ群からLF画像を生成する方法にもどのような方法を使用してもよい。一般には、すべてのパッチを対応する画像位置に合わせ、複数のパッチが重なる部分は加算平均をとるといった方法が使用される。生成したLF画像を出力し処理を終了する。
前述の実施形態においてはLF辞書及び画像辞書を一組生成し復元に使用したが、複数の辞書を生成して使用してもよい。例えば、(1)式、(2)式で示されるような方法で画像のボケ量を推定し、ボケ量毎に異なる辞書を生成し使用するなどしてもよい。
また、前述の実施形態では辞書生成装置100で生成した辞書を使用してLF画像の生成を行ったが、別の方法で生成した辞書を使用してもよい。例えば、任意のLF辞書を使用して(12)式に示される方法などで対になる画像辞書を作ってもよいし、任意のLF辞書と画像辞書の間の変換演算子を(11)式に示す方法などで決定してもよい。
以上説明したように、光線情報を持たない入力画像からライトフィールド画像を生成する際に、入力画像を分割した画像パッチから生成した画像特徴ベクトルとLF辞書を用いて光線情報を復元することにより、入力画像からライトフィールド画像を生成することが可能になる。
なお、上記すべての実施形態において一部の処理はその順序が前後しても構わない。また、上記すべての実施形態において一部の処理はその順序が前後しても構わない。また、前述した実施形態における辞書生成装置、ライトフィールド画像生成装置の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
光線情報を含まない一般の画像からライトフィールド画像を生成しピント調節や三次元情報の推定などを行うのに不可欠な用途に適用できる。
100・・・辞書生成装置、101・・・ライトフィールド画像入力部、102・・・焦点合わせ画像生成部、103・・・パッチ生成部、104・・・ライトフィールド特徴ベクトル生成部、105・・・画像特徴ベクトル生成部、106・・・学習部、200・・・ライトフィールド画像生成装置、201・・・画像入力部、202・・・辞書入力部、203・・・パッチ生成部、204・・・画像特徴ベクトル生成部、205・・・係数ベクトル推定部、206・・・ライトフィールド画像生成部

Claims (8)

  1. 辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置が行う辞書生成方法であって、
    前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成ステップと、
    前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成ステップと、
    前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、
    前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成ステップと
    を有する辞書生成方法。
  2. 前記画像特徴ベクトル生成ステップは、前記焦点合わせ画像の焦点ボケを表すパラメータを推定するボケパラメータを推定し前記画像特徴ベクトルとする請求項1に記載の辞書生成方法。
  3. 光線情報を含まない入力画像と、請求項1または2に記載の辞書生成方法によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置が行う画像処理方法であって、
    前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、
    前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定ステップと、
    前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成ステップと
    を有する画像処理方法。
  4. 前記画像特徴ベクトル生成ステップは、前記入力画像の焦点ボケを表すボケパラメータを推定するためのボケパラメータを推定し前記画像特徴ベクトルとする請求項3に記載の画像処理方法。
  5. 前記ライトフィールド画像生成ステップは、前記ライトフィールド特徴ベクトルと、新たに復元されるライトフィールド画像から求められるライトフィールド特徴ベクトルとが一致するように前記ライトフィールド画像を生成する請求項3または4に記載の画像処理方法。
  6. 辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置であって、
    前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成手段と、
    前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成手段と、
    前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、
    前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成手段と
    を備える辞書生成装置。
  7. 光線情報を含まない入力画像と、請求項6に記載の辞書生成装置によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置であって、
    前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、
    前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定手段と、
    前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成手段と
    を備える画像処理装置。
  8. 請求項3から5のいずれか1項に記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。
JP2015150804A 2015-07-30 2015-07-30 辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム Active JP6353415B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015150804A JP6353415B2 (ja) 2015-07-30 2015-07-30 辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015150804A JP6353415B2 (ja) 2015-07-30 2015-07-30 辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017034388A JP2017034388A (ja) 2017-02-09
JP6353415B2 true JP6353415B2 (ja) 2018-07-04

Family

ID=57989456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015150804A Active JP6353415B2 (ja) 2015-07-30 2015-07-30 辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6353415B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113832B2 (en) * 2017-11-03 2021-09-07 Google Llc Aperture supervision for single-view depth prediction
CN109903233B (zh) * 2019-01-10 2021-08-03 华中科技大学 一种基于线性特征的联合图像复原和匹配方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130300912A1 (en) * 2012-05-14 2013-11-14 Ricoh Innovations, Inc. Dictionary Learning for Incoherent Sampling
JP2014063360A (ja) * 2012-09-21 2014-04-10 Sony Corp 信号処理装置および信号処理方法、出力装置および出力方法、並びにプログラム
KR102156402B1 (ko) * 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
JP6310418B2 (ja) * 2015-05-29 2018-04-11 日本電信電話株式会社 画像処理方法、画像処理装置及び画像処理プログラム

Also Published As

Publication number Publication date
JP2017034388A (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
Cai et al. Toward real-world single image super-resolution: A new benchmark and a new model
Metzler et al. Deep optics for single-shot high-dynamic-range imaging
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
Perra et al. An analysis of 3D point cloud reconstruction from light field images
JP2013531268A (ja) 符号化開口を使用した距離の測定
Chen et al. Light field compressed sensing over a disparity-aware dictionary
JP6353415B2 (ja) 辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラム
Rego et al. Deep camera obscura: an image restoration pipeline for pinhole photography
CN103262523B (zh) 摄像装置、摄像系统、摄像方法以及图像处理方法
JP6401674B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP6867645B2 (ja) 画像処理装置、方法、及びプログラム
Shroff et al. High resolution image reconstruction for plenoptic imaging systems using system response
JP7363765B2 (ja) 画像処理装置、および撮像装置、並びに画像処理方法
JP6353414B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
Olivas et al. Platform motion blur image restoration system
JP6310418B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
Tezaur et al. A system for estimating optics blur psfs from test chart images
KR100843099B1 (ko) 영상을 복원하기 위한 장치 및 방법
Sahay et al. Shape extraction of low‐textured objects in video microscopy
JP6310417B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Kar et al. Learning based regularization for spatial multiplexing cameras
CN112508801A (zh) 图像处理方法及计算设备
Lumsdaine et al. Fourier analysis of the focused plenoptic camera
KR20210046465A (ko) 수차 보정 방법 및 장치
JP2021057848A (ja) 符号化撮像デバイス、全焦点画像再構成処理装置及び全焦点画像撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170830

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180608

R150 Certificate of patent or registration of utility model

Ref document number: 6353415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150