JP2017034388A - Dictionary generation method, dictionary generation apparatus, image processing method, image processing apparatus, and image processing program - Google Patents
Dictionary generation method, dictionary generation apparatus, image processing method, image processing apparatus, and image processing program Download PDFInfo
- Publication number
- JP2017034388A JP2017034388A JP2015150804A JP2015150804A JP2017034388A JP 2017034388 A JP2017034388 A JP 2017034388A JP 2015150804 A JP2015150804 A JP 2015150804A JP 2015150804 A JP2015150804 A JP 2015150804A JP 2017034388 A JP2017034388 A JP 2017034388A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light field
- feature vector
- dictionary
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラムに関する。 The present invention relates to a dictionary generation method, a dictionary generation device, an image processing method, an image processing device, and an image processing program.
撮像素子に入光する光の方向を含めた光線情報を記録するライトフィールドカメラが実用化されたことで、撮像後のピント調節や三次元情報の復元など、光線情報を活用した新たな画像処理技術とアプリケーションの研究開発が盛んに行われるようになってきている。光線情報を記録する方法は古くから存在しており、多数のカメラを密に並べて同期して撮影する方法などが有名である(例えば、非特許文献1参照)。この方法は非常に多くの同型のカメラを並べ同期して動かすシステムを必要とし、また厳密なカメラ校正が要求されることから、費用や労力の点で実用が難しいと思われてきた。 Light field cameras that record light information including the direction of light entering the image sensor have been put into practical use, and new image processing using light information, such as focus adjustment after image capture and restoration of three-dimensional information. Research and development of technology and applications are actively being carried out. A method of recording light ray information has been present for a long time, and a method of photographing a large number of cameras closely arranged in synchronization is well known (for example, see Non-Patent Document 1). This method requires a system in which a large number of cameras of the same type are moved in synchronization with each other, and since strict camera calibration is required, it has been considered difficult to implement in terms of cost and labor.
しかしながら、近年一般向けにも販売されるようになったライトフィールドカメラ(例えば、非特許文献2参照)では、カメラ内部の主レンズの前後にマイクロレンズアレイを設置することで、多数のカメラを並べた場合と同じ(マイクロレンズアレイの設置位置を変えることで異なる構成を取ることもできる)ように光線情報を記録することを可能にした。 However, in a light field camera (for example, see Non-Patent Document 2) that has recently been sold to the general public, a large number of cameras are arranged by arranging microlens arrays before and after the main lens inside the camera. It is possible to record the light beam information in the same way as in the case of the above (it is possible to adopt a different configuration by changing the installation position of the microlens array).
マイクロレンズアレイを伴うライトフィールドカメラでは従来のカメラと異なり光線情報を記録することが可能である。しかしながら、このカメラの記録方法では空間方向分解能と角度方向分解能がトレードオフであり、実用的に利用可能な撮像素子では従来のカメラによる写真撮影で要求されるような解像度を達成することは難しい。また、マイクロレンズアレイによる光の減衰によって光量が不足するためノイズの影響を受けやすく、それを補うために露出を調節するためブレの影響を受けることにもなる。このようにライトフィールドカメラによる撮像では従来のカメラで容易に達成可能な品質を得ることは難しいという問題がある。 Unlike a conventional camera, a light field camera with a microlens array can record light beam information. However, in this camera recording method, the spatial resolution and the angular resolution are a trade-off, and it is difficult to achieve the resolution required for photography with a conventional camera with a practically usable imaging device. In addition, the amount of light is insufficient due to attenuation of light by the microlens array, so that it is easily affected by noise, and in order to compensate for it, it is also affected by blurring. As described above, there is a problem that it is difficult to obtain a quality that can be easily achieved by a conventional camera in imaging using a light field camera.
本発明は、このような事情に鑑みてなされたもので、ライトフィールドカメラまたはその他の光線情報を取得・生成する方法によって得られた光線情報を使用してライトフィールド辞書を生成することができる辞書生成方法及び辞書生成装置を提供することを目的とする。また、光線情報を含まない一般の画像から、この画像に含まれる焦点ボケ情報等に基づきライトフィールド辞書を参照して、光線情報を復元しライトフィールド画像を生成することができる画像処理方法、画像処理装置及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and a dictionary capable of generating a light field dictionary using light information obtained by a light field camera or another method of acquiring and generating light information. An object is to provide a generation method and a dictionary generation device. Also, an image processing method and image that can generate a light field image by restoring light information from a general image that does not contain light information by referring to a light field dictionary based on out-of-focus information included in the image. It is an object to provide a processing device and an image processing program.
本発明の一態様は、辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置が行う辞書生成方法であって、前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成ステップと、前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成ステップと、前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成ステップとを有する辞書生成方法である。 One aspect of the present invention is a dictionary generation method performed by a dictionary generation apparatus that generates a light field dictionary from a light field image used for dictionary learning, and includes focusing with an arbitrary position from the light field image. A focused image generating step for generating an image; a light field feature vector generating step for generating a light field feature vector representing a feature of the light field image from the light field image; and a feature of the focused image from the focused image A dictionary generation step including: an image feature vector generation step for generating an image feature vector representing the image; and a dictionary generation step for generating the light field dictionary used when generating a light field image from the light field feature vector and the image feature vector Direction It is.
本発明の一態様は、前記辞書生成方法であって、前記画像特徴ベクトル生成ステップは、前記焦点合わせ画像の焦点ボケを表すパラメータを推定するボケパラメータを推定し前記画像特徴ベクトルとする。 One aspect of the present invention is the dictionary generation method, wherein the image feature vector generation step estimates a blur parameter for estimating a parameter representing a focus blur of the focused image and sets the image feature vector.
本発明の一態様は、光線情報を含まない入力画像と、前記辞書生成方法によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置が行う画像処理方法であって、前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定ステップと、前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成ステップとを有する画像処理方法である。 One aspect of the present invention is an image processing method performed by an image processing apparatus that inputs an input image not including light ray information and a light field dictionary generated in advance by the dictionary generation method, and generates a light field image. An image feature vector generating step for generating an image feature vector representing the feature of the input image from the input image, and a light field feature vector representing the feature of the light field image is estimated from the image feature vector and the light field dictionary. An image processing method comprising: a light field feature vector estimation step; and a light field image generation step for generating the light field image to be generated from the light field feature vector.
本発明の一態様は、前記画像処理方法であって、前記画像特徴ベクトル生成ステップは、前記入力画像の焦点ボケを表すボケパラメータを推定するためのボケパラメータを推定し前記画像特徴ベクトルとする。 One aspect of the present invention is the image processing method, wherein the image feature vector generation step estimates a blur parameter for estimating a blur parameter representing a focal blur of the input image and sets the image feature vector as the image feature vector.
本発明の一態様は、前記画像処理方法であって、前記ライトフィールド画像生成ステップは、前記ライトフィールド特徴ベクトルと、新たに復元されるライトフィールド画像から求められるライトフィールド特徴ベクトルとが一致するように前記ライトフィールド画像を生成する。 One aspect of the present invention is the image processing method, wherein in the light field image generation step, the light field feature vector matches a light field feature vector obtained from a newly restored light field image. The light field image is generated.
本発明の一態様は、辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置であって、前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成手段と、前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成手段と、前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成手段とを備える辞書生成装置である。 One aspect of the present invention is a dictionary generation device that generates a light field dictionary from a light field image used for dictionary learning, and a focus that generates a focused image in which a focal length is adjusted to an arbitrary position from the light field image. A matched image generating means; a light field feature vector generating means for generating a light field feature vector representing the characteristics of the light field image from the light field image; and an image feature vector representing the characteristics of the focused image from the focused image. A dictionary generation device comprising: an image feature vector generation means for generating a light field dictionary; and a dictionary generation means for generating the light field dictionary used when generating a light field image from the light field feature vector.
本発明の一態様は、光線情報を含まない入力画像と、前記辞書生成装置によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置であって、前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定手段と、前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成手段とを備える画像処理装置である。 One aspect of the present invention is an image processing apparatus that inputs an input image that does not include light ray information and a light field dictionary generated in advance by the dictionary generation apparatus, and generates a light field image. Image feature vector generation means for generating an image feature vector representing the feature of the input image, and light field feature vector estimation for estimating a light field feature vector representing the feature of the light field image from the image feature vector and the light field dictionary And a light field image generating means for generating the light field image to be generated from the light field feature vector.
本発明の一態様は、前記画像処理方法をコンピュータに実行させるための画像処理プログラムである。 One aspect of the present invention is an image processing program for causing a computer to execute the image processing method.
本発明によれば、ライトフィールドカメラまたはその他の光線情報を取得・生成する方法によって得られた光線情報を使用してライトフィールド辞書を容易に生成することができる。また、光線情報を含まない一般の画像から、そこに含まれる焦点ボケ情報などの情報に基づきライトフィールド辞書を参照して、光線情報を復元しライトフィールド画像を容易に生成することができるという効果が得られる。 According to the present invention, it is possible to easily generate a light field dictionary using light ray information obtained by a light field camera or other light ray information obtaining / generating method. Further, it is possible to easily generate a light field image by restoring light information from a general image that does not include light ray information by referring to the light field dictionary based on information such as out-of-focus information included therein. Is obtained.
以下、図面を参照して、本発明の一実施形態による辞書生成装置とライトフィールド画像生成装置を説明する。始めに、辞書生成装置について説明する。図1は同実施形態による辞書生成装置の構成を示すブロック図である。辞書生成装置100は、図1に示すように、ライトフィールド画像入力部101、焦点合わせ画像生成部102、パッチ生成部103、ライトフィールド特徴ベクトル生成部104、画像特徴ベクトル生成部105、及び学習部106を備えている。
Hereinafter, a dictionary generation apparatus and a light field image generation apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, the dictionary generation device will be described. FIG. 1 is a block diagram showing the configuration of the dictionary generation apparatus according to the embodiment. As shown in FIG. 1, the
ライトフィールド画像入力部101は、辞書学習に使用するライトフィールド画像を外部から入力する。以下では、このライトフィールド画像をLF画像と称する。焦点合わせ画像生成部102は、入力されたLF画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する。パッチ生成部103は、LF画像及び焦点合わせ画像をあらかじめ定められた大きさのパッチに分割し、ライトフィールドパッチ群と画像パッチ群を生成する。以下では、ライトフィールドパッチ群をLFパッチ群と称する。
The light field
ライトフィールド特徴ベクトル生成部104はLFパッチ群からライトフィールド特徴ベクトル群を生成し、画像特徴ベクトル生成部105は画像パッチ群から画像特徴ベクトル群を生成する。以下では、ライトフィールド特徴ベクトル群をLF特徴ベクトル群と称する。学習部106は、LF特徴ベクトル群と画像ベクトル群とからライトフィールド辞書(以下、LF辞書と称する)を生成し出力する。
The light field feature vector generation unit 104 generates a light field feature vector group from the LF patch group, and the image feature
次に、図2を参照して、図1に示す辞書生成装置100の処理動作を説明する。図2は、図1に示す辞書生成装置100の処理動作を示すフローチャートである。まず、ライトフィールド画像入力部101は、辞書学習に使用するLF画像を入力する(ステップS101)。LF画像はある撮像系に入光した光線の情報を記録した画像である。LF画像はどのように表現されてもよい。
Next, the processing operation of the
一般には、通常の画像が縦・横にピクセルを並べた形の二次元配列で表されるのに対し、LF画像はさらに二方向の角度を表現する二次元を追加した四次元配列の形で表される。空間分解能がH(高さ)xW(幅)で角度分解能がNxMである場合、LF画像はHxWxNxMの四次元配列で表すことができる(参考文献1:「M. Levoy and P. Hanrahan, “Light field rendering,” Proc. 23rd Annu. Conf. Comput. Graph. Interact. Tech. - SIGGRAPH ’96, pp. 31-42, 1996.」)。 In general, a normal image is represented by a two-dimensional array in which pixels are arranged vertically and horizontally, whereas an LF image is a four-dimensional array in which two dimensions are added to express angles in two directions. expressed. When the spatial resolution is H (height) xW (width) and the angular resolution is NxM, the LF image can be represented by a four-dimensional array of HxWxNxM (Reference 1: “M. Levoy and P. Hanrahan,“ Light Field rendering, ”Proc. 23rd Annu. Conf. Comput. Graph. Interact. Tech.-SIGGRAPH '96, pp. 31-42, 1996.”).
このLF画像から任意の距離に焦点を合わせた画像を生成する場合、生成される画像の解像度は再サンプリングや超解像などの解像度を増大させる処理を特別に行わなければHxWとなる。この他に、HxWの解像度を持つNxM枚の多視点画像として表現することもできる。この場合の各視点の画像は光線情報を方向別に画像としてまとめたものであり、同じ光線情報を多数のカメラを使用して撮像する場合に各カメラで撮像される画像と同一である。 When generating an image focused on an arbitrary distance from the LF image, the resolution of the generated image is HxW unless special processing for increasing the resolution such as resampling or super-resolution is performed. In addition, it can be expressed as N × M multi-viewpoint images having a resolution of HxW. In this case, each viewpoint image is a collection of ray information as an image for each direction, and is the same as an image captured by each camera when the same ray information is captured using a number of cameras.
以下では、この表現における各視点の画像を副開口画像(sub−aperture image)と称する。また、一般のライトフィールドカメラの撮像画像そのままに主レンズとマイクロレンズアレイを介して撮像素子に記録された画像をそのまま入力としてもよい。そのほかにどの様な形式のLF画像を入力としてもよい。また、複数のLF画像を入力してもよい。 Hereinafter, an image at each viewpoint in this expression is referred to as a sub-aperture image. Alternatively, an image recorded on an image sensor via a main lens and a microlens array may be directly input as an image captured by a general light field camera. In addition, any type of LF image may be input. A plurality of LF images may be input.
次に、焦点合わせ画像生成部102は、入力されたLF画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する(ステップS102)。焦点距離はLF画像の撮像に用いた主レンズの焦点距離と同じとしてもよいし、また異なる焦点距離でもよい。また、入力のLF画像が複数ある場合には、同じ距離に合わせてもよいし、それぞれ異なる距離に合わせてもよい。また、焦点合わせ画像の作成方法はどのような方法でもよい。よく知られている方法としては、シフト加算法やフーリエスライス法(参考文献2「R. Ng, “Fourier slice photography,” ACM SIGGRAPH 2005 Pap. - SIGGRAPH ’05, p. 735, 2005.」)などがある。
Next, the focused
次に、パッチ生成部103は、LF画像及び焦点合わせ画像をあらかじめ定められた大きさのパッチに分割し、LFパッチ群と画像パッチ群を生成する(ステップS103)。パッチの大きさはどのような大きさでもよい。また、複数のパッチが重複していてもよい。以下ではwxhの空間解像度、nxmの角度解像度のパッチを使用すると仮定して説明する。対になるLFパッチと画像パッチにおいて空間方向の位置は一致させることとする。
Next, the
次に、ライトフィールド特徴ベクトル生成部104はLFパッチ群からライトフィールド特徴ベクトル群を生成し、画像特徴ベクトル生成部105は画像パッチ群から画像特徴ベクトル群を生成する(ステップS104)。それぞれの特徴ベクトルはどのような方法で生成してもよい。もっとも単純な場合には、それぞれの画像を一次元ベクトルとして並べ替えたものを使用してもよい。他に、各画像の勾配ベクトルや、よりLF画像の復元に特化するために、焦点ボケの特徴を含むようなベクトルを生成し使用してもよい。
Next, the light field feature vector generation unit 104 generates a light field feature vector group from the LF patch group, and the image feature
例えば、焦点合わせ画像に対して任意の方法でボケ量推定やボケカーネル推定を行い、その推定量や推定カーネル、またはそのパラメータなどを特徴ベクトルとして使用してもよい。ボケ量推定の方法はどのようなものでもよいが、例えば参考文献3「S. Zhuo and T. Sim, “Defocus map estimation from a single image,” Pattern Recognit., vol. 44, no. 9, pp. 1852-1858, Sep. 2011.」で示されるように、異なる二つのパラメータでガウシアンフィルタをかけた画像の勾配量を比較する方法などがある。この方法では焦点ボケをガウスぼけと仮定し、そのパラメータを推定するものである。元画像をI,任意のガウシアンフィルタのパラメータをσ1,σ2:σ1<σ2、ガウシアンフィルタの演算子をG(x,y,σ),勾配演算子を∇とすると、位置(x,y)におけるボケパラメータσ(x,y)は、
また、同様の方法を平均ボケなどの異なるモデルに応用することも可能である。また、モデルを仮定しパラメータを推定する方法のほかに参考文献4「H. Zhang, J. Yang, Y. Zhang, and T. S. Huang, “Sparse Representation Based Blind Image Deblurring,” IEEE Int. Conf. Multimed. Expo, pp. 1-6, 2011.」で示されるように直接ボケカーネルを推定する方法などを使用し、推定されたボケカーネルを特徴ベクトルとするなどしてもよい。 It is also possible to apply the same method to different models such as average blur. In addition to the method of estimating parameters assuming a model, Reference 4 “H. Zhang, J. Yang, Y. Zhang, and TS Huang,“ Sparse Representation Based Blind Image Deblurring, ”IEEE Int. Conf. Multimed. As shown in Expo, pp. 1-6, 2011., a method of directly estimating a blur kernel may be used, and the estimated blur kernel may be used as a feature vector.
また、複数の特徴ベクトルや画像を結合して一つの特徴ベクトルとしてもよい。例えば、勾配ベクトルとボケカーネルをベクトル化し結合することで画像特徴ベクトルとするなどである。ただし、LF特徴ベクトルについては、後で説明するライトフィールド画像生成装置において画像パッチから得られる情報とLF辞書を用いて復元されるライトフィールド特徴ベクトルとからLF画像を生成可能である必要がある。 A plurality of feature vectors and images may be combined into one feature vector. For example, an image feature vector is obtained by vectorizing and combining a gradient vector and a blur kernel. However, as for the LF feature vector, it is necessary to be able to generate an LF image from information obtained from an image patch and a light field feature vector restored using an LF dictionary in a light field image generation device described later.
例えば、LFパッチの各角度画像について画像パッチとの差分を取ったものを特徴ベクトルとするなどである。条件を満たす限りにおいてどのような特徴ベクトルを選んでもよい。また、この特徴ベクトル生成のために各種画像処理が必要である場合には、パッチ生成の前に行ってもよい。 For example, for each angle image of the LF patch, the difference between the LF patch and the image patch is used as a feature vector. Any feature vector may be selected as long as the condition is satisfied. Further, when various image processing is necessary for generating the feature vector, it may be performed before the patch generation.
次に、学習部106は、LF特徴ベクトル群と画像特徴ベクトル群とからLF辞書を生成し出力する(ステップS105)。LF辞書の生成はどのような方法で行ってもよい。もっとも単純には、対になるベクトル群を直接含むデータベースをLF辞書とする方法がある。さらに好適な方法としては、両ベクトル群を対になるもの同士で結合し結合ベクトル群とし、すべての結合ベクトルを最もよく表す有限な数の基底を学習によって求める方法がある。
Next, the
学習方法としては主成分分析や独立主成分分析などどのような方法を使用してもよいが、以下ではスパースコーディング(参考文献5「M. Elad and M. Aharon, “Image denoising via sparse and redundant representation over learned dictionaries,” IEEE Transations Image Process., vol. 15, no. 12, pp. 3736-3745, 2006.」)を使用することとして説明する。スパースコーディングでは、どのベクトルもLF辞書内の非常に少数の基底から構成可能になるようにLF辞書を最適化する。 As a learning method, any method such as principal component analysis or independent principal component analysis may be used, but in the following, sparse coding (reference document 5 “M. Elad and M. Aharon,“ Image denoising via sparse and redundant representation ” over learned dictionaries, ”IEEE Transations Image Process., vol. 15, no. 12, pp. 3736-3745, 2006.”). In sparse coding, the LF dictionary is optimized so that any vector can be constructed from a very small number of bases in the LF dictionary.
以下では、LF特徴ベクトル群からなる行列をFl,画像特徴ベクトル群からなる行列をFi、結合ベクトルからなる行列をFc,辞書をD,係数行列をAとする。辞書Dを最適化する方法としてL1正則化(lasso)を使用する場合、以下の式に基づき最適化を行う。
第二項(スパース項)の影響により、サンプルとなるパッチが十分に多ければホワイトノイズなどのノイズはスパースに表現することが困難となるため、各基底は画像の本質的な特徴をよく表現するものに最適化される。ここで作成された辞書は結合ベクトルの結合点で分割することでLF辞書と画像辞書とに分割でき、ある共通の係数とそれぞれの辞書を使用して復元されるLF特徴ベクトルと画像特徴ベクトルは互いに対応関係をもつ。つまり、LF辞書をDl,画像辞書をDiとし、ある任意の画像特徴ベクトルfiについて
また、LF特徴ベクトル群と画像特徴ベクトル群について独立に辞書を学習し、その後で対応関係にある特徴ベクトル同士が共通の係数で表現できるように辞書間の変換演算子を作成し変換を施すこととしてもよい。 In addition, the dictionary is learned independently for the LF feature vector group and the image feature vector group, and then a conversion operator between the dictionaries is created and converted so that the feature vectors in the correspondence relationship can be expressed by a common coefficient. It is good.
その場合、
また別の方法としては、LF特徴ベクトルから辞書を生成し、これに任意の演算子を作用させて画像辞書を生成するなどしてもよい。例えばLF特徴ベクトルとしてLF画像そのものを使用する場合には、辞書の各基底から焦点合わせ画像生成を使用することで各基底に対応する焦点合わせ画像を生成し、この焦点合わせ画像から画像特徴ベクトルを生成し画像辞書の基底とするなどしてもよい。また、このような場合には辞書生成と画像辞書生成を繰り返し行うことで両辞書の最適化を行ってもよい。例えば、(8)式を満たすDlについて、焦点合わせ画像の生成演算子をRとして
次に、図面を参照して、本発明の一実施形態によるライトフィールド画像生成装置を説明する。図3は同実施形態によるライトフィールド画像生成装置の構成を示すブロック図である。ライトフィールド画像生成装置200は、図3に示すように、画像入力部201、辞書入力部202、パッチ生成部203、画像特徴ベクトル生成部204、係数ベクトル推定部205及びライトフィールド画像生成部206を備えている。
Next, a light field image generating device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 3 is a block diagram showing the configuration of the light field image generation device according to the embodiment. As shown in FIG. 3, the light field
画像入力部201は、LF画像の元となる光線情報を含まない画像を入力する。以下では、この画像を入力画像と称する。辞書入力部202は、LF辞書及び画像辞書を入力する。パッチ生成部203は、入力画像をあらかじめ定められた大きさのパッチに分割し、画像パッチ群を生成する。画像特徴ベクトル生成部204は画像パッチ群から画像特徴ベクトル群を生成する。係数ベクトル推定部205は、画像特徴ベクトルと画像辞書とから各特徴ベクトルに対応する係数ベクトル群を推定する。ライトフィールド画像生成部206は、係数ベクトル群とLF辞書とからLF特徴ベクトルを生成し、LF特徴ベクトルからLFパッチ群を生成し、LFパッチ群からLF画像を生成し出力する。
The
次に、図4を参照して、図3に示すライトフィールド画像生成装置200の処理動作を説明する。図4は、図3に示すライトフィールド画像生成装置200の処理動作を示すフローチャートである。まず、画像入力部201は、LF画像の元となる光線情報を含まない画像を入力する(ステップS201)。入力画像はどのようなものでもよいが、好適には任意の点に焦点を合わせ、焦点の合っていない個所においては焦点ボケがみられるものであるとする。
Next, the processing operation of the light field
次に、辞書入力部202は、LF辞書及び画像辞書を入力する(ステップS202)。両辞書は独立に入力してもよいし、結合したものでもよい。前述の辞書生成装置100についての説明の通り、辞書間に何らかの変換演算子を必要とする場合は別途入力してもよい。
Next, the
次に、パッチ生成部203は、入力画像をあらかじめ定められた大きさのパッチに分割し、画像パッチ群を生成する(ステップS203)。パッチの大きさは入力する辞書によって定められるものとする。
Next, the
次に、画像特徴ベクトル生成部204は画像パッチ群から画像特徴ベクトル群を生成する(ステップS204)。画像特徴ベクトルはどのような方法で生成してもよいが、画像辞書を生成する際に使用した画像特徴ベクトルと同種の画像特徴ベクトルを生成できる方法であるとする。また、この画像特徴ベクトル生成のために勾配を求める処理など各種画像処理が必要である場合には、パッチ生成の前に行ってもよい。
Next, the image feature
次に、係数ベクトル推定部205は、画像特徴ベクトルと画像辞書とから各特徴ベクトルに対応する係数ベクトル群を推定する(ステップS205)。係数ベクトルの推定にはどのような方法を使用してもよく、辞書生成装置100における最適化方法とは異なる方法であってもよい。例えば、L1正則化の代わりにL0正則化を用いることとして
次に、ライトフィールド画像生成部206は、係数ベクトル群とLF辞書とからLF特徴ベクトル群を生成し、LF特徴ベクトル群からLFパッチ群を生成し、LFパッチ群からLF画像を生成し出力する(ステップS206)。LF特徴ベクトルの生成方法は辞書生成装置100における辞書学習方法に準じ、(7)式や(11)式、または辞書生成方法に対応した任意の方法で生成する。LF特徴ベクトル群からLFパッチ群を生成する方法はどのような方法を使用してもよい。例えば、辞書生成装置100においてLFパッチの各角度画像について画像パッチとの差分を取ったものを特徴ベクトルとするなどの方法でLF特徴ベクトルを生成している場合には、復元されたLF特徴ベクトルを画像化し画像パッチの値を足すことでLFパッチが復元できる。
Next, the light field
また、LF特徴ベクトルから線形演算でLFパッチを復元することが不可能であるようなLF特徴ベクトルを生成している場合には、どのような非線形な方法を使用してもよい。例えば、LF特徴ベクトルとしてLFパッチの勾配を使用している場合、LFパッチをpl,LF特徴ベクトルをflとし、勾配演算子をGとして、
LFパッチ群からLF画像を生成する方法にもどのような方法を使用してもよい。一般には、すべてのパッチを対応する画像位置に合わせ、複数のパッチが重なる部分は加算平均をとるといった方法が使用される。生成したLF画像を出力し処理を終了する。 Any method may be used for generating the LF image from the LF patch group. In general, a method is used in which all patches are matched to corresponding image positions, and an average of the portions where a plurality of patches overlap is obtained. The generated LF image is output and the process ends.
前述の実施形態においてはLF辞書及び画像辞書を一組生成し復元に使用したが、複数の辞書を生成して使用してもよい。例えば、(1)式、(2)式で示されるような方法で画像のボケ量を推定し、ボケ量毎に異なる辞書を生成し使用するなどしてもよい。 In the above embodiment, a set of LF dictionaries and image dictionaries are generated and used for restoration. However, a plurality of dictionaries may be generated and used. For example, the amount of blurring of an image may be estimated by a method represented by Equations (1) and (2), and a different dictionary may be generated and used for each amount of blurring.
また、前述の実施形態では辞書生成装置100で生成した辞書を使用してLF画像の生成を行ったが、別の方法で生成した辞書を使用してもよい。例えば、任意のLF辞書を使用して(12)式に示される方法などで対になる画像辞書を作ってもよいし、任意のLF辞書と画像辞書の間の変換演算子を(11)式に示す方法などで決定してもよい。
In the above-described embodiment, the LF image is generated using the dictionary generated by the
以上説明したように、光線情報を持たない入力画像からライトフィールド画像を生成する際に、入力画像を分割した画像パッチから生成した画像特徴ベクトルとLF辞書を用いて光線情報を復元することにより、入力画像からライトフィールド画像を生成することが可能になる。 As described above, when generating a light field image from an input image having no light ray information, by restoring the light ray information using the image feature vector generated from the image patch obtained by dividing the input image and the LF dictionary, A light field image can be generated from the input image.
なお、上記すべての実施形態において一部の処理はその順序が前後しても構わない。また、上記すべての実施形態において一部の処理はその順序が前後しても構わない。また、前述した実施形態における辞書生成装置、ライトフィールド画像生成装置の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 In all the above embodiments, the order of some processes may be changed. In all the above embodiments, the order of some processes may be changed. Further, all or part of the dictionary generation device and the light field image generation device in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。 As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.
光線情報を含まない一般の画像からライトフィールド画像を生成しピント調節や三次元情報の推定などを行うのに不可欠な用途に適用できる。 It can be applied to applications indispensable for generating a light field image from a general image that does not include light ray information and performing focus adjustment and estimation of three-dimensional information.
100・・・辞書生成装置、101・・・ライトフィールド画像入力部、102・・・焦点合わせ画像生成部、103・・・パッチ生成部、104・・・ライトフィールド特徴ベクトル生成部、105・・・画像特徴ベクトル生成部、106・・・学習部、200・・・ライトフィールド画像生成装置、201・・・画像入力部、202・・・辞書入力部、203・・・パッチ生成部、204・・・画像特徴ベクトル生成部、205・・・係数ベクトル推定部、206・・・ライトフィールド画像生成部
DESCRIPTION OF
Claims (8)
前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成ステップと、
前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成ステップと、
前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、
前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成ステップと
を有する辞書生成方法。 A dictionary generation method performed by a dictionary generation device that generates a light field dictionary from a light field image used for dictionary learning,
A focused image generating step for generating a focused image in which a focal length is adjusted to an arbitrary position from the light field image;
A light field feature vector generating step for generating a light field feature vector representing the feature of the light field image from the light field image;
An image feature vector generation step for generating an image feature vector representing the feature of the focused image from the focused image;
A dictionary generation method comprising: the light field feature vector; and a dictionary generation step of generating the light field dictionary used when generating a light field image from the image feature vector.
前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、
前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定ステップと、
前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成ステップと
を有する画像処理方法。 An image processing method performed by an image processing apparatus that inputs an input image not including light ray information and a light field dictionary generated in advance by the dictionary generation method according to claim 1 and generates a light field image,
An image feature vector generating step for generating an image feature vector representing the feature of the input image from the input image;
A light field feature vector estimation step for estimating a light field feature vector representing a feature of the light field image from the image feature vector and the light field dictionary;
A light field image generation step of generating the light field image to be generated from the light field feature vector.
前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成手段と、
前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成手段と、
前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、
前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成手段と
を備える辞書生成装置。 A dictionary generation device that generates a light field dictionary from a light field image used for dictionary learning,
A focused image generating means for generating a focused image in which a focal length is adjusted to an arbitrary position from the light field image;
A light field feature vector generating means for generating a light field feature vector representing the feature of the light field image from the light field image;
Image feature vector generation means for generating an image feature vector representing the feature of the focused image from the focused image;
A dictionary generation device comprising: the light field feature vector; and dictionary generation means for generating the light field dictionary used when generating a light field image from the image feature vector.
前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、
前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定手段と、
前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成手段と
を備える画像処理装置。 An image processing apparatus that inputs an input image that does not include light ray information and a light field dictionary generated in advance by the dictionary generation apparatus according to claim 6 to generate a light field image,
Image feature vector generation means for generating an image feature vector representing the feature of the input image from the input image;
A light field feature vector estimating means for estimating a light field feature vector representing the feature of the light field image from the image feature vector and the light field dictionary;
An image processing apparatus comprising: a light field image generating unit configured to generate the light field image to be generated from the light field feature vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150804A JP6353415B2 (en) | 2015-07-30 | 2015-07-30 | Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150804A JP6353415B2 (en) | 2015-07-30 | 2015-07-30 | Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017034388A true JP2017034388A (en) | 2017-02-09 |
JP6353415B2 JP6353415B2 (en) | 2018-07-04 |
Family
ID=57989456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015150804A Active JP6353415B2 (en) | 2015-07-30 | 2015-07-30 | Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6353415B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903233A (en) * | 2019-01-10 | 2019-06-18 | 华中科技大学 | A kind of joint image recovery and matching process and system based on linear character |
JP2021501946A (en) * | 2017-11-03 | 2021-01-21 | グーグル エルエルシーGoogle LLC | Aperture monitoring for single-view depth prediction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013240054A (en) * | 2012-05-14 | 2013-11-28 | Ricoh Co Ltd | Dictionary learning for non-coherent sampling |
JP2014063360A (en) * | 2012-09-21 | 2014-04-10 | Sony Corp | Signal processing apparatus, signal processing method, output apparatus, output method, and program |
JP2015091136A (en) * | 2013-11-05 | 2015-05-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Method and apparatus for image processing |
JP2016225852A (en) * | 2015-05-29 | 2016-12-28 | 日本電信電話株式会社 | Image processing apparatus, image processing method, and image processing program |
-
2015
- 2015-07-30 JP JP2015150804A patent/JP6353415B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013240054A (en) * | 2012-05-14 | 2013-11-28 | Ricoh Co Ltd | Dictionary learning for non-coherent sampling |
JP2014063360A (en) * | 2012-09-21 | 2014-04-10 | Sony Corp | Signal processing apparatus, signal processing method, output apparatus, output method, and program |
JP2015091136A (en) * | 2013-11-05 | 2015-05-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Method and apparatus for image processing |
JP2016225852A (en) * | 2015-05-29 | 2016-12-28 | 日本電信電話株式会社 | Image processing apparatus, image processing method, and image processing program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021501946A (en) * | 2017-11-03 | 2021-01-21 | グーグル エルエルシーGoogle LLC | Aperture monitoring for single-view depth prediction |
JP7013578B2 (en) | 2017-11-03 | 2022-01-31 | グーグル エルエルシー | Aperture monitoring for single-view depth prediction |
CN109903233A (en) * | 2019-01-10 | 2019-06-18 | 华中科技大学 | A kind of joint image recovery and matching process and system based on linear character |
Also Published As
Publication number | Publication date |
---|---|
JP6353415B2 (en) | 2018-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cai et al. | Toward real-world single image super-resolution: A new benchmark and a new model | |
Metzler et al. | Deep optics for single-shot high-dynamic-range imaging | |
Perra et al. | An analysis of 3D point cloud reconstruction from light field images | |
JP2017520944A (en) | Generation and use of 3D radon images | |
JP2013531268A (en) | Measuring distance using coded aperture | |
Vargas et al. | Time-multiplexed coded aperture imaging: Learned coded aperture and pixel exposures for compressive imaging systems | |
Chen et al. | Light field compressed sensing over a disparity-aware dictionary | |
Mitra et al. | A framework for analysis of computational imaging systems: role of signal prior, sensor noise and multiplexing | |
JP6353415B2 (en) | Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program | |
Rego et al. | Deep camera obscura: an image restoration pipeline for pinhole photography | |
CN103262523B (en) | Camera device, camera system, image capture method and image processing method | |
JP6867645B2 (en) | Image processing equipment, methods, and programs | |
JP6401674B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP7363765B2 (en) | Image processing device, imaging device, and image processing method | |
JP6353414B2 (en) | Image processing method, image processing apparatus, and image processing program | |
Gaikwad | A Review on Self Learning based Methods for Real World Single Image Super Resolution | |
JP6310418B2 (en) | Image processing method, image processing apparatus, and image processing program | |
Tezaur et al. | A system for estimating optics blur psfs from test chart images | |
Sahay et al. | Shape extraction of low‐textured objects in video microscopy | |
JP6310417B2 (en) | Image processing apparatus, image processing method, and image processing program | |
Kar et al. | Learning based regularization for spatial multiplexing cameras | |
CN112508801A (en) | Image processing method and computing device | |
Lumsdaine et al. | Fourier analysis of the focused plenoptic camera | |
JP2021057848A (en) | Encoding imaging device, full focus image reconstruction processing device, and full focus image imaging device | |
JP6297965B2 (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170830 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180531 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6353415 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |