JP2017034388A - Dictionary generation method, dictionary generation apparatus, image processing method, image processing apparatus, and image processing program - Google Patents

Dictionary generation method, dictionary generation apparatus, image processing method, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2017034388A
JP2017034388A JP2015150804A JP2015150804A JP2017034388A JP 2017034388 A JP2017034388 A JP 2017034388A JP 2015150804 A JP2015150804 A JP 2015150804A JP 2015150804 A JP2015150804 A JP 2015150804A JP 2017034388 A JP2017034388 A JP 2017034388A
Authority
JP
Japan
Prior art keywords
image
light field
feature vector
dictionary
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015150804A
Other languages
Japanese (ja)
Other versions
JP6353415B2 (en
Inventor
志織 杉本
Shiori Sugimoto
志織 杉本
信哉 志水
Shinya Shimizu
信哉 志水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015150804A priority Critical patent/JP6353415B2/en
Publication of JP2017034388A publication Critical patent/JP2017034388A/en
Application granted granted Critical
Publication of JP6353415B2 publication Critical patent/JP6353415B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a light field dictionary to be used for generating a light field image, and to generate the light field image by referring to the light field dictionary.SOLUTION: A light field dictionary is generated by using light-ray information obtained by a light field camera or a method for acquiring/generating the other light-ray information. Further, a light field information is generated by restoring light-ray information from a general image not including the light-ray information while referring to the light field dictionary based on focus blur information or the like included in the image.SELECTED DRAWING: Figure 1

Description

本発明は、辞書生成方法、辞書生成装置、画像処理方法、画像処理装置及び画像処理プログラムに関する。   The present invention relates to a dictionary generation method, a dictionary generation device, an image processing method, an image processing device, and an image processing program.

撮像素子に入光する光の方向を含めた光線情報を記録するライトフィールドカメラが実用化されたことで、撮像後のピント調節や三次元情報の復元など、光線情報を活用した新たな画像処理技術とアプリケーションの研究開発が盛んに行われるようになってきている。光線情報を記録する方法は古くから存在しており、多数のカメラを密に並べて同期して撮影する方法などが有名である(例えば、非特許文献1参照)。この方法は非常に多くの同型のカメラを並べ同期して動かすシステムを必要とし、また厳密なカメラ校正が要求されることから、費用や労力の点で実用が難しいと思われてきた。   Light field cameras that record light information including the direction of light entering the image sensor have been put into practical use, and new image processing using light information, such as focus adjustment after image capture and restoration of three-dimensional information. Research and development of technology and applications are actively being carried out. A method of recording light ray information has been present for a long time, and a method of photographing a large number of cameras closely arranged in synchronization is well known (for example, see Non-Patent Document 1). This method requires a system in which a large number of cameras of the same type are moved in synchronization with each other, and since strict camera calibration is required, it has been considered difficult to implement in terms of cost and labor.

しかしながら、近年一般向けにも販売されるようになったライトフィールドカメラ(例えば、非特許文献2参照)では、カメラ内部の主レンズの前後にマイクロレンズアレイを設置することで、多数のカメラを並べた場合と同じ(マイクロレンズアレイの設置位置を変えることで異なる構成を取ることもできる)ように光線情報を記録することを可能にした。   However, in a light field camera (for example, see Non-Patent Document 2) that has recently been sold to the general public, a large number of cameras are arranged by arranging microlens arrays before and after the main lens inside the camera. It is possible to record the light beam information in the same way as in the case of the above (it is possible to adopt a different configuration by changing the installation position of the microlens array).

B. Wilburn, N. Joshi, V. Vaish, E.-V. Talvala, E. Antunez, A. Barth, A. Adams, M. Horowitz, and M. Levoy, “High performance imaging using large camera arrays,” ACM Transactions on Graphics, vol. 24. p. 765, 2005.B. Wilburn, N. Joshi, V. Vaish, E.-V. Talvala, E. Antunez, A. Barth, A. Adams, M. Horowitz, and M. Levoy, “High performance imaging using large camera arrays,” ACM Transactions on Graphics, vol. 24. p. 765, 2005. R. Ng, M. Levoy, G. Duval, M. Horowitz, and P. Hanrahan, “Light Field Photography with a Hand-held Plenoptic Camera,” Stanford Tech Rep. CTSR, pp. 1-11, 2005.R. Ng, M. Levoy, G. Duval, M. Horowitz, and P. Hanrahan, “Light Field Photography with a Hand-held Plenoptic Camera,” Stanford Tech Rep. CTSR, pp. 1-11, 2005.

マイクロレンズアレイを伴うライトフィールドカメラでは従来のカメラと異なり光線情報を記録することが可能である。しかしながら、このカメラの記録方法では空間方向分解能と角度方向分解能がトレードオフであり、実用的に利用可能な撮像素子では従来のカメラによる写真撮影で要求されるような解像度を達成することは難しい。また、マイクロレンズアレイによる光の減衰によって光量が不足するためノイズの影響を受けやすく、それを補うために露出を調節するためブレの影響を受けることにもなる。このようにライトフィールドカメラによる撮像では従来のカメラで容易に達成可能な品質を得ることは難しいという問題がある。   Unlike a conventional camera, a light field camera with a microlens array can record light beam information. However, in this camera recording method, the spatial resolution and the angular resolution are a trade-off, and it is difficult to achieve the resolution required for photography with a conventional camera with a practically usable imaging device. In addition, the amount of light is insufficient due to attenuation of light by the microlens array, so that it is easily affected by noise, and in order to compensate for it, it is also affected by blurring. As described above, there is a problem that it is difficult to obtain a quality that can be easily achieved by a conventional camera in imaging using a light field camera.

本発明は、このような事情に鑑みてなされたもので、ライトフィールドカメラまたはその他の光線情報を取得・生成する方法によって得られた光線情報を使用してライトフィールド辞書を生成することができる辞書生成方法及び辞書生成装置を提供することを目的とする。また、光線情報を含まない一般の画像から、この画像に含まれる焦点ボケ情報等に基づきライトフィールド辞書を参照して、光線情報を復元しライトフィールド画像を生成することができる画像処理方法、画像処理装置及び画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and a dictionary capable of generating a light field dictionary using light information obtained by a light field camera or another method of acquiring and generating light information. An object is to provide a generation method and a dictionary generation device. Also, an image processing method and image that can generate a light field image by restoring light information from a general image that does not contain light information by referring to a light field dictionary based on out-of-focus information included in the image. It is an object to provide a processing device and an image processing program.

本発明の一態様は、辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置が行う辞書生成方法であって、前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成ステップと、前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成ステップと、前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成ステップとを有する辞書生成方法である。   One aspect of the present invention is a dictionary generation method performed by a dictionary generation apparatus that generates a light field dictionary from a light field image used for dictionary learning, and includes focusing with an arbitrary position from the light field image. A focused image generating step for generating an image; a light field feature vector generating step for generating a light field feature vector representing a feature of the light field image from the light field image; and a feature of the focused image from the focused image A dictionary generation step including: an image feature vector generation step for generating an image feature vector representing the image; and a dictionary generation step for generating the light field dictionary used when generating a light field image from the light field feature vector and the image feature vector Direction It is.

本発明の一態様は、前記辞書生成方法であって、前記画像特徴ベクトル生成ステップは、前記焦点合わせ画像の焦点ボケを表すパラメータを推定するボケパラメータを推定し前記画像特徴ベクトルとする。   One aspect of the present invention is the dictionary generation method, wherein the image feature vector generation step estimates a blur parameter for estimating a parameter representing a focus blur of the focused image and sets the image feature vector.

本発明の一態様は、光線情報を含まない入力画像と、前記辞書生成方法によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置が行う画像処理方法であって、前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定ステップと、前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成ステップとを有する画像処理方法である。   One aspect of the present invention is an image processing method performed by an image processing apparatus that inputs an input image not including light ray information and a light field dictionary generated in advance by the dictionary generation method, and generates a light field image. An image feature vector generating step for generating an image feature vector representing the feature of the input image from the input image, and a light field feature vector representing the feature of the light field image is estimated from the image feature vector and the light field dictionary. An image processing method comprising: a light field feature vector estimation step; and a light field image generation step for generating the light field image to be generated from the light field feature vector.

本発明の一態様は、前記画像処理方法であって、前記画像特徴ベクトル生成ステップは、前記入力画像の焦点ボケを表すボケパラメータを推定するためのボケパラメータを推定し前記画像特徴ベクトルとする。   One aspect of the present invention is the image processing method, wherein the image feature vector generation step estimates a blur parameter for estimating a blur parameter representing a focal blur of the input image and sets the image feature vector as the image feature vector.

本発明の一態様は、前記画像処理方法であって、前記ライトフィールド画像生成ステップは、前記ライトフィールド特徴ベクトルと、新たに復元されるライトフィールド画像から求められるライトフィールド特徴ベクトルとが一致するように前記ライトフィールド画像を生成する。   One aspect of the present invention is the image processing method, wherein in the light field image generation step, the light field feature vector matches a light field feature vector obtained from a newly restored light field image. The light field image is generated.

本発明の一態様は、辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置であって、前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成手段と、前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成手段と、前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成手段とを備える辞書生成装置である。   One aspect of the present invention is a dictionary generation device that generates a light field dictionary from a light field image used for dictionary learning, and a focus that generates a focused image in which a focal length is adjusted to an arbitrary position from the light field image. A matched image generating means; a light field feature vector generating means for generating a light field feature vector representing the characteristics of the light field image from the light field image; and an image feature vector representing the characteristics of the focused image from the focused image. A dictionary generation device comprising: an image feature vector generation means for generating a light field dictionary; and a dictionary generation means for generating the light field dictionary used when generating a light field image from the light field feature vector.

本発明の一態様は、光線情報を含まない入力画像と、前記辞書生成装置によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置であって、前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定手段と、前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成手段とを備える画像処理装置である。   One aspect of the present invention is an image processing apparatus that inputs an input image that does not include light ray information and a light field dictionary generated in advance by the dictionary generation apparatus, and generates a light field image. Image feature vector generation means for generating an image feature vector representing the feature of the input image, and light field feature vector estimation for estimating a light field feature vector representing the feature of the light field image from the image feature vector and the light field dictionary And a light field image generating means for generating the light field image to be generated from the light field feature vector.

本発明の一態様は、前記画像処理方法をコンピュータに実行させるための画像処理プログラムである。   One aspect of the present invention is an image processing program for causing a computer to execute the image processing method.

本発明によれば、ライトフィールドカメラまたはその他の光線情報を取得・生成する方法によって得られた光線情報を使用してライトフィールド辞書を容易に生成することができる。また、光線情報を含まない一般の画像から、そこに含まれる焦点ボケ情報などの情報に基づきライトフィールド辞書を参照して、光線情報を復元しライトフィールド画像を容易に生成することができるという効果が得られる。   According to the present invention, it is possible to easily generate a light field dictionary using light ray information obtained by a light field camera or other light ray information obtaining / generating method. Further, it is possible to easily generate a light field image by restoring light information from a general image that does not include light ray information by referring to the light field dictionary based on information such as out-of-focus information included therein. Is obtained.

本発明の一実施形態による辞書生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the dictionary production | generation apparatus by one Embodiment of this invention. 図1に示す辞書生成装置100の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the dictionary production | generation apparatus 100 shown in FIG. 本発明の一実施形態によるライトフィールド画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the light field image generation apparatus by one Embodiment of this invention. 図3に示すライトフィールド画像生成装置200の処理動作を示すフローチャートである。4 is a flowchart showing a processing operation of the light field image generation device 200 shown in FIG. 3.

以下、図面を参照して、本発明の一実施形態による辞書生成装置とライトフィールド画像生成装置を説明する。始めに、辞書生成装置について説明する。図1は同実施形態による辞書生成装置の構成を示すブロック図である。辞書生成装置100は、図1に示すように、ライトフィールド画像入力部101、焦点合わせ画像生成部102、パッチ生成部103、ライトフィールド特徴ベクトル生成部104、画像特徴ベクトル生成部105、及び学習部106を備えている。   Hereinafter, a dictionary generation apparatus and a light field image generation apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, the dictionary generation device will be described. FIG. 1 is a block diagram showing the configuration of the dictionary generation apparatus according to the embodiment. As shown in FIG. 1, the dictionary generation apparatus 100 includes a light field image input unit 101, a focused image generation unit 102, a patch generation unit 103, a light field feature vector generation unit 104, an image feature vector generation unit 105, and a learning unit. 106 is provided.

ライトフィールド画像入力部101は、辞書学習に使用するライトフィールド画像を外部から入力する。以下では、このライトフィールド画像をLF画像と称する。焦点合わせ画像生成部102は、入力されたLF画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する。パッチ生成部103は、LF画像及び焦点合わせ画像をあらかじめ定められた大きさのパッチに分割し、ライトフィールドパッチ群と画像パッチ群を生成する。以下では、ライトフィールドパッチ群をLFパッチ群と称する。   The light field image input unit 101 inputs a light field image used for dictionary learning from the outside. Hereinafter, this light field image is referred to as an LF image. The focused image generation unit 102 generates a focused image in which the focal length is adjusted to an arbitrary position from the input LF image. The patch generation unit 103 divides the LF image and the focused image into patches having a predetermined size, and generates a light field patch group and an image patch group. Hereinafter, the light field patch group is referred to as an LF patch group.

ライトフィールド特徴ベクトル生成部104はLFパッチ群からライトフィールド特徴ベクトル群を生成し、画像特徴ベクトル生成部105は画像パッチ群から画像特徴ベクトル群を生成する。以下では、ライトフィールド特徴ベクトル群をLF特徴ベクトル群と称する。学習部106は、LF特徴ベクトル群と画像ベクトル群とからライトフィールド辞書(以下、LF辞書と称する)を生成し出力する。   The light field feature vector generation unit 104 generates a light field feature vector group from the LF patch group, and the image feature vector generation unit 105 generates an image feature vector group from the image patch group. Hereinafter, the light field feature vector group is referred to as an LF feature vector group. The learning unit 106 generates and outputs a light field dictionary (hereinafter referred to as LF dictionary) from the LF feature vector group and the image vector group.

次に、図2を参照して、図1に示す辞書生成装置100の処理動作を説明する。図2は、図1に示す辞書生成装置100の処理動作を示すフローチャートである。まず、ライトフィールド画像入力部101は、辞書学習に使用するLF画像を入力する(ステップS101)。LF画像はある撮像系に入光した光線の情報を記録した画像である。LF画像はどのように表現されてもよい。   Next, the processing operation of the dictionary generation device 100 shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a flowchart showing the processing operation of the dictionary generation apparatus 100 shown in FIG. First, the light field image input unit 101 inputs an LF image used for dictionary learning (step S101). The LF image is an image in which information of light rays incident on a certain imaging system is recorded. The LF image may be expressed in any way.

一般には、通常の画像が縦・横にピクセルを並べた形の二次元配列で表されるのに対し、LF画像はさらに二方向の角度を表現する二次元を追加した四次元配列の形で表される。空間分解能がH(高さ)xW(幅)で角度分解能がNxMである場合、LF画像はHxWxNxMの四次元配列で表すことができる(参考文献1:「M. Levoy and P. Hanrahan, “Light field rendering,” Proc. 23rd Annu. Conf. Comput. Graph. Interact. Tech. - SIGGRAPH ’96, pp. 31-42, 1996.」)。   In general, a normal image is represented by a two-dimensional array in which pixels are arranged vertically and horizontally, whereas an LF image is a four-dimensional array in which two dimensions are added to express angles in two directions. expressed. When the spatial resolution is H (height) xW (width) and the angular resolution is NxM, the LF image can be represented by a four-dimensional array of HxWxNxM (Reference 1: “M. Levoy and P. Hanrahan,“ Light Field rendering, ”Proc. 23rd Annu. Conf. Comput. Graph. Interact. Tech.-SIGGRAPH '96, pp. 31-42, 1996.”).

このLF画像から任意の距離に焦点を合わせた画像を生成する場合、生成される画像の解像度は再サンプリングや超解像などの解像度を増大させる処理を特別に行わなければHxWとなる。この他に、HxWの解像度を持つNxM枚の多視点画像として表現することもできる。この場合の各視点の画像は光線情報を方向別に画像としてまとめたものであり、同じ光線情報を多数のカメラを使用して撮像する場合に各カメラで撮像される画像と同一である。   When generating an image focused on an arbitrary distance from the LF image, the resolution of the generated image is HxW unless special processing for increasing the resolution such as resampling or super-resolution is performed. In addition, it can be expressed as N × M multi-viewpoint images having a resolution of HxW. In this case, each viewpoint image is a collection of ray information as an image for each direction, and is the same as an image captured by each camera when the same ray information is captured using a number of cameras.

以下では、この表現における各視点の画像を副開口画像(sub−aperture image)と称する。また、一般のライトフィールドカメラの撮像画像そのままに主レンズとマイクロレンズアレイを介して撮像素子に記録された画像をそのまま入力としてもよい。そのほかにどの様な形式のLF画像を入力としてもよい。また、複数のLF画像を入力してもよい。   Hereinafter, an image at each viewpoint in this expression is referred to as a sub-aperture image. Alternatively, an image recorded on an image sensor via a main lens and a microlens array may be directly input as an image captured by a general light field camera. In addition, any type of LF image may be input. A plurality of LF images may be input.

次に、焦点合わせ画像生成部102は、入力されたLF画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する(ステップS102)。焦点距離はLF画像の撮像に用いた主レンズの焦点距離と同じとしてもよいし、また異なる焦点距離でもよい。また、入力のLF画像が複数ある場合には、同じ距離に合わせてもよいし、それぞれ異なる距離に合わせてもよい。また、焦点合わせ画像の作成方法はどのような方法でもよい。よく知られている方法としては、シフト加算法やフーリエスライス法(参考文献2「R. Ng, “Fourier slice photography,” ACM SIGGRAPH 2005 Pap. - SIGGRAPH ’05, p. 735, 2005.」)などがある。   Next, the focused image generation unit 102 generates a focused image in which the focal length is adjusted to an arbitrary position from the input LF image (step S102). The focal length may be the same as the focal length of the main lens used to capture the LF image, or may be a different focal length. When there are a plurality of input LF images, they may be adjusted to the same distance or different distances. In addition, any method may be used to create the focused image. Well-known methods include the shift addition method and the Fourier slice method (reference 2 “R. Ng,“ Fourier slice photography, ”ACM SIGGRAPH 2005 Pap.-SIGGRAPH '05, p. 735, 2005.”) There is.

次に、パッチ生成部103は、LF画像及び焦点合わせ画像をあらかじめ定められた大きさのパッチに分割し、LFパッチ群と画像パッチ群を生成する(ステップS103)。パッチの大きさはどのような大きさでもよい。また、複数のパッチが重複していてもよい。以下ではwxhの空間解像度、nxmの角度解像度のパッチを使用すると仮定して説明する。対になるLFパッチと画像パッチにおいて空間方向の位置は一致させることとする。   Next, the patch generation unit 103 divides the LF image and the focused image into patches having a predetermined size, and generates an LF patch group and an image patch group (step S103). The size of the patch may be any size. A plurality of patches may be overlapped. In the following description, it is assumed that a patch having a spatial resolution of wxh and an angular resolution of nxm is used. The positions in the spatial direction are matched between the paired LF patch and the image patch.

次に、ライトフィールド特徴ベクトル生成部104はLFパッチ群からライトフィールド特徴ベクトル群を生成し、画像特徴ベクトル生成部105は画像パッチ群から画像特徴ベクトル群を生成する(ステップS104)。それぞれの特徴ベクトルはどのような方法で生成してもよい。もっとも単純な場合には、それぞれの画像を一次元ベクトルとして並べ替えたものを使用してもよい。他に、各画像の勾配ベクトルや、よりLF画像の復元に特化するために、焦点ボケの特徴を含むようなベクトルを生成し使用してもよい。   Next, the light field feature vector generation unit 104 generates a light field feature vector group from the LF patch group, and the image feature vector generation unit 105 generates an image feature vector group from the image patch group (step S104). Each feature vector may be generated by any method. In the simplest case, images obtained by rearranging each image as a one-dimensional vector may be used. In addition, in order to specialize in the gradient vector of each image and the restoration of the LF image, a vector that includes a feature of defocusing may be generated and used.

例えば、焦点合わせ画像に対して任意の方法でボケ量推定やボケカーネル推定を行い、その推定量や推定カーネル、またはそのパラメータなどを特徴ベクトルとして使用してもよい。ボケ量推定の方法はどのようなものでもよいが、例えば参考文献3「S. Zhuo and T. Sim, “Defocus map estimation from a single image,” Pattern Recognit., vol. 44, no. 9, pp. 1852-1858, Sep. 2011.」で示されるように、異なる二つのパラメータでガウシアンフィルタをかけた画像の勾配量を比較する方法などがある。この方法では焦点ボケをガウスぼけと仮定し、そのパラメータを推定するものである。元画像をI,任意のガウシアンフィルタのパラメータをσ,σ:σ<σ、ガウシアンフィルタの演算子をG(x,y,σ),勾配演算子を∇とすると、位置(x,y)におけるボケパラメータσ(x,y)は、

Figure 2017034388
Figure 2017034388
と推定される。 For example, blur amount estimation or blur kernel estimation may be performed on the focused image by an arbitrary method, and the estimated amount, estimation kernel, or parameter thereof may be used as a feature vector. Any method of estimating the amount of blur may be used. For example, Reference 3 “S. Zhuo and T. Sim,“ Defocus map estimation from a single image, ”Pattern Recognit., Vol. 44, no. 9, pp 1852-1858, Sep. 2011. ", there is a method of comparing the gradient amounts of images that are Gaussian filtered with two different parameters. In this method, the focal blur is assumed to be Gaussian blur, and its parameters are estimated. If the original image is I, the parameters of an arbitrary Gaussian filter are σ 1 , σ 2 : σ 12 , the operator of the Gaussian filter is G (x, y, σ), and the gradient operator is ∇, the position (x , Y), the blur parameter σ (x, y) is
Figure 2017034388
Figure 2017034388
It is estimated to be.

また、同様の方法を平均ボケなどの異なるモデルに応用することも可能である。また、モデルを仮定しパラメータを推定する方法のほかに参考文献4「H. Zhang, J. Yang, Y. Zhang, and T. S. Huang, “Sparse Representation Based Blind Image Deblurring,” IEEE Int. Conf. Multimed. Expo, pp. 1-6, 2011.」で示されるように直接ボケカーネルを推定する方法などを使用し、推定されたボケカーネルを特徴ベクトルとするなどしてもよい。   It is also possible to apply the same method to different models such as average blur. In addition to the method of estimating parameters assuming a model, Reference 4 “H. Zhang, J. Yang, Y. Zhang, and TS Huang,“ Sparse Representation Based Blind Image Deblurring, ”IEEE Int. Conf. Multimed. As shown in Expo, pp. 1-6, 2011., a method of directly estimating a blur kernel may be used, and the estimated blur kernel may be used as a feature vector.

また、複数の特徴ベクトルや画像を結合して一つの特徴ベクトルとしてもよい。例えば、勾配ベクトルとボケカーネルをベクトル化し結合することで画像特徴ベクトルとするなどである。ただし、LF特徴ベクトルについては、後で説明するライトフィールド画像生成装置において画像パッチから得られる情報とLF辞書を用いて復元されるライトフィールド特徴ベクトルとからLF画像を生成可能である必要がある。   A plurality of feature vectors and images may be combined into one feature vector. For example, an image feature vector is obtained by vectorizing and combining a gradient vector and a blur kernel. However, as for the LF feature vector, it is necessary to be able to generate an LF image from information obtained from an image patch and a light field feature vector restored using an LF dictionary in a light field image generation device described later.

例えば、LFパッチの各角度画像について画像パッチとの差分を取ったものを特徴ベクトルとするなどである。条件を満たす限りにおいてどのような特徴ベクトルを選んでもよい。また、この特徴ベクトル生成のために各種画像処理が必要である場合には、パッチ生成の前に行ってもよい。   For example, for each angle image of the LF patch, the difference between the LF patch and the image patch is used as a feature vector. Any feature vector may be selected as long as the condition is satisfied. Further, when various image processing is necessary for generating the feature vector, it may be performed before the patch generation.

次に、学習部106は、LF特徴ベクトル群と画像特徴ベクトル群とからLF辞書を生成し出力する(ステップS105)。LF辞書の生成はどのような方法で行ってもよい。もっとも単純には、対になるベクトル群を直接含むデータベースをLF辞書とする方法がある。さらに好適な方法としては、両ベクトル群を対になるもの同士で結合し結合ベクトル群とし、すべての結合ベクトルを最もよく表す有限な数の基底を学習によって求める方法がある。   Next, the learning unit 106 generates and outputs an LF dictionary from the LF feature vector group and the image feature vector group (step S105). The LF dictionary may be generated by any method. The simplest method is to use a database that directly includes a pair of vectors as an LF dictionary. As a more preferable method, there is a method in which both vector groups are coupled together to form a coupled vector group, and a finite number of bases that best represent all coupled vectors are obtained by learning.

学習方法としては主成分分析や独立主成分分析などどのような方法を使用してもよいが、以下ではスパースコーディング(参考文献5「M. Elad and M. Aharon, “Image denoising via sparse and redundant representation over learned dictionaries,” IEEE Transations Image Process., vol. 15, no. 12, pp. 3736-3745, 2006.」)を使用することとして説明する。スパースコーディングでは、どのベクトルもLF辞書内の非常に少数の基底から構成可能になるようにLF辞書を最適化する。   As a learning method, any method such as principal component analysis or independent principal component analysis may be used, but in the following, sparse coding (reference document 5 “M. Elad and M. Aharon,“ Image denoising via sparse and redundant representation ” over learned dictionaries, ”IEEE Transations Image Process., vol. 15, no. 12, pp. 3736-3745, 2006.”). In sparse coding, the LF dictionary is optimized so that any vector can be constructed from a very small number of bases in the LF dictionary.

以下では、LF特徴ベクトル群からなる行列をF,画像特徴ベクトル群からなる行列をF、結合ベクトルからなる行列をF,辞書をD,係数行列をAとする。辞書Dを最適化する方法としてL1正則化(lasso)を使用する場合、以下の式に基づき最適化を行う。

Figure 2017034388
Figure 2017034388
第二項はスパース項であり、λはそのパラメータである。 In the following, it is assumed that the matrix composed of the LF feature vector group is F 1 , the matrix composed of the image feature vector group is F i , the matrix composed of the combined vector is F c , the dictionary is D, and the coefficient matrix is A. When L1 regularization (lasso) is used as a method of optimizing the dictionary D, optimization is performed based on the following equation.
Figure 2017034388
Figure 2017034388
The second term is a sparse term and λ is its parameter.

第二項(スパース項)の影響により、サンプルとなるパッチが十分に多ければホワイトノイズなどのノイズはスパースに表現することが困難となるため、各基底は画像の本質的な特徴をよく表現するものに最適化される。ここで作成された辞書は結合ベクトルの結合点で分割することでLF辞書と画像辞書とに分割でき、ある共通の係数とそれぞれの辞書を使用して復元されるLF特徴ベクトルと画像特徴ベクトルは互いに対応関係をもつ。つまり、LF辞書をD,画像辞書をDとし、ある任意の画像特徴ベクトルfについて

Figure 2017034388
Figure 2017034388
となる係数ベクトルαを求めると、対応するLF特徴ベクトルfはおおむね
Figure 2017034388
として推定できる。 Due to the influence of the second term (sparse term), noise such as white noise becomes difficult to express sparsely if there are enough samples to be sampled, so each base expresses the essential features of the image well. Optimized for things. The created dictionary can be divided into an LF dictionary and an image dictionary by dividing at the connection points of the connection vectors. An LF feature vector and an image feature vector restored using a common coefficient and each dictionary are Corresponding to each other. That is, LF dictionary is D l , image dictionary is D i, and some arbitrary image feature vector f i
Figure 2017034388
Figure 2017034388
When the coefficient vector α is obtained, the corresponding LF feature vector f l is approximately
Figure 2017034388
Can be estimated.

また、LF特徴ベクトル群と画像特徴ベクトル群について独立に辞書を学習し、その後で対応関係にある特徴ベクトル同士が共通の係数で表現できるように辞書間の変換演算子を作成し変換を施すこととしてもよい。   In addition, the dictionary is learned independently for the LF feature vector group and the image feature vector group, and then a conversion operator between the dictionaries is created and converted so that the feature vectors in the correspondence relationship can be expressed by a common coefficient. It is good.

その場合、

Figure 2017034388
Figure 2017034388
となるAとAについて、
Figure 2017034388
となる変換演算子Tを求めることで、(6)式のαに対応するLF特徴ベクトルfはおおむね
Figure 2017034388
として推定できる。 In that case,
Figure 2017034388
Figure 2017034388
For A l and A i
Figure 2017034388
LF feature vector f l corresponding to α in equation (6) is approximately
Figure 2017034388
Can be estimated.

また別の方法としては、LF特徴ベクトルから辞書を生成し、これに任意の演算子を作用させて画像辞書を生成するなどしてもよい。例えばLF特徴ベクトルとしてLF画像そのものを使用する場合には、辞書の各基底から焦点合わせ画像生成を使用することで各基底に対応する焦点合わせ画像を生成し、この焦点合わせ画像から画像特徴ベクトルを生成し画像辞書の基底とするなどしてもよい。また、このような場合には辞書生成と画像辞書生成を繰り返し行うことで両辞書の最適化を行ってもよい。例えば、(8)式を満たすDについて、焦点合わせ画像の生成演算子をRとして

Figure 2017034388
とし、このDに対して
Figure 2017034388
となるAを求め、
Figure 2017034388
となるDを求めるなどである。 As another method, a dictionary may be generated from LF feature vectors, and an arbitrary operator may be applied to the dictionary to generate an image dictionary. For example, when the LF image itself is used as the LF feature vector, a focus image corresponding to each base is generated by using the focus image generation from each base of the dictionary, and the image feature vector is obtained from the focus image. It may be generated and used as the base of an image dictionary. In such a case, both dictionaries may be optimized by repeatedly performing dictionary generation and image dictionary generation. For example, for D l satisfying equation (8), let the focus image generation operator be R.
Figure 2017034388
And for this Di
Figure 2017034388
For A to be
Figure 2017034388
For example, D 1 is obtained.

次に、図面を参照して、本発明の一実施形態によるライトフィールド画像生成装置を説明する。図3は同実施形態によるライトフィールド画像生成装置の構成を示すブロック図である。ライトフィールド画像生成装置200は、図3に示すように、画像入力部201、辞書入力部202、パッチ生成部203、画像特徴ベクトル生成部204、係数ベクトル推定部205及びライトフィールド画像生成部206を備えている。   Next, a light field image generating device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 3 is a block diagram showing the configuration of the light field image generation device according to the embodiment. As shown in FIG. 3, the light field image generation device 200 includes an image input unit 201, a dictionary input unit 202, a patch generation unit 203, an image feature vector generation unit 204, a coefficient vector estimation unit 205, and a light field image generation unit 206. I have.

画像入力部201は、LF画像の元となる光線情報を含まない画像を入力する。以下では、この画像を入力画像と称する。辞書入力部202は、LF辞書及び画像辞書を入力する。パッチ生成部203は、入力画像をあらかじめ定められた大きさのパッチに分割し、画像パッチ群を生成する。画像特徴ベクトル生成部204は画像パッチ群から画像特徴ベクトル群を生成する。係数ベクトル推定部205は、画像特徴ベクトルと画像辞書とから各特徴ベクトルに対応する係数ベクトル群を推定する。ライトフィールド画像生成部206は、係数ベクトル群とLF辞書とからLF特徴ベクトルを生成し、LF特徴ベクトルからLFパッチ群を生成し、LFパッチ群からLF画像を生成し出力する。   The image input unit 201 inputs an image that does not include light ray information that is the basis of the LF image. Hereinafter, this image is referred to as an input image. The dictionary input unit 202 inputs an LF dictionary and an image dictionary. The patch generation unit 203 divides the input image into patches having a predetermined size, and generates an image patch group. The image feature vector generation unit 204 generates an image feature vector group from the image patch group. The coefficient vector estimation unit 205 estimates a coefficient vector group corresponding to each feature vector from the image feature vector and the image dictionary. The light field image generation unit 206 generates an LF feature vector from the coefficient vector group and the LF dictionary, generates an LF patch group from the LF feature vector, and generates and outputs an LF image from the LF patch group.

次に、図4を参照して、図3に示すライトフィールド画像生成装置200の処理動作を説明する。図4は、図3に示すライトフィールド画像生成装置200の処理動作を示すフローチャートである。まず、画像入力部201は、LF画像の元となる光線情報を含まない画像を入力する(ステップS201)。入力画像はどのようなものでもよいが、好適には任意の点に焦点を合わせ、焦点の合っていない個所においては焦点ボケがみられるものであるとする。   Next, the processing operation of the light field image generating apparatus 200 shown in FIG. 3 will be described with reference to FIG. FIG. 4 is a flowchart showing the processing operation of the light field image generating apparatus 200 shown in FIG. First, the image input unit 201 inputs an image that does not include light ray information that is the source of the LF image (step S201). The input image may be any image, but it is preferable that an arbitrary point is focused, and defocusing is observed at an out-of-focus position.

次に、辞書入力部202は、LF辞書及び画像辞書を入力する(ステップS202)。両辞書は独立に入力してもよいし、結合したものでもよい。前述の辞書生成装置100についての説明の通り、辞書間に何らかの変換演算子を必要とする場合は別途入力してもよい。   Next, the dictionary input unit 202 inputs an LF dictionary and an image dictionary (step S202). Both dictionaries may be input independently or combined. As described for the dictionary generation apparatus 100 described above, if any conversion operator is required between the dictionaries, it may be input separately.

次に、パッチ生成部203は、入力画像をあらかじめ定められた大きさのパッチに分割し、画像パッチ群を生成する(ステップS203)。パッチの大きさは入力する辞書によって定められるものとする。   Next, the patch generation unit 203 divides the input image into patches having a predetermined size, and generates an image patch group (step S203). The size of the patch is determined by the input dictionary.

次に、画像特徴ベクトル生成部204は画像パッチ群から画像特徴ベクトル群を生成する(ステップS204)。画像特徴ベクトルはどのような方法で生成してもよいが、画像辞書を生成する際に使用した画像特徴ベクトルと同種の画像特徴ベクトルを生成できる方法であるとする。また、この画像特徴ベクトル生成のために勾配を求める処理など各種画像処理が必要である場合には、パッチ生成の前に行ってもよい。   Next, the image feature vector generation unit 204 generates an image feature vector group from the image patch group (step S204). The image feature vector may be generated by any method, but it is assumed that the image feature vector of the same type as the image feature vector used when generating the image dictionary can be generated. In addition, when various image processes such as a process for obtaining a gradient for generating the image feature vector are necessary, the process may be performed before the patch generation.

次に、係数ベクトル推定部205は、画像特徴ベクトルと画像辞書とから各特徴ベクトルに対応する係数ベクトル群を推定する(ステップS205)。係数ベクトルの推定にはどのような方法を使用してもよく、辞書生成装置100における最適化方法とは異なる方法であってもよい。例えば、L1正則化の代わりにL0正則化を用いることとして

Figure 2017034388
としてもよい。その他にどのような方法を用いてもよい。 Next, the coefficient vector estimation unit 205 estimates a coefficient vector group corresponding to each feature vector from the image feature vector and the image dictionary (step S205). Any method may be used for the estimation of the coefficient vector, and a method different from the optimization method in the dictionary generation apparatus 100 may be used. For example, using L0 regularization instead of L1 regularization
Figure 2017034388
It is good. Any other method may be used.

次に、ライトフィールド画像生成部206は、係数ベクトル群とLF辞書とからLF特徴ベクトル群を生成し、LF特徴ベクトル群からLFパッチ群を生成し、LFパッチ群からLF画像を生成し出力する(ステップS206)。LF特徴ベクトルの生成方法は辞書生成装置100における辞書学習方法に準じ、(7)式や(11)式、または辞書生成方法に対応した任意の方法で生成する。LF特徴ベクトル群からLFパッチ群を生成する方法はどのような方法を使用してもよい。例えば、辞書生成装置100においてLFパッチの各角度画像について画像パッチとの差分を取ったものを特徴ベクトルとするなどの方法でLF特徴ベクトルを生成している場合には、復元されたLF特徴ベクトルを画像化し画像パッチの値を足すことでLFパッチが復元できる。   Next, the light field image generation unit 206 generates an LF feature vector group from the coefficient vector group and the LF dictionary, generates an LF patch group from the LF feature vector group, and generates and outputs an LF image from the LF patch group. (Step S206). The generation method of the LF feature vector is generated in accordance with the dictionary learning method in the dictionary generation device 100 by the expression (7), the expression (11), or an arbitrary method corresponding to the dictionary generation method. Any method may be used for generating the LF patch group from the LF feature vector group. For example, when the dictionary generation apparatus 100 generates an LF feature vector by a method such as using a difference between an image patch of each angle image of the LF patch as a feature vector, the restored LF feature vector The LF patch can be restored by imaging the image and adding the value of the image patch.

また、LF特徴ベクトルから線形演算でLFパッチを復元することが不可能であるようなLF特徴ベクトルを生成している場合には、どのような非線形な方法を使用してもよい。例えば、LF特徴ベクトルとしてLFパッチの勾配を使用している場合、LFパッチをp,LF特徴ベクトルをfとし、勾配演算子をGとして、

Figure 2017034388
となるようなLFパッチを推定するなどの方法を使用してもよい。このほかにどのような方法を使用してもよいし、画像パッチまたは画像特徴ベクトルの情報を利用するなどしてもよい。例えば、画像パッチをp、LF画像から焦点合わせ画像を生成する演算子をRとして、
Figure 2017034388
となるようなLFパッチを推定するなどの方法を使用してもよい。 In addition, any non-linear method may be used when an LF feature vector that cannot restore the LF patch by linear calculation is generated from the LF feature vector. For example, if you are using a gradient of LF patch as LF feature vector, the LF patch p l, the LF feature vector and f l, the gradient operator as G,
Figure 2017034388
A method such as estimating an LF patch such that Any other method may be used, and information on an image patch or an image feature vector may be used. For example, an image patch p i, operators that generate focus image from LF image as R,
Figure 2017034388
A method such as estimating an LF patch such that

LFパッチ群からLF画像を生成する方法にもどのような方法を使用してもよい。一般には、すべてのパッチを対応する画像位置に合わせ、複数のパッチが重なる部分は加算平均をとるといった方法が使用される。生成したLF画像を出力し処理を終了する。   Any method may be used for generating the LF image from the LF patch group. In general, a method is used in which all patches are matched to corresponding image positions, and an average of the portions where a plurality of patches overlap is obtained. The generated LF image is output and the process ends.

前述の実施形態においてはLF辞書及び画像辞書を一組生成し復元に使用したが、複数の辞書を生成して使用してもよい。例えば、(1)式、(2)式で示されるような方法で画像のボケ量を推定し、ボケ量毎に異なる辞書を生成し使用するなどしてもよい。   In the above embodiment, a set of LF dictionaries and image dictionaries are generated and used for restoration. However, a plurality of dictionaries may be generated and used. For example, the amount of blurring of an image may be estimated by a method represented by Equations (1) and (2), and a different dictionary may be generated and used for each amount of blurring.

また、前述の実施形態では辞書生成装置100で生成した辞書を使用してLF画像の生成を行ったが、別の方法で生成した辞書を使用してもよい。例えば、任意のLF辞書を使用して(12)式に示される方法などで対になる画像辞書を作ってもよいし、任意のLF辞書と画像辞書の間の変換演算子を(11)式に示す方法などで決定してもよい。   In the above-described embodiment, the LF image is generated using the dictionary generated by the dictionary generation apparatus 100. However, a dictionary generated by another method may be used. For example, a pair of image dictionaries may be created using an arbitrary LF dictionary by the method shown in equation (12), or a conversion operator between an arbitrary LF dictionary and an image dictionary may be expressed by equation (11). It may be determined by the method shown in FIG.

以上説明したように、光線情報を持たない入力画像からライトフィールド画像を生成する際に、入力画像を分割した画像パッチから生成した画像特徴ベクトルとLF辞書を用いて光線情報を復元することにより、入力画像からライトフィールド画像を生成することが可能になる。   As described above, when generating a light field image from an input image having no light ray information, by restoring the light ray information using the image feature vector generated from the image patch obtained by dividing the input image and the LF dictionary, A light field image can be generated from the input image.

なお、上記すべての実施形態において一部の処理はその順序が前後しても構わない。また、上記すべての実施形態において一部の処理はその順序が前後しても構わない。また、前述した実施形態における辞書生成装置、ライトフィールド画像生成装置の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   In all the above embodiments, the order of some processes may be changed. In all the above embodiments, the order of some processes may be changed. Further, all or part of the dictionary generation device and the light field image generation device in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

光線情報を含まない一般の画像からライトフィールド画像を生成しピント調節や三次元情報の推定などを行うのに不可欠な用途に適用できる。   It can be applied to applications indispensable for generating a light field image from a general image that does not include light ray information and performing focus adjustment and estimation of three-dimensional information.

100・・・辞書生成装置、101・・・ライトフィールド画像入力部、102・・・焦点合わせ画像生成部、103・・・パッチ生成部、104・・・ライトフィールド特徴ベクトル生成部、105・・・画像特徴ベクトル生成部、106・・・学習部、200・・・ライトフィールド画像生成装置、201・・・画像入力部、202・・・辞書入力部、203・・・パッチ生成部、204・・・画像特徴ベクトル生成部、205・・・係数ベクトル推定部、206・・・ライトフィールド画像生成部   DESCRIPTION OF SYMBOLS 100 ... Dictionary generation apparatus, 101 ... Light field image input part, 102 ... Focusing image generation part, 103 ... Patch generation part, 104 ... Light field feature vector generation part, 105 ... Image feature vector generation unit 106 ... Learning unit 200 ... Light field image generation device 201 ... Image input unit 202 ... Dictionary input unit 203 ... Patch generation unit 204 ..Image feature vector generation unit, 205 ... coefficient vector estimation unit, 206 ... light field image generation unit

Claims (8)

辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置が行う辞書生成方法であって、
前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成ステップと、
前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成ステップと、
前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、
前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成ステップと
を有する辞書生成方法。
A dictionary generation method performed by a dictionary generation device that generates a light field dictionary from a light field image used for dictionary learning,
A focused image generating step for generating a focused image in which a focal length is adjusted to an arbitrary position from the light field image;
A light field feature vector generating step for generating a light field feature vector representing the feature of the light field image from the light field image;
An image feature vector generation step for generating an image feature vector representing the feature of the focused image from the focused image;
A dictionary generation method comprising: the light field feature vector; and a dictionary generation step of generating the light field dictionary used when generating a light field image from the image feature vector.
前記画像特徴ベクトル生成ステップは、前記焦点合わせ画像の焦点ボケを表すパラメータを推定するボケパラメータを推定し前記画像特徴ベクトルとする請求項1に記載の辞書生成方法。   The dictionary generation method according to claim 1, wherein the image feature vector generation step estimates a blur parameter for estimating a parameter representing a focal blur of the focused image and sets the parameter as the image feature vector. 光線情報を含まない入力画像と、請求項1または2に記載の辞書生成方法によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置が行う画像処理方法であって、
前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成ステップと、
前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定ステップと、
前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成ステップと
を有する画像処理方法。
An image processing method performed by an image processing apparatus that inputs an input image not including light ray information and a light field dictionary generated in advance by the dictionary generation method according to claim 1 and generates a light field image,
An image feature vector generating step for generating an image feature vector representing the feature of the input image from the input image;
A light field feature vector estimation step for estimating a light field feature vector representing a feature of the light field image from the image feature vector and the light field dictionary;
A light field image generation step of generating the light field image to be generated from the light field feature vector.
前記画像特徴ベクトル生成ステップは、前記入力画像の焦点ボケを表すボケパラメータを推定するためのボケパラメータを推定し前記画像特徴ベクトルとする請求項3に記載の画像処理方法。   The image processing method according to claim 3, wherein the image feature vector generation step estimates a blur parameter for estimating a blur parameter representing a focal blur of the input image and uses the blur parameter as the image feature vector. 前記ライトフィールド画像生成ステップは、前記ライトフィールド特徴ベクトルと、新たに復元されるライトフィールド画像から求められるライトフィールド特徴ベクトルとが一致するように前記ライトフィールド画像を生成する請求項3または4に記載の画像処理方法。   The light field image generation step generates the light field image so that the light field feature vector matches a light field feature vector obtained from a newly restored light field image. Image processing method. 辞書学習に使用するライトフィールド画像からライトフィールド辞書を生成する辞書生成装置であって、
前記ライトフィールド画像から任意の位置に焦点距離を合わせた焦点合わせ画像を生成する焦点合わせ画像生成手段と、
前記ライトフィールド画像から前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを生成するライトフィールド特徴ベクトル生成手段と、
前記焦点合わせ画像から前記焦点合わせ画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、
前記ライトフィールド特徴ベクトルと、前記画像特徴ベクトルとからライトフィールド画像の生成時に用いる前記ライトフィールド辞書を生成する辞書生成手段と
を備える辞書生成装置。
A dictionary generation device that generates a light field dictionary from a light field image used for dictionary learning,
A focused image generating means for generating a focused image in which a focal length is adjusted to an arbitrary position from the light field image;
A light field feature vector generating means for generating a light field feature vector representing the feature of the light field image from the light field image;
Image feature vector generation means for generating an image feature vector representing the feature of the focused image from the focused image;
A dictionary generation device comprising: the light field feature vector; and dictionary generation means for generating the light field dictionary used when generating a light field image from the image feature vector.
光線情報を含まない入力画像と、請求項6に記載の辞書生成装置によりあらかじめ生成したライトフィールド辞書とを入力し、ライトフィールド画像を生成する画像処理装置であって、
前記入力画像から前記入力画像の特徴を表す画像特徴ベクトルを生成する画像特徴ベクトル生成手段と、
前記画像特徴ベクトルと前記ライトフィールド辞書とから前記ライトフィールド画像の特徴を表すライトフィールド特徴ベクトルを推定するライトフィールド特徴ベクトル推定手段と、
前記ライトフィールド特徴ベクトルから生成すべき前記ライトフィールド画像を生成するライトフィールド画像生成手段と
を備える画像処理装置。
An image processing apparatus that inputs an input image that does not include light ray information and a light field dictionary generated in advance by the dictionary generation apparatus according to claim 6 to generate a light field image,
Image feature vector generation means for generating an image feature vector representing the feature of the input image from the input image;
A light field feature vector estimating means for estimating a light field feature vector representing the feature of the light field image from the image feature vector and the light field dictionary;
An image processing apparatus comprising: a light field image generating unit configured to generate the light field image to be generated from the light field feature vector.
請求項3から5のいずれか1項に記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the image processing method according to any one of claims 3 to 5.
JP2015150804A 2015-07-30 2015-07-30 Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program Active JP6353415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015150804A JP6353415B2 (en) 2015-07-30 2015-07-30 Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015150804A JP6353415B2 (en) 2015-07-30 2015-07-30 Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program

Publications (2)

Publication Number Publication Date
JP2017034388A true JP2017034388A (en) 2017-02-09
JP6353415B2 JP6353415B2 (en) 2018-07-04

Family

ID=57989456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015150804A Active JP6353415B2 (en) 2015-07-30 2015-07-30 Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program

Country Status (1)

Country Link
JP (1) JP6353415B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903233A (en) * 2019-01-10 2019-06-18 华中科技大学 A kind of joint image recovery and matching process and system based on linear character
JP2021501946A (en) * 2017-11-03 2021-01-21 グーグル エルエルシーGoogle LLC Aperture monitoring for single-view depth prediction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013240054A (en) * 2012-05-14 2013-11-28 Ricoh Co Ltd Dictionary learning for non-coherent sampling
JP2014063360A (en) * 2012-09-21 2014-04-10 Sony Corp Signal processing apparatus, signal processing method, output apparatus, output method, and program
JP2015091136A (en) * 2013-11-05 2015-05-11 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for image processing
JP2016225852A (en) * 2015-05-29 2016-12-28 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013240054A (en) * 2012-05-14 2013-11-28 Ricoh Co Ltd Dictionary learning for non-coherent sampling
JP2014063360A (en) * 2012-09-21 2014-04-10 Sony Corp Signal processing apparatus, signal processing method, output apparatus, output method, and program
JP2015091136A (en) * 2013-11-05 2015-05-11 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for image processing
JP2016225852A (en) * 2015-05-29 2016-12-28 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021501946A (en) * 2017-11-03 2021-01-21 グーグル エルエルシーGoogle LLC Aperture monitoring for single-view depth prediction
JP7013578B2 (en) 2017-11-03 2022-01-31 グーグル エルエルシー Aperture monitoring for single-view depth prediction
CN109903233A (en) * 2019-01-10 2019-06-18 华中科技大学 A kind of joint image recovery and matching process and system based on linear character

Also Published As

Publication number Publication date
JP6353415B2 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
Cai et al. Toward real-world single image super-resolution: A new benchmark and a new model
Metzler et al. Deep optics for single-shot high-dynamic-range imaging
Perra et al. An analysis of 3D point cloud reconstruction from light field images
JP2017520944A (en) Generation and use of 3D radon images
JP2013531268A (en) Measuring distance using coded aperture
Vargas et al. Time-multiplexed coded aperture imaging: Learned coded aperture and pixel exposures for compressive imaging systems
Chen et al. Light field compressed sensing over a disparity-aware dictionary
Mitra et al. A framework for analysis of computational imaging systems: role of signal prior, sensor noise and multiplexing
JP6353415B2 (en) Dictionary generation method, dictionary generation device, image processing method, image processing device, and image processing program
Rego et al. Deep camera obscura: an image restoration pipeline for pinhole photography
CN103262523B (en) Camera device, camera system, image capture method and image processing method
JP6867645B2 (en) Image processing equipment, methods, and programs
JP6401674B2 (en) Image processing method, image processing apparatus, and image processing program
JP7363765B2 (en) Image processing device, imaging device, and image processing method
JP6353414B2 (en) Image processing method, image processing apparatus, and image processing program
Gaikwad A Review on Self Learning based Methods for Real World Single Image Super Resolution
JP6310418B2 (en) Image processing method, image processing apparatus, and image processing program
Tezaur et al. A system for estimating optics blur psfs from test chart images
Sahay et al. Shape extraction of low‐textured objects in video microscopy
JP6310417B2 (en) Image processing apparatus, image processing method, and image processing program
Kar et al. Learning based regularization for spatial multiplexing cameras
CN112508801A (en) Image processing method and computing device
Lumsdaine et al. Fourier analysis of the focused plenoptic camera
JP2021057848A (en) Encoding imaging device, full focus image reconstruction processing device, and full focus image imaging device
JP6297965B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170830

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180608

R150 Certificate of patent or registration of utility model

Ref document number: 6353415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150