JP2012029004A - Image generating device, image generating program, and image generating method - Google Patents

Image generating device, image generating program, and image generating method Download PDF

Info

Publication number
JP2012029004A
JP2012029004A JP2010165198A JP2010165198A JP2012029004A JP 2012029004 A JP2012029004 A JP 2012029004A JP 2010165198 A JP2010165198 A JP 2010165198A JP 2010165198 A JP2010165198 A JP 2010165198A JP 2012029004 A JP2012029004 A JP 2012029004A
Authority
JP
Japan
Prior art keywords
image
lens array
lens
setting information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010165198A
Other languages
Japanese (ja)
Other versions
JP5593913B2 (en
Inventor
Tomoaki Nagasaka
知明 長坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010165198A priority Critical patent/JP5593913B2/en
Publication of JP2012029004A publication Critical patent/JP2012029004A/en
Application granted granted Critical
Publication of JP5593913B2 publication Critical patent/JP5593913B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image generating device, an image generating program, and an image generating method that can form a lens array image with a small amount of calculation.SOLUTION: An image generating device 100 comprises a setting information acquisition part 110 for acquiring setting information representing the focal distance of a lens array including arrangement of plural lenses for forming an optical image by a main lens of an original image. The image generating device 100 comprises a trace specifying part 150 for specifying the trace of light imaged at a position of an image pickup element away from the lens array by the focal distance by tracking the trace from the position of the image pickup element. The image generating device 100 further comprises an image generation part 160 for, by calculating the pixel value output from the image pickup element based on the specified trace, forming a lens array image representing the optical image by the main lens of the original image formed by the lens array.

Description

本発明は、画像生成装置、画像生成プログラム、及び画像生成方法に関する。   The present invention relates to an image generation apparatus, an image generation program, and an image generation method.

非特許文献1には、図14に示すようなメインレンズLMによる原画像IOの結像を、主走査方向及び副走査方向(つまり、縦方向及び横方向)に配列された複数のマイクロレンズで構成されるマイクロレンズアレイLAでさらに結像した画像(以下、レンズアレイ画像という)を、設定された各種のパラメータと原画像IOとに基づいて生成する技術が開示されている。   In Non-Patent Document 1, the original image IO formed by the main lens LM as shown in FIG. 14 is formed by a plurality of microlenses arranged in the main scanning direction and the sub-scanning direction (that is, the vertical direction and the horizontal direction). There is disclosed a technique for generating an image (hereinafter referred to as a lens array image) further imaged by a configured microlens array LA based on various set parameters and an original image IO.

トム・イー・ビショップ(Tom E. Bishop)、他2名、“Light Field Superresolution”、ICCP 09 (IEEE International Conference on Computational Photography)、2009年4月Tom E. Bishop and two others, “Light Field Superresolution”, ICCP 09 (IEEE International Conference on Computational Photography), April 2009

ここで、非特許文献1に係る技術では、原画像IOの全画素について、それぞれの画素から発せられた光がメインレンズLMを通過することで結像面PIに生じるブラー(つまり、被写体ブレ)BMと、光がさらにレンズアレイLAを通過することで撮像素子面DPに生じるブラーBD1からB3とが算出される。また、非特許文献1に係る技術では、撮像素子面DPを構成する全撮像素子について、それぞれの素子がブラーに含まれるか否かが計算され、ブラーの範囲内に含まれる撮像素子に対して、当該ブラーの算出に用いられた原画像IOの画素値が代入される。このため、レンズアレイ画像を生成するために、原画像IOの画素数と撮像素子の画素数との積算値の回数だけ演算が必要であるので計算量が多いという問題があった。   Here, in the technique according to Non-Patent Document 1, for all the pixels of the original image IO, a blur (that is, subject blur) generated on the image plane PI when light emitted from each pixel passes through the main lens LM. BM and blurs BD1 to B3 generated on the image pickup element surface DP when light further passes through the lens array LA are calculated. In the technology according to Non-Patent Document 1, whether or not each element is included in the blur is calculated for all the image sensors that form the image sensor surface DP, and the image sensor included in the range of the blur is calculated. The pixel value of the original image IO used for calculating the blur is substituted. For this reason, in order to generate a lens array image, there is a problem that the amount of calculation is large because it is necessary to perform an operation for the number of times of integration of the number of pixels of the original image IO and the number of pixels of the image sensor.

そこで、本発明は、このような点に鑑み、その目的とするところは、少ない計算量でレンズアレイ画像を生成できる画像生成装置、画像生成プログラム、及び画像生成方法を提供することにある。   In view of the above, the present invention has an object to provide an image generation apparatus, an image generation program, and an image generation method capable of generating a lens array image with a small amount of calculation.

上記目的を達成するため、本発明の第1の観点に係る画像生成装置は、
原画像を表す原画像情報を取得する画像情報取得手段と、
複数のレンズの配列で構成されるレンズアレイであって、前記画像情報取得手段で取得された原画像情報で表される原画像のメインレンズによる光学像を結像するレンズアレイの焦点距離を表す設定情報を取得する設定情報取得手段と、
前記設定情報取得手段で取得された設定情報で表される焦点距離だけ前記レンズアレイから離れた撮像素子の位置において結像される光の軌跡を、前記撮像素子の位置から辿ることで特定する軌跡特定手段と、
前記軌跡特定手段で特定された軌跡に基づいて前記撮像素子から出力される画素値を算出することで、前記原画像のメインレンズによる光学像を前記レンズアレイが結像したレンズアレイ画像を生成する画像生成手段と、を備える、
ことを特徴とする。
In order to achieve the above object, an image generation apparatus according to a first aspect of the present invention provides:
Image information acquisition means for acquiring original image information representing the original image;
A lens array configured by an array of a plurality of lenses, which represents a focal length of a lens array that forms an optical image of a main image of an original image represented by original image information acquired by the image information acquisition unit Setting information acquisition means for acquiring setting information;
A trajectory that identifies the trajectory of light that is imaged at the position of the image sensor separated from the lens array by the focal length represented by the setting information acquired by the setting information acquisition means from the position of the image sensor. Specific means,
Based on the locus specified by the locus specifying means, a pixel value output from the image sensor is calculated, thereby generating a lens array image in which the lens array forms an optical image of the original image by the main lens. Image generating means,
It is characterized by that.

第1の観点に係る画像生成装置において、
前記設定情報取得手段は、前記レンズアレイを構成するレンズのサイズを表す設定情報を、さらに取得し、
前記軌跡特定手段は、
前記設定情報取得手段で取得された設定情報で表されるレンズアレイの焦点距離とサイズとに基づいて、前記レンズアレイを構成するレンズで光が結像される結像範囲を特定する第1特定手段と、
前記第1特定手段で特定された結像範囲に含まれる撮像素子の位置において結像される光の出発点が含まれる原画像の画素範囲を、前記レンズアレイを構成するレンズの中心を通過した後に前記撮像素子の位置において結像した光の軌跡を前記撮像素子の位置から前記原画像まで辿った結果と前記レンズのサイズとに基づいて特定する第2特定手段と、を有し、
前記画像生成手段は、前記第2特定手段で特定された画素範囲に含まれる前記原画像の画素の値に基づいて、前記撮像素子の画素値を算出する、
としても良い。
In the image generation device according to the first aspect,
The setting information acquisition means further acquires setting information indicating the size of the lenses constituting the lens array,
The locus specifying means includes
Based on the focal length and size of the lens array represented by the setting information acquired by the setting information acquisition means, a first specification for specifying an imaging range in which light is imaged by the lenses constituting the lens array Means,
The pixel range of the original image including the starting point of the light imaged at the position of the image sensor included in the imaging range specified by the first specifying means has passed through the center of the lenses constituting the lens array. A second specifying means for specifying a trajectory of light imaged later at the position of the image sensor from the position of the image sensor to the original image based on the size of the lens;
The image generating means calculates a pixel value of the image sensor based on a value of a pixel of the original image included in a pixel range specified by the second specifying means;
It is also good.

また、第1の観点に係る画像生成装置において、
前記レンズアレイの焦点距離を表す焦点距離情報と、前記レンズアレイを構成するレンズのサイズを表すサイズ情報とを、前記サイズのレンズが光を結像する結像範囲を表す結像範囲情報に対応付けて記憶する情報記憶手段、をさらに備え、
前記軌跡特定手段が有する第1特定手段は、前記設定情報取得手段で取得された設定情報によって設定される焦点距離を表す焦点距離情報及びサイズを表すサイズ情報に基づいて、前記情報記憶手段に記憶された結像範囲情報を特定する、
としても良い。
In the image generating apparatus according to the first aspect,
Corresponding to the imaging range information representing the imaging range in which the lens of the size forms light, the focal length information representing the focal length of the lens array and the size information representing the size of the lens constituting the lens array Further comprising information storage means for storing information;
The first specifying means included in the trajectory specifying means is stored in the information storage means based on focal length information indicating a focal length set by the setting information acquired by the setting information acquiring means and size information indicating a size. Identify the imaged range information
It is also good.

さらに、第1の観点に係る画像生成装置において、
前記設定情報取得手段で取得された設定情報で表されるレンズアレイを構成するレンズの焦点距離とサイズとに基づいて、前記レンズアレイを構成するレンズで光が結像される結像範囲を算出する第1算出手段と、
前記第1算出手段で算出された結像範囲を表す結像範囲情報を、前記焦点距離を表す焦点距離情報と前記レンズのサイズを表すサイズ情報とに対応付けて前記情報記憶手段に保存する第1保存手段を、さらに備える、
としても良い。
Furthermore, in the image generation device according to the first aspect,
Based on the focal length and size of the lens constituting the lens array represented by the setting information acquired by the setting information acquisition means, the imaging range in which light is imaged by the lenses constituting the lens array is calculated. First calculating means for
The image forming range information representing the image forming range calculated by the first calculating means is stored in the information storing means in association with the focal length information representing the focal distance and the size information representing the size of the lens. 1 storage means is further provided,
It is also good.

またさらに、第1の観点に係る画像生成装置において、
前記設定情報取得手段で取得された設定情報によって表されるレンズの焦点距離とサイズとに基づいて、前記情報記憶手段に記憶された結像範囲情報を検索する情報検索手段と、
前記情報検索手段で検索された結像範囲情報によって表される結像範囲に含まれる撮像素子の位置で結像される光の出発点が含まれる原画像の画素範囲を、前記レンズの中心を通過した後に前記撮像素子の位置において結像した光の軌跡を前記撮像素子の位置から前記原画像まで辿った結果と前記レンズのサイズとに基づいて算出する第2算出手段と、
前記第2算出手段で算出された画素範囲を表す画素範囲情報と、前記撮像素子を識別する素子識別情報とを対応付けて前記情報記憶手段に保存する第2保存手段と、をさらに備え、
前記軌跡特定手段が有する第2特定手段は、前記第1特定手段で特定された結像範囲に含まれる撮像素子を識別する素子識別情報に基づいて、前記情報記憶手段に記憶された画素範囲情報で表される画素範囲を特定する、
としても良い。
Furthermore, in the image generating device according to the first aspect,
Information retrieval means for retrieving imaging range information stored in the information storage means based on the focal length and size of the lens represented by the setting information obtained by the setting information obtaining means;
The pixel range of the original image including the starting point of the light imaged at the position of the image sensor included in the imaging range represented by the imaging range information searched by the information search means is set to the center of the lens. Second calculation means for calculating a trajectory of light imaged at the position of the image sensor after passing based on a result of tracing from the position of the image sensor to the original image and a size of the lens;
A second storage unit that stores the pixel range information representing the pixel range calculated by the second calculation unit and the element identification information for identifying the imaging element in association with each other and stored in the information storage unit;
The second specifying means included in the locus specifying means includes pixel range information stored in the information storage means based on element identification information for identifying an image pickup element included in the imaging range specified by the first specifying means. Identify the pixel range represented by
It is also good.

またさらに、第1の観点に係る画像生成装置において、
前記画像生成手段で生成されたレンズアレイ画像のコントラストに基づいて、前記レンズアレイ画像の視認性を評価する画像評価手段と、
前記画像評価手段による評価結果と、前記画像評価手段によって評価されたレンズアレイ画像と、前記レンズアレイ画像の生成に用いられたレンズアレイの焦点距離とのいずれか2つ以上を対応付けて表示する表示手段と、をさらに備える、
としても良い。
Furthermore, in the image generating device according to the first aspect,
Image evaluation means for evaluating the visibility of the lens array image based on the contrast of the lens array image generated by the image generation means;
Any two or more of the evaluation result by the image evaluation unit, the lens array image evaluated by the image evaluation unit, and the focal length of the lens array used to generate the lens array image are displayed in association with each other. A display means,
It is also good.

また上記目的を達成するため、本発明の第2の観点に係る画像生成プログラムは、
画像生成装置を制御するコンピュータを、
原画像を表す原画像情報を取得する画像情報取得手段、
複数のレンズの配列で構成されるレンズアレイであって、前記画像情報取得手段で取得された原画像情報で表される原画像のメインレンズによる光学像を結像するレンズアレイの焦点距離を表す設定情報を取得する設定情報取得手段、
前記設定情報取得手段で取得された設定情報で表される焦点距離だけ前記レンズアレイから離れた撮像素子の位置において結像される光の軌跡を、前記撮像素子の位置から辿ることで特定する軌跡特定手段、
前記軌跡特定手段で特定された軌跡に基づいて前記撮像素子から出力される画素値を算出することで、前記原画像のメインレンズによる光学像を前記レンズアレイが結像したレンズアレイ画像を生成する画像生成手段、として機能させる、
ことを特徴とする。
In order to achieve the above object, an image generation program according to the second aspect of the present invention provides:
A computer for controlling the image generating device;
Image information acquisition means for acquiring original image information representing the original image;
A lens array configured by an array of a plurality of lenses, which represents a focal length of a lens array that forms an optical image of a main image of an original image represented by original image information acquired by the image information acquisition unit Setting information acquisition means for acquiring setting information;
A trajectory that identifies the trajectory of light that is imaged at the position of the image sensor separated from the lens array by the focal length represented by the setting information acquired by the setting information acquisition means from the position of the image sensor. Specific means,
Based on the locus specified by the locus specifying means, a pixel value output from the image sensor is calculated, thereby generating a lens array image in which the lens array forms an optical image of the original image by the main lens. Function as image generation means,
It is characterized by that.

また上記目的を達成するため、本発明の第3の観点に係る画像生成方法は、
画像生成装置での画像生成方法であって、
原画像を表す原画像情報を取得する画像情報取得ステップと、
複数のレンズの配列で構成されるレンズアレイであって、前記画像情報取得手段で取得された原画像情報で表される原画像のメインレンズによる光学像を結像するレンズアレイの焦点距離を表す設定情報を取得する設定情報取得ステップと、
前記設定情報取得ステップで取得された設定情報で表される焦点距離だけ前記レンズアレイから離れた撮像素子の位置において結像される光の軌跡を、前記撮像素子の位置から辿ることで特定する軌跡特定ステップと、
前記軌跡特定ステップで特定された軌跡に基づいて前記撮像素子から出力される画素値を算出することで、前記原画像のメインレンズによる光学像を前記レンズアレイが結像したレンズアレイ画像を生成する画像生成ステップと、を含む、
ことを特徴とする。
In order to achieve the above object, an image generation method according to the third aspect of the present invention includes:
An image generation method in an image generation apparatus,
An image information acquisition step for acquiring original image information representing the original image;
A lens array configured by an array of a plurality of lenses, which represents a focal length of a lens array that forms an optical image of a main image of an original image represented by original image information acquired by the image information acquisition unit A setting information acquisition step for acquiring setting information;
A trajectory that identifies the trajectory of light that is imaged at the position of the image sensor separated from the lens array by the focal length represented by the setting information acquired in the setting information acquisition step from the position of the image sensor Specific steps,
A pixel value output from the image sensor is calculated based on the locus specified in the locus specifying step, thereby generating a lens array image in which the lens array forms an optical image of the main image of the main lens. An image generation step,
It is characterized by that.

本発明に係る画像生成装置、画像生成プログラム、及び画像生成方法によれば、少ない計算量でレンズアレイ画像を生成できる。   According to the image generation apparatus, the image generation program, and the image generation method according to the present invention, a lens array image can be generated with a small amount of calculation.

本実施形態に係る画像生成装置が模擬する撮像装置の一構成例を表す図である。It is a figure showing the example of 1 composition of the imaging device which the image generating device concerning this embodiment simulates. (a)は、原画像の一例を表す図であり、(b)は、原画像に基づいて生成されたレンズアレイ画像の一例を表す図であり、(c)は、レンズアレイ画像の部分拡大図である。(A) is a figure showing an example of an original image, (b) is a figure showing an example of the lens array image produced | generated based on the original image, (c) is the partial expansion of a lens array image FIG. 画像生成装置の一構成例を表すハードウェア構成図である。It is a hardware block diagram showing the example of 1 structure of an image generation apparatus. 画像生成装置が実行する画像生成処理の一例を表すフローチャートである。It is a flowchart showing an example of the image generation process which an image generation apparatus performs. (a)は、画像生成装置が有する機能の一例を表す機能ブロック図、(b)は、処理対象画素テーブル生成部の一構成例を表す図、(c)は、積分対象画素テーブル生成部の一構成例を表す図、(d)は、軌跡特定部の一構成例を表す図である。(A) is a functional block diagram showing an example of the functions of the image generation apparatus, (b) is a diagram showing an example of the configuration of the processing target pixel table generation unit, and (c) is an integration target pixel table generation unit. The figure showing one structural example, (d) is a figure showing the one structural example of a locus | trajectory specific | specification part. (a)は、設定情報取得部が実行する第1設定情報取得処理の一例を表すフローチャート、(b)は、設定情報取得部が実行する第2設定情報取得処理の一例を表すフローチャートである。(A) is a flowchart showing an example of the 1st setting information acquisition process which a setting information acquisition part performs, (b) is a flowchart showing an example of the 2nd setting information acquisition process which a setting information acquisition part performs. (a)は、処理対象画素テーブルの一例を表す図、(b)は、第1設定テーブルの一例を表す図、(c)は、積分対象画素テーブルの一例を表す図、(d)は、第2設定テーブルの一例を表す図である。(A) is a figure showing an example of a processing object pixel table, (b) is a figure showing an example of the 1st setting table, (c) is a figure showing an example of an integration object pixel table, (d) is a figure. It is a figure showing an example of the 2nd setting table. 処理対象画素テーブル生成部が実行する処理対象画素テーブル生成処理の一例を表すフローチャートである。It is a flowchart showing an example of the process target pixel table production | generation process which a process target pixel table production | generation part performs. 第1投影サイズの算出方法の一例を説明するための図である。It is a figure for demonstrating an example of the calculation method of 1st projection size. (a)は、第1相対範囲テーブルの生成方法の一例を説明するための図、(b)は、第1相対範囲テーブルの生成方法の他例を説明するための図である。(A) is a figure for demonstrating an example of the production | generation method of a 1st relative range table, (b) is a figure for demonstrating the other example of the production | generation method of a 1st relative range table. 処理対象画素相対範囲テーブル(第1相対範囲テーブル)の一例を表す図である。It is a figure showing an example of a process target pixel relative range table (1st relative range table). 積分対象画素テーブル生成部が実行する積分対象画素テーブル生成処理の一例を表すフローチャートである。It is a flowchart showing an example of the integration object pixel table production | generation process which an integration object pixel table production | generation part performs. 画像生成部が実行するアレイ画像生成処理の一例を表すフローチャートである。It is a flowchart showing an example of the array image generation process which an image generation part performs. 従来におけるレンズアレイ画像の生成方法の一例を説明するための図である。It is a figure for demonstrating an example of the production | generation method of the lens array image in the past.

以下、本発明の最良の実施形態について添付図面を参照しつつ説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings.

本発明の実施形態に係る画像生成装置100は、図1に示すようなメインレンズLMによって結像された被写体の光学像を、複数のマイクロレンズが主走査方向及び副走査方向に配列されたマイクロレンズアレイ(以下単に、レンズアレイという)LAを用いてさらに結像させた画像を撮影する撮影装置を模擬し、模擬した撮影装置で得られる撮影画像(以下、レンズアレイ画像という)を、被写体を表す原画像IO及びレンズアレイLAの焦点距離faなどを表すパラメータに基づいて生成する。   The image generation apparatus 100 according to the embodiment of the present invention uses an optical image of a subject formed by a main lens LM as shown in FIG. 1 as a micro that has a plurality of microlenses arranged in the main scanning direction and the sub-scanning direction. An image capturing apparatus that captures an image further formed using a lens array (hereinafter simply referred to as a lens array) LA is simulated, and a captured image (hereinafter referred to as a lens array image) obtained by the simulated image capturing apparatus It is generated based on parameters representing the original image IO to be represented and the focal length fa of the lens array LA.

具体的には、画像生成装置100は、図2(a)に示すような原画像IOの各画素から出発した光がメインレンズLM及びレンズアレイLAを介して撮像素子面DPに到達するまでの軌跡を、撮像素子面DP側(つまり、光の進行方向と逆側)から辿って特定する。次に、画像生成装置100は、特定した軌跡の始点である原画像IOの画素値に基づいて軌跡の終点である撮像素子から出力される画素値を特定することで、図2(b)に示すようなレンズアレイ画像を生成する。尚、図2(c)は、図2(b)に示すA部の部分拡大図である。   Specifically, the image generation apparatus 100 is configured to wait until light starting from each pixel of the original image IO as illustrated in FIG. 2A reaches the image sensor surface DP via the main lens LM and the lens array LA. The locus is identified by tracing from the imaging element surface DP side (that is, the side opposite to the light traveling direction). Next, the image generation apparatus 100 specifies the pixel value output from the image sensor that is the end point of the trajectory based on the pixel value of the original image IO that is the start point of the specified trajectory, thereby FIG. A lens array image as shown is generated. FIG. 2C is a partially enlarged view of part A shown in FIG.

画像生成装置100は、図3に示すように、CPU(Central Processing Unit)100a、ROM(Read Only Memory)100b、RAM(Random Access Memory)100c、ハードディスク100d、メディアコントローラ100e、LAN(Local Area Network)カード100f、ビデオカード100g、LCD(Liquid Crystal Display)100h、及びキーボード100iを備える。   As shown in FIG. 3, the image generation apparatus 100 includes a CPU (Central Processing Unit) 100a, a ROM (Read Only Memory) 100b, a RAM (Random Access Memory) 100c, a hard disk 100d, a media controller 100e, and a LAN (Local Area Network). A card 100f, a video card 100g, an LCD (Liquid Crystal Display) 100h, and a keyboard 100i are provided.

CPU100aは、ROM100b又はハードディスク100dに保存されたプログラムに従ってソフトウェア処理を実行することで、画像生成装置100の全体制御を行う。RAM100cは、CPU100aによるプログラムの実行時において、処理対象とする情報(データ)を一時的に記憶する。   The CPU 100a performs overall control of the image generation apparatus 100 by executing software processing according to a program stored in the ROM 100b or the hard disk 100d. The RAM 100c temporarily stores information (data) to be processed when the CPU 100a executes the program.

メディアコントローラ100eは、例えば、フラッシュメモリカード等の記録媒体から各種の画像を表すデータを読み出す。メディアコントローラ100eによってデータを読み書きされる記録媒体及びハードディスク100dは、画像を表す画像データ、プログラム、及びプログラムの実行時に参照される各種のデータテーブルを記憶している。LANカード100fは、画像生成装置100に接続する装置(又はインターネット)から画像データを受信(つまり、ダウンロード)する。ビデオカード100gは、CPU100aに制御されて、LCD100hの表示を制御する。LCD100h及びキーボード100iは、ユーザーインターフェースを提供する。   The media controller 100e reads data representing various images from a recording medium such as a flash memory card. The recording medium to / from which data is read / written by the media controller 100e and the hard disk 100d store image data representing an image, a program, and various data tables referred to when the program is executed. The LAN card 100f receives (that is, downloads) image data from a device (or the Internet) connected to the image generation device 100. The video card 100g is controlled by the CPU 100a to control the display on the LCD 100h. The LCD 100h and the keyboard 100i provide a user interface.

画像生成装置100は、図3に示したハードウェアを用いて、図4に示すようなレンズアレイ画像を生成する画像生成処理を実行する。図3に示す画像生成装置100のCPU100aは、画像生成処理を実行することで、図5(a)に示すような設定情報取得部110、処理対象画素テーブル生成部121、積分対象画素テーブル生成部122、画像情報取得部140、軌跡特定部150、画像生成部160、画像評価部170、及び画像表示制御部180として機能し、図3のハードディスク100dと協働することで、図5(a)に示すような情報記憶部130として機能する。   The image generation apparatus 100 executes image generation processing for generating a lens array image as shown in FIG. 4 using the hardware shown in FIG. The CPU 100a of the image generation device 100 illustrated in FIG. 3 executes the image generation processing, thereby setting information acquisition unit 110, processing target pixel table generation unit 121, and integration target pixel table generation unit as illustrated in FIG. 122, functions as the image information acquisition unit 140, the trajectory identification unit 150, the image generation unit 160, the image evaluation unit 170, and the image display control unit 180, and cooperates with the hard disk 100d in FIG. It functions as an information storage unit 130 as shown in FIG.

図4の画像生成処理の実行が開始されると、図5(a)の設定情報取得部110は、図6(a)に示すような第1設定情報取得処理を実行する(ステップS01)。   When the execution of the image generation process in FIG. 4 is started, the setting information acquisition unit 110 in FIG. 5A executes a first setting information acquisition process as shown in FIG. 6A (step S01).

図6(a)の第1設定情報取得処理を開始すると、設定情報取得部110は、図3のキーボード100iから出力される信号に基づいて、ユーザによって設定されたメインレンズLMとレンズアレイLAとの距離Zmaを表す距離情報を取得する(ステップS11)。次に、設定情報取得部110は、同様に、ユーザよって設定されたレンズアレイLAを構成するマイクロレンズの焦点距離(以下単に、レンズアレイLAの焦点距離という)faを表す焦点距離情報を取得する(ステップS12)。また同様に、設定情報取得部110は、レンズアレイLAを構成するレンズの直径dを表すサイズ情報を取得する(ステップS13)。その後同様に、設定情報取得部110は、レンズアレイLAを構成するレンズの数Nを表すレンズ数情報を取得する(ステップS14)。   When the first setting information acquisition process in FIG. 6A is started, the setting information acquisition unit 110, based on the signal output from the keyboard 100i in FIG. 3, the main lens LM and the lens array LA set by the user. Distance information representing the distance Zma is acquired (step S11). Next, the setting information acquisition unit 110 similarly acquires focal length information indicating the focal length fa (hereinafter, simply referred to as the focal length of the lens array LA) fa of the microlens constituting the lens array LA set by the user. (Step S12). Similarly, the setting information acquisition unit 110 acquires size information indicating the diameters d of the lenses constituting the lens array LA (step S13). Thereafter, similarly, the setting information acquisition unit 110 acquires lens number information indicating the number N of lenses constituting the lens array LA (step S14).

その後、設定情報取得部110は、ステップS11からS14で取得した情報(距離情報、焦点距離情報、サイズ情報、及びレンズ数情報)を第1設定情報として、図5(a)の情報記憶部130へ保存した後に(ステップS15)、第1設定取得処理の実行を終了する。   Thereafter, the setting information acquisition unit 110 uses the information (distance information, focal length information, size information, and lens number information) acquired in steps S11 to S14 as the first setting information, and the information storage unit 130 in FIG. (Step S15), the first setting acquisition process is terminated.

ここで、図5(a)の情報記憶部130は、レンズアレイ画像の画素値を算出する処理の処理対象とされる画素(以下、処理対象画素という)の範囲を表す情報を保存する、図7(a)に示すような処理対象画素テーブルを記憶している。また情報記憶部130は、第1設定情報と、第1設定情報で表される設定が行われた場合に使用される処理対象画素テーブルのテーブル番号とを対応付けて保存する、図7(b)に示すような第1設定テーブルを記憶している。   Here, the information storage unit 130 in FIG. 5A stores information representing a range of pixels to be processed (hereinafter referred to as processing target pixels) for processing to calculate the pixel value of the lens array image. A processing target pixel table as shown in FIG. 7 (a) is stored. Further, the information storage unit 130 stores the first setting information and the table number of the processing target pixel table used when the setting represented by the first setting information is performed in association with each other, as illustrated in FIG. The first setting table as shown in FIG.

このため、図4のステップS01の後に、図5(a)の処理対象画素テーブル生成部121は、ステップS01で取得された第1設定情報に基づいて第1設定テーブルからテーブル番号が検索されたか(つまり、取得された第1設定情報に対応する処理対象画素テーブルがあるか)否かを判別する(ステップS02)。このときに、第1設定情報に対応する処理対象画素テーブルがないと判別すると(ステップS02;No)、処理対象画素テーブル生成部121は、図8に示すような処理対象画素テーブル生成処理を実行する(ステップS03)。尚、図5(a)の処理対象画素テーブル生成部121は、図5(b)に示すような第1算出部121aと第1保存部121bとを有する。   Therefore, after step S01 in FIG. 4, has the processing target pixel table generation unit 121 in FIG. 5A searched for the table number from the first setting table based on the first setting information acquired in step S01? In other words, it is determined whether or not there is a processing target pixel table corresponding to the acquired first setting information (step S02). At this time, if it is determined that there is no processing target pixel table corresponding to the first setting information (step S02; No), the processing target pixel table generation unit 121 executes processing target pixel table generation processing as shown in FIG. (Step S03). 5A includes a first calculation unit 121a and a first storage unit 121b as illustrated in FIG. 5B.

図8の処理対象画素テーブル生成処理の実行を開始すると、第1算出部121aは、レンズアレイLAと撮像素子面DPとの距離ZadをレンズアレイLAの焦点距離faに設定した後に、設定した距離Zadと、図6(a)のステップS11で取得された距離Zmaとに基づいて、メインレンズLMと撮像素子面DPとの距離Zmdを算出する(ステップS21)。   When the execution of the processing target pixel table generation process of FIG. 8 is started, the first calculation unit 121a sets the distance Zad between the lens array LA and the imaging element surface DP to the focal distance fa of the lens array LA, and then the set distance. Based on Zad and the distance Zma acquired in step S11 of FIG. 6A, the distance Zmd between the main lens LM and the imaging element surface DP is calculated (step S21).

次に、第1算出部121aは、図9に示すように、レンズアレイLAを構成するレンズの1つLiについて、メインレンズLMの中心位置OMを通過した後にレンズLiを介さずに撮像素子面DPに到達した光によって投影されるレンズLiのサイズ(以下、第1投影サイズという)dpを算出する(ステップ26)。具体的には、第1算出部121aは、図6(b)のステップS11で取得された距離Zmaと、ステップS21で算出された距離Zmdと、図6(b)のステップS13で取得されたマイクロレンズのサイズdとを以下の式(1)に用いることで、第1投影サイズdpを算出する(ステップS22)。   Next, as shown in FIG. 9, the first calculation unit 121a passes through the center position OM of the main lens LM for one of the lenses constituting the lens array LA and then passes through the center position OM without passing through the lens Li. The size (hereinafter referred to as the first projection size) dp of the lens Li projected by the light reaching the DP is calculated (step 26). Specifically, the first calculation unit 121a acquires the distance Zma acquired in step S11 of FIG. 6B, the distance Zmd calculated in step S21, and the step S13 of FIG. 6B. The first projection size dp is calculated by using the micro lens size d in the following equation (1) (step S22).

dp=d×Zmd/Zma・・・(1)   dp = d × Zmd / Zma (1)

ここで、メインレンズLMを通過した光がマイクロレンズLiによって結像される範囲(以下単に、結像範囲という)は、マイクロレンズLiの中心位置OAが撮像素子面DPに対して投影された位置OD(以下、第1投影位置という)から第1投影サイズdpの距離にある範囲であるため、この範囲に含まれる画素を処理対象画素とし、処理対象画素が含まれる範囲を処理対象画素範囲とする。   Here, the range in which the light that has passed through the main lens LM is imaged by the microlens Li (hereinafter simply referred to as the imaging range) is the position where the center position OA of the microlens Li is projected onto the imaging element surface DP. Since this is a range at a distance of the first projection size dp from OD (hereinafter referred to as the first projection position), the pixels included in this range are set as processing target pixels, and the range including the processing target pixels is set as a processing target pixel range. To do.

このため、第1算出部121aは、図10(a)及び(b)に示すような、第1投影位置を原点とした相対座標系の座標軸Xr及びYrを用いて処理対象画素の相対範囲を表す座標値を保存する処理対象画素相対範囲テーブル(以下、第1相対範囲テーブルという)を、第1投影サイズdpを用いて生成する(ステップS23)。   For this reason, the first calculation unit 121a calculates the relative range of the processing target pixel using the coordinate axes Xr and Yr of the relative coordinate system with the first projection position as the origin as shown in FIGS. A processing target pixel relative range table (hereinafter referred to as a first relative range table) that stores coordinate values to be expressed is generated using the first projection size dp (step S23).

具体的には、第1算出部121aは、図10(a)に示すように撮像素子DCを16分割した領域の1つであって、インデックス番号「1」で識別される領域に中心位置OAの第1投影位置ODが含まれると仮定した場合に、第1投影位置ODが含まれる領域の中心Ocと、撮像素子DEの中心Oeとの距離Lceが第1投影サイズdpの半分より小さいため(つまり、以下の条件式(2)を撮像素子DEが満足するため)、撮像素子DEは処理対象画素範囲に含まれると判別する。よって、第1算出部121aは、撮像素子DCの位置を原点とした撮像素子DEの位置を表す座標値(−2,−3)を、第1投影位置ODが含まれるとした領域を識別するインデックス「1」とを対応付けて、図11に示すような第1相対範囲テーブルに保存する。尚、第1算出部121aは、撮像素子DCから所定距離にある他の撮像素子についても上記と同様の処理を実行する。   Specifically, as shown in FIG. 10A, the first calculation unit 121a is one of the regions obtained by dividing the image sensor DC into 16 regions, and the center position OA is located in the region identified by the index number “1”. If the first projection position OD is included, the distance Lce between the center Oc of the region including the first projection position OD and the center Oe of the image sensor DE is smaller than half of the first projection size dp. In other words, since the image sensor DE satisfies the following conditional expression (2), it is determined that the image sensor DE is included in the processing target pixel range. Therefore, the first calculation unit 121a identifies an area in which the coordinate value (−2, −3) representing the position of the image sensor DE with the position of the image sensor DC as the origin is included in the first projection position OD. The index “1” is associated and stored in the first relative range table as shown in FIG. Note that the first calculation unit 121a also performs the same processing as described above for other image sensors that are at a predetermined distance from the image sensor DC.

Lce < dp/2・・・(2)   Lce <dp / 2 (2)

これに対して、第1算出部121aは、図10(b)に示すような領域に第1投影位置ODが含まれるとした場合には、第1投影位置ODが含まれる領域の中心Ocと、撮像素子DEの中心Oeとの距離Lceが投影サイズdpの半分以上であるため(つまり、上記の条件式(2)を満足しないため)、撮像素子DEは処理対象画素範囲に含まれないと判別する。尚、第1算出部121aは、16分割された領域の残りについても同様の処理を実行する。   On the other hand, if the first projection position OD is included in the region as shown in FIG. 10B, the first calculation unit 121a determines the center Oc of the region including the first projection position OD. Since the distance Lce from the center Oe of the image sensor DE is more than half of the projection size dp (that is, the above conditional expression (2) is not satisfied), the image sensor DE is not included in the processing target pixel range. Determine. Note that the first calculation unit 121a performs the same process for the remainder of the 16-divided area.

ステップS23の後に、第1算出部121aは、ステップS26からS29の処理の対象とするマイクロレンズを識別する対象レンズ番号を値「1」として初期化する(ステップS24)。尚、マイクロレンズは、番号「1」から、図6(a)のステップS14で取得された「N」までの番号のいずれか1つによって識別される。   After step S23, the first calculation unit 121a initializes the target lens number for identifying the microlens to be processed in steps S26 to S29 as the value “1” (step S24). The microlens is identified by any one of the numbers from “1” to “N” acquired in step S14 in FIG.

次に、第1算出部121aは、対象レンズ番号の値が最大値である「N」であるか否かを判別する(ステップS25)。このとき、対象レンズ番号の値が「N」でないと判別すると(ステップS25;No)、第1算出部121aは、対象レンズ番号で識別されるマイクロレンズ(以下単に、対象レンズという)の第1投影位置ODを算出する。具体的には、第1算出部121aは、対象レンズの中心位置OAとメインレンズLMの中心位置OMとを通る直線が撮像素子面DPと交わる点を第1投影位置ODとし、第1投影位置ODの位置座標を、図6(a)のステップS11で取得された距離Zmaと、ステップS21で算出した距離Zmdとを以下の式(3)に用いて算出する。   Next, the first calculation unit 121a determines whether or not the value of the target lens number is “N”, which is the maximum value (step S25). At this time, if it is determined that the value of the target lens number is not “N” (step S25; No), the first calculation unit 121a first identifies the first microlens (hereinafter simply referred to as the target lens) identified by the target lens number. The projection position OD is calculated. Specifically, the first calculation unit 121a sets, as the first projection position OD, a point where a straight line passing through the center position OA of the target lens and the center position OM of the main lens LM intersects the imaging element surface DP. The position coordinates of the OD are calculated using the following formula (3) using the distance Zma acquired in step S11 of FIG. 6A and the distance Zmd calculated in step S21.

(XOD,YOD)=(XOA,YOA)×Zmd/Zma・・・(3) (X OD , Y OD ) = (X OA , Y OA ) × Zmd / Zma (3)

但し、(XOD,YOD)は第1投影位置ODのXY座標を表し、(XOA,YOA)は中心位置OAのXY座標を表す。また図9に示すように、XYZ座標軸の原点は、メインレンズLMの中心位置OMであり、X軸方向は主走査方向(つまり、横方向)であり、Y軸方向は副走査方向(つまり、縦方向)である。尚、図10(a)及び(b)の相対座標系における座標軸Xr及びYrは、それぞれ図9のX軸及びY軸と平行である。 However, (X OD , Y OD ) represents the XY coordinates of the first projection position OD, and (X OA , Y OA ) represents the XY coordinates of the center position OA. As shown in FIG. 9, the origin of the XYZ coordinate axes is the center position OM of the main lens LM, the X-axis direction is the main scanning direction (that is, the horizontal direction), and the Y-axis direction is the sub-scanning direction (that is, that is, (Vertical direction). Note that the coordinate axes Xr and Yr in the relative coordinate systems of FIGS. 10A and 10B are parallel to the X axis and the Y axis of FIG. 9, respectively.

その後、第1算出部121aは、算出された第1投影位置ODと、ステップS23で生成された第1相対範囲テーブルとに基づいて、対象レンズの処理対象画素範囲を特定する(ステップS27)。具体的には、第1算出部121aは、対象レンズの第1投影位置ODに在る撮像素子DCを特定した後に、特定した撮像素子DCを16分割した領域のいずれに第1投影位置ODが含まれるかを特定する。次に、第1算出部121aは、特定した領域を識別するインデックス番号に基づいて、ステップS23で生成された第1相対範囲テーブルから、処理対象画素相対範囲を表す座標値を1又は複数検索する。その後、第1算出部121aは、処理対象画素相対範囲を表す座標値に対して第1投影位置ODの座標値を加算することで、処理対象画素範囲を表す1又は複数の座標値を取得する。   Thereafter, the first calculation unit 121a specifies the processing target pixel range of the target lens based on the calculated first projection position OD and the first relative range table generated in step S23 (step S27). Specifically, the first calculation unit 121a identifies the image sensor DC at the first projection position OD of the target lens, and then the first projection position OD is in any of the regions obtained by dividing the identified image sensor DC into 16 parts. Specify whether it is included. Next, the first calculation unit 121a searches for one or more coordinate values representing the processing target pixel relative range from the first relative range table generated in step S23 based on the index number for identifying the specified region. . Thereafter, the first calculation unit 121a acquires one or more coordinate values representing the processing target pixel range by adding the coordinate value of the first projection position OD to the coordinate value representing the processing target pixel relative range. .

ステップS27の後に、図5(b)の第1保存部121bは、マイクロレンズを識別するレンズ番号と、マイクロレンズの処理対象画素範囲を表す座標値とを対応付けて、図7(a)に示すような、情報記憶部130が記憶する処理対象画素テーブルに保存する。次に、第1保存部121bは、処理対象画素テーブルの生成に用いた第1設定情報を、処理対象画素テーブルのテーブル番号と対応付けて、情報記憶部130が記憶する、図7(b)に示すような第1設定テーブルに保存する(ステップS28)。   After step S27, the first storage unit 121b in FIG. 5B associates the lens number for identifying the microlens with the coordinate value representing the processing target pixel range of the microlens, and the process in FIG. As illustrated, the information is stored in a processing target pixel table stored in the information storage unit 130. Next, the first storage unit 121b stores the first setting information used for generating the processing target pixel table in association with the table number of the processing target pixel table, and the information storage unit 130 stores the first setting information in FIG. (Step S28).

その後、第1算出部121aは、対象レンズ番号を値「1」だけインクリメントした後に(ステップS29)、ステップS25から上記処理を繰り返す。   Thereafter, the first calculation unit 121a increments the target lens number by the value “1” (step S29), and then repeats the above-described processing from step S25.

ステップS25において、対象レンズ番号の値が「N」であると判別すると(ステップS25;Yes)、第1算出部121aは、処理対象画素テーブル生成処理の実行を終了する。   If it is determined in step S25 that the value of the target lens number is “N” (step S25; Yes), the first calculation unit 121a ends the execution of the processing target pixel table generation process.

図4のステップS02において、第1設定情報に対応する処理対象画素テーブルがあると判別した後(ステップS02;Yes)、及びステップS03の後のいずれかに、図5(a)の設定情報取得部110は、図6(b)に示すような第2設定情報取得処理を実行する(ステップS04)。   In step S02 of FIG. 4, after determining that there is a processing target pixel table corresponding to the first setting information (step S02; Yes) and after step S03, the setting information acquisition of FIG. The unit 110 executes a second setting information acquisition process as shown in FIG. 6B (step S04).

図6(b)の第2設定情報取得処理を開始すると、設定情報取得部110は、図3のキーボード100iから出力される信号に基づいて、被写体を表す原画像IOからメインレンズLMまでの、ユーザによって設定された距離Zimを表す距離情報を取得する(ステップS41)。また同様に、設定情報取得部110は、メインレンズLMとメインレンズLMの結像面PIとの距離Zmpを表す距離情報を取得する(ステップS42)。その後、設定情報取得部110は、ステップS41及びS42で取得した距離情報を第2設定情報として、図5(a)の情報記憶部130へ保存した後に(ステップS43)、第2設定取得処理の実行を終了する。   When the second setting information acquisition process of FIG. 6B is started, the setting information acquisition unit 110, from the original image IO representing the subject to the main lens LM, based on the signal output from the keyboard 100i of FIG. Distance information representing the distance Zim set by the user is acquired (step S41). Similarly, the setting information acquisition unit 110 acquires distance information indicating the distance Zmp between the main lens LM and the imaging plane PI of the main lens LM (step S42). Thereafter, the setting information acquisition unit 110 stores the distance information acquired in steps S41 and S42 as second setting information in the information storage unit 130 of FIG. 5A (step S43), and then performs the second setting acquisition process. End execution.

ここで、図5(a)の情報記憶部130は、処理対象画素の画素値を算出する処理において、積分計算の対象とされる原画像IOの画素(以下、積分対象画素という)の画素範囲を表す情報を、処理対象画素の位置を表す情報と対応付けて保存する、図7(c)に示すような積分対象画素テーブルを記憶している。また情報記憶部130は、第1設定情報及び第2設定情報と、第1設定情報及び第2設定情報(以下単に、設定情報という)で表される設定が行われた場合に使用される積分対象画素テーブルのテーブル番号とを対応付けて保存する、図7(d)に示すような第2設定テーブルを記憶している。   Here, the information storage unit 130 in FIG. 5A uses the pixel range of the pixels of the original image IO (hereinafter referred to as integration target pixels) to be subjected to integration calculation in the process of calculating the pixel value of the processing target pixel. Is stored in association with information indicating the position of the processing target pixel as shown in FIG. 7C. Further, the information storage unit 130 is an integration used when the settings represented by the first setting information and the second setting information, and the first setting information and the second setting information (hereinafter simply referred to as setting information) are performed. A second setting table as shown in FIG. 7D is stored, which is stored in association with the table number of the target pixel table.

このため、図4のステップS04の後に、図5(a)の積分対象画素テーブル生成部122は、ステップS01及びS04で取得された設定情報に基づいて第2設定テーブルからテーブル番号が検索されたか(つまり、取得された設定情報に対応する積分対象画素テーブルがあるか)否かを判別する(ステップS05)。このときに、設定情報に対応する積分対象画素テーブルがないと判別すると(ステップS05;No)、積分対象画素テーブル生成部122は、図12に示すような積分対象画素テーブル生成処理を実行する(ステップS06)。尚、図5(a)の積分対象画素テーブル生成部122は、図5(c)に示すような情報検索部122aと第2算出部122bと第2保存部122cとを有する。   Therefore, after step S04 in FIG. 4, the integration target pixel table generation unit 122 in FIG. 5A has searched the table number from the second setting table based on the setting information acquired in steps S01 and S04. It is determined whether there is an integration target pixel table corresponding to the acquired setting information (step S05). At this time, if it is determined that there is no integration target pixel table corresponding to the setting information (step S05; No), the integration target pixel table generation unit 122 executes integration target pixel table generation processing as shown in FIG. Step S06). The integration target pixel table generation unit 122 in FIG. 5A includes an information search unit 122a, a second calculation unit 122b, and a second storage unit 122c as illustrated in FIG.

図12に示す積分対象画素テーブル生成処理の実行を開始すると、第2算出部122bは、第1設定情報で設定された焦点距離faをレンズアレイLAと撮像素子面Dとの距離Zadとする(ステップS51)。その後、第2算出部122bは、第1設定情報で設定されたメインレンズLMとレンズアレイLAとの距離Zmaと、図6(b)のステップS42で取得されたメインレンズLMと結像面PIとの距離Zmpとから、結像面PIとレンズアレイLAとの距離Zpaを算出する(ステップS52)。   When the execution of the integration target pixel table generation process shown in FIG. 12 is started, the second calculation unit 122b sets the focal length fa set by the first setting information as the distance Zad between the lens array LA and the imaging element surface D ( Step S51). Thereafter, the second calculation unit 122b determines the distance Zma between the main lens LM and the lens array LA set by the first setting information, and the main lens LM and the imaging plane PI acquired in step S42 in FIG. 6B. The distance Zpa between the image plane PI and the lens array LA is calculated from the distance Zmp to (step S52).

次に、第2算出部122bは、図1に示すように、レンズアレイLAを構成するレンズLiから発せられた平行光が、レンズLiと同じサイズdの像をメインレンズLMの結像面PIに投影した後に、さらにメインレンズLMの中心を通過して原画像IOに投影する像のサイズ(以下、第2投影サイズという)diを算出する(ステップ53)。具体的には、第2算出部122bは、図6(b)のステップS41及びS42で取得された距離Zim及びZmpと、図4のステップS01で取得された第1設定情報で表されるレンズLiのサイズdを以下の式(4)に用いて、レンズLiの第2投影サイズdiを算出する。   Next, as shown in FIG. 1, the second calculation unit 122 b generates an image having the same size d as the lens Li from the parallel light emitted from the lenses Li constituting the lens array LA, and the image plane PI of the main lens LM. After that, an image size di (hereinafter referred to as a second projection size) di that passes through the center of the main lens LM and is projected onto the original image IO is calculated (step 53). Specifically, the second calculation unit 122b uses the distances Zim and Zmp acquired in steps S41 and S42 in FIG. 6B and the lens represented by the first setting information acquired in step S01 in FIG. The second projection size di of the lens Li is calculated using the size d of Li in the following equation (4).

di=d×Zim/Zmp・・・(4)   di = d × Zim / Zmp (4)

ここで、ある撮像素子DCから出発した光がマイクロレンズLiの中心位置OAを通って原画像IOに到達する位置(つまり、マイクロレンズLiの中心位置OAが原画像IOに対して投影される位置であるため、以下、第2投影位置という)OIから第2投影サイズdiの距離にある範囲を、撮像素子DCの積分対象画素が含まれる画素範囲(以下、積分対象画素範囲という)とする。この積分対象画素範囲から出発した光が撮像素子DCにおいて結像するためである。   Here, a position where light starting from a certain imaging element DC reaches the original image IO through the center position OA of the microlens Li (that is, a position where the center position OA of the microlens Li is projected onto the original image IO). Therefore, hereinafter, a range at a distance from the OI to the second projection size di (hereinafter referred to as a second projection position) is defined as a pixel range including the integration target pixel of the image sensor DC (hereinafter referred to as an integration target pixel range). This is because light starting from the integration target pixel range forms an image on the image sensor DC.

このため、第2算出部122bは、第2投影位置OIを原点とした相対座標系Xr及びYrで積分対象画素の相対範囲を表す座標値を保存する積分対象画素相対範囲テーブル(以下、第2相対範囲テーブルという)を生成する(ステップS54)。尚、第2相対範囲テーブルの生成方法については、図8のステップS23で説明した第1相対範囲テーブルの生成方法と同様であるため、繰り返しの説明を省略する。   For this reason, the second calculation unit 122b stores an integration target pixel relative range table (hereinafter referred to as a second integration target pixel relative range table) that stores coordinate values representing the relative range of the integration target pixel in the relative coordinate systems Xr and Yr with the second projection position OI as the origin. A relative range table is generated (step S54). Note that the method for generating the second relative range table is the same as the method for generating the first relative range table described in step S23 of FIG.

その後、第2算出部122bは、ステップS56からS62の処理の対象とするマイクロレンズを識別する対象レンズ番号を値「1」として初期化する(ステップS55)。次に、第2算出部122bは、対象レンズ番号の値が、ステップS51で読み出された第1設定情報によって設定された最大値「N」であるか否かを判別する(ステップS56)。このとき、対象レンズ番号の値が「N」でないと判別されると(ステップS56;No)、情報検索部122aは、図4のステップS01で取得した第1設定情報に基づいて、図7(a)の第1設定テーブルから処理対象画素テーブルのテーブル番号を検索する。その後、情報検索部122aは、検索されたテーブル番号の処理対象画素テーブルから、対象レンズ番号に基づいて処理対象画素範囲を検索する(ステップS57)。   Thereafter, the second calculation unit 122b initializes the target lens number for identifying the microlens to be processed in steps S56 to S62 as the value “1” (step S55). Next, the second calculator 122b determines whether or not the value of the target lens number is the maximum value “N” set by the first setting information read in Step S51 (Step S56). At this time, if it is determined that the value of the target lens number is not “N” (step S56; No), the information search unit 122a is based on the first setting information acquired in step S01 of FIG. The table number of the processing target pixel table is searched from the first setting table of a). Thereafter, the information search unit 122a searches the processing target pixel range based on the target lens number from the processing target pixel table of the searched table number (step S57).

その後、第2算出部122bは、検出した処理対象画素範囲に含まれる全ての処理対象画素について、以下のステップS59からS62の処理を実行したか否かを判別する(ステップS58)。このとき、全ての処理対象画素についてステップS59からS62の処理を実行していないと判別した場合には(ステップS58;No)、第2算出部122bは、未処理の処理対象画素の1つを選択する(ステップS59)。次に、第2算出部122bは、対象レンズ番号で識別される対象レンズの第2投影位置OIを算出する(ステップS60)。   Thereafter, the second calculation unit 122b determines whether or not the following steps S59 to S62 have been executed for all the processing target pixels included in the detected processing target pixel range (step S58). At this time, when it is determined that the processing of steps S59 to S62 has not been executed for all the processing target pixels (step S58; No), the second calculation unit 122b selects one of the unprocessed processing target pixels. Select (step S59). Next, the second calculation unit 122b calculates the second projection position OI of the target lens identified by the target lens number (step S60).

具体的には、第2算出部122bは、選択された処理対象画素(以下、選択画素という)PDと対象レンズLiの中心位置OAとを通る直線が結像面PIと交わる点の位置(以下、結像面PI上の投影位置という)OPを、S51で算出などされた距離Zad及びZpaと、以下の式(5)とを用いて算出する。   Specifically, the second calculation unit 122b determines the position (hereinafter referred to as a point) where a straight line passing through the selected processing target pixel (hereinafter referred to as a selected pixel) PD and the center position OA of the target lens Li intersects the imaging plane PI. OP (referred to as the projection position on the image plane PI) is calculated using the distances Zad and Zpa calculated in S51 and the following equation (5).

(XOP,YOP)=(XOA,YOA)+((XOA,YOA)−(XPD,YPD))/Zad×Zpa・・・(5)
但し、(XOp,YOP)は投影位置OPのXY座標を表し、(XOA,YOA)は中心位置OAのXY座標を表し、(XPD,YPD)は選択画素PDのXY座標を表す。
(X OP , Y OP ) = (X OA , Y OA ) + ((X OA , Y OA ) − (X PD , Y PD )) / Zad × Zpa (5)
However, (X Op , Y OP ) represents the XY coordinates of the projection position OP, (X OA , Y OA ) represents the XY coordinates of the center position OA, and (X PD , Y PD ) represents the XY coordinates of the selected pixel PD. Represents.

次に、第2算出部122bは、結像面PI上の投影位置OPとメインレンズLMの中心位置OMとを通る直線が、原画像IOと交わる点を第2投影位置OIとし、第2投影位置OIの位置座標を、以下の式(6)と図6(b)のステップS41及びS42で取得された距離Zim及びZmpとを用いて算出する。   Next, the second calculation unit 122b sets the second projection position OI as a point where a straight line passing through the projection position OP on the image plane PI and the center position OM of the main lens LM intersects the original image IO, and performs the second projection. The position coordinates of the position OI are calculated using the following formula (6) and the distances Zim and Zmp acquired in steps S41 and S42 in FIG.

(XOI,YOI) = −(XOP,YOP)×Zim/Zmp・・・(6)
但し、(XOI,YOI)は第2投影位置OIのXY座標を表し、(XOP,YOP)は投影位置OPのXY座標を表す。
(X OI , Y OI ) = − (X OP , Y OP ) × Zim / Zmp (6)
However, (X OI , Y OI ) represents the XY coordinates of the second projection position OI, and (X OP , Y OP ) represents the XY coordinates of the projection position OP.

その後、第2算出部122bは、図8のステップS27の処理と同様に、ステップS60で算出された第2投影位置OIと、ステップS54で生成された第2相対範囲テーブルとに基づいて、選択画素PDの積分対象画素範囲を特定する(ステップS61)。   After that, the second calculation unit 122b selects based on the second projection position OI calculated in step S60 and the second relative range table generated in step S54, similarly to the process in step S27 of FIG. The integration target pixel range of the pixel PD is specified (step S61).

その後に、図5(c)の第2保存部122cは、選択画素PDの座標値と、選択画素PDの積分対象画素範囲を表す座標値とを対応付けて、図7(c)に示すような、情報記憶部130が記憶する積分対象画素テーブルに保存する。次に、第2保存部122cは、処理対象画素テーブルの生成に用いた第1設定情報と第2設定情報とを、積分対象画素テーブルのテーブル番号と対応付けて、情報記憶部130が記憶する、図7(d)に示すような第2設定テーブルに保存する(ステップS62)。その後、ステップS58に戻り上記処理が繰り返される。   Thereafter, the second storage unit 122c in FIG. 5C associates the coordinate value of the selected pixel PD with the coordinate value representing the integration target pixel range of the selected pixel PD, as illustrated in FIG. 7C. The information is stored in the integration target pixel table stored in the information storage unit 130. Next, in the second storage unit 122c, the information storage unit 130 stores the first setting information and the second setting information used for generating the processing target pixel table in association with the table number of the integration target pixel table. The second setting table as shown in FIG. 7D is stored (step S62). Thereafter, the process returns to step S58 and the above process is repeated.

ステップS58において、全ての処理対象画素についてステップS59からS62の処理を実行したと判別した場合には(ステップS58;Yes)、第2算出部122bは、対象レンズ番号を値「1」だけインクリメントした後に(ステップS63)、ステップS56から上記処理を繰り返す。   If it is determined in step S58 that the processing of steps S59 to S62 has been executed for all the processing target pixels (step S58; Yes), the second calculation unit 122b increments the target lens number by the value “1”. Later (step S63), the above processing is repeated from step S56.

ステップS56において、対象レンズ番号の値が「N」であると判別すると(ステップS56;Yes)、第1算出部121aは、積分対象画素テーブル生成処理の実行を終了する。   If it is determined in step S56 that the value of the target lens number is “N” (step S56; Yes), the first calculation unit 121a ends the integration target pixel table generation process.

図4のステップS06の後に、図5(a)の画像情報取得部140は、原画像IOを表す原画像情報を、図3のハードディスク100d、メディアコントローラ100e、及びLANカード100fのいずれかから取得する(ステップS07)。その後、図5(a)の軌跡特定部150と画像生成部160は、取得された設定情報と原画像を表す原画像情報とに基づいてアレイ画像を生成する、図13に示すようなアレイ画像生成処理を実行する(ステップS08)。尚、軌跡特定部150は、図5(d)に示すように第1特定部151及び第2特定部152を有する。   After step S06 in FIG. 4, the image information acquisition unit 140 in FIG. 5A acquires original image information representing the original image IO from any of the hard disk 100d, the media controller 100e, and the LAN card 100f in FIG. (Step S07). Thereafter, the trajectory specifying unit 150 and the image generating unit 160 in FIG. 5A generate an array image based on the acquired setting information and original image information representing the original image, as shown in FIG. Generation processing is executed (step S08). The trajectory specifying unit 150 includes a first specifying unit 151 and a second specifying unit 152 as shown in FIG.

図13に示すアレイ画像の実行を開始すると、図5(a)の軌跡特定部150は、ステップS73からS78の処理の対象とするマイクロレンズを識別する対象レンズ番号を値「1」として初期化する(ステップS71)。次に、軌跡特定部150は、対象レンズ番号の値が最大値「N」であるか否かを判別する(ステップS72)。このとき、対象レンズ番号の値が「N」でないと判別されると(ステップS72;No)、軌跡特定部150が有する第1特定部151は、第1設定情報に基づいて、図7(b)の第1設定テーブルから処理対象画素テーブルのテーブル番号を検索し、設定情報に基づいて、図7(d)の第2設定テーブルから積分対象画素テーブルのテーブル番号を検索する。その後、第1特定部151は、検索されたテーブル番号の処理対象画素テーブルから、対象レンズ番号に基づいて処理対象画素範囲を検索する(ステップS73)。   When the execution of the array image shown in FIG. 13 is started, the trajectory specifying unit 150 in FIG. 5A initializes the target lens number for identifying the microlens to be processed in steps S73 to S78 as the value “1”. (Step S71). Next, the trajectory specifying unit 150 determines whether or not the value of the target lens number is the maximum value “N” (step S72). At this time, if it is determined that the value of the target lens number is not “N” (step S72; No), the first specifying unit 151 included in the trajectory specifying unit 150 is based on the first setting information, as shown in FIG. The table number of the processing target pixel table is searched from the first setting table of FIG. 7, and the table number of the integration target pixel table is searched from the second setting table of FIG. 7D based on the setting information. Thereafter, the first specifying unit 151 searches the processing target pixel range based on the target lens number from the processing target pixel table of the searched table number (step S73).

その後、軌跡特定部150が有する第2特定部152は、検出した処理対象画素範囲に含まれる全ての処理対象画素について、以下のステップS75からS78の処理を実行したか否かを判別する(ステップS74)。このとき、全ての処理対象画素についてステップS75からS78の処理を実行していないと判別した場合には(ステップS74;No)、第2特定部152は、未処理の処理対象画素の1つを選択する(ステップS75)。次に、第2特定部152は、選択された処理対象画素(以下、選択画素)の座標値に基づいて、上記で検索されたテーブル番号の積分対象画素テーブルから、積分対象画素範囲を検索する(ステップS76)。   Thereafter, the second specifying unit 152 included in the trajectory specifying unit 150 determines whether or not the following steps S75 to S78 have been performed for all the processing target pixels included in the detected processing target pixel range (step S75). S74). At this time, when it is determined that the processing of steps S75 to S78 has not been performed for all the processing target pixels (step S74; No), the second specifying unit 152 selects one of the unprocessed processing target pixels. Select (step S75). Next, the second specifying unit 152 searches the integration target pixel range from the integration target pixel table of the table number searched above based on the coordinate value of the selected processing target pixel (hereinafter, selected pixel). (Step S76).

その後、画像生成部160は、検索された積分対象画素範囲に含まれる原画像IOの画素値に対して積分演算を行い(ステップS77)、算出された積分値を選択画素の画素値とする(ステップS78)。その後、ステップS74から上記処理が繰り返される。   Thereafter, the image generation unit 160 performs an integration operation on the pixel values of the original image IO included in the searched integration target pixel range (step S77), and uses the calculated integration value as the pixel value of the selected pixel ( Step S78). Thereafter, the above process is repeated from step S74.

ステップS74において、全ての処理対象画素についてステップS75からS78の処理を実行したと判別した場合には(ステップS74;Yes)、軌跡特定部150は、対象レンズ番号を値「1」だけインクリメントした後に(ステップS79)、ステップS72から上記処理を繰り返す。   If it is determined in step S74 that the processing of steps S75 to S78 has been executed for all the processing target pixels (step S74; Yes), the trajectory specifying unit 150 increments the target lens number by the value “1”. (Step S79), the above process is repeated from Step S72.

ステップS72において、対象レンズ番号の値が「N」であると判別すると(ステップS72;Yes)、軌跡特定部150は、アレイ画像生成処理の実行を終了する。   If it is determined in step S72 that the value of the target lens number is “N” (step S72; Yes), the trajectory specifying unit 150 ends the execution of the array image generation process.

図4のステップS08の後に、画像評価部170は、ステップS08で生成されたレンズアレイの視認性を評価する(ステップS09)。具体的には、画像評価部170は、それぞれのマイクロレンズの結像範囲毎にコントラストを算出し、算出した複数のコントラストの平均値を用いてアレイ画像を評価する。画像評価部170は、コントラストの平均値が高いアレイ画像の生成に用いられた設定情報ほど、優先的にレンズアレイを備える撮像装置の設計に用いられると判別し、算出したコントラストの平均値を優先順位とする。コントラストが高い程、ユーザにとってレンズアレイ画像を視認し易いためである。その後、画像評価部170は、レンズアレイ画像を表すアレイ画像情報と、原画像IOを表す原画像情報と、優先順位を表す優先順位情報と、レンズアレイ画像の生成に用いられた設定情報とを対応付けて、図5(a)の情報記憶部130に保存する。   After step S08 in FIG. 4, the image evaluation unit 170 evaluates the visibility of the lens array generated in step S08 (step S09). Specifically, the image evaluation unit 170 calculates the contrast for each imaging range of each microlens, and evaluates the array image using the calculated average value of the plurality of contrasts. The image evaluation unit 170 determines that setting information used for generating an array image having a higher average contrast value is used for designing an imaging apparatus having a lens array preferentially, and gives priority to the calculated average contrast value. Rank. This is because the higher the contrast, the easier it is for the user to visually recognize the lens array image. Thereafter, the image evaluation unit 170 includes array image information representing the lens array image, original image information representing the original image IO, priority order information representing the priority order, and setting information used for generating the lens array image. The information is stored in the information storage unit 130 in FIG.

その後、図5(a)の画像表示制御部180は、今回のステップS07で取得された原画像を表す原画像情報と、今回のステップS08で生成されたアレイ画像を表す画像情報と、今回のステップS09で算出された優先順位(つまり、評価結果)と、今回のステップS01及びS04で取得された設定情報とのいずれか2つ以上をそれぞれ対応付けて、図3のLCD100hに表示させる(ステップS10)。また、画像表示制御部180は、図3のキーボード100iから入力されたユーザの指定値よりも高い優先度を表す優先度情報と対応付けて情報記憶部130に保存されたアレイ画像情報と、原画像情報と、優先順位情報と、第1設定情報及び第2設定情報とのいずれか2つ以上をそれぞれ対応付けて、LCD100hに表示させても良い。その後、画像表示制御部180は、画像生成処理の実行を終了する。   After that, the image display control unit 180 in FIG. 5A performs the original image information representing the original image acquired in step S07, the image information representing the array image generated in step S08, and the current image. Any two or more of the priority order calculated in step S09 (that is, the evaluation result) and the setting information acquired in steps S01 and S04 of this time are associated with each other and displayed on the LCD 100h in FIG. S10). Further, the image display control unit 180 associates the array image information stored in the information storage unit 130 with the priority information indicating the priority higher than the user-specified value input from the keyboard 100i in FIG. Any two or more of the image information, the priority information, the first setting information, and the second setting information may be associated with each other and displayed on the LCD 100h. Thereafter, the image display control unit 180 ends the execution of the image generation process.

これらの構成によれば、マイクロレンズアレイLAと撮像素子面DPとの距離Zadをマイクロレンズの焦点距離faとし、マイクロレンズに対して平行に入射された光の軌跡を、光が結像した撮像素子DPの位置から辿るため、少ない計算量でレンズアレイ画像を生成できる。レンズに対して平行に入射する光線は、入射したレンズの焦点距離で結像するためである。   According to these configurations, the distance Zad between the microlens array LA and the imaging element surface DP is set as the focal length fa of the microlens, and the image of the light that forms an image of the locus of light incident in parallel to the microlens. Since tracing is performed from the position of the element DP, a lens array image can be generated with a small amount of calculation. This is because light rays incident parallel to the lens are imaged at the focal length of the incident lens.

またこれらの構成によれば、レンズアレイLAを構成するレンズの結像範囲(つまり、処理対象画素範囲)を特定した後に、特定された結像範囲に含まれる撮像素子の位置において結像される光の軌跡の出発点が含まれる画素範囲(つまり、積分対象画素範囲)を特定し、特定した画素範囲に含まれる原画像IOの画素に基づいて撮像素子の画素値を算出する。このため、演算処理の回数を撮像素子の画素数と積分対象画素範囲に含まれる原画像IOの画素数との積算値にまで軽減できる。よって、例えば、原画像IOの画素から光の軌跡を辿った軌跡結果に基づいて、撮像素子のそれぞれが、図14に示すようなレンズアレイLAのブラーBD1からBD3に含まれるか否かを判別する処理が必要な従来の方法のように、原画像IOの画素数と撮像素子の画素数との積算値の回数だけ演算を実行する必要がないため、レンズアレイ画像を生成するのに必要な計算量及び計算時間を削減できる。   Further, according to these configurations, after the imaging range (that is, the processing target pixel range) of the lenses constituting the lens array LA is specified, an image is formed at the position of the image sensor included in the specified imaging range. A pixel range (that is, an integration target pixel range) including the starting point of the light locus is specified, and a pixel value of the image sensor is calculated based on the pixels of the original image IO included in the specified pixel range. For this reason, the number of times of the arithmetic processing can be reduced to an integrated value of the number of pixels of the image sensor and the number of pixels of the original image IO included in the integration target pixel range. Therefore, for example, based on the trajectory result of tracing the trajectory of light from the pixels of the original image IO, it is determined whether or not each of the imaging elements is included in the blurs BD1 to BD3 of the lens array LA as shown in FIG. Unlike the conventional method that requires processing to be performed, it is not necessary to perform the calculation by the number of times of integration of the number of pixels of the original image IO and the number of pixels of the image sensor, so that it is necessary to generate a lens array image. Calculation amount and calculation time can be reduced.

またこれらの構成によれば、一旦、レンズアレイLAを構成するマイクロレンズLAの結像範囲(つまり、処理対象画素範囲)を第1算出部121aが算出した後に、算出した結像範囲を表す情報と焦点距離faを表す情報及びレンズサイズdを表す情報とを第1保存部121bが対応付けて、図7(a)及び(b)に示すデータテーブルへ保存してしまえば、次回に同じ焦点距離fa及びレンズサイズdが設定された場合には結像範囲を再度算出する必要がない。このため、レンズアレイ画像を生成するために必要な計算量を削減できる。   Further, according to these configurations, after the first calculation unit 121a calculates the imaging range (that is, the processing target pixel range) of the microlens LA that constitutes the lens array LA, the information indicating the calculated imaging range is temporarily obtained. If the first storage unit 121b associates the information indicating the focal length fa and the information indicating the lens size d with each other and stores them in the data table shown in FIGS. 7A and 7B, the same focus will be obtained next time. When the distance fa and the lens size d are set, it is not necessary to calculate the imaging range again. For this reason, it is possible to reduce the amount of calculation required to generate the lens array image.

またこれらの構成によれば、軌跡特定部150は、焦点距離faを表す情報及びレンズサイズdを表す情報に基づいて、図7(a)及び(b)に示すデータテーブルから結像範囲(つまり、処理対象画素範囲)を表す情報を検索した後に、検索された結像範囲で結像される光の軌跡を特定するため、軌跡を特定するために要する計算量を削減できる。さらにこれらの構成によれば、一旦、結像範囲に含まれる撮像素子毎に画素範囲(つまり、積分対象画素範囲)を第2算出部122bが算出した後に、算出した画素範囲を表す情報と焦点距離faを表す情報及びレンズサイズdを表す情報とを第2保存部122cが対応付けて、図7(c)及び(d)に示すデータテーブルへ保存してしまえば、次回に同じ焦点距離fa及びレンズサイズdが設定された場合に、画素範囲を再度算出する必要がない。このため、レンズアレイ画像を生成するために必要な計算量を削減できる。   Further, according to these configurations, the trajectory specifying unit 150 uses the data table shown in FIGS. 7A and 7B based on the information indicating the focal length fa and the information indicating the lens size d, that is, the imaging range (that is, Since the trajectory of the light imaged in the searched imaging range is specified after searching for information representing the processing target pixel range), the amount of calculation required to specify the trajectory can be reduced. Furthermore, according to these configurations, after the second calculation unit 122b calculates the pixel range (that is, the integration target pixel range) for each image sensor included in the imaging range, the information and the focus indicating the calculated pixel range. If the second storage unit 122c associates the information indicating the distance fa and the information indicating the lens size d and stores them in the data table shown in FIGS. 7C and 7D, the same focal length fa will be stored next time. When the lens size d is set, it is not necessary to calculate the pixel range again. For this reason, it is possible to reduce the amount of calculation required to generate the lens array image.

またこれらの構成によれば、レンズアレイ画像と、レンズアレイ画像の評価結果と、レンズアレイ画像の生成に用いられた焦点距離faなどを表す設定情報とを対応付けて表示するため、ユーザは、視認性の良いレンズアレイ画像を生成できるレンズアレイLAの設定情報を容易に確認できる。   Further, according to these configurations, the lens array image, the evaluation result of the lens array image, and the setting information indicating the focal length fa used for generating the lens array image are displayed in association with each other. The setting information of the lens array LA that can generate a lens array image with good visibility can be easily confirmed.

尚、本発明に係る機能を実現するための構成を予め備えた画像生成装置として提供できることはもとより、プログラムの適用により、既存の画像生成装置を本発明に係る画像生成装置として機能させることもできる。すなわち、上記実施形態で例示した画像生成装置100による各機能構成を実現させるための画像生成プログラムを、既存の画像生成装置を制御するコンピュータ(CPUなど)が実行できるように適用することで、本発明に係る画像生成装置100として機能させることができる。また、本発明に係る画像生成方法は、画像生成装置100を用いて実施できる。   It should be noted that not only can an image generating apparatus provided with a configuration for realizing the functions according to the present invention be provided in advance, but also an existing image generating apparatus can be made to function as the image generating apparatus according to the present invention by applying a program. . That is, by applying an image generation program for realizing each functional configuration by the image generation apparatus 100 exemplified in the above embodiment so that a computer (such as a CPU) that controls the existing image generation apparatus can be executed. The image generating apparatus 100 according to the invention can function. The image generation method according to the present invention can be implemented using the image generation apparatus 100.

このようなプログラムの配布方法は任意であり、例えば、メモリカード、CD−ROM、又はDVD−ROMなどの記録媒体に格納して配布できる他、インターネットなどの通信媒体を介して配布することもできる。   Such a program distribution method is arbitrary. For example, the program can be distributed by being stored in a recording medium such as a memory card, a CD-ROM, or a DVD-ROM, or via a communication medium such as the Internet. .

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

IO・・・原画像、LM・・・メインレンズ、PI・・・結像面、LA・・・レンズアレイ、DP・・・撮像素子面、100・・・画像生成装置、100a・・・CPU、100b・・・ROM、100c・・・RAM、100d・・・ハードディスク、100e・・・メディアコントローラ、100f・・・LANカード、100g・・・ビデオカード、100h・・・LCD、100i・・・キーボード、110・・・設定情報取得部、121・・・処理対象画素テーブル生成部、121a・・・第1算出部、121b・・・第1保存部、122・・・積分対象画素テーブル生成部、122a・・・情報検索部、122b・・・第2算出部、122c・・・第2保存部、130・・・情報記憶部、140・・・画像情報取得部、150・・・軌跡特定部、151・・・第1特定部、152・・・第2特定部、160・・・画像生成部、170・・・画像評価部、180・・・画像表示制御部 IO ... Original image, LM ... Main lens, PI ... Imaging surface, LA ... Lens array, DP ... Image sensor surface, 100 ... Image generating device, 100a ... CPU , 100b ... ROM, 100c ... RAM, 100d ... hard disk, 100e ... media controller, 100f ... LAN card, 100g ... video card, 100h ... LCD, 100i ... Keyboard: 110 ... Setting information acquisition unit, 121 ... Processing target pixel table generation unit, 121a ... First calculation unit, 121b ... First storage unit, 122 ... Integration target pixel table generation unit , 122a... Information search unit, 122b... Second calculation unit, 122c... Second storage unit, 130... Information storage unit, 140. · Locus identification unit 151 first specific portion ..., 152 ... second specific section, 160 ... image generation unit, 170 ... image evaluation unit, 180 ... image display control unit

Claims (8)

原画像を表す原画像情報を取得する画像情報取得手段と、
複数のレンズの配列で構成されるレンズアレイであって、前記画像情報取得手段で取得された原画像情報で表される原画像のメインレンズによる光学像を結像するレンズアレイの焦点距離を表す設定情報を取得する設定情報取得手段と、
前記設定情報取得手段で取得された設定情報で表される焦点距離だけ前記レンズアレイから離れた撮像素子の位置において結像される光の軌跡を、前記撮像素子の位置から辿ることで特定する軌跡特定手段と、
前記軌跡特定手段で特定された軌跡に基づいて前記撮像素子から出力される画素値を算出することで、前記原画像のメインレンズによる光学像を前記レンズアレイが結像したレンズアレイ画像を生成する画像生成手段と、を備える、
ことを特徴とする画像生成装置。
Image information acquisition means for acquiring original image information representing the original image;
A lens array configured by an array of a plurality of lenses, which represents a focal length of a lens array that forms an optical image of a main image of an original image represented by original image information acquired by the image information acquisition unit Setting information acquisition means for acquiring setting information;
A trajectory that identifies the trajectory of light that is imaged at the position of the image sensor separated from the lens array by the focal length represented by the setting information acquired by the setting information acquisition means from the position of the image sensor. Specific means,
Based on the locus specified by the locus specifying means, a pixel value output from the image sensor is calculated, thereby generating a lens array image in which the lens array forms an optical image of the original image by the main lens. Image generating means,
An image generation apparatus characterized by that.
前記設定情報取得手段は、前記レンズアレイを構成するレンズのサイズを表す設定情報を、さらに取得し、
前記軌跡特定手段は、
前記設定情報取得手段で取得された設定情報で表されるレンズアレイの焦点距離とサイズとに基づいて、前記レンズアレイを構成するレンズで光が結像される結像範囲を特定する第1特定手段と、
前記第1特定手段で特定された結像範囲に含まれる撮像素子の位置において結像される光の出発点が含まれる原画像の画素範囲を、前記レンズアレイを構成するレンズの中心を通過した後に前記撮像素子の位置において結像した光の軌跡を前記撮像素子の位置から前記原画像まで辿った結果と前記レンズのサイズとに基づいて特定する第2特定手段と、を有し、
前記画像生成手段は、前記第2特定手段で特定された画素範囲に含まれる前記原画像の画素の値に基づいて、前記撮像素子の画素値を算出する、
ことを特徴とする請求項1に記載の画像生成装置。
The setting information acquisition means further acquires setting information indicating the size of the lenses constituting the lens array,
The locus specifying means includes
Based on the focal length and size of the lens array represented by the setting information acquired by the setting information acquisition means, a first specification for specifying an imaging range in which light is imaged by the lenses constituting the lens array Means,
The pixel range of the original image including the starting point of the light imaged at the position of the image sensor included in the imaging range specified by the first specifying means has passed through the center of the lenses constituting the lens array. A second specifying means for specifying a trajectory of light imaged later at the position of the image sensor from the position of the image sensor to the original image based on the size of the lens;
The image generating means calculates a pixel value of the image sensor based on a value of a pixel of the original image included in a pixel range specified by the second specifying means;
The image generating apparatus according to claim 1.
前記レンズアレイの焦点距離を表す焦点距離情報と、前記レンズアレイを構成するレンズのサイズを表すサイズ情報とを、前記サイズのレンズが光を結像する結像範囲を表す結像範囲情報に対応付けて記憶する情報記憶手段、をさらに備え、
前記軌跡特定手段が有する第1特定手段は、前記設定情報取得手段で取得された設定情報によって設定される焦点距離を表す焦点距離情報及びサイズを表すサイズ情報に基づいて、前記情報記憶手段に記憶された結像範囲情報を特定する、
ことを特徴とする請求項2に記載の画像生成装置。
Corresponding to the imaging range information representing the imaging range in which the lens of the size forms light, the focal length information representing the focal length of the lens array and the size information representing the size of the lens constituting the lens array Further comprising information storage means for storing information;
The first specifying means included in the trajectory specifying means is stored in the information storage means based on focal length information indicating a focal length set by the setting information acquired by the setting information acquiring means and size information indicating a size. Identify the imaged range information
The image generating apparatus according to claim 2.
前記設定情報取得手段で取得された設定情報で表されるレンズアレイを構成するレンズの焦点距離とサイズとに基づいて、前記レンズアレイを構成するレンズで光が結像される結像範囲を算出する第1算出手段と、
前記第1算出手段で算出された結像範囲を表す結像範囲情報を、前記焦点距離を表す焦点距離情報と前記レンズのサイズを表すサイズ情報とに対応付けて前記情報記憶手段に保存する第1保存手段を、さらに備える、
ことを特徴とする請求項3に記載の画像生成装置。
Based on the focal length and size of the lens constituting the lens array represented by the setting information acquired by the setting information acquisition means, the imaging range in which light is imaged by the lenses constituting the lens array is calculated. First calculating means for
The image forming range information representing the image forming range calculated by the first calculating means is stored in the information storing means in association with the focal length information representing the focal distance and the size information representing the size of the lens. 1 storage means is further provided,
The image generating apparatus according to claim 3.
前記設定情報取得手段で取得された設定情報によって表されるレンズの焦点距離とサイズとに基づいて、前記情報記憶手段に記憶された結像範囲情報を検索する情報検索手段と、
前記情報検索手段で検索された結像範囲情報によって表される結像範囲に含まれる撮像素子の位置で結像される光の出発点が含まれる原画像の画素範囲を、前記レンズの中心を通過した後に前記撮像素子の位置において結像した光の軌跡を前記撮像素子の位置から前記原画像まで辿った結果と前記レンズのサイズとに基づいて算出する第2算出手段と、
前記第2算出手段で算出された画素範囲を表す画素範囲情報と、前記撮像素子を識別する素子識別情報とを対応付けて前記情報記憶手段に保存する第2保存手段と、をさらに備え、
前記軌跡特定手段が有する第2特定手段は、前記第1特定手段で特定された結像範囲に含まれる撮像素子を識別する素子識別情報に基づいて、前記情報記憶手段に記憶された画素範囲情報で表される画素範囲を特定する、
ことを特徴とする請求項3又は4に記載の画像生成装置。
Information retrieval means for retrieving imaging range information stored in the information storage means based on the focal length and size of the lens represented by the setting information obtained by the setting information obtaining means;
The pixel range of the original image including the starting point of the light imaged at the position of the image sensor included in the imaging range represented by the imaging range information searched by the information search means is set to the center of the lens. Second calculation means for calculating a trajectory of light imaged at the position of the image sensor after passing based on a result of tracing from the position of the image sensor to the original image and a size of the lens;
A second storage unit that stores the pixel range information representing the pixel range calculated by the second calculation unit and the element identification information for identifying the imaging element in association with each other and stored in the information storage unit;
The second specifying means included in the locus specifying means includes pixel range information stored in the information storage means based on element identification information for identifying an image pickup element included in the imaging range specified by the first specifying means. Identify the pixel range represented by
The image generation apparatus according to claim 3, wherein the image generation apparatus is an image generation apparatus.
前記画像生成手段で生成されたレンズアレイ画像のコントラストに基づいて、前記レンズアレイ画像の視認性を評価する画像評価手段と、
前記画像評価手段による評価結果と、前記画像評価手段によって評価されたレンズアレイ画像と、前記レンズアレイ画像の生成に用いられたレンズアレイの焦点距離とのいずれか2つ以上を対応付けて表示する表示手段と、をさらに備える、
ことを特徴とする請求項1から5のいずれか1項に記載の画像生成装置。
Image evaluation means for evaluating the visibility of the lens array image based on the contrast of the lens array image generated by the image generation means;
Any two or more of the evaluation result by the image evaluation unit, the lens array image evaluated by the image evaluation unit, and the focal length of the lens array used to generate the lens array image are displayed in association with each other. A display means,
The image generation apparatus according to claim 1, wherein the image generation apparatus is an image generation apparatus.
画像生成装置を制御するコンピュータを、
原画像を表す原画像情報を取得する画像情報取得手段、
複数のレンズの配列で構成されるレンズアレイであって、前記画像情報取得手段で取得された原画像情報で表される原画像のメインレンズによる光学像を結像するレンズアレイの焦点距離を表す設定情報を取得する設定情報取得手段、
前記設定情報取得手段で取得された設定情報で表される焦点距離だけ前記レンズアレイから離れた撮像素子の位置において結像される光の軌跡を、前記撮像素子の位置から辿ることで特定する軌跡特定手段、
前記軌跡特定手段で特定された軌跡に基づいて前記撮像素子から出力される画素値を算出することで、前記原画像のメインレンズによる光学像を前記レンズアレイが結像したレンズアレイ画像を生成する画像生成手段、として機能させる、
ことを特徴とする画像生成プログラム。
A computer for controlling the image generating device;
Image information acquisition means for acquiring original image information representing the original image;
A lens array configured by an array of a plurality of lenses, which represents a focal length of a lens array that forms an optical image of a main image of an original image represented by original image information acquired by the image information acquisition unit Setting information acquisition means for acquiring setting information;
A trajectory that identifies the trajectory of light that is imaged at the position of the image sensor separated from the lens array by the focal length represented by the setting information acquired by the setting information acquisition means from the position of the image sensor. Specific means,
Based on the locus specified by the locus specifying means, a pixel value output from the image sensor is calculated, thereby generating a lens array image in which the lens array forms an optical image of the original image by the main lens. Function as image generation means,
An image generation program characterized by that.
画像生成装置での画像生成方法であって、
原画像を表す原画像情報を取得する画像情報取得ステップと、
複数のレンズの配列で構成されるレンズアレイであって、前記画像情報取得手段で取得された原画像情報で表される原画像のメインレンズによる光学像を結像するレンズアレイの焦点距離を表す設定情報を取得する設定情報取得ステップと、
前記設定情報取得ステップで取得された設定情報で表される焦点距離だけ前記レンズアレイから離れた撮像素子の位置において結像される光の軌跡を、前記撮像素子の位置から辿ることで特定する軌跡特定ステップと、
前記軌跡特定ステップで特定された軌跡に基づいて前記撮像素子から出力される画素値を算出することで、前記原画像のメインレンズによる光学像を前記レンズアレイが結像したレンズアレイ画像を生成する画像生成ステップと、を含む、
ことを特徴とする画像生成方法。
An image generation method in an image generation apparatus,
An image information acquisition step for acquiring original image information representing the original image;
A lens array configured by an array of a plurality of lenses, which represents a focal length of a lens array that forms an optical image of a main image of an original image represented by original image information acquired by the image information acquisition unit A setting information acquisition step for acquiring setting information;
A trajectory that identifies the trajectory of light that is imaged at the position of the image sensor separated from the lens array by the focal length represented by the setting information acquired in the setting information acquisition step from the position of the image sensor Specific steps,
A pixel value output from the image sensor is calculated based on the locus specified in the locus specifying step, thereby generating a lens array image in which the lens array forms an optical image of the main image of the main lens. An image generation step,
An image generation method characterized by the above.
JP2010165198A 2010-07-22 2010-07-22 Image generating apparatus, image generating program, and image generating method Expired - Fee Related JP5593913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010165198A JP5593913B2 (en) 2010-07-22 2010-07-22 Image generating apparatus, image generating program, and image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010165198A JP5593913B2 (en) 2010-07-22 2010-07-22 Image generating apparatus, image generating program, and image generating method

Publications (2)

Publication Number Publication Date
JP2012029004A true JP2012029004A (en) 2012-02-09
JP5593913B2 JP5593913B2 (en) 2014-09-24

Family

ID=45781424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010165198A Expired - Fee Related JP5593913B2 (en) 2010-07-22 2010-07-22 Image generating apparatus, image generating program, and image generating method

Country Status (1)

Country Link
JP (1) JP5593913B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021028A1 (en) * 2014-08-07 2016-02-11 日立化成株式会社 Lens sheet inspection method, lens sheet obtained using same, optical waveguide with lens, and electrical wiring board with lens

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008515110A (en) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー Imaging apparatus and method
JP2009177727A (en) * 2008-01-28 2009-08-06 Sony Corp Image pickup apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008515110A (en) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー Imaging apparatus and method
JP2009177727A (en) * 2008-01-28 2009-08-06 Sony Corp Image pickup apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021028A1 (en) * 2014-08-07 2016-02-11 日立化成株式会社 Lens sheet inspection method, lens sheet obtained using same, optical waveguide with lens, and electrical wiring board with lens

Also Published As

Publication number Publication date
JP5593913B2 (en) 2014-09-24

Similar Documents

Publication Publication Date Title
US20180120553A1 (en) System for image reconstruction using a known pattern
JP6112824B2 (en) Image processing method and apparatus, and program.
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
US20150181091A1 (en) Plenoptic Camera Resolution
JP2018084820A (en) Variable focal length lens system equipped with multi-level extended depth of field image processing function
JP2014168227A (en) Image processing apparatus, imaging apparatus, and image processing method
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP2013123123A (en) Stereo image generation device, stereo image generation method and computer program for stereo image generation
JP2016024052A (en) Three-dimensional measurement system, three-dimensional measurement method and program
JP2010256530A (en) Microscope device
JP5857712B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP2013145982A (en) Imaging apparatus, image processing apparatus and method
JP2009520228A (en) Focus adjustment method
JP5593913B2 (en) Image generating apparatus, image generating program, and image generating method
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
KR20170101532A (en) Method for image fusion, Computer program for the same, and Recording medium storing computer program for the same
JP6645711B2 (en) Image processing apparatus, image processing method, and program
US20150015771A1 (en) Image-capturing devices and methods
JP2007181184A (en) Imaging apparatus and method, and method for designing imaging apparatus
JP2006094469A (en) Imaging device and imaging method
JP2011133360A (en) Distance measuring device, distance measurement method, and program
JP2014220598A (en) Image processing device and image processing method
JP2013232757A (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2005279054A (en) Device and method for displaying conversion image, and endoscope apparatus for industrial use
US20180172975A1 (en) Microscope device, storage medium and observation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140721

R150 Certificate of patent or registration of utility model

Ref document number: 5593913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees