JP2012129654A - Imaging device, and control method and program therefor - Google Patents

Imaging device, and control method and program therefor Download PDF

Info

Publication number
JP2012129654A
JP2012129654A JP2010277421A JP2010277421A JP2012129654A JP 2012129654 A JP2012129654 A JP 2012129654A JP 2010277421 A JP2010277421 A JP 2010277421A JP 2010277421 A JP2010277421 A JP 2010277421A JP 2012129654 A JP2012129654 A JP 2012129654A
Authority
JP
Japan
Prior art keywords
imaging
microlens array
unit
imaging data
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010277421A
Other languages
Japanese (ja)
Inventor
Keiichi Sawada
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010277421A priority Critical patent/JP2012129654A/en
Publication of JP2012129654A publication Critical patent/JP2012129654A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Blocking Light For Cameras (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device, and control method and program therefor, capable of forming a color reconstruction image with high resolution, using imaging data acquired so as to include optical information in the traveling direction.SOLUTION: The light which has passed through an imaging lens is dispersed into at least two types of light with different spectral characteristics. The imaging device includes a micro lens array which corresponds to at least one imaging means of a plurality of imaging sections for receiving each of the two or more types of dispersed light to form imaging data.

Description

本発明は、画像を撮像する撮像装置及びその制御方法、プログラムに関するものである。   The present invention relates to an imaging apparatus that captures an image, a control method thereof, and a program.

「Light Field Photography」と呼ばれる手法を用いた撮像装置が提案されている(例えば、特許文献1及び非特許文献1)。この撮像装置は、複数のマイクロレンズから構成されるマイクロレンズアレイを用いて、撮像素子の受光面における光の強度分布に加えて、その光の進行方向の情報をも得られるようになっている。そして、撮像後に、取得した光の強度分布と進行方向の情報を用いて、任意の視点や任意の焦点に設定された画像を再構築できるようになっている。このような撮像装置を、本発明では、ライトフィールドカメラと呼ぶ。   An imaging device using a technique called “Light Field Photography” has been proposed (for example, Patent Document 1 and Non-Patent Document 1). This imaging device uses a microlens array composed of a plurality of microlenses, and in addition to the intensity distribution of light on the light receiving surface of the imaging element, can also obtain information on the traveling direction of the light. . After imaging, an image set at an arbitrary viewpoint or an arbitrary focus can be reconstructed using the acquired light intensity distribution and information on the traveling direction. Such an imaging device is called a light field camera in the present invention.

特開2009−124213号公報JP 2009-124213 A

Ren.Ng、他7名, 「Light Field Photography with a Hand-Held Plenoptic Camera」, Stanford Tech Report CTSR 2005-02Ren.Ng and 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

しかしながら、ライトフィールドカメラは、光の進行方向の情報を得ることができる代わりに、再構築画像の解像度が低下してしまう。また、非特許文献1や特許文献1で提案されているカラーフィルタを用いたカラー化では、撮像素子の各画素が色成分のうちの1つに対応するので、各色成分の解像度はさらに低下してしまう。   However, in the light field camera, the information on the light traveling direction can be obtained, but the resolution of the reconstructed image is lowered. Further, in the colorization using the color filter proposed in Non-Patent Document 1 and Patent Document 1, each pixel of the image sensor corresponds to one of the color components, so that the resolution of each color component further decreases. End up.

本発明は上記の課題に鑑みてなされたものであり、光の進行方向の情報を含むようにして取得した撮像データを用いて、高解像度のカラー再構築画像を生成することが可能な撮像装置及びその制御方法、プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an imaging apparatus capable of generating a high-resolution color reconstructed image using imaging data acquired so as to include information on the light traveling direction, and the imaging apparatus It is an object to provide a control method and a program.

上記の目的を達成するための本発明による撮像装置は以下の構成を備える。即ち、
画像を撮像する撮像装置であって、
撮像レンズと、
前記撮像レンズを通過した光を少なくとも分光特性の異なる二つ以上の光に分光する分光手段と、
前記分光手段により分光された二つ以上の光をそれぞれ受光して撮像データを生成する複数の撮像手段と、
前記複数の撮像手段のうち少なくとも1つの撮像手段に対応するマイクロレンズアレイと
を備える。
In order to achieve the above object, an imaging apparatus according to the present invention comprises the following arrangement. That is,
An imaging device that captures an image,
An imaging lens;
A spectroscopic means for splitting light that has passed through the imaging lens into at least two lights having different spectral characteristics;
A plurality of imaging means that respectively receive two or more lights separated by the spectroscopic means and generate imaging data;
A microlens array corresponding to at least one of the plurality of imaging means.

本発明によれば、複数の撮像素子を有するライトフィールドカメラを用いることで、各色成分の解像度を低下させることなく、カラーの再構築画像が得られる。さらに、各色成分の視覚影響度の大きさに応じてマイクロレンズアレイの配置の有無やマイクロレンズアレイを構成するマイクロレンズの個数を変えることで、より高解像度のカラー再構築画像が得られる。   According to the present invention, by using a light field camera having a plurality of image sensors, a color reconstructed image can be obtained without reducing the resolution of each color component. Furthermore, a higher-resolution color reconstructed image can be obtained by changing the presence or absence of the microlens array and the number of microlenses constituting the microlens array in accordance with the magnitude of the visual influence of each color component.

実施形態1の撮像装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to Embodiment 1. FIG. 実施形態1の信号処理部の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of a signal processing unit according to the first embodiment. 実施形態1の色分解プリズムの動作を模式的に示す図である。FIG. 5 is a diagram schematically illustrating the operation of the color separation prism according to the first embodiment. 実施形態1の撮像データを得る過程を模式的に示す図である。It is a figure which shows typically the process of obtaining the imaging data of Embodiment 1. FIG. 実施形態1の撮像データに含まれる光線の情報を模式的に示す図である。It is a figure which shows typically the information of the light ray contained in the imaging data of Embodiment 1. FIG. 実施形態1の撮像素子の画素群とマイクロレンズの対応関係を模式的に示す図である。FIG. 3 is a diagram schematically illustrating a correspondence relationship between a pixel group of the image sensor of Embodiment 1 and a microlens. 実施形態1の視点情報補間部の動作を示すフローチャートである。3 is a flowchart illustrating an operation of a viewpoint information interpolation unit according to the first embodiment. 実施形態1の視点情報補間部の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating an operation of a viewpoint information interpolation unit according to the first embodiment. 実施形態1の視差画像生成部の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating an operation of a parallax image generation unit according to the first embodiment. 実施形態1の視差画像補間部の動作を示すフローチャートである。6 is a flowchart illustrating an operation of a parallax image interpolation unit according to the first embodiment. 実施形態1の再配列処理部の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of the rearrangement processing unit according to the first embodiment. 実施形態1の画像再構築部の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating an operation of an image reconstruction unit according to the first embodiment. 実施形態1の最適なマイクロレンズ配置を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an optimal microlens arrangement according to the first embodiment. 実施形態1のリフォーカス演算処理過程を模式的に示す図である。FIG. 6 is a diagram schematically illustrating a refocus calculation processing process of the first embodiment. 実施形態2の撮像素子の画素群とマイクロレンズの対応関係を模式的に示す図である。FIG. 6 is a diagram schematically illustrating a correspondence relationship between a pixel group of an image sensor of Embodiment 2 and a microlens. 実施形態2の信号処理部の機能構成を示すブロック図である。6 is a block diagram illustrating a functional configuration of a signal processing unit according to Embodiment 2. FIG.

以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
図1は実施形態1の撮像装置の全体構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<Embodiment 1>
FIG. 1 is a block diagram illustrating the overall configuration of the imaging apparatus according to the first embodiment.

撮像装置は、撮像レンズ101、色分解プリズム102、及びマイクロレンズアレイ103(赤(R)成分用マイクロレンズアレイ103R、緑(G)成分用マイクロレンズアレイ103G、青(B)成分用マイクロレンズアレイ103B)を備える。また、撮像装置は、撮像素子104(R成分用撮像素子104R、G成分用撮像素子104G、B成分用撮像素子104B)、A/D変換部105、信号処理部106、エンコーダ部107、及びメディアI/F108を備える。更に、撮像装置は、CPU109、ROM110、及びRAM111を備える。尚、絞りやシャッター等の撮像装置の各種構成要素は、図示した以外にも存在するが、本発明の主眼ではないので、説明を省略する。   The imaging apparatus includes an imaging lens 101, a color separation prism 102, and a microlens array 103 (a red (R) component microlens array 103R, a green (G) component microlens array 103G, and a blue (B) component microlens array. 103B). The imaging device includes an imaging element 104 (an R-component imaging element 104R, a G-component imaging element 104G, and a B-component imaging element 104B), an A / D conversion unit 105, a signal processing unit 106, an encoder unit 107, and a medium. I / F 108 is provided. Further, the imaging apparatus includes a CPU 109, a ROM 110, and a RAM 111. Various components of the image pickup apparatus such as an aperture and a shutter are present in addition to those shown in the figure, but are not the main points of the present invention, and thus description thereof is omitted.

撮像レンズ101は、撮像対象物からの物体光を集光する。分光部である色分解プリズム102は、撮像レンズ101を通過した光を少なくとも分光特性の異なる二つ以上の光に分光する。ここでは、色分解プリズム102は、撮像レンズ101により集光された物体光をRGBに分解する。色分解プリズム102によって分解された物体光はそれぞれ、撮像レンズ101の結像面上に配置されたマイクロレンズアレイ103R、103G及び103Bに入射する。各マイクロレンズアレイはそれぞれ複数のマイクロレンズから構成される。   The imaging lens 101 collects object light from the imaging target. A color separation prism 102 serving as a spectroscopic unit splits light that has passed through the imaging lens 101 into at least two light beams having different spectral characteristics. Here, the color separation prism 102 separates the object light collected by the imaging lens 101 into RGB. The object lights separated by the color separation prism 102 are incident on the microlens arrays 103R, 103G, and 103B arranged on the image forming surface of the imaging lens 101, respectively. Each microlens array is composed of a plurality of microlenses.

撮像部である撮像素子104R、104G及び104Bはそれぞれ、マイクロレンズアレイ103R、103G及び103Bからの物体光を受光して撮像データを生成する。ここで、撮像素子104R、104G及び104Bはそれぞれ、マイクロレンズアレイ103R、103G及び103Bを構成するマイクロレンズの結像面上に配置される。撮像素子104として、例えば、CCD(charge−coupled device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等を用いることができる。撮像素子104の複数の画素に対してそれぞれマイクロレンズアレイ103内の1つのマイクロレンズが割り当てられるようになっている。   The imaging elements 104R, 104G, and 104B, which are imaging units, receive object light from the microlens arrays 103R, 103G, and 103B, respectively, and generate imaging data. Here, the image sensors 104R, 104G, and 104B are arranged on the image planes of the microlenses that constitute the microlens arrays 103R, 103G, and 103B, respectively. For example, a CCD (charge-coupled device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor can be used as the image sensor 104. One microlens in the microlens array 103 is assigned to each of the plurality of pixels of the image sensor 104.

ここで、1つのマイクロレンズアレイを構成するマイクロレンズの個数が、後述する再構築画像の解像度となる。一方、1つのマイクロレンズに対応する撮像素子の画素数は視差数に対応している。視差数が多いほど、後述する再構築画像の分解能、例えば、任意の視点での分解能やリフォーカス演算処理に基づく奥行方向の分解能等が高くなる。再構築画像の解像度と分解能はトレードオフの関係にある。   Here, the number of microlenses composing one microlens array is the resolution of the reconstructed image described later. On the other hand, the number of pixels of the image sensor corresponding to one microlens corresponds to the number of parallaxes. As the number of parallaxes increases, the resolution of a reconstructed image, which will be described later, for example, the resolution at an arbitrary viewpoint, the resolution in the depth direction based on the refocus calculation process, or the like increases. The resolution and resolution of the reconstructed image are in a trade-off relationship.

実施形態1の撮像装置では、マイクロレンズアレイを構成するマイクロレンズの個数は、少なくとも二種類以上である。具体的には、マイクロレンズアレイ103Gを構成するマイクロレンズの個数は、マイクロレンズアレイ103R及び103Bを構成するマイクロレンズの個数よりも多い。このように、マイクロレンズアレイ103Gを構成するマイクロレンズの個数を相対的に多くすることで、G成分の解像度を相対的に高くすることができる。R成分及びB成分の解像度を補間処理により補って高解像度化した場合、G成分の視覚影響度が大きいため、より解像感の良いカラー再構築画像を得ることができる。一方、1つのマイクロレンズに対応するR成分やB成分の撮像素子の画素数は多いことから、再構築画像のR成分やB成分の分解能は犠牲とならない。   In the imaging device according to Embodiment 1, the number of microlenses constituting the microlens array is at least two or more. Specifically, the number of microlenses constituting the microlens array 103G is larger than the number of microlenses constituting the microlens arrays 103R and 103B. Thus, by relatively increasing the number of microlenses constituting the microlens array 103G, the resolution of the G component can be relatively increased. When the resolution of the R component and the B component is increased by interpolation processing to increase the resolution, the visual influence degree of the G component is large, so that a color reconstructed image with better resolution can be obtained. On the other hand, since the number of pixels of the R component and B component imaging elements corresponding to one microlens is large, the resolution of the R component and B component of the reconstructed image is not sacrificed.

A/D変換部105は、撮像素子104で受光した光量をデジタル値に変換する。信号処理部106は、デジタル値に後述する所定の信号処理を施し、後述する再構築画像を出力する。信号処理部106の詳細については後述する。   The A / D conversion unit 105 converts the amount of light received by the image sensor 104 into a digital value. The signal processing unit 106 performs predetermined signal processing (described later) on the digital value, and outputs a reconstructed image (described later). Details of the signal processing unit 106 will be described later.

エンコーダ部107は、再構築画像をJPEG等のファイルフォーマットに変換する処理を行う。メディアI/F108は、PCその他メディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に接続するためのインタフェースである。   The encoder unit 107 performs processing for converting the reconstructed image into a file format such as JPEG. The media I / F 108 is an interface for connecting to a PC or other media (for example, hard disk, memory card, CF card, SD card, USB memory).

CPU109は、各構成の処理全てに関わり、ROM110やRAM111に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM110とRAM111は、その処理に必要なプログラム、データ、作業領域等をCPU109に提供する。   The CPU 109 is involved in all the processes of each configuration, reads the instructions stored in the ROM 110 and the RAM 111 in order, interprets them, and executes the processes according to the results. The ROM 110 and RAM 111 provide the CPU 109 with programs, data, work areas, and the like necessary for the processing.

図2は実施形態1の信号処理部106の機能構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a functional configuration of the signal processing unit 106 according to the first embodiment.

信号処理部106は、視点情報補間部201、視差画像生成部202、視差画像補間部203、再配列処理部204、カラー撮像データ合成部205、及び画像再構築部206を備える。   The signal processing unit 106 includes a viewpoint information interpolation unit 201, a parallax image generation unit 202, a parallax image interpolation unit 203, a rearrangement processing unit 204, a color imaging data synthesis unit 205, and an image reconstruction unit 206.

視点情報補間部201は、撮像素子104Gで得られた撮像データ(G撮像データ)に対して、各マイクロレンズに対応する画素領域毎に補間処理を行った撮像データを生成する。視点情報補間部201の詳細は後述する。   The viewpoint information interpolation unit 201 generates imaging data obtained by performing interpolation processing for each pixel region corresponding to each microlens with respect to imaging data (G imaging data) obtained by the imaging element 104G. Details of the viewpoint information interpolation unit 201 will be described later.

視差画像生成部202は、撮像素子104R及び104Bで得られた撮像データ(R撮像データ及びB撮像データ)に対して、各マイクロレンズに対応する画素領域同士の間で、同一の位置に配置された画素データを抽出して合成する。ここで、生成される撮像データはそれぞれ異なる視点から撮像対象物を撮像した画像を並べたものとなっている。視差画像生成部202の詳細は後述する。   The parallax image generation unit 202 is arranged at the same position between the pixel areas corresponding to each microlens with respect to the imaging data (R imaging data and B imaging data) obtained by the imaging elements 104R and 104B. The extracted pixel data is synthesized. Here, the generated imaging data is an array of images obtained by imaging imaging objects from different viewpoints. Details of the parallax image generation unit 202 will be described later.

視差画像補間部203は、視差画像生成部202によって生成された撮像データに対して、各視点に対応する画素領域毎に補間処理を行った撮像データを生成する。視差画像補間部203の詳細は後述する。   The parallax image interpolation unit 203 generates imaging data obtained by performing interpolation processing for each pixel region corresponding to each viewpoint on the imaging data generated by the parallax image generation unit 202. Details of the parallax image interpolation unit 203 will be described later.

再配列処理部204は、視差画像補間部203によって生成された撮像データに対して、各視点に対応する画素領域同士の間で、同一の位置に配置された画素データを抽出して合成する。ここで、生成される撮像データは、撮像素子104で得られる撮像データ同様、各マイクロレンズに対応する撮像データを並べたものとなっている。再配列処理部204の詳細は後述する。   The rearrangement processing unit 204 extracts and synthesizes pixel data arranged at the same position between the pixel regions corresponding to each viewpoint with respect to the imaging data generated by the parallax image interpolation unit 203. Here, the generated imaging data is obtained by arranging the imaging data corresponding to each microlens, like the imaging data obtained by the imaging element 104. Details of the rearrangement processing unit 204 will be described later.

カラー撮像データ合成部205は、視点情報補間部201で得られた撮像データと再配列処理部204で得られた撮像データを合成することで、カラー撮像データを生成する。   The color imaging data combining unit 205 generates color imaging data by combining the imaging data obtained by the viewpoint information interpolation unit 201 and the imaging data obtained by the rearrangement processing unit 204.

画像再構築部206は、カラー撮像データ合成部205で得られたカラー撮像データから、任意視点画像や任意焦点画像の生成を行う。画像再構築部206の詳細は後述する。   The image reconstruction unit 206 generates an arbitrary viewpoint image and an arbitrary focus image from the color imaging data obtained by the color imaging data synthesis unit 205. Details of the image reconstruction unit 206 will be described later.

尚、信号処理部106は他に、ノイズリダクションやエッジ強調等の処理部を含んでも良い。   In addition, the signal processing unit 106 may include other processing units such as noise reduction and edge enhancement.

図3〜図11を参照して、実施形態1の撮像装置の動作について説明する。   With reference to FIGS. 3 to 11, the operation of the imaging apparatus according to the first embodiment will be described.

図3は実施形態1の色分解プリズム102によって物体光を分光する様子を模式的に示す図である。   FIG. 3 is a diagram schematically illustrating how the object light is dispersed by the color separation prism 102 according to the first embodiment.

色分解プリズム102は、3個のプリズムブロック301〜303と、プリズムブロック301及び302、及びプリズムブロック302及び303の接合面にそれぞれ配された二枚のダイクロックミラー304及び305から構成される。   The color separation prism 102 includes three prism blocks 301 to 303, prism blocks 301 and 302, and two dichroic mirrors 304 and 305 disposed on the joint surfaces of the prism blocks 302 and 303, respectively.

ダイクロックミラー304は、プリズムブロック301の入射面306に入射した光(一点鎖線で示す)の内、B成分の物体光を反射し、R成分及びG成分の物体光を透過する。ダイクロックミラー305は、ダイクロックミラー304及びプリズムブロック302を透過したR成分及びG成分の物体光の内、R成分の物体光を反射し、G成分の物体光を透過する。プリズムブロック301及び302は、ダイクロックミラー304及び305でそれぞれ反射されたB成分の物体光、及びR成分の物体光を各出射面307及び308に導く。また、プリズムブロック303は、ダイクロックミラー305で透過したG成分の物体光を出射面309に導く。   The dichroic mirror 304 reflects the B component object light and transmits the R component and G component object light out of the light (indicated by the alternate long and short dash line) incident on the incident surface 306 of the prism block 301. The dichroic mirror 305 reflects the R component object light and transmits the G component object light out of the R component and G component object light transmitted through the dichroic mirror 304 and the prism block 302. The prism blocks 301 and 302 guide the B component object light and the R component object light reflected by the dichroic mirrors 304 and 305 to the exit surfaces 307 and 308, respectively. The prism block 303 guides the G component object light transmitted through the dichroic mirror 305 to the emission surface 309.

図4は実施形態1の撮像素子104が撮像対象物の撮像データを得る過程を模式的に示す図である。   FIG. 4 is a diagram schematically illustrating a process in which the imaging element 104 according to the first embodiment obtains imaging data of an imaging target.

撮像対象物3010からの物体光は撮像レンズ101により集光される。撮像レンズ101により集光された光は撮像レンズ101の結像面上に配置されたマイクロレンズアレイ103へ入射する(図4のf1は撮像レンズ101の焦点距離)。マイクロレンズアレイ103を通過した光は、マイクロレンズアレイ103を構成するマイクロレンズの結像面上に配置された撮像素子104に到達する(図4のf2はマイクロレンズの焦点距離)。ここで、撮像レンズ101の異なる場所を通過した光線は、撮像素子104上の異なる場所に到達する。   Object light from the imaging object 3010 is collected by the imaging lens 101. The light condensed by the imaging lens 101 is incident on the microlens array 103 disposed on the imaging surface of the imaging lens 101 (f1 in FIG. 4 is the focal length of the imaging lens 101). The light that has passed through the microlens array 103 reaches the image sensor 104 disposed on the image plane of the microlens that constitutes the microlens array 103 (f2 in FIG. 4 is the focal length of the microlens). Here, light rays that have passed through different locations of the imaging lens 101 reach different locations on the image sensor 104.

図5は実施形態1の撮像素子104により得られる撮像データに含まれる光線の情報を模式的に示す図である。   FIG. 5 is a diagram schematically illustrating light ray information included in image data obtained by the image sensor 104 according to the first embodiment.

撮像レンズ101の撮像レンズ面上における直交座標系(u、v)と、撮像素子104の撮像面上における直交座標系(x、y)をそれぞれ考える。撮像レンズ101の撮像レンズ面と撮像素子104の撮像面との距離をFとすると、撮像レンズ101及び撮像素子104を通る光線は4次元関数LF(x、y、u、v)で表される。LF(x、y、u、v)は、光線の位置情報に加え、光線の進行方向の情報を含んでいる。 Consider an orthogonal coordinate system (u, v) on the imaging lens surface of the imaging lens 101 and an orthogonal coordinate system (x, y) on the imaging surface of the imaging element 104, respectively. When the distance between the imaging lens surface of the imaging lens 101 and the imaging surface of the imaging element 104 is F, the light rays passing through the imaging lens 101 and the imaging element 104 are represented by a four-dimensional function L F (x, y, u, v). The L F (x, y, u, v) includes information on the traveling direction of the light beam in addition to the position information of the light beam.

図6は実施形態1の撮像素子104中の画素群とマイクロレンズアレイ103を構成するマイクロレンズの対応関係を模式的に示す図である。   FIG. 6 is a diagram schematically illustrating a correspondence relationship between a pixel group in the image sensor 104 of the first embodiment and a microlens constituting the microlens array 103.

図6の実線で示される正方形が撮像素子104を表しており、点線がマイクロレンズアレイ103を構成するマイクロレンズを表している。図6では、撮像素子104R、104G及び104Bの画素数がそれぞれ18×18であり、撮像素子104Gの3×3画素に一枚のマイクロレンズが対応しており、撮像素子104R及び104Bの9×9画素に一枚のマイクロレンズが対応している。   A square indicated by a solid line in FIG. 6 represents the imaging element 104, and a dotted line represents a microlens constituting the microlens array 103. In FIG. 6, the number of pixels of the image sensors 104R, 104G, and 104B is 18 × 18, one microlens corresponds to 3 × 3 pixels of the image sensor 104G, and 9 × of the image sensors 104R and 104B. One micro lens corresponds to 9 pixels.

図6の例では、後述する再構築画像のG成分の解像度は6×6、視差数は3×3であり、R成分及びB成分の解像度は2×2、視差数は9×9である。ここで、G成分は視差数が相対的に少なく、一方、R成分及びB成分は解像度が相対的に少ない。視点情報補間部201では、G成分の視点数をR成分及びB成分の視差数と等しくなるように補間処理を施し、視差画像補間部203では、R成分及びB成分の解像度がG成分の解像度と等しくなるように補間処理を施す。ここで、視差画像生成部202は視差画像補間部203の前処理であり、解像度を補間するために撮像データの配列を変更する。再配列処理部204は視差画像補間部203の後処理であり、視差画像生成部202で変更した配列を、各マイクロレンズに対応する領域が並んだ配列に戻す。   In the example of FIG. 6, the resolution of the G component of the reconstructed image described later is 6 × 6, the number of parallaxes is 3 × 3, the resolution of the R component and the B component is 2 × 2, and the number of parallaxes is 9 × 9. . Here, the G component has a relatively small number of parallaxes, while the R component and the B component have a relatively small resolution. The viewpoint information interpolation unit 201 performs an interpolation process so that the number of viewpoints of the G component is equal to the number of parallaxes of the R component and the B component. In the parallax image interpolation unit 203, the resolution of the R component and the B component is the resolution of the G component. Interpolation processing is performed so that Here, the parallax image generation unit 202 is preprocessing of the parallax image interpolation unit 203, and changes the arrangement of the imaging data in order to interpolate the resolution. The rearrangement processing unit 204 is post-processing of the parallax image interpolation unit 203, and returns the arrangement changed by the parallax image generation unit 202 to an arrangement in which regions corresponding to the microlenses are arranged.

尚、図6の画素群とマイクロレンズの対応関係は一例であり、撮像素子104R、104G及び104Bの画素数や一枚のマイクロレンズに対応する撮像素子の画素数は任意の組み合わせで構わない。また、マイクロレンズの配列はマトリクス状に限らず、ハニカム状等の他の配列でも構わない。   Note that the correspondence relationship between the pixel group and the microlens in FIG. 6 is an example, and the number of pixels of the imaging elements 104R, 104G, and 104B and the number of pixels of the imaging element corresponding to one microlens may be any combination. In addition, the arrangement of the microlenses is not limited to a matrix, and other arrangements such as a honeycomb may be used.

図7は実施形態1の視点情報補間部201の処理を説明するためのフローチャートである。図8は実施形態1の視点情報補間部201の処理を模式的に示す図である。   FIG. 7 is a flowchart for explaining processing of the viewpoint information interpolation unit 201 according to the first embodiment. FIG. 8 is a diagram schematically illustrating processing of the viewpoint information interpolation unit 201 according to the first embodiment.

図8において、撮像データ801は、撮像素子104Gで得られた撮像データを表している。視点情報補間部201では、撮像データ801中の各マイクロレンズに対応する領域(例えば、領域802)に対して補間処理を施すことで、G成分の視差数をR成分及びB成分の視差数と等しくする。   In FIG. 8, imaging data 801 represents imaging data obtained by the imaging element 104G. The viewpoint information interpolation unit 201 performs an interpolation process on a region (for example, the region 802) corresponding to each microlens in the imaging data 801, thereby changing the number of parallaxes of the G component and the number of parallaxes of the R component and the B component. Make equal.

ステップS701で、視点情報補間部201は、撮像素子104Gから得られる撮像データを取得する。ステップS702で、視点情報補間部201は、取得した撮像データを各マイクロレンズに対応する領域に分割する。ステップS703で、視点情報補間部201は、分割した領域のうち1つ目の領域を注目領域に設定する。1つ目の領域として、例えば、領域802を選択することができる。   In step S701, the viewpoint information interpolation unit 201 acquires imaging data obtained from the imaging element 104G. In step S702, the viewpoint information interpolation unit 201 divides the acquired imaging data into regions corresponding to each microlens. In step S703, the viewpoint information interpolation unit 201 sets the first area among the divided areas as the attention area. For example, the region 802 can be selected as the first region.

ステップS704で、視点情報補間部201は、注目領域の画素数が撮像素子104R及び104Bの1つのマイクロレンズに対応する領域の画素数と同数となるように補間による拡大処理を行う。例えば、領域802が領域803となるように補間処理を施す。この補間処理には、例えば、バイリニア法やバイキュービック法を用いることができる。   In step S704, the viewpoint information interpolation unit 201 performs an enlargement process by interpolation so that the number of pixels in the attention area is the same as the number of pixels in the area corresponding to one microlens of the imaging elements 104R and 104B. For example, the interpolation process is performed so that the region 802 becomes the region 803. For this interpolation processing, for example, a bilinear method or a bicubic method can be used.

ステップS705で、視点情報補間部201は、全領域の補間処理が終了したかを判定する。全領域の補間処理が終了していない場合(ステップS705でNO)、ステップS706に進む。ステップS706で、視点情報補間部201は、次の領域を注目領域に設定して、ステップS704からステップS705の処理を繰り返す。次の領域の選択方法としては、例えば、図8に矢印と点線で描かれているラスタ走査を用いることができる。全領域の補間処理が終了した場合(ステップS705でYES)、補間処理を終了する。   In step S705, the viewpoint information interpolation unit 201 determines whether the interpolation processing for all regions has been completed. If the interpolation processing for all areas has not been completed (NO in step S705), the process proceeds to step S706. In step S706, the viewpoint information interpolation unit 201 sets the next region as a region of interest, and repeats the processing from step S704 to step S705. As a method for selecting the next region, for example, raster scanning depicted by arrows and dotted lines in FIG. 8 can be used. When the interpolation process for all regions is completed (YES in step S705), the interpolation process is terminated.

尚、1つ目の領域や次の領域の選択方法は一例であり、全ての領域を補間処理することができればどんな順番で処理をしても構わない。   Note that the method of selecting the first region and the next region is an example, and any order may be used as long as all regions can be interpolated.

図9は実施形態1の視差画像生成部202の処理を模式的に示す図である。   FIG. 9 is a diagram schematically illustrating processing of the parallax image generation unit 202 according to the first embodiment.

撮像データ901は、撮像素子104R及び104Bで得られた撮像データを表している。視差画像生成部202は、各マイクロレンズに対応する画素領域同士の間で、同一の位置に配置された画素データ(例えば、撮像データ901の画素901a〜901dや画素901e〜901h)を抽出して合成し、画素領域内での位置と対応するように並べる。撮像データ902は、撮像データ901を視差画像生成部202によって並び替えた撮像データを表しており、画素902a〜902hがそれぞれ画素901a〜901hに対応している。   The imaging data 901 represents imaging data obtained by the imaging elements 104R and 104B. The parallax image generation unit 202 extracts pixel data (for example, the pixels 901a to 901d and the pixels 901e to 901h of the imaging data 901) arranged at the same position between the pixel regions corresponding to each microlens. These are combined and arranged so as to correspond to the positions in the pixel area. The imaging data 902 represents imaging data obtained by rearranging the imaging data 901 by the parallax image generation unit 202, and the pixels 902a to 902h correspond to the pixels 901a to 901h, respectively.

ここで、視差画像生成部202によって生成される撮像データは、それぞれ異なる視点から撮像対象物を撮像した画像を並べたものとなる。この各視点からの撮像データに対して、視差画像補間部203で補間処理を施す。つまり、視差画像生成部202は、視差画像補間部203で各視点からの撮像データに対して補間処理を施すための前処理を行う。   Here, the imaging data generated by the parallax image generation unit 202 is an array of images obtained by imaging imaging objects from different viewpoints. The parallax image interpolation unit 203 performs an interpolation process on the imaging data from each viewpoint. That is, the parallax image generation unit 202 performs preprocessing for performing interpolation processing on the imaging data from each viewpoint in the parallax image interpolation unit 203.

図10は実施形態1の視差画像補間部203の処理を説明するためのフローチャートである。   FIG. 10 is a flowchart for explaining the processing of the parallax image interpolation unit 203 of the first embodiment.

ステップS1001で、視差画像補間部203は、視差画像生成部202で生成された撮像データ(視差画像データ)を取得する。ステップS1002で、視差画像補間部203は、取得した撮像データを各視点に対応する領域に分割する。ここで、例えば、撮像データ902a〜902dや902e〜902hが1つの領域である。ステップS1003で、視差画像補間部203は、分割した領域のうち1つ目の領域を注目領域に設定する。1つ目の領域としては、例えば、視点情報補間部201と同様、最も左上の領域を選択することができる。   In step S <b> 1001, the parallax image interpolation unit 203 acquires imaging data (parallax image data) generated by the parallax image generation unit 202. In step S1002, the parallax image interpolation unit 203 divides the acquired imaging data into regions corresponding to the respective viewpoints. Here, for example, the imaging data 902a to 902d and 902e to 902h are one area. In step S1003, the parallax image interpolation unit 203 sets the first area among the divided areas as the attention area. As the first region, for example, as in the viewpoint information interpolation unit 201, the uppermost region can be selected.

ステップS1004で、視差画像補間部203は、注目領域の画素数がマイクロレンズアレイ103Gを構成するマイクロレンズの個数と同数となるように補間による拡大処理を行う。この補間処理には、例えば、バイリニア法やバイキュービック法を用いることができる。1領域の画素数は後述する再構築画像の解像度であるため、視差画像補間部203での補間処理は、R成分及びB成分の解像度を補間することに相当する。   In step S1004, the parallax image interpolation unit 203 performs enlargement processing by interpolation so that the number of pixels in the region of interest is the same as the number of microlenses constituting the microlens array 103G. For this interpolation processing, for example, a bilinear method or a bicubic method can be used. Since the number of pixels in one area is the resolution of a reconstructed image, which will be described later, the interpolation processing in the parallax image interpolation unit 203 is equivalent to interpolating the resolutions of the R component and the B component.

ステップS1005で、視差画像補間部203は、全領域の補間処理が終了したかを判定する。全領域の補間処理が終了していない場合(ステップS1005でNO)、ステップS1006に進む。ステップS1006で、視差画像補間部203は、次の領域を注目領域に設定し、ステップS1004からステップS1005の処理を繰り返す。次の領域の選択方法としては、例えば、視点情報補間部201同様、ラスタ走査を用いることができる。全領域の補間処理が終了した場合(ステップS1005でYES)、視差画像補間部203は、補間処理を終了する。   In step S1005, the parallax image interpolation unit 203 determines whether the interpolation processing for all regions has been completed. If the interpolation processing for all the areas has not been completed (NO in step S1005), the process proceeds to step S1006. In step S1006, the parallax image interpolation unit 203 sets the next region as a region of interest, and repeats the processing from step S1004 to step S1005. As a method for selecting the next region, for example, raster scanning can be used as in the viewpoint information interpolation unit 201. When the interpolation process for all regions is completed (YES in step S1005), the parallax image interpolation unit 203 ends the interpolation process.

尚、1つ目の領域や次の領域の選択方法は一例であり、全ての領域を補間処理することができればどんな順番で処理をしても構わない。   Note that the method of selecting the first region and the next region is an example, and any order may be used as long as all regions can be interpolated.

図11は実施形態1の再配列処理部204の処理を模式的に示す図である。   FIG. 11 is a diagram schematically illustrating processing of the rearrangement processing unit 204 according to the first embodiment.

撮像データ1101は、視差画像補間部203で生成される撮像データの一部を表している。再配列処理部204は、各視点に対応する画素領域同士の間で、同一の位置に配置された画素データ(例えば、撮像データ1101内の画素1101a〜1101i)を抽出して合成し、画素領域内での位置と対応するように並べる。撮像データ1102は、撮像データ1101を再配列処理部204によって並び替えた撮像データを表しており、例えば、画素1101a〜1101iと画素1102a〜1102iが対応している。   The imaging data 1101 represents a part of imaging data generated by the parallax image interpolation unit 203. The rearrangement processing unit 204 extracts and synthesizes pixel data (for example, the pixels 1101a to 1101i in the imaging data 1101) arranged at the same position between the pixel areas corresponding to the respective viewpoints. To align with the position in the The imaging data 1102 represents imaging data obtained by rearranging the imaging data 1101 by the rearrangement processing unit 204. For example, the pixels 1101a to 1101i and the pixels 1102a to 1102i correspond to each other.

視差画像生成部202で並べ替えられた撮像データが再配列処理部204によって再配列される。そのため、再配列処理部204によって生成される撮像データは、視点情報補間部201によって生成される撮像データ同様、各マイクロレンズに対応する画素領域が、マイクロレンズの位置に対応して並ぶ配列となる。   The imaging data rearranged by the parallax image generation unit 202 is rearranged by the rearrangement processing unit 204. Therefore, the imaging data generated by the rearrangement processing unit 204 is an array in which pixel regions corresponding to each microlens are arranged corresponding to the position of the microlens, similarly to the imaging data generated by the viewpoint information interpolation unit 201. .

つまり、再配列処理部204での処理は、視差画像補間部203で補間を施すための前処理である視差画像生成部202の処理によって変わった配列を元に戻すための後処理である。ここで、再配列処理部204で生成される撮像データと視点情報補間部201で生成される撮像データとで、各マイクロレンズに対応する画素領域の領域数と、1つの画素領域を構成する画素数は同一となるように補間処理がなされている。視点情報補間部201で生成される撮像データと、再配列処理部204で生成される撮像データは、カラー撮像データ合成部205によってカラー合成される。   That is, the process in the rearrangement processing unit 204 is a post-process for returning the array changed by the process of the parallax image generation unit 202, which is a pre-process for performing the interpolation in the parallax image interpolation unit 203. Here, the number of pixel areas corresponding to each microlens and the pixels constituting one pixel area, with the imaging data generated by the rearrangement processing unit 204 and the imaging data generated by the viewpoint information interpolation unit 201 Interpolation processing is performed so that the numbers are the same. The imaging data generated by the viewpoint information interpolation unit 201 and the imaging data generated by the rearrangement processing unit 204 are color-synthesized by the color imaging data synthesis unit 205.

図12は実施形態1の画像再構築部206における任意視点画像生成を説明するための図である。図13は実施形態1の任意視点画像を生成するうえで、最適なマイクロレンズ配置を模式的に示す図である。   FIG. 12 is a diagram for explaining arbitrary viewpoint image generation in the image reconstruction unit 206 according to the first embodiment. FIG. 13 is a diagram schematically illustrating an optimal microlens arrangement for generating an arbitrary viewpoint image according to the first embodiment.

任意視点画像生成では、各マイクロレンズに対応する画素領域同士の間で、同一の位置にある画素データを抽出して合成することにより、任意の視点に設定された画像を再構築する。例えば、各マイクロレンズに対応する画素領域同士の間で画素1201aの位置に配置された画素データを抽出して合成した場合は左上方向の視点からの画像が再構築され、同様に、画素1201bなら右下方向の視点からの画像が再構築される。   In arbitrary viewpoint image generation, pixel data at the same position is extracted and synthesized between pixel regions corresponding to each microlens, thereby reconstructing an image set at an arbitrary viewpoint. For example, when pixel data arranged at the position of the pixel 1201a between pixel regions corresponding to each microlens is extracted and combined, an image from the viewpoint in the upper left direction is reconstructed. Similarly, if the pixel 1201b is used, The image from the viewpoint in the lower right direction is reconstructed.

ここで、カラー撮像データ合成部205で得られた撮像データのG成分は視点情報の補間を行っているため、任意視点画像の輝度に誤差が生じたり、色バランスが崩れる恐れがある。しかし、1枚のマイクロレンズに対応する撮像素子104R及び104Bの画素数を1枚のマイクロレンズに対応する撮像素子104Gの画素数の奇数倍とすることで、補間を行っていない情報のみを用いて特定の視点からの画像を生成することが可能である。   Here, since the G component of the image data obtained by the color image data synthesizing unit 205 interpolates the viewpoint information, there is a possibility that an error occurs in the luminance of the arbitrary viewpoint image or the color balance is lost. However, only the information that has not been interpolated is used by setting the number of pixels of the image sensors 104R and 104B corresponding to one microlens to an odd multiple of the number of pixels of the image sensor 104G corresponding to one microlens. Thus, it is possible to generate an image from a specific viewpoint.

図13において、例えば、撮像データ1301及び1302はそれぞれ、1枚のマイクロレンズに対応する撮像素子104Gの画素数を3×3に設定した場合と撮像素子104R及び104Bの画素数を9×9に設定した場合の撮像データを表している。また、撮像データ1301に対して、視点情報補間部201で補間処理を施したものが撮像データ1303である。撮像データ1301、1302及び1303で、同じ番号が振られた画素は同一方向からの光線情報である。そのため、1302及び1303で同じ番号が振られた視点からの視点画像を生成した場合、補間は行われていないため、補間による輝度の誤差や色バランスの崩れは発生しない。   In FIG. 13, for example, the imaging data 1301 and 1302 includes the case where the number of pixels of the imaging element 104G corresponding to one microlens is set to 3 × 3 and the number of pixels of the imaging elements 104R and 104B to 9 × 9, respectively. The imaging data when set is shown. Further, the imaging data 1303 is obtained by performing interpolation processing on the imaging data 1301 by the viewpoint information interpolation unit 201. In the imaging data 1301, 1302, and 1303, pixels assigned the same number are light ray information from the same direction. For this reason, when viewpoint images from viewpoints assigned the same numbers in 1302 and 1303 are generated, interpolation is not performed, and thus luminance errors and color balance collapse due to interpolation do not occur.

図14は実施形態1の画像再構築部206における任意焦点画像生成のためのリフォーカス演算処理過程を模式的に示す図である。   FIG. 14 is a diagram schematically illustrating a refocus calculation process for generating an arbitrary focus image in the image reconstruction unit 206 according to the first embodiment.

図14のように、F’=αFとなるように撮像レンズ面1401、撮像素子面1402、リフォーカス面1403の位置関係を設定する。この場合、リフォーカス面1403上の座標(s、t)における検出強度LF'は、以下の(1)式のように表される。 As shown in FIG. 14, the positional relationship among the imaging lens surface 1401, the imaging element surface 1402, and the refocus surface 1403 is set so that F ′ = αF. In this case, the detected intensity L F ′ at the coordinates (s, t) on the refocus plane 1403 is expressed by the following equation (1).

Figure 2012129654
Figure 2012129654

また、リフォーカス面1403で得られるイメージEF'(s、t)は、上記検出強度LF'をレンズ口径の面積で積分したものとなるので、以下の(2)式のように表される。この(2)式からリフォーカス演算処理を行うことにより、任意焦点画像を再構築することができる。 Further, the image E F ′ (s, t) obtained on the refocus surface 1403 is obtained by integrating the detected intensity L F ′ by the area of the lens aperture, and is expressed as the following equation (2). The An arbitrary focus image can be reconstructed by performing the refocus calculation process from the equation (2).

Figure 2012129654
Figure 2012129654

尚、実施形態1では、物体光をRGBの三成分に分解する例を説明しているが、黄(Y)、マゼンダ(M)、シアン(C)、緑(G)の四成分に分解しても構わない。その場合、G成分用のマイクロレンズアレイを構成するマイクロレンズの個数を、Y成分用、M成分用C成分用のマイクロレンズアレイを構成するマイクロレンズの個数よりも多くする。   In the first embodiment, an example in which object light is decomposed into three components of RGB has been described. However, the object light is decomposed into four components of yellow (Y), magenta (M), cyan (C), and green (G). It doesn't matter. In that case, the number of microlenses constituting the microlens array for the G component is made larger than the number of microlenses constituting the microlens arrays for the Y component and the C component for the M component.

また、実施形態1では、R成分用とB成分用のマイクロレンズアレイを構成するマイクロレンズの個数は同数としているが、異なる個数でも構わない。その場合、R成分とB成分の撮像データの解像度の両方が、G成分の撮像データの解像度と同数となるように補間を行う。   In the first embodiment, the number of microlenses constituting the microlens arrays for the R component and the B component is the same, but may be different. In this case, interpolation is performed so that both the resolutions of the R component and B component imaging data are the same as the resolution of the G component imaging data.

更に、実施形態1では、G成分用のマイクロレンズアレイを構成するマイクロレンズの個数を多くすることで、G成分の解像度を相対的に高くしているが、G成分用のマイクロレンズアレイを配置しないことでG成分の解像度を相対的に高くしてもよい。その場合、G成分用の撮像素子は撮像レンズの結像面上に配置する。このような配置とすることで、G成分の撮像素子の1画素毎にマイクロレンズ1つを対応させた場合と同じ撮像データを得ることができる。   Furthermore, in the first embodiment, the resolution of the G component is relatively increased by increasing the number of microlenses constituting the microlens array for the G component, but the microlens array for the G component is disposed. By not doing so, the resolution of the G component may be relatively increased. In that case, the G-component image sensor is arranged on the imaging plane of the imaging lens. With such an arrangement, the same imaging data as when one microlens is associated with each pixel of the G component imaging element can be obtained.

更に、また、実施形態1では、色成分毎に撮像素子を配置したが、分光した物体光をそれぞれカラーとモノクロで取得してもよい。その場合、モノクロに対応するマイクロレンズアレイのみを配置することで、モノクロの撮像データから撮像物の距離推定を行うことができる。一方、カラーに対応するマイクロレンズアレイは配置しないことで、通常のカメラと同様の解像度のカラー画像が得られる。モノクロの撮像データから推定した距離に応じて、カラー画像に信号処理を施すことで、高解像度の再構築画像が得られる。   Furthermore, in the first embodiment, the image sensor is arranged for each color component. However, the dispersed object light may be acquired in color and monochrome, respectively. In that case, by disposing only the microlens array corresponding to monochrome, it is possible to estimate the distance of the captured object from monochrome imaging data. On the other hand, by disposing the microlens array corresponding to the color, a color image having the same resolution as that of a normal camera can be obtained. A high-resolution reconstructed image is obtained by performing signal processing on the color image according to the distance estimated from the monochrome imaging data.

以上説明したように、実施形態1によれば、マイクロレンズアレイを構成するマイクロレンズの個数をR成分及びB成分よりもG成分で多くすることで、G成分の解像度を相対的に高くすることができる。また、R成分及びB成分の解像度を補間処理により補って高解像度化した場合、G成分の視覚影響度が大きいため、より解像感の良いカラー再構築画像を得ることができる。一方、1つのマイクロレンズに対応するR成分やB成分の撮像素子の画素数は多いことから、再構築画像のR成分やB成分の分解能は犠牲とならない効果を奏する。   As described above, according to the first embodiment, the resolution of the G component is relatively increased by increasing the number of microlenses constituting the microlens array in the G component rather than the R component and the B component. Can do. Further, when the resolution of the R component and the B component is increased by interpolation processing to increase the resolution, the visual influence degree of the G component is large, so that a color reconstructed image with better resolution can be obtained. On the other hand, since the number of pixels of the R component and B component imaging elements corresponding to one microlens is large, there is an effect that the resolution of the R component and B component of the reconstructed image is not sacrificed.

<実施形態2>
実施形態1では、G成分の解像度が、R成分及びB成分の解像度よりも高くなるようにマイクロレンズアレイの配置の有無やマイクロレンズアレイを構成するマイクロレンズの個数を決定している。実施形態2では、R成分及びB成分の解像度がG成分の解像度よりも高くなるように、マイクロレンズアレイの配置の有無やマイクロレンズアレイを構成するマイクロレンズの個数を決定する構成について説明する。
<Embodiment 2>
In the first embodiment, the presence or absence of the microlens array and the number of microlenses constituting the microlens array are determined so that the resolution of the G component is higher than the resolution of the R component and the B component. In the second embodiment, a configuration for determining the presence / absence of a microlens array and the number of microlenses constituting the microlens array so that the resolution of the R component and the B component is higher than the resolution of the G component will be described.

マイクロレンズアレイ103を構成するマイクロレンズの個数をG成分よりもR成分及びB成分で多くすることで、G成分の視差数を相対的に多くすることができる。こうすることで、G成分は視差数の補間を行う必要が無くなる。G成分は視覚影響度が大きいため、G成分の視差数の補間を行わないことで、色バランスの崩れを感じにくくなり、G成分の解像度を補間処理により補って高解像度化した場合、色バランスの崩れを感じにくい高解像度のカラー再構築画像を得ることができる。   By increasing the number of microlenses constituting the microlens array 103 by the R component and the B component rather than the G component, the number of parallaxes of the G component can be relatively increased. By doing so, the G component does not need to interpolate the number of parallaxes. Since the G component has a large degree of visual influence, it is difficult to perceive the loss of color balance by not interpolating the number of parallaxes of the G component, and when the resolution of the G component is compensated by interpolation processing to increase the color balance, It is possible to obtain a high-resolution color reconstructed image that hardly perceives the collapse of the image.

図15は実施形態2の撮像素子104中の画素群とマイクロレンズアレイ103を構成するマイクロレンズの対応関係を模式的に示す図である。   FIG. 15 is a diagram schematically illustrating a correspondence relationship between a pixel group in the image sensor 104 of the second embodiment and a microlens constituting the microlens array 103.

実施形態2では、実施形態1とは逆に、1枚のマイクロレンズに対応する撮像素子104の画素数がG成分よりもR成分及びB成分の方が多い。つまり、R成分及びB成分の解像度がG成分よりも高く、G成分の視差数がR成分及びB成分の視差数よりも多い。   In the second embodiment, contrary to the first embodiment, the number of pixels of the image sensor 104 corresponding to one microlens is larger in the R component and the B component than in the G component. That is, the resolution of the R component and the B component is higher than that of the G component, and the number of parallaxes of the G component is larger than the number of parallaxes of the R component and the B component.

図16は実施形態2の信号処理部106の機能構成を示すブロック図である。   FIG. 16 is a block diagram illustrating a functional configuration of the signal processing unit 106 according to the second embodiment.

実施形態2では、実施形態1とは逆に、撮像素子104Gにより得られる撮像データ(G撮像データ)を視点情報補間部201に入力する。また、撮像素子104R及び104Bにより得られる撮像データ(R撮像データ及びB撮像データ)を視差画像生成部202に入力する。これは、実施形態2では、G成分の解像度がR成分及びB成分よりも低く、R成分及びB成分の視差数がG成分の視差数よりも低いため、補間を施す対象が実施形態1とは逆になるためである。   In the second embodiment, contrary to the first embodiment, imaging data (G imaging data) obtained by the imaging element 104G is input to the viewpoint information interpolation unit 201. In addition, imaging data (R imaging data and B imaging data) obtained by the imaging elements 104 </ b> R and 104 </ b> B are input to the parallax image generation unit 202. In the second embodiment, the resolution of the G component is lower than that of the R component and the B component, and the number of parallaxes of the R component and the B component is lower than the number of parallaxes of the G component. Is the opposite.

その他の処理を、実施形態1と同様に施すことで、高解像度のカラー再構築画像が得られる。この際、G成分の視差数に対して補間処理を施さないため、色バランスの崩れを感じにくい再構築画像が得られる。尚、その他の処理については、実施形態1と同一であるため説明を省略する。   By performing other processing in the same manner as in the first embodiment, a color reconstructed image with high resolution can be obtained. At this time, since the interpolation processing is not performed on the number of parallaxes of the G component, a reconstructed image in which color balance is not easily lost can be obtained. Other processes are the same as those in the first embodiment, and thus the description thereof is omitted.

以上説明したように、実施形態2によれば、マイクロレンズアレイを構成するマイクロレンズの個数をG成分よりもR成分及びB成分で多くすることで、G成分の視差数を相対的に多くすることができる。こうすることで、G成分は視差数の補間を行う必要がなくなる。G成分は視覚影響度が大きいため、G成分の視差数の補間を行わないことで、色バランスの崩れを感じにくいカラー再構築画像を得ることができる。また、G成分の解像度を補間処理により補って高解像度化した場合、色バランスの崩れを感じにくい高解像度のカラー再構築画像を得る効果を奏する。   As described above, according to the second embodiment, the number of parallaxes of the G component is relatively increased by increasing the number of microlenses constituting the microlens array in the R component and the B component rather than the G component. be able to. By doing so, the G component does not need to interpolate the number of parallaxes. Since the G component has a large degree of visual influence, a color reconstructed image in which color balance is not easily lost can be obtained by not interpolating the number of parallaxes of the G component. Further, when the resolution of the G component is increased by interpolation processing to increase the resolution, there is an effect of obtaining a high-resolution color reconstructed image that hardly perceives color balance collapse.

尚、本発明は、以下の処理を実行することによっても実現される。即ち、実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行、制御する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. It is a process to control.

Claims (10)

画像を撮像する撮像装置であって、
撮像レンズと、
前記撮像レンズを通過した光を少なくとも分光特性の異なる二つ以上の光に分光する分光手段と、
前記分光手段により分光された二つ以上の光をそれぞれ受光して撮像データを生成する複数の撮像手段と、
前記複数の撮像手段のうち少なくとも1つの撮像手段に対応するマイクロレンズアレイと
を備えることを特徴とする撮像装置。
An imaging device that captures an image,
An imaging lens;
A spectroscopic means for splitting light that has passed through the imaging lens into at least two lights having different spectral characteristics;
A plurality of imaging means that respectively receive two or more lights separated by the spectroscopic means and generate imaging data;
An imaging apparatus comprising: a microlens array corresponding to at least one imaging means among the plurality of imaging means.
前記マイクロレンズアレイを構成するマイクロレンズの個数は、少なくとも二種類以上である
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the number of microlenses constituting the microlens array is at least two or more.
前記分光特性の異なる光は、少なくともR、G及びBである
ことを特徴とする請求項2に記載の撮像装置。
The imaging apparatus according to claim 2, wherein the light having different spectral characteristics is at least R, G, and B. 4.
前記分光特性の異なる光は、少なくともY、M及びCである
ことを特徴とする請求項2に記載の撮像装置。
The imaging device according to claim 2, wherein the light having different spectral characteristics is at least Y, M, and C. 4.
前記マイクロレンズの個数が相対的に多いマイクロレンズアレイに対応する前記撮像手段、もしくは、マイクロレンズアレイが配置されない前記撮像手段により生成された撮像データの視点情報を補間する視点情報補間手段と、
前記マイクロレンズの個数が相対的に少ないマイクロレンズアレイに対応する前記撮像手段により生成された撮像データの視差画像を補間する視差画像補間手段と、
前記視点情報補間手段により生成される撮像データと、前記視差画像補間手段により生成される撮像データをカラー合成するカラー撮像データ合成手段と、
を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
Viewpoint information interpolation means for interpolating viewpoint information of imaging data generated by the imaging means corresponding to a microlens array having a relatively large number of microlenses, or the imaging means in which no microlens array is disposed;
Parallax image interpolating means for interpolating parallax images of imaging data generated by the imaging means corresponding to a microlens array having a relatively small number of microlenses;
Color imaging data synthesizing means for color-synthesizing imaging data generated by the viewpoint information interpolation means and imaging data generated by the parallax image interpolation means;
The imaging apparatus according to claim 1, further comprising:
前記マイクロレンズアレイは、前記撮像レンズの結像面上に配置されている
ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 5, wherein the microlens array is disposed on an imaging plane of the imaging lens.
前記撮像手段において、
対応する前記マイクロレンズアレイが配置される撮像手段はマイクロレンズアレイを構成するマイクロレンズの結像面上に配置され、
対応するマイクロレンズアレイが配置されない撮像手段は前記撮像レンズの結像面上に配置される
ことを特徴とする請求項6に記載の撮像装置。
In the imaging means,
The imaging means in which the corresponding microlens array is disposed is disposed on the imaging surface of the microlens constituting the microlens array,
The imaging apparatus according to claim 6, wherein an imaging unit in which a corresponding microlens array is not arranged is arranged on an imaging surface of the imaging lens.
前記分光手段は、色分解プリズムである
ことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
The imaging device according to claim 1, wherein the spectroscopic unit is a color separation prism.
撮像レンズと、前記撮像レンズを通過した光を少なくとも分光特性の異なる二つ以上の光に分光する分光部と、前記分光部により分光された二つ以上の光をそれぞれ受光して撮像データを生成する複数の撮像部と、前記複数の撮像部のうち少なくとも1つの撮像部に対応するマイクロレンズアレイとを備える撮像装置の制御方法であって、
前記マイクロレンズの個数が相対的に多いマイクロレンズアレイに対応する前記撮像部、もしくは、マイクロレンズアレイが配置されない前記撮像部により生成された撮像データの視点情報を補間する視点情報補間工程と、
前記マイクロレンズの個数が相対的に少ないマイクロレンズアレイに対応する前記撮像部により生成された撮像データの視差画像を補間する視差画像補間工程と、
前記視点情報補間工程により生成される撮像データと、前記視差画像補間工程により生成される撮像データをカラー合成するカラー撮像データ合成工程と
を備えることを特徴とする撮像装置の制御方法。
An imaging lens, a spectroscopic unit that splits light that has passed through the imaging lens into at least two light beams having different spectral characteristics, and two or more light beams that are split by the spectroscopic unit are received to generate imaging data. And a microlens array corresponding to at least one imaging unit among the plurality of imaging units.
A viewpoint information interpolation step of interpolating viewpoint information of imaging data generated by the imaging unit corresponding to a microlens array having a relatively large number of microlenses, or the imaging unit in which no microlens array is disposed;
A parallax image interpolation step of interpolating a parallax image of imaging data generated by the imaging unit corresponding to a microlens array having a relatively small number of microlenses;
An imaging apparatus control method comprising: imaging data generated by the viewpoint information interpolation step; and color imaging data synthesis step of performing color synthesis on the imaging data generated by the parallax image interpolation step.
撮像レンズと、前記撮像レンズを通過した光を少なくとも分光特性の異なる二つ以上の光に分光する分光部と、前記分光部により分光された二つ以上の光をそれぞれ受光して撮像データを生成する複数の撮像部と、前記複数の撮像部のうち少なくとも1つの撮像部に対応するマイクロレンズアレイとを備える撮像装置の制御をコンピュータに機能させるためのプログラムであって、
前記コンピュータを、
前記マイクロレンズの個数が相対的に多いマイクロレンズアレイに対応する前記撮像部、もしくは、マイクロレンズアレイが配置されない前記撮像部により生成された撮像データの視点情報を補間する視点情報補間手段と、
前記マイクロレンズの個数が相対的に少ないマイクロレンズアレイに対応する前記撮像部により生成された撮像データの視差画像を補間する視差画像補間手段と、
前記視点情報補間手段により生成される撮像データと、前記視差画像補間手段により生成される撮像データをカラー合成するカラー撮像データ合成手段と
して機能させることを特徴とするプログラム。
An imaging lens, a spectroscopic unit that splits light that has passed through the imaging lens into at least two light beams having different spectral characteristics, and two or more light beams that are split by the spectroscopic unit are received to generate imaging data. A program for causing a computer to control the control of an imaging device including a plurality of imaging units and a microlens array corresponding to at least one imaging unit among the plurality of imaging units,
The computer,
Viewpoint information interpolation means for interpolating viewpoint information of the imaging data generated by the imaging unit corresponding to a microlens array having a relatively large number of microlenses, or the imaging unit in which no microlens array is disposed;
Parallax image interpolating means for interpolating parallax images of imaging data generated by the imaging unit corresponding to a microlens array having a relatively small number of microlenses;
A program that functions as a color imaging data combining unit that performs color synthesis on imaging data generated by the viewpoint information interpolation unit and imaging data generated by the parallax image interpolation unit.
JP2010277421A 2010-12-13 2010-12-13 Imaging device, and control method and program therefor Withdrawn JP2012129654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010277421A JP2012129654A (en) 2010-12-13 2010-12-13 Imaging device, and control method and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010277421A JP2012129654A (en) 2010-12-13 2010-12-13 Imaging device, and control method and program therefor

Publications (1)

Publication Number Publication Date
JP2012129654A true JP2012129654A (en) 2012-07-05

Family

ID=46646258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010277421A Withdrawn JP2012129654A (en) 2010-12-13 2010-12-13 Imaging device, and control method and program therefor

Country Status (1)

Country Link
JP (1) JP2012129654A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9473684B2 (en) 2013-06-25 2016-10-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program, and imaging apparatus
EP3293959A1 (en) * 2016-09-07 2018-03-14 Thomson Licensing Plenoptic imaging device equipped with an enhanced optical system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9473684B2 (en) 2013-06-25 2016-10-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program, and imaging apparatus
US9609192B2 (en) 2013-06-25 2017-03-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program, and imaging apparatus
EP3293959A1 (en) * 2016-09-07 2018-03-14 Thomson Licensing Plenoptic imaging device equipped with an enhanced optical system
EP3293961A1 (en) * 2016-09-07 2018-03-14 Thomson Licensing Plenoptic imaging device equipped with an enhanced optical system
US10348947B2 (en) 2016-09-07 2019-07-09 Interdigital Ce Patent Holdings Plenoptic imaging device equipped with an enhanced optical system

Similar Documents

Publication Publication Date Title
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US20170139131A1 (en) Coherent fiber array with dense fiber optic bundles for light-field and high resolution image acquisition
TWI510086B (en) Digital refocusing method
CN105556944A (en) High-resolution thin multi-aperture imaging systems
JP6366251B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6372983B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
CN104335246A (en) Camera modules patterned with pi filter groups
JP5704984B2 (en) Imaging device
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2008244982A (en) Super-depth image generating apparatus
JP5597777B2 (en) Color imaging device and imaging apparatus
EP3132609B1 (en) Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
US20150109520A1 (en) Image capturing apparatus, image processing method, and storage medium
US20150268392A1 (en) Filter-array-equipped microlens and solid-state imaging device
KR20100040643A (en) Apparatus and method for processing image to generate high resolution image
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2012129654A (en) Imaging device, and control method and program therefor
JP2013150071A (en) Encoder, encoding method, program and storage medium
JP5127476B2 (en) Imaging device
JP5640383B2 (en) Imaging device
KR100810155B1 (en) Image sensor for expanding wide dynamic range and output Bayer-pattern image
TW201525533A (en) Color filter array and solid-state image sensor
US9386207B2 (en) Image-capturing apparatus
JP2019096988A (en) Imaging device, imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304