JP2013145982A - Imaging apparatus, image processing apparatus and method - Google Patents

Imaging apparatus, image processing apparatus and method Download PDF

Info

Publication number
JP2013145982A
JP2013145982A JP2012005668A JP2012005668A JP2013145982A JP 2013145982 A JP2013145982 A JP 2013145982A JP 2012005668 A JP2012005668 A JP 2012005668A JP 2012005668 A JP2012005668 A JP 2012005668A JP 2013145982 A JP2013145982 A JP 2013145982A
Authority
JP
Japan
Prior art keywords
image
refocus
image data
processing
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012005668A
Other languages
Japanese (ja)
Other versions
JP6095266B2 (en
JP2013145982A5 (en
Inventor
Kazushi Tsubakihara
一志 椿原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012005668A priority Critical patent/JP6095266B2/en
Publication of JP2013145982A publication Critical patent/JP2013145982A/en
Publication of JP2013145982A5 publication Critical patent/JP2013145982A5/ja
Application granted granted Critical
Publication of JP6095266B2 publication Critical patent/JP6095266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To display an image of in-focus state suitable for a photographic scene without the hassle of a user, when displaying image data captured by a light field camera.SOLUTION: The imaging apparatus includes a photographic lens (101), an image sensor (103) consisting of multiple pixels arranged two-dimensionally and outputting image data by performing photoelectric conversion of the incident light, multiple microlenses (102) arranged between the photographic lens and the image sensor and corresponding, respectively, to the multiple regions of the image sensor consisting of a predetermined number of pixels, a refocus image processing circuit (106) performing refocus processing for creating an image focused to an arbitrary distance, from the image data of multiple pixels output from the image sensor, an operation circuit (110) for selecting a scene corresponding to parameters used for the refocus processing, and display means (111) for displaying the image created by the refocus image creation means by using parameters corresponding to the scene selected by the selection means.

Description

本発明は撮像装置により撮影された画像の表示に関し、特に撮影後に画像の合焦距離を変更することのできる画像の表示技術に関する。   The present invention relates to display of an image taken by an imaging apparatus, and more particularly to an image display technique capable of changing the focus distance of an image after shooting.

近年、電子カメラ等の撮像装置において、光の強度分布のみならず光の入射方向の情報(光線)をも取得可能な撮像装置(ライトフィールドカメラ)が提案されている。ライトフィールドは、遮蔽物のない空間を飛び交う光線の「場」と言える。ライトフィールド中の1本の光線を特定するには、例えば図13に示すようなかたちで2つの平行な平面を適当に設定し、各平面と光線との交点(x’, y’)、(u, v)を指定すればよい。ライトフィールドカメラは、この光線情報の場を撮像素子で捉え、記録するカメラである。   2. Description of the Related Art In recent years, an imaging apparatus (light field camera) that can acquire not only the intensity distribution of light but also information on the incident direction of light (light rays) has been proposed in an imaging apparatus such as an electronic camera. A light field can be said to be a “field” of rays that fly through an unoccluded space. In order to identify one light ray in the light field, for example, two parallel planes are appropriately set as shown in FIG. 13, and the intersection (x ′, y ′), ( u, v) may be specified. The light field camera is a camera that captures and records the light ray information field with an image sensor.

例えば非特許文献1によれば、図14に示すように、撮影レンズ1404と撮像素子1401との間にマイクロレンズアレイ1402を配置し、撮像素子1401の複数の画素に対してひとつのマイクロレンズ1403を対応させる。このようにすることで、マイクロレンズ1403を通過した光は複数の画素によって入射方向別に取得される。したがって撮像素子1401のそれぞれの画素の出力値Lは光線としての情報を持ち、出力値L(x’,y’,u,v)がライトフィールド情報として記録される。これに対し、通常の撮像装置の場合は、マイクロレンズアレイの位置に撮像素子が配置され、レンズ面(u,v)に対して、L(x’,y’,u,v)が積分されたものが、それぞれの画素の出力値E(x’,y’)として記録されており、入射方向の情報が失われている。   For example, according to Non-Patent Document 1, as shown in FIG. 14, a microlens array 1402 is arranged between a photographing lens 1404 and an image sensor 1401, and one microlens 1403 is provided for a plurality of pixels of the image sensor 1401. To correspond. In this way, light that has passed through the microlens 1403 is acquired by a plurality of pixels for each incident direction. Therefore, the output value L of each pixel of the image sensor 1401 has information as light rays, and the output value L (x ′, y ′, u, v) is recorded as light field information. On the other hand, in the case of a normal imaging device, an imaging device is arranged at the position of the microlens array, and L (x ′, y ′, u, v) is integrated with respect to the lens surface (u, v). Is recorded as the output value E (x ′, y ′) of each pixel, and information on the incident direction is lost.

上記のように取得されたライトフィールド情報に対して、従来の撮像装置では光学的に行われているu, vでの積分を、ライトフィールドカメラでは、演算処理によって積分する。この方法により、通常の撮影画像を生成するほかに、「Light Field Photography」と呼ばれる手法を適用することで、任意の仮想像面(リフォーカス面)にピントを合わせた2次元画像を撮影後に再構成することができる。   The light field information acquired as described above is integrated by u and v optically performed in the conventional imaging apparatus, and is integrated by arithmetic processing in the light field camera. With this method, in addition to generating normal captured images, a technique called “Light Field Photography” can be applied to re-create a 2D image focused on an arbitrary virtual image plane (refocus plane) after shooting. Can be configured.

Ren.Ng、他7名,「Light Field Photography with a Hand-Held Plenoptic Camera」,Stanford Tech Report CTSR 2005-02Ren.Ng and 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

しかしながら従来のライトフィールドカメラでは、撮影後に合焦状態を自由に設定することができるが、撮影中や撮影後の画像確認において、ユーザが所望の合焦状態の画像を得るためには、その都度ユーザが合焦位置を指定する必要があった。   However, in the conventional light field camera, the in-focus state can be freely set after shooting. However, in order to obtain an image in a desired in-focus state during shooting or after checking the image, the user needs to The user has to specify the focus position.

本発明は上記問題点を鑑みてなされたものであり、ライトフィールドカメラで撮影された画像データを表示する際に、ユーザーの手間をかけずに、撮影シーンに適した合焦状態の画像を表示できるようにすることを目的とする。   The present invention has been made in view of the above problems, and when displaying image data captured by a light field camera, an image in a focused state suitable for a shooting scene is displayed without the user's effort. The purpose is to be able to.

上記目的を達成するために、本発明の撮像装置は、撮影レンズと、入射光を光電変換して画像データを出力する、2次元に配置された複数の画素から成る撮像素子と、前記撮影レンズと、前記撮像素子との間に配置され、予め決められた数の画素から成る前記撮像素子の複数の領域それぞれに対応する複数のマイクロレンズと、前記撮像素子から出力された前記複数の画素の画像データから、任意の距離に合焦した画像を生成するリフォーカス処理を行うリフォーカス画像生成手段と、前記リフォーカス処理に用いるパラメータに対応したシーンを選択するための選択手段と、前記選択手段により選択されたシーンに対応するパラメータを用いて前記リフォーカス画像生成手段により生成された画像を表示する表示手段とを有する。   In order to achieve the above object, an imaging apparatus according to the present invention includes a photographic lens, an imaging device including a plurality of two-dimensionally arranged pixels that photoelectrically convert incident light to output image data, and the photographic lens. And a plurality of microlenses arranged between the image sensor and corresponding to each of a plurality of regions of the image sensor composed of a predetermined number of pixels, and the plurality of pixels output from the image sensor Refocus image generation means for performing refocus processing for generating an image focused at an arbitrary distance from image data, selection means for selecting a scene corresponding to a parameter used for the refocus processing, and the selection means Display means for displaying the image generated by the refocus image generation means using the parameter corresponding to the scene selected by.

本発明によれば、ライトフィールドカメラで撮影された画像データを表示する際に、ユーザーの手間をかけずに、撮影シーンに適した合焦状態の画像を表示できるようにすることができる。   ADVANTAGE OF THE INVENTION According to this invention, when displaying the image data image | photographed with the light field camera, it can display the image of the focusing state suitable for an imaging | photography scene, without a user's effort.

本発明の実施形態に係る撮像装置の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention. 実施形態に係る撮像素子の画素とマイクロレンズアレイとの位置関係を説明する図。FIG. 6 is a diagram for explaining a positional relationship between pixels of the image sensor according to the embodiment and a microlens array. 実施形態に係る撮影レンズと、撮像素子の画素と、マイクロレンズアレイとの位置関係を説明する図。4A and 4B are diagrams for explaining a positional relationship among a photographic lens, an image sensor pixel, and a microlens array according to the embodiment. 実施形態に係る撮影レンズの瞳領域と受光画素の対応関係を説明する図。FIG. 6 is a diagram for explaining a correspondence relationship between a pupil region and a light receiving pixel of the photographing lens according to the embodiment. 実施形態に係るリフォーカス画像生成光線の通過領域を説明する図。The figure explaining the passage area of the refocus image generation light ray concerning an embodiment. 第1の実施形態における撮影動作時の処理を示すフローチャート。6 is a flowchart illustrating processing during a shooting operation according to the first embodiment. 第1の実施形態におけるリフォーカス画像生成処理のフローチャート。5 is a flowchart of refocus image generation processing according to the first embodiment. 第1の実施形態におけるパンフォーカス画像生成時の光学系の仮想概念を示す図。The figure which shows the virtual concept of the optical system at the time of the pan focus image production | generation in 1st Embodiment. 第1の実施形態におけるパンフォーカス画像生成時の撮影レンズの瞳領域と受光画素との対応関係を示す図。The figure which shows the correspondence of the pupil region of the imaging lens at the time of the pan focus image generation in 1st Embodiment, and a light reception pixel. 第1の実施形態における顔に合焦したリフォーカス処理時の光学系の仮想概念を示す図。The figure which shows the virtual concept of the optical system at the time of the refocus process focused on the face in 1st Embodiment. 第1の実施形態における顔に合焦したリフォーカス処理時の撮影レンズの瞳領域と受光画素の対応関係を示す図。The figure which shows the correspondence of the pupil region of the imaging lens at the time of the refocus process focused on the face in 1st Embodiment, and a light reception pixel. 第2の実施形態における画像再生時の処理を示すフローチャート。10 is a flowchart showing processing at the time of image reproduction in the second embodiment. 光線を特定する座標系の説明図。Explanatory drawing of the coordinate system which identifies a light ray. ライトフィールドカメラの光学系を示す図。The figure which shows the optical system of a light field camera.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

<第1の実施形態>
図1は、本発明の実施形態に係る撮像装置100の概略構成を示すブロック図である。図1に示す構成において、撮影レンズ101を通過した光は撮影レンズ101の焦点位置近傍に結像する。マイクロレンズアレイ102は複数のマイクロレンズ1020から構成されており、撮影レンズ101の焦点位置近傍に配置されることで、撮影レンズ101の異なる瞳領域を通過した光を瞳領域ごとに分割して出射する機能を有する。撮像素子103はCMOSイメージセンサやCCDイメージセンサに代表される光電変換素子であり、入射光を光電変換して画像信号を出力する。複数のマイクロレンズ1020それぞれに対して複数の画素が対応するように2次元に配置することで、マイクロレンズ1020で瞳領域ごとに分割して出射された光を、分割情報を保ったまま受光し、データ処理可能な画像信号に変換することができる。
<First Embodiment>
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment of the present invention. In the configuration shown in FIG. 1, light that has passed through the photographic lens 101 forms an image near the focal position of the photographic lens 101. The microlens array 102 includes a plurality of microlenses 1020, and is arranged in the vicinity of the focal position of the photographing lens 101 so that light that has passed through different pupil regions of the photographing lens 101 is divided and emitted for each pupil region. It has the function to do. The imaging element 103 is a photoelectric conversion element typified by a CMOS image sensor or a CCD image sensor, and photoelectrically converts incident light and outputs an image signal. By arranging two-dimensionally so that a plurality of pixels correspond to each of the plurality of microlenses 1020, the light emitted after being divided for each pupil region by the microlens 1020 is received while maintaining the division information. The image signal can be converted into a data processable image signal.

アナログ信号処理回路(AFE)104は、撮像素子103から出力される画像信号に対して相関二重サンプリング処理、信号増幅、基準レベル調整、A/D変換処理等を行う。デジタル信号処理回路(DFE)105は、アナログ信号処理回路104から出力される画像信号に対して基準レベル調整等のデジタル画像処理を行う。   An analog signal processing circuit (AFE) 104 performs correlated double sampling processing, signal amplification, reference level adjustment, A / D conversion processing, and the like on the image signal output from the image sensor 103. A digital signal processing circuit (DFE) 105 performs digital image processing such as reference level adjustment on the image signal output from the analog signal processing circuit 104.

画像処理回路106はデジタル信号処理回路105から出力された画像信号に対して所定の画像処理や、ライトフィールドカメラ特有の任意の合焦距離に焦点を合わせるリフォーカス演算(現像処理)を施す。さらに画像処理回路106は、画像から人物の顔を検出するような処理も行う。メモリ回路107は画像データを一時保持する揮発性のメモリであり、高速でランダムなアクセス性に優れる。記録回路108は、画像処理回路106から出力された画像データ等を記録保持するための不揮発性メモリあるいはメモリカード等の記録媒体に記録を行うための制御回路である。   The image processing circuit 106 performs predetermined image processing on the image signal output from the digital signal processing circuit 105 and refocusing calculation (development processing) for focusing on an arbitrary focusing distance unique to the light field camera. Further, the image processing circuit 106 performs processing such as detecting a human face from the image. The memory circuit 107 is a volatile memory that temporarily holds image data, and is excellent in high-speed and random accessibility. The recording circuit 108 is a control circuit for recording on a recording medium such as a nonvolatile memory or a memory card for recording and holding the image data output from the image processing circuit 106.

制御回路109は撮像素子103や画像処理回路106等、撮像装置100全体を統括的に駆動制御する。操作回路110は撮像装置100に備え付けられた操作部材からの信号を受け付け、制御回路109に対して、ユーザーの指示や、後述するシーンセレクト等の各種設定内容を反映させるための回路である。表示回路111は撮影後の画像やライブビュー画像、各種設定画面等を表示する。   The control circuit 109 performs overall drive control of the entire imaging apparatus 100 such as the imaging element 103 and the image processing circuit 106. The operation circuit 110 is a circuit that receives a signal from an operation member provided in the imaging apparatus 100 and reflects various setting contents such as a user instruction and a scene selection described later to the control circuit 109. The display circuit 111 displays an image after shooting, a live view image, various setting screens, and the like.

次に、本実施形態の撮像装置における撮影レンズ101、マイクロレンズアレイ102及び撮像素子103の位置関係について説明する。   Next, the positional relationship among the taking lens 101, the microlens array 102, and the image sensor 103 in the image pickup apparatus of the present embodiment will be described.

図2は、撮像素子103およびマイクロレンズアレイ102を図1の光軸Z方向から見た図である。複数の分割画素201に対して1つのマイクロレンズ1020が対応するように配置されている。1つのマイクロレンズの後方にある複数の分割画素201をまとめて画素配列200と定義する。なお、本第1の実施形態では画素配列200は、5行5列の計25個の分割画素201により構成されているものとする。   FIG. 2 is a view of the image sensor 103 and the microlens array 102 as seen from the direction of the optical axis Z in FIG. One microlens 1020 is arranged to correspond to the plurality of divided pixels 201. A plurality of divided pixels 201 behind one microlens are collectively defined as a pixel array 200. In the first embodiment, the pixel array 200 is configured by a total of 25 divided pixels 201 of 5 rows and 5 columns.

図3は、撮影レンズ101から出射した光が1つのマイクロレンズ1020を通過して撮像素子103で受光される様子を光軸Zに対して垂直方向から見た図である。撮影レンズ101の各瞳領域a1〜a5から出射し、中央のマイクロレンズ1020を通過した光は、後方の対応する分割画素p1〜p5でそれぞれ結像する。   FIG. 3 is a diagram of a state in which light emitted from the photographing lens 101 passes through one microlens 1020 and is received by the image sensor 103 as viewed from a direction perpendicular to the optical axis Z. Light emitted from each of the pupil regions a1 to a5 of the photographing lens 101 and passed through the central microlens 1020 forms an image on the corresponding divided pixels p1 to p5, respectively.

図4(a)は、図3で示した撮影レンズ101の光の通過領域と、撮像素子103の受光領域の様子をさらに詳しく説明するために、撮影レンズ101の開口を光軸Z方向から見た図である。図4(b)は、1つのマイクロレンズ1020とその後方に配置された画素配列200を光軸Z方向から見た図である。図4(a)に示すように撮影レンズ101の瞳領域を1つのマイクロレンズ1020の後方にある画素と同数の領域に分割した場合、1つの画素には撮影レンズ101の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮影レンズ101とマイクロレンズ1020のFナンバーがほぼ一致しているものとする。   FIG. 4A shows the aperture of the photographic lens 101 viewed from the optical axis Z direction in order to explain the state of the light passing area of the photographic lens 101 and the light receiving area of the image sensor 103 shown in FIG. It is a figure. FIG. 4B is a view of one microlens 1020 and the pixel array 200 disposed behind the microlens 1020 when viewed from the optical axis Z direction. As shown in FIG. 4A, when the pupil region of the photographing lens 101 is divided into the same number of regions as the pixels behind one microlens 1020, one pixel is divided into one pupil division region of the photographing lens 101. The emitted light is imaged. However, here, it is assumed that the F-numbers of the photographing lens 101 and the microlens 1020 are substantially the same.

図4(a)に示す撮影レンズ101の瞳領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮影レンズ101の瞳領域a11から出射した光は、マイクロレンズ1020の後方にある画素配列200のうち、画素p11に結像する。これと同様に、瞳領域a11から出射し、別のマイクロレンズ1020を通過する光も、そのマイクロレンズ1020の後方にある画素配列200の中の画素p11に結像する。   The correspondence between the pupil regions a11 to a55 of the photographing lens 101 shown in FIG. 4A and the pixels p11 to p55 shown in FIG. 4B is point-symmetric when viewed from the optical axis Z direction. Therefore, the light emitted from the pupil region a11 of the photographing lens 101 forms an image on the pixel p11 in the pixel array 200 behind the microlens 1020. Similarly, light emitted from the pupil region a11 and passing through another microlens 1020 forms an image on the pixel p11 in the pixel array 200 behind the microlens 1020.

図2のような撮像素子103とマイクロレンズ1020の関係の場合、瞳分割数は、1つのマイクロレンズ内に入る画素数(5×5=25)となる。ここで、瞳分割位置(u, v)を、u=0, 1, 2, 3, 4、v=0, 1, 2, 3, 4とし、マイクロレンズ位置座標(x’,y’)を、x’= 0, 1, 2, 3, 4、y’= 0, 1, 2, 3, 4 とする。この場合、撮像素子103の画素座標(p, q)、p=0〜24, q=0〜24は、瞳分割位置座標(u, v), マイクロレンズ位置座標(x’, y’)で表現でき、
p(x’,u)、q(y’,v) …(1)
In the case of the relationship between the image sensor 103 and the microlens 1020 as shown in FIG. 2, the number of pupil divisions is the number of pixels (5 × 5 = 25) that fall within one microlens. Here, the pupil division position (u, v) is set to u = 0, 1, 2, 3, 4, v = 0, 1, 2, 3, 4, and the microlens position coordinates (x ′, y ′) are set. X ′ = 0, 1, 2, 3, 4 and y ′ = 0, 1, 2, 3, 4. In this case, the pixel coordinates (p, q), p = 0 to 24, and q = 0 to 24 of the image sensor 103 are pupil division position coordinates (u, v) and microlens position coordinates (x ′, y ′). Can express
p (x ′, u), q (y ′, v) (1)

と表すことができる。
ここで、画面内の任意の被写体位置に対応した焦点位置(リフォーカス面)を算出する方法について説明する。図4で説明したように、画素配列200の各画素は、撮影レンズ101に対して互いに異なる瞳領域を通過した光を受光している。これらの分割信号から複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。
It can be expressed as.
Here, a method for calculating a focal position (refocus plane) corresponding to an arbitrary subject position in the screen will be described. As described with reference to FIG. 4, each pixel of the pixel array 200 receives light that has passed through different pupil regions with respect to the photographing lens 101. By combining a plurality of pixel signals from these divided signals, a pair of signals divided into pupils in the horizontal direction is generated.

Figure 2013145982
Figure 2013145982

Figure 2013145982
Figure 2013145982

式(2)は、ある画素配列200の各画素について、撮影レンズ101の射出瞳の左側領域(瞳領域a11〜a51及びa12〜a52)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列200に適用し、これらの出力信号群で構成した被写体像をA像とする。また、式(3)は、ある画素配列200の各画素について、撮影レンズ101の射出瞳の右側領域(瞳領域a14〜a54及びa15〜a55)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列200に適用し、これらの出力信号群で構成した被写体像をB像とする。A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮影レンズ101の焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。   Expression (2) is obtained by integrating the light passing through the left area (pupil areas a11 to a51 and a12 to a52) of the exit pupil of the photographing lens 101 for each pixel of a certain pixel array 200. This is applied to a plurality of pixel arrays 200 arranged in the horizontal direction, and a subject image constituted by these output signal groups is defined as an A image. Expression (3) is obtained by integrating the light passing through the right area (pupil areas a14 to a54 and a15 to a55) of the exit pupil of the photographing lens 101 for each pixel of a certain pixel array 200. This is applied to a plurality of pixel arrays 200 arranged in the horizontal direction, and a subject image constituted by these output signal groups is defined as a B image. A correlation operation is performed on the A image and the B image, and an image shift amount (pupil division phase difference) is detected. Furthermore, the focal position corresponding to an arbitrary subject position in the screen can be calculated by multiplying the image shift amount by the focal position of the photographing lens 101 and a conversion coefficient determined by the optical system.

次に、撮影レンズ101、マイクロレンズアレイ102及び撮像素子103の構成によって取得された撮像データ(ライトフィールド情報)に対して行う、任意に設定した焦点位置(リフォーカス面)での画像の再構成処理について説明する。   Next, image reconstruction at an arbitrarily set focal position (refocus plane) is performed on imaging data (light field information) acquired by the configuration of the photographing lens 101, the microlens array 102, and the imaging element 103. Processing will be described.

図5は、任意に設定したリフォーカス面上のある画素を通過する光が、撮影レンズ101のどの瞳分割領域から出射され、どのマイクロレンズ1020へ入射するかを光軸Zに対して垂直方向から見た図である。ここで、撮影レンズ101の瞳分割領域の位置を座標(u,v)、リフォーカス面上の画素位置を座標(x,y)、マイクロレンズアレイ102上のマイクロレンズ1020の位置を座標(x’,y’)とする。更に、撮影レンズ101からマイクロレンズアレイ102までの距離をF、撮影レンズ101からリフォーカス面までの距離をαFとする。αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザーが任意に設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。図5に示すように、座標(u,v)と座標(x,y)を通過した光は、マイクロレンズアレイ102上の座標(x’,y’)に到達する。この座標(x’,y’)は式(4)のように表すことができる。   FIG. 5 shows a direction perpendicular to the optical axis Z indicating from which pupil division region of the photographing lens 101 light that passes through a pixel on an arbitrarily set refocus plane is emitted and which microlens 1020 is incident. It is the figure seen from. Here, the position of the pupil division region of the photographing lens 101 is coordinates (u, v), the pixel position on the refocus plane is coordinates (x, y), and the position of the microlens 1020 on the microlens array 102 is coordinates (x ', Y'). Further, the distance from the photographing lens 101 to the microlens array 102 is F, and the distance from the photographing lens 101 to the refocus plane is αF. α is a refocus coefficient for determining the position of the refocus plane and can be arbitrarily set by the user. In FIG. 5, only the directions of u, x, and x ′ are shown, and v, y, and y ′ are omitted. As shown in FIG. 5, the light passing through the coordinates (u, v) and the coordinates (x, y) reaches the coordinates (x ′, y ′) on the microlens array 102. The coordinates (x ′, y ′) can be expressed as in Equation (4).

Figure 2013145982
Figure 2013145982

そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮影レンズ101の瞳領域に関して積分したものとなるため、式(5)のようになる。

Figure 2013145982
When the output of the pixel receiving this light is L (x ′, y ′, u, v), the output E (x, y) obtained with the coordinates (x, y) on the refocus plane is L Since (x ′, y ′, u, v) is integrated with respect to the pupil region of the photographic lens 101, Equation (5) is obtained.
Figure 2013145982

式(4)において、リフォーカス係数αが定まれば、リフォーカス面上の座標(x,y)、瞳分割領域位置座標(u,v)を与えることで、光が入射するマイクロレンズの位置(x’,y’)が求まる。そして、そのマイクロレンズに対応する画素配列200から(u,v)の位置に対応する撮像素子上の画素p, qは式(1)より求まり、この撮像素子の画素出力がL(x’,y’,u,v)=L(p, q)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)が算出できる。なお、(u,v)を撮影レンズの瞳分割領域の代表座標とすれば、式(5)の積分は、単純加算により計算することができる。   In equation (4), if the refocus coefficient α is determined, the coordinates (x, y) on the refocus plane and the pupil division region position coordinates (u, v) are given, so that the position of the microlens where the light enters. (X ′, y ′) is obtained. Then, the pixels p and q on the image sensor corresponding to the position (u, v) from the pixel array 200 corresponding to the microlens are obtained from the equation (1), and the pixel output of this image sensor is L (x ′, y ′, u, v) = L (p, q). E (x, y) can be calculated by performing this operation for all pupil division regions and integrating the obtained pixel outputs. If (u, v) is the representative coordinates of the pupil division area of the taking lens, the integral of equation (5) can be calculated by simple addition.

次に、本発明の撮像装置の撮影時の動作について、図6のフローチャートを参照して説明する。各ステップは制御回路109または制御回路109からの指示によって各部で行われる。撮影が開始されると(S601)、S602において、ユーザが撮像装置に設定しているシーンセレクト内容を取得する。シーンセレクトとは、ユーザが容易に所望の画像を撮影できるように各種撮影パラメータを総合的に一括で設定するためのものである。例えば、AE(Auto Exposure)の設定、画像の色合い、解像感等の画像処理内容をシーンに適した内容に設定したり、フォーカス状況を設定したりするためのものである。そして、ユーザは操作回路110を通じて、シーンセレクトの設定を行う。本第1の実施形態の撮像装置では、ポートレート(人物)撮影、風景撮影、マクロ撮影、夜景撮影等を選択することができる。また、シーンセレクトの設定は公知のシーン判別技術等により自動で設定されても良い。   Next, the operation at the time of shooting of the image pickup apparatus of the present invention will be described with reference to the flowchart of FIG. Each step is performed in each unit according to an instruction from the control circuit 109 or the control circuit 109. When shooting is started (S601), in S602, the scene selection content set by the user in the imaging apparatus is acquired. The scene select is for comprehensively setting various shooting parameters so that the user can easily capture a desired image. For example, image processing contents such as AE (Auto Exposure) setting, image tint, resolution, and the like are set to contents suitable for a scene, and a focus state is set. Then, the user sets the scene selection through the operation circuit 110. In the imaging apparatus of the first embodiment, portrait (person) photography, landscape photography, macro photography, night scene photography, and the like can be selected. The scene select setting may be automatically set by a known scene discrimination technique or the like.

S603では、シーンセレクトの設定に応じて、AEの設定を行う。例えばシーンとして夜景撮影が選択されている場合には、シャッター速度を遅くする等の設定を行う。続いてS604では、設定されているシーンセレクトに応じて、適用するリフォーカス処理を選択する。S605で、撮像素子103から得られているライトフィールド情報出力に対し、選択されたリフォーカス処理を画像処理回路106により実行することでライブ画像を生成し、表示回路111により表示を行う。これらリフォーカス処理の選択、処理内容についての詳細は後述する。   In S603, AE is set according to the scene select setting. For example, when night scene shooting is selected as a scene, settings such as a slow shutter speed are performed. In step S604, a refocus process to be applied is selected according to the set scene select. In step S <b> 605, a live image is generated by executing the selected refocus processing on the light field information output obtained from the image sensor 103 by the image processing circuit 106, and displayed on the display circuit 111. Details of selection and processing contents of the refocus processing will be described later.

撮影中は一定時間間隔で表示する画像を更新し続け(S605〜S606のループ)、ユーザがシーンセレクトを変更した場合には、リフォーカス処理を変更し(S607)、順次表示画像を更新する。また、ユーザがシャッターを押下すると、S608において、記録回路108は、その時点でのライトフィールド情報を記録媒体に記録する。記録後、現在選択中のリフォーカス処理内容で確認画像を生成し、表示回路111に表示を行う(S609)。また、所定時間内にユーザがシーンセレクト設定を変更した場合には(S610)、リフォーカス処理内容を変更し(S611)、再度、その内容によって確認画像を生成して表示する。所定時間経っても、シーンセレクト設定が変更されなかった場合には、その設定が所望の内容であると判断し、そのシーンセレクト情報を、既に記録済みのライトフィールド情報の付加情報として、該ライトフィールド情報に関連付けて記録する(S612)。以上が、本第1の実施形態における撮像装置の撮像、記録時の処理の流れになる。   During shooting, the image to be displayed is continuously updated at a predetermined time interval (loop from S605 to S606). When the user changes the scene selection, the refocus processing is changed (S607), and the display image is sequentially updated. When the user presses the shutter, the recording circuit 108 records the light field information at that time on the recording medium in S608. After recording, a confirmation image is generated with the content of the refocus process currently selected and displayed on the display circuit 111 (S609). If the user changes the scene selection setting within a predetermined time (S610), the refocus processing content is changed (S611), and a confirmation image is generated and displayed again based on the content. If the scene select setting is not changed after a predetermined time, it is determined that the setting has the desired contents, and the scene select information is used as additional information of the already recorded light field information. Recording is performed in association with the field information (S612). The above is the flow of processing during imaging and recording of the imaging apparatus according to the first embodiment.

ここで、シーンセレクトに応じたリフォーカス画像の生成処理(S605、S608)について、図7のフローチャートを用いて説明する。   Here, refocus image generation processing (S605, S608) according to scene selection will be described with reference to the flowchart of FIG.

本第1の実施形態における撮像装置では、シーンセレクトとして風景撮影、夜景撮影がセレクトされた場合には、リフォーカス処理として、「パンフォーカス」が選択される。この状態で、リフォーカス画像生成処理が開始されると、S702からS703に分岐し、パンフォーカス画像の生成が行われる。   In the imaging apparatus according to the first embodiment, when landscape shooting or night scene shooting is selected as the scene select, “pan focus” is selected as the refocus processing. When the refocus image generation process is started in this state, the process branches from S702 to S703, and a pan focus image is generated.

パンフォーカス画像の生成方法について図8、図9を用いて説明する。なお、図9において、パンフォーカス画像の生成に使用する分割画素を白色、使用しない分割画素を網かけで示す。撮影レンズ101のFナンバーが小さい場合においては、分割画素のうち、光軸中心付近の光が入射する分割画素のみを使用する。図9(b)で言えば、画素p11〜p55の分割画素のうち、p33のみマイクロレンズ1020を代表する出力として画像を構成することで、マイクロレンズアレイ102と同等の解像度をもつ画像が生成される。この場合、図8の仮想絞り112に示すように、仮想的な小絞り状態を再現していることになり、これは被写界深度の深い画像(パンフォーカス画像)を生成していることになる。なお、例えば図2の場合では5×5の画素から成る画像となるが、実際には非常に多くの多くのマイクロレンズで構成されている。   A method of generating a pan focus image will be described with reference to FIGS. In FIG. 9, the divided pixels used for generating the pan-focus image are shown in white, and the divided pixels not used are shaded. When the F number of the photographic lens 101 is small, only the divided pixels on which light near the center of the optical axis is incident are used among the divided pixels. In FIG. 9B, an image having a resolution equivalent to that of the microlens array 102 is generated by constructing an image as an output that represents only the microlens 1020 among the divided pixels of the pixels p11 to p55. The In this case, as shown by the virtual aperture 112 in FIG. 8, a virtual small aperture state is reproduced, which generates an image having a deep depth of field (pan focus image). Become. For example, in the case of FIG. 2, the image is composed of 5 × 5 pixels, but in actuality, it is composed of a very large number of microlenses.

また本発明の撮像装置で、シーンセレクトとして人物撮影がセレクトされた場合は、リフォーカス処理として、「顔にフォーカス」が選択される。この状態で、リフォーカス画像生成処理が開始されると、S702からS704に分岐し、まず撮影対象から顔を検出するために、まず、被写界深度の深いパンフォーカス画像を前述の方法で生成する(S704)。生成されたパンフォーカス画像に対し、顔検出処理が行われ、顔の位置が特定される(S705)。顔の位置が求まると、この顔に合焦する被写体焦点位置を算出し(S706)、リフォーカス係数αを決定する(S707)。複数の顔が検出された場合には、それぞれについてリフォーカス係数αを求め、最も大きなαの顔(最も手前の顔)をフォーカス対象の顔とする。リフォーカス係数αが決まると、前述の式(5)により、リフォーカス画像を演算処理により生成する(S708)。上記処理を模式的に表すと、図10のようになる。この図では、人物の顔が、画像のほぼ中心で検出され、その顔位置にリフォーカスされた画像を生成する例を示している。ここでは光軸Zに対して垂直方向の一次元のみを考えることとし、リフォーカス再構成する仮想像面113の位置がマイクロレンズアレイ102から撮影レンズ側のある位置に存在するものとする。   Further, in the image pickup apparatus of the present invention, when the person photographing is selected as the scene select, “focus on the face” is selected as the refocus processing. In this state, when the refocus image generation processing is started, the process branches from S702 to S704. First, in order to detect the face from the shooting target, first, a pan focus image having a deep depth of field is generated by the method described above. (S704). Face detection processing is performed on the generated pan focus image, and the position of the face is specified (S705). When the position of the face is obtained, the subject focus position for focusing on the face is calculated (S706), and the refocus coefficient α is determined (S707). When a plurality of faces are detected, the refocus coefficient α is obtained for each face, and the face with the largest α (the face in front) is set as the face to be focused. When the refocus coefficient α is determined, a refocus image is generated by arithmetic processing according to the above equation (5) (S708). The above process is schematically shown in FIG. This figure shows an example in which a human face is detected almost at the center of the image and an image refocused to the face position is generated. Here, only one dimension in the direction perpendicular to the optical axis Z is considered, and the position of the virtual image plane 113 to be refocused is located at a certain position on the photographing lens side from the microlens array 102.

この仮想像面113上の仮想画素114に結像した光線は、この点から発散した状態でマイクロレンズアレイ102に入射する。さらに図10に示されるように、光線の角度によっては互いに異なるマイクロレンズ1020を通過し、あるシフト量をもってp1〜p5の分割画素に入射する。したがって、この仮想像面113上の仮想画素114の画素出力は、p1〜p5の分割画素の出力を加算・平均(正確には入射角やシフト量に応じて重みづけ)することで得られる。より具体的には、図11に示されるように、各マイクロレンズ1020に対応する5行5列の分割画素のうち、1行5列を一組として、マイクロレンズ1020ごとに1行ずつずらして合計5行5列の分割画素を構成すればよい。   The light beam formed on the virtual pixel 114 on the virtual image surface 113 enters the microlens array 102 in a state of diverging from this point. Furthermore, as shown in FIG. 10, the light passes through different microlenses 1020 depending on the angle of the light beam, and enters the divided pixels p1 to p5 with a certain shift amount. Therefore, the pixel output of the virtual pixel 114 on the virtual image plane 113 is obtained by adding and averaging the outputs of the divided pixels p1 to p5 (more precisely, weighting according to the incident angle and the shift amount). More specifically, as shown in FIG. 11, out of 5 rows and 5 columns of divided pixels corresponding to each microlens 1020, 1 row and 5 columns are set as one set, and each microlens 1020 is shifted by one row. A total of 5 rows and 5 columns of divided pixels may be configured.

上記の例では説明を容易にするために、シフト量が分割画素1行分である例を取り上げて説明したが、このシフト量は仮想像面113の位置に依存する。したがって、仮想像面113の位置に依存して重みづけマトリックスを算出し、分割画素の出力に対してマトリックス演算(重みつき加算)を施すことで、任意の仮想像面113におけるリフォーカス画像を得ることができる。ただし、実際は二次元の演算が必要である。また、演算量と演算時間を削減するために、特定の仮想像面113における重みづけマトリックスをあらかじめ保持しておき、分割画素の出力に対してマトリックス演算を施す。これにより、特定の仮想像面113におけるリフォーカス画像(ここでは人物の顔にリフォーカスされた画像)を得ることができる。   In the above example, for ease of explanation, an example in which the shift amount is one row of divided pixels has been described, but this shift amount depends on the position of the virtual image plane 113. Therefore, a weighting matrix is calculated depending on the position of the virtual image plane 113, and a matrix operation (weighted addition) is performed on the output of the divided pixels to obtain a refocused image on an arbitrary virtual image plane 113. be able to. However, in practice, a two-dimensional operation is required. Further, in order to reduce the calculation amount and the calculation time, a weighting matrix in a specific virtual image plane 113 is held in advance, and matrix calculation is performed on the output of the divided pixels. Thereby, a refocus image (here, an image refocused on a human face) on a specific virtual image plane 113 can be obtained.

本第1の実施形態の撮像装置では、シーンセレクトとしてマクロ撮影等、上述以外のシーンがセレクトされた場合は、リフォーカス処理として、「最も手前の被写体にフォーカス」が最適なフォーカス処理として選択される。この状態でリフォーカス画像生成処理が開始されると、S702からS709に分岐する。最も手前の被写体が画像中のどの位置に存在しているかは不明なため、いつくかの代表点において、複数の焦点位置及びリフォーカス係数αを算出する(ステップS709)。例えば、画像を5×5の小領域に分割し、その中心点を代表点として、25個の焦点位置、及びリフォーカス係数αを算出する。続いて、この中で最も大きなαを持つ(=最も手前に位置する)代表点にフォーカスしたリフォーカス画像を、前述の式(5)の演算処理により生成する(S710、S711)。   In the imaging apparatus of the first embodiment, when a scene other than the above is selected as a scene selection, such as macro shooting, “focus on the foremost subject” is selected as the optimum focus process as the refocus process. The When the refocus image generation process is started in this state, the process branches from S702 to S709. Since it is unknown at which position in the image the foremost subject exists, a plurality of focus positions and refocus coefficients α are calculated at some representative points (step S709). For example, the image is divided into 5 × 5 small regions, and 25 focal positions and a refocus coefficient α are calculated with the center point as a representative point. Subsequently, a refocus image focused on the representative point having the largest α (= most forward) is generated by the arithmetic processing of the above-described equation (5) (S710, S711).

以上説明したとおり、本第1の実施形態の撮像装置の撮影時においては、ライブビュー画像や、撮影後の画像確認表示において、ライトフィールド情報から、ユーザが選択したシーンセレクトに応じた最適なリフォーカス画像を表示する。これにより、ユーザの撮影しやすい撮像装置(ライトフィールドカメラ)を提供することができる。   As described above, at the time of shooting by the imaging apparatus of the first embodiment, in the live view image and the image confirmation display after shooting, the optimal field corresponding to the scene selection selected by the user is determined from the light field information. Display the focus image. Thereby, an imaging device (light field camera) that is easy for the user to shoot can be provided.

<第2の実施形態>
本第2の実施形態では、第1の実施形態で説明した撮像装置によって記録されたライトフィールド情報を再生表示する手順について説明する。
<Second Embodiment>
In the second embodiment, a procedure for reproducing and displaying light field information recorded by the imaging apparatus described in the first embodiment will be described.

ユーザにより、任意のライトフィールド情報からの画像再生が指示されると、図12に示す1枚再生処理が開始される(S1201)。記録されたライトフィールド情報を読み出すとともに、付加情報として記録されているシーンセレクト情報を取得する(S1202)。取得したシーンセレクト情報に最適なリフォーカス処理により、リフォーカス画像を生成、表示する(S1203)。表示された画像に対し、ユーザがシーンセレクトの選択を変更する操作を行った場合には、新たに選択されたシーンセレクトに最適なリフォーカス処理を行い(S1204、1205)、リフォーカス画像の再表示を行う。また、記録されていたシーンセレクト情報を、現在選択されているシーンセレクトに変更して記録を行う(S1206)。これにより、次回から所望のシーンセレクトに応じたフォーカス状態で画像が再生できるようになる。   When the user gives an instruction to reproduce an image from arbitrary light field information, the single image reproduction process shown in FIG. 12 is started (S1201). The recorded light field information is read and scene select information recorded as additional information is acquired (S1202). A refocus image is generated and displayed by refocus processing optimal for the acquired scene select information (S1203). When the user performs an operation to change the selection of the scene select on the displayed image, the refocus processing optimum for the newly selected scene select is performed (S1204, 1205), and the refocused image is re-executed. Display. Further, the recorded scene select information is changed to the currently selected scene select for recording (S1206). As a result, the image can be reproduced from the next time in the focus state according to the desired scene selection.

本第2の実施形態の撮像装置によれば、記録されたライトフィールド情報からリフォーカス画像を生成することができる。また、付加情報として記録されているシーンセレクト情報を利用することで、ユーザ所望のフォーカス状態のリフォーカス画像をデフォルト画像として、最初に表示する事が可能となる。   According to the imaging apparatus of the second embodiment, a refocus image can be generated from the recorded light field information. Further, by using the scene select information recorded as the additional information, it is possible to initially display the refocus image in the focus state desired by the user as the default image.

<他の実施形態>
上述した第1及び第2の実施形態では、撮像装置により顔判定及び記録処理を行う場合について説明したが、本発明はこれに限るものではない。例えば、リフォーカス処理が可能な画像データを生成する撮像装置から出力された画像データを用いて、外部画像処理装置により、図6〜図12により説明した上記処理を行うことによっても、本発明の目的を達成することができる。
<Other embodiments>
In the first and second embodiments described above, the case where the face determination and recording processing is performed by the imaging apparatus has been described, but the present invention is not limited to this. For example, the above-described processing described with reference to FIGS. 6 to 12 is performed by an external image processing apparatus using image data output from an imaging apparatus that generates image data that can be refocused. Aim can be achieved.

また、本発明は、複数の機器(例えばホストコンピュータ、インターフェイス機器、スキャナ、ビデオカメラなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。   In addition, even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a scanner, a video camera, etc.), a device (for example, a copying machine, a facsimile device, etc.) composed of a single device. You may apply to.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

撮影レンズと、
入射光を光電変換して画像データを出力する、2次元に配置された複数の画素から成る撮像素子と、
前記撮影レンズと、前記撮像素子との間に配置され、予め決められた数の画素から成る前記撮像素子の複数の領域それぞれに対応する複数のマイクロレンズと、
前記撮像素子から出力された前記複数の画素の画像データから、任意の距離に合焦した画像を生成するリフォーカス処理を行うリフォーカス画像生成手段と、
前記リフォーカス処理に用いるパラメータに対応したシーンを選択するための選択手段と、
前記選択手段により選択されたシーンに対応するパラメータを用いて前記リフォーカス画像生成手段により生成された画像を表示する表示手段と
を有することを特徴とする撮像装置。
A taking lens,
An image sensor comprising a plurality of two-dimensionally arranged pixels for photoelectrically converting incident light and outputting image data;
A plurality of microlenses arranged between the photographing lens and the image sensor and corresponding to each of a plurality of regions of the image sensor composed of a predetermined number of pixels;
Refocus image generation means for performing a refocus process for generating an image focused on an arbitrary distance from the image data of the plurality of pixels output from the image sensor;
A selection means for selecting a scene corresponding to the parameter used for the refocus processing;
An image pickup apparatus comprising: a display unit configured to display an image generated by the refocus image generation unit using a parameter corresponding to a scene selected by the selection unit.
前記撮像素子は、一定時間間隔で画像データを出力し、前記リフォーカス画像生成手段は、前記画像データが出力されたときに前記選択手段により選択されているシーンに対応する前記パラメータを用いて、前記画像データに対してリフォーカス処理を行い、前記表示手段は、前記リフォーカス処理した画像を順次、前記表示手段に表示することを特徴とする請求項1に記載の撮像装置。   The image sensor outputs image data at a constant time interval, and the refocus image generation means uses the parameter corresponding to the scene selected by the selection means when the image data is output, The imaging apparatus according to claim 1, wherein refocus processing is performed on the image data, and the display unit sequentially displays the refocused images on the display unit. 前記撮像素子から出力された画像データと、前記選択手段により選択されたシーンに対応する前記パラメータを付加情報として、前記画像データに関連付けて記録する記録手段を更に有することを特徴とする請求項1または2に記載の撮像装置。   2. The image processing apparatus according to claim 1, further comprising recording means for recording the image data output from the image sensor and the parameter corresponding to the scene selected by the selection means as additional information in association with the image data. Or the imaging device of 2. 前記リフォーカス画像生成手段は、更に、前記記録手段により記録された画像データと、該画像データに関連付けて記録された付加情報とを読み出し、読み出した前記画像データと、前記付加情報とを用いて、前記リフォーカス処理を行うことを特徴とする請求項3に記載の撮像装置。   The refocus image generation means further reads out the image data recorded by the recording means and the additional information recorded in association with the image data, and uses the read image data and the additional information. The imaging apparatus according to claim 3, wherein the refocus processing is performed. 前記シーンは人物撮影を含み、前記選択手段により人物撮影が選択された場合に、前記リフォーカス処理において、前記画像データの画像に含まれる顔に合焦させるパラメータが設定されることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The scene includes person photographing, and when the person photographing is selected by the selection unit, a parameter for focusing on a face included in the image of the image data is set in the refocus processing. The imaging device according to any one of claims 1 to 4. 前記シーンは風景撮影及び夜景撮影を含み、前記風景撮影及び夜景撮影のいずれかが選択された場合に、前記リフォーカス処理において、被写界深度を深くするパラメータが設定されることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The scene includes landscape shooting and night scene shooting, and when either the landscape shooting or night scene shooting is selected, a parameter for deepening the depth of field is set in the refocus processing. The imaging device according to any one of claims 1 to 5. 撮影レンズと、入射光を光電変換して画像データを出力する、2次元に配置された複数の画素から成る撮像素子と、前記撮影レンズと、前記撮像素子との間に配置され、予め決められた数の画素から成る前記撮像素子の複数の領域それぞれに対応する複数のマイクロレンズとからなる撮像装置から出力された画像データを処理する画像処理装置であって、
前記撮像素子から出力された前記複数の画素の画像データから、任意の距離に合焦した画像を生成するリフォーカス処理を行うリフォーカス画像生成手段と、
前記リフォーカス処理に用いるパラメータに対応したシーンを選択するための選択手段と、
前記選択手段により選択されたシーンに対応するパラメータを用いて前記リフォーカス画像生成手段により生成された画像を表示する表示手段と
を有することを特徴とする画像処理装置。
A photographic lens, an image sensor composed of a plurality of pixels arranged in two dimensions for photoelectrically converting incident light to output image data, the photographic lens, and the image sensor are arranged and determined in advance. An image processing device for processing image data output from an imaging device comprising a plurality of microlenses corresponding to each of a plurality of regions of the imaging device comprising a plurality of pixels,
Refocus image generation means for performing a refocus process for generating an image focused on an arbitrary distance from the image data of the plurality of pixels output from the image sensor;
A selection means for selecting a scene corresponding to the parameter used for the refocus processing;
An image processing apparatus comprising: a display unit configured to display an image generated by the refocus image generation unit using a parameter corresponding to the scene selected by the selection unit.
撮影レンズと、入射光を光電変換して画像データを出力する、2次元に配置された複数の画素から成る撮像素子と、前記撮影レンズと、前記撮像素子との間に配置され、予め決められた数の画素から成る前記撮像素子の複数の領域それぞれに対応する複数のマイクロレンズとからなる撮像装置から出力された画像データを処理する画像処理方法であって、
リフォーカス画像生成手段が、前記撮像素子から出力された前記複数の画素の画像データから、任意の距離に合焦した画像を生成するリフォーカス処理を行うリフォーカス画像生成工程と、
選択手段が、前記リフォーカス処理に用いるパラメータに対応したシーンを選択するための選択工程と、
表示手段が、前記選択工程で選択されたシーンに対応するパラメータを用いて前記リフォーカス画像生成工程で生成された画像を表示する表示工程と
を有することを特徴とする画像処理方法。
A photographic lens, an image sensor composed of a plurality of pixels arranged in two dimensions for photoelectrically converting incident light to output image data, the photographic lens, and the image sensor are arranged and determined in advance. An image processing method for processing image data output from an imaging device including a plurality of microlenses corresponding to each of a plurality of regions of the imaging element including a plurality of pixels,
A refocus image generation step for performing a refocus process for generating an image focused on an arbitrary distance from the image data of the plurality of pixels output from the image sensor;
A selection step for selecting a scene corresponding to the parameter used for the refocus processing by the selection means;
An image processing method comprising: a display step, wherein a display unit displays an image generated in the refocus image generation step using a parameter corresponding to the scene selected in the selection step.
コンピュータに、請求項8に記載の画像処理方法の各工程を実行させるためのプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 8. 請求項9に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9.
JP2012005668A 2012-01-13 2012-01-13 Image processing apparatus and control method thereof Expired - Fee Related JP6095266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012005668A JP6095266B2 (en) 2012-01-13 2012-01-13 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012005668A JP6095266B2 (en) 2012-01-13 2012-01-13 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013145982A true JP2013145982A (en) 2013-07-25
JP2013145982A5 JP2013145982A5 (en) 2015-02-26
JP6095266B2 JP6095266B2 (en) 2017-03-15

Family

ID=49041568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012005668A Expired - Fee Related JP6095266B2 (en) 2012-01-13 2012-01-13 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6095266B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109635A (en) * 2013-10-23 2015-06-11 キヤノン株式会社 Imaging apparatus, control method thereof and program
JP2015142366A (en) * 2014-01-30 2015-08-03 キヤノン株式会社 Image processing system, control method and program of the same
JP2016122444A (en) * 2014-12-19 2016-07-07 トムソン ライセンシングThomson Licensing Method and apparatus for generating adapted slice image from focal stack
US9798153B2 (en) 2014-02-27 2017-10-24 Citizen Watch Co., Ltd. Projection apparatus
JP2019004297A (en) * 2017-06-14 2019-01-10 キヤノン株式会社 Image processing device, image processing method, imaging apparatus and control method for imaging apparatus
CN114785929A (en) * 2022-04-20 2022-07-22 Oppo广东移动通信有限公司 Camera and electronic device
JP2022141637A (en) * 2015-09-17 2022-09-29 インターデジタル ヴイシー ホールディングス, インコーポレイテッド Method and apparatus for generating data representing light field

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021683A (en) * 2007-07-10 2009-01-29 Sony Corp Imaging device
JP2011019088A (en) * 2009-07-09 2011-01-27 Fujifilm Corp Compound eye imaging apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2011248723A (en) * 2010-05-28 2011-12-08 Sony Corp Image processing device, method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021683A (en) * 2007-07-10 2009-01-29 Sony Corp Imaging device
JP2011019088A (en) * 2009-07-09 2011-01-27 Fujifilm Corp Compound eye imaging apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2011248723A (en) * 2010-05-28 2011-12-08 Sony Corp Image processing device, method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109635A (en) * 2013-10-23 2015-06-11 キヤノン株式会社 Imaging apparatus, control method thereof and program
JP2015142366A (en) * 2014-01-30 2015-08-03 キヤノン株式会社 Image processing system, control method and program of the same
US9798153B2 (en) 2014-02-27 2017-10-24 Citizen Watch Co., Ltd. Projection apparatus
JP2016122444A (en) * 2014-12-19 2016-07-07 トムソン ライセンシングThomson Licensing Method and apparatus for generating adapted slice image from focal stack
JP2022141637A (en) * 2015-09-17 2022-09-29 インターデジタル ヴイシー ホールディングス, インコーポレイテッド Method and apparatus for generating data representing light field
JP2019004297A (en) * 2017-06-14 2019-01-10 キヤノン株式会社 Image processing device, image processing method, imaging apparatus and control method for imaging apparatus
JP7134601B2 (en) 2017-06-14 2022-09-12 キヤノン株式会社 Image processing device, image processing method, imaging device, and imaging device control method
CN114785929A (en) * 2022-04-20 2022-07-22 Oppo广东移动通信有限公司 Camera and electronic device

Also Published As

Publication number Publication date
JP6095266B2 (en) 2017-03-15

Similar Documents

Publication Publication Date Title
JP6095266B2 (en) Image processing apparatus and control method thereof
JP6047025B2 (en) Imaging apparatus and control method thereof
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP5947548B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, IMAGE PROCESSING DEVICE, IMAGE GENERATION METHOD, PROGRAM
JP5938281B2 (en) Imaging apparatus, control method therefor, and program
US9535193B2 (en) Image processing apparatus, image processing method, and storage medium
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP2014153890A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6418770B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP6752685B2 (en) Imaging equipment, imaging methods and programs
JP6211137B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5743769B2 (en) Image processing apparatus and image processing method
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2014033415A (en) Image processor, image processing method and imaging apparatus
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6566800B2 (en) Imaging apparatus and imaging method
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6291605B2 (en) Image processing apparatus and control method thereof
JP5527491B2 (en) Image processing apparatus, image processing method, and program
JP6097587B2 (en) Image reproducing apparatus and control method thereof
JP2018050147A (en) Imaging apparatus, imaging method and program
JP6210717B2 (en) Image reproducing apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170214

R151 Written notification of patent or utility model registration

Ref document number: 6095266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees