JP6298494B2 - Image reproducing apparatus and control method thereof - Google Patents

Image reproducing apparatus and control method thereof Download PDF

Info

Publication number
JP6298494B2
JP6298494B2 JP2016134931A JP2016134931A JP6298494B2 JP 6298494 B2 JP6298494 B2 JP 6298494B2 JP 2016134931 A JP2016134931 A JP 2016134931A JP 2016134931 A JP2016134931 A JP 2016134931A JP 6298494 B2 JP6298494 B2 JP 6298494B2
Authority
JP
Japan
Prior art keywords
image
aperture value
image data
virtual aperture
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016134931A
Other languages
Japanese (ja)
Other versions
JP2016178706A (en
Inventor
菅原 淳史
淳史 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016134931A priority Critical patent/JP6298494B2/en
Publication of JP2016178706A publication Critical patent/JP2016178706A/en
Application granted granted Critical
Publication of JP6298494B2 publication Critical patent/JP6298494B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタルカメラに代表される撮像装置に関し、特にリフォーカス機能を有する撮像装置で撮影された画像の記録装置および当該記録された画像の再生装置に関する。   The present invention relates to an imaging apparatus typified by a digital camera, and more particularly to an image recording apparatus photographed by an imaging apparatus having a refocus function and an apparatus for reproducing the recorded image.

近年、撮像素子の前面に、複数画素に対し1つの割合で並ぶマイクロレンズアレイを配置することで、画素信号に加えて撮像素子に入射する光線の入射方向の情報をも得られる構成の撮像装置が、非特許文献1などにおいて提案されている。このような撮像装置の用途としては、各画素からの出力信号をもとに通常の撮影画像を生成する以外に、撮影された画像に対して所定の画像処理を施すことで、任意の焦点距離に焦点を合わせた画像を再構築することが可能である。   2. Description of the Related Art In recent years, an imaging apparatus having a configuration in which, in addition to pixel signals, information on the incident direction of a light beam incident on an imaging element can be obtained by arranging a microlens array arranged at a ratio of one for a plurality of pixels in front of the imaging element Has been proposed in Non-Patent Document 1 and the like. As an application of such an imaging apparatus, in addition to generating a normal captured image based on an output signal from each pixel, a predetermined image processing is performed on the captured image, thereby allowing an arbitrary focal length. It is possible to reconstruct an image focused on.

このようなリフォーカス可能な画像を閲覧のために表示する場合、どの焦点位置にリフォーカスした画像を最初に表示したらよいかの判断が難しいという問題があった。この問題を解決するため、特許文献1では、画像からオブジェクトを抽出し、そのオブジェクトの存在する部分に関して合焦したリフォーカス画像を表示している。もしくは、画像取得時の撮像条件をタグデータとして画像データに付与し、そのタグ情報を基に、リフォーカス画像を生成している。   When such a refocusable image is displayed for viewing, there is a problem that it is difficult to determine which focus position the refocused image should be displayed first. In order to solve this problem, in Patent Document 1, an object is extracted from an image, and a refocus image focused on a portion where the object exists is displayed. Alternatively, imaging conditions at the time of image acquisition are assigned to the image data as tag data, and a refocus image is generated based on the tag information.

特開2011−22796号公報JP 2011-22796 A

Ren.Ng、他7名,「Light Field Photography with a Hand-Held Plenoptic Camera」,Stanford Tech Report CTSR 2005-02Ren.Ng and 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

しかしながら、上述の特許文献に開示された従来技術では、画像表示前にオブジェクトを抽出する処理が必要であった。また、撮影時の情報をタグデータとして有している場合でも、再構成後のリフォーカス面を決定するために、視点の異なる複数画像間の位相差を算出する必要があり、いずれの場合も演算コストが発生してしまうという問題がある。   However, in the prior art disclosed in the above-mentioned patent document, processing for extracting an object is required before displaying an image. Even when information at the time of shooting is included as tag data, it is necessary to calculate the phase difference between multiple images with different viewpoints in order to determine the refocus plane after reconstruction. There is a problem that calculation cost occurs.

そこで、本発明の目的は、被写体をリフォーカス可能な画像として撮影可能な撮像装置で取得した画像データを、望ましいリフォーカス画像として素早く表示することを可能にする画像データの記録装置および再生装置を提供することである。   Accordingly, an object of the present invention is to provide an image data recording device and reproducing device that can quickly display image data acquired by an imaging device capable of photographing a subject as a refocusable image as a desired refocus image. Is to provide.

施形態の態様によれば、画像データに対応する画像を再生する画像再生装置であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、前記仮想的な絞り値を設定する設定手段と、前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御手段は、前記生成手段により生成された複数の画像を同時に表示することを特徴とする画像再生装置が提供される。
実施形態の他の態様によれば、画像データに対応する画像を再生する画像再生装置であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、前記仮想的な絞り値を設定する設定手段と、前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御手段は、前記生成手段により生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置が提供される。
According to one aspect of the implementation form, an image reproducing device for reproducing an image corresponding to the image data, to reconstruct the image data, generating means for generating an image corresponding to the virtual aperture Setting means for setting the virtual aperture value; and display control means for displaying an image corresponding to the virtual aperture value generated by the generating means on a display unit, the display control means Displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting unit, and the display control unit includes a plurality of images generated by the generation unit. Are simultaneously displayed.
According to another aspect of the embodiment, there is provided an image reproduction device that reproduces an image corresponding to image data, and a generation unit that generates an image corresponding to a virtual aperture value by reconstructing the image data. Setting means for setting the virtual aperture value; and display control means for displaying an image corresponding to the virtual aperture value generated by the generating means on a display unit, the display control means Displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting unit, and the display control unit includes a plurality of images generated by the generation unit. Is provided at the same time according to the priority order recorded together with the image data used to generate the plurality of images.

施形態の更に他の態様によれば、画像データに対応する画像を再生する画像再生装置の制御方法であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、前記仮想的な絞り値を設定する設定ステップと、前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を同時に表示することを特徴とする画像再生装置の制御方法が提供される。
実施形態の更に他の態様によれば、画像データに対応する画像を再生する画像再生装置の制御方法であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、前記仮想的な絞り値を設定する設定ステップと、前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置の制御方法が提供される。
According to yet another aspect of the implementation form, method of controlling an image reproducing apparatus for reproducing an image corresponding to the image data, to reconstruct the image data, an image corresponding to the virtual aperture A generating step for generating, a setting step for setting the virtual aperture value, and a display control step for displaying the image corresponding to the virtual aperture value generated in the generating step on a display unit, The display control step displays an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step, and the display control step includes the generation There is provided a method for controlling an image reproducing device, wherein a plurality of images generated in the step are simultaneously displayed.
According to still another aspect of the embodiment, there is provided a method for controlling an image reproducing device that reproduces an image corresponding to image data, and generating an image corresponding to a virtual aperture value by reconstructing the image data. A generating step for setting, a setting step for setting the virtual aperture value, and a display control step for displaying the image corresponding to the virtual aperture value generated in the generating step on a display unit. In the display control step, an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step are displayed. In the display control step, the generation step a plurality of images generated in accordance with the priority order that is recorded together with the image data used to generate the plurality of images, and wherein the simultaneously displaying That the control method of the image reproducing device is provided.

本発明によれば、希望する合焦状態のリフォーカス画像を素早く表示することを可能とする画像データの記録装置および当該記録データの再生装置を提供することができる。   According to the present invention, it is possible to provide an image data recording apparatus and a reproduction apparatus for the recorded data that can quickly display a refocus image in a desired in-focus state.

再構成パラメーターをメタデータに持つ、画像データの構成を示す図である。It is a figure which shows the structure of the image data which has a reconstruction parameter in metadata. 本発明の第1の実施例に係る記録装置を適用した撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus to which a recording apparatus according to a first embodiment of the present invention is applied. 図2の撮像装置で使用される撮像素子とマイクロレンズアレイの構成を模式的に示す図である。It is a figure which shows typically the structure of the imaging device and microlens array which are used with the imaging device of FIG. 図2の撮像装置における撮影レンズ、マイクロレンズアレイおよび撮像素子よりなる撮像光学系の構成を概念的に示す図である。It is a figure which shows notionally the structure of the imaging optical system which consists of a photographic lens, a micro lens array, and an image pick-up element in the imaging device of FIG. 図2の撮像装置の撮影レンズの瞳領域と図3の撮像素子の画素との対応関係を模式的に示す図である。FIG. 4 is a diagram schematically illustrating a correspondence relationship between a pupil region of a photographing lens of the imaging apparatus in FIG. 2 and pixels of the imaging element in FIG. 3. 図3の撮像素子の出力を用いた焦点検出及びリフォーカス面検出のための信号の生成を模式的に示す図である。FIG. 4 is a diagram schematically showing generation of signals for focus detection and refocus plane detection using the output of the image sensor of FIG. 3. 異なるリフォーカス面での光線とその受光画素との関係を示す図である。It is a figure which shows the relationship between the light ray in a different refocus surface, and its light reception pixel. 本発明の第1の実施例に係る記録動作のフローチャートを示す図である。FIG. 6 is a flowchart illustrating a recording operation according to the first embodiment of the present invention. 異なる距離にある複数の被写体を含む画像と、その画像のデフォーカスマップを概念的に示す図である。It is a figure which shows notionally the image containing a several subject in a different distance, and the defocus map of the image. 本発明の第2の実施例に係る画像再生装置の再生動作のフローチャートを示す図である。It is a figure which shows the flowchart of the reproduction | regeneration operation | movement of the image reproduction apparatus which concerns on 2nd Example of this invention. 本発明の第2の実施例に係る画像再生装置における再生画像の表示画面を模式的に示す図である。It is a figure which shows typically the display screen of the reproduction image in the image reproduction apparatus which concerns on 2nd Example of this invention. 本発明の実施例に適用可能な他の光学系を概念的に示す図である。It is a figure which shows notionally other optical systems applicable to the Example of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図2は本発明の第1の実施例に係る画像記録装置を適用した撮像装置としてのデジタルカメラのブロック図である。201は撮影レンズであり、不図示ではあるが、複数枚のレンズから構成される。この複数枚のレンズの中に、可動なフォーカシングレンズを含み、フォーカシングレンズを動かすことにより、被写体に対する合焦状態の調節を可能としている。202はマイクロレンズアレイ(以下、MLAと記す)であり、複数のマイクロレンズから構成され、撮影レンズ201の焦点位置近傍に配置される。撮影レンズ201の異なる瞳領域を通過した光は、MLA202に入射し、瞳領域毎に分離して出射される。203は撮像素子であり、CCDやCMOSイメージセンサーなどで構成され、MLA202の焦点位置近傍に配置される。MLA 202と撮像素子203の詳細については後述する。   FIG. 2 is a block diagram of a digital camera as an imaging apparatus to which the image recording apparatus according to the first embodiment of the present invention is applied. Reference numeral 201 denotes a photographic lens, which is composed of a plurality of lenses (not shown). The plurality of lenses include a movable focusing lens, and the focusing state of the subject can be adjusted by moving the focusing lens. Reference numeral 202 denotes a microlens array (hereinafter referred to as MLA), which is composed of a plurality of microlenses and is arranged near the focal position of the photographing lens 201. Light that has passed through different pupil regions of the photographing lens 201 enters the MLA 202 and is emitted separately for each pupil region. Reference numeral 203 denotes an image sensor, which includes a CCD, a CMOS image sensor, or the like, and is disposed near the focal position of the MLA 202. Details of the MLA 202 and the image sensor 203 will be described later.

204はADコンバーターであり、撮像素子203から出力される画像信号をAD変換してデジタルデータにし、画像処理部205で、そのデジタルデータに所定の画像処理などを施し、被写体のデジタル画像データを得る。206は撮影制御部であり、画像処理部205で得られたデジタル画像データを、液晶ディスプレイなどで構成される表示部207に表示し、また記録部208への保存などの制御を行う。撮影制御部206は、そのCPUが図示しないメモリに記憶されているプログラムをロードして実行することにより各部の制御を行う。この場合、各部の機能の全部または一部をCPUが行ってもよいし、ハードウェアで構成してもよい。   An AD converter 204 AD-converts an image signal output from the image sensor 203 into digital data, and an image processing unit 205 performs predetermined image processing on the digital data to obtain digital image data of a subject. . Reference numeral 206 denotes a photographing control unit that displays the digital image data obtained by the image processing unit 205 on a display unit 207 configured with a liquid crystal display or the like, and controls storage in the recording unit 208. The imaging control unit 206 controls each unit by loading and executing a program stored in a memory (not shown) by the CPU. In this case, the CPU may perform all or part of the functions of each unit, or may be configured by hardware.

また、209は顔検知部であり、画像処理部205で得られたデジタル画像データの中から人物の顔を検出し、その画面内における位置と大きさを検出する。操作部210は、ボタンやタッチパネルなどといった、ユーザーからの操作を受け付ける部分であり、受け付けた操作に応じて、合焦動作の開始や、記録部208に保存されたデジタル画像データの再生、消去など、各種の動作を行う。また、撮影レンズ201は撮影制御部206と電気的、機械的に接続され、撮影制御部206では撮影レンズの情報を通信により取得できるほか、合焦動作の際はフォーカシングレンズの駆動命令などを送ることができる。   A face detection unit 209 detects a human face from the digital image data obtained by the image processing unit 205, and detects the position and size in the screen. The operation unit 210 is a part that accepts an operation from a user such as a button or a touch panel. In response to the accepted operation, the operation unit 210 starts a focusing operation, reproduces or erases digital image data stored in the recording unit 208, and the like. Various operations are performed. The photographing lens 201 is electrically and mechanically connected to the photographing control unit 206. The photographing control unit 206 can acquire information on the photographing lens by communication, and sends a focusing lens driving command and the like during the focusing operation. be able to.

次に、図2に示す撮像装置における、撮影レンズ201とMLA 202、撮像素子203の構成を説明する。   Next, the configuration of the taking lens 201, the MLA 202, and the image pickup device 203 in the image pickup apparatus shown in FIG. 2 will be described.

図3は、撮像素子203とMLA 202の構成を説明する図である。同図は、撮像素子203およびMLA202を、撮影レンズ201からの光軸に平行なz方向から見た図である。撮影画像の仮想的な画素300を構成する複数の単位画素301(光電変換素子)に対して1つのマイクロレンズ302が対応するように配置されている。マイクロレンズ302は、MLA 202を構成するものの中の一つである。ここでは、1つのマイクロレンズに対応する単位画素301が5行5列の計25個あるものとして記載した。同図に付記している座標軸は、光軸方向をz軸で示し、z軸に対して垂直な面を撮像面と平行な面とし、当該撮像面内においてx軸(水平方向)とy軸(垂直方向)を定義している。なお、図3は撮像素子203の受光面の一部を示し、実際の撮像素子には非常に多くの画素が配列されている。   FIG. 3 is a diagram illustrating the configuration of the image sensor 203 and the MLA 202. This figure shows the image sensor 203 and the MLA 202 as seen from the z direction parallel to the optical axis from the photographic lens 201. One microlens 302 is arranged so as to correspond to a plurality of unit pixels 301 (photoelectric conversion elements) constituting the virtual pixel 300 of the photographed image. The microlens 302 is one of those constituting the MLA 202. Here, it has been described that there are a total of 25 unit pixels 301 corresponding to one microlens in 5 rows and 5 columns. The coordinate axes attached to the figure indicate the optical axis direction as the z-axis, the plane perpendicular to the z-axis is a plane parallel to the imaging plane, and the x-axis (horizontal direction) and the y-axis in the imaging plane. (Vertical direction) is defined. FIG. 3 shows a part of the light receiving surface of the image sensor 203, and an actual image sensor has a great number of pixels arranged therein.

図4は、撮影レンズ201から出射された光束が1つのマイクロレンズ302を通過して撮像素子203で受光される様子を、光軸zに対して垂直な方向から見た図である。撮影レンズ201の各瞳領域a1〜a5から出射され、マイクロレンズ302を通過した光は、撮像素子203の対応する単位画素p1〜p5でそれぞれ結像する。 FIG. 4 is a view of a state in which a light beam emitted from the photographing lens 201 passes through one micro lens 302 and is received by the image sensor 203, as viewed from a direction perpendicular to the optical axis z. Light emitted from each of the pupil regions a 1 to a 5 of the photographing lens 201 and having passed through the micro lens 302 forms an image on the corresponding unit pixels p 1 to p 5 of the image sensor 203.

図5(a)は撮影レンズ201の開口を光軸(z軸)方向から見た図である。図5(b)は1つのマイクロレンズ302とその後方に配置された単位画素300を光軸(z軸)方向から見た図である。図5(a)に示すように、撮影レンズ201の瞳領域を1つのマイクロレンズ下にある画素と同数の領域に分割した場合、1つの画素には撮影レンズ201の1つの瞳分割領域からの光が結像されることになる。ただし、ここでは撮影レンズとマイクロレンズのFナンバーがほぼ一致しているものとする。図5(a)に示す撮影レンズの瞳分割領域をa11〜a55、図5(b)に示す画素をp11〜p55としたとき、両者の対応関係は光軸(z軸)方向から見て点対称となる。したがって、撮影レンズの瞳分割領域a11から出射した光はマイクロレンズ後方にある画素301のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のマイクロレンズを通過する光も、そのマイクロレンズ後方にある画素301の中の画素p11に結像する。 FIG. 5A is a view of the aperture of the photographing lens 201 as viewed from the optical axis (z-axis) direction. FIG. 5B is a view of one microlens 302 and the unit pixel 300 disposed behind the microlens 302 as seen from the optical axis (z-axis) direction. As shown in FIG. 5A, when the pupil region of the photographing lens 201 is divided into the same number of regions as the pixels under one microlens, one pixel is separated from one pupil division region of the photographing lens 201. Light is imaged. However, it is assumed here that the F-numbers of the photographing lens and the microlens are substantially the same. When the pupil division region of the photographic lens shown in FIG. 5A is a 11 to a 55 and the pixels shown in FIG. 5B are p 11 to p 55 , the correspondence between them is the optical axis (z-axis) direction. Point symmetry. Therefore, light emitted from the pupil division area a 11 of the taking lens of the pixel 301 at the back microlenses to form an image on the pixel p 11. Similarly, it emitted from the pupil division area a 11, light passing through the different micro lenses to form an image on the pixel p 11 in the pixel 301 in the microlens rear.

このように図5(b)に示すp11〜p55の画素は撮影レンズに対して互いに異なる瞳領域を通過した光を受光するため、これらの画素の出力を用いて焦点検出動作を行うこともできる。図6(a)に示すように、各マイクロレンズに対応する画素出力p11〜p55を加算し、次式に示すように水平方向に瞳分割された2つの信号を生成する。

Figure 0006298494
Figure 0006298494
As described above, since the pixels p 11 to p 55 shown in FIG. 5B receive light that has passed through different pupil regions with respect to the photographing lens, the focus detection operation is performed using the outputs of these pixels. You can also. As shown in FIG. 6A, the pixel outputs p 11 to p 55 corresponding to each microlens are added to generate two signals that are pupil-divided in the horizontal direction as shown in the following equation.
Figure 0006298494
Figure 0006298494

式1で示される合成信号Aは、図4に示すように、撮影レンズの射出瞳の領域a1〜a2を通過した光束を見ている。図6(b)に示すように、水平方向に連続して配置されたn個のマイクロレンズに対応する画素群から得られたA〜Aを並べれば、一次元像信号A(i=1,2,3…n)が得られる。同様に式2で計算される合成信号Bを並べた一次元像信号B(i=1,2,3…n)も生成すると、AとBは、それぞれ撮影レンズの射出瞳の右側と左側を見ている信号となる。このため、AとBの相対位置を検出し、その相対的なずれ量に対して所定の変換係数を乗じた結果に従って、位相差検出方式に基づく焦点検出動作を行うことができる。画面内の任意の位置でAとBを生成すれば、その位置での焦点位置を算出することができるため、算出結果に合わせてフォーカシングレンズを駆動することで自動焦点調節を行うことができる。 As shown in FIG. 4, the combined signal A expressed by Equation 1 looks at the light flux that has passed through the exit pupil areas a 1 to a 2 of the photographing lens. As shown in FIG. 6 (b), if we lined up the A 1 to A n obtained from the pixel group corresponding to the n-number of micro lenses arranged in succession in the horizontal direction, one-dimensional image signal A i (i = 1, 2, 3 ... n). Similarly, when a one-dimensional image signal B i (i = 1, 2, 3... N) in which the composite signal B calculated by Expression 2 is arranged is generated, A i and B i are respectively on the right side of the exit pupil of the photographing lens. And the signal looking to the left. Therefore, the focus detection operation based on the phase difference detection method can be performed according to the result of detecting the relative position of A i and B i and multiplying the relative shift amount by the predetermined conversion coefficient. If A i and B i are generated at an arbitrary position in the screen, the focal position at that position can be calculated. Therefore, automatic focusing can be performed by driving the focusing lens according to the calculation result. it can.

次に、撮影レンズ201、MLA 202、撮像素子203で取得したデジタル画像データを、任意に設定した合焦位置(リフォーカス面)での画像に再構成する処理に関して説明する。図7は、指定のリフォーカス面がz=0の場合と、z=dの場合の光線の様子を示したものである。図7の中央の画素に注目して考えると、z=0の場合はマイクロレンズからの射出光束は、それぞれ画素a3、b3、c3、3d、3eに入射する。従って、
[式3]
S3=a3+b3+c3+d3+e3
として、S3を仮想的な画素の出力として求めればよい。S3以外のS1などの画素に関しても同様である。
Next, processing for reconstructing digital image data acquired by the photographing lens 201, the MLA 202, and the image sensor 203 into an image at an arbitrarily set focus position (refocus plane) will be described. FIG. 7 shows the state of light rays when the designated refocus plane is z = 0 and z = d. Considering the central pixel in FIG. 7, when z = 0, the light flux emitted from the microlens enters the pixels a3, b3, c3, 3d, and 3e, respectively. Therefore,
[Formula 3]
S3 = a3 + b3 + c3 + d3 + e3
S3 may be obtained as an output of a virtual pixel. The same applies to pixels such as S1 other than S3.

次にレンズの絞りを絞った場合の画像を再構成したい場合は、絞り値に応じた撮影レンズの中央付近の領域のみの光束を用いればよいので、例えば
[式4]
S3=b3+c3+d3
とすれば、式3で得られるものよりも、絞ったときのz=0での再構成画像を得ることができ、
[式5]
S3=c3
とすれば、更に絞ったときのz=0での画像を、再構成できる。つまり、絞り込む方向の画像に関しては再構成することができる。
なお、ここでは説明のためx方向に並んだ5画素のみを例に説明したが、実際にはxy平面に画素が並んでいるので、2次元に同様の考え方を適用する。例えば、絞り開放の場合のS3は25個の画素出力の和となる。
Next, when it is desired to reconstruct an image when the aperture of the lens is stopped, it is only necessary to use a light beam only in a region near the center of the photographing lens according to the aperture value. For example, [Equation 4]
S3 = b3 + c3 + d3
Then, it is possible to obtain a reconstructed image at z = 0 when narrowed down than that obtained by Equation 3,
[Formula 5]
S3 = c3
Then, the image at z = 0 when further narrowed down can be reconstructed. That is, the image in the narrowing direction can be reconstructed.
Here, for the sake of explanation, only five pixels arranged in the x direction have been described as an example. However, since pixels are actually arranged in the xy plane, the same concept is applied in two dimensions. For example, S3 in the case of full aperture is the sum of 25 pixel outputs.

一方、z=dの場合は、z=dの面の射出光束はそれぞれ画素a1、b2、c3、d4、e5に入射するので、
[式6]
S3=a1+b2+c3+d4+e5
としてS3を生成すればよい。このように、リフォーカス面の位置z(リフォーカス位置)と再構成時の絞り値Fを決めれば、再構成画像を算出することができる。この式6をS3以外のほかの再構成画素にも適用すると、z=dの場合の再構成画像は以下の行列演算によって求めることができる。

Figure 0006298494
On the other hand, when z = d, the light flux emitted from the surface with z = d is incident on the pixels a1, b2, c3, d4, and e5, respectively.
[Formula 6]
S3 = a1 + b2 + c3 + d4 + e5
S3 may be generated as follows. Thus, if the position z (refocus position) of the refocus plane and the aperture value F at the time of reconstruction are determined, a reconstructed image can be calculated. When this equation 6 is applied to other reconstruction pixels other than S3, a reconstruction image in the case of z = d can be obtained by the following matrix calculation.
Figure 0006298494

つまり式7の意味するところは、再構成画像のリフォーカス面の位置zと再構成時の絞り値Fが分かっているならば、予め下記の変換マトリクスM

Figure 0006298494
を準備しておけば、全画素出力を行列にしたものにMを乗算するだけで、容易に再構成画像を得ることができる点である。 In other words, the expression 7 means that if the position z of the refocus plane of the reconstructed image and the aperture value F at the time of reconstruction are known, the following conversion matrix M
Figure 0006298494
Is prepared, a reconstructed image can be easily obtained simply by multiplying all pixel outputs in a matrix by M.

ここで、本実施例の記録動作を、図8のフローチャートを用いて説明する。本実施例の場合、この動作は、カメラの撮影制御部206の制御によって行われる。ステップS801でカメラ動作を開始したら、ステップS802でユーザーにより撮影前準備動作であるスイッチS1がONされるのを待つ。ここで撮影前準備動作とは、AE/AF動作のことであり、操作部209に含まれる操作部材をユーザーが操作することで、S1はONとなる。ここでは、一般のカメラなどで広く使用されている二段押し込み式の押しボタンスイッチが半押しされた場合をS1のON、全押しされた場合をS2のONとする。S1がONされたらステップS803へ進む。   Here, the recording operation of this embodiment will be described with reference to the flowchart of FIG. In the case of the present embodiment, this operation is performed under the control of the imaging control unit 206 of the camera. When the camera operation is started in step S801, it waits for the user to turn on the switch S1, which is a pre-shooting preparation operation, in step S802. Here, the pre-photographing preparation operation is an AE / AF operation, and S1 is turned on when the user operates an operation member included in the operation unit 209. Here, a case where a two-stage push-type push button switch widely used in a general camera or the like is half-pressed is set to ON of S1, and a case where it is fully pressed is set to ON of S2. If S1 is turned on, the process proceeds to step S803.

ステップS803〜S806は撮影前準備動作であるAE/AFを行うステップである。ステップS803ではAEを行う。AEは、所定の条件で取得した撮像素子203の出力信号レベルから画像の露出レベルを評価し、出力信号の飽和、黒潰れが極力発生しないような露出条件を決定する。なお、既に説明したように、絞り値が大きくなる方向(絞り込む方向)の再構成画像に関しては、式3乃至5に従って算出できるため、できるだけ絞りを開いた条件で撮影するのが望ましい。   Steps S803 to S806 are steps for performing AE / AF, which is a pre-shooting preparation operation. In step S803, AE is performed. The AE evaluates the exposure level of the image from the output signal level of the image sensor 203 acquired under a predetermined condition, and determines an exposure condition that minimizes the saturation of the output signal and blackout. As already described, the reconstructed image in the direction in which the aperture value increases (the direction in which the aperture is narrowed down) can be calculated according to Equations 3 to 5, and therefore it is desirable to shoot with the aperture open as much as possible.

S804〜S806ではAF動作を行う。既に図6の説明で述べたように、図2のカメラは画面内の任意の位置での合焦位置を算出することができる。よって、例えば図9(a)のように建物、人物、車がそれぞれ異なる距離に分布したような被写体に対して、画面を横9×縦7の63のブロックに分割してそれぞれ合焦位置を算出したとすると、図9(b)に示すデフォーカスマップを得ることができる。なお、図9(b)では、画面内の背景にあたる部分のデフォーカス量をdbとして示した。このようにデフォーカスマップを取得するのがステップS804である。   In S804 to S806, an AF operation is performed. As already described in the description of FIG. 6, the camera of FIG. 2 can calculate the in-focus position at an arbitrary position in the screen. Therefore, for example, as shown in FIG. 9A, for a subject in which buildings, persons, and cars are distributed at different distances, the screen is divided into 63 blocks of 9 × 7 in length, and the in-focus positions are set. If calculated, a defocus map shown in FIG. 9B can be obtained. In FIG. 9B, the defocus amount of the portion corresponding to the background in the screen is shown as db. In step S804, the defocus map is acquired in this way.

このようなデフォーカスマップに対し、デフォーカス量の値が近いブロックをグルーピングすることで、大まかな被写体の数を推定することができる(被写体検出手段)。また、顔検知部209により、画面内に人物の顔の存在が検出された場合には、その位置を知ることができる。よって、図9の例では、大きく分けてデフォーカス量がd1、d2、d3の位置に3つの被写体が存在し、またd2の位置の被写体は人物であることが分かる。そこで、本実施例では被写体に下記のルールで優先順位を付ける(優先順位手段)。
優先順位1. 顔(複数の顔が存在する場合は、検出した顔の大きさが大きい順に高い優先順位を付ける)
優先順位2. 顔以外の被写体には、デフォーカス量が至近寄りのものから順に高い優先順位を付ける
By grouping blocks with similar defocus values with respect to such a defocus map, the approximate number of subjects can be estimated (subject detection means). Further, when the face detection unit 209 detects the presence of a human face on the screen, the position can be known. Therefore, in the example of FIG. 9, it can be seen that there are three subjects at the positions where the defocus amounts are d1, d2, and d3, and the subject at the position of d2 is a person. Therefore, in this embodiment, priority is given to the subject according to the following rules (priority means).
Priority 1. Faces (If there are multiple faces, prioritize them in descending order of detected face size)
Priority 2. Prioritize subjects other than the face in descending order of defocus amount.

このルールを適用すると、図9の例では、デフォーカスd2の人物が最も優先順位の高い被写体となり、次に顔ではないが至近側にあるデフォーカスd1の車、最後にデフォーカスd3の建物となる。このように、デフォーカスマップから被写体を特定し、特定した被写体に対して優先順位を付けるのがステップS805である。なお、ここでは人物の顔を優先する思想の優先順位付けルールを示したが、これは一例であり、この限りではない。また、優先順位付けのルールの代わりに、あるいはルールに優先して、スイッチ等により手動で優先順位付けできるようにしてもよい。   When this rule is applied, in the example of FIG. 9, the person with the defocus d2 is the subject with the highest priority, the next is not the face but the defocus d1 car on the closest side, and finally the defocus d3 building. Become. In this way, in step S805, the subject is identified from the defocus map, and the priority order is assigned to the identified subject. In addition, although the prioritization rule of the thought which gives priority to a person's face was shown here, this is an example and is not this limitation. Further, the priority order may be manually set by a switch or the like instead of the priority ordering rule or prior to the rule.

ステップS806では、優先順位付けにより最優先となった人物に合焦するよう、デフォーカス量d2だけフォーカシングレンズを駆動し、AF動作を完了する。そしてS807で、ユーザーによりS2がONされるまで待ち、S2がONされたら撮影動作を行うステップS808以降の動作を行なう。   In step S806, the focusing lens is driven by the defocus amount d2 so as to focus on the person who is given the highest priority by prioritization, and the AF operation is completed. In step S807, the process waits until S2 is turned on by the user, and when S2 is turned on, the operation after step S808 is performed.

ステップS808では、撮影の直前に再度デフォーカスマップ(撮影情報)を取得する動作を行う。ステップS806で人物に合焦するようフォーカシングレンズを駆動したため、この時点でのデフォーカスマップを取得すると、図9(c)のように人物部分のデフォーカス量は0となり、車の部分はd11、建物の部分はd33とそれぞれ変化する。なお、図9(c)では、画面内の背景にあたる部分のデフォーカス量をdbbとして示した。   In step S808, an operation of acquiring a defocus map (shooting information) again immediately before shooting is performed. Since the focusing lens is driven to focus on the person in step S806, when the defocus map at this time is acquired, the defocus amount of the person part becomes 0 and the car part is d11, as shown in FIG. 9C. The part of the building changes with d33. In FIG. 9C, the defocus amount of the portion corresponding to the background in the screen is shown as dbb.

それぞれの被写体のデフォーカス量が取得できたら、最後にステップS809で撮像動作を行い、撮像データに各被写体へフォーカスした再構成画像を得るためのパラメーターを生成してメタデータとして付与する(パラメーター生成手段)。再構成画像の絞り値に関しては、絞り込む方向に関してはユーザーの意思によって後から変更が可能なため、撮影完了時点で記録するパラメーターの絞り値(撮影情報)は撮影時のFであるとする。また、ステップS805で優先順位付けした順に、各被写体に合焦した画像を生成できる変換マトリクスMを、撮影した画像に付与する。すなわち、人物に合焦した画像を再構成できる変換マトリクスM1(デフォーカス量0、絞り値Fの再構成画像を生成する変換マトリクス)を第一位の優先順位として付与する。第二位は、車に合焦した画像を再構成出来る変換マトリクスM2(デフォーカス量d11、絞り値Fの再構成画像を生成する変換マトリクス)である。第三位は、建物に合焦した画像を再構成出来る変換マトリクスM3(デフォーカス量d33、絞り値Fの再構成画像を生成する変換マトリクス)となり、結果として図1のように画像のメタデータとして付与する。なお、変換マトリクスは比較的データ量が大きいため、変換マトリクスの代わりに、変換マトリクス生成のために必要になるリフォーカス面の位置(デフォーカス量)と絞り値のみを優先順位の順にメタデータに記憶してもよい。この場合、第一位はデフォーカス0、絞り値F、第二位はデフォーカス量d11と絞り値F、第三位はデフォーカス量d33と絞り値Fを、それぞれパラメーターとして画像に付与することになる。撮影画像のデータと、上述のように被写体に関連付けられて生成されたリフォーカスのためのメタデータを記録したら、撮影動作を終了する。   When the defocus amount of each subject has been acquired, the imaging operation is finally performed in step S809, and parameters for obtaining a reconstructed image focused on each subject are generated and added as metadata to the imaging data (parameter generation). means). Regarding the aperture value of the reconstructed image, the aperture value of the parameter to be recorded (imaging information) at the time of completion of imaging is assumed to be F at the time of imaging because the direction of narrowing can be changed later according to the user's intention. In addition, a conversion matrix M that can generate an image focused on each subject is added to the captured image in the order in which the priorities are set in step S805. That is, a conversion matrix M1 (a conversion matrix that generates a reconstructed image with a defocus amount of 0 and an aperture value F) that can reconstruct an image focused on a person is assigned as the first priority. The second rank is a conversion matrix M2 (a conversion matrix that generates a reconstructed image with a defocus amount d11 and an aperture value F) that can reconstruct an image focused on the car. The third place is a conversion matrix M3 (a conversion matrix for generating a reconstructed image with a defocus amount d33 and an aperture value F) that can reconstruct an image focused on a building, and as a result, image metadata as shown in FIG. As given. Since the conversion matrix has a relatively large amount of data, instead of the conversion matrix, only the position of the refocus plane (defocus amount) and aperture value required for generating the conversion matrix are converted into metadata in order of priority. You may remember. In this case, the first position is defocused 0 and aperture value F, the second position is defocus amount d11 and aperture value F, and the third position is defocus amount d33 and aperture value F as parameters. become. When the photographed image data and the refocus metadata generated in association with the subject as described above are recorded, the photographing operation is terminated.

以上、本発明の記録装置をデジタルカメラである撮像装置を例にして説明したが、これに限るものではない。例えば、カメラから画像データとメタデータを外部に出力して記録する構成であってもよい。また、画像データとメタデータのための情報だけを撮影時に着脱式の記録媒体に保存しておき、そのPC等の処理装置で、顔検出、優先順位の設定、タグデータの付与を行なって記録する構成とすることも可能である。   Although the recording apparatus of the present invention has been described by taking the image pickup apparatus that is a digital camera as an example, the present invention is not limited to this. For example, the image data and metadata may be output from the camera and recorded. Also, only the information for image data and metadata is stored in a removable recording medium at the time of shooting, and the face is detected, priority is set, and tag data is added and recorded by a processing device such as a PC. It is also possible to adopt a configuration.

第1の実施例では、撮影画像データに画像再構成用のパラメーターをメタデータに付加して記録する構成を説明した。第2の実施例では、第1の実施例に従って記録された、再構成可能な画像データをユーザーが閲覧し、その際にリフォーカスおよび絞り値を変更できる編集作業を可能とする画像再生装置を説明する。本実施例では、図11に示すようなインターフェースを持つPCにより、図10のフローチャートに従ったアプリケーションにより再構成画像を表示、編集する例を示す。また再生される画像データは、図9に示す被写体を撮影した画像データがあるとする。この画像は、第1の実施例で説明したように、人物に合焦した画像を再構成できる変換マトリクスM1を第一位として、図1に示すように画像のメタデータとして付与された画像である。また同様に、車に合焦した画像を再構成できる変換マトリクスM2を第二位に、建物に合焦した画像を再構成できる変換マトリクスM3は第三位として、画像のメタデータとして付与されている。   In the first embodiment, the configuration in which the parameters for image reconstruction are added to the captured image data and recorded in the metadata has been described. In the second embodiment, there is provided an image reproduction apparatus that enables an editing operation that allows a user to browse reconfigurable image data recorded according to the first embodiment and change the refocus and aperture value at that time. explain. In this embodiment, an example in which a reconstructed image is displayed and edited by an application according to the flowchart of FIG. 10 on a PC having an interface as shown in FIG. Further, it is assumed that the reproduced image data includes image data obtained by photographing the subject shown in FIG. As described in the first embodiment, this image is an image given as metadata of an image as shown in FIG. 1 with a conversion matrix M1 that can reconstruct an image focused on a person as the first place. is there. Similarly, the conversion matrix M2 that can reconstruct an image focused on a car is second, and the conversion matrix M3 that can reconstruct an image focused on a building is third, and is given as image metadata. Yes.

図10は第2の実施例に係わる画像再生動作のフローチャートである。本実施例の場合、上述のように、本動作はPCのCPUがアプリケーションプログラムを実行してPCの各部、例えば表示部などを制御することで行なわれる。   FIG. 10 is a flowchart of the image reproduction operation according to the second embodiment. In the case of the present embodiment, as described above, this operation is performed by the PC CPU executing an application program to control each part of the PC, for example, the display unit.

まず、ステップS1002において、ユーザーにより再構成可能な画像データの再生要求がユーザーから与えられるのを待つ。そして再生要求があった場合には、ステップS1003へ進み、再生要求のあった画像およびそのメタデータを取得する。ここで、画像データおよびメタデータは、第1の実施例に係わる記録装置で記録されたデータであり、当該記録装置から直接、あるいは着脱式の記録媒体等を介して提供されたデータである。   First, in step S1002, it waits for a user to give a reproduction request for image data that can be reconfigured by the user. If there is a reproduction request, the process advances to step S1003 to acquire the image requested for reproduction and its metadata. Here, the image data and the metadata are data recorded by the recording apparatus according to the first embodiment, and are data provided directly from the recording apparatus or via a detachable recording medium.

図11に示すPCアプリケーションのインターフェースは、大きく左右に分けられ、右側は複数の再構成画像を表示する領域112であるとする。ステップS1003でメタデータ内の再構成パラメーターを読み込み、読み込んだ再構成パラメーター(変換マトリクスM1、M2、M3)に基づいて再構成した画像を、優先順位の順番に上から表示するのがステップS1004、S1005である。この場合、最も優先順位の高い被写体である人物に合焦した再構成画像が画面右側の一番上に表示され、その下に優先順位第二位の車に合焦した再構成画像が、さらにその下に優先順位第三位の建物に合焦した再構成画像が表示されることになる。なお、画面のスペース表示の関係上、再構成画像表示エリア112に表示可能な再構成画像の枚数がn枚(ただしn≧1)に限られている場合は、メタデータに記憶された変換マトリクスのうち、上位n位による再構成画像を表示エリアに表示することになる。   The interface of the PC application shown in FIG. 11 is roughly divided into left and right, and the right side is an area 112 for displaying a plurality of reconstructed images. In step S1003, the reconstruction parameters in the metadata are read, and the images reconstructed based on the read reconstruction parameters (conversion matrices M1, M2, M3) are displayed from the top in order of priority. S1005. In this case, the reconstructed image focused on the person who is the subject with the highest priority is displayed at the top of the right side of the screen, and the reconstructed image focused on the car with the second highest priority is further displayed below it. Below that, a reconstructed image focused on the third highest priority building is displayed. When the number of reconstructed images that can be displayed in the reconstructed image display area 112 is limited to n (where n ≧ 1) due to the screen space display, the conversion matrix stored in the metadata Among them, the reconstructed image with the top n is displayed in the display area.

メタデータ内に記憶された再構成パラメーターに基づく再構成画像を表示したら、次にユーザーからのリフォーカス、もしくは絞り値を変更する編集指示を待つステップS1006へ進む。このステップで編集指示が行われなかった場合はステップS1007へ進み、シーケンスを終了する。一方、編集指示が行われた場合は、以下のように動作する。すなわち図11の左側は、編集している画像を表示する編集エリア110になっている。編集エリアでは、再生している画像とリフォーカス面、絞り値を編集するためのインターフェースが存在し、ユーザーが2本のゲージを左右にドラッグすることで、リフォーカス面と絞り値の変更を指示できる。ゲージが操作されるたびに、ゲージに対応した再構成画像を生成するための変換マトリクスが算出され、ステップS1008で編集後の再構成画像を生成、表示する。これにより、ユーザーの指示を画像に反映して表示することが可能となる。   If the reconstructed image based on the reconstructed parameter stored in the metadata is displayed, the process advances to step S1006 to wait for an edit instruction for changing the refocus or aperture value from the user. If no editing instruction is given in this step, the process advances to step S1007 to end the sequence. On the other hand, when an editing instruction is given, the operation is as follows. That is, the left side of FIG. 11 is an editing area 110 that displays the image being edited. In the editing area, there is an interface for editing the image being played, the refocus plane, and the aperture value. The user can drag the two gauges left and right to instruct the refocus plane and aperture value to be changed. it can. Each time the gauge is operated, a conversion matrix for generating a reconstructed image corresponding to the gauge is calculated, and a reconstructed image after editing is generated and displayed in step S1008. As a result, the user's instruction can be reflected and displayed on the image.

ユーザーがリフォーカス面や絞り値の編集を行い、編集後の再構成画像を保存したいと判断した場合には、ステップS1009で、編集後画像の保存要求をする。保存要求があった場合には、その編集後の画像の優先順位の入力(設定)もユーザーに要求し(優先順位設定手段)、その優先順位に従って、ステップS1011においてステップS1008で生成した変換マトリクスを画像データのメタデータ部に追記する。それと同時に、図11の再構成画像表示エリア112の優先順位に応じた位置に、編集後の画像を表示して本実施例の動作を終了する。   If the user edits the refocus plane or aperture value and determines that the edited reconstructed image is to be saved, a request is made to save the edited image in step S1009. When there is a storage request, the user is also requested to input (set) the priority order of the edited image (priority setting means), and the conversion matrix generated in step S1008 in step S1011 is determined according to the priority order. Add to the metadata part of the image data. At the same time, the edited image is displayed at a position corresponding to the priority order of the reconstructed image display area 112 in FIG. 11, and the operation of this embodiment is terminated.

例えば、画像再生初期には優先順位一位としてメタデータに記憶されていた人物に合焦した再構成画像が、厳密には人物の耳に合焦した画像であったとする。これに対してユーザーが編集により、人物の目に合焦した画像を再構成し、この変換マトリクスを優先順位一位として保存したとする。この場合は、人物の目に合焦した再構成画像が優先順位一位となったので、元々メタデータに保存されていた再構成画像の優先順位は一つずつ下位にシフトされる。その結果、優先順位二位が人物の耳に合焦した画像、優先順位三位が車に合焦した画像、優先順位四位が建物に合焦した画像となる。なお、再構成画像表示エリア112にある画像の並び順をユーザーが入れ替えたり、あるいは画像を削除した場合も、優先順位の変更を行うことができるようにしてもよい。この場合、入れ替えや削除に連動して最新の優先順位を再計算し、メタデータに書き込まれた再構成画像生成用の変換マトリクスも、再計算後の優先順位に合わせて書き換わることになる。   For example, it is assumed that the reconstructed image focused on the person stored in the metadata with the highest priority in the initial stage of image reproduction is strictly an image focused on the ear of the person. On the other hand, it is assumed that the user reconstructs an image focused on a person's eyes by editing, and stores this conversion matrix with the highest priority. In this case, since the reconstructed image focused on the eyes of the person has the highest priority, the priority of the reconstructed image originally stored in the metadata is shifted down by one. As a result, the second priority is the image focused on the person's ear, the third priority is the image focused on the car, and the fourth priority is the image focused on the building. Note that the priority order may be changed even when the user changes the order of the images in the reconstructed image display area 112 or deletes the images. In this case, the latest priority order is recalculated in conjunction with the replacement or deletion, and the conversion matrix for generating the reconstructed image written in the metadata is also rewritten according to the priority order after the recalculation.

なお、本実施例では、PCでのアプリケーションによる画像データの再生、編集動作を例にして説明したが、本発明の実施形態はこれに限るものではない。例えば、第1の実施例に係わる撮像装置の撮影制御部206のCPUがプログラムを実行して表示部207等の各部を制御して行われる再生動作として実現してもよい。また、表示機能を有するPC以外の機器での画像処理機能として実現してもよいことは言うまでもない。   In the present embodiment, the reproduction and editing operation of image data by an application on a PC has been described as an example, but the embodiment of the present invention is not limited to this. For example, it may be realized as a reproduction operation performed by the CPU of the imaging control unit 206 of the imaging apparatus according to the first embodiment executing a program and controlling each unit such as the display unit 207. Needless to say, it may be realized as an image processing function in a device other than a PC having a display function.

上述した本発明の第1及び第2の実施例によれば、素早く希望する合焦状態のリフォーカス画像を再構成して表示することを可能とする画像データを、記録データとして提供することが可能となると供に、その有効利用の可能性を広げることが可能となる。   According to the above-described first and second embodiments of the present invention, it is possible to provide image data that can quickly reconstruct and display a refocus image in a desired focused state as recording data. As soon as it becomes possible, the possibility of effective use can be expanded.

ここで、図12を用いて本実施例に適用可能な他の光学系の例について説明する。図12は、物体(被写体)からの光線が撮像素子206上に結像する状態を模式的に示した図である。図12(a)は図2〜4で説明した光学系と対応しており、撮影光学系の結像面近傍にMLA202を配置した例である。図12(b)は撮影光学系の結像面よりも物体寄りにMLA202を配置した例である。図12(c)は撮影光学系の結像面よりも物体から遠い側にMLA202を配置した例である。同図において、既に説明した図に示されている部分は同じ符号を付して示す。   Here, an example of another optical system applicable to the present embodiment will be described with reference to FIG. FIG. 12 is a diagram schematically illustrating a state in which light rays from an object (subject) form an image on the image sensor 206. FIG. 12A corresponds to the optical system described with reference to FIGS. 2 to 4, and is an example in which the MLA 202 is disposed in the vicinity of the imaging surface of the photographing optical system. FIG. 12B shows an example in which the MLA 202 is arranged closer to the object than the imaging plane of the photographing optical system. FIG. 12C shows an example in which the MLA 202 is arranged on the side farther from the object than the imaging plane of the photographing optical system. In the figure, the parts shown in the already described figures are denoted by the same reference numerals.

図12において、1200は物体平面を、1200a,1200bは物体上の適当な点を、a〜aは撮影光学系の瞳平面を、1201〜1209はMLA上の特定のマイクロレンズをそれぞれ示している。図12(b)および(c)に示した203aは仮想的な撮像素子を、202aは仮想的なMLAを示している。これらは、図12(a)との対応関係を明確にするために参考に示した。また、物体上の点1200aから出て瞳平面上の領域aおよびaを通過する光束を実線で、物体上の点1200bから出て瞳平面上の領域aおよびaを通過する光束を破線で図示した。 12, 1200 the object plane, 1200a, 1200 b is an appropriate point on the object, a 1 ~a 5 is a pupil plane of the photographing optical system, from 1201 to 1209 are respectively the specific microlens on MLA ing. In FIGS. 12B and 12C, 203a indicates a virtual image sensor, and 202a indicates a virtual MLA. These are shown for reference in order to clarify the correspondence with FIG. Further, the light beams passing through the regions a 1 and a 3 on the pupil plane out 1200a point on the object by the solid line, the light beams passing through the regions a 1 and a 3 on the pupil plane out 1200b point on the object Is shown by a broken line.

図12(a)の例では、撮影光学系の結像面近傍にMLA203を配置することで、撮像素子203と撮影光学系の瞳平面1210が共役の関係にある。さらに、物体平面1200とMLA202が共役の関係にある。このため物体上の点1200aから出た光束はマイクロレンズ1201に、1200bを出た光束はマイクロレンズ1202に到達し、領域aからaそれぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。 In the example of FIG. 12A, the MLA 203 is disposed in the vicinity of the imaging plane of the photographing optical system, so that the imaging element 203 and the pupil plane 1210 of the photographing optical system are in a conjugate relationship. Furthermore, the object plane 1200 and the MLA 202 are in a conjugate relationship. The microlens 1201 light beam emitted from 1200a point on this for the object, each light beam exiting the 1200b reaches the microlens 1202, the light beam from the region a 1 has passed through a 5 respectively provided under the microlens The corresponding pixel is reached.

図12(b)の例では、MLA202で撮影光学系からの光束を結像させ、その結像面に撮像素子203を設ける。このように配置することで、物体平面1200と撮像素子203は共役の関係にある。物体上の点1200aから出で瞳平面上の領域aを通過した光束はマイクロレンズ1203に到達し、物体上の点1200aから出で瞳平面上の領域aを通過した光束はマイクロレンズ1204に到達する。物体上の点1200bから出で瞳平面上の領域aを通過した光束はマイクロレンズ1204に到達し、物体上の点1200bから出で瞳平面上の領域aを通過した光束はマイクロレンズ1205に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面203a上の位置に並べなおせば、図12(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。 In the example of FIG. 12B, the MLA 202 forms an image of a light beam from the photographing optical system, and the image sensor 203 is provided on the image formation surface. By arranging in this way, the object plane 1200 and the image sensor 203 are in a conjugate relationship. The light flux having passed through the region a 1 on the pupil plane out 1200a point on the object reaches the microlens 1203, the light flux having passed through the region a 3 on the pupil plane out 1200a point on the object microlens 1204 To reach. The light flux having passed through the region a 1 on the pupil plane out 1200b point on the object reaches the microlens 1204, the light flux having passed through the region a 3 on the pupil plane out 1200b point on the object microlens 1205 To reach. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. In this way, images are formed at different positions depending on the point on the object and the passing area on the pupil plane. If these are rearranged at positions on the virtual imaging surface 203a, the same information as in FIG. 12A can be obtained. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図12(c)の例では、MLA202で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子203を設ける。このように配置することで、物体平面1200と撮像素子203は共役の関係にある。物体上の点1200aから出で瞳平面上の領域aを通過した光束はマイクロレンズ1207に到達し、物体上の点1200aから出で瞳平面上の領域aを通過した光束はマイクロレンズ1206に到達する。物体上の点1200bから出で瞳平面上の領域aを通過した光束はマイクロレンズ1209に到達し、物体上の点1200bから出で瞳平面上の領域aを通過した光束はマイクロレンズ1208に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図12(b)と同様に、仮想的な撮像面203a上の位置に並べなおせば、図12(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。 In the example of FIG. 12 (c), the MLA 202 re-images the light beam from the imaging optical system (this is called re-imaging because the imaged light beam once diffused is imaged), An image sensor 203 is provided on the image plane. By arranging in this way, the object plane 1200 and the image sensor 203 are in a conjugate relationship. The light flux having passed through the region a 1 on the pupil plane out 1200a point on the object reaches the microlens 1207, the light flux having passed through the region a 3 on the pupil plane out 1200a point on the object microlens 1206 To reach. The light flux having passed through the region a 1 on the pupil plane out 1200b point on the object reaches the microlens 1209, the light flux having passed through the region a 3 on the pupil plane out 1200b point on the object microlens 1208 To reach. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. Similar to FIG. 12B, information similar to that in FIG. 12A can be obtained by rearranging the positions on the virtual imaging surface 203a. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図12ではMLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。   FIG. 12 shows an example in which the position information and the angle information can be acquired using the MLA (phase modulation element) as the pupil dividing means. However, the position information and the angle information (equivalent to limiting the passing area of the pupil) are shown. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system can be used.

図8および10に示した各処理は、上述のように各処理の機能を実現する為のプログラムを不図示のメモリから読み出して撮像装置のCPUなどが実行することによりその機能を実現させるものである。   Each of the processes shown in FIGS. 8 and 10 is realized by reading a program for realizing the function of each process from a memory (not shown) and executing it by the CPU of the imaging apparatus as described above. is there.

しかし、本発明は上述した構成に限定されるものではなく、図8及び10に示した各処理の全部または一部の機能を専用のハードウェアにより実現してもよい。また、上述したメモリは、コンピュータ読み取り、書き込み可能な記録媒体より構成されてもよい。例えば、光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記録媒体、RAM以外の揮発性のメモリ、あるいはこれらの組合せにより構成された記録媒体である。   However, the present invention is not limited to the above-described configuration, and all or some of the functions shown in FIGS. 8 and 10 may be realized by dedicated hardware. The memory described above may be configured by a computer-readable / writable recording medium. For example, a non-volatile memory such as a magneto-optical disk device or flash memory, a recording medium such as a CD-ROM that can only be read, a volatile memory other than a RAM, or a recording medium composed of a combination thereof. .

また、図8および10に示した各処理の機能を実現する為のプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた場合も含む。この場合、書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   Further, a program for realizing the functions of the processes shown in FIGS. 8 and 10 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Each process may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, this includes a case where a program read from a storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, after being written, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing. Is done.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)も含む。このように、一定時間プログラムを保持しているものも「コンピュータ読み取り可能な記録媒体」に含むものとする。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” includes a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Thus, what holds a program for a certain period of time is also included in the “computer-readable recording medium”.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現する為のものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。   A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (22)

画像データに対応する画像を再生する画像再生装置であって、
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、
前記仮想的な絞り値を設定する設定手段と、
前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、
前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御手段は、前記生成手段により生成された複数の画像を同時に表示することを特徴とする画像再生装置。
An image reproduction device for reproducing an image corresponding to image data,
Generating means for generating an image corresponding to a virtual aperture value by reconstructing image data;
Setting means for setting the virtual aperture value;
Display control means for displaying an image corresponding to the virtual aperture value generated by the generation means on a display unit,
The display control means displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting means,
The image reproduction apparatus, wherein the display control means simultaneously displays a plurality of images generated by the generation means.
前記画像データは、メタデータに前記画像データ内の被写体のデフォーカスに関する情報が含まれることを特徴とする請求項1に記載の画像再生装置。The image reproducing apparatus according to claim 1, wherein the image data includes information related to defocusing of a subject in the image data in metadata. 前記グラフィックユーザインターフェースは、ドラッグ操作に応じて前記設定手段に指示する前記仮想的な絞り値を変更することを特徴とする請求項1又は2に記載の画像再生装置。   The image reproducing apparatus according to claim 1, wherein the graphic user interface changes the virtual aperture value instructed to the setting unit in response to a drag operation. 前記グラフィックユーザインターフェースは、表示されるバー上でゲージをドラッグすることで前記設定手段に指示する前記仮想的な絞り値を変更することを特徴とする請求項3に記載の画像再生装置。   The image reproducing apparatus according to claim 3, wherein the graphic user interface changes the virtual aperture value instructed to the setting unit by dragging a gauge on a displayed bar. 前記バーは、表示される画像に対して左右に伸び、左に前記ゲージが位置するほど小さい絞り値を示すことを特徴とする請求項4に記載の画像再生装置。   The image reproducing apparatus according to claim 4, wherein the bar extends left and right with respect to the displayed image, and indicates a smaller aperture value as the gauge is positioned on the left. 前記生成手段は、前記ドラッグ操作の距離に応じて変更された前記仮想的な絞り値に対応する画像を生成し、
前記表示制御手段は、前記ドラッグ操作の前記距離に応じて前記生成手段によって生成された前記画像を表示することを特徴とする請求項3に記載の画像再生装置。
The generating unit generates an image corresponding to the virtual aperture value changed according to the distance of the drag operation;
The image reproduction apparatus according to claim 3, wherein the display control unit displays the image generated by the generation unit in accordance with the distance of the drag operation.
前記生成手段は、前記ゲージが操作されるたびに前記ゲージに対応する前記仮想的な絞り値の画像を生成し、
前記表示制御手段は、前記生成手段によって生成された、前記ゲージに対応する前記仮想的な絞り値の前記画像を表示することを特徴とする請求項4に記載の画像再生装置。
The generating means generates an image of the virtual aperture value corresponding to the gauge every time the gauge is operated,
The image reproduction apparatus according to claim 4, wherein the display control unit displays the image of the virtual aperture value corresponding to the gauge generated by the generation unit.
前記グラフィックユーザインターフェースは、画像とは重ねずに表示することを特徴とする請求項1乃至7のいずれか1項に記載の画像再生装置。   The image reproducing apparatus according to claim 1, wherein the graphic user interface displays the image without overlapping the image. 前記画像データは、複数の視点から撮像された画像データであることを特徴とする請求項1乃至8のいずれか1項に記載の画像再生装置。   The image reproducing apparatus according to claim 1, wherein the image data is image data captured from a plurality of viewpoints. 前記画像データは、複数のマイクロレンズと、前記複数のマイクロレンズの各々にそれぞれ複数割り当てられた光電変換素子とを有する撮像手段によって撮像された画像データであることを特徴とする請求項1乃至9のいずれか1項に記載の画像再生装置。   The image data is image data captured by an imaging unit having a plurality of microlenses and a plurality of photoelectric conversion elements respectively assigned to the plurality of microlenses. The image reproducing device according to any one of the above. 前記生成手段は、前記仮想的な絞り値に応じて前記画像データの画素を選択して用いて、前記仮想的な絞り値に対応する画像を生成することを特徴とする請求項1乃至10のいずれか1項に記載の画像再生装置。   The said generation | production means produces | generates the image corresponding to the said virtual aperture value by selecting and using the pixel of the said image data according to the said virtual aperture value. The image reproducing device according to any one of the preceding claims. 前記生成手段によって再構成され生成される画像は、前記画像データの撮影時の焦点位置とは異なる焦点位置を含む複数の焦点位置のいずれかに合焦する画像であることを特徴とする請求項1乃至11のいずれか1項に記載の画像再生装置。   The image reconstructed and generated by the generation unit is an image focused on one of a plurality of focal positions including a focal position different from a focal position at the time of photographing the image data. The image reproduction device according to any one of 1 to 11. 前記生成手段は、複数の焦点位置のいずれかと前記仮想的な絞り値とで決まる、対応する画素の出力を組み合わせて加算することで前記画像データを再構成し画像を生成することを特徴とする請求項1乃至12のいずれか1項に記載の画像再生装置。   The generation unit reconstructs the image data and generates an image by combining and adding outputs of corresponding pixels determined by any one of a plurality of focal positions and the virtual aperture value. The image reproducing device according to claim 1. 前記画像データは、メタデータに前記画像データの撮影時の絞り値の情報が含まれることを特徴とする請求項1乃至13のいずれか1項に記載の画像再生装置。   14. The image reproducing apparatus according to claim 1, wherein the image data includes information on an aperture value at the time of photographing the image data in metadata. 前記表示制御手段は、前記生成手段により生成された複数の画像を並べて表示することを特徴とする請求項1に記載の画像再生装置。   The image reproduction apparatus according to claim 1, wherein the display control unit displays a plurality of images generated by the generation unit side by side. 前記表示制御手段は、前記生成手段により生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、並べて表示することを特徴とする請求項1に記載の画像再生装置。   The display control unit displays the plurality of images generated by the generation unit side by side in accordance with the priority order recorded together with the image data used to generate the plurality of images. The image reproducing device described. 画像データに対応する画像を再生する画像再生装置であって、
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、
前記仮想的な絞り値を設定する設定手段と、
前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、
前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御手段は、前記生成手段により生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置。
An image reproduction device for reproducing an image corresponding to image data,
Generating means for generating an image corresponding to a virtual aperture value by reconstructing image data;
Setting means for setting the virtual aperture value;
Display control means for displaying an image corresponding to the virtual aperture value generated by the generation means on a display unit,
The display control means displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting means,
The image reproduction apparatus, wherein the display control means simultaneously displays a plurality of images generated by the generation means in accordance with a priority order recorded together with image data used to generate the plurality of images.
画像データに対応する画像を再生する画像再生装置の制御方法であって、
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、
前記仮想的な絞り値を設定する設定ステップと、
前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、
前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を同時に表示することを特徴とする画像再生装置の制御方法。
A control method of an image playback device for playing back an image corresponding to image data,
A generation step of generating an image corresponding to a virtual aperture value by reconstructing the image data;
A setting step for setting the virtual aperture value;
A display control step of displaying the image corresponding to the virtual aperture value generated in the generation step on a display unit,
In the display control step, an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step are displayed.
In the display control step, a plurality of images generated in the generation step are simultaneously displayed.
前記画像データは、メタデータに前記画像データ内の被写体のデフォーカスに関する情報が含まれることを特徴とする請求項18に記載の画像再生装置の制御方法。19. The method of controlling an image reproducing device according to claim 18, wherein the image data includes information related to defocusing of a subject in the image data in metadata. 画像データに対応する画像を再生する画像再生装置の制御方法であって、
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、
前記仮想的な絞り値を設定する設定ステップと、
前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、
前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置の制御方法。
A control method of an image playback device for playing back an image corresponding to image data,
A generation step of generating an image corresponding to a virtual aperture value by reconstructing the image data;
A setting step for setting the virtual aperture value;
A display control step of displaying the image corresponding to the virtual aperture value generated in the generation step on a display unit,
In the display control step, an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step are displayed.
In the display control step, the plurality of images generated in the generation step are simultaneously displayed according to the priority order recorded together with the image data used to generate the plurality of images. Control method.
請求項18乃至20のいずれか1項に記載の画像再生装置の制御方法の手順が記述されたコンピュータで実行可能なプログラム。   21. A computer-executable program in which a procedure of a control method for an image reproduction device according to claim 18 is described. コンピュータに、請求項18乃至20のいずれか1項に記載の画像再生装置の制御方法の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   21. A computer-readable storage medium storing a program for causing a computer to execute each step of the method for controlling an image reproduction device according to claim 18.
JP2016134931A 2016-07-07 2016-07-07 Image reproducing apparatus and control method thereof Active JP6298494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016134931A JP6298494B2 (en) 2016-07-07 2016-07-07 Image reproducing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016134931A JP6298494B2 (en) 2016-07-07 2016-07-07 Image reproducing apparatus and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012136391A Division JP5968102B2 (en) 2012-06-15 2012-06-15 Image recording apparatus and image reproducing apparatus

Publications (2)

Publication Number Publication Date
JP2016178706A JP2016178706A (en) 2016-10-06
JP6298494B2 true JP6298494B2 (en) 2018-03-20

Family

ID=57070370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016134931A Active JP6298494B2 (en) 2016-07-07 2016-07-07 Image reproducing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6298494B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289383A (en) * 2003-03-20 2004-10-14 Seiko Epson Corp Image pickup device, image data generating device, image data processor, and image data processing program
JP4799366B2 (en) * 2006-10-27 2011-10-26 三洋電機株式会社 Imaging apparatus and image reproduction apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2011048341A (en) * 2009-07-27 2011-03-10 Panasonic Corp Image capturing apparatus
JP2012027408A (en) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd Electronic equipment
JP5609425B2 (en) * 2010-08-24 2014-10-22 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP5875839B2 (en) * 2011-11-21 2016-03-02 オリンパス株式会社 Plenoptic camera

Also Published As

Publication number Publication date
JP2016178706A (en) 2016-10-06

Similar Documents

Publication Publication Date Title
JP5968102B2 (en) Image recording apparatus and image reproducing apparatus
JP6341736B2 (en) Imaging apparatus, control method, program, storage medium
JP6546474B2 (en) Image pickup apparatus and control method thereof
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6335434B2 (en) Imaging apparatus, control method thereof, and program
JP5938281B2 (en) Imaging apparatus, control method therefor, and program
JP6202910B2 (en) Video processing apparatus, control method therefor, and program
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
US10587860B2 (en) Imaging apparatus and method for controlling same
JP2014153890A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6418770B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP5583242B2 (en) Image processing apparatus, control method therefor, and program
JP2014179870A (en) Image reproducing apparatus, image reproducing method, and imaging apparatus
JP6298494B2 (en) Image reproducing apparatus and control method thereof
JP5924943B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium
JP6336284B2 (en) Image processing apparatus, control method thereof, and program
JP6106026B2 (en) Image processing apparatus, imaging apparatus, playback apparatus, control method, and program
JP6387149B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6592330B2 (en) Imaging apparatus and imaging method
JP6433474B2 (en) Imaging apparatus and control method thereof
JP2017203815A (en) Image processing apparatus, imaging device, control method, and program
JP2018029340A (en) Image processing apparatus and method for controlling the same, and program
JP2014220564A (en) Image reproducing device, image reproducing method, program, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171025

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180223

R151 Written notification of patent or utility model registration

Ref document number: 6298494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151