JP6298494B2 - Image reproducing apparatus and control method thereof - Google Patents
Image reproducing apparatus and control method thereof Download PDFInfo
- Publication number
- JP6298494B2 JP6298494B2 JP2016134931A JP2016134931A JP6298494B2 JP 6298494 B2 JP6298494 B2 JP 6298494B2 JP 2016134931 A JP2016134931 A JP 2016134931A JP 2016134931 A JP2016134931 A JP 2016134931A JP 6298494 B2 JP6298494 B2 JP 6298494B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- aperture value
- image data
- virtual aperture
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、デジタルカメラに代表される撮像装置に関し、特にリフォーカス機能を有する撮像装置で撮影された画像の記録装置および当該記録された画像の再生装置に関する。 The present invention relates to an imaging apparatus typified by a digital camera, and more particularly to an image recording apparatus photographed by an imaging apparatus having a refocus function and an apparatus for reproducing the recorded image.
近年、撮像素子の前面に、複数画素に対し1つの割合で並ぶマイクロレンズアレイを配置することで、画素信号に加えて撮像素子に入射する光線の入射方向の情報をも得られる構成の撮像装置が、非特許文献1などにおいて提案されている。このような撮像装置の用途としては、各画素からの出力信号をもとに通常の撮影画像を生成する以外に、撮影された画像に対して所定の画像処理を施すことで、任意の焦点距離に焦点を合わせた画像を再構築することが可能である。
2. Description of the Related Art In recent years, an imaging apparatus having a configuration in which, in addition to pixel signals, information on the incident direction of a light beam incident on an imaging element can be obtained by arranging a microlens array arranged at a ratio of one for a plurality of pixels in front of the imaging element Has been proposed in
このようなリフォーカス可能な画像を閲覧のために表示する場合、どの焦点位置にリフォーカスした画像を最初に表示したらよいかの判断が難しいという問題があった。この問題を解決するため、特許文献1では、画像からオブジェクトを抽出し、そのオブジェクトの存在する部分に関して合焦したリフォーカス画像を表示している。もしくは、画像取得時の撮像条件をタグデータとして画像データに付与し、そのタグ情報を基に、リフォーカス画像を生成している。
When such a refocusable image is displayed for viewing, there is a problem that it is difficult to determine which focus position the refocused image should be displayed first. In order to solve this problem, in
しかしながら、上述の特許文献に開示された従来技術では、画像表示前にオブジェクトを抽出する処理が必要であった。また、撮影時の情報をタグデータとして有している場合でも、再構成後のリフォーカス面を決定するために、視点の異なる複数画像間の位相差を算出する必要があり、いずれの場合も演算コストが発生してしまうという問題がある。 However, in the prior art disclosed in the above-mentioned patent document, processing for extracting an object is required before displaying an image. Even when information at the time of shooting is included as tag data, it is necessary to calculate the phase difference between multiple images with different viewpoints in order to determine the refocus plane after reconstruction. There is a problem that calculation cost occurs.
そこで、本発明の目的は、被写体をリフォーカス可能な画像として撮影可能な撮像装置で取得した画像データを、望ましいリフォーカス画像として素早く表示することを可能にする画像データの記録装置および再生装置を提供することである。 Accordingly, an object of the present invention is to provide an image data recording device and reproducing device that can quickly display image data acquired by an imaging device capable of photographing a subject as a refocusable image as a desired refocus image. Is to provide.
実施形態の一態様によれば、画像データに対応する画像を再生する画像再生装置であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、前記仮想的な絞り値を設定する設定手段と、前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御手段は、前記生成手段により生成された複数の画像を同時に表示することを特徴とする画像再生装置が提供される。
実施形態の他の態様によれば、画像データに対応する画像を再生する画像再生装置であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、前記仮想的な絞り値を設定する設定手段と、前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御手段は、前記生成手段により生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置が提供される。
According to one aspect of the implementation form, an image reproducing device for reproducing an image corresponding to the image data, to reconstruct the image data, generating means for generating an image corresponding to the virtual aperture Setting means for setting the virtual aperture value; and display control means for displaying an image corresponding to the virtual aperture value generated by the generating means on a display unit, the display control means Displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting unit, and the display control unit includes a plurality of images generated by the generation unit. Are simultaneously displayed.
According to another aspect of the embodiment, there is provided an image reproduction device that reproduces an image corresponding to image data, and a generation unit that generates an image corresponding to a virtual aperture value by reconstructing the image data. Setting means for setting the virtual aperture value; and display control means for displaying an image corresponding to the virtual aperture value generated by the generating means on a display unit, the display control means Displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting unit, and the display control unit includes a plurality of images generated by the generation unit. Is provided at the same time according to the priority order recorded together with the image data used to generate the plurality of images.
実施形態の更に他の態様によれば、画像データに対応する画像を再生する画像再生装置の制御方法であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、前記仮想的な絞り値を設定する設定ステップと、前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を同時に表示することを特徴とする画像再生装置の制御方法が提供される。
実施形態の更に他の態様によれば、画像データに対応する画像を再生する画像再生装置の制御方法であって、画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、前記仮想的な絞り値を設定する設定ステップと、前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置の制御方法が提供される。
According to yet another aspect of the implementation form, method of controlling an image reproducing apparatus for reproducing an image corresponding to the image data, to reconstruct the image data, an image corresponding to the virtual aperture A generating step for generating, a setting step for setting the virtual aperture value, and a display control step for displaying the image corresponding to the virtual aperture value generated in the generating step on a display unit, The display control step displays an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step, and the display control step includes the generation There is provided a method for controlling an image reproducing device, wherein a plurality of images generated in the step are simultaneously displayed.
According to still another aspect of the embodiment, there is provided a method for controlling an image reproducing device that reproduces an image corresponding to image data, and generating an image corresponding to a virtual aperture value by reconstructing the image data. A generating step for setting, a setting step for setting the virtual aperture value, and a display control step for displaying the image corresponding to the virtual aperture value generated in the generating step on a display unit. In the display control step, an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step are displayed. In the display control step, the generation step a plurality of images generated in accordance with the priority order that is recorded together with the image data used to generate the plurality of images, and wherein the simultaneously displaying That the control method of the image reproducing device is provided.
本発明によれば、希望する合焦状態のリフォーカス画像を素早く表示することを可能とする画像データの記録装置および当該記録データの再生装置を提供することができる。 According to the present invention, it is possible to provide an image data recording apparatus and a reproduction apparatus for the recorded data that can quickly display a refocus image in a desired in-focus state.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図2は本発明の第1の実施例に係る画像記録装置を適用した撮像装置としてのデジタルカメラのブロック図である。201は撮影レンズであり、不図示ではあるが、複数枚のレンズから構成される。この複数枚のレンズの中に、可動なフォーカシングレンズを含み、フォーカシングレンズを動かすことにより、被写体に対する合焦状態の調節を可能としている。202はマイクロレンズアレイ(以下、MLAと記す)であり、複数のマイクロレンズから構成され、撮影レンズ201の焦点位置近傍に配置される。撮影レンズ201の異なる瞳領域を通過した光は、MLA202に入射し、瞳領域毎に分離して出射される。203は撮像素子であり、CCDやCMOSイメージセンサーなどで構成され、MLA202の焦点位置近傍に配置される。MLA 202と撮像素子203の詳細については後述する。
FIG. 2 is a block diagram of a digital camera as an imaging apparatus to which the image recording apparatus according to the first embodiment of the present invention is applied.
204はADコンバーターであり、撮像素子203から出力される画像信号をAD変換してデジタルデータにし、画像処理部205で、そのデジタルデータに所定の画像処理などを施し、被写体のデジタル画像データを得る。206は撮影制御部であり、画像処理部205で得られたデジタル画像データを、液晶ディスプレイなどで構成される表示部207に表示し、また記録部208への保存などの制御を行う。撮影制御部206は、そのCPUが図示しないメモリに記憶されているプログラムをロードして実行することにより各部の制御を行う。この場合、各部の機能の全部または一部をCPUが行ってもよいし、ハードウェアで構成してもよい。
An
また、209は顔検知部であり、画像処理部205で得られたデジタル画像データの中から人物の顔を検出し、その画面内における位置と大きさを検出する。操作部210は、ボタンやタッチパネルなどといった、ユーザーからの操作を受け付ける部分であり、受け付けた操作に応じて、合焦動作の開始や、記録部208に保存されたデジタル画像データの再生、消去など、各種の動作を行う。また、撮影レンズ201は撮影制御部206と電気的、機械的に接続され、撮影制御部206では撮影レンズの情報を通信により取得できるほか、合焦動作の際はフォーカシングレンズの駆動命令などを送ることができる。
A
次に、図2に示す撮像装置における、撮影レンズ201とMLA 202、撮像素子203の構成を説明する。
Next, the configuration of the taking
図3は、撮像素子203とMLA 202の構成を説明する図である。同図は、撮像素子203およびMLA202を、撮影レンズ201からの光軸に平行なz方向から見た図である。撮影画像の仮想的な画素300を構成する複数の単位画素301(光電変換素子)に対して1つのマイクロレンズ302が対応するように配置されている。マイクロレンズ302は、MLA 202を構成するものの中の一つである。ここでは、1つのマイクロレンズに対応する単位画素301が5行5列の計25個あるものとして記載した。同図に付記している座標軸は、光軸方向をz軸で示し、z軸に対して垂直な面を撮像面と平行な面とし、当該撮像面内においてx軸(水平方向)とy軸(垂直方向)を定義している。なお、図3は撮像素子203の受光面の一部を示し、実際の撮像素子には非常に多くの画素が配列されている。
FIG. 3 is a diagram illustrating the configuration of the
図4は、撮影レンズ201から出射された光束が1つのマイクロレンズ302を通過して撮像素子203で受光される様子を、光軸zに対して垂直な方向から見た図である。撮影レンズ201の各瞳領域a1〜a5から出射され、マイクロレンズ302を通過した光は、撮像素子203の対応する単位画素p1〜p5でそれぞれ結像する。
FIG. 4 is a view of a state in which a light beam emitted from the photographing
図5(a)は撮影レンズ201の開口を光軸(z軸)方向から見た図である。図5(b)は1つのマイクロレンズ302とその後方に配置された単位画素300を光軸(z軸)方向から見た図である。図5(a)に示すように、撮影レンズ201の瞳領域を1つのマイクロレンズ下にある画素と同数の領域に分割した場合、1つの画素には撮影レンズ201の1つの瞳分割領域からの光が結像されることになる。ただし、ここでは撮影レンズとマイクロレンズのFナンバーがほぼ一致しているものとする。図5(a)に示す撮影レンズの瞳分割領域をa11〜a55、図5(b)に示す画素をp11〜p55としたとき、両者の対応関係は光軸(z軸)方向から見て点対称となる。したがって、撮影レンズの瞳分割領域a11から出射した光はマイクロレンズ後方にある画素301のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のマイクロレンズを通過する光も、そのマイクロレンズ後方にある画素301の中の画素p11に結像する。
FIG. 5A is a view of the aperture of the photographing
このように図5(b)に示すp11〜p55の画素は撮影レンズに対して互いに異なる瞳領域を通過した光を受光するため、これらの画素の出力を用いて焦点検出動作を行うこともできる。図6(a)に示すように、各マイクロレンズに対応する画素出力p11〜p55を加算し、次式に示すように水平方向に瞳分割された2つの信号を生成する。
式1で示される合成信号Aは、図4に示すように、撮影レンズの射出瞳の領域a1〜a2を通過した光束を見ている。図6(b)に示すように、水平方向に連続して配置されたn個のマイクロレンズに対応する画素群から得られたA1〜Anを並べれば、一次元像信号Ai(i=1,2,3…n)が得られる。同様に式2で計算される合成信号Bを並べた一次元像信号Bi(i=1,2,3…n)も生成すると、AiとBiは、それぞれ撮影レンズの射出瞳の右側と左側を見ている信号となる。このため、AiとBiの相対位置を検出し、その相対的なずれ量に対して所定の変換係数を乗じた結果に従って、位相差検出方式に基づく焦点検出動作を行うことができる。画面内の任意の位置でAiとBiを生成すれば、その位置での焦点位置を算出することができるため、算出結果に合わせてフォーカシングレンズを駆動することで自動焦点調節を行うことができる。
As shown in FIG. 4, the combined signal A expressed by
次に、撮影レンズ201、MLA 202、撮像素子203で取得したデジタル画像データを、任意に設定した合焦位置(リフォーカス面)での画像に再構成する処理に関して説明する。図7は、指定のリフォーカス面がz=0の場合と、z=dの場合の光線の様子を示したものである。図7の中央の画素に注目して考えると、z=0の場合はマイクロレンズからの射出光束は、それぞれ画素a3、b3、c3、3d、3eに入射する。従って、
[式3]
S3=a3+b3+c3+d3+e3
として、S3を仮想的な画素の出力として求めればよい。S3以外のS1などの画素に関しても同様である。
Next, processing for reconstructing digital image data acquired by the photographing
[Formula 3]
S3 = a3 + b3 + c3 + d3 + e3
S3 may be obtained as an output of a virtual pixel. The same applies to pixels such as S1 other than S3.
次にレンズの絞りを絞った場合の画像を再構成したい場合は、絞り値に応じた撮影レンズの中央付近の領域のみの光束を用いればよいので、例えば
[式4]
S3=b3+c3+d3
とすれば、式3で得られるものよりも、絞ったときのz=0での再構成画像を得ることができ、
[式5]
S3=c3
とすれば、更に絞ったときのz=0での画像を、再構成できる。つまり、絞り込む方向の画像に関しては再構成することができる。
なお、ここでは説明のためx方向に並んだ5画素のみを例に説明したが、実際にはxy平面に画素が並んでいるので、2次元に同様の考え方を適用する。例えば、絞り開放の場合のS3は25個の画素出力の和となる。
Next, when it is desired to reconstruct an image when the aperture of the lens is stopped, it is only necessary to use a light beam only in a region near the center of the photographing lens according to the aperture value. For example, [Equation 4]
S3 = b3 + c3 + d3
Then, it is possible to obtain a reconstructed image at z = 0 when narrowed down than that obtained by
[Formula 5]
S3 = c3
Then, the image at z = 0 when further narrowed down can be reconstructed. That is, the image in the narrowing direction can be reconstructed.
Here, for the sake of explanation, only five pixels arranged in the x direction have been described as an example. However, since pixels are actually arranged in the xy plane, the same concept is applied in two dimensions. For example, S3 in the case of full aperture is the sum of 25 pixel outputs.
一方、z=dの場合は、z=dの面の射出光束はそれぞれ画素a1、b2、c3、d4、e5に入射するので、
[式6]
S3=a1+b2+c3+d4+e5
としてS3を生成すればよい。このように、リフォーカス面の位置z(リフォーカス位置)と再構成時の絞り値Fを決めれば、再構成画像を算出することができる。この式6をS3以外のほかの再構成画素にも適用すると、z=dの場合の再構成画像は以下の行列演算によって求めることができる。
[Formula 6]
S3 = a1 + b2 + c3 + d4 + e5
S3 may be generated as follows. Thus, if the position z (refocus position) of the refocus plane and the aperture value F at the time of reconstruction are determined, a reconstructed image can be calculated. When this equation 6 is applied to other reconstruction pixels other than S3, a reconstruction image in the case of z = d can be obtained by the following matrix calculation.
つまり式7の意味するところは、再構成画像のリフォーカス面の位置zと再構成時の絞り値Fが分かっているならば、予め下記の変換マトリクスM
ここで、本実施例の記録動作を、図8のフローチャートを用いて説明する。本実施例の場合、この動作は、カメラの撮影制御部206の制御によって行われる。ステップS801でカメラ動作を開始したら、ステップS802でユーザーにより撮影前準備動作であるスイッチS1がONされるのを待つ。ここで撮影前準備動作とは、AE/AF動作のことであり、操作部209に含まれる操作部材をユーザーが操作することで、S1はONとなる。ここでは、一般のカメラなどで広く使用されている二段押し込み式の押しボタンスイッチが半押しされた場合をS1のON、全押しされた場合をS2のONとする。S1がONされたらステップS803へ進む。
Here, the recording operation of this embodiment will be described with reference to the flowchart of FIG. In the case of the present embodiment, this operation is performed under the control of the
ステップS803〜S806は撮影前準備動作であるAE/AFを行うステップである。ステップS803ではAEを行う。AEは、所定の条件で取得した撮像素子203の出力信号レベルから画像の露出レベルを評価し、出力信号の飽和、黒潰れが極力発生しないような露出条件を決定する。なお、既に説明したように、絞り値が大きくなる方向(絞り込む方向)の再構成画像に関しては、式3乃至5に従って算出できるため、できるだけ絞りを開いた条件で撮影するのが望ましい。
Steps S803 to S806 are steps for performing AE / AF, which is a pre-shooting preparation operation. In step S803, AE is performed. The AE evaluates the exposure level of the image from the output signal level of the
S804〜S806ではAF動作を行う。既に図6の説明で述べたように、図2のカメラは画面内の任意の位置での合焦位置を算出することができる。よって、例えば図9(a)のように建物、人物、車がそれぞれ異なる距離に分布したような被写体に対して、画面を横9×縦7の63のブロックに分割してそれぞれ合焦位置を算出したとすると、図9(b)に示すデフォーカスマップを得ることができる。なお、図9(b)では、画面内の背景にあたる部分のデフォーカス量をdbとして示した。このようにデフォーカスマップを取得するのがステップS804である。 In S804 to S806, an AF operation is performed. As already described in the description of FIG. 6, the camera of FIG. 2 can calculate the in-focus position at an arbitrary position in the screen. Therefore, for example, as shown in FIG. 9A, for a subject in which buildings, persons, and cars are distributed at different distances, the screen is divided into 63 blocks of 9 × 7 in length, and the in-focus positions are set. If calculated, a defocus map shown in FIG. 9B can be obtained. In FIG. 9B, the defocus amount of the portion corresponding to the background in the screen is shown as db. In step S804, the defocus map is acquired in this way.
このようなデフォーカスマップに対し、デフォーカス量の値が近いブロックをグルーピングすることで、大まかな被写体の数を推定することができる(被写体検出手段)。また、顔検知部209により、画面内に人物の顔の存在が検出された場合には、その位置を知ることができる。よって、図9の例では、大きく分けてデフォーカス量がd1、d2、d3の位置に3つの被写体が存在し、またd2の位置の被写体は人物であることが分かる。そこで、本実施例では被写体に下記のルールで優先順位を付ける(優先順位手段)。
優先順位1. 顔(複数の顔が存在する場合は、検出した顔の大きさが大きい順に高い優先順位を付ける)
優先順位2. 顔以外の被写体には、デフォーカス量が至近寄りのものから順に高い優先順位を付ける
By grouping blocks with similar defocus values with respect to such a defocus map, the approximate number of subjects can be estimated (subject detection means). Further, when the
このルールを適用すると、図9の例では、デフォーカスd2の人物が最も優先順位の高い被写体となり、次に顔ではないが至近側にあるデフォーカスd1の車、最後にデフォーカスd3の建物となる。このように、デフォーカスマップから被写体を特定し、特定した被写体に対して優先順位を付けるのがステップS805である。なお、ここでは人物の顔を優先する思想の優先順位付けルールを示したが、これは一例であり、この限りではない。また、優先順位付けのルールの代わりに、あるいはルールに優先して、スイッチ等により手動で優先順位付けできるようにしてもよい。 When this rule is applied, in the example of FIG. 9, the person with the defocus d2 is the subject with the highest priority, the next is not the face but the defocus d1 car on the closest side, and finally the defocus d3 building. Become. In this way, in step S805, the subject is identified from the defocus map, and the priority order is assigned to the identified subject. In addition, although the prioritization rule of the thought which gives priority to a person's face was shown here, this is an example and is not this limitation. Further, the priority order may be manually set by a switch or the like instead of the priority ordering rule or prior to the rule.
ステップS806では、優先順位付けにより最優先となった人物に合焦するよう、デフォーカス量d2だけフォーカシングレンズを駆動し、AF動作を完了する。そしてS807で、ユーザーによりS2がONされるまで待ち、S2がONされたら撮影動作を行うステップS808以降の動作を行なう。 In step S806, the focusing lens is driven by the defocus amount d2 so as to focus on the person who is given the highest priority by prioritization, and the AF operation is completed. In step S807, the process waits until S2 is turned on by the user, and when S2 is turned on, the operation after step S808 is performed.
ステップS808では、撮影の直前に再度デフォーカスマップ(撮影情報)を取得する動作を行う。ステップS806で人物に合焦するようフォーカシングレンズを駆動したため、この時点でのデフォーカスマップを取得すると、図9(c)のように人物部分のデフォーカス量は0となり、車の部分はd11、建物の部分はd33とそれぞれ変化する。なお、図9(c)では、画面内の背景にあたる部分のデフォーカス量をdbbとして示した。 In step S808, an operation of acquiring a defocus map (shooting information) again immediately before shooting is performed. Since the focusing lens is driven to focus on the person in step S806, when the defocus map at this time is acquired, the defocus amount of the person part becomes 0 and the car part is d11, as shown in FIG. 9C. The part of the building changes with d33. In FIG. 9C, the defocus amount of the portion corresponding to the background in the screen is shown as dbb.
それぞれの被写体のデフォーカス量が取得できたら、最後にステップS809で撮像動作を行い、撮像データに各被写体へフォーカスした再構成画像を得るためのパラメーターを生成してメタデータとして付与する(パラメーター生成手段)。再構成画像の絞り値に関しては、絞り込む方向に関してはユーザーの意思によって後から変更が可能なため、撮影完了時点で記録するパラメーターの絞り値(撮影情報)は撮影時のFであるとする。また、ステップS805で優先順位付けした順に、各被写体に合焦した画像を生成できる変換マトリクスMを、撮影した画像に付与する。すなわち、人物に合焦した画像を再構成できる変換マトリクスM1(デフォーカス量0、絞り値Fの再構成画像を生成する変換マトリクス)を第一位の優先順位として付与する。第二位は、車に合焦した画像を再構成出来る変換マトリクスM2(デフォーカス量d11、絞り値Fの再構成画像を生成する変換マトリクス)である。第三位は、建物に合焦した画像を再構成出来る変換マトリクスM3(デフォーカス量d33、絞り値Fの再構成画像を生成する変換マトリクス)となり、結果として図1のように画像のメタデータとして付与する。なお、変換マトリクスは比較的データ量が大きいため、変換マトリクスの代わりに、変換マトリクス生成のために必要になるリフォーカス面の位置(デフォーカス量)と絞り値のみを優先順位の順にメタデータに記憶してもよい。この場合、第一位はデフォーカス0、絞り値F、第二位はデフォーカス量d11と絞り値F、第三位はデフォーカス量d33と絞り値Fを、それぞれパラメーターとして画像に付与することになる。撮影画像のデータと、上述のように被写体に関連付けられて生成されたリフォーカスのためのメタデータを記録したら、撮影動作を終了する。 When the defocus amount of each subject has been acquired, the imaging operation is finally performed in step S809, and parameters for obtaining a reconstructed image focused on each subject are generated and added as metadata to the imaging data (parameter generation). means). Regarding the aperture value of the reconstructed image, the aperture value of the parameter to be recorded (imaging information) at the time of completion of imaging is assumed to be F at the time of imaging because the direction of narrowing can be changed later according to the user's intention. In addition, a conversion matrix M that can generate an image focused on each subject is added to the captured image in the order in which the priorities are set in step S805. That is, a conversion matrix M1 (a conversion matrix that generates a reconstructed image with a defocus amount of 0 and an aperture value F) that can reconstruct an image focused on a person is assigned as the first priority. The second rank is a conversion matrix M2 (a conversion matrix that generates a reconstructed image with a defocus amount d11 and an aperture value F) that can reconstruct an image focused on the car. The third place is a conversion matrix M3 (a conversion matrix for generating a reconstructed image with a defocus amount d33 and an aperture value F) that can reconstruct an image focused on a building, and as a result, image metadata as shown in FIG. As given. Since the conversion matrix has a relatively large amount of data, instead of the conversion matrix, only the position of the refocus plane (defocus amount) and aperture value required for generating the conversion matrix are converted into metadata in order of priority. You may remember. In this case, the first position is defocused 0 and aperture value F, the second position is defocus amount d11 and aperture value F, and the third position is defocus amount d33 and aperture value F as parameters. become. When the photographed image data and the refocus metadata generated in association with the subject as described above are recorded, the photographing operation is terminated.
以上、本発明の記録装置をデジタルカメラである撮像装置を例にして説明したが、これに限るものではない。例えば、カメラから画像データとメタデータを外部に出力して記録する構成であってもよい。また、画像データとメタデータのための情報だけを撮影時に着脱式の記録媒体に保存しておき、そのPC等の処理装置で、顔検出、優先順位の設定、タグデータの付与を行なって記録する構成とすることも可能である。 Although the recording apparatus of the present invention has been described by taking the image pickup apparatus that is a digital camera as an example, the present invention is not limited to this. For example, the image data and metadata may be output from the camera and recorded. Also, only the information for image data and metadata is stored in a removable recording medium at the time of shooting, and the face is detected, priority is set, and tag data is added and recorded by a processing device such as a PC. It is also possible to adopt a configuration.
第1の実施例では、撮影画像データに画像再構成用のパラメーターをメタデータに付加して記録する構成を説明した。第2の実施例では、第1の実施例に従って記録された、再構成可能な画像データをユーザーが閲覧し、その際にリフォーカスおよび絞り値を変更できる編集作業を可能とする画像再生装置を説明する。本実施例では、図11に示すようなインターフェースを持つPCにより、図10のフローチャートに従ったアプリケーションにより再構成画像を表示、編集する例を示す。また再生される画像データは、図9に示す被写体を撮影した画像データがあるとする。この画像は、第1の実施例で説明したように、人物に合焦した画像を再構成できる変換マトリクスM1を第一位として、図1に示すように画像のメタデータとして付与された画像である。また同様に、車に合焦した画像を再構成できる変換マトリクスM2を第二位に、建物に合焦した画像を再構成できる変換マトリクスM3は第三位として、画像のメタデータとして付与されている。 In the first embodiment, the configuration in which the parameters for image reconstruction are added to the captured image data and recorded in the metadata has been described. In the second embodiment, there is provided an image reproduction apparatus that enables an editing operation that allows a user to browse reconfigurable image data recorded according to the first embodiment and change the refocus and aperture value at that time. explain. In this embodiment, an example in which a reconstructed image is displayed and edited by an application according to the flowchart of FIG. 10 on a PC having an interface as shown in FIG. Further, it is assumed that the reproduced image data includes image data obtained by photographing the subject shown in FIG. As described in the first embodiment, this image is an image given as metadata of an image as shown in FIG. 1 with a conversion matrix M1 that can reconstruct an image focused on a person as the first place. is there. Similarly, the conversion matrix M2 that can reconstruct an image focused on a car is second, and the conversion matrix M3 that can reconstruct an image focused on a building is third, and is given as image metadata. Yes.
図10は第2の実施例に係わる画像再生動作のフローチャートである。本実施例の場合、上述のように、本動作はPCのCPUがアプリケーションプログラムを実行してPCの各部、例えば表示部などを制御することで行なわれる。 FIG. 10 is a flowchart of the image reproduction operation according to the second embodiment. In the case of the present embodiment, as described above, this operation is performed by the PC CPU executing an application program to control each part of the PC, for example, the display unit.
まず、ステップS1002において、ユーザーにより再構成可能な画像データの再生要求がユーザーから与えられるのを待つ。そして再生要求があった場合には、ステップS1003へ進み、再生要求のあった画像およびそのメタデータを取得する。ここで、画像データおよびメタデータは、第1の実施例に係わる記録装置で記録されたデータであり、当該記録装置から直接、あるいは着脱式の記録媒体等を介して提供されたデータである。 First, in step S1002, it waits for a user to give a reproduction request for image data that can be reconfigured by the user. If there is a reproduction request, the process advances to step S1003 to acquire the image requested for reproduction and its metadata. Here, the image data and the metadata are data recorded by the recording apparatus according to the first embodiment, and are data provided directly from the recording apparatus or via a detachable recording medium.
図11に示すPCアプリケーションのインターフェースは、大きく左右に分けられ、右側は複数の再構成画像を表示する領域112であるとする。ステップS1003でメタデータ内の再構成パラメーターを読み込み、読み込んだ再構成パラメーター(変換マトリクスM1、M2、M3)に基づいて再構成した画像を、優先順位の順番に上から表示するのがステップS1004、S1005である。この場合、最も優先順位の高い被写体である人物に合焦した再構成画像が画面右側の一番上に表示され、その下に優先順位第二位の車に合焦した再構成画像が、さらにその下に優先順位第三位の建物に合焦した再構成画像が表示されることになる。なお、画面のスペース表示の関係上、再構成画像表示エリア112に表示可能な再構成画像の枚数がn枚(ただしn≧1)に限られている場合は、メタデータに記憶された変換マトリクスのうち、上位n位による再構成画像を表示エリアに表示することになる。
The interface of the PC application shown in FIG. 11 is roughly divided into left and right, and the right side is an
メタデータ内に記憶された再構成パラメーターに基づく再構成画像を表示したら、次にユーザーからのリフォーカス、もしくは絞り値を変更する編集指示を待つステップS1006へ進む。このステップで編集指示が行われなかった場合はステップS1007へ進み、シーケンスを終了する。一方、編集指示が行われた場合は、以下のように動作する。すなわち図11の左側は、編集している画像を表示する編集エリア110になっている。編集エリアでは、再生している画像とリフォーカス面、絞り値を編集するためのインターフェースが存在し、ユーザーが2本のゲージを左右にドラッグすることで、リフォーカス面と絞り値の変更を指示できる。ゲージが操作されるたびに、ゲージに対応した再構成画像を生成するための変換マトリクスが算出され、ステップS1008で編集後の再構成画像を生成、表示する。これにより、ユーザーの指示を画像に反映して表示することが可能となる。
If the reconstructed image based on the reconstructed parameter stored in the metadata is displayed, the process advances to step S1006 to wait for an edit instruction for changing the refocus or aperture value from the user. If no editing instruction is given in this step, the process advances to step S1007 to end the sequence. On the other hand, when an editing instruction is given, the operation is as follows. That is, the left side of FIG. 11 is an
ユーザーがリフォーカス面や絞り値の編集を行い、編集後の再構成画像を保存したいと判断した場合には、ステップS1009で、編集後画像の保存要求をする。保存要求があった場合には、その編集後の画像の優先順位の入力(設定)もユーザーに要求し(優先順位設定手段)、その優先順位に従って、ステップS1011においてステップS1008で生成した変換マトリクスを画像データのメタデータ部に追記する。それと同時に、図11の再構成画像表示エリア112の優先順位に応じた位置に、編集後の画像を表示して本実施例の動作を終了する。
If the user edits the refocus plane or aperture value and determines that the edited reconstructed image is to be saved, a request is made to save the edited image in step S1009. When there is a storage request, the user is also requested to input (set) the priority order of the edited image (priority setting means), and the conversion matrix generated in step S1008 in step S1011 is determined according to the priority order. Add to the metadata part of the image data. At the same time, the edited image is displayed at a position corresponding to the priority order of the reconstructed
例えば、画像再生初期には優先順位一位としてメタデータに記憶されていた人物に合焦した再構成画像が、厳密には人物の耳に合焦した画像であったとする。これに対してユーザーが編集により、人物の目に合焦した画像を再構成し、この変換マトリクスを優先順位一位として保存したとする。この場合は、人物の目に合焦した再構成画像が優先順位一位となったので、元々メタデータに保存されていた再構成画像の優先順位は一つずつ下位にシフトされる。その結果、優先順位二位が人物の耳に合焦した画像、優先順位三位が車に合焦した画像、優先順位四位が建物に合焦した画像となる。なお、再構成画像表示エリア112にある画像の並び順をユーザーが入れ替えたり、あるいは画像を削除した場合も、優先順位の変更を行うことができるようにしてもよい。この場合、入れ替えや削除に連動して最新の優先順位を再計算し、メタデータに書き込まれた再構成画像生成用の変換マトリクスも、再計算後の優先順位に合わせて書き換わることになる。
For example, it is assumed that the reconstructed image focused on the person stored in the metadata with the highest priority in the initial stage of image reproduction is strictly an image focused on the ear of the person. On the other hand, it is assumed that the user reconstructs an image focused on a person's eyes by editing, and stores this conversion matrix with the highest priority. In this case, since the reconstructed image focused on the eyes of the person has the highest priority, the priority of the reconstructed image originally stored in the metadata is shifted down by one. As a result, the second priority is the image focused on the person's ear, the third priority is the image focused on the car, and the fourth priority is the image focused on the building. Note that the priority order may be changed even when the user changes the order of the images in the reconstructed
なお、本実施例では、PCでのアプリケーションによる画像データの再生、編集動作を例にして説明したが、本発明の実施形態はこれに限るものではない。例えば、第1の実施例に係わる撮像装置の撮影制御部206のCPUがプログラムを実行して表示部207等の各部を制御して行われる再生動作として実現してもよい。また、表示機能を有するPC以外の機器での画像処理機能として実現してもよいことは言うまでもない。
In the present embodiment, the reproduction and editing operation of image data by an application on a PC has been described as an example, but the embodiment of the present invention is not limited to this. For example, it may be realized as a reproduction operation performed by the CPU of the
上述した本発明の第1及び第2の実施例によれば、素早く希望する合焦状態のリフォーカス画像を再構成して表示することを可能とする画像データを、記録データとして提供することが可能となると供に、その有効利用の可能性を広げることが可能となる。 According to the above-described first and second embodiments of the present invention, it is possible to provide image data that can quickly reconstruct and display a refocus image in a desired focused state as recording data. As soon as it becomes possible, the possibility of effective use can be expanded.
ここで、図12を用いて本実施例に適用可能な他の光学系の例について説明する。図12は、物体(被写体)からの光線が撮像素子206上に結像する状態を模式的に示した図である。図12(a)は図2〜4で説明した光学系と対応しており、撮影光学系の結像面近傍にMLA202を配置した例である。図12(b)は撮影光学系の結像面よりも物体寄りにMLA202を配置した例である。図12(c)は撮影光学系の結像面よりも物体から遠い側にMLA202を配置した例である。同図において、既に説明した図に示されている部分は同じ符号を付して示す。
Here, an example of another optical system applicable to the present embodiment will be described with reference to FIG. FIG. 12 is a diagram schematically illustrating a state in which light rays from an object (subject) form an image on the
図12において、1200は物体平面を、1200a,1200bは物体上の適当な点を、a1〜a5は撮影光学系の瞳平面を、1201〜1209はMLA上の特定のマイクロレンズをそれぞれ示している。図12(b)および(c)に示した203aは仮想的な撮像素子を、202aは仮想的なMLAを示している。これらは、図12(a)との対応関係を明確にするために参考に示した。また、物体上の点1200aから出て瞳平面上の領域a1およびa3を通過する光束を実線で、物体上の点1200bから出て瞳平面上の領域a1およびa3を通過する光束を破線で図示した。 12, 1200 the object plane, 1200a, 1200 b is an appropriate point on the object, a 1 ~a 5 is a pupil plane of the photographing optical system, from 1201 to 1209 are respectively the specific microlens on MLA ing. In FIGS. 12B and 12C, 203a indicates a virtual image sensor, and 202a indicates a virtual MLA. These are shown for reference in order to clarify the correspondence with FIG. Further, the light beams passing through the regions a 1 and a 3 on the pupil plane out 1200a point on the object by the solid line, the light beams passing through the regions a 1 and a 3 on the pupil plane out 1200b point on the object Is shown by a broken line.
図12(a)の例では、撮影光学系の結像面近傍にMLA203を配置することで、撮像素子203と撮影光学系の瞳平面1210が共役の関係にある。さらに、物体平面1200とMLA202が共役の関係にある。このため物体上の点1200aから出た光束はマイクロレンズ1201に、1200bを出た光束はマイクロレンズ1202に到達し、領域a1からa5それぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。
In the example of FIG. 12A, the
図12(b)の例では、MLA202で撮影光学系からの光束を結像させ、その結像面に撮像素子203を設ける。このように配置することで、物体平面1200と撮像素子203は共役の関係にある。物体上の点1200aから出で瞳平面上の領域a1を通過した光束はマイクロレンズ1203に到達し、物体上の点1200aから出で瞳平面上の領域a3を通過した光束はマイクロレンズ1204に到達する。物体上の点1200bから出で瞳平面上の領域a1を通過した光束はマイクロレンズ1204に到達し、物体上の点1200bから出で瞳平面上の領域a3を通過した光束はマイクロレンズ1205に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面203a上の位置に並べなおせば、図12(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。
In the example of FIG. 12B, the
図12(c)の例では、MLA202で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子203を設ける。このように配置することで、物体平面1200と撮像素子203は共役の関係にある。物体上の点1200aから出で瞳平面上の領域a1を通過した光束はマイクロレンズ1207に到達し、物体上の点1200aから出で瞳平面上の領域a3を通過した光束はマイクロレンズ1206に到達する。物体上の点1200bから出で瞳平面上の領域a1を通過した光束はマイクロレンズ1209に到達し、物体上の点1200bから出で瞳平面上の領域a3を通過した光束はマイクロレンズ1208に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図12(b)と同様に、仮想的な撮像面203a上の位置に並べなおせば、図12(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。
In the example of FIG. 12 (c), the
図12ではMLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。 FIG. 12 shows an example in which the position information and the angle information can be acquired using the MLA (phase modulation element) as the pupil dividing means. However, the position information and the angle information (equivalent to limiting the passing area of the pupil) are shown. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system can be used.
図8および10に示した各処理は、上述のように各処理の機能を実現する為のプログラムを不図示のメモリから読み出して撮像装置のCPUなどが実行することによりその機能を実現させるものである。 Each of the processes shown in FIGS. 8 and 10 is realized by reading a program for realizing the function of each process from a memory (not shown) and executing it by the CPU of the imaging apparatus as described above. is there.
しかし、本発明は上述した構成に限定されるものではなく、図8及び10に示した各処理の全部または一部の機能を専用のハードウェアにより実現してもよい。また、上述したメモリは、コンピュータ読み取り、書き込み可能な記録媒体より構成されてもよい。例えば、光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記録媒体、RAM以外の揮発性のメモリ、あるいはこれらの組合せにより構成された記録媒体である。 However, the present invention is not limited to the above-described configuration, and all or some of the functions shown in FIGS. 8 and 10 may be realized by dedicated hardware. The memory described above may be configured by a computer-readable / writable recording medium. For example, a non-volatile memory such as a magneto-optical disk device or flash memory, a recording medium such as a CD-ROM that can only be read, a volatile memory other than a RAM, or a recording medium composed of a combination thereof. .
また、図8および10に示した各処理の機能を実現する為のプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた場合も含む。この場合、書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。 Further, a program for realizing the functions of the processes shown in FIGS. 8 and 10 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Each process may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, this includes a case where a program read from a storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, after being written, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing. Is done.
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)も含む。このように、一定時間プログラムを保持しているものも「コンピュータ読み取り可能な記録媒体」に含むものとする。 The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” includes a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Thus, what holds a program for a certain period of time is also included in the “computer-readable recording medium”.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
また、上記プログラムは、前述した機能の一部を実現する為のものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。 A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
Claims (22)
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、
前記仮想的な絞り値を設定する設定手段と、
前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、
前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御手段は、前記生成手段により生成された複数の画像を同時に表示することを特徴とする画像再生装置。 An image reproduction device for reproducing an image corresponding to image data,
Generating means for generating an image corresponding to a virtual aperture value by reconstructing image data;
Setting means for setting the virtual aperture value;
Display control means for displaying an image corresponding to the virtual aperture value generated by the generation means on a display unit,
The display control means displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting means,
The image reproduction apparatus, wherein the display control means simultaneously displays a plurality of images generated by the generation means.
前記表示制御手段は、前記ドラッグ操作の前記距離に応じて前記生成手段によって生成された前記画像を表示することを特徴とする請求項3に記載の画像再生装置。 The generating unit generates an image corresponding to the virtual aperture value changed according to the distance of the drag operation;
The image reproduction apparatus according to claim 3, wherein the display control unit displays the image generated by the generation unit in accordance with the distance of the drag operation.
前記表示制御手段は、前記生成手段によって生成された、前記ゲージに対応する前記仮想的な絞り値の前記画像を表示することを特徴とする請求項4に記載の画像再生装置。 The generating means generates an image of the virtual aperture value corresponding to the gauge every time the gauge is operated,
The image reproduction apparatus according to claim 4, wherein the display control unit displays the image of the virtual aperture value corresponding to the gauge generated by the generation unit.
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成手段と、
前記仮想的な絞り値を設定する設定手段と、
前記生成手段により生成される前記仮想的な絞り値に対応する画像を表示部に表示する表示制御手段と、を有し、
前記表示制御手段は、画像と、前記設定手段が設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御手段は、前記生成手段により生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置。 An image reproduction device for reproducing an image corresponding to image data,
Generating means for generating an image corresponding to a virtual aperture value by reconstructing image data;
Setting means for setting the virtual aperture value;
Display control means for displaying an image corresponding to the virtual aperture value generated by the generation means on a display unit,
The display control means displays an image and a graphic user interface for instructing the virtual aperture value of the image set by the setting means,
The image reproduction apparatus, wherein the display control means simultaneously displays a plurality of images generated by the generation means in accordance with a priority order recorded together with image data used to generate the plurality of images.
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、
前記仮想的な絞り値を設定する設定ステップと、
前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、
前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を同時に表示することを特徴とする画像再生装置の制御方法。 A control method of an image playback device for playing back an image corresponding to image data,
A generation step of generating an image corresponding to a virtual aperture value by reconstructing the image data;
A setting step for setting the virtual aperture value;
A display control step of displaying the image corresponding to the virtual aperture value generated in the generation step on a display unit,
In the display control step, an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step are displayed.
In the display control step, a plurality of images generated in the generation step are simultaneously displayed.
画像データを再構成することで、仮想的な絞り値に対応する画像を生成する生成ステップと、
前記仮想的な絞り値を設定する設定ステップと、
前記生成ステップにて生成される前記仮想的な絞り値に対応する前記画像を表示部に表示する表示制御ステップと、を有し、
前記表示制御ステップでは、画像と、前記設定ステップにて設定する、該画像の前記仮想的な絞り値を指示するためのグラフィックユーザインターフェースとを表示し、
前記表示制御ステップでは、前記生成ステップにおいて生成された複数の画像を、該複数の画像の生成に用いた画像データとともに記録されている優先順位に従って、同時に表示することを特徴とする画像再生装置の制御方法。 A control method of an image playback device for playing back an image corresponding to image data,
A generation step of generating an image corresponding to a virtual aperture value by reconstructing the image data;
A setting step for setting the virtual aperture value;
A display control step of displaying the image corresponding to the virtual aperture value generated in the generation step on a display unit,
In the display control step, an image and a graphic user interface for instructing the virtual aperture value of the image set in the setting step are displayed.
In the display control step, the plurality of images generated in the generation step are simultaneously displayed according to the priority order recorded together with the image data used to generate the plurality of images. Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016134931A JP6298494B2 (en) | 2016-07-07 | 2016-07-07 | Image reproducing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016134931A JP6298494B2 (en) | 2016-07-07 | 2016-07-07 | Image reproducing apparatus and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012136391A Division JP5968102B2 (en) | 2012-06-15 | 2012-06-15 | Image recording apparatus and image reproducing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016178706A JP2016178706A (en) | 2016-10-06 |
JP6298494B2 true JP6298494B2 (en) | 2018-03-20 |
Family
ID=57070370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016134931A Active JP6298494B2 (en) | 2016-07-07 | 2016-07-07 | Image reproducing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6298494B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289383A (en) * | 2003-03-20 | 2004-10-14 | Seiko Epson Corp | Image pickup device, image data generating device, image data processor, and image data processing program |
JP4799366B2 (en) * | 2006-10-27 | 2011-10-26 | 三洋電機株式会社 | Imaging apparatus and image reproduction apparatus |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2011048341A (en) * | 2009-07-27 | 2011-03-10 | Panasonic Corp | Image capturing apparatus |
JP2012027408A (en) * | 2010-07-27 | 2012-02-09 | Sanyo Electric Co Ltd | Electronic equipment |
JP5609425B2 (en) * | 2010-08-24 | 2014-10-22 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and image processing program |
JP5875839B2 (en) * | 2011-11-21 | 2016-03-02 | オリンパス株式会社 | Plenoptic camera |
-
2016
- 2016-07-07 JP JP2016134931A patent/JP6298494B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016178706A (en) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5968102B2 (en) | Image recording apparatus and image reproducing apparatus | |
JP6341736B2 (en) | Imaging apparatus, control method, program, storage medium | |
JP6546474B2 (en) | Image pickup apparatus and control method thereof | |
JP6305053B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6335434B2 (en) | Imaging apparatus, control method thereof, and program | |
JP5938281B2 (en) | Imaging apparatus, control method therefor, and program | |
JP6202910B2 (en) | Video processing apparatus, control method therefor, and program | |
US9208569B2 (en) | Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data | |
US10587860B2 (en) | Imaging apparatus and method for controlling same | |
JP2014153890A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP6418770B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP5583242B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2014179870A (en) | Image reproducing apparatus, image reproducing method, and imaging apparatus | |
JP6298494B2 (en) | Image reproducing apparatus and control method thereof | |
JP5924943B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP6491442B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2015084517A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP6336284B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6106026B2 (en) | Image processing apparatus, imaging apparatus, playback apparatus, control method, and program | |
JP6387149B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP6592330B2 (en) | Imaging apparatus and imaging method | |
JP6433474B2 (en) | Imaging apparatus and control method thereof | |
JP2017203815A (en) | Image processing apparatus, imaging device, control method, and program | |
JP2018029340A (en) | Image processing apparatus and method for controlling the same, and program | |
JP2014220564A (en) | Image reproducing device, image reproducing method, program, and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171025 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180223 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6298494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |