JP2017161941A - Reproducer, imaging apparatus, and control method of reproducer - Google Patents

Reproducer, imaging apparatus, and control method of reproducer Download PDF

Info

Publication number
JP2017161941A
JP2017161941A JP2017112544A JP2017112544A JP2017161941A JP 2017161941 A JP2017161941 A JP 2017161941A JP 2017112544 A JP2017112544 A JP 2017112544A JP 2017112544 A JP2017112544 A JP 2017112544A JP 2017161941 A JP2017161941 A JP 2017161941A
Authority
JP
Japan
Prior art keywords
focus
image
display
light field
field information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017112544A
Other languages
Japanese (ja)
Other versions
JP6400152B2 (en
Inventor
木村 正史
Masashi Kimura
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017112544A priority Critical patent/JP6400152B2/en
Publication of JP2017161941A publication Critical patent/JP2017161941A/en
Application granted granted Critical
Publication of JP6400152B2 publication Critical patent/JP6400152B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily grasp the range that is in focus in an image generated in accordance with the focal position after photographing and the change in throttle.SOLUTION: A reproducer for generating an image from light field information and displaying it includes: focus commanding means for commanding the focal position of the image including a virtual focal position; generating means for generating an image from the light field information in accordance with the focal position commanded by the focus commanding means; and displaying means for displaying the image generated by the generating means and an indication showing the focus state.SELECTED DRAWING: Figure 4

Description

本発明は、再生装置、撮像装置、再生装置の制御方法、プログラムおよび記憶媒体に関するものである。   The present invention relates to a playback device, an imaging device, a playback device control method, a program, and a storage medium.

近年、撮像素子により得られたデータに対して演算を行い、それに応じたデジタル画像処理を行うことで様々な画像の出力を行う撮像装置が提案されている。特許文献1では、被写体空間の光の2次元強度分布と光線の角度情報、つまり視点の異なる画像を同時に取得する撮像装置が開示されている。ここで、光の2次元強度分布と光線の角度情報を合わせて光線空間情報(=ライトフィールド情報)と呼び、光線空間情報を取得することで被写体空間の3次元的な情報を得ることができる。この撮像装置では、光線空間情報の取得と撮影後の画像再構成処理によって、リフォーカスと呼ばれる画像のピント位置の変更が可能である。   2. Description of the Related Art In recent years, there have been proposed imaging devices that perform various operations on data obtained by an imaging device and perform various digital image processing to output various images. Patent Document 1 discloses an imaging apparatus that simultaneously acquires a two-dimensional intensity distribution of light in a subject space and light angle information, that is, images with different viewpoints. Here, the two-dimensional intensity distribution of light and the angle information of the light are combined to be called light space information (= light field information), and the three-dimensional information of the subject space can be obtained by acquiring the light space information. . In this imaging apparatus, the focus position of an image called refocusing can be changed by acquiring light space information and performing image reconstruction processing after shooting.

一方、同時に取得された多視点の画像を、いわゆるリフォーカス操作したときの表示方法なども提案されている。特許文献2には、ユーザの操作に応じた画像を対話的に表示するシステムが提案されている。具体的には、特許文献2のシステムでは、ポインティングデバイスの指示に応じて指示箇所にピントが合うようにリフォーカス処理を施してユーザに提示する。   On the other hand, a display method when a so-called refocus operation is performed on multi-viewpoint images acquired at the same time has also been proposed. Patent Document 2 proposes a system that interactively displays an image corresponding to a user operation. Specifically, in the system of Patent Document 2, refocus processing is performed so as to focus on the indicated location in accordance with an instruction from the pointing device, and the result is presented to the user.

特開2007−4471号公報JP 2007-4471 A 米国特許出願公開第2008/0131019号明細書US Patent Application Publication No. 2008/0131019

しかしながら、特許文献1、2で開示されている撮像装置やシステムでは、リフォーカスなどの操作に応じて画像を表示することは可能であるものの、ピントが合っている範囲を直感的に把握できるものではなかった。更に、低解像度のモニタで観察した場合には、ピントが合っている範囲を確認することが容易ではなかった。   However, the imaging devices and systems disclosed in Patent Documents 1 and 2 can display an image in response to an operation such as refocusing, but can intuitively grasp the in-focus range. It wasn't. Furthermore, when observing on a low resolution monitor, it is not easy to confirm the in-focus range.

本発明は、上述したような問題点に鑑みてなされたものであり、撮影後のピント位置の変更に応じて生成された画像においてピント状態を容易に把握できるようにすることを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to make it possible to easily grasp a focus state in an image generated in accordance with a change in focus position after shooting.

本発明は、ライトフィールド情報から画像を生成して表示する再生装置であって、仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示手段と、前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置にしたがって画像を生成する生成手段と、前記生成手段により生成された画像とともに、ピント状態を示す表示を表示する表示手段と、を有することを特徴とする。   The present invention is a playback device that generates and displays an image from light field information, and includes a focus instruction unit that indicates a focus position of an image including a virtual focus position, and the focus instruction from the light field information. The image processing apparatus includes generation means for generating an image according to a focus position designated by the means, and display means for displaying a display indicating a focus state together with the image generated by the generation means.

本発明によれば、撮影後のピント位置の変更に応じて生成された画像においてピント状態を容易に把握することができる。   According to the present invention, it is possible to easily grasp the focus state in an image generated according to a change in the focus position after shooting.

デジタルカメラの構成を示す図である。It is a figure which shows the structure of a digital camera. マイクロレンズアレイの構成を示す図である。It is a figure which shows the structure of a micro lens array. 撮影光学系の例を示す図である。It is a figure which shows the example of an imaging optical system. ピント状態を表示する例を示す図である。It is a figure which shows the example which displays a focus state. 合焦判定のための計算を説明するための図である。It is a figure for demonstrating the calculation for a focus determination. 本実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of this embodiment.

以下、本発明の好ましい実施形態について、添付の図面に基づいて詳細に説明する。各図では、同一の部材には同一の符号を付し、重複する説明は省略する。
本実施形態に係る再生装置について図1〜図6を参照して説明する。ここでは、再生装置として撮像装置(デジタルカメラ)を適用する場合について説明する。
図1(a)は、デジタルカメラの中央断面図である。
デジタルカメラは、カメラ本体1、カメラ本体1に着脱可能なレンズユニット2を有している。カメラ本体1は、撮像素子6、表示部9としての背面表示装置、クイックリターン機構14、ファインダ表示部16などを有している。レンズユニット2は、光軸4に沿った撮影光学系3を形成するレンズ、レンズシステム制御回路12などを有している。カメラ本体1とレンズユニット2とは電気接点11により電気的に接続される。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same members are denoted by the same reference numerals, and redundant description is omitted.
A playback apparatus according to this embodiment will be described with reference to FIGS. Here, a case where an imaging device (digital camera) is applied as a playback device will be described.
FIG. 1A is a central sectional view of the digital camera.
The digital camera has a camera body 1 and a lens unit 2 that can be attached to and detached from the camera body 1. The camera body 1 includes an imaging device 6, a rear display device as the display unit 9, a quick return mechanism 14, a finder display unit 16, and the like. The lens unit 2 includes a lens that forms the photographing optical system 3 along the optical axis 4, a lens system control circuit 12, and the like. The camera body 1 and the lens unit 2 are electrically connected by an electrical contact 11.

図1(b)は、デジタルカメラの電気的構成を示すブロック図である。
カメラ本体1およびレンズユニット2からなるデジタルカメラは、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮影光学系3、撮像素子6を含んで構成される。画像処理系は、画像処理部7を含んで構成される。記録再生系は、メモリ部8、表示部9を含んで構成される。制御系は、カメラシステム制御回路5、操作検出部10、レンズシステム制御回路12、レンズ駆動部13を含んで構成される。レンズ駆動部13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。
FIG. 1B is a block diagram showing an electrical configuration of the digital camera.
The digital camera including the camera body 1 and the lens unit 2 has an imaging system, an image processing system, a recording / reproducing system, and a control system. The imaging system is configured to include the imaging optical system 3 and the imaging element 6. The image processing system includes an image processing unit 7. The recording / reproducing system includes a memory unit 8 and a display unit 9. The control system includes a camera system control circuit 5, an operation detection unit 10, a lens system control circuit 12, and a lens driving unit 13. The lens driving unit 13 can drive a focus lens, a shake correction lens, a diaphragm, and the like.

撮像系では、物体からの光が撮影光学系3を介して撮像素子6の撮像面に結像される。撮像素子6表面にはマイクロレンズが格子状に配列された、いわゆるマイクロレンズアレイ(以下、MLAという)が配置されている。MLAは、光線制御手段の一例である。MLAの機能や配置の詳細については図2を参照して後述する。撮像素子6からピント評価量/適当な露光量が得られるので、この信号に基づいて適切に撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光すると共に、撮像素子6近傍で被写体像が結像される。   In the imaging system, light from an object is imaged on the imaging surface of the imaging element 6 via the imaging optical system 3. A so-called microlens array (hereinafter referred to as MLA) in which microlenses are arranged in a lattice pattern is disposed on the surface of the image sensor 6. MLA is an example of light beam control means. Details of the functions and arrangement of the MLA will be described later with reference to FIG. Since the focus evaluation amount / appropriate exposure amount is obtained from the image sensor 6, the imaging optical system 3 is appropriately adjusted based on this signal, so that an appropriate amount of object light is exposed to the image sensor 6, and A subject image is formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路などを有している。なお、画像処理部7には、現像したり記録用の画像を生成したりする機能を含めることができるが、本実施形態ではカメラシステム制御回路5がこれらの機能を有しているものとする。
メモリ部8は、実際に画像データを記録する記録部に加え、記録に必要な処理回路を有している。メモリ部8は、記録部に出力を行うと共に、表示部9に出力する像を生成、保存する。また、メモリ部8は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。
The image processing unit 7 includes an A / D converter, a white balance circuit, a gamma correction circuit, an interpolation calculation circuit, and the like. The image processing unit 7 can include functions for developing and generating an image for recording. In the present embodiment, the camera system control circuit 5 has these functions. .
The memory unit 8 includes a processing circuit necessary for recording in addition to a recording unit that actually records image data. The memory unit 8 outputs to the recording unit and generates and stores an image to be output to the display unit 9. In addition, the memory unit 8 compresses images, moving images, sounds, and the like using a predetermined method.

カメラシステム制御回路5は、撮像の際のタイミング信号などを生成して出力する。カメラシステム制御回路5は、ユーザ操作に応じて撮像系、画像処理系、記録再生系をそれぞれ制御する。具体的には、カメラシステム制御回路5は、不図示のシャッターレリーズ釦の押下を操作検出部10が検出することにより、撮像素子6の駆動、画像処理部7の動作、メモリ部8の圧縮処理などを制御する。また、カメラシステム制御回路5は、液晶モニタなどの表示部9によって情報表示を行う各セグメントの状態を制御する。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. The camera system control circuit 5 controls the imaging system, the image processing system, and the recording / reproducing system according to user operations. Specifically, the camera system control circuit 5 detects the depression of a shutter release button (not shown) by the operation detection unit 10, thereby driving the image sensor 6, the operation of the image processing unit 7, and the compression processing of the memory unit 8. Control etc. The camera system control circuit 5 controls the state of each segment for displaying information by the display unit 9 such as a liquid crystal monitor.

次に、制御系による光学系の調整動作について説明する。カメラシステム制御回路5は、画像処理部7を介して撮像素子6からの信号を受信し、受信した信号に基づいて適切な焦点位置、絞り位置を求める。カメラシステム制御回路5は電気接点11を介してレンズシステム制御回路12に指令を送信し、レンズシステム制御回路12は受信した指令に応じてレンズ駆動部13を制御する。また、レンズシステム制御回路12には不図示の手ぶれ検出センサが接続されている。手ぶれ補正を行うモードにおいては、レンズシステム制御回路12は、手ぶれ検出センサの信号に基づいてレンズ駆動部13を介してブレ補正レンズを適切に制御する。   Next, the adjustment operation of the optical system by the control system will be described. The camera system control circuit 5 receives a signal from the image sensor 6 via the image processing unit 7 and obtains an appropriate focal position and aperture position based on the received signal. The camera system control circuit 5 transmits a command to the lens system control circuit 12 via the electrical contact 11, and the lens system control circuit 12 controls the lens driving unit 13 according to the received command. In addition, a camera shake detection sensor (not shown) is connected to the lens system control circuit 12. In the camera shake correction mode, the lens system control circuit 12 appropriately controls the camera shake correction lens via the lens driving unit 13 based on the signal from the camera shake detection sensor.

図1に示すデジタルカメラは、画像の再生が可能である。カメラシステム制御回路5は、操作検出部10により再生モードへの切換が検出された場合には、取得した画像を表示部9に表示する。また、後述するように、カメラシステム制御回路5は、複数の視差の異なる像を用いてフォーカス位置(ピント位置)および絞り値(絞り)に応じて画像を再構成(いわゆる現像)して表示する。このとき、カメラシステム制御回路5は、フォーカス位置の指示や絞り値の指示に応じて現像方法を制御する。   The digital camera shown in FIG. 1 can reproduce an image. The camera system control circuit 5 displays the acquired image on the display unit 9 when the operation detection unit 10 detects switching to the reproduction mode. As will be described later, the camera system control circuit 5 reconstructs and displays an image according to a focus position (focus position) and an aperture value (aperture) using a plurality of images having different parallaxes. . At this time, the camera system control circuit 5 controls the developing method according to the instruction of the focus position and the instruction of the aperture value.

図2は、本実施形態の撮影光学系の要部を説明するための図である。なお、他の撮影光学系についても適用可能であるが、他の撮影光学系については図3を参照して説明する。
まず、本発明を実現するためには、複数の視点からの被写体像を取得する必要がある。本実施形態では、角度情報の取得のために撮像素子6の結像面の近傍にMLAを配置すると共に、MLAを構成する1つのマイクロレンズに対して複数の画素を対応させている。
FIG. 2 is a diagram for explaining a main part of the photographing optical system of the present embodiment. Although the present invention can be applied to other photographing optical systems, the other photographing optical systems will be described with reference to FIG.
First, in order to realize the present invention, it is necessary to acquire subject images from a plurality of viewpoints. In the present embodiment, an MLA is disposed in the vicinity of the imaging plane of the image sensor 6 for obtaining angle information, and a plurality of pixels are associated with one microlens constituting the MLA.

図2(a)は、撮像素子とMLAの関係を模式的に示す図である。図2(b)は、撮像素子の画素とMLAの対応を示す模式図である。図2(c)は、MLAによってMLA下に配置された画素が特定の瞳領域と対応付けられることを示す図である。
図2(a)に示すように撮像素子6上にはMLA18が設けられている。MLA18の前側主点は撮影光学系3の結像面近傍になるように配置されている。図2(a)は、MLAをデジタルカメラの正面および側面から見た図である。正面から見た場合、MLA18は、レンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく示しているが、実際には各マイクロレンズは画素の数倍程度の大きさしかない(後述する図2(b)を参照)。なお、1つの画素は1つの光電変換部に相当する。
FIG. 2A is a diagram schematically illustrating the relationship between the image sensor and the MLA. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that the pixels arranged under the MLA are associated with a specific pupil region by the MLA.
As shown in FIG. 2A, an MLA 18 is provided on the image sensor 6. The front principal point of the MLA 18 is arranged in the vicinity of the imaging plane of the photographing optical system 3. FIG. 2A is a view of the MLA as seen from the front and side of the digital camera. When viewed from the front, the MLA 18 is arranged so that the lens covers the pixels on the image sensor 6. In FIG. 2 (a), the microlenses constituting the MLA are shown to be easy to see, but in actuality, each microlens is only several times as large as a pixel (see FIG. 2 (described later)). see b)). One pixel corresponds to one photoelectric conversion unit.

図2(b)は、図2(a)の正面から見た図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方、MLA18を構成する各マイクロレンズは太い円20,21,22,23で示している。
図2(b)に示すように、マイクロレンズ1つに対して複数の画素が割り当てられている。ここでは、5行×5列=25個の画素が1つのマイクロレンズに対して設けられている。すなわち、各マイクロレンズの大きさは画素の大きさの5倍×5倍の大きさである。
FIG. 2B is a partially enlarged view seen from the front of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 6. On the other hand, each microlens constituting the MLA 18 is indicated by thick circles 20, 21, 22, and 23.
As shown in FIG. 2B, a plurality of pixels are assigned to one microlens. Here, 5 rows × 5 columns = 25 pixels are provided for one microlens. That is, the size of each microlens is 5 × 5 times the size of the pixel.

図2(c)は、撮像素子6の一部およびマイクロレンズ20の一部を図2(b)に示すI−I線で切断した断面図である。図2(c)の下側には撮像素子6の画素20a、20b、20c、20d、20eを示し、上側には撮影光学系3の射出瞳面を示している。本来、射出瞳面は、図2(c)の下側に示した画素の方向と合わせると、図2(c)の紙面垂直方向になるが、理解を容易にするために射出瞳面の方向を変化させている。
また、図2(c)では説明を簡単にするために、1次元の投影/信号処理について説明するが、カメラシステム制御回路5は容易に2次元に拡張することができる。なお、図2(c)の画素20a〜20eは、図2(b)の画素20a〜20eにそれぞれ対応する位置関係である。
FIG. 2C is a cross-sectional view of a part of the image sensor 6 and a part of the microlens 20 cut along a line II shown in FIG. 2C shows the pixels 20a, 20b, 20c, 20d, and 20e of the image sensor 6, and the upper side shows the exit pupil plane of the photographing optical system 3. FIG. Originally, when the exit pupil plane is aligned with the pixel direction shown in the lower side of FIG. 2C, the exit pupil plane is perpendicular to the plane of FIG. 2C. Is changing.
In FIG. 2 (c), one-dimensional projection / signal processing will be described for the sake of simplicity, but the camera system control circuit 5 can be easily extended to two dimensions. Note that the pixels 20a to 20e in FIG. 2C have a positional relationship corresponding to the pixels 20a to 20e in FIG.

図2(c)に示すように、マイクロレンズ20によって各画素20a〜20eは撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素20aと領域30aが、画素20bと領域30bが、画素20cと領域30cが、画素20dと領域30dが、画素20eと領域30eがそれぞれ対応している。すなわち、画素20aには撮影光学系3の射出瞳面上の領域30aを通過した光束のみが入射する。他の画素も同様である。更に、隣接する画素21a〜21eも射出瞳面上の同じ領域と対応している。すなわち、画素21aと領域30aが、画素21bと領域30bが、画素21cと領域30cが、画素21dと領域30dが、画素21eと領域30eがそれぞれ対応している。   As shown in FIG. 2C, each of the pixels 20 a to 20 e is designed to be conjugate with a specific region on the exit pupil plane of the photographing optical system 3 by the micro lens 20. In the example of FIG. 2C, the pixel 20a and the region 30a correspond to the pixel 20b and the region 30b, the pixel 20c and the region 30c, the pixel 20d and the region 30d, and the pixel 20e and the region 30e, respectively. That is, only the light beam that has passed through the region 30a on the exit pupil plane of the photographing optical system 3 enters the pixel 20a. The same applies to the other pixels. Further, the adjacent pixels 21a to 21e also correspond to the same region on the exit pupil plane. That is, the pixel 21a corresponds to the region 30a, the pixel 21b corresponds to the region 30b, the pixel 21c corresponds to the region 30c, the pixel 21d corresponds to the region 30d, and the pixel 21e corresponds to the region 30e.

結果として、カメラシステム制御回路5は、瞳面上での通過領域と撮像素子6上の位置関係から角度情報を取得することができる。図2で説明した光学系から複数の視点の異なる像を生成するには、カメラシステム制御回路5は、各マイクロレンズの同じ瞳面に対応する画素を配列する。これによって、カメラシステム制御回路5は、入力画像である複数の視点の異なる像を生成することができる。   As a result, the camera system control circuit 5 can acquire angle information from the passing area on the pupil plane and the positional relationship on the image sensor 6. In order to generate different images from a plurality of viewpoints from the optical system described in FIG. 2, the camera system control circuit 5 arranges pixels corresponding to the same pupil plane of each microlens. Thereby, the camera system control circuit 5 can generate different images at a plurality of viewpoints, which are input images.

次に、他の撮影光学系について図3を参照して説明する。
上述したように本発明を適用するためには、複数の視点の異なる像を取得する必要がある。このような複数の視点の異なる像を取得できる光学系が、プレノプティックカメラやいわゆる多眼カメラなどとして知られている。なお、複数の視点の異なる像とは、特許文献1に記載された光線空間情報と等価なものである。
図3は、物体(被写体)からの光線が撮像素子6上に結像する状態を模式的に示した図である。図3(a)は、図2で説明した撮影光学系に対応しており、撮影光学系3の結像面近傍にMLA18を配置した例である。図3(b)は、撮影光学系3の結像面よりも物体寄りにMLA18を配置した例である。図3(c)は、撮影光学系3の結像面よりも物体から遠い側にMLA18を配置した例である。図3(d)は、いわゆる多眼光学系を示す例である。
Next, another photographing optical system will be described with reference to FIG.
As described above, in order to apply the present invention, it is necessary to acquire a plurality of images with different viewpoints. Such an optical system capable of acquiring a plurality of different viewpoint images is known as a plenoptic camera or a so-called multi-lens camera. Note that the images with different viewpoints are equivalent to the light space information described in Patent Document 1.
FIG. 3 is a diagram schematically illustrating a state in which a light beam from an object (subject) forms an image on the image sensor 6. FIG. 3A corresponds to the photographing optical system described in FIG. 2, and is an example in which the MLA 18 is disposed in the vicinity of the imaging surface of the photographing optical system 3. FIG. 3B shows an example in which the MLA 18 is arranged closer to the object than the imaging plane of the photographing optical system 3. FIG. 3C shows an example in which the MLA 18 is arranged on the side farther from the object than the imaging plane of the photographing optical system 3. FIG. 3D is an example showing a so-called multi-eye optical system.

図3(a)〜(d)には、物体平面51、物体上の任意の点51a,51b、撮影光学系の瞳平面52が示されている。また、図3(a)〜(c)には、撮影光学系の瞳領域30a〜30e、MLA18上の特定のマイクロレンズ61、62、71,72,73,81,82,83,84が示されている。また、図3(b)、(c)には、物体51との共役面として、メインレンズの仮想結像面50が示されている。また、図3(d)には、多眼光学系を構成する各々の撮像素子6a,6b,6c、多眼光学系の各々のメインレンズの瞳領域31a〜35aが示されている。
また、図3(a)〜(d)では、物体上の点51aから出射され撮影光学系あるいは多眼光学系を通過する光束を実線で示し、物体上の点51bから出射され撮影光学系あるいは多眼光学系を通過する光束を一点鎖線で示している。
3A to 3D show an object plane 51, arbitrary points 51a and 51b on the object, and a pupil plane 52 of the photographing optical system. 3A to 3C show pupil regions 30a to 30e of the photographing optical system and specific microlenses 61, 62, 71, 72, 73, 81, 82, 83, and 84 on the MLA 18. Has been. 3B and 3C show a virtual imaging plane 50 of the main lens as a conjugate plane with the object 51. FIG. 3D shows the imaging devices 6a, 6b, 6c constituting the multi-eye optical system and the pupil regions 31a to 35a of the main lenses of the multi-eye optical system.
3 (a) to 3 (d), the light beam emitted from the point 51a on the object and passing through the photographing optical system or the multi-view optical system is indicated by a solid line, and is emitted from the point 51b on the object and the photographing optical system or A light beam passing through the multi-eye optical system is indicated by a one-dot chain line.

図3(a)では、図2でも説明したように、撮影光学系3の結像面近傍にMLA18を配置することで、撮像素子6と撮影光学系3の瞳平面52とが共役の関係にある。また、物体平面51とMLA18とが共役の関係にある。したがって、物体上の点51aから出射された光束はマイクロレンズ61に到達し、点51bを出射された光束はマイクロレンズ62に到達した後、領域30aから30eのそれぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。   In FIG. 3A, as described with reference to FIG. 2, the MLA 18 is disposed in the vicinity of the imaging plane of the photographing optical system 3, so that the imaging element 6 and the pupil plane 52 of the photographing optical system 3 have a conjugate relationship. is there. Further, the object plane 51 and the MLA 18 are in a conjugate relationship. Therefore, the light beam emitted from the point 51a on the object reaches the micro lens 61, the light beam emitted from the point 51b reaches the micro lens 62, and the light beam that has passed through each of the regions 30a to 30e is below the micro lens. To the corresponding pixels provided in.

図3(b)では、MLA18で撮影光学系3からの光束を結像させ、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6とが共役の関係にある。物体上の点51aから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ71に到達し、物体上の点51aから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ72に到達する。また、物体上の点51bから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ72に到達し、物体上の点51bから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ73に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、メインレンズの仮想結像面50上の位置に並べ直すことで、図3(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子6上の位置の情報を得ることができる。   In FIG. 3B, the light beam from the photographing optical system 3 is imaged by the MLA 18, and the image sensor 6 is provided on the imaging surface. By arranging in this way, the object plane 51 and the imaging device 6 are in a conjugate relationship. The light beam emitted from the point 51a on the object and passed through the region 30a on the pupil plane reaches the micro lens 71, and the light beam emitted from the point 51a on the object and passed through the region 30c on the pupil plane reaches the micro lens 72. To do. The light beam emitted from the point 51b on the object and passed through the region 30a on the pupil plane reaches the micro lens 72, and the light beam emitted from the point 51b on the object and passed through the region 30c on the pupil plane is micro lens 73. To reach. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. In this way, images are formed at different positions depending on the point on the object and the passing area on the pupil plane. By rearranging these at positions on the virtual imaging plane 50 of the main lens, the same information as in FIG. 3A can be obtained. That is, information about the pupil region (incident angle) that has passed through and the position on the image sensor 6 can be obtained.

図3(c)では、MLA18で撮影光学系3からの光束を再結像(一度結像した光束が拡散する状態にあるものを再び結像させることをいう)され、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6とが共役の関係にある。物体上の点51aから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ82に到達し、物体上の点51aから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ81に到達する。物体上の点51bから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ84に到達し、物体上の点51bから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ83に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図3(b)と同様に、メインレンズの仮想結像面50上の位置に並べ直すことで、図3(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子6上の位置の情報を得ることができる。   In FIG. 3C, the light beam from the imaging optical system 3 is re-imaged by MLA 18 (referred to as being imaged again when the light beam once imaged is diffused) and imaged on the imaging surface. Element 6 is provided. By arranging in this way, the object plane 51 and the imaging device 6 are in a conjugate relationship. The light beam emitted from the point 51a on the object and passed through the region 30a on the pupil plane reaches the microlens 82, and the light beam emitted from the point 51a on the object and passed through the region 30c on the pupil plane reaches the microlens 81. To do. The light beam emitted from the point 51b on the object and passed through the region 30a on the pupil plane reaches the micro lens 84, and the light beam emitted from the point 51b on the object and passed through the region 30c on the pupil plane reaches the micro lens 83. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. Similar to FIG. 3B, the same information as FIG. 3A can be obtained by rearranging the main lens at the position on the virtual imaging plane 50. That is, information about the pupil region (incident angle) that has passed through and the position on the image sensor 6 can be obtained.

図3(d)では、メインレンズとMLAによる構成ではなく、いわゆる多眼光学系によって同様の情報を得ることができる。この多眼光学系においては、図3(a)の瞳領域30a〜30eに直接メインレンズ31a〜35aを配置して、視差像を得ていると考えることができる。撮像素子6a,6b,6cのそれぞれの像は、いわゆる視点の異なる像となっている。   In FIG. 3D, similar information can be obtained not by the main lens and MLA but by a so-called multi-eye optical system. In this multi-view optical system, it can be considered that the main lenses 31a to 35a are arranged directly in the pupil regions 30a to 30e in FIG. The images of the image sensors 6a, 6b, and 6c are images having different so-called viewpoints.

図3では、MLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得できる例について示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法であってもよい。
その他の方法としては、時分割で複数の視点の異なる像を取得する方法であってもよい。この方法においては、デジタルカメラにおいて時間的に離間した多数の画像を得ると共に、手振れやユーザのスイングを利用して複数の視点の異なる像を取得する。
FIG. 3 shows an example in which the position information and the angle information can be acquired using the MLA (phase modulation element) as the pupil dividing means. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system may be used.
Another method may be a method of acquiring different images from a plurality of viewpoints by time division. In this method, a large number of images that are separated in time are obtained by a digital camera, and different images from a plurality of viewpoints are obtained by using camera shake or user swing.

次に、本実施形態に係るデジタルカメラにより複数の視差の異なる像からユーザによる操作に応じて画像を現像し、表示部9に表示する場合について図4〜図6を参照して説明する。
図4(a)は、デジタルカメラと被写体との位置関係を示す図である。図4(a)では、カメラ本体1およびレンズユニット2によって撮影される範囲102に、デジタルカメラからの距離がそれぞれ異なる、被写体110および被写体111が存在している。
図4(b)は、デジタルカメラの外観を示す斜視図である。レンズユニット2には、ユーザにより操作可能なフォーカス指示部120が配置されている。フォーカス指示部120は、フォーカス指示手段の一例である。フォーカス指示部120は、例えばレンズユニット2の外周に沿って回転可能な第1リング部材を有し、操作検出部10によって第1リング部材の回転位置が検出される。
また、カメラ本体1には、ユーザにより操作可能な絞り値指示部121が配置されている。絞り値指示部121は、絞り指示手段の一例である。絞り値指示部121は、例えば回転可能な第2リング部材を有し、操作検出部10によって第2リング部材の回転位置が検出される。
Next, a case where an image is developed from a plurality of images with different parallaxes according to a user's operation using the digital camera according to the present embodiment and displayed on the display unit 9 will be described with reference to FIGS.
FIG. 4A shows the positional relationship between the digital camera and the subject. In FIG. 4A, there are a subject 110 and a subject 111 that are different in distance from the digital camera in a range 102 photographed by the camera body 1 and the lens unit 2, respectively.
FIG. 4B is a perspective view showing the appearance of the digital camera. The lens unit 2 is provided with a focus instruction unit 120 that can be operated by a user. The focus instruction unit 120 is an example of a focus instruction unit. The focus instruction unit 120 includes, for example, a first ring member that can rotate along the outer periphery of the lens unit 2, and the rotation position of the first ring member is detected by the operation detection unit 10.
In addition, the camera body 1 is provided with an aperture value instruction unit 121 that can be operated by the user. The aperture value instruction unit 121 is an example of an aperture instruction unit. The aperture value instruction unit 121 includes, for example, a rotatable second ring member, and the operation detection unit 10 detects the rotational position of the second ring member.

図4(c)は、図4(a)に示す状態を撮影して取得される被写体像を示す図である。図4(c)では、ピント状態は無視して全ての被写体が先鋭に取得される場合を示している。図4(c)に示す画像103では、デジタルカメラから相対的に近距離にある被写体110と相対的に遠距離にある被写体111の像が取得されている。   FIG. 4C is a diagram showing a subject image acquired by photographing the state shown in FIG. FIG. 4C shows a case where all subjects are acquired sharply, ignoring the focus state. In an image 103 shown in FIG. 4C, an image of a subject 111 that is relatively far from a subject 110 that is relatively close to the digital camera is acquired.

以下では、デジタルカメラが少なくとも露光時間が重複するように複数の視差の異なる像を取得した場合を考える。本発明は画像取得後の画像の表示および画像の操作の際に適用される。複数の視差の異なる像はいわゆる光線空間情報と等価な情報を得ているので、これを利用して画像取得後のピント位置の変更(リフォーカス)や絞り値の変更を行うことができる。カメラシステム制御回路5は、ユーザによるフォーカス指示部120および絞り値指示部121を介した操作に応じてリフォーカスおよび絞り値を調整した画像を生成する。なお、画像の生成方法については特許文献1や特許文献2に開示されているので、その説明は割愛する。   In the following, a case is considered where a digital camera acquires a plurality of images with different parallaxes so that exposure times overlap at least. The present invention is applied when displaying an image after image acquisition and when manipulating the image. Since a plurality of images having different parallax have obtained information equivalent to so-called ray space information, it is possible to change the focus position (refocus) and change the aperture value after obtaining the image. The camera system control circuit 5 generates an image in which the refocus and the aperture value are adjusted in accordance with the operation through the focus instruction unit 120 and the aperture value instruction unit 121 by the user. Since the image generation method is disclosed in Patent Document 1 and Patent Document 2, the description thereof is omitted.

本実施形態では、リフォーカスのための操作部としてフォーカス指示部120を用い、絞り値の変更のための操作部として絞り値指示部121を用いる場合について説明する。すなわち、カメラシステム制御回路5は、フォーカス指示部120の操作に応じてピント位置を変化させて、手前または奥の被写体にピントを合わせ、絞り値指示部121の操作に応じて絞り値を変化させて被写界深度を調整する。操作検出部10はフォーカス指示部120および絞り値指示部121による操作を検出する。   In the present embodiment, a case where the focus instruction unit 120 is used as an operation unit for refocusing and the aperture value instruction unit 121 is used as an operation unit for changing an aperture value will be described. That is, the camera system control circuit 5 changes the focus position according to the operation of the focus instruction unit 120, focuses on the subject in front or behind, and changes the aperture value according to the operation of the aperture value instruction unit 121. Adjust the depth of field. The operation detection unit 10 detects operations performed by the focus instruction unit 120 and the aperture value instruction unit 121.

図4(d)〜図4(g)は、表示画像の例を示す図である。カメラシステム制御回路5は画像103に、ピント状態を示す表示と、ピント状態が変化することを示す表示とを、オーバーレイして表示している。ここで、ピント状態を示す表示には、測距枠130と、ピントが合った測距枠131とが含まれる。また、ピント状態が変化することを示す表示には、絞り込みによりピントが合う測距枠132が含まれる。
まず、図4(d)は遠くにある被写体111にピントが合っていて、近くにある被写体110にピントが合っていない(ぼけている)状態を示している。一方、図4(e)は近くにある被写体110にピントが合っていて、遠くにある被写体111はピントが合っていない(ぼけている)状態を示している。また、図4(f)は、近くにある被写体110および遠くにある被写体111の何れにもピントが合っている状態を示している。また、図4(g)は、図4(e)と同様、近くにある被写体110にピントが合っていて、遠くにある被写体111はピントが合っていない(ぼけている)状態であって、絞り込みによるピント状態の変化を同時に表示した場合を示している。
FIG. 4D to FIG. 4G are diagrams illustrating examples of display images. The camera system control circuit 5 overlays and displays a display indicating the focus state and a display indicating that the focus state is changed on the image 103. Here, the focus state display includes a distance measurement frame 130 and a focus detection frame 131 in focus. The display indicating that the focus state changes includes a distance measuring frame 132 that is focused by narrowing down.
First, FIG. 4D shows a state in which the subject 111 in the distance is in focus and the subject 110 in the vicinity is not in focus (blurred). On the other hand, FIG. 4E shows a state in which the subject 110 located near is in focus and the subject 111 located far away is out of focus (blurred). FIG. 4F shows a state where both the near subject 110 and the far subject 111 are in focus. FIG. 4G shows a state in which the object 110 located near is in focus and the object 111 located far away is out of focus (blurred), as in FIG. 4E. This shows a case where changes in focus state due to narrowing down are displayed simultaneously.

本実施形態では、デジタルカメラが取得した画像を、いわゆるリフォーカスが可能であるので、画像取得後にピント位置を変化させて図4(d)や図4(e)に示すように異なるピント位置の画像を生成することができる。この処理は、カメラシステム制御回路5がフォーカス指示部120を介した操作に応じて行う。図4(d)から図4(g)には測距枠130が、生成した画像にオーバーレイして表示されている。測距枠とは、画像の一部を切り取って被写体のピント状態を計算する場合に、切り取る画像の範囲に対応したものである。デジタルカメラは複数の視差の異なる像を取得しているので、三角測距の原理に基づいて被写体まで距離を測定することが可能である。これを利用すれば現在表示しているピント位置においてそれぞれの被写体はピントが合っているか否かのピント状態を判定することができる。この処理は、具体的には図5を参照して後述するSADの計算などにより判定することが可能である。   In this embodiment, since the image acquired by the digital camera can be refocused, the focus position is changed after the image is acquired, and different focus positions are obtained as shown in FIGS. 4 (d) and 4 (e). An image can be generated. This process is performed by the camera system control circuit 5 in accordance with an operation via the focus instruction unit 120. In FIG. 4D to FIG. 4G, the distance measurement frame 130 is displayed as an overlay on the generated image. The distance measurement frame corresponds to the range of an image to be cut out when a part of the image is cut out to calculate the focus state of the subject. Since the digital camera acquires a plurality of images with different parallaxes, the distance to the subject can be measured based on the principle of triangulation. By using this, it is possible to determine whether or not each subject is in focus at the currently displayed focus position. Specifically, this process can be determined by SAD calculation described later with reference to FIG.

図4(d)から図4(g)に示す例ではピントが合っている範囲をピントの合った測距枠131で示した。図4(d)から図4(g)では測距枠131を太線で示したが、ピントが合っていない範囲の測距枠との間で識別できればよく、例えば色付けをして示してもよい。図4(d)では遠くにある被写体111に対応する測距枠131が太線で示されており、図4(e)では近くにある被写体110に対応する測距枠131が太線で示されている。   In the example shown in FIGS. 4D to 4G, the in-focus range is indicated by the in-focus range frame 131. In FIG. 4D to FIG. 4G, the distance measurement frame 131 is indicated by a thick line. However, the distance measurement frame 131 only needs to be distinguished from a distance measurement frame in an out-of-focus range. For example, it may be colored. . In FIG. 4D, the distance measurement frame 131 corresponding to the far object 111 is shown by a thick line, and in FIG. 4E, the distance measurement frame 131 corresponding to the nearby object 110 is shown by a thick line. Yes.

次に、絞り値を変更する操作、いわゆる絞り込みの操作をした場合を考える。絞り込むと被写界深度が深くなり、距離の異なる被写体であっても何れもピントが合った状態になる。ここでは、ボケが許容錯乱円以下になっている場合をピントが合ったものとしている。図4(f)は絞り込んだ状態を模式的に示しており、被写体110および被写体111の何れにもピントが合うと共に、双方に対応する測距枠131が太線で示されている。図4(f)で述べたように絞り値を変化するとピントが合う範囲が変化することが分かる。すなわち、深さ方向が変化することによって画面内でのピントが合う範囲も変化する。これを直感的に示したのが図4(g)である。図4(g)では、絞り変更によってピントが合う測距枠132としてハッチングで示した。実際には、ピントが合う測距枠132は、測距枠130および測距枠131との間で識別可能に例えば異なる色などで表示することができる。図4(g)は、手前の被写体110にピントが合っているが、絞り込むことで被写体111にもピントが合うことを示している。このように、絞り値の変更によってピントが合う範囲を現在、ピントが合っている範囲とは別の方法で提示している。   Next, consider a case where an operation for changing the aperture value, that is, a so-called aperture operation is performed. When narrowed down, the depth of field becomes deep, and even subjects with different distances are in focus. Here, the case where the blur is equal to or less than the permissible circle of confusion is assumed to be in focus. FIG. 4 (f) schematically shows a narrowed state, in which both the subject 110 and the subject 111 are in focus, and the distance measurement frame 131 corresponding to both is indicated by a thick line. As described with reference to FIG. 4F, it can be seen that the range in focus changes when the aperture value is changed. That is, as the depth direction changes, the in-focus range in the screen also changes. FIG. 4 (g) shows this intuitively. In FIG. 4G, the distance measuring frame 132 that is focused by changing the aperture is indicated by hatching. Actually, the focusing frame 132 in focus can be displayed in a different color or the like so as to be distinguishable between the ranging frame 130 and the ranging frame 131. FIG. 4G shows that the subject 110 in front is in focus, but the subject 111 is also focused by narrowing down. As described above, the range that is in focus by changing the aperture value is presented by a method different from the range that is currently in focus.

なお、特許文献2に開示された方法では、ユーザが画像を見てピントが合っているか否かを判断する必要があったが、低解像度のモニタなどではピント状態を正確に判断することは容易ではない。一方、本実施形態では、合焦範囲をオーバーレイして表示することで、ピントが合っている範囲を直感的にわかりやすく表示する。したがって、ユーザは低解像度のモニタであってもピントが合っていることを容易に把握することができる。また、図4に示すようなピント状態の提示方法は、従来のカメラのエイミング動作時にも用いられているので、従来のカメラを使用していたユーザに対して理解しやすいものになっている。   In the method disclosed in Patent Document 2, it is necessary for the user to determine whether or not the image is in focus by looking at the image, but it is easy to accurately determine the focus state on a low-resolution monitor or the like. is not. On the other hand, in the present embodiment, the in-focus range is displayed by overlaying, so that the in-focus range is displayed intuitively and easily. Therefore, the user can easily grasp that the subject is in focus even with a low-resolution monitor. Also, since the focus state presentation method as shown in FIG. 4 is also used during the aiming operation of the conventional camera, it is easy for the user who has used the conventional camera to understand.

次に、合焦判定のための処理およびフローチャートについて図5、図6を参照して説明する。
カメラシステム制御回路5は、最初に表示するピント位置を、撮影時の設定、デフォルトの設定または前回の設定値などの値を用いて表示する。図5ではフォーカス指示部120や絞り値指示部121によって、ユーザがピント状態を変化させるように指示した場合における、評価値の計算方法や評価値に応じた表示方法を具体的に説明する。
Next, processing and flowcharts for determining the focus will be described with reference to FIGS.
The camera system control circuit 5 displays the focus position to be displayed first using a value such as a setting at the time of shooting, a default setting, or a previous setting value. FIG. 5 specifically describes an evaluation value calculation method and a display method according to the evaluation value when the user instructs the focus instruction unit 120 and the aperture value instruction unit 121 to change the focus state.

図5(a)は、特定の測距枠でのピント評価値の計算方法を説明するための図である。図5(b)は、ピント評価値とピント位置の関係を示す図である。図6は、再生処理を示すフローチャートである。
図5(a)では、ある視点の像141、像141と異なる視点の像142、着目する測距枠143、対応する測距枠144、画像の切り出し位置の変化方向としての矢印145、加算器151、絶対値演算器152、加算器153をそれぞれ示している。
図5(a)に示す像141は複数の視点の異なる像のうちの特定の視点の像を示している。ここでは、図2の画素20eに対応する視点の像として説明する。同様に像142は図2の画素20aに対応する視点の像として説明する。
カメラシステム制御回路5は特定の視点の像141の測距枠143に着目する。カメラシステム制御回路5は、着目した画像を切り出し、他の視点の像142と比較する。図5(a)では、切り出した画像を下方向に拡大して表示している。
FIG. 5A is a diagram for explaining a method of calculating a focus evaluation value in a specific distance measurement frame. FIG. 5B is a diagram illustrating the relationship between the focus evaluation value and the focus position. FIG. 6 is a flowchart showing the reproduction process.
In FIG. 5A, an image 141 of a certain viewpoint, an image 142 of a viewpoint different from the image 141, a focusing frame 143 of interest, a corresponding ranging frame 144, an arrow 145 as a change direction of an image clipping position, an adder 151, an absolute value calculator 152, and an adder 153, respectively.
An image 141 shown in FIG. 5A shows an image at a specific viewpoint among images having different viewpoints. Here, the viewpoint image corresponding to the pixel 20e in FIG. 2 will be described. Similarly, the image 142 will be described as a viewpoint image corresponding to the pixel 20a in FIG.
The camera system control circuit 5 pays attention to the distance measuring frame 143 of the image 141 of a specific viewpoint. The camera system control circuit 5 cuts out the focused image and compares it with the image 142 of another viewpoint. In FIG. 5A, the cut-out image is enlarged and displayed downward.

ピント評価値を得るための比較はいくつかの方法が考えられるが、ここでは差分絶対値の積分(SAD=Sum of Absolute Difference)を用いるものとして説明を行う。SADは以下の式で定義される。   Several methods are conceivable for the comparison for obtaining the focus evaluation value. Here, the description will be made on the assumption that the difference absolute value integration (SAD = Sum of Absolute Difference) is used. SAD is defined by the following equation.

Figure 2017161941
Figure 2017161941

数1においてX(i)は特定の視点の像の着目した測距枠内の信号を、Y(i)は他の視点の像から切り出した信号を示している。iは比較すべき画素に対応する添え字である。例えば8×8の領域であればiは1から64までの値である。したがって、全ての画素の差分を積分するという意味になる。数1に示す定義から明らかなように、SADにおいては類似度が高い(特定の視点の像と他の視点の像がよく似ている)ときに極小値となる。ここでは、SADの値をピント評価値(ピント評価情報)として用いる。   In Equation 1, X (i) indicates a signal within a focusing frame in which an image of a specific viewpoint is focused, and Y (i) indicates a signal cut out from an image of another viewpoint. i is a subscript corresponding to the pixel to be compared. For example, in an 8 × 8 region, i is a value from 1 to 64. Therefore, this means that the differences of all the pixels are integrated. As is clear from the definition shown in Formula 1, in SAD, the minimum value is obtained when the degree of similarity is high (an image of a specific viewpoint and an image of another viewpoint are very similar). Here, the value of SAD is used as the focus evaluation value (focus evaluation information).

図5(a)では、数1をブロック図で示している。図5(a)に示すように、加算器151は、着目した測距枠143と他の視点から切り出した画像144の差を算出する。次に、絶対値演算器152が算出された差の絶対値を取得した後、加算器153が全ての画素に対して加算を行う。
先に説明したように特定の視点の像141と他の視点の像142はそれぞれ図3の画素20eおよび20aに対応している。同時に取得された視点の異なる画像間にはいわゆるエピポーラ拘束が存在するのでその方向のみに探索を行えばよい。例えば画素20aと画素20eから得られる画像を比較する場合には、視点位置がX方向のみにずれているので、探索方向をX方向に限定することができる。図5(a)では模式的に探索方向を矢印145で示している。
In FIG. 5A, Equation 1 is shown in a block diagram. As shown in FIG. 5A, the adder 151 calculates a difference between the focused distance measurement frame 143 and the image 144 cut out from another viewpoint. Next, after the absolute value calculator 152 acquires the absolute value of the calculated difference, the adder 153 performs addition for all the pixels.
As described above, a specific viewpoint image 141 and other viewpoint images 142 correspond to the pixels 20e and 20a in FIG. 3, respectively. Since there is a so-called epipolar constraint between images acquired at different viewpoints at the same time, it is sufficient to search only in that direction. For example, when comparing images obtained from the pixel 20a and the pixel 20e, since the viewpoint position is shifted only in the X direction, the search direction can be limited to the X direction. In FIG. 5A, the search direction is schematically indicated by an arrow 145.

したがって、カメラシステム制御回路5は、矢印145の方向に他の視点の像142から画像を切り出す位置を変化させながらSADを計算することで、どこかで極小値を得ることができる。極小値の場所が2つの像が一致しておりピントが合った位置となる。   Therefore, the camera system control circuit 5 can obtain a local minimum value somewhere by calculating the SAD while changing the position where the image is cut out from the image 142 of another viewpoint in the direction of the arrow 145. The location of the minimum value is the position where the two images are in agreement and in focus.

図5(b)は、画像の切り出しの位置とピント評価値との関係を示す図である。横軸は他の視点の像142から画像を切り出す位置を示し、縦軸はピント評価値(SAD)を示している。カメラシステム制御回路5は、上述したように画像の切り出し位置を矢印145方向に変えながらSADを計算することで、図5(b)に示すような値を取得することができる。図5(b)の例では8つの切り出し位置で計算を行い、それぞれ評価点161〜評価点168で示している。ここでは、評価点165で極小値となっている。このとき、評価点165に対応する位置が、ピントが最も合っている位置である。なお、評価点161から評価点168の値やグラフの形は被写体に依存する。   FIG. 5B is a diagram illustrating a relationship between the image cut-out position and the focus evaluation value. The horizontal axis indicates the position where the image is cut out from the image 142 of another viewpoint, and the vertical axis indicates the focus evaluation value (SAD). The camera system control circuit 5 can obtain a value as shown in FIG. 5B by calculating the SAD while changing the cutout position of the image in the direction of the arrow 145 as described above. In the example of FIG. 5B, calculation is performed at eight cutout positions, which are indicated by evaluation points 161 to 168, respectively. Here, the evaluation score 165 is a minimum value. At this time, the position corresponding to the evaluation point 165 is the position where the focus is best. Note that the value of the evaluation score 161 to the evaluation score 168 and the shape of the graph depend on the subject.

このとき、カメラシステム制御回路5は、ピントが最も合っている評価点165を中心として図5(b)における一定の横幅の範囲を、ピントが合っていると判定する合焦範囲にする。合焦範囲の横幅の大きさは、許容錯乱円とFナンバーとに基づいて決定される。カメラシステム制御回路5は、許容錯乱円を出力像の利用方法などに応じて設定することができる。例えば、カメラシステム制御回路5は、許容錯乱円を表示部9やプリントの解像度など鑑賞方法に応じて適した大きさに設定したり、予めユーザ操作による許容錯乱円の入力あるいは選択に応じて大きさを設定したりすることが好ましい。本実施形態では、カメラシステム制御回路5による許容錯乱円の設定が、ピント状態を判定するための合焦閾値を設定することに対応している。すなわち、カメラシステム制御回路5は、閾値設定手段の一例に対応する。   At this time, the camera system control circuit 5 sets the range of a certain horizontal width in FIG. 5B around the evaluation point 165 that is in focus as the focus range that is determined to be in focus. The width of the in-focus range is determined based on the allowable circle of confusion and the F number. The camera system control circuit 5 can set the allowable circle of confusion according to the method of using the output image. For example, the camera system control circuit 5 sets the permissible circle of confusion to a suitable size according to the viewing method such as the display unit 9 and the print resolution, or increases according to the input or selection of the permissible circle of confusion by a user operation in advance. It is preferable to set the thickness. In the present embodiment, the setting of the permissible circle of confusion by the camera system control circuit 5 corresponds to the setting of the focus threshold value for determining the focus state. That is, the camera system control circuit 5 corresponds to an example of threshold setting means.

カメラシステム制御回路5が許容錯乱円を大きく設定した場合(低解像度モニタでの鑑賞やL版などの小さいサイズでのプリントなど)は、同じFナンバーであっても図5(b)においてピントが合っていると判定する合焦範囲(の横幅)を大きくする。一方、許容錯乱円を小さく設定した場合(高解像度モニタでの鑑賞やA4版などの大きいサイズでのプリントなど)は、同じFナンバーであっても図5(b)においてピントが合っていると判定する合焦範囲(の横幅)を小さくする。   When the camera system control circuit 5 sets a large permissible circle of confusion (such as viewing on a low-resolution monitor or printing with a small size such as an L version), the focus in FIG. Increase the in-focus range (the width) that is determined to be correct. On the other hand, when the permissible circle of confusion is set small (such as viewing on a high-resolution monitor or printing in a large size such as A4 size), the same F number is in focus in FIG. Decrease the focusing range (width).

カメラシステム制御回路5は、図5(b)のようなピント評価値を測距枠ごとに計算することができる。また、表示画像のピント位置は必ずしも全ての測距枠においてピントが合った状態ではない。例えば、図4で説明したように、距離の異なる被写体がある場合には一方にピントが合って、他方はピントが外れていることが多くある。
図5(b)の評価値と図4のような表示の関係について述べる。ここでは説明を簡単にするために、カメラシステム制御回路5は表示画像のFナンバーがF2.8とF5.6との2つの画像を生成可能であるものとして説明する。また、表示画像のピント位置に関しては、図5(b)に示すピント位置1、ピント位置2、ピント位置3の3つの場合について説明する。
表示画像のピント位置が図5(b)のピント位置1にある場合を考える。この位置ではF2.8およびF5.6のいずれの絞り値であってもピントが合っているとみなすことができる。したがって、カメラシステム制御回路5は、表示画像の設定がF2.8であってもF5.6であってもピントが合っていると判定し、合焦を示す表示をオーバーレイして表示する。
The camera system control circuit 5 can calculate a focus evaluation value as shown in FIG. 5B for each distance measurement frame. Further, the focus position of the display image is not necessarily in a focused state in all the distance measurement frames. For example, as described with reference to FIG. 4, when there are subjects with different distances, one is often focused and the other is often out of focus.
The relationship between the evaluation value in FIG. 5B and the display in FIG. 4 will be described. Here, in order to simplify the description, the camera system control circuit 5 will be described as being capable of generating two images with the F number of the display image being F2.8 and F5.6. As for the focus position of the display image, three cases of focus position 1, focus position 2, and focus position 3 shown in FIG. 5B will be described.
Consider a case where the focus position of the display image is at the focus position 1 in FIG. At this position, it can be considered that the focus is in focus at any aperture value of F2.8 and F5.6. Therefore, the camera system control circuit 5 determines that the focus is in focus regardless of whether the setting of the display image is F2.8 or F5.6, and overlays and displays a display indicating in-focus.

次に、表示画像のピント位置が図5(b)のピント位置2にある場合を考える。この位置ではF5.6ではピントが合っているとみなすことができるが、F2.8ではピントが合っているとみなすことができない。したがって、カメラシステム制御回路5は、表示画像の設定がF5.6である場合にはピントが合っていると判定し、合焦を示す表示をオーバーレイして表示する。一方、表示画像の設定がF2.8である場合にはピントが合っていないと判定し、合焦を示す表示をオーバーレイして表示しない。ただし、カメラシステム制御回路5は、図4(g)で示したように絞り値の変更によってピントが合う範囲も表示する設定の場合には、絞り値指示部121により絞り値を変更することによりピント状態が変化する範囲として表示する。   Next, consider the case where the focus position of the display image is at the focus position 2 in FIG. At this position, F5.6 can be considered to be in focus, but F2.8 cannot be considered to be in focus. Therefore, when the display image setting is F5.6, the camera system control circuit 5 determines that the camera is in focus and overlays and displays a display indicating in-focus. On the other hand, when the setting of the display image is F2.8, it is determined that the image is not in focus, and the display indicating the focus is not overlaid and displayed. However, the camera system control circuit 5 changes the aperture value by the aperture value instruction unit 121 in the case where the range in focus is displayed by changing the aperture value as shown in FIG. Displayed as the range in which the focus state changes.

最後に、表示画像のピント位置が図5(b)のピント位置3にある場合を考える。この位置ではF2.8およびF5.6の何れの絞り値であってもピントが合っているとみなすことができない。したがって、カメラシステム制御回路5は、表示画像の設定がF2.8であっても、F5.6であってもピントが合っていないと判定し、合焦を示す表示をオーバーレイして表示しない。
上述したような処理を施すことで、図4(d)から図4(g)に示したような表示を実現することができる。
Finally, consider the case where the focus position of the display image is at the focus position 3 in FIG. At this position, it cannot be regarded that the aperture is in focus at any aperture value of F2.8 and F5.6. Therefore, the camera system control circuit 5 determines that the focus is not in focus regardless of whether the display image setting is F2.8 or F5.6, and does not overlay the display indicating the focus.
By performing the processing as described above, the display as shown in FIG. 4D to FIG. 4G can be realized.

図6は、本実施形態に係るデジタルカメラの処理を示すフローチャートである。
ステップS101では、カメラシステム制御回路5は、処理を開始する。
ステップS102では、カメラシステム制御回路5は、操作検出部10を介してユーザ操作による割り込みを待機する。ユーザ操作があった場合にはステップS103に進み、ユーザ操作がない場合にはステップS102にて待機する。
FIG. 6 is a flowchart showing processing of the digital camera according to the present embodiment.
In step S101, the camera system control circuit 5 starts processing.
In step S <b> 102, the camera system control circuit 5 waits for an interrupt by a user operation via the operation detection unit 10. If there is a user operation, the process proceeds to step S103, and if there is no user operation, the process waits in step S102.

ステップS103では、カメラシステム制御回路5は、ユーザ操作が終了操作であるか否かを判定する。終了操作の場合にはステップS104に進み処理を終了する。終了操作ではない場合にはステップS105に進む。
ステップS105では、カメラシステム制御回路5は、ユーザ操作が絞りを変更する操作またはピントを変更する操作であるか否かを判定する。具体的には、カメラシステム制御回路5は、操作検出部10を介して絞り値指示部121またはフォーカス指示部120によって絞り値またはピント位置を変更する操作であるか否かを判定する。絞りまたはピントを変更する操作があった場合にはステップS106に進み、絞りまたはピントを変更する操作ではない場合には不図示のユーザ操作に応じて処理を施してステップS102に戻る。
In step S103, the camera system control circuit 5 determines whether or not the user operation is an end operation. In the case of an end operation, the process proceeds to step S104 and the process ends. If it is not an end operation, the process proceeds to step S105.
In step S105, the camera system control circuit 5 determines whether or not the user operation is an operation for changing the aperture or an operation for changing the focus. Specifically, the camera system control circuit 5 determines whether or not the aperture value instruction unit 121 or the focus instruction unit 120 is an operation for changing the aperture value or the focus position via the operation detection unit 10. If there is an operation to change the aperture or focus, the process proceeds to step S106. If it is not an operation to change the aperture or focus, processing is performed according to a user operation (not shown) and the process returns to step S102.

ステップS106では、カメラシステム制御回路5は、合焦閾値を例えばメモリ部8から読み込む。この合焦閾値は、ステップS107においてカメラシステム制御回路5が鑑賞方法やユーザの入力などに応じて予め設定した許容錯乱円である。
ステップS108では、カメラシステム制御回路5は、現像を施して表示画像を更新する。具体的には、カメラシステム制御回路5は、ステップS105で判断した絞りまたはピントを変更する操作に応じて画像を現像して表示部9に表示する。
In step S <b> 106, the camera system control circuit 5 reads the focus threshold value from the memory unit 8, for example. This focus threshold value is an allowable circle of confusion set in advance by the camera system control circuit 5 according to the viewing method, user input, and the like in step S107.
In step S108, the camera system control circuit 5 performs development and updates the display image. Specifically, the camera system control circuit 5 develops and displays the image on the display unit 9 in accordance with the operation for changing the aperture or focus determined in step S105.

ステップS109では、カメラシステム制御回路5は、現在の測距枠(測距点)のピント状態、すなわちピントが合っているか否かを判定する。ピントが合っている場合にはステップS110に進み、ピントが合っていない場合にはステップS111に進む。ここで、カメラシステム制御回路5は、ピントが合っているか否かを、図5(b)で説明したように、表示画像のピント位置および絞り値、許容錯乱円、当該測距枠の合焦位置の情報に基づいて判定することができる。ステップS105をステップS106に進む場合にはユーザ操作によって表示画像のピント位置および絞り値が決定され、ステップS106では許容錯乱円が設定されている。したがって、ステップS109では、カメラシステム制御回路5は図5(b)において上述したようなピント評価値の計算を行い、当該測距枠の合焦位置を求めて、ピントが合っているとみなせるか否かを判定することができる。   In step S109, the camera system control circuit 5 determines whether or not the current focus frame (ranging point) is in focus, that is, whether or not the subject is in focus. If the subject is in focus, the process proceeds to step S110. If the subject is not in focus, the process proceeds to step S111. Here, as described with reference to FIG. 5B, the camera system control circuit 5 determines whether the focus is in focus, the focus position and aperture value of the display image, the allowable circle of confusion, and the focus of the distance measurement frame. The determination can be made based on the position information. When the process proceeds from step S105 to step S106, the focus position and aperture value of the display image are determined by the user operation, and an allowable circle of confusion is set in step S106. Therefore, in step S109, the camera system control circuit 5 calculates the focus evaluation value as described above with reference to FIG. 5B, obtains the in-focus position of the distance measurement frame, and can be regarded as being in focus. It can be determined whether or not.

ステップS110では、カメラシステム制御回路5は、合焦表示を行う。具体的には、カメラシステム制御回路5は、ピントが合っていることを識別できる測距枠131を表示画像にオーバーレイして表示部9に表示する。
ステップS111では、カメラシステム制御回路5は、絞り込むことにより測距枠のピントが合うか否かを判定する。絞り込むことによりピントが合う場合にはステップS112に進み、絞り込んでもピントが合わない場合にはステップS113に進む。ここで、カメラシステム制御回路5は、絞り込むことにより測距枠のピントが合うか否かを、図5(b)で説明したように、表示画像のピント位置および絞り値、許容錯乱円、当該測距枠の合焦位置の情報に基づいて判定することができる。例えば、図5(b)に示すように、表示画像のピント位置が“ピント位置2”であって、現在の表示画像の設定がF2.8である場合には、評価点163はピントが合っていると判定されない。しかし、絞り込むことによりピントが合っていると判定する合焦範囲が広がることにより、評価点163はピントが合っていると判定される。このように、カメラシステム制御回路5は、ユーザによる絞り値を変更する操作によってピントが合うか否かを判定する。
In step S110, the camera system control circuit 5 performs in-focus display. Specifically, the camera system control circuit 5 overlays a distance measuring frame 131 that can identify that the camera is in focus on the display image, and displays it on the display unit 9.
In step S111, the camera system control circuit 5 determines whether or not the focus detection frame is in focus by narrowing down. When focusing is achieved by narrowing down, the process proceeds to step S112, and when focusing is not achieved, the process proceeds to step S113. Here, as described with reference to FIG. 5B, the camera system control circuit 5 determines whether or not the focusing frame is focused by narrowing down, as described with reference to FIG. The determination can be made based on the information on the focus position of the distance measurement frame. For example, as shown in FIG. 5B, when the focus position of the display image is “focus position 2” and the current display image setting is F2.8, the evaluation point 163 is in focus. Not determined to be. However, the evaluation point 163 is determined to be in focus because the focus range that is determined to be in focus is expanded by narrowing down. As described above, the camera system control circuit 5 determines whether or not the focus is achieved by an operation of changing the aperture value by the user.

ステップS112では、カメラシステム制御回路5は、絞り込みことで合焦することが識別できる表示(絞り込み合焦表示)を行う。具体的には、カメラシステム制御回路5は、絞り込むことによりピントが合うことを識別できる測距枠132を表示画像にオーバーレイして表示部9に表示する。
ステップS113では、カメラシステム制御回路5は、全ての測距枠についてステップS109〜ステップS112までの処理を行ったか否かを判定する。全ての測距枠について処理が完了した場合にはステップS102に戻り、カメラシステム制御回路5はユーザ操作を待機する。完了していない場合にはステップS109に戻り、カメラシステム制御回路5は、次の測距枠について着目し、全ての測距枠について処理が完了するまで繰り返す。
In step S112, the camera system control circuit 5 performs a display (narrowing focus display) that can identify that focusing is achieved by narrowing down. Specifically, the camera system control circuit 5 overlays a display frame on the display unit 9 and displays the range-finding frame 132 that can identify that the subject is in focus by narrowing down.
In step S113, the camera system control circuit 5 determines whether or not the processing from step S109 to step S112 has been performed for all the distance measurement frames. When the processing is completed for all the ranging frames, the process returns to step S102, and the camera system control circuit 5 waits for a user operation. If it has not been completed, the process returns to step S109, and the camera system control circuit 5 pays attention to the next distance measurement frame and repeats until all the distance measurement frames have been processed.

このように本実施形態によれば、撮影後のフォーカスおよび絞りの変更に応じて生成された画像に、ピント状態を示す表示をオーバーレイして表示することにより、ユーザはピントが合っている範囲を直感的に容易に把握することができる。   As described above, according to the present embodiment, by displaying the focus state on the image generated in accordance with the change of the focus and the aperture after shooting, the user can select the range in focus. Intuitively and easily grasped.

なお、本実施形態では、図6のフローチャートでは絞り込むことによりピントが合うことを識別できる測距枠132を表示する場合について説明したが、この場合に限られない。例えば、現在ピントが合っている範囲のみを表示する場合には、ステップS111とステップS112とを省略し、ステップS109において“N”の場合にはステップS113に進むようにすればよい。   In the present embodiment, the case where the distance measuring frame 132 that can identify that the subject is in focus by narrowing down is displayed in the flowchart of FIG. 6, but the present invention is not limited to this case. For example, when displaying only the currently focused range, step S111 and step S112 may be omitted, and if “N” in step S109, the process proceeds to step S113.

以上、本発明を種々の実施形態と共に説明したが、本発明はこれらの実施形態にのみ限定されるものではなく、本発明の範囲内で変更などが可能である。
また、上述した実施形態では、本発明をデジタルカメラに適用した場合を例にして説明したが、この場合に限定されず、再生装置にも用いることができる。
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するプログラムを、ネットワークまたは各種記憶媒体を介してデジタルカメラに供給し、デジタルカメラのコンピュータ(カメラシステム制御回路5など)がプログラムを読み出して実行する処理である。
As mentioned above, although this invention was demonstrated with various embodiment, this invention is not limited only to these embodiment, A change etc. are possible within the scope of the present invention.
In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this case, and the present invention can also be used for a playback apparatus.
The present invention can also be realized by executing the following processing. That is, this is a process in which a program that realizes the functions of the above-described embodiments is supplied to a digital camera via a network or various storage media, and a digital camera computer (camera system control circuit 5 or the like) reads and executes the program. .

1:カメラ本体 2:レンズユニット 5:カメラシステム制御回路 6:撮像素子 9:表示部 18:マイクロレンズアレイ(MLA) 20:マイクロレンズ 110:被写体 111:被写体 120:フォーカス指示部 121:絞り値指示部 130〜132:測距枠   1: Camera body 2: Lens unit 5: Camera system control circuit 6: Image sensor 9: Display unit 18: Micro lens array (MLA) 20: Micro lens 110: Subject 111: Subject 120: Focus instruction unit 121: Aperture value instruction Parts 130-132: Distance measurement frame

Claims (20)

ライトフィールド情報から画像を生成して表示する再生装置であって、
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示手段と、
前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置にしたがって画像を生成する生成手段と、
前記生成手段により生成された画像とともに、ピント状態を示す表示を表示する表示手段と、
を有することを特徴とする再生装置。
A playback device that generates and displays an image from light field information,
Focus instruction means for instructing a focus position of an image including a virtual focus position;
Generating means for generating an image from the light field information according to a focus position instructed by the focus instruction means;
Display means for displaying a display indicating a focus state together with the image generated by the generating means;
A playback apparatus comprising:
仮想的な絞りを含む、画像の絞り設定を指示する絞り指示手段を含み、
前記生成手段は、前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置および前記絞り指示手段により指示された絞り設定にしたがって画像を生成することを特徴とする請求項1に記載の再生装置。
Including an aperture instruction means for instructing aperture setting of an image, including a virtual aperture,
2. The reproduction according to claim 1, wherein the generation unit generates an image from the light field information according to a focus position instructed by the focus instruction unit and an aperture setting instructed by the aperture instruction unit. apparatus.
前記表示手段は、前記生成手段により生成された画像の一部の領域について、該領域のピント状態を示す表示を行うことを特徴とする請求項1または2に記載の再生装置。   The playback apparatus according to claim 1, wherein the display unit performs display indicating a focus state of a region of a part of the image generated by the generation unit. 前記表示手段は、ピントが合っている場合の表示と、ピントが合っていない場合の表示の色を異ならせることでピント状態を示すことを特徴とする請求項1乃至3のいずれか1項に記載の再生装置。   4. The display device according to claim 1, wherein the display unit displays a focus state by differentiating a display color when the focus is achieved and a display color when the focus is not achieved. 5. The reproducing apparatus as described. 前記表示手段は、前記生成手段により生成された画像に設定された枠の表示と、当該枠に対応する領域でのピント状態を示す表示が可能であることを特徴とする請求項1乃至4のいずれか1項に記載の再生装置。   5. The display unit according to claim 1, wherein the display unit is capable of displaying a frame set in the image generated by the generation unit and displaying a focus state in an area corresponding to the frame. The playback apparatus according to any one of the above. 前記表示手段は、前記ライトフィールド情報からピントの合った画像を生成することができる領域を示す表示が可能であることを特徴とする請求項1乃至5のいずれか1項に記載の再生装置。   6. The reproducing apparatus according to claim 1, wherein the display unit is capable of displaying an area in which an in-focus image can be generated from the light field information. 前記表示手段は、前記生成手段により生成された画像に、前記ライトフィールド情報からピントの合った画像を生成することができる領域を示す表示を、前記ピント状態を示す表示と合わせて表示することを特徴とする請求項1乃至6のいずれか1項に記載の再生装置。   The display means displays, on the image generated by the generating means, a display indicating an area where an in-focus image can be generated from the light field information together with a display indicating the focus state. The reproduction apparatus according to claim 1, wherein the reproduction apparatus is a reproduction apparatus. 前記表示手段による前記ピント状態の表示は、前記ライトフィールド情報から得られる位相差に基づいて行われることを特徴とする請求項1乃至7のいずれか1項に記載の再生装置。   8. The playback apparatus according to claim 1, wherein the display of the focus state by the display unit is performed based on a phase difference obtained from the light field information. 前記ライトフィールド情報は、複数の撮像素子を含む多眼光学系から得られる信号を含むことを特徴とする請求項1乃至8のいずれか1項に記載の再生装置。   The reproduction apparatus according to claim 1, wherein the light field information includes a signal obtained from a multi-view optical system including a plurality of imaging elements. 前記ライトフィールド情報は、複数のマイクロレンズと、各マイクロレンズに複数の光電変換部が割り当てられた撮像素子から得られる信号を含むことを特徴とする請求項1乃至8のいずれか1項に記載の再生装置。   9. The light field information according to claim 1, wherein the light field information includes a plurality of microlenses and a signal obtained from an imaging device in which a plurality of photoelectric conversion units are assigned to each microlens. 10. Playback device. 前記ピント状態を示す表示は、どの距離の被写体にピントが合っているのかを示すことを特徴とする請求項1乃至10のいずれか1項に記載の再生装置。   The playback apparatus according to claim 1, wherein the display indicating the focus state indicates a subject at which distance is in focus. 前記ピント状態を示す表示は、画像の中でピントが合っている領域を示すことを特徴とする請求項1乃至11のいずれか1項に記載の再生装置。   The playback apparatus according to claim 1, wherein the display indicating the focus state indicates an area in focus in the image. 撮像手段と、
請求項1乃至12のいずれか1項に記載の再生装置と、
を有することを特徴とする撮像装置。
Imaging means;
The playback device according to any one of claims 1 to 12,
An imaging device comprising:
前記ライトフィールド情報は、前記撮像手段から得られる信号に基づいて焦点位置あるいは絞り位置を制御して撮像された信号を含むことを特徴とする請求項13に記載の撮像装置。   14. The imaging apparatus according to claim 13, wherein the light field information includes a signal imaged by controlling a focal position or a diaphragm position based on a signal obtained from the imaging unit. 前記撮像手段に光束を導く撮像光学系を含むレンズ鏡筒の外周に沿って回転可能なリング部材を有し、
前記フォーカス指示手段は、前記リング部材の回転を検出することで画像のピント位置を指示することを特徴とする請求項13または14に記載の撮像装置。
A ring member rotatable along the outer periphery of a lens barrel including an imaging optical system for guiding a light beam to the imaging means;
The imaging apparatus according to claim 13 or 14, wherein the focus instruction unit instructs a focus position of an image by detecting rotation of the ring member.
ライトフィールド情報から画像を生成して表示する再生装置の制御方法であって、
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示ステップと、
前記ライトフィールド情報から、前記フォーカス指示ステップにより指示されたピント位置にしたがって画像を生成する生成ステップと、
前記生成ステップにより生成された画像とともに、ピント状態を示す表示を表示する表示ステップと、
を有することを特徴とする再生装置の制御方法。
A control method of a playback device that generates and displays an image from light field information,
A focus instruction step for indicating a focus position of an image including a virtual focus position;
A generation step for generating an image from the light field information according to the focus position instructed by the focus instruction step;
A display step for displaying a display indicating a focus state together with the image generated by the generation step;
A control method for a playback apparatus, comprising:
ライトフィールド情報から画像を生成して表示する再生装置であって、
仮想的な絞りを含む、画像の絞り設定を指示する絞り指示手段と、
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示手段と、
前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置および前記絞り指示手段により指示された絞り設定にしたがって画像を生成する生成手段と、
前記生成手段により生成された画像とともに、ピント状態を示す表示を表示する表示手段と、
を有することを特徴とする再生装置。
A playback device that generates and displays an image from light field information,
A diaphragm instruction means for instructing an image aperture setting including a virtual diaphragm,
Focus instruction means for instructing a focus position of an image including a virtual focus position;
Generating means for generating an image from the light field information in accordance with a focus position instructed by the focus instruction means and an aperture setting instructed by the aperture instruction means;
Display means for displaying a display indicating a focus state together with the image generated by the generating means;
A playback apparatus comprising:
ライトフィールド情報から画像を生成して表示する再生装置の制御方法であって、
仮想的な絞りを含む、画像の絞り設定を指示する絞り指示ステップと、
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示ステップと、
前記ライトフィールド情報から、前記フォーカス指示ステップにより指示されたピント位置および前記絞り指示ステップにて指示された絞り設定にしたがって画像を生成する生成ステップと、
前記生成ステップにより生成された画像とともに、ピント状態を示す表示を表示する表示ステップと、
を有することを特徴とする再生装置の制御方法。
A control method of a playback device that generates and displays an image from light field information,
An aperture instruction step for instructing aperture setting of an image including a virtual aperture,
A focus instruction step for indicating a focus position of an image including a virtual focus position;
A generation step for generating an image from the light field information according to the focus position instructed in the focus instruction step and the aperture setting instructed in the aperture instruction step;
A display step for displaying a display indicating a focus state together with the image generated by the generation step;
A control method for a playback apparatus, comprising:
請求項16または18に記載の再生装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the control method of the reproducing | regenerating apparatus of Claim 16 or 18. 請求項16または18に記載の再生装置の制御方法の各ステップをコンピュータに実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the playback apparatus control method according to claim 16.
JP2017112544A 2017-06-07 2017-06-07 REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD Active JP6400152B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112544A JP6400152B2 (en) 2017-06-07 2017-06-07 REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112544A JP6400152B2 (en) 2017-06-07 2017-06-07 REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013187556A Division JP6157290B2 (en) 2013-09-10 2013-09-10 REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2017161941A true JP2017161941A (en) 2017-09-14
JP6400152B2 JP6400152B2 (en) 2018-10-03

Family

ID=59857886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112544A Active JP6400152B2 (en) 2017-06-07 2017-06-07 REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP6400152B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020064208A (en) * 2018-10-18 2020-04-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP2020166199A (en) * 2019-03-29 2020-10-08 キヤノン株式会社 Electronic apparatus and method of controlling the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289383A (en) * 2003-03-20 2004-10-14 Seiko Epson Corp Image pickup device, image data generating device, image data processor, and image data processing program
JP2010177741A (en) * 2009-01-27 2010-08-12 Olympus Corp Image capturing apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
JP2013110556A (en) * 2011-11-21 2013-06-06 Olympus Corp Prenoptic camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289383A (en) * 2003-03-20 2004-10-14 Seiko Epson Corp Image pickup device, image data generating device, image data processor, and image data processing program
JP2010177741A (en) * 2009-01-27 2010-08-12 Olympus Corp Image capturing apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
JP2013110556A (en) * 2011-11-21 2013-06-06 Olympus Corp Prenoptic camera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020064208A (en) * 2018-10-18 2020-04-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP7175704B2 (en) 2018-10-18 2022-11-21 キヤノン株式会社 Imaging device and its control method
JP2020166199A (en) * 2019-03-29 2020-10-08 キヤノン株式会社 Electronic apparatus and method of controlling the same
JP7225004B2 (en) 2019-03-29 2023-02-20 キヤノン株式会社 Electronic device and its control method

Also Published As

Publication number Publication date
JP6400152B2 (en) 2018-10-03

Similar Documents

Publication Publication Date Title
JP2009115893A (en) Image-pickup apparatus
JP6202910B2 (en) Video processing apparatus, control method therefor, and program
JP5914192B2 (en) Imaging apparatus and control method thereof
US9554054B2 (en) Imaging apparatus and its control method and program
JP2014153890A (en) Image processing apparatus, imaging apparatus, control method, and program
JP5784395B2 (en) Imaging device
JP6525809B2 (en) Focus detection apparatus and control method thereof
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP6400152B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
JP6157290B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM
JP6198395B2 (en) Imaging apparatus and control method thereof
JP7307592B2 (en) Measuring device, imaging device, control method and program
JP6346484B2 (en) Image processing apparatus and control method thereof
JP2014154981A (en) Imaging apparatus and control method therefor
US20160156867A1 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus
US20190281225A1 (en) Focus detection device and focus detection method
JP6381206B2 (en) Image processing apparatus, control method thereof, and program
JP6257260B2 (en) Imaging apparatus and control method thereof
JP6005246B2 (en) Imaging apparatus, histogram display method, program, and image processing apparatus
JP2016148732A (en) Imaging device and image display method, program, and program storage medium
JP2015084518A (en) Image processing apparatus, image processing method, program and recording medium
JP6016567B2 (en) Correlation calculation device, imaging device, correlation calculation method, program, and storage medium
JP6336284B2 (en) Image processing apparatus, control method thereof, and program
JP6257201B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE
JP6336316B2 (en) Imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R151 Written notification of patent or utility model registration

Ref document number: 6400152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151