JP2013254089A - Display device, display method and imaging device including display device - Google Patents

Display device, display method and imaging device including display device Download PDF

Info

Publication number
JP2013254089A
JP2013254089A JP2012129652A JP2012129652A JP2013254089A JP 2013254089 A JP2013254089 A JP 2013254089A JP 2012129652 A JP2012129652 A JP 2012129652A JP 2012129652 A JP2012129652 A JP 2012129652A JP 2013254089 A JP2013254089 A JP 2013254089A
Authority
JP
Japan
Prior art keywords
display
pupil
divided
area
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012129652A
Other languages
Japanese (ja)
Other versions
JP6144880B2 (en
Inventor
Masashi Kimura
正史 木村
Fumihiro Kajimura
文裕 梶村
Tomomi Watanabe
友美 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012129652A priority Critical patent/JP6144880B2/en
Publication of JP2013254089A publication Critical patent/JP2013254089A/en
Application granted granted Critical
Publication of JP6144880B2 publication Critical patent/JP6144880B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately present information captured by a light-field camera having two or more angle divisions to a user.SOLUTION: A display device for displaying pixel signals obtained by performing photoelectric conversion of a subject image with an imaging element on display means is configured to comprise: signal acquisition means that acquires information including pixel signals obtained by the light-field camera; display area division means that divides a display screen of the display means into a plurality of division display areas; base-line direction control means that sets a base-line length direction to be used in range-finding; and display control means that displays the pixel signal corresponding to different pupil areas but not adjacent to each other of two or more pupil areas divided in the base-line length direction set by the base-line direction control means on the basis of the information obtained by the signal acquisition means in one of the plurality of division display areas.

Description

本発明は、デジタルカメラに代表される撮像装置に用いられる表示装置に関し、特に光線空間情報(ライトフィールドとも呼ばれる)を取得可能なカメラで取得された画素信号の表示方法に関するものである。   The present invention relates to a display device used in an imaging apparatus typified by a digital camera, and more particularly to a display method of a pixel signal acquired by a camera capable of acquiring light space information (also referred to as a light field).

近年のデジタルカメラは高機能化が進展し、新しいカメラの形態として光線空間情報を取得可能なカメラの提案がなされている。このようなカメラはライトフィールドカメラ等と通称されている。ライトフィールドカメラでは異なる瞳領域を通過した光束から画素信号を取得し、取得した画素信号から画像を再構成して出力画像を得ることで撮影後のフォーカス位置の変更などの機能を提供することが可能である。   In recent years, digital cameras have been improved in functionality, and a camera capable of acquiring light space information has been proposed as a new camera form. Such a camera is commonly called a light field camera or the like. Light field cameras can provide functions such as changing the focus position after shooting by acquiring pixel signals from light fluxes that have passed through different pupil regions and reconstructing images from the acquired pixel signals to obtain output images. Is possible.

一方で、ライトフィールドカメラは、取得された情報をユーザーに適宜提示することが必要である。   On the other hand, the light field camera needs to present the acquired information to the user as appropriate.

この問題を解決するために、特許文献1では、異なる瞳領域を通過した像をそれぞれ異なる領域に表示することによっていわゆるスプリットイメージとして表示する技術が開示されている。   In order to solve this problem, Patent Document 1 discloses a technique for displaying a so-called split image by displaying images that have passed through different pupil regions in different regions.

さらに、特許文献2では、焦点検出用素子を設けた撮像光学系において、異なる瞳領域を通過した像を表示する技術が開示されている。   Further, Patent Document 2 discloses a technique for displaying an image that has passed through different pupil regions in an imaging optical system provided with a focus detection element.

特開2009−232288号公報JP 2009-232288 A 特開2008−116848号公報JP 2008-116848 A

しかしながら、上述の特許文献に開示された従来技術では、瞳領域をより多数に分割した場合(ライトフィールドカメラでの角度分割数が2よりも大きい場合)に適切に表示が行われない場合がある。   However, in the related art disclosed in the above-mentioned patent document, when the pupil region is divided into a larger number (when the number of angle divisions in the light field camera is larger than 2), the display may not be appropriately performed. .

すなわち特許文献1および特許文献2では、焦点検出用に異なる瞳領域を通過した像のために基本的には2つに分割された場合についての情報が開示されている。一方でより多くの分割を持つ場合における好ましい表示方法については開示されていない。   That is, Patent Document 1 and Patent Document 2 disclose information about a case where an image that has passed through different pupil regions for focus detection is basically divided into two. On the other hand, a preferred display method in the case of having more divisions is not disclosed.

そこで、本発明の目的は、2よりも多い角度分割をもつライトフィールドカメラで取得された情報を用いて、異なる瞳領域を通過した像を、ユーザーに適宜提示することが可能な表示装置および前記表示装置を備えた撮影装置を提供することである。   Accordingly, an object of the present invention is to provide a display device capable of appropriately presenting to a user an image that has passed through different pupil regions, using information acquired by a light field camera having more than two angle divisions. An object of the present invention is to provide a photographing apparatus provided with a display device.

本発明によれば、被写体像を撮像素子により光電変換して得られた画素信号を表示手段に表示するための表示装置は、ライトフィールドカメラで得られた画素信号を含む情報を取得する信号取得手段、表示手段の表示画面を複数の分割表示領域に分割する表示領域分割手段、測距に用いる基線長方向を設定する基線方向制御手段、複数の分割表示領域の一領域において、前記信号取得手段で取得した前記情報に基づいて、前記基線方向制御手段で設定された基線長方向に分割された2つより多い瞳領域のうちの隣接しない異なる瞳領域に対応する前記画素信号を表示する表示制御手段を備える。   According to the present invention, a display device for displaying on a display means a pixel signal obtained by photoelectrically converting a subject image by an image sensor acquires a signal for acquiring information including the pixel signal obtained by a light field camera. Means, a display area dividing means for dividing the display screen of the display means into a plurality of divided display areas, a baseline direction control means for setting a baseline length direction used for ranging, and the signal acquisition means in one area of the plurality of divided display areas Display control for displaying the pixel signals corresponding to different non-adjacent pupil regions out of more than two pupil regions divided in the baseline length direction set by the baseline direction control means based on the information acquired in Means.

また、本発明によれば、撮像装置は上記本発明の表示装置を備える。   According to the invention, the imaging device includes the display device of the invention.

本発明によれば、2よりも多い角度分割をもつライトフィールドカメラで取得された情報を、ユーザーに適宜提示することが可能な表示装置および前記表示装置を備えた撮影装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device provided with the display apparatus which can show suitably the information acquired with the light field camera which has more than two angle divisions to a user, and the said display apparatus can be provided. .

実施形態において本発明を適用する撮像装置のブロック図。1 is a block diagram of an imaging apparatus to which the present invention is applied in an embodiment. 図1の撮像装置の撮像光学系を模式的に示す図。The figure which shows typically the imaging optical system of the imaging device of FIG. 図1の撮像装置における像生成動作を概念的に示す図。FIG. 2 is a diagram conceptually illustrating an image generation operation in the imaging apparatus of FIG. 1. 図1の撮像装置の動作のフローチャートを示す図。FIG. 3 is a diagram illustrating a flowchart of the operation of the imaging apparatus in FIG. 1. 本発明の第1の実施例に係わる表示装置による表示構成を示す図。The figure which shows the display structure by the display apparatus concerning the 1st Example of this invention. 本発明の第1及に係わる表示装置での基線長方向の設定を模式的に示す図。The figure which shows typically the setting of the base line length direction in the display apparatus concerning the 1st grade of this invention. 本発明の第2の実施例に係わる表示装置の表示構成を示す図。The figure which shows the display structure of the display apparatus concerning the 2nd Example of this invention. 本発明を適用する撮像装置の撮像光学系の他の例を示す図。FIG. 6 is a diagram illustrating another example of an imaging optical system of an imaging apparatus to which the present invention is applied.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の要部を説明する模式図である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a schematic diagram for explaining a main part of the present invention.

以下、図1から図8を参照して、本発明の実施形態を説明する。本発明の表示装置は、撮影に先行するエイミングや、撮影後の現像時での画像表示に活用されるものであるが、本実施形態では本発明を撮像装置に適用した場合を例として説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. The display device of the present invention is used for aiming prior to photographing and image display at the time of development after photographing. In the present embodiment, a case where the present invention is applied to an imaging device will be described as an example. .

図1は本発明の実施形態に係わる撮影装置であるカメラシステムのブロック図である。本カメラシステムは、カメラ1およびレンズ2からなり、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮像光学系3 、撮像素子6を含み、画像処理系は、画像処理部7を含む。また、記録再生系は、メモリ手段8、表示手段9を含み、制御系は、カメラシステム制御回路5、操作検出部10、およびレンズシステム制御回路12、レンズ駆動手段13を含む。レンズ駆動手段13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。   FIG. 1 is a block diagram of a camera system which is a photographing apparatus according to an embodiment of the present invention. This camera system includes a camera 1 and a lens 2 and includes an imaging system, an image processing system, a recording / reproducing system, and a control system. The imaging system includes an imaging optical system 3 and an imaging element 6, and the image processing system includes an image processing unit 7. The recording / reproducing system includes a memory unit 8 and a display unit 9, and the control system includes a camera system control circuit 5, an operation detection unit 10, a lens system control circuit 12, and a lens driving unit 13. The lens driving unit 13 can drive a focus lens, a shake correction lens, a diaphragm, and the like.

撮像系は、物体からの光を、撮影光学系3を介して撮像素子6の撮像面に結像する光学処理系である。撮影素子6は、画素(光電変換素子)を二次元に配列した受光面を有し、当該受光面にはマイクロレンズが格子状に配置してあり、いわゆるマイクロレンズアレイ(以下 MLA)を形成している。MLAは本実施例において、瞳分割手段を構成する。MLAの機能や配置の詳細については図3を用いて後述する。後述するように、撮像素子6から出力される画素信号からはピント評価量/適当な露光量が得られるので、この量に基づいて適切に撮影光学系3を調整する。これにより、適切な光量の被写体光を撮像素子6に露光するとともに、撮像素子6の近傍で被写体像が結像する。   The imaging system is an optical processing system that forms an image of light from an object on the imaging surface of the imaging device 6 via the imaging optical system 3. The imaging element 6 has a light receiving surface in which pixels (photoelectric conversion elements) are two-dimensionally arranged, and microlenses are arranged in a lattice pattern on the light receiving surface to form a so-called microlens array (hereinafter referred to as MLA). ing. The MLA constitutes pupil dividing means in this embodiment. Details of the functions and arrangement of the MLA will be described later with reference to FIG. As will be described later, since the focus evaluation amount / appropriate exposure amount is obtained from the pixel signal output from the image sensor 6, the photographing optical system 3 is appropriately adjusted based on this amount. Thereby, subject light of an appropriate amount of light is exposed to the image sensor 6 and a subject image is formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像を生成することができる。また、本発明の要部である、像シフト手段、像生成手段、コントラスト評価手段、相関計算手段等を含めることもできる。(本実施例ではこれらの要素はカメラシステム制御内に配置する場合を想定して記載する。)   The image processing unit 7 includes an A / D converter, a white balance circuit, a gamma correction circuit, an interpolation calculation circuit, and the like, and can generate a recording image. In addition, an image shift unit, an image generation unit, a contrast evaluation unit, a correlation calculation unit, and the like, which are main parts of the present invention, can be included. (In this embodiment, these elements are described assuming that they are arranged in the camera system control.)

メモリ手段8は実際の記憶部に加えて記録に必要な処理回路を備えている。メモリ手段は、記録部へ出力を行うとともに、表示手段9に出力する像を生成、保存する。また、メモリ手段8は、予め定められた方法を用いて画像、動画、音声などの情報量の圧縮を行う。   The memory means 8 includes a processing circuit necessary for recording in addition to an actual storage unit. The memory means outputs to the recording unit and generates and stores an image to be output to the display means 9. Further, the memory means 8 compresses the amount of information such as images, moving images, and sounds using a predetermined method.

カメラシステム制御回路5は撮像の際のタイミング信号などを生成して出力する。外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のシャッターレリーズ釦の押下を操作検出回路10が検出して、撮像素子6の駆動、画像処理部7の動作、メモリ手段8の圧縮処理などを制御する。さらに表示手段9によって液晶モニタ等の表示画面に情報表示を行う情報表示装置の各セグメントの状態を制御する。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. The imaging system, image processing system, and recording / reproducing system are controlled in response to external operations. For example, the operation detection circuit 10 detects that a shutter release button (not shown) is pressed, and controls driving of the image sensor 6, operation of the image processing unit 7, compression processing of the memory unit 8, and the like. Further, the state of each segment of the information display device that displays information on a display screen such as a liquid crystal monitor is controlled by the display means 9.

制御系による光学系の調整動作について説明する。カメラシステム制御回路5には画像処理部7が接続されており、撮像素子6からの画素信号(光電変換信号)に基づいて適切な焦点位置、絞り位置を求める。カメラシステム制御回路5は、電気接点11を介してレンズシステム制御回路12に指令を出し、レンズシステム制御回路12はレンズ駆動手段13を適切に制御する。さらにレンズシステム制御回路12には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号に基づいてレンズ駆動手段13を介してブレ補正レンズを適切に制御する。   The adjustment operation of the optical system by the control system will be described. An image processing unit 7 is connected to the camera system control circuit 5, and appropriate focus positions and aperture positions are obtained based on pixel signals (photoelectric conversion signals) from the image sensor 6. The camera system control circuit 5 issues a command to the lens system control circuit 12 via the electrical contact 11, and the lens system control circuit 12 appropriately controls the lens driving means 13. Further, a camera shake detection sensor (not shown) is connected to the lens system control circuit 12. In the camera shake correction mode, the shake correction lens is appropriately controlled via the lens driving means 13 based on the signal of the camera shake detection sensor. To do.

図2は、本実施例における撮影光学系の要部の構成を模式的に示す図である。本発明を適用するためには、いわゆる光線空間情報等といわれる光線の位置に加えて角度の情報を取得する必要がある。本実施例では、角度情報の取得のために撮影光学系3の結像面近傍にMLAを配置するとともに、MLAを構成する1つのレンズに対して複数の画素を対応させている。   FIG. 2 is a diagram schematically showing a configuration of a main part of the photographing optical system in the present embodiment. In order to apply the present invention, it is necessary to acquire angle information in addition to the position of light rays, so-called light space information. In this embodiment, in order to obtain angle information, an MLA is arranged in the vicinity of the imaging plane of the photographing optical system 3, and a plurality of pixels are associated with one lens constituting the MLA.

図2(a)は撮像素子6とMLA20の関係を模式的に示す図である。図2(b)は撮像素子の画素とMLAの対応を示す模式図である。図2(c)はMLAによってMLA下に設けられた画素が特定の瞳領域と対応づけられることを示す図である。   FIG. 2A is a diagram schematically illustrating the relationship between the image sensor 6 and the MLA 20. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that pixels provided under the MLA by the MLA are associated with a specific pupil region.

図2(a)に示すように撮像素子6上にはMLA20が設けられており、MLA20の前側主点は撮影光学系3の結像面近傍になるように配置されている。図2(a)は撮像装置の横からと、正面から撮像素子6を見たときの正面図および側面図を示しており、正面図からわかるように、MLAのレンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素の数倍程度の大きさしかない。(実際の大きさについては図2(b)を用いて説明する。)   As shown in FIG. 2A, the MLA 20 is provided on the image sensor 6, and the front principal point of the MLA 20 is arranged in the vicinity of the imaging plane of the photographing optical system 3. FIG. 2A shows a front view and a side view when the image pickup device 6 is viewed from the side and the front of the image pickup apparatus. As can be seen from the front view, the MLA lens is a pixel on the image pickup device 6. It is arranged to cover. In FIG. 2A, the microlenses constituting the MLA are illustrated in large size so that the microlenses are easy to see, but each microlens is actually only about several times as large as a pixel. (The actual size will be described with reference to FIG. 2B.)

図2(b)は図2(a)の正面図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方MLAを構成する各マイクロレンズは太い円20a,20b,20c,20dで示した。図2(b)から明らかなようにマイクロレンズ1つに対して複数(所定数)の画素が割り当てられており、図2(b)の例では、5行x5列=25個の画素が1つのマイクロレンズに対して設けられている。(すなわち各マイクロレンズの大きさは画素の大きさの5倍x5倍の大きさである。)   FIG. 2B is a partially enlarged view of the front view of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 6. On the other hand, each microlens constituting the MLA is indicated by thick circles 20a, 20b, 20c, and 20d. As apparent from FIG. 2B, a plurality (a predetermined number) of pixels are assigned to one microlens. In the example of FIG. 2B, 5 rows × 5 columns = 25 pixels are 1 It is provided for two microlenses. (That is, the size of each microlens is 5 × 5 times the size of the pixel.)

図2(c)は撮像素子6を、マイクロレンズ光軸を含みセンサの長手方向が図の横方向になるように切断した図である。図2(c)の21、22、23、24、25は撮像素子6の画素(1つの光電変換部)を示している。一方図2(c)の上方に示した図は撮影光学系3の射出瞳面を示している。実際には、図2(c)の下方に示したセンサの図と方向を合わせると、射出瞳面は図2(c)の紙面垂直方向になるが、説明のために投影方向を変化させている。また、図2(c)においては説明を簡単にするために、1次元の投影/信号処理について説明する。実際の装置においては、これを容易に2次元に拡張することができる。   FIG. 2C is a diagram in which the image sensor 6 is cut so that the longitudinal direction of the sensor includes the microlens optical axis and is in the horizontal direction of the drawing. 2, 21, 22, 23, 24, and 25 in FIG. 2C indicate pixels (one photoelectric conversion unit) of the image sensor 6. On the other hand, the figure shown above FIG. 2C shows the exit pupil plane of the photographing optical system 3. Actually, when the direction is aligned with the sensor diagram shown in the lower part of FIG. 2C, the exit pupil plane is in the direction perpendicular to the plane of FIG. 2C, but the projection direction is changed for the sake of explanation. Yes. In FIG. 2C, one-dimensional projection / signal processing will be described to simplify the description. In an actual device, this can be easily extended to two dimensions.

図2(c)の画素21、22、23、24、25は図2(b)の21a、22a、23a、24a、25aとそれぞれ対応する位置関係にある。図2(c)に示すように、マイクロレンズ20によって各画素は撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素21と領域27aが、画素22と領域27bが、画素23と領域27cが、画素24と領域27dが、画素25と領域27eがそれぞれ対応している。すなわち画素21には撮影光学系3の射出瞳面上の領域27aを通過した光束のみが入射する。他の画素も同様である。結果として、瞳面上での通過領域と撮像素子6上の位置関係から角度の情報を取得することが可能となる。   The pixels 21, 22, 23, 24, and 25 in FIG. 2C are in a positional relationship corresponding to 21a, 22a, 23a, 24a, and 25a in FIG. As shown in FIG. 2C, each pixel is designed to be conjugate with a specific area on the exit pupil plane of the photographing optical system 3 by the microlens 20. In the example of FIG. 2C, the pixel 21 and the region 27a correspond to the pixel 22 and the region 27b, the pixel 23 and the region 27c, the pixel 24 and the region 27d, and the pixel 25 and the region 27e, respectively. That is, only the light beam that has passed through the region 27 a on the exit pupil plane of the photographing optical system 3 enters the pixel 21. The same applies to the other pixels. As a result, it is possible to obtain angle information from the passing area on the pupil plane and the positional relationship on the image sensor 6.

図3を用いて像シフトおよび像生成を模式的に示す。図3は上から(a)、(b)、(c)と並んでおり、図3(b)は実際に撮像素子6が存在して画像を取得した面での像生成を示す。図3(a)は図3(b)よりも被写体側の再構成面(再構成面1とする)での像再構成を、図3(c)は図3(b)よりも被写体側から遠い側の再構成面(再構成面2とする)で像再構成をそれぞれ示している。   FIG. 3 schematically shows image shift and image generation. FIG. 3 is lined up with (a), (b), and (c) from above, and FIG. 3 (b) shows image generation on the surface where the image pickup device 6 actually exists and the image is acquired. 3A shows image reconstruction on a reconstruction surface (reconstruction surface 1) closer to the subject side than FIG. 3B, and FIG. 3C shows the subject reconstruction side from FIG. 3B. Image reconstruction is shown on the far-side reconstruction plane (referred to as reconstruction plane 2).

図3(b)において、X1,i、X2,i、X3,i、X4,i、X5,i、はそれぞれ瞳領域1、2、3、4、5を通過してマイクロレンズXiに入射して得られたデータを示している。すなわち、添え字のうち前半は通過する瞳領域を、後半は画素の番号を示している。また、図3においても説明を明瞭にするためにデータを1次元的な広がりしかもたないものとして記述している。物理的な位置との関係においては、X1,iは図2(c)の21領域から得られるデータを、X2,iは図2(c)の22領域から得られるデータを示し、同様に他のXの添え字の3、4、5は領域23、24、25に対応していることを示している。 In FIG. 3B, X 1, i , X 2, i , X 3, i , X 4, i , X 5, i pass through the pupil regions 1, 2, 3, 4, 5 respectively and are microscopic. Data obtained by entering the lens X i is shown. That is, of the subscripts, the first half indicates the passing pupil region, and the second half indicates the pixel number. Also, in FIG. 3, the data is described as having only one-dimensional expansion for the sake of clarity. In relation to the physical position, X 1, i indicates data obtained from the 21 region in FIG. 2C, X 2, i indicates data obtained from the 22 region in FIG. The other X subscripts 3, 4, and 5 indicate that they correspond to the regions 23, 24, and 25, respectively.

取得面での画像を生成するためには、図3(b)にあるように、マイクロレンズXiに入射したデータを加算すればよい。具体的には、Si = X1,i + X2,i + X3,i + X4,i + X5,iでXiに入射した光の角度方向の積分値を得ることができる。(これにより通常のカメラと同様の像が生成される。) In order to generate an image on the acquisition surface, data incident on the microlens X i may be added as shown in FIG. Specifically, the integrated value in the angular direction of the light incident on X i can be obtained with S i = X 1, i + X 2, i + X 3, i + X 4, i + X 5, i . (This produces an image similar to a normal camera.)

次に再構成面1での像の生成方法を考える。図2で説明したように、本実施例の撮影光学系は、各画素に入射する光束を特定の瞳領域に限定しているために、入射角度が既知である。この角度に沿って再構成面での各画素の位置を再構成する。具体的にはX1,iのように瞳領域の添え字が1のものは図3右側において41に示すような角度で入射しているとする。以下瞳領域の添え字2,3,4,5はそれぞれ32,33,34,35に対応しているとする。この時再構成面1でのマイクロレンズXiに入射した光束は、取得面においては、Xi-2からXi+2に分散して入射していることになる。より具体的には、X1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散している。Xiに限らず再構成面1での像を復元するためには、入射角度に応じて像をシフトさせて加算すれば良いことが分かる。再構成面1での像を生成するためには、次のように入射角度に応じたシフトを与えることができる。瞳領域の添え字が1のものは右に2画素シフト、瞳領域の添え字が2のものは右に1画素シフト、瞳領域の添え字が3のものはシフトなし、瞳領域の添え字が4のものは左に1画素シフト、瞳領域の添え字が5のものは左に2画素シフトさせる。その後図3(a)の縦方向に加算することで再構成面1でのデータを得ることができる。具体的には、Si = X1,i-2 + X2,i-1 + X3,i + X4,i+1 + X5,i+2で再構成面1において、Xiに入射した光の角度方向の積分値を得ることができる。これにより再構成面での画像が得られた。 Next, a method for generating an image on the reconstruction plane 1 will be considered. As described with reference to FIG. 2, the imaging optical system of the present embodiment limits the luminous flux incident on each pixel to a specific pupil region, so the incident angle is known. The position of each pixel on the reconstruction plane is reconstructed along this angle. Specifically, it is assumed that a pupil region with a subscript of 1 such as X1 , i is incident at an angle as shown at 41 on the right side of FIG. Hereinafter, it is assumed that the subscripts 2, 3, 4, and 5 of the pupil region correspond to 32, 33, 34, and 35, respectively. At this time, the light beam incident on the microlens X i on the reconstruction surface 1 is scattered and incident on the acquisition surface from X i −2 to X i + 2 . More specifically, it is distributed in X1 , i-2 , X2 , i-1 , X3 , i , X4 , i + 1 , and X5 , i + 2 . To restore the image in the reconstruction plane 1 is not limited to the X i is the image it can be seen that may be added by shifting the in accordance with the incident angle. In order to generate an image on the reconstruction plane 1, a shift corresponding to the incident angle can be given as follows. A pupil area subscript 1 shifts 2 pixels to the right, a pupil area subscript 2 shifts right by 1 pixel, a pupil area subscript 3 shifts no, pupil area subscript 4 is shifted to the left by 1 pixel, and the pupil area subscript 5 is shifted to the left by 2 pixels. Thereafter, the data in the reconstruction plane 1 can be obtained by adding in the vertical direction of FIG. Specifically, in S i = X 1, i- 2 + X 2, i-1 + X 3, i + X 4, i + 1 + X 5, i + 2 in the reconstruction plane 1, the X i An integral value in the angular direction of the incident light can be obtained. As a result, an image on the reconstruction surface was obtained.

ここで、再構成面1において、Xiに輝点があったとすると、取得面においてはX1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散していわゆるボケ状態にある。しかしながら、上述した再構成面1での像を生成すると、再びXiに輝点が生成されコントラストの高い像が得られる。すなわち像を再構成してコントラストを計算することで、いわゆるコントラストAFを行うことが可能となる。 Here, in the reconstruction plane 1, if you had bright spots X i, the acquisition plane X 1, i-2, X 2, i-1, X 3, i, X 4, i + 1, X It is in a so-called blurred state dispersed in 5, i + 2 . However, when the image on the reconstruction plane 1 described above is generated, a bright spot is generated again on X i and an image with high contrast is obtained. That is, so-called contrast AF can be performed by reconstructing the image and calculating the contrast.

また、図3(c)から分かるように、再構成面2においても再構成面1と全く同様に像を生成することができる。再構成面を配置する方向が異なると(物体に対して反対側という意味)シフトさせる方向を反転させれば良いだけである。   Further, as can be seen from FIG. 3C, an image can be generated on the reconstruction plane 2 in the same manner as the reconstruction plane 1. If the direction in which the reconstruction plane is arranged is different (meaning opposite to the object), it is only necessary to reverse the direction of shifting.

図4は本発明の画像を得るためのフローチャートである。図4(a)は画像を得る全体の動作を、図4(b)は像シフト手段の動作を、図4(c)像生成手段の動作を、図4(d)は相関計算手段の動作をそれぞれ示している。これらの動作は、例えばカメラシステム制御回路5のCPUが不図示のメモリに記憶されているプログラムをロードして実行することで撮像装置の各部を制御することにより実現される。   FIG. 4 is a flowchart for obtaining an image of the present invention. 4A shows the overall operation of obtaining an image, FIG. 4B shows the operation of the image shift means, FIG. 4C shows the operation of the image generation means, and FIG. 4D shows the operation of the correlation calculation means. Respectively. These operations are realized, for example, by controlling each unit of the imaging apparatus by loading and executing a program stored in a memory (not shown) by the CPU of the camera system control circuit 5.

図4(a)から各ステップ順に説明する。ステップS1は画像取得動作の開始を示している。例えば、図1にあった操作検出部10が撮影者からの特定の動作を検出した時(例えばレリーズボタンの押下)などが該当する。   A description will be given in order of each step from FIG. Step S1 indicates the start of the image acquisition operation. For example, this is the case when the operation detection unit 10 shown in FIG. 1 detects a specific operation from the photographer (for example, pressing the release button).

ステップS411は撮像素子6を適当な時間露光して、得られた画素信号を読み出す(A/D変換する)ことによりデータを取得することに対応する。   Step S411 corresponds to acquiring data by exposing the image sensor 6 for an appropriate time and reading out (A / D conversion) the obtained pixel signal.

ステップS412では相関計算手段を動作させて結果を得る。相関計算手段からはピント評価値に関する情報が得られる。動作の詳細は図4(e)を用いて後述する。   In step S412, the correlation calculation means is operated to obtain a result. Information relating to the focus evaluation value is obtained from the correlation calculation means. Details of the operation will be described later with reference to FIG.

ステップS413では適宜当に分割されたエリア(相関計算手段の説明で後述するが、ステップS462での評価枠と対応する)毎にピント位置を決定する。後述する相関計算手段から得られるピント評価値が最も良くなる位置をピント位置として定義する。(ここでいう良いというのは後述するステップS466での相関計算式に従うと値が小さい場合が良い状態に対応する。)   In step S413, a focus position is determined for each appropriately divided area (which will be described later in the description of the correlation calculation means, but corresponds to the evaluation frame in step S462). The position where the focus evaluation value obtained from the correlation calculation means described later is the best is defined as the focus position. (Here, “good” corresponds to a state where a small value is good according to a correlation calculation formula in step S466 described later.)

ただしここでのピント位置とは、現在のピント位置からの相対的なピントずれを示すものである。すなわち、現在のピント位置でピントが合っている被写体のピント位置は0として、それよりも前や後ろにある被写体がそれぞれプラスマイナスの符号を持った値として得られる。さらには、ピント位置は被写体側での深さではなく像面側での結像面の位置を示すものとして得られる。   However, the focus position here indicates a relative focus shift from the current focus position. That is, the focus position of the subject that is in focus at the current focus position is set to 0, and the subjects that are in front or behind it are obtained as values having plus or minus signs. Furthermore, the focus position is obtained as indicating the position of the image plane on the image plane side, not the depth on the subject side.

ステップS414では像シフト手段を動作させて結果を得る。この時の像生成位置の指定はいくつかの方法が考えられる。たとえば、ステップS413で求めた各エリアのピント位置と被写体認識結果を総合してピント位置を与える方法などが考えられる。このようにすることで被写体として認識された物体に対してピントを合わせることが出来る。別の方法としては、ユーザー指定の位置を与えることが出来る。このようにすることで、いわゆるマニュアルフォーカスを実現することが出来る。像シフト手段の動作の詳細は図4(c)を用いて後述する。   In step S414, the image shift means is operated to obtain a result. There are several methods for specifying the image generation position at this time. For example, a method of giving a focus position by combining the focus position of each area obtained in step S413 and the subject recognition result can be considered. In this way, it is possible to focus on an object recognized as a subject. Alternatively, a user-specified position can be given. In this way, so-called manual focus can be realized. Details of the operation of the image shift means will be described later with reference to FIG.

ステップS415では像生成手段を動作させて結果を得る。像生成手段の動作の詳細は図4(d)を用いて後述する。   In step S415, the image generating means is operated to obtain a result. Details of the operation of the image generating means will be described later with reference to FIG.

ステップS416では、記録用画像フォーマットへの変換や圧縮などの必要な処理を施したのちにメモリ手段8に記録を行う。   In step S416, necessary processing such as conversion to a recording image format and compression is performed, and then recording is performed in the memory unit 8.

ステップS8で一連の画像取得から記録までの動作が終了する。   In step S8, the series of operations from image acquisition to recording ends.

図4(b)を用いて像シフト手段の動作の詳細を説明する。ステップS421は像シフト手段の動作開始を示している。   Details of the operation of the image shift means will be described with reference to FIG. Step S421 indicates the start of the operation of the image shift means.

ステップS422からステップS427はループを形成している。ステップS422では瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置に応じた計算がなされる。図3を用いて説明したように、像の再構成を考えると同じ再構成面であっても入射角度が異なると(射出瞳が十分遠い場合には、通過する瞳領域が異なることとほぼ同義)像をシフトさせる量が異なる。これを適宜に反映させるためのループである。   Steps S422 to S427 form a loop. In step S422, loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since it is divided into 25, calculation according to each pupil position of 25 is performed. As described with reference to FIG. 3, considering the reconstruction of the image, if the incident angle is different even on the same reconstruction surface (if the exit pupil is sufficiently far away, it is almost synonymous with the difference in the passing pupil region. ) The amount of image shift is different. This is a loop for appropriately reflecting this.

ステップS423ではステップS424からのデータをもとに、入射角度を決定する。すなわち図2で説明した様に入射角度は物理的な構成によって決まっているのでその情報を読み出して、各瞳領域に対応する入射角度を計算する。   In step S423, the incident angle is determined based on the data from step S424. That is, as described with reference to FIG. 2, since the incident angle is determined by the physical configuration, the information is read and the incident angle corresponding to each pupil region is calculated.

ステップS425では、ステップS424で決定した入射角度と再構成面の位置からシフト量を計算する。これは図34での再構成面1や再構成面2の様に、再構成面の位置と入射角度が決定されると、それに応じて画素を横ずらししていることに対応している。   In step S425, the shift amount is calculated from the incident angle determined in step S424 and the position of the reconstruction surface. This corresponds to the fact that when the position and the incident angle of the reconstruction surface are determined as in the reconstruction surface 1 and the reconstruction surface 2 in FIG. 34, the pixels are shifted laterally accordingly.

ステップS426において、ステップS425で求めた量に従って像シフトが実行される。   In step S426, image shift is executed according to the amount obtained in step S425.

ステップS428において、呼び出し元のステップS413およびステップS477に戻る。   In step S428, the process returns to step S413 and step S477 of the caller.

図4(c)を用いて像生成手段の動作の詳細を説明する。ステップS431は像生成手段の動作開始を示している。   Details of the operation of the image generating means will be described with reference to FIG. Step S431 indicates the start of the operation of the image generating means.

ステップS432では、ステップS435での加算のための領域のデータを初期化(0で埋める)する。この時のデータ領域の大きさはMLAの数量あれば良く、データの諧調は元のデータの諧調と瞳分割数の積を格納できるだけあれば都合がよい。例えば元のデータが8bitで25分割の場合、13bit (> 8bit + log225)あればデータの桁あふれを考慮する必要が無い。 In step S432, the area data for addition in step S435 is initialized (filled with 0). The size of the data area at this time may be the number of MLA, and the gradation of data is convenient as long as the product of the gradation of the original data and the number of pupil divisions can be stored. For example, if the original data is 8 bits and divided into 25, if 13 bits (> 8 bits + log 2 25), there is no need to consider data overflow.

ステップS433からステップS438はループを形成している。ステップS433ではMLAを構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図23に示した例では、元の撮像素子の画素数÷25(瞳分割数)がマイクロレンズの数となる。   Steps S433 to S438 form a loop. In step S433, loop calculation is executed according to the number of microlenses constituting the MLA. For example, in the example illustrated in FIG. 23, the number of microlens is the number of pixels of the original image sensor ÷ 25 (number of pupil divisions).

ステップS434からステップS437はループを形成している。ステップS434では、瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置からの光束が処理される。   Steps S434 to S437 form a loop. In step S434, the loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since the light is divided into 25, the light fluxes from the 25 pupil positions are processed.

ステップS435では加算すべき瞳領域かの判断がなされる。すなわちユーザーの設定に応じて加算すべき領域を変化させて意図に沿った画像を提供する。一般的に加算する瞳領域を増やすと、S/Nに優れて焦点深度の浅い画像となる、減らすとその反対になる。   In step S435, it is determined whether the pupil region should be added. In other words, an image according to the intention is provided by changing a region to be added according to a user setting. In general, when the number of pupil regions to be added is increased, an image having excellent S / N and a shallow depth of focus is obtained.

ステップS436では加算がなされる。シフト量が画素の整数倍でない場合は、加算S436において、適当に内分されながら加算される。(重なっている面積に応じて適当に加算すればよい。)   In step S436, addition is performed. If the shift amount is not an integral multiple of the pixel, the addition is performed while being appropriately divided in addition S436. (It may be added appropriately according to the overlapping area.)

ステップS439において、呼び出し元のステップS416に戻る。   In step S439, the process returns to caller step S416.

図4(d)を用いて相関計算手段の動作の詳細を説明する。ステップS461は相関計算手段の動作開始を示している。   Details of the operation of the correlation calculation means will be described with reference to FIG. Step S461 indicates the start of the operation of the correlation calculation means.

ステップS462では、評価を行う評価点の数と、評価枠の大きさを設定する。ここでの評価枠は相関をノイズなどに負けずに適当に計算できる範囲で可能な限り小さくすることが好ましい。そのようにすることで欠陥補正を行う場合のピント位置検出が適当に行われる。   In step S462, the number of evaluation points to be evaluated and the size of the evaluation frame are set. The evaluation frame here is preferably as small as possible within a range where the correlation can be appropriately calculated without losing the noise. By doing so, focus position detection is appropriately performed when defect correction is performed.

ステップS463からステップS469はループを形成している。ステップS463では、ステップS462で決定された評価数に対応した評価値を得るように繰り返し演算を行う。   Steps S463 to S469 form a loop. In step S463, the calculation is repeated so as to obtain an evaluation value corresponding to the evaluation number determined in step S462.

ステップS464からステップS467はループを形成している。ステップS464では、ステップS462で決定された評価枠の大きさに応じた画素数の範囲で相関計算を行う。   Steps S464 to S467 form a loop. In step S464, correlation calculation is performed in the range of the number of pixels corresponding to the size of the evaluation frame determined in step S462.

ステップS465ではAiまたはBiが欠陥であるか否かを判断する。欠陥である場合には相関計算に用いるのは適当ではないのでステップS467に進み、欠陥ではない場合はステップS466に進む。相関計算は例えばステップS466にあるようにΣ|Ai - Bi|で計算すればよい。ここで、Aiは特定の瞳領域を通過したi番目の画素の輝度を示している。BiはAiとは異なる瞳領域を通過したi番目の画素の輝度を示している。例えば図2において、画素22に対応する画素のみ並べたものをAi、画素24に対応する画素のみ並べたものをBiとすれば良い。どの瞳領域の画素を選択するかは、基線長の長さ、瞳面のケラレ状況、等によって決定すればよい。 In step S465, it is determined whether A i or B i is defective. If it is a defect, it is not appropriate to use it for correlation calculation, so the process proceeds to step S467. If it is not a defect, the process proceeds to step S466. For example, the correlation calculation may be performed by Σ | A i −B i | as in step S466. Here, A i indicates the luminance of the i-th pixel that has passed through a specific pupil region. B i indicates the luminance of the i-th pixel that has passed through a pupil area different from A i . For example, in FIG. 2, A i may be a line in which only pixels corresponding to the pixel 22 are arranged, and B i may be a line in which only pixels corresponding to the pixel 24 are arranged. Which pixel of the pupil region to select may be determined according to the length of the base line length, the vignetting situation of the pupil surface, and the like.

上記のように設定することで、異なる瞳領域を通過した像の相関を計算でき、いわゆる位相差AFに基づく評価量を得ることができる。ステップS68では、得られた相関値を評価量として格納する。   By setting as described above, the correlation between images that have passed through different pupil regions can be calculated, and an evaluation amount based on so-called phase difference AF can be obtained. In step S68, the obtained correlation value is stored as an evaluation amount.

上記に示したΣ|Ai - Bi|という評価式においては、相関値が小さくなった個所が最もピント状態が良い個所に対応している。ここでは差分絶対値を加算する方法で相関計算を行ったが、最大値を加算する方法、最小値を加算する方法、差分2乗値を加算する方法など他の計算方法によって相関計算を行っても良い。 In the evaluation formula Σ | A i −B i | shown above, the part where the correlation value is small corresponds to the part where the focus state is the best. Here, the correlation calculation is performed by the method of adding the difference absolute value, but the correlation calculation is performed by other calculation methods such as the method of adding the maximum value, the method of adding the minimum value, the method of adding the square difference value, and the like. Also good.

ステップS469において、呼び出し元のステップS416に戻る。   In step S469, the process returns to caller step S416.

図5を用いて本実施例に係わる表示制御の構成について説明する。本表示制御は、上述したライトフィールトカメラで得られる画素信号を含む撮像情報を用いて行なわれる(信号取得手段)。
図5(a)において9aは表示装置を構成するモニタを、図5(b)において52、53は測距点近傍に設けられた分割表示領域を、51は52,53に含まれないその他の表示領域をそれぞれ示している。
The configuration of display control according to the present embodiment will be described with reference to FIG. This display control is performed using imaging information including pixel signals obtained by the above-described light field camera (signal acquisition means).
In FIG. 5A, 9a is a monitor constituting the display device, 52 and 53 in FIG. Each of the display areas is shown.

本発明の対象となる撮影装置を用いて撮影を行う際に、撮影者は撮影装置背面などに設けられたモニタ9aを見ながら構図の決定を行う。さらに本発明においてはピントを合わせたい箇所(ここが測距点として定義される)を指示する。図5(a)の例では被写体である花にタッチすることでタッチされた個所が測距点として定義される。その他の方法(別に設けられた十字キーによる方法等)で測距点を指示しても良い。このように測距点をユーザーの指示に応じて設定することが可能であり、測距領域制御手段として動作する。   When photographing using the photographing apparatus which is the subject of the present invention, the photographer determines the composition while looking at the monitor 9a provided on the back of the photographing apparatus. Further, in the present invention, a point to be focused (this is defined as a distance measuring point) is indicated. In the example of FIG. 5A, a touched part is defined as a distance measuring point by touching a flower as a subject. The distance measuring point may be indicated by other methods (such as a method using a cross key provided separately). In this way, it is possible to set the distance measuring point according to the user's instruction, and it operates as a distance measuring area control means.

本実施例の表示装置9は、測距点近傍を2つの領域52,53とその他の領域51の3つに分割する(表示領域分割手段)。領域52,53の分割方向は測距を行う基線長方向(像ずれさせたい方向)にとるのが良い。図5の例では基線長方向は予め横方向に定義(設定)されているものとする。すなわち、基線方向制御手段が横方向に定義された値を保持している場合について説明する。基線方向制御手段により基線長を指示する方法については後述する。   The display device 9 according to the present embodiment divides the vicinity of the distance measuring point into three areas of two areas 52 and 53 and another area 51 (display area dividing means). The dividing direction of the areas 52 and 53 is preferably set to the base line length direction in which distance measurement is performed (the direction in which image shift is desired). In the example of FIG. 5, it is assumed that the baseline length direction is defined (set) in advance in the horizontal direction. That is, a case where the baseline direction control means holds a value defined in the horizontal direction will be described. A method of instructing the baseline length by the baseline direction control means will be described later.

表示制御手段(本実施例ではカメラシステム制御5内の回路がその役割を果たす)は分割された領域毎に異なる瞳領域の信号を表示するように表示手段9に指示する。図5(b)の例では、測距点近傍に設けられた分割表示領域52、53には、それぞれ領域27e,27aから得られた像(画素信号)を表示する。一方、他の領域51にはすべての瞳領域から得られた画素信号を加算した像を表示する。(図5(b)の例では27aから27eのから画素信号を加算することに対応する。実際には2次元的な広がりを持っているが、ここでは1次元方向についてのみ述べる。)このようにすることで、いわゆるスプリットイメージ表示が可能となる。また、ここでは図示していないが、上述の構成をそのまま用いると、領域52,53は加算が無いので暗く、領域51は明るく表示される。これについては適宜ゲインをコントロールして調整することが可能である。   The display control means (in this embodiment, the circuit in the camera system control 5 plays its role) instructs the display means 9 to display different pupil area signals for each divided area. In the example of FIG. 5B, images (pixel signals) obtained from the areas 27e and 27a are displayed in the divided display areas 52 and 53 provided near the distance measuring points, respectively. On the other hand, an image obtained by adding pixel signals obtained from all pupil regions is displayed in the other region 51. (In the example of FIG. 5B, this corresponds to adding pixel signals from 27a to 27e. Actually, it has a two-dimensional spread, but only the one-dimensional direction will be described here.) By so doing, so-called split image display becomes possible. Although not shown here, if the above configuration is used as it is, the regions 52 and 53 are dark because there is no addition, and the region 51 is displayed brightly. This can be adjusted by appropriately controlling the gain.

この状態でピント状態を変化させた時の分割表示領域の表示を模式的に図5(c)から図5(e)に示す。ピント状態は図5(c)⇒図5(d)⇒図5(e)の順に変化しており、且つ図5(d)はピントが合っている状態である。ピントがあった状態では通過する瞳領域によらず同じ像が得られるので領域52と領域53の像がずれずに合致している。それに対して、ピント状態が変化するとそれぞれ図5(c)、図5(e)のように通過する瞳領域によって基線長方向に像ずれが生じる。これを観察することで現在の光学状態が被写体にピントが合っているか否かを直感的に把握することが出来る。   FIG. 5C to FIG. 5E schematically show the display of the divided display area when the focus state is changed in this state. The focus state changes in the order of FIG. 5 (c) → FIG. 5 (d) → FIG. 5 (e), and FIG. 5 (d) is a state in focus. In the focused state, the same image can be obtained regardless of the pupil region that passes through, so that the images of the region 52 and the region 53 are matched without being shifted. On the other hand, when the focus state changes, an image shift occurs in the baseline length direction due to the passing pupil region as shown in FIG. 5C and FIG. By observing this, it is possible to intuitively grasp whether or not the current optical state is in focus on the subject.

表示領域の好ましい選択方法としては、基線長方向に離間した瞳領域を選択すればよい。また、光学系のFナンバー等を考慮してケラレが発生していない範囲でなるべく遠く離れた(隣接していない)瞳領域を選択すると良い。さらには、スプリットイメージが横ずれした時にボケを少なくするためには図5(b)の例のように、測距点近傍に設けられた分割表示領域に表示する像は加算せずに表示することが好ましい。具体的には、図5(b)では領域27aおよび領域27eを利用しているが、領域27b、27c、27dを利用した場合に比べて基線長が長くなっているので、ピント変化に対する像ずれ行が大きくなり、ピント調整が容易になっている。さらには、領域52には領域27c,27d,27eの加算を、領域53には領域27a,27b,27cの加算を出してもスプリットイメージを形成することは可能であるが、ピント変動に対してボケが大きくなってしまう。このため領域27aおよび領域27eを利用した場合はピントが変動した場合にも像に発生するボケが小さくピント調整が容易になっている。   As a preferred method for selecting the display area, it is only necessary to select pupil areas separated in the baseline length direction. Further, it is preferable to select a pupil region as far as possible (not adjacent) in a range where vignetting does not occur in consideration of the F number of the optical system. Furthermore, in order to reduce the blur when the split image is laterally shifted, as shown in the example of FIG. 5B, the image displayed in the divided display area provided near the distance measuring point is displayed without being added. Is preferred. Specifically, in FIG. 5B, the region 27a and the region 27e are used, but the base line length is longer than when the regions 27b, 27c, and 27d are used. The lines are larger and focus adjustment is easier. Furthermore, it is possible to form a split image by adding the areas 27c, 27d, and 27e to the area 52 and adding the areas 27a, 27b, and 27c to the area 53. The blur will become larger. For this reason, when the area 27a and the area 27e are used, even when the focus fluctuates, the blur generated in the image is small and the focus adjustment is easy.

図6は基線長を設定する方法を説明する図である。本発明では基線長方向に離間した瞳領域を表示する必要があるが、図5の表示構成では基線長方向が設定されている場合について述べた。本実施例ではモニタ9a(タッチパネル)を通して設定する構成を、図6を参照して説明する。しかし、これに限られず、例えば撮像装置に設けられた操作部材を使用して設定するよう構成してもよい。   FIG. 6 is a diagram for explaining a method of setting the baseline length. In the present invention, it is necessary to display pupil regions separated in the baseline length direction, but the case where the baseline length direction is set in the display configuration of FIG. 5 has been described. In the present embodiment, a configuration set through the monitor 9a (touch panel) will be described with reference to FIG. However, the present invention is not limited to this. For example, the setting may be made using an operation member provided in the imaging apparatus.

図6(a)は基線長を横方向に設定する構成を示し、図6(b)は基線長を横方向に設定した時の領域分割とそこに表示する瞳領域を示す。図6(c)は基線長を縦方向に設定する構成を示し、図6(d)は基線長を縦方向に設定した時の領域分割とそこに表示する瞳領域を示す。   FIG. 6A shows a configuration in which the base line length is set in the horizontal direction, and FIG. 6B shows a region division when the base line length is set in the horizontal direction and a pupil region displayed there. FIG. 6 (c) shows a configuration in which the base line length is set in the vertical direction, and FIG. 6 (d) shows a region division when the base line length is set in the vertical direction and a pupil region displayed there.

図6(a)においてモニタ9aはいわゆるタッチパネルになっておりタッチ位置や移動方向が検出できる構成になっている。図6(a)で測距点と基線長方向を指示するには、まず主被写体のある点(測距点として定義される)にタッチした後に基線長方向に指をスライドさせる。これにより、スライド方向を基線長方向として定義(設定)する。図6(a)は被写体にタッチした状態を図示しており、図中の矢印はこの後の指のスライド方向を示している。図6(a)では指を横方向(水平方向)にスライドさせたので横方向に基線長が定義される。この操作により測距点近傍の領域が図7(b)の52,53に示すように分割される。すなわち設定された基線長方向に対して直交するように2つの領域が並ぶように(図6(b)では縦(垂直方向)に2つの領域52,53が存在するように)分割表示領域が設定される。また、領域52,53に表示する瞳領域は基線長方向に離間した領域を選択すればよい。図6(b)の例では領域52に瞳領域62aを、領域53に瞳領域63aを対応させている。その他の領域51は図5の例に示したように他の瞳領域を含めて加算して表示する。   In FIG. 6A, the monitor 9a is a so-called touch panel, and is configured to detect the touch position and the moving direction. In order to indicate the distance measuring point and the baseline length direction in FIG. 6A, first, a point on the main subject (defined as the distance measuring point) is touched, and then the finger is slid in the baseline length direction. Thus, the slide direction is defined (set) as the baseline length direction. FIG. 6A illustrates a state in which the subject is touched, and an arrow in the figure indicates the subsequent sliding direction of the finger. In FIG. 6A, since the finger is slid in the horizontal direction (horizontal direction), the baseline length is defined in the horizontal direction. By this operation, the area in the vicinity of the distance measuring point is divided as indicated by 52 and 53 in FIG. That is, the split display area is formed so that two areas are arranged so as to be orthogonal to the set base line length direction (in FIG. 6B, there are two areas 52 and 53 in the vertical (vertical direction)). Is set. Moreover, what is necessary is just to select the area | region separated in the base line length direction as the pupil area | region displayed on the area | regions 52 and 53. FIG. In the example of FIG. 6B, the pupil region 62a is associated with the region 52, and the pupil region 63a is associated with the region 53. As shown in the example of FIG. 5, the other areas 51 are added and displayed including the other pupil areas.

図6(c)では指を縦方向(垂直方向)にスライドさせたので縦方向に基線長が定義(設定)される。この操作により測距点近傍の領域が図6(d)の52,53に示すように分割される。すなわち設定された基線長方向に対して直交するように2つの領域が並ぶように(図6(d)では水平方向に2つの領域52,53が存在するように)領域が設定される。この時に領域52,53に表示する瞳領域は基線長方向に離間した領域を選択すればよいので、図6(b)の例では領域52に瞳領域62bを、領域53に瞳領域63bを対応させている。その他の領域51は図5の例に示したように他の瞳領域を含めて加算して表示する。   In FIG. 6C, since the finger is slid in the vertical direction (vertical direction), the base line length is defined (set) in the vertical direction. By this operation, the area in the vicinity of the distance measuring point is divided as indicated by 52 and 53 in FIG. That is, the areas are set so that the two areas are arranged so as to be orthogonal to the set baseline length direction (in FIG. 6D, there are two areas 52 and 53 in the horizontal direction). At this time, the pupil regions displayed in the regions 52 and 53 may be selected as regions separated in the baseline length direction, so in the example of FIG. 6B, the pupil region 62b corresponds to the region 52 and the pupil region 63b corresponds to the region 53. I am letting. As shown in the example of FIG. 5, the other areas 51 are added and displayed including the other pupil areas.

上述のように表示領域とそこに表示する瞳領域を制御することで、ピントずれに対して敏感に反応し、且つピントずれが起きた場合にもボケが少なく見易い表示にすることが出来る。即ち、図5に説明したような表示構成にすることで、2つ以上の複数の瞳分割領域に対してマニュアルフォーカスを行う場合等に都合の良い表示を可能とすることが出来る。   By controlling the display area and the pupil area displayed there as described above, it is possible to make a display that is sensitive to a focus shift and is easy to see with little blur even when a focus shift occurs. In other words, the display configuration described with reference to FIG. 5 makes it possible to perform convenient display when performing manual focus on two or more pupil division regions.

次に、本発明の表示装置の第2の実施例を、図7を参照して説明する。本実施例は、第1の実施例と同様に本発明を図1の撮像装置に適用した例であるが、分割表示領域での像表示構成が第1の実施例と異なる。従って、撮像装置およびその撮像光学系の構成は図1乃至4を参照して説明した通りなので、ここでの説明は省略する。また、測距点の定義(設定)および基線長方向の設定は図6と同様であるので、その説明は省略する。なお、図7において図5と同じ部分は同じ符号を付して示す。   Next, a second embodiment of the display device of the present invention will be described with reference to FIG. The present embodiment is an example in which the present invention is applied to the image pickup apparatus of FIG. 1 as in the first embodiment, but the image display configuration in the divided display area is different from that of the first embodiment. Accordingly, the configuration of the imaging apparatus and its imaging optical system is as described with reference to FIGS. 1 to 4, and a description thereof is omitted here. Further, the definition (setting) of the distance measuring point and the setting in the baseline length direction are the same as those in FIG. 7 that are the same as those in FIG. 5 are given the same reference numerals.

図7はいわゆる2重像合致を行う場合の例を示している。図7(b)において70は測距点近傍に設けられた分割表示領域を、51は70に含まれないその他の表示領域をそれぞれ示す。図5(a)の例と同様にモニタ9aにタッチすることで測距点が定義され、領域70と領域51に分割される。図6の例でも図5と同様、基線長方向は横方向に定義(設定)されているものとする。   FIG. 7 shows an example in which so-called double image matching is performed. In FIG. 7B, reference numeral 70 denotes a divided display area provided in the vicinity of the distance measuring point, and 51 denotes other display areas not included in the 70. As in the example of FIG. 5A, a distance measuring point is defined by touching the monitor 9 a and is divided into an area 70 and an area 51. In the example of FIG. 6 as well, the baseline length direction is defined (set) in the horizontal direction as in FIG.

表示制御手段(本実施例ではカメラシステム制御5内の回路がその役割を果たす)は分割された領域毎に異なる瞳領域の信号を表示するように表示手段9に指示する。図7(b)の例では、測距点近傍に設けられた分割表示領域70には、領域27a,27eの画素信号を加算した像を表示する。一方、他の領域51にはすべての瞳領域の画素信号を加算した像を表示する。このようにすることで、いわゆる2重像合致表示が可能となる。なお、図7(b)では、領域27a,27eの画素信号にそれぞれ1/2のゲインをかけているが、これに限らず適宜設定することが可能である。   The display control means (in this embodiment, the circuit in the camera system control 5 plays its role) instructs the display means 9 to display different pupil area signals for each divided area. In the example of FIG. 7B, an image obtained by adding the pixel signals of the areas 27a and 27e is displayed in the divided display area 70 provided near the distance measuring point. On the other hand, an image obtained by adding the pixel signals of all pupil regions is displayed in the other region 51. In this way, so-called double image coincidence display is possible. In FIG. 7 (b), a gain of 1/2 is applied to the pixel signals in the areas 27a and 27e, but the present invention is not limited to this and can be set as appropriate.

この状態でピント状態を変化させた時の表示の変化を模式的に図7(c)から図7(e)に示す。ピント状態は図7(c)⇒図7(d)⇒図7(e)の順に変化しており、且つ図7(d)はピントが合っている状態である。ピントがあった状態では通過する瞳領域によらず同じ像が得られるので領域54に表示される2つの像が合致している。それに対して、ピント状態が変化するとそれぞれ図7(c)、図7(e)のように通過する瞳領域によって基線長方向に像ずれが生じ、像が2つに見える。これを観察することで現在の光学状態が被写体にピントが合っているか否かを直感的に把握することが出来る。   Changes in display when the focus state is changed in this state are schematically shown in FIGS. 7C to 7E. The focus state changes in the order of FIG. 7 (c) → FIG. 7 (d) → FIG. 7 (e), and FIG. 7 (d) is a state in focus. In the focused state, the same image can be obtained regardless of the pupil region that passes through, so the two images displayed in the region 54 match. On the other hand, when the focus state changes, an image shift occurs in the baseline length direction due to the passing pupil region as shown in FIGS. 7C and 7E, and two images appear. By observing this, it is possible to intuitively grasp whether or not the current optical state is in focus on the subject.

ここで2重像が2つに分離して観察される(ボケではなく像のずれとして認識される)ためには加算後の瞳領域が全体に対して狭い領域に限定されるとともに互いに離間していることが望ましい。   Here, in order to observe the double image separately in two (recognized as an image shift rather than a blur), the pupil region after addition is limited to a narrow region with respect to the whole and separated from each other. It is desirable that

また2重像合致の表示を行うに当たっては、加算を行う前に2つの瞳領域の像に対して異なる色調整を行って表示しても良い。たとえば、ホワイトバランスを調整するなどして青みを帯びた像と黄みを帯びた像にして合致した時にホワイトバランスが適度に調整されるようにするなどして、ピントが前に結んでいるのか後ろに結んでいるのかの情報を表示してもよい。   In addition, when displaying a double image match, different color adjustments may be performed on the images of the two pupil regions before the addition is performed. For example, whether the focus is tied forward by adjusting the white balance so that the white balance is adjusted appropriately when matched with a blueish image and a yellowish image. Information about whether it is tied behind may be displayed.

2重像合致を利用する場合には、領域分割は図7に示したように測距点近傍に領域70を定義するとともに、そこに表示するための画像を生成するための瞳領域を図6の例を参考にして生成すれば良い。つまり縦方向に基線長を定義した場合には図6(d)の瞳領域62b,63bを加算して表示すれば良い。   When the double image matching is used, the region division defines the region 70 in the vicinity of the distance measuring point as shown in FIG. 7, and the pupil region for generating an image to be displayed there is shown in FIG. It can be generated with reference to the example. That is, when the base line length is defined in the vertical direction, the pupil regions 62b and 63b in FIG.

本実施例によっても、表示領域とそこに表示する瞳領域を制御することで、ピントずれに対して敏感に反応し、且つピントずれが起きた場合にもボケが少なく見易い表示にすることが出来る。即ち、図7に説明したような表示構成にすることで、2つ以上の複数の瞳分割領域に対してマニュアルフォーカスを行う場合等に都合の良い表示を可能とすることが出来る。   Also in the present embodiment, by controlling the display area and the pupil area displayed there, it is possible to make a display that is sensitive to a focus shift and is easy to see with little blur even when the focus shift occurs. . That is, by using the display configuration as described in FIG. 7, it is possible to perform a display that is convenient when manual focusing is performed on two or more pupil division regions.

ここで、図8を用いて本実施例に適用可能な別の光学系の例について説明する。図8は物体(被写体)からの光線が撮像素子6上に結像する状態を模式的に示した図である。図8(a)は図2で説明した光学系と対応しており、撮影光学系3の結像面近傍にMLA20を配置した例である。図8(b)は撮影光学系3の結像面よりも物体寄りにMLA20を配置した例である。図8(c)は撮影光学系3の結像面よりも物体から遠い側にMLA20を配置した例である。同図において、既に説明した図に示されている部分は同じ符号を付して示す。   Here, another example of the optical system applicable to the present embodiment will be described with reference to FIG. FIG. 8 is a diagram schematically showing a state in which light rays from an object (subject) are imaged on the image sensor 6. FIG. 8A corresponds to the optical system described in FIG. 2, and is an example in which the MLA 20 is disposed in the vicinity of the imaging surface of the photographing optical system 3. FIG. 8B shows an example in which the MLA 20 is arranged closer to the object than the imaging plane of the photographing optical system 3. FIG. 8C shows an example in which the MLA 20 is arranged on the side farther from the object than the imaging plane of the photographing optical system 3. In the figure, the parts shown in the already described figures are denoted by the same reference numerals.

図8において、80は物体平面を、80a,80bは物体上の適当な点を、27は撮影光学系の瞳平面を、81、82、83,84,85,86,87,88,89はMLA上の特定のマイクロレンズをそれぞれ示している。図8(b)および(c)に示した6aは仮想的な撮像素子を、20aは仮想的なMLAを示している。これらは、図8(a)との対応関係を明確にするために参考に示した。また、物体上の点80aから出て瞳平面上の領域27aおよび27cを通過する光束を実線で、物体上の点80bから出て瞳平面上の領域27aおよび27cを通過する光束を破線で図示した。   In FIG. 8, 80 is an object plane, 80a and 80b are appropriate points on the object, 27 is a pupil plane of the photographing optical system, 81, 82, 83, 84, 85, 86, 87, 88 and 89 are Each specific microlens on the MLA is shown. In FIGS. 8B and 8C, 6a represents a virtual image sensor, and 20a represents a virtual MLA. These are shown for reference in order to clarify the correspondence with FIG. Also, a light beam that exits from the point 80a on the object and passes through the regions 27a and 27c on the pupil plane is indicated by a solid line, and a light beam that exits from the point 80b on the object and passes through the regions 27a and 27c on the pupil plane is indicated by a broken line. did.

図8(a)の例では、図2でも説明したように、撮影光学系3の結像面近傍にMLA20を配置することで、撮像素子6と撮影光学系の瞳平面27が共役の関係にある。さらに、物体平面80とMLA20が共役の関係にある。このため物体上の点80aから出た光束はマイクロレンズ81に、80bを出た光束はマイクロレンズ82に到達し、領域27aから27eそれぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。   In the example of FIG. 8A, as described with reference to FIG. 2, the MLA 20 is disposed in the vicinity of the imaging plane of the photographing optical system 3, so that the imaging element 6 and the pupil plane 27 of the photographing optical system have a conjugate relationship. is there. Further, the object plane 80 and the MLA 20 are in a conjugate relationship. Therefore, the light beam emitted from the point 80a on the object reaches the microlens 81, the light beam emitted from the point 80b reaches the microlens 82, and the light beams that have passed through the regions 27a to 27e respectively correspond to those provided below the microlens. Reach the pixel.

図8(b)の例では、マイクロレンズ20で撮影光学系3からの光束を結像させ、その結像面に撮像素子6を設ける。このように配置することで、物体平面80と撮像素子6は共役の関係にある。物体上の点80aから出で瞳平面上の領域27aを通過した光束はマイクロレンズ83に到達し、物体上の点80aから出で瞳平面上の領域27cを通過した光束はマイクロレンズ84に到達する。物体上の点80bから出で瞳平面上の領域27aを通過した光束はマイクロレンズ84に到達し、物体上の点80bから出で瞳平面上の領域27cを通過した光束はマイクロレンズ85に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面6a上の位置に並べなおせば、図8(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 8B, the light beam from the photographing optical system 3 is imaged by the microlens 20, and the imaging element 6 is provided on the imaging surface. By arranging in this way, the object plane 80 and the imaging device 6 are in a conjugate relationship. The light beam that has exited from the point 80a on the object and passed through the region 27a on the pupil plane reaches the micro lens 83, and the light beam that has exited from the point 80a on the object and passed through the region 27c on the pupil plane reaches the micro lens 84. To do. The light beam that has exited from the point 80b on the object and passed through the region 27a on the pupil plane reaches the microlens 84, and the light beam that has exited from the point 80b on the object and passed through the region 27c on the pupil plane reaches the microlens 85. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. In this way, images are formed at different positions depending on the point on the object and the passing area on the pupil plane. If these are rearranged at positions on the virtual imaging surface 6a, the same information as in FIG. 8A can be obtained. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図8(c)の例では、マイクロレンズ20で撮影光学系3からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子6を設ける。このように配置することで、物体平面80と撮像素子6は共役の関係にある。物体上の点80aから出で瞳平面上の領域27aを通過した光束はマイクロレンズ87に到達し、物体上の点80aから出で瞳平面上の領域27cを通過した光束はマイクロレンズ86に到達する。物体上の点80bから出で瞳平面上の領域27aを通過した光束はマイクロレンズ89に到達し、物体上の点80bから出で瞳平面上の領域27cを通過した光束はマイクロレンズ88に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図8(b)と同様に、仮想的な撮像面6a上の位置に並べなおせば、図8(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 8C, the microlens 20 re-images the light beam from the photographing optical system 3 (this is called re-imaging because a light beam once formed is diffused). ), An image pickup device 6 is provided on the image plane. By arranging in this way, the object plane 80 and the imaging device 6 are in a conjugate relationship. The light beam that has exited from the point 80a on the object and passed through the region 27a on the pupil plane reaches the micro lens 87, and the light beam that has exited from the point 80a on the object and passed through the region 27c on the pupil plane reaches the micro lens 86. To do. The light beam that has exited from the point 80b on the object and passed through the region 27a on the pupil plane reaches the microlens 89, and the light beam that has exited from the point 80b on the object and passed through the region 27c on the pupil plane reaches the microlens 88. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. Similar to FIG. 8B, information similar to that in FIG. 8A can be obtained by rearranging the positions on the virtual imaging surface 6a. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図7ではMLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。   FIG. 7 shows an example in which the position information and the angle information can be acquired by using the MLA (phase modulation element) as the pupil dividing means. However, the position information and the angle information (equivalent to restricting the passing area of the pupil) are shown. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system can be used.

上記第1及び第2の実施例においては、撮像装置における撮影予備動作において、当該撮影装置に設けられたモニタ9aを利用して本発明を実施する方法について述べたが、撮影後の現像時にも同じように本発明を適用することが出来る。すなわち、ライトフィールドカメラで得られた画素信号を含む撮像情報をそのまま記録しておき、出力画像を生成するいわゆる現像操作を行うアプリケーションを考えれば良い。この時、モニタ9aをPC上の一つのウィンドウ、指での指示をマウスによる指示、マニュアルフォーカス操作を撮影後でのリフォーカス(現像すべき画像生成面を操作すること)と置き換えれば容易に本発明を適用することが可能である。   In the first and second embodiments, the method for carrying out the present invention using the monitor 9a provided in the photographing apparatus in the photographing preliminary operation in the imaging apparatus has been described, but also in the development after photographing. The present invention can be similarly applied. That is, an application for performing a so-called development operation for generating an output image by recording imaging information including a pixel signal obtained by a light field camera as it is may be considered. At this time, if the monitor 9a is replaced with one window on the PC, the instruction with the finger is an instruction with the mouse, and the manual focus operation is replaced with the refocus after shooting (manipulating the image generation surface to be developed), the book is easily obtained. The invention can be applied.

以上に説明したように、本発明によれば、撮影レンズの情報などをもとに、撮影光学系でケラレが発生した場合においても、高品位な画像を得ることが出来る。   As described above, according to the present invention, a high-quality image can be obtained even when vignetting occurs in the photographing optical system based on information on the photographing lens.

[他の実施例]
上述した実施形態において示した各処理は、各処理の機能を実現する為のプログラムをメモリから読み出してカメラシステム制御回路5のCPUが実行することによりその機能を実現させるものである。
[Other embodiments]
Each process shown in the embodiment described above is realized by reading a program for realizing the function of each process from the memory and executing it by the CPU of the camera system control circuit 5.

尚、上述した構成に限定されるものではなく、各処理の全部または一部の機能を専用のハードウェアにより実現してもよい。また、上述したメモリは、光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記録媒体、RAM以外の揮発性のメモリから構成されてよい。また、それらの組合せによるコンピュータ読み取り、書き込み可能な記録媒体より構成されてもよい。   Note that the present invention is not limited to the configuration described above, and all or some of the functions of each process may be realized by dedicated hardware. The above-described memory may be composed of a non-volatile memory such as a magneto-optical disk device or a flash memory, a recording medium such as a CD-ROM that can only be read, and a volatile memory other than the RAM. Moreover, you may comprise from the computer-readable / writable recording medium by those combination.

また、各処理の機能を実現する為のプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含む。   In addition, each process may be performed by recording a program for realizing the function of each process on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. . Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, the program read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、一定時間プログラムを保持しているものも含むものとする。例えば、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)である。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” includes a medium that holds a program for a certain period of time. For example, a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現する為のものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。   A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (13)

被写体像を撮像素子により光電変換して得られた画素信号を表示するための表示装置において、
ライトフィールドカメラで得られた画素信号を含む情報を取得する信号取得手段と、
取得した前記画素信号を表示する表示手段と、
前記表示手段の表示画面を複数の分割表示領域に分割する表示領域分割手段と、
測距に用いる基線長方向を設定する基線方向制御手段と、
前記複数の分割表示領域の一つの領域において、前記信号取得手段で取得した前記情報に基づいて、前記基線方向制御手段で設定された基線長方向に分割されている2つより多い瞳領域のうちの隣接しない異なる瞳領域に対応する前記画素信号を表示する表示制御手段
を備えた表示装置。
In a display device for displaying a pixel signal obtained by photoelectrically converting a subject image by an image sensor,
Signal acquisition means for acquiring information including pixel signals obtained by a light field camera;
Display means for displaying the acquired pixel signal;
Display area dividing means for dividing the display screen of the display means into a plurality of divided display areas;
A baseline direction control means for setting a baseline length direction used for distance measurement;
In one area of the plurality of divided display areas, based on the information acquired by the signal acquisition means, out of more than two pupil areas divided in the baseline length direction set by the baseline direction control means A display device comprising display control means for displaying the pixel signals corresponding to different non-adjacent pupil regions.
表示領域分割手段は、前記基線方向制御手段で設定された基線長方向に基づいて、前記一つの領域をさらに2つの領域に分割し、前記表示制御手段は、当該分割された2つの領域に前記異なる瞳領域に対応する前記画素信号をそれぞれ表示することを特徴とする請求項1に記載の表示装置。   The display area dividing means further divides the one area into two areas based on the baseline length direction set by the baseline direction control means, and the display control means divides the one area into the two divided areas. The display device according to claim 1, wherein each of the pixel signals corresponding to different pupil regions is displayed. 表示領域分割手段は、前記設定された基線長方向と直交する方向に前記複数の分割表示領域の前記一つをさらに2つの領域に分割することを特徴とする請求項2に記載の表示装置。   3. The display device according to claim 2, wherein the display area dividing unit further divides the one of the plurality of divided display areas into two areas in a direction orthogonal to the set base line length direction. 前記表示画面に測距領域を設定する測距領域制御手段を備え、前記表示領域分割手段は、前記測距領域制御手段による測距領域の設定に従って前記表示画面を前記複数の分割表示領域に分割し、前記表示制御手段は、前記一つの領域を前記測距領域とすることを特徴とする請求項1乃至3のいずれか一項に記載の表示装置。   Ranging area control means for setting a ranging area on the display screen is provided, and the display area dividing means divides the display screen into the plurality of divided display areas according to the setting of the ranging area by the ranging area control means. The display device according to claim 1, wherein the display control unit sets the one area as the distance measurement area. 前記表示制御手段は、前記複数の分割表示領域の一つにおいて、前記基線方向制御手段で設定された基線長方向に分割されている2つより多い瞳領域のうちの隣接しない異なる瞳領域に対応する前記画素信号を加算して表示することを特徴とする請求項1または4に記載の表示装置。   The display control means corresponds to a different non-adjacent pupil area among the more than two pupil areas divided in the baseline length direction set by the baseline direction control means in one of the plurality of divided display areas. The display device according to claim 1, wherein the pixel signals to be added are displayed. 前記表示制御手段は、前記基線方向制御手段で設定された基線長方向に分割された2つより多い瞳領域のうちの隣接しない異なる瞳領域に対応する前記画素信号それぞれに異なる色調整を行って加算することを特徴とする請求項5記載の表示装置。   The display control unit performs different color adjustments on the pixel signals corresponding to different non-adjacent pupil regions among the more than two pupil regions divided in the baseline length direction set by the baseline direction control unit. 6. The display device according to claim 5, wherein addition is performed. 撮像光学系と、
撮像素子と、
前記撮像素子上の画素へ入射する光束を撮影レンズの特定の瞳領域のみに制限して2より多い瞳領域に分割する瞳分割手段と、
請求項1乃至6のいずれか一項に記載の表示装置と
を備えたことを特徴とする撮像装置。
An imaging optical system;
An image sensor;
Pupil dividing means for restricting a light beam incident on a pixel on the image sensor to only a specific pupil region of the photographing lens and dividing it into more than two pupil regions;
An imaging apparatus comprising: the display device according to claim 1.
前記瞳分割手段は、前記撮像素子の受光面に配置されたマイクロレンズアレイであり、各マイクロレンズは所定数の前記画素からなる配列と対応して設けられていることを特徴とする請求項7に記載の撮像装置。   8. The pupil division unit is a microlens array disposed on a light receiving surface of the imaging device, and each microlens is provided corresponding to an array including a predetermined number of pixels. The imaging device described in 1. 被写体像を撮像素子により光電変換して得られた画素信号を表示手段に表示する表示方法において、
ライトフィールドカメラで得られた画素信号を含む情報を取得する信号取得ステップと、
前記表示手段の表示画面を複数の分割表示領域に分割する表示領域分割ステップと、
測距に用いる基線長方向を設定する基線方向制御ステップと、
前記複数の分割表示領域の一つの領域において、前記信号取得ステップで取得した前記情報に基づいて、前記基線方向制御ステップで設定された基線長方向に分割されている2つより多い瞳領域のうちの隣接しない異なる瞳領域に対応する前記画素信号を表示する表示制御ステップ
を備えた表示方法。
In a display method for displaying on a display means a pixel signal obtained by photoelectrically converting a subject image by an image sensor,
A signal acquisition step of acquiring information including pixel signals obtained by a light field camera;
A display area dividing step of dividing the display screen of the display means into a plurality of divided display areas;
A baseline direction control step for setting a baseline length direction used for distance measurement;
In one region of the plurality of divided display regions, based on the information acquired in the signal acquisition step, out of more than two pupil regions divided in the baseline length direction set in the baseline direction control step A display method comprising a display control step of displaying the pixel signals corresponding to different non-adjacent pupil regions.
コンピュータを、
被写体像を撮像素子により光電変換して得られた画素信号を表示手段に表示するための表示装置の制御方法において、
ライトフィールドカメラで得られた画素信号を含む情報を取得する信号取得手段、
前記表示手段の表示画面を複数の分割表示領域に分割する表示領域分割手段、
測距に用いる基線長方向を設定する基線方向制御手段、
前記複数の分割表示領域の一つの領域において、前記信号取得手段で取得した前記情報に基づいて、前記基線方向制御手段で設定された基線長方向に分割された2つより多い瞳領域のうちの隣接しない異なる瞳領域に対応する前記画素信号を表示する表示制御手段
として機能させるプログラム。
Computer
In a control method of a display device for displaying on a display means a pixel signal obtained by photoelectrically converting a subject image by an image sensor,
Signal acquisition means for acquiring information including pixel signals obtained by a light field camera;
Display area dividing means for dividing the display screen of the display means into a plurality of divided display areas;
Baseline direction control means for setting the baseline length direction used for ranging,
In one region of the plurality of divided display regions, based on the information acquired by the signal acquisition unit, of the more than two pupil regions divided in the baseline length direction set by the baseline direction control unit A program that functions as display control means for displaying the pixel signals corresponding to different pupil regions that are not adjacent to each other.
請求項10のプログラムを記録したコンピュータが読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program of Claim 10. コンピュータを、請求項1乃至6のいずれか一項に記載された表示装置の各手段として機能させるプログラム。   The program which makes a computer function as each means of the display apparatus as described in any one of Claims 1 thru | or 6. コンピュータを、請求項1乃至6のいずれか一項に記載された表示装置の各手段として機能させるプログラムを格納した記憶媒体。   A storage medium storing a program that causes a computer to function as each unit of the display device according to any one of claims 1 to 6.
JP2012129652A 2012-06-07 2012-06-07 Display device, display method, and imaging device including the display device Expired - Fee Related JP6144880B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012129652A JP6144880B2 (en) 2012-06-07 2012-06-07 Display device, display method, and imaging device including the display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012129652A JP6144880B2 (en) 2012-06-07 2012-06-07 Display device, display method, and imaging device including the display device

Publications (2)

Publication Number Publication Date
JP2013254089A true JP2013254089A (en) 2013-12-19
JP6144880B2 JP6144880B2 (en) 2017-06-07

Family

ID=49951624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012129652A Expired - Fee Related JP6144880B2 (en) 2012-06-07 2012-06-07 Display device, display method, and imaging device including the display device

Country Status (1)

Country Link
JP (1) JP6144880B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116848A (en) * 2006-11-07 2008-05-22 Canon Inc Imaging apparatus
JP2009165115A (en) * 2007-12-12 2009-07-23 Sony Corp Imaging device
JP2009276426A (en) * 2008-05-13 2009-11-26 Canon Inc Imaging apparatus
JP2010263572A (en) * 2009-05-11 2010-11-18 Sony Corp Imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116848A (en) * 2006-11-07 2008-05-22 Canon Inc Imaging apparatus
JP2009165115A (en) * 2007-12-12 2009-07-23 Sony Corp Imaging device
JP2009276426A (en) * 2008-05-13 2009-11-26 Canon Inc Imaging apparatus
JP2010263572A (en) * 2009-05-11 2010-11-18 Sony Corp Imaging device

Also Published As

Publication number Publication date
JP6144880B2 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
US9279955B2 (en) Image pickup apparatus, control method thereof, and program
JP6512810B2 (en) Image pickup apparatus, control method and program
JP6021306B2 (en) Imaging apparatus and control method thereof
JP5914192B2 (en) Imaging apparatus and control method thereof
JP7051373B2 (en) Image processing device, image pickup device, image processing method, program, and storage medium
JP2014023083A (en) Display device, imaging device, and image editing program
JP2015144416A (en) Imaging apparatus and control method of the same
JP2015109635A (en) Imaging apparatus, control method thereof and program
JP2018101951A (en) Imaging device, imaging method, and program for computer
JP2007104248A (en) Electronic camera and program
US10587811B2 (en) Display control apparatus and control method for the same
JP2015194897A (en) Image processor, image processing method and program, and imaging device
JP2014179870A (en) Image reproducing apparatus, image reproducing method, and imaging apparatus
JP6103969B2 (en) Imaging apparatus, control method thereof, and program
JP4952574B2 (en) Image composition apparatus and program
JP2013205781A (en) Imaging apparatus
JP2012150826A (en) Image composition device and program
JP6144880B2 (en) Display device, display method, and imaging device including the display device
JP2014137704A (en) Imaging device
JP6188290B2 (en) Ranging device, imaging device, focus evaluation method, program, and storage medium
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6576227B2 (en) Imaging apparatus, control method thereof, and program
JP2014056595A (en) Image composition device and program
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
WO2016178310A1 (en) Image processing apparatus, method for controlling the same, and image capture apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170512

R151 Written notification of patent or utility model registration

Ref document number: 6144880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees