JP6071748B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6071748B2
JP6071748B2 JP2013108818A JP2013108818A JP6071748B2 JP 6071748 B2 JP6071748 B2 JP 6071748B2 JP 2013108818 A JP2013108818 A JP 2013108818A JP 2013108818 A JP2013108818 A JP 2013108818A JP 6071748 B2 JP6071748 B2 JP 6071748B2
Authority
JP
Japan
Prior art keywords
image
subject
distance
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013108818A
Other languages
Japanese (ja)
Other versions
JP2014228727A (en
JP2014228727A5 (en
Inventor
高橋 和彦
和彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013108818A priority Critical patent/JP6071748B2/en
Publication of JP2014228727A publication Critical patent/JP2014228727A/en
Publication of JP2014228727A5 publication Critical patent/JP2014228727A5/ja
Application granted granted Critical
Publication of JP6071748B2 publication Critical patent/JP6071748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、立体画像撮影が可能な撮像装置とその制御方法に関し、特に、ライブビュー表示時のオートフォーカス(自動焦点調節)制御に関するものである。   The present invention relates to an imaging apparatus capable of capturing a stereoscopic image and a control method thereof, and more particularly to autofocus (automatic focus adjustment) control during live view display.

視差を利用した立体的な画像を観測可能な立体画像撮像装置では、異なる位置に撮像素子を配置し、複数の光路を経た画像を取り込む。これにより、同一被写体について視差の異なる画像データを取得し、左目用画像および右目用画像として表示することができる。特許文献1では、2つの光学手段と2つの撮像素子を使い、ステレオ画像を取得する装置が開示されている。また特許文献2では、1つの光学手段を使い、ステレオ画像を取得する方法が開示されている。   In a stereoscopic image capturing apparatus capable of observing a stereoscopic image using parallax, image sensors are arranged at different positions, and images that have passed through a plurality of optical paths are captured. As a result, image data with different parallax can be acquired for the same subject and displayed as a left-eye image and a right-eye image. Patent Document 1 discloses an apparatus that acquires a stereo image using two optical means and two image sensors. Patent Document 2 discloses a method for acquiring a stereo image using one optical means.

ところで、撮像装置には、ユーザが被写体を装置背面のモニタ部で観察しながら撮影する、いわゆるライブビュー表示機能がある。ライブビュー表示を行いつつ、撮像光学系の合焦動作を行う方法として、従来からコントラストAF(オートフォーカス)方式が知られている。特許文献3には、左目用画像と右目用画像に係る2つの光学系の合焦に関して、コントラスト値が最大となるようにフォーカスレンズ位置を制御する方法が開示されている。また特許文献4には、撮像素子を構成する画素の一部に瞳分割された一対の焦点検出専用画素が複数配置された撮像装置が開示されている。特許文献5には、左目用画像と右目用画像について水平方向の相関演算を行うことにより画像ズレ量を求め、視差を利用してデフォーカス量を算出し、フォーカスレンズ位置を制御する方法が開示されている。   Incidentally, the imaging apparatus has a so-called live view display function in which a user takes a picture while observing a subject on a monitor unit on the back of the apparatus. Conventionally, a contrast AF (autofocus) method is known as a method of performing a focusing operation of an imaging optical system while performing live view display. Patent Document 3 discloses a method for controlling the focus lens position so that the contrast value is maximized with respect to the focusing of the two optical systems related to the left-eye image and the right-eye image. Patent Document 4 discloses an imaging apparatus in which a plurality of pairs of focus detection dedicated pixels that are pupil-divided into a part of the pixels constituting the imaging element are arranged. Patent Document 5 discloses a method of controlling the focus lens position by calculating an image shift amount by performing a horizontal correlation operation on the left eye image and the right eye image, calculating a defocus amount using parallax, and controlling the focus lens position. Has been.

特開平01−202985号公報JP-A-01-202985 特開昭58−24105号公報JP-A-58-24105 特開2010−204385号公報JP 2010-204385 A 特開2013−54136号公報JP 2013-54136 A 特開2013−41103号公報JP2013-41103A

コントラストAF方式では、フォーカスレンズを光軸方向に移動させてコントラスト値が最大となる位置を逐次的に探索する必要があるため、合焦までに時間がかかるという課題がある。さらに、被写体のコントラストが低い場合、コントラスト値が最大となる位置を見つけられないと合焦制御ができないという課題もある。   In the contrast AF method, since it is necessary to sequentially search for a position where the contrast value becomes maximum by moving the focus lens in the optical axis direction, there is a problem that it takes time to focus. Furthermore, when the contrast of the subject is low, there is a problem that focusing control cannot be performed unless a position where the contrast value is maximized is found.

また、焦点検出専用画素を配置して位相差検出を行う撮像装置の場合、焦点検出専用画素の位置にある画素情報が得られないので、画素欠損を回避すべく当該画素の周囲の画素から補間予測する必要がある。そのため、高画質な画像が得られにくい。左目用画像と右目用画像との相関演算によりデフォーカス量を算出する方法は、被写体のコントラストが低い場合に、画像の相関演算を行えないと合焦できない。また、被写体が周期的な模様を有する場合、画像の相関が高い位置が周期的に存在するため、複数の候補から1つに絞り込むことができないと合焦できないという課題がある。
本発明の目的は、撮影中の画像の表示時において焦点調節に要する合焦時間を短縮可能な撮像装置およびその制御方法を提供することである。
In addition, in the case of an imaging apparatus that performs phase difference detection by arranging focus detection dedicated pixels, pixel information at the position of the focus detection dedicated pixels cannot be obtained, so interpolation is performed from pixels around the pixel to avoid pixel loss. Need to predict. For this reason, it is difficult to obtain a high-quality image. The method of calculating the defocus amount by the correlation calculation between the left-eye image and the right-eye image cannot be focused unless the image correlation calculation is performed when the contrast of the subject is low. In addition, when the subject has a periodic pattern, there is a problem in that focusing cannot be performed unless a plurality of candidates can be narrowed down to one because positions with high correlation of images periodically exist.
An object of the present invention is to provide an imaging apparatus capable of shortening a focusing time required for focus adjustment at the time of displaying an image being shot and a control method therefor.

上記課題を解決するために、本発明に係る装置は、各マイクロレンズに対して撮像光学系の射出瞳の異なる領域をそれぞれ通過した光束を受光して光電変換する複数の光電変換部を撮像素子が備え、該撮像素子の出力する像信号を用いて撮像光学系の焦点調節を行う撮像装置であって、前記撮像素子から取得した複数の像信号から左目用画像および右目用画像を含む画像データを生成する画像生成手段と、前記画像データを取得して画像を表示する表示手段と、前記画像データを取得して被写体像を特定する被写体特定手段と、前記画像データおよび前記被写体特定手段により特定された被写体を示す情報を取得し、前記左目用画像および右目用画像に含まれる被写体像について当該画像間の像ズレ量を算出し、前記被写体の視差により当該被写体までの距離を算出する被写体距離算出手段と、前記表示手段が撮像された画像を表示しているときに、前記撮像光学系を構成する焦点調節用レンズを移動させることにより、前記被写体距離算出手段が算出した前記距離にピントを合わせるレンズ駆動手段を備え、前記被写体特定手段により特定される被写体までの距離について、前記被写体距離算出手段が複数の距離情報を算出した場合、前記被写体までの距離の最大値と最小値の差を算出して閾値と比較し、差が閾値以上である場合、合焦不能の旨を報知する。 In order to solve the above-described problems, an apparatus according to the present invention includes a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different regions of an exit pupil of an imaging optical system with respect to each microlens. An image pickup apparatus that performs focus adjustment of an image pickup optical system using an image signal output from the image pickup device, and includes image data including a left-eye image and a right-eye image from a plurality of image signals acquired from the image pickup device Image generating means for generating image, display means for acquiring the image data and displaying the image, subject specifying means for acquiring the image data and specifying a subject image, and specifying by the image data and the subject specifying means Information indicating the imaged subject is obtained, and an image shift amount between the images for the subject images included in the left-eye image and the right-eye image is calculated. A subject distance calculating unit that calculates a distance to a subject, and a focus adjustment lens that constitutes the imaging optical system when the display unit displays a captured image, thereby moving the subject distance A lens driving unit that focuses on the distance calculated by the calculating unit, and when the subject distance calculating unit calculates a plurality of distance information for the distance to the subject specified by the subject specifying unit, It calculates the difference between the maximum value and the minimum value of the distance is compared with a threshold, when the difference is equal to or larger than the threshold, you notify the fact of focusing impossible.

本発明によれば、撮影中の画像の表示時において焦点調節に要する合焦時間を短縮できる。   According to the present invention, it is possible to reduce the focusing time required for focus adjustment when displaying an image during shooting.

本発明の第1実施形態の機能ブロック図である。It is a functional block diagram of a 1st embodiment of the present invention. 本発明の実施形態に共通する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device common to embodiment of this invention. 図2の撮像素子の構成例を説明する図である。It is a figure explaining the structural example of the image pick-up element of FIG. 図2の撮像素子の画素配置を模式的に示す図である。It is a figure which shows typically pixel arrangement | positioning of the image pick-up element of FIG. 図2の撮像素子の受光の様子を説明する模式図である。It is a schematic diagram explaining the mode of light reception of the image pick-up element of FIG. 本発明の実施形態におけるライブビュー撮影処理を説明するフローチャートである。It is a flowchart explaining the live view imaging | photography process in embodiment of this invention. 本発明の第1実施形態における焦点調節動作を説明するフローチャートである。It is a flowchart explaining the focus adjustment operation | movement in 1st Embodiment of this invention. 本発明の第2実施形態の機能ブロック図である。It is a functional block diagram of a 2nd embodiment of the present invention. 本発明の第2実施形態における焦点調節動作を説明するフローチャートである。It is a flowchart explaining the focus adjustment operation | movement in 2nd Embodiment of this invention. 被写体指示部の機能を説明するために画面例を示す模式図である。It is a schematic diagram which shows the example of a screen in order to demonstrate the function of a to-be-photographed instruction | indication part.

以下に、本発明の各実施形態を添付図面に基づいて説明する。
まず、各実施形態に共通する装置構成について、図2ないし図4を参照して説明する。図2は、立体画像撮像装置の構成例を概略的に示すブロック図である。立体画像撮像装置は、例えば、立体撮影が可能なデジタルカメラである。
図2に示す装置本体100はレンズ部を備えるか、または着脱可能なレンズ装置が装着される。CPU(Central Processing Unit)109は撮像装置全体を制御する。電源110は、装置本体100内の各回路に電源を供給する。カードスロット120には、着脱可能な記録媒体であるメモリカード121を差し込むことができる。メモリカード121をカードスロット120に差し込んだ状態で、メモリカード121はカード入出力部119と電気的に接続される。なお、本実施形態では記録媒体としてメモリカード121を採用しているが、その他の記録媒体、例えば、ハードディスク、光ディスク、光磁気ディスク、磁気ディスク、その他の固体メモリを採用してもよい。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
First, an apparatus configuration common to the embodiments will be described with reference to FIGS. 2 to 4. FIG. 2 is a block diagram schematically illustrating a configuration example of the stereoscopic image capturing apparatus. The stereoscopic image capturing apparatus is, for example, a digital camera that can perform stereoscopic shooting.
The apparatus main body 100 shown in FIG. 2 includes a lens unit or a detachable lens apparatus. A CPU (Central Processing Unit) 109 controls the entire imaging apparatus. The power supply 110 supplies power to each circuit in the apparatus main body 100. A memory card 121 that is a removable recording medium can be inserted into the card slot 120. With the memory card 121 inserted into the card slot 120, the memory card 121 is electrically connected to the card input / output unit 119. In this embodiment, the memory card 121 is used as a recording medium. However, other recording media such as a hard disk, an optical disk, a magneto-optical disk, a magnetic disk, and other solid-state memories may be used.

レンズ部を構成するレンズ群のうち、図2にはレンズ101,102だけを示す。レンズ102は焦点調節用レンズ(フォーカスレンズ)であり、光軸方向に進退して焦点調節を行う。レンズ群を介して入射する光に対して、絞り103は撮像素子105への光量を調節する。レンズ101,102および絞り103は、撮像光学系を構成する。撮像素子105、画像信号処理部107、フレームメモリ108は光電変換系を構成する。この光電変換系は、撮像光学系が形成した被写体像をデジタル画像信号や画像データに変換する。なお、撮像光学系のレンズ102や絞り103等の駆動機構部については図示および説明を省略する。   Of the lens group constituting the lens unit, only the lenses 101 and 102 are shown in FIG. The lens 102 is a focus adjustment lens (focus lens), and performs focus adjustment by moving back and forth in the optical axis direction. The diaphragm 103 adjusts the amount of light to the image sensor 105 with respect to light incident through the lens group. The lenses 101 and 102 and the diaphragm 103 constitute an imaging optical system. The image sensor 105, the image signal processing unit 107, and the frame memory 108 constitute a photoelectric conversion system. This photoelectric conversion system converts the subject image formed by the imaging optical system into a digital image signal or image data. Note that illustration and description of the driving mechanism units such as the lens 102 and the diaphragm 103 of the imaging optical system are omitted.

撮像素子105は撮像光学系が形成した被写体像を光電変換し、画像信号を出力する光電変換手段として機能する。撮像素子105には、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いる。撮像素子105は電子シャッタ機能を有し、露光時間を調整することができる。または、電子シャッタ機能に代えて、機械式シャッタで露光時間を調整する構成でも構わない。撮像素子105は各マイクロレンズに対して複数のフォトダイオード(以下、PDと略記する)を配置した構成を有する。第1PD選択合成部106は撮像素子105の画素データ処理を行い、処理結果を画像信号処理部107に出力する。第1PD選択合成部106は、複数のPDの出力から必要な画像信号を選択する機能と、選択したPDによる画像信号を合成して出力する機能を有する。なお、図2では第1PD選択合成部106を撮像素子105内に設けているが、撮像素子105の外部に設けてもよい。   The image sensor 105 functions as a photoelectric conversion unit that photoelectrically converts a subject image formed by the imaging optical system and outputs an image signal. As the image sensor 105, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used. The image sensor 105 has an electronic shutter function and can adjust the exposure time. Alternatively, the exposure time may be adjusted with a mechanical shutter instead of the electronic shutter function. The imaging element 105 has a configuration in which a plurality of photodiodes (hereinafter abbreviated as PD) are arranged for each microlens. The first PD selection / synthesis unit 106 performs pixel data processing of the image sensor 105 and outputs the processing result to the image signal processing unit 107. The first PD selection / combination unit 106 has a function of selecting a necessary image signal from the outputs of a plurality of PDs and a function of combining and outputting image signals from the selected PDs. In FIG. 2, the first PD selection / combination unit 106 is provided in the image sensor 105, but may be provided outside the image sensor 105.

図3は、本実施形態の撮像装置に適用した撮像素子の構成例を概略的に示す図である。図3(A)は、撮像素子105の全体構成を示す。撮像素子105は、画素アレイ301と、画素アレイ301における行を選択する垂直選択回路302と、画素アレイ301における列を選択する水平選択回路304を含む。読み出し回路303は、画素アレイ301中の画素部のうち垂直選択回路302によって選択される画素部の信号を読み出す。読み出し回路303は、信号を蓄積するメモリ、ゲインアンプ、A(Analog)/D(Digital)変換器等を列毎に有する。
シリアルインタフェース(SI)部305は、各回路の動作モード等を、CPU109からの指示に従って決定する。垂直選択回路302は、画素アレイ301の複数の行を順次選択し、読み出し回路303に画素信号を取り出す。また水平選択回路304は、読み出し回路303によって読み出された複数の画素信号を列毎に順次選択する。なお、撮像素子105には、図3(A)に示す構成要素以外に、例えば、垂直選択回路302、水平選択回路304、読み出し回路303等にタイミング信号を提供するタイミングジェネレータや、制御回路等が存在するが、これらの詳細な説明は省略する。
FIG. 3 is a diagram schematically illustrating a configuration example of an imaging element applied to the imaging apparatus of the present embodiment. FIG. 3A shows the overall configuration of the image sensor 105. The image sensor 105 includes a pixel array 301, a vertical selection circuit 302 that selects a row in the pixel array 301, and a horizontal selection circuit 304 that selects a column in the pixel array 301. The readout circuit 303 reads out the signal of the pixel portion selected by the vertical selection circuit 302 among the pixel portions in the pixel array 301. The reading circuit 303 includes a memory for storing signals, a gain amplifier, an A (Analog) / D (Digital) converter, and the like for each column.
A serial interface (SI) unit 305 determines an operation mode of each circuit according to an instruction from the CPU 109. The vertical selection circuit 302 sequentially selects a plurality of rows of the pixel array 301 and extracts pixel signals to the readout circuit 303. The horizontal selection circuit 304 sequentially selects a plurality of pixel signals read by the reading circuit 303 for each column. In addition to the components shown in FIG. 3A, the imaging element 105 includes, for example, a timing generator that provides a timing signal to the vertical selection circuit 302, the horizontal selection circuit 304, the readout circuit 303, a control circuit, and the like. Although they exist, detailed description thereof will be omitted.

図3(B)は、撮像素子105の画素部の構成例を示す。画素部400は、光学素子としてのマイクロレンズ401と、受光素子としての複数のPD402aないし402iを有する。これらのPDは受光した光束を光電変換して画像信号を生成する光電変換部として機能する。なお、図3(B)に示す例では、1つの画素部が備えるPDの数を9個とするが、PDの数は2個以上の任意の数でよい。また、画素部400は図示の構成要素以外にも、例えば、PDの信号を読み出し回路303に読み出すための画素増幅アンプ、行を選択する選択スイッチ、PDの信号をリセットするリセットスイッチ等を備える。   FIG. 3B illustrates a configuration example of the pixel portion of the image sensor 105. The pixel unit 400 includes a microlens 401 as an optical element and a plurality of PDs 402a to 402i as light receiving elements. These PDs function as a photoelectric conversion unit that photoelectrically converts a received light beam to generate an image signal. Note that in the example illustrated in FIG. 3B, the number of PDs included in one pixel portion is nine, but the number of PDs may be an arbitrary number of two or more. In addition to the illustrated components, the pixel unit 400 includes, for example, a pixel amplification amplifier for reading a PD signal to the reading circuit 303, a selection switch for selecting a row, a reset switch for resetting the PD signal, and the like.

図4は画素アレイの配置を例示する。画素アレイ301は、2次元画像データを出力するため、水平方向にN個、垂直方向にM個の画素部400を2次元アレイ状に配列して構成される。各画素部400はカラーフィルタを有する。例えば、奇数行が、赤(R)と緑(G)のカラーフィルタの繰り返しであり、偶数行が、緑(G)と青(B)のカラーフィルタの繰り返しである。すなわち、画素アレイ301が備える複数の画素部400は、予め決められた画素配列(この例ではベイヤー配列)に従って配置されている。   FIG. 4 illustrates the arrangement of the pixel array. The pixel array 301 is configured by arranging N pixel units 400 in the horizontal direction and M pixel units 400 in the vertical direction in order to output two-dimensional image data. Each pixel unit 400 includes a color filter. For example, odd rows are repetitions of red (R) and green (G) color filters, and even rows are repetitions of green (G) and blue (B) color filters. That is, the plurality of pixel units 400 included in the pixel array 301 are arranged according to a predetermined pixel arrangement (in this example, a Bayer arrangement).

次に、図4に示す画素構成を有する撮像素子の受光について説明する。図5は撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。画素アレイの断面501にて各画素部は、マイクロレンズ502、カラーフィルタ503、PD504および505を有する。PD504は図3(B)中のPD402aに相当する。また、PD505は図3(B)中のPD402cに相当する。
図5には撮影レンズの射出瞳506と、マイクロレンズ502を有する画素部に対して、射出瞳506から出た光束の中心を光軸509で示す。射出瞳506から出た光は、光軸509を中心として撮像素子に入射する。射出瞳506における一部領域507、508は、分割された異なる領域である。光線510、511は、一部領域507を通過する光のうちで最外周の光線である。光線512、513は、一部領域508を通過する光のうちで最外周の光線である。射出瞳506からの光束のうち、光軸509を境にして、図5の上側に示す光束はPD505に入射し、下側の光束はPD504に入射する。つまり、PD504とPD505は、撮影レンズの射出瞳506に対する別の領域の光をそれぞれ受光するという特性を有する。この特性によって、撮像装置は、視差のある少なくとも2つの画像を取得することができる。例えば、撮像装置は、画素部内の領域において、複数の左側のPDから得られるデータを第1ラインとし、複数の右側のPDから得られるデータを第2ラインとして、2つの画像を取得することができる。撮像装置は、視差のある2つの画像を左目用画像および右目用画像としてステレオ画像のデータ生成処理を実行し、ステレオ表示装置上に立体感のある画像を表示することができる。以下では左目用画像を「左像」とも呼び、右目用画像を「右像」とも呼ぶ。
Next, light reception by the image sensor having the pixel configuration shown in FIG. 4 will be described. FIG. 5 is a conceptual diagram showing a state in which the light beam emitted from the exit pupil of the photographing lens enters the image sensor. Each pixel portion in the cross section 501 of the pixel array includes a microlens 502, a color filter 503, PDs 504 and 505. The PD 504 corresponds to the PD 402a in FIG. The PD 505 corresponds to the PD 402c in FIG.
In FIG. 5, the optical axis 509 indicates the center of the light beam emitted from the exit pupil 506 with respect to the pixel portion having the exit pupil 506 of the photographing lens and the microlens 502. Light emitted from the exit pupil 506 is incident on the image sensor with the optical axis 509 as the center. Partial areas 507 and 508 in the exit pupil 506 are different divided areas. Light rays 510 and 511 are outermost light rays among the light passing through the partial region 507. Light rays 512 and 513 are the outermost peripheral light rays among the light beams passing through the partial region 508. Of the light flux from the exit pupil 506, the light flux shown on the upper side in FIG. 5 enters the PD 505 with the optical axis 509 as a boundary, and the lower light flux enters the PD 504. That is, the PD 504 and the PD 505 have a characteristic of receiving light in different regions with respect to the exit pupil 506 of the photographing lens. With this characteristic, the imaging apparatus can acquire at least two images with parallax. For example, the imaging device may acquire two images in a region in the pixel unit using data obtained from a plurality of left PDs as a first line and data obtained from the plurality of right PDs as a second line. it can. The imaging device can perform a stereo image data generation process using two images with parallax as a left-eye image and a right-eye image, and display a stereoscopic image on the stereo display device. Hereinafter, the left-eye image is also referred to as “left image”, and the right-eye image is also referred to as “right image”.

図2に戻って説明を続けると、第1PD選択合成部106は、図3を参照して説明した垂直選択回路302、読み出し回路303、水平選択回路304、SI部305を備える。第1PD選択合成部106は、CPU109が設定する動作モードに従って動作する。この動作モードは、撮像装置において開始が検知された撮影の種別に応じて設定され、静止画モードと、通常ライブビューモードと、ステレオライブビューモードを含む。静止画モードで第1PD選択合成部106は、全てのPDの出力を画像データとして画像信号処理部107に出力する。また通常ライブビューモードで第1PD選択合成部106は、画素内の全てのPD(図4(A)参照)の出力に対して加算平均演算を行って、演算結果をその画素の出力値とする。ステレオライブビューモードは、ライブビュー右目モードおよびライブビュー左目モードを含む。ライブビュー右目モードの場合、第1PD選択合成部106は、図3(B)に示すPD402a、402d、402gの各出力に対応した加算平均値を算出し、これを画素の出力値とする処理が実行され、ライブビュー用の右目用画像データが生成される。またライブビュー左目モードの場合、第1PD選択合成部106は、図3(B)に示すPD402c、402f、402iの各出力に対応した加算平均値を算出し、これを画素の出力値とする処理が実行され、ライブビュー用の左目用画像データが生成される。このように複数のPDの出力を加算合成し、これらの演算結果を1つの画素の出力とすることで、データ量を低減できる。   Returning to FIG. 2 and continuing the description, the first PD selecting / composing unit 106 includes the vertical selection circuit 302, the reading circuit 303, the horizontal selection circuit 304, and the SI unit 305 described with reference to FIG. The first PD selection / combination unit 106 operates according to an operation mode set by the CPU 109. This operation mode is set according to the type of shooting whose start is detected in the imaging apparatus, and includes a still image mode, a normal live view mode, and a stereo live view mode. In the still image mode, the first PD selecting / composing unit 106 outputs all PD outputs to the image signal processing unit 107 as image data. Further, in the normal live view mode, the first PD selection / combination unit 106 performs an averaging operation on the outputs of all the PDs in the pixel (see FIG. 4A), and uses the calculation result as the output value of the pixel. . The stereo live view mode includes a live view right eye mode and a live view left eye mode. In the live view right-eye mode, the first PD selecting / composing unit 106 calculates an addition average value corresponding to each output of the PDs 402a, 402d, and 402g shown in FIG. 3B and uses this as an output value of the pixel. This is executed to generate image data for the right eye for live view. In the live view left-eye mode, the first PD selection / combination unit 106 calculates an addition average value corresponding to each output of the PDs 402c, 402f, and 402i shown in FIG. 3B and uses this as an output value of the pixel. Is executed, and image data for the left eye for live view is generated. Thus, the amount of data can be reduced by adding and synthesizing the outputs of a plurality of PDs and using these calculation results as the output of one pixel.

ライブビューモードの場合、フレームレートを高くするために、撮像素子105から出力するデータ量の低減が更に要求される。そのため、第1PD選択合成部106は、最近接位置での同じカラーフィルタの画素について加算平均演算を行って出力値とする。本実施形態では、ライブビュー時に、水平方向にて3画素の出力について平均し、垂直方向にて3画素毎に1画素を読み出す処理が実行される。これにより、データ量を9分の1に減らすことができる。その場合、使用する画素について図4を参照して具体的に説明する。ここで、図4にて第m行第n列目の画素部を「m−n画素部」と表記する。自然数変数mおよびnの範囲はそれぞれ、M≧m≧1,N≧n≧1とする。
水平方向での3画素の出力に係る加算平均演算のために使用するのは、1行目の最初の赤色画素部、つまり1−1画素部、1−3画素部、1−5画素部の各出力である。前述のモードに応じて選択される各画素部の出力に対して、加算平均演算が行われて該当画素に対する値が算出される。次の赤色画素部である、1−7画素部,1−9画素部,1−11画素部に対して同様に演算処理が実行される。1行目の最初の緑色画素部である、1−2画素部、1−4画素部、1−6画素部に対して同様に演算処理が実行される。垂直方向にて2画素分を間引く処理を行う場合、次の行は4行目となり、最初の緑色画素部である、4−1画素部、4−3画素部、4−5画素部に対して同様に演算処理が実行される。4行目の最初の青色画素部は4−2画素部、4−4画素部、4−6画素部であり、これらの画素に対して同様に演算処理が実行される。
In the live view mode, a reduction in the amount of data output from the image sensor 105 is further required to increase the frame rate. For this reason, the first PD selection / combination unit 106 performs an averaging operation on the pixels of the same color filter at the closest position to obtain an output value. In the present embodiment, during live view, a process of averaging three pixel outputs in the horizontal direction and reading one pixel every three pixels in the vertical direction is executed. Thereby, the amount of data can be reduced to 1/9. In that case, the pixel to be used will be specifically described with reference to FIG. Here, in FIG. 4, the pixel portion in the m-th row and the n-th column is referred to as “mn pixel portion”. The ranges of the natural number variables m and n are M ≧ m ≧ 1, N ≧ n ≧ 1, respectively.
What is used for the arithmetic mean calculation related to the output of three pixels in the horizontal direction is the first red pixel portion in the first row, that is, the 1-1 pixel portion, the 1-3 pixel portion, and the 1-5 pixel portion. Each output. An arithmetic operation is performed on the output of each pixel unit selected according to the above-described mode, and a value for the corresponding pixel is calculated. The arithmetic processing is similarly executed for the next red pixel portion, which is the 1-7 pixel portion, the 1-9 pixel portion, and the 1-11 pixel portion. The arithmetic processing is similarly performed on the first green pixel portion in the first row, that is, the 1-2 pixel portion, the 1-4 pixel portion, and the 1-6 pixel portion. When the process of thinning out two pixels in the vertical direction is performed, the next row is the fourth row, and the first green pixel portion, that is, the 4-1 pixel portion, the 4-3 pixel portion, and the 4-5 pixel portion In the same manner, arithmetic processing is executed. The first blue pixel portion in the fourth row is a 4-2 pixel portion, a 4-4 pixel portion, and a 4-6 pixel portion, and arithmetic processing is similarly performed on these pixels.

図2の画像信号処理部107は、デジタル画像信号にシェーディング補正等の画像信号処理を施す。画像信号処理部107は、撮像素子105の特性に起因する画像濃度の非線形性や光源に起因する画像色の偏りを補正する。フレームメモリ108は、撮像素子105と画像信号処理部107によって生成される画像データを一時記憶するバッファメモリとして機能する。フレームメモリ108に格納される画像データは補正処理等が施されているが、撮像素子105の各画素部に蓄積された電荷のエネルギーをそのままデジタルデータ化にしたものに相当する。以下では、フレームメモリ108に格納された画像データをRAWデータと呼ぶ。特に、静止画モードの場合に第1PD選択合成部106で取得したRAWデータを、全PD−RAWデータと呼ぶ。また、ステレオライブビューモードの場合に第1PD選択合成部106で取得したRAWデータを、両目用RAWデータと呼ぶ。両目用RAWデータについては、フレームレートを高くするために、各画素部内でPDの出力に加算平均演算が施されている。一方、全PD−RAWデータについては、後工程で各種画像処理にて該データを扱うために、画像データとして極力詳細な情報を得ることを目的としている。そのため、全PD−RAWデータについては選択処理や合成処理が行われずに、各画素部内の各PDの出力情報に基づくデータが個別にフレームメモリ108に格納される。RAWデータの画像の画質に関するパラメータを撮像パラメータと呼び、絞り103の設定値であるAv、シャッタ速度Tv、ISO感度等を含む。   The image signal processing unit 107 in FIG. 2 performs image signal processing such as shading correction on the digital image signal. The image signal processing unit 107 corrects image density non-linearity due to the characteristics of the image sensor 105 and image color bias due to the light source. The frame memory 108 functions as a buffer memory that temporarily stores image data generated by the image sensor 105 and the image signal processing unit 107. The image data stored in the frame memory 108 has been subjected to correction processing and the like, and corresponds to the digital data of the charge energy accumulated in each pixel portion of the image sensor 105. Hereinafter, the image data stored in the frame memory 108 is referred to as RAW data. In particular, the RAW data acquired by the first PD selection / combination unit 106 in the still image mode is referred to as all PD-RAW data. The RAW data acquired by the first PD selection / combination unit 106 in the case of the stereo live view mode is referred to as RAW data for both eyes. For both-eye RAW data, an averaging operation is performed on the output of the PD in each pixel unit in order to increase the frame rate. On the other hand, all PD-RAW data is intended to obtain as much detailed information as image data in order to handle the data in various image processing in a later process. Therefore, selection processing and synthesis processing are not performed for all PD-RAW data, and data based on output information of each PD in each pixel unit is individually stored in the frame memory 108. A parameter relating to the image quality of the RAW data image is called an imaging parameter, and includes a setting value Av of the aperture 103, a shutter speed Tv, ISO sensitivity, and the like.

第1PD選択合成部106は、立体視表示用の右目用画像データおよび左目用画像データを生成するデータ処理と、2次元表示用の画像データを生成するデータ処理を行う。以下では、右像のデータ生成に関連する第1モードを「右目選択合成モード」といい、左像のデータ生成に関連する第2モードを「左目選択合成モード」という。また、右像や左像に係るデータの選択合成処理に直接関与しない第3モードを「非選択合成モード」という。   The first PD selecting / composing unit 106 performs data processing for generating right-eye image data and left-eye image data for stereoscopic display, and data processing for generating image data for two-dimensional display. Hereinafter, the first mode related to data generation for the right image is referred to as “right eye selection synthesis mode”, and the second mode related to data generation for the left image is referred to as “left eye selection synthesis mode”. In addition, the third mode that is not directly involved in the data selection / combination processing for the right image and the left image is referred to as a “non-selection combining mode”.

バス150には、CPU109、電源110、不揮発性メモリ111、現像処理部112、RAM(Random Access Memory)113、表示制御部114、メインスイッチ116が接続される。CPU109は撮像素子105の画像信号読み出しを制御し、撮像素子105からフレームメモリ108までの各部の動作タイミングを制御する。また、バス150には、ユーザがレリーズボタンにより操作するレリーズスイッチ117,118が接続されている。以下、第1レリーズスイッチ117を第1スイッチ、また第2レリーズスイッチ118を第2スイッチと略称する。第1スイッチ117の操作によって撮影準備動作が開始し、第2スイッチ118の操作により撮影動作が行われる。バス150に接続される操作部を構成するキー入力手段の操作部材として左選択ボタン140、右選択ボタン141、設定ボタン142、現像パラメータ変更ボタン143、ライブビュー開始/終了ボタン144を例示する。バス150にはさらに、カード入出力部119、レンズ駆動部122、第2PD選択合成部151が接続されている。レンズ駆動部122は、CPU109の制御指示に従い、焦点調節用レンズ102を光軸方向に移動させる。   Connected to the bus 150 are a CPU 109, a power source 110, a nonvolatile memory 111, a development processing unit 112, a RAM (Random Access Memory) 113, a display control unit 114, and a main switch 116. The CPU 109 controls the image signal readout of the image sensor 105 and controls the operation timing of each unit from the image sensor 105 to the frame memory 108. Also, release switches 117 and 118 that are operated by a user with a release button are connected to the bus 150. Hereinafter, the first release switch 117 is abbreviated as a first switch, and the second release switch 118 is abbreviated as a second switch. The shooting preparation operation is started by operating the first switch 117, and the shooting operation is performed by operating the second switch 118. The left selection button 140, the right selection button 141, the setting button 142, the development parameter change button 143, and the live view start / end button 144 are illustrated as operation members of the key input means constituting the operation unit connected to the bus 150. Further, a card input / output unit 119, a lens driving unit 122, and a second PD selection / combination unit 151 are connected to the bus 150. The lens driving unit 122 moves the focus adjustment lens 102 in the optical axis direction in accordance with a control instruction from the CPU 109.

バス150にはさらにUSB(Universal Serial Bus)制御装置127と、LAN(Local Area Network)制御装置129が接続されている。USB制御装置127は、USB端子128を介して、撮像装置と外部装置との間の通信を制御する。LAN制御装置129は、有線LAN端子130または無線LANインタフェース部131を介して、撮像装置と外部装置との間の通信を制御する。
不揮発性メモリ111は、メインスイッチ116の操作により電源110が投入された時にカメラに設定する初期カメラ設定値を記憶している。不揮発性メモリ111は、電源110が遮断された場合でも記録データが失われないように、EEPROM(Electrically Erasable Programmable Read-Only Memory)等で構成される。
Furthermore, a USB (Universal Serial Bus) control device 127 and a LAN (Local Area Network) control device 129 are connected to the bus 150. The USB control device 127 controls communication between the imaging device and the external device via the USB terminal 128. The LAN control device 129 controls communication between the imaging device and the external device via the wired LAN terminal 130 or the wireless LAN interface unit 131.
The nonvolatile memory 111 stores an initial camera setting value to be set in the camera when the power supply 110 is turned on by operating the main switch 116. The non-volatile memory 111 is configured by an EEPROM (Electrically Erasable Programmable Read-Only Memory) or the like so that recorded data is not lost even when the power supply 110 is shut off.

第2PD選択合成部151は、フレームメモリ108上またはRAM113上のRAWデータに対し、画素選択合成パラメータの設定に基づいて選択合成処理を行う。選択合成処理を施されたそれぞれの画像データは、RAM113に格納される。画素選択合成パラメータとは、静止画用RAWデータに対してどのPDの出力を合成して1つの画素データとするかを示すパラメータである。つまり、第2PD選択合成部151の処理により、画素毎に合成されたRAWデータが得られる。右像や左像の各データを生成するための画素を決定するPDの選択処理および合成処理については、第1PD選択合成部106の場合と同様である。本実施形態では、フレームメモリ108またはRAM113を経由して、RAWデータが第2PD選択合成部151へ入力されるが、画像信号処理部107から第2PD選択合成部151へRAWデータが直接入力される形態でもよい。   The second PD selection / synthesis unit 151 performs a selection / synthesis process on the RAW data on the frame memory 108 or the RAM 113 based on the setting of the pixel selection / synthesis parameter. Each image data subjected to the selection / combination processing is stored in the RAM 113. The pixel selection combining parameter is a parameter indicating which PD output is combined with still image RAW data to form one pixel data. That is, RAW data synthesized for each pixel is obtained by the processing of the second PD selection / synthesis unit 151. The PD selection process and the synthesis process for determining the pixels for generating the right image data and the left image data are the same as those in the first PD selection / synthesis unit 106. In the present embodiment, the RAW data is input to the second PD selection / synthesis unit 151 via the frame memory 108 or the RAM 113, but the RAW data is directly input from the image signal processing unit 107 to the second PD selection / synthesis unit 151. Form may be sufficient.

現像処理部112は、CPU109が読み出した、フレームメモリ108上またはRAM113上にある画素毎に生成されたRAWデータに対して、現像パラメータ設定に基づいて画像処理を施す。現像パラメータとは、デジタル画像データの画質に関するパラメータであり、デジタル画像データのホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度、画像圧縮等に関するパラメータを含む。以下では、1つ以上の現像パラメータを用いてデジタル画像データの画質を調整または変更する処理を現像処理と呼ぶ。現像処理を施された各画像データは、例えば、YUV422形式やYUV411形式の画像データとして、RAM113に格納される。また、圧縮処理を含む現像処理が施された画像データは、例えば、JPEG形式の画像データとしてRAM113に格納される。JPEGは“Joint Photographic Experts Group”の略号である。RAM113は、現像処理結果である画像データの他、CPU109が各種処理を行う際に使用するデータを一時的に記憶する。   The development processing unit 112 performs image processing on the RAW data generated for each pixel on the frame memory 108 or the RAM 113 read by the CPU 109 based on the development parameter setting. The development parameter is a parameter relating to the image quality of the digital image data, and includes parameters relating to white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution, image compression, and the like of the digital image data. Hereinafter, processing for adjusting or changing the image quality of digital image data using one or more development parameters is referred to as development processing. Each image data subjected to the development processing is stored in the RAM 113 as image data in the YUV422 format or YUV411 format, for example. The image data that has been subjected to development processing including compression processing is stored in the RAM 113 as image data in JPEG format, for example. JPEG is an abbreviation for “Joint Photographic Experts Group”. The RAM 113 temporarily stores data used when the CPU 109 performs various processes in addition to the image data that is the development processing result.

表示制御部114は、立体視表示が可能な表示部115の駆動制御を行う。表示部115は、例えば液晶表示素子を有するTFTディスプレイである。表示制御部114は、表示用の画像フォーマットに従って配置されたRAM113上の画像データを表示部115へ出力する。また、表示制御部114はRAM113に表示用の画像フォーマットで配置された画像データを、ビデオ出力端子132、D端子133、HDMI(登録商標)端子134等を介して外部装置へ出力する。HDMI(登録商標)は、“High Definition Multimedia Interface”の略号である。以下では、表示用の画像フォーマットを配置するRAM113をVRAMと呼ぶ。ステレオ表示を行うために、VRAMには右目用VRAMと左目用VRAMがあり、それぞれ右目用画像データと左目用画像データを記憶する。これらの画像データを読み出すことで表示部115の画面上にステレオ画像を表示できる。   The display control unit 114 performs drive control of the display unit 115 capable of stereoscopic display. The display unit 115 is a TFT display having a liquid crystal display element, for example. The display control unit 114 outputs the image data on the RAM 113 arranged according to the display image format to the display unit 115. Further, the display control unit 114 outputs the image data arranged in the display image format in the RAM 113 to an external device via the video output terminal 132, the D terminal 133, the HDMI (registered trademark) terminal 134, and the like. HDMI (registered trademark) is an abbreviation for “High Definition Multimedia Interface”. Hereinafter, the RAM 113 in which the image format for display is arranged is referred to as VRAM. In order to perform stereo display, the VRAM includes a right-eye VRAM and a left-eye VRAM, which store right-eye image data and left-eye image data, respectively. By reading out these image data, a stereo image can be displayed on the screen of the display unit 115.

次に、撮像装置の動作を説明する。
ユーザがメインスイッチ116をオン操作すると、CPU109はメモリから所定のプログラムを読み出して実行する。メインスイッチ116がオフ状態になると、所定のプログラムにしたがって撮像装置がスタンバイモードになる。第1スイッチ117は、レリーズボタンの第1ストローク(半押し)の操作でオン状態になり、第2スイッチ118は、レリーズボタンの第2ストローク(全押し)の操作でオン状態となる。CPU109は、図2に例示した左選択ボタン140、右選択ボタン141、設定ボタン142等の各操作による指示信号と、撮像装置の動作状態に応じて各部を制御する。例えば、撮像装置の動作状態が再生状態であれば、左選択ボタン140で以前の画像データを表示し、右選択ボタン141で次の画像データを表示する制御が行われる。現像パラメータについては、現像パラメータ変更ボタン143でのメニュー操作によりグラフィカルユーザインタフェースで確認および設定を行える。また、ユーザがライブビュー開始/終了ボタン144を操作した場合、定期的(例えば1秒に30回)に撮像素子105からRAWデータを取り込み、現像処理してVRAMへ配置する処理が実行される。これにより、リアルタイムに撮像素子105から画像データを取り込んで画像表示を行うことができる。ライブビューの動作中に、ユーザがライブビュー開始/終了ボタン144を操作するとライブビューが終了する。
Next, the operation of the imaging apparatus will be described.
When the user turns on the main switch 116, the CPU 109 reads a predetermined program from the memory and executes it. When the main switch 116 is turned off, the imaging apparatus enters a standby mode according to a predetermined program. The first switch 117 is turned on by an operation of the first stroke (half press) of the release button, and the second switch 118 is turned on by an operation of the second stroke (full press) of the release button. The CPU 109 controls each unit according to an instruction signal by each operation of the left selection button 140, the right selection button 141, the setting button 142, and the like illustrated in FIG. 2 and the operation state of the imaging apparatus. For example, if the operation state of the imaging apparatus is the playback state, control is performed such that the previous image data is displayed with the left selection button 140 and the next image data is displayed with the right selection button 141. The development parameters can be confirmed and set with a graphical user interface by a menu operation with the development parameter change button 143. In addition, when the user operates the live view start / end button 144, processing is performed on a regular basis (for example, 30 times per second) by fetching RAW data from the image sensor 105, developing it, and placing it in the VRAM. As a result, image data can be captured from the image sensor 105 and displayed in real time. When the user operates the live view start / end button 144 during the live view operation, the live view ends.

[第1実施形態]
次に本発明の第1実施形態を説明する。図1は、第1実施形態に係る機能ブロック図である。各ブロックの処理は、CPU109によってメモリから読み出されて実行されるプログラムに従い、図2に示す各構成部を制御することで実現される。
画像生成部R100は、CPU109の制御下で第1PD選択合成部106や第2PD選択合成部151により処理される左像および右像の各データを入力とする。画像生成部R100は表示用画像生成部R101を有し、表示用画像データを生成してライブビュー表示部R200に出力する。また、画像生成部R100は、コントラスト算出用画像生成部R113を有し、コントラスト算出用画像データを後述のコントラストAF制御部R500に出力する。また、画像生成部R100は、左像および右像の各データを被写体距離算出部R400に出力する。
[First Embodiment]
Next, a first embodiment of the present invention will be described. FIG. 1 is a functional block diagram according to the first embodiment. The processing of each block is realized by controlling each component shown in FIG. 2 according to a program read from the memory by the CPU 109 and executed.
The image generation unit R100 receives the left image data and the right image data processed by the first PD selection / synthesis unit 106 and the second PD selection / synthesis unit 151 under the control of the CPU 109. The image generation unit R100 includes a display image generation unit R101, generates display image data, and outputs the display image data to the live view display unit R200. The image generation unit R100 includes a contrast calculation image generation unit R113, and outputs the contrast calculation image data to a contrast AF control unit R500 described later. Further, the image generation unit R100 outputs each data of the left image and the right image to the subject distance calculation unit R400.

ライブビュー表示部R200は、画像生成部R100から表示用画像データを取得し、撮影中の画像表示を行う機能ブロックである。ライブビュー表示部R200は被写体指示部R201を有し、表示制御部114により表示部115を制御する。ライブビュー表示部R200は、ユーザの操作指示信号や撮影モード等に応じて2次元画像または立体画像を表示部115の画面に表示する。例えば、2次元画像を表示する場合、左目用画像データと右目用画像データの一方から表示用画像データが生成されるか、または両者の加算合成処理により表示用画像データが生成される。またステレオ表示の場合、左目用画像、右目用画像が表示されて、ユーザの左目と右目に各々投影される。左目用画像と右目用画像における被写体像の視差量によって被写体像の見かけ上の奥行き量や飛び出し量が決定され、立体視効果が得られる。被写体指示部R201は、操作者が被写体をカメラに指示するためのユーザインターフェイスを備える。被写体指示部R201は被写体指示データを被写体特定部R300に出力する。被写体指示データは、操作者が指示した被写体を特定するためのデータを含む。その詳細については後述する。   The live view display unit R200 is a functional block that acquires display image data from the image generation unit R100 and displays an image during shooting. The live view display unit R200 includes a subject instruction unit R201, and the display control unit 114 controls the display unit 115. The live view display unit R200 displays a two-dimensional image or a three-dimensional image on the screen of the display unit 115 according to a user operation instruction signal, a shooting mode, or the like. For example, when a two-dimensional image is displayed, display image data is generated from one of left-eye image data and right-eye image data, or display image data is generated by adding and synthesizing both. In the case of stereo display, a left-eye image and a right-eye image are displayed and projected respectively to the user's left eye and right eye. The apparent depth amount and pop-out amount of the subject image are determined by the parallax amount of the subject image in the left-eye image and the right-eye image, and a stereoscopic effect is obtained. The subject instruction unit R201 includes a user interface for an operator to instruct the camera of a subject. The subject instruction unit R201 outputs subject instruction data to the subject specifying unit R300. The subject instruction data includes data for specifying the subject designated by the operator. Details thereof will be described later.

被写体特定部R300は、被写体指示部R201から被写体指示データを取得して被写体を特定し、被写体データを被写体距離算出部R400に出力する。被写体の特定とは、表示用画像のうち被写体像の領域を特定することである。被写体データの詳細については後述する。
被写体距離算出部R400は、画像生成部R100から左像と右像の各データを取得し、被写体データによって特定される被写体位置までの距離情報を算出する。以下では、カメラから被写体位置まで距離を「被写体距離」といい、被写体距離の情報を「被写体距離情報」という。被写体距離情報は制御方式切替部R600を介してレンズ駆動部122に出力される。被写体距離算出部R400は、撮像された左目用画像および右目用画像に含まれる被写体像について当該画像間の像ズレ量をステレオマッチング処理で算出する。被写体の視差に基づいて被写体距離を算出することができる。
The subject identifying unit R300 acquires subject instruction data from the subject instruction unit R201, identifies the subject, and outputs the subject data to the subject distance calculation unit R400. The specification of the subject is to specify the region of the subject image in the display image. Details of the subject data will be described later.
The subject distance calculation unit R400 acquires the left image data and the right image data from the image generation unit R100, and calculates distance information to the subject position specified by the subject data. Hereinafter, the distance from the camera to the subject position is referred to as “subject distance”, and the subject distance information is referred to as “subject distance information”. The subject distance information is output to the lens driving unit 122 via the control method switching unit R600. The subject distance calculation unit R400 calculates an image shift amount between the images of the subject images included in the captured left-eye image and right-eye image by stereo matching processing. The subject distance can be calculated based on the parallax of the subject.

レンズ駆動部122は、被写体距離算出部R400から被写体距離情報を取得すると、被写体距離に従ってフォーカスレンズを駆動して焦点調節動作を行う。つまり、レンズ駆動部122は、被写体距離情報を用いて、フォーカスレンズと撮像素子との距離を結像公式により算出し、被写体にピントが合うようにフォーカスレンズを駆動する。1回のレンズ移動で被写体にピントを合わせられるので、逐次的な制御は不要であり、合焦までの時間を短縮できる。
コントラストAF制御部R500は、コントラストAF方式の合焦制御を行う。コントラストAF制御部R500は、コントラスト算出用画像生成部R113からコントラスト算出用画像データを取得し、レンズ制御量の情報を出力する。制御方式切替部R600は、被写体距離算出部R400からの被写体距離情報、または、コントラストAF制御部R500からのレンズ制御量の情報を選択してレンズ駆動部122に出力する。
When the lens driving unit 122 acquires the subject distance information from the subject distance calculation unit R400, the lens driving unit 122 drives the focus lens according to the subject distance to perform a focus adjustment operation. In other words, the lens driving unit 122 calculates the distance between the focus lens and the image sensor using the subject distance information, and drives the focus lens so that the subject is in focus. Since the subject can be focused with a single lens movement, sequential control is unnecessary, and the time to focus can be reduced.
The contrast AF control unit R500 performs focus control of the contrast AF method. The contrast AF control unit R500 acquires the contrast calculation image data from the contrast calculation image generation unit R113, and outputs information on the lens control amount. The control method switching unit R600 selects subject distance information from the subject distance calculation unit R400 or lens control amount information from the contrast AF control unit R500 and outputs the selected information to the lens driving unit 122.

次に、図6および図7のフローチャートを参照して、本実施形態に係る撮像装置の動作を説明する。図6は、デジタルカメラのライブビュー撮影処理を説明するフローチャートである。S100で処理が開始すると、次のS101でCPU109は、第2スイッチ118のオン/オフ状態を判定する。第2スイッチ118がON状態の場合、S102へ進み、OFF状態の場合、S110へ進む。S102でCPU109により、第1PD選択合成部106のモードが非選択合成モードに設定され、S103へ進む。S103にて、その時の撮像パラメータで撮影が開始し、フレームメモリ108上に全PD−RAWデータを取得する処理が実行される。S104において現像処理部112は、フレームメモリ108上の全PD−RAWデータについて、RAW画像用の現像パラメータを用いて現像処理を行い、現像済みの画像データをRAM113へ配置する。   Next, the operation of the imaging apparatus according to the present embodiment will be described with reference to the flowcharts of FIGS. 6 and 7. FIG. 6 is a flowchart for explaining live view shooting processing of the digital camera. When the process starts in S100, the CPU 109 determines in step S101 whether the second switch 118 is on or off. When the second switch 118 is in the ON state, the process proceeds to S102, and when it is in the OFF state, the process proceeds to S110. In S102, the CPU 109 sets the mode of the first PD selection / combination unit 106 to the non-selection / combination mode, and the process proceeds to S103. In S103, imaging starts with the imaging parameters at that time, and processing for acquiring all PD-RAW data on the frame memory 108 is executed. In step S <b> 104, the development processing unit 112 performs development processing on all PD-RAW data on the frame memory 108 using development parameters for RAW images, and places the developed image data in the RAM 113.

S105でCPU109により、第2PD選択合成部151のモードが右目選択合成モードに設定され、S106へ進む。S106において、フレームメモリ108上の全PD−RAWデータは、第2PD選択合成部151へ入力され、RAM113には右目用のRAWデータが出力される。さらに現像処理部112は、RAM113上の右目用のRAWデータについて、JPEG画像用の現像パラメータを用いて現像処理を行い、現像済みの画像データをRAM113へ配置する。   In S105, the CPU 109 sets the mode of the second PD selection / synthesis unit 151 to the right-eye selection / synthesis mode, and the process proceeds to S106. In S <b> 106, all PD-RAW data on the frame memory 108 is input to the second PD selection / synthesis unit 151, and RAW data for the right eye is output to the RAM 113. Further, the development processing unit 112 performs development processing on the RAW data for the right eye on the RAM 113 using the development parameters for the JPEG image, and arranges the developed image data in the RAM 113.

S107でCPU109により、第2PD選択合成部151のモードが左目選択合成モードに設定され、S108へ進む。S108において、フレームメモリ108上の全PD−RAWデータは、第2PD選択合成部151へ入力され、RAM113には左目用のRAWデータが出力される。さらに現像処理部112は、RAM113上の左目用のRAWデータについて、JPEG画像用の現像パラメータを用いて現像処理を行い、現像済みの画像データをRAM113へ配置する。S109において、S104で生成したRAW画像データと、S106で生成した右目用のJEPG画像データと、S108で生成した左目用のJPEG画像データは、1つのExif規格のファイルとして生成される。Exifは、” Exchangeable Image File Format”の略号である。生成したファイルは、カード入出力部119を経てメモリカード121へ保存される。   In S107, the CPU 109 sets the mode of the second PD selection / synthesis unit 151 to the left-eye selection / synthesis mode, and the process proceeds to S108. In S <b> 108, all PD-RAW data on the frame memory 108 is input to the second PD selection / synthesis unit 151, and the left-eye RAW data is output to the RAM 113. Further, the development processing unit 112 performs development processing on the RAW data for the left eye on the RAM 113 using the development parameters for JPEG images, and places the developed image data in the RAM 113. In S109, the RAW image data generated in S104, the JPEG image data for the right eye generated in S106, and the JPEG image data for the left eye generated in S108 are generated as one Exif standard file. Exif is an abbreviation for “Exchangeable Image File Format”. The generated file is stored in the memory card 121 via the card input / output unit 119.

S110では、CPU109がライブビューの設定操作を判定する。ライブビューが開始されていない状態において、ライブビュー開始/終了ボタン144がオン操作された場合、S111へ処理を進める。また、ライブビュー開始/終了ボタン144がオン操作されていない場合、S101へ処理を戻す。また、ライブビューが開始されている状態において、ライブビュー開始/終了ボタン144がオン操作された場合、S101へ処理を戻し、オン操作されていない場合、S111へ処理を進める。   In S110, the CPU 109 determines a live view setting operation. When the live view start / end button 144 is turned on in a state where the live view is not started, the process proceeds to S111. If the live view start / end button 144 is not turned on, the process returns to S101. If the live view start / end button 144 is turned on while the live view is started, the process returns to S101, and if the live view is not turned on, the process proceeds to S111.

S111でCPU109により、第1PD選択合成部106のモードが右目選択合成モードに設定され、S112へ進む。S112において、ライブビュー用の撮影パラメータで撮影が開始し、フレームメモリ108上に右目用RAWデータを取得する処理が実行される。現像処理部112は、表示用の現像パラメータを用いて現像処理を行い、現像済みの画像データを右目用のVRAMへ配置して、S113へ進む。S113でCPU109により、第1PD選択合成部106のモードが左目選択合成モードに設定され、S114へ進む。S114において、フレームメモリ108上に左目用RAWデータを取得する処理が実行される。現像処理部112は、表示用の現像パラメータを用いて現像処理を行い、現像済みの画像データを左目用のVRAMへ配置した後、S110へ処理を戻す。   In S111, the CPU 109 sets the mode of the first PD selection / synthesis unit 106 to the right-eye selection / synthesis mode, and the process proceeds to S112. In S112, shooting starts with shooting parameters for live view, and processing for acquiring RAW data for the right eye on the frame memory 108 is executed. The development processing unit 112 performs development processing using the display development parameters, places the developed image data in the right-eye VRAM, and proceeds to S113. In S113, the CPU 109 sets the mode of the first PD selection / synthesis unit 106 to the left-eye selection / synthesis mode, and the process proceeds to S114. In S <b> 114, processing for acquiring left-eye RAW data on the frame memory 108 is executed. The development processing unit 112 performs development processing using the development parameters for display, places the developed image data in the left-eye VRAM, and then returns the processing to S110.

次に、図1および図7を参照して、AF制御について説明する。図7において処理開始は、図1の被写体指示部R201が被写体指示データを出力した時点である。被写体指示部R201の機能について、図10を参照して説明する。画面H100は、ある風景を撮像した場合に表示される、図2の表示部115の画面例を模式的に示す。カメラから近い順に、 H101、H102、H103の順序で物体像が写っている状態を示している。点線枠で示すH200は、操作者が被写体像を指示するためのマーカー(表示指標)であり、オーバーレイ表示される。操作者が表示部115の画面上にタッチ操作で指示すると、手指等の接触位置をタッチパネルが検出する。表示制御部114は、接触位置を中心にしてマーカーを画面に表示させる。また、カメラ本体部に左右上下の移動指示を行うための操作ボタンが設けられており、このボタンを操作者が操作することでマーカーH200が所望の方向に移動する。図10(A)に示すH101は被写体像であり、マーカーH200が被写体像の顔に位置している場合を例示する。AF制御では、被写体にピントが合うようにフォーカスレンズの駆動制御により焦点調節が行われる。 図1の被写体指示部R201の出力する被写体指示データは、表示用画像とマーカーの座標データを含んでいる。   Next, AF control will be described with reference to FIGS. 1 and 7. In FIG. 7, the processing start is the time when the subject instruction unit R201 in FIG. 1 outputs subject instruction data. The function of the subject instruction unit R201 will be described with reference to FIG. A screen H100 schematically shows a screen example of the display unit 115 of FIG. 2 displayed when a certain landscape is captured. This shows a state in which object images are captured in the order of H101, H102, and H103 in order from the camera. H200 indicated by a dotted line frame is a marker (display index) for the operator to instruct a subject image, and is displayed as an overlay. When the operator gives an instruction on the screen of the display unit 115 by a touch operation, the touch panel detects a contact position of a finger or the like. The display control unit 114 displays the marker on the screen with the contact position as the center. In addition, an operation button for instructing a left / right / up / down movement instruction is provided on the camera body, and the marker H200 is moved in a desired direction when the operator operates the button. H101 shown in FIG. 10A is a subject image, and the case where the marker H200 is positioned on the face of the subject image is illustrated. In AF control, focus adjustment is performed by driving the focus lens so that the subject is in focus. The subject instruction data output from the subject instruction unit R201 in FIG. 1 includes display images and marker coordinate data.

ライブビュー表示用画像は、画像生成部R100が生成する画像である。図1に示すように、画像生成部R100は、表示用画像生成部R101、コントラスト算出用画像生成部R113を備える。画像生成部R100の入力は左像と右像の各データであり、出力は表示用画像と、コントラスト算出用画像と、左像と右像の各データである。表示用画像生成部R101は、左像と右像の各データを入力として、表示用画像のデータを生成する。本実施形態では、図6のフローチャートで説明したように、立体画像表示の場合、表示用画像は左像と右像である。そのため、表示用画像生成部R101は特に何の処理もしない。但し、本実施形態のように、1つの光学手段を使って左目画像と右目画像からなるステレオ画像のデータを取得する場合には、表示用画像生成部R101が左像と右像との加算画像を生成して表示用画像データを出力してもよい。この場合、ライブビュー表示部R200では、立体画像ではなく2次元画像を表示する。   The live view display image is an image generated by the image generation unit R100. As illustrated in FIG. 1, the image generation unit R100 includes a display image generation unit R101 and a contrast calculation image generation unit R113. The input of the image generation unit R100 is left image and right image data, and the output is display image, contrast calculation image, and left image and right image data. The display image generation unit R101 generates display image data by using the left image data and the right image data as inputs. In the present embodiment, as described in the flowchart of FIG. 6, in the case of stereoscopic image display, the display images are the left image and the right image. Therefore, the display image generation unit R101 does not perform any particular processing. However, when the stereo image data including the left-eye image and the right-eye image is acquired using one optical unit as in the present embodiment, the display image generation unit R101 adds the left image and the right image. May be generated and display image data may be output. In this case, the live view display unit R200 displays a two-dimensional image instead of a stereoscopic image.

コントラスト算出用画像生成部R113は、左像と右像の各データを用いて、コントラスト算出用画像データを生成する。コントラスト算出用画像とは、コントラストAF制御部R500がコントラスト値を算出するときに使用する画像である。また、本実施形態にて、画像生成部R100が出力する左像と右像は、画像生成部R100に入力される左像と右像と同じとする。これに限らず、各像のデータに表示用の補正処理を施してもよい。   The contrast calculation image generation unit R113 generates contrast calculation image data using the left image data and the right image data. The contrast calculation image is an image used when the contrast AF control unit R500 calculates a contrast value. In the present embodiment, the left image and the right image output from the image generation unit R100 are the same as the left image and the right image input to the image generation unit R100. However, the present invention is not limited to this, and display correction processing may be performed on the data of each image.

図7のS212で被写体特定部R300は、被写体指示部R201から取得した被写体指示データを処理して被写体を特定し、被写体データを出力する。例えばマーカーが小さい場合、被写体特定部R300はマーカーの輪郭よりも外側に広げた領域を、被写体像の領域として決定する。被写体データは、被写体像の領域座標と表示用画像を含む。   In S212 of FIG. 7, the subject identifying unit R300 processes the subject instruction data acquired from the subject instruction unit R201 to identify the subject, and outputs the subject data. For example, when the marker is small, the subject specifying unit R300 determines a region expanded outside the outline of the marker as the region of the subject image. The subject data includes the region coordinates of the subject image and the display image.

次にS220では被写体距離算出部R400が左像と右像の各データを用いて、被写体データに含まれる被写体までの距離を算出する。被写体距離の算出処理では、ステレオマッチングにより左像と右像の画像の対応点を求めて、視差、基線長、焦点距離との関係により距離算出が行われる。この算出方法は従来から、ロボットビジョンや画像の奥行き計測の分野で知られている方法である。ステレオマッチング法は、領域に基づく方法と、特徴点に基づく方法の2つに大別できる。本実施形態では、領域に基づく方法を採用する。この方法では一致度が一番高い位置を探索する。局所的な画像領域の一致度に基づいて対応点が決定される。ステレオマッチングの対象となる局所的な画像は、被写体データから被写体距離算出部R400が生成する。被写体データに含まれる表示用画像から、被写体の領域座標に対応する領域の画像を切り出すことにより、局所的な画像が生成される。なお、ステレオマッチングの対象領域は、被写体データに含まれる、被写体の領域座標の近傍である。一般的なステレオマッチングでは、画像全体を処理して画像に写っている全物体の距離を求めるので、演算時間が長い。しかし、本実施形態では、対象物は1つの被写体だけであり、ステレオマッチングの対象領域が絞り込まれている。このため、演算時間は短く、ステレオマッチングの処理量が少ないので、演算負荷は少ない。一致度の評価値については、輝度値の正規化相互相関、2乗残差の和、絶対値の和を用いる方法がある。本実施形態では輝度値の正規化相互相関を用いる。   Next, in S220, the subject distance calculation unit R400 calculates the distance to the subject included in the subject data using the left image data and the right image data. In the subject distance calculation process, the corresponding points of the left image and the right image are obtained by stereo matching, and the distance is calculated based on the relationship between the parallax, the base line length, and the focal length. This calculation method is conventionally known in the fields of robot vision and image depth measurement. Stereo matching methods can be broadly divided into two methods: region-based methods and feature point-based methods. In the present embodiment, a region-based method is adopted. In this method, a position having the highest degree of matching is searched. Corresponding points are determined based on the degree of coincidence of local image regions. A subject distance calculation unit R400 generates a local image to be subjected to stereo matching from subject data. A local image is generated by cutting out an image of a region corresponding to the region coordinates of the subject from the display image included in the subject data. Note that the target area for stereo matching is in the vicinity of the subject area coordinates included in the subject data. In general stereo matching, the entire image is processed and the distances of all objects in the image are obtained, so that the calculation time is long. However, in this embodiment, the target is only one subject, and the target area for stereo matching is narrowed down. For this reason, the calculation time is short and the processing amount of stereo matching is small, so the calculation load is small. For the evaluation value of the degree of coincidence, there is a method of using a normalized cross-correlation of luminance values, a sum of square residuals, and a sum of absolute values. In this embodiment, normalized cross-correlation of luminance values is used.

次にS230で制御方式切替部R600は、被写体距離算出部R400が被写体距離を算出できたか否かを判定する。被写体距離算出部R400が被写体距離を算出できた場合、S300に処理を進める。一方、被写体距離算出部R400が被写体距離を算出できない場合には、S400に処理を進める。なお、ステレオマッチングにより被写体距離の算出できない例としては、被写体のコントラストが低いために画像領域の一致度が低く、かつ、一致度が領域内のどこでもほぼ同じとなる場合がある。そのため、一致度が一番高い位置を特定できない可能性がある。また、被写体が周期的な模様を含んでいる場合、画像領域の一致度は高いが、一致度が高い位置が複数箇所に亘って存在することになる。そのため、一致度が一番高い位置を特定できない可能性がある。しかし、コントラストが低いためにステレオマッチングができない被写体であっても、焦点調節のためフォーカスレンズを前後に動かすとコントラストが高くなる場合があり得る。このような場合には、コントラストAFが有効である。また、被写体が周期的な模様を含んでいる場合でも、コントラストAFには影響しないので、コントラストAF方式に切り替えるのが効果的である。   In step S230, the control method switching unit R600 determines whether the subject distance calculation unit R400 has calculated the subject distance. If the subject distance calculation unit R400 can calculate the subject distance, the process proceeds to S300. On the other hand, if the subject distance calculation unit R400 cannot calculate the subject distance, the process proceeds to S400. As an example in which the subject distance cannot be calculated by stereo matching, there is a case where the matching degree of the image region is low because the contrast of the subject is low, and the matching degree is almost the same everywhere in the region. Therefore, there is a possibility that the position with the highest degree of coincidence cannot be specified. In addition, when the subject includes a periodic pattern, the degree of coincidence of the image regions is high, but there are a plurality of positions where the degree of coincidence is high. Therefore, there is a possibility that the position with the highest degree of coincidence cannot be specified. However, even if the subject cannot be stereo-matched due to low contrast, the contrast may increase when the focus lens is moved back and forth for focus adjustment. In such a case, contrast AF is effective. Even if the subject includes a periodic pattern, it does not affect the contrast AF, so it is effective to switch to the contrast AF method.

S400では、コントラストAF方式でのレンズ制御により、焦点調節動作が行われる。コントラスト値算出部R501には、コントラスト値を算出するためにコントラスト算出用画像データが入力される。コントラスト値算出部R501は、コントラスト値を評価値として算出する。コントラストAF制御部R500は、いわゆる山登り方式により、コントラスト値が最大となるレンズ位置を逐次的に求める。制御方式切替部R600は、コントラストAF制御部R500が出力するレンズ制御量を選択してレンズ駆動部122へ出力する。レンズ駆動部122は、取得したレンズ制御量に基づいてフォーカスレンズを光軸に沿って前方(被写体側)または後方へ移動させる。   In S400, a focus adjustment operation is performed by lens control in the contrast AF method. The contrast value calculation unit R501 receives image data for contrast calculation in order to calculate a contrast value. The contrast value calculation unit R501 calculates the contrast value as an evaluation value. The contrast AF control unit R500 sequentially obtains the lens position where the contrast value is maximized by a so-called hill-climbing method. The control method switching unit R600 selects the lens control amount output from the contrast AF control unit R500 and outputs it to the lens driving unit 122. The lens driving unit 122 moves the focus lens forward (subject side) or backward along the optical axis based on the acquired lens control amount.

S300で制御方式切替部R600は、被写体距離算出部R400が出力する被写体距離情報を選択してレンズ駆動部122へ出力する。レンズ駆動部122は、被写体距離情報に応じて被写体にピントが合うようにフォーカスレンズを移動させる。S300、S400の後で処理が終了する。   In S300, the control method switching unit R600 selects the subject distance information output from the subject distance calculation unit R400 and outputs the selected subject distance information to the lens driving unit 122. The lens driving unit 122 moves the focus lens so that the subject is in focus according to the subject distance information. The process ends after S300 and S400.

本実施形態では、被写体距離算出部R400が被写体距離を算出できない場合に、コントラストAF方式の焦点検出および焦点調節動作が行われる。被写体距離算出部R400が被写体距離を算出できる場合には当該被写体にピントが合うようにフォーカスレンズを1回だけ動かすだけで済むので、コントラストAF方式を併用する場合でも平均的な合焦時間を短縮できる。仮にコントラストAF方式で焦点検出ができない場合でも、被写体距離が算出可能な場合には合焦の可能性を高められるという効果が得られる。
なお、本実施形態では、合焦までの時間を短縮するために、S230にて被写体距離算出部R400が被写体距離を算出できた場合、コントラストAFを実行しない。また、被写体距離算出部R400は、一致度が高い領域を複数検出した場合、正規化相互相関処理の実行途中であっても、ステレオマッチングに失敗したと判断する。一般的に正規化相互相関処理にかかる時間が長いため、このような制御方式の切り替えは処理時間の短縮につながる。
In the present embodiment, when the subject distance calculation unit R400 cannot calculate the subject distance, a contrast AF focus detection and focus adjustment operation is performed. When the subject distance calculation unit R400 can calculate the subject distance, it is only necessary to move the focus lens once so that the subject is in focus. Therefore, even when the contrast AF method is used together, the average focusing time is shortened. it can. Even if focus detection cannot be performed using the contrast AF method, there is an effect that the possibility of focusing can be increased if the subject distance can be calculated.
In the present embodiment, in order to reduce the time until focusing, when the subject distance calculation unit R400 can calculate the subject distance in S230, the contrast AF is not executed. Further, when a plurality of regions having a high degree of coincidence are detected, the subject distance calculation unit R400 determines that the stereo matching has failed even during the execution of the normalized cross-correlation process. In general, since the time required for the normalized cross-correlation processing is long, such switching of the control method leads to a reduction in processing time.

デジタルカメラは、撮影レンズと被写体との距離が既知である場合、その被写体にピントを合わせるためのレンズと撮像センサとの距離を算出できる。例えば1枚レンズの場合、ガウスの結像公式を用いた計算により、被写体にピントを合わせるためのレンズと撮像センサとの距離が算出される。または、レンズと撮像センサとの距離Aに対応して、ピントが合う被写体距離Bを予め調べておき、デジタルカメラが距離Aと距離Bを対応付けてデータベースとして保持する形態が挙げられる。この場合、被写体距離情報に対応する、レンズと撮像センサとの距離を算出できる。すなわち、本実施形態ではデフォーカス量を利用した合焦制御ではなく、撮像装置から被写体までの距離を算出して合焦制御を行う。
このように本実施形態によれば、撮影対象である被写体にピントが合うようにフォーカスレンズ駆動が実行される。フォーカスレンズを光軸に沿って前後へ逐次的に動かす必要が無くなるので、ライブビュー立体画像表示時において撮像装置の合焦時間を短縮できる。また、焦点検出専用画素を配置しないため、画素欠損が生じない。よって、周囲の画素から焦点検出専用画素位置での被写体の情報を補間して予測する必要がなくなり、高画質な画像が得られる。さらに、被写体が周期的な模様を有する場合であってもライブビュー表示時の合焦時間を短縮可能である。
When the distance between the photographing lens and the subject is known, the digital camera can calculate the distance between the lens and the imaging sensor for focusing on the subject. For example, in the case of a single lens, the distance between the lens and the imaging sensor for focusing on the subject is calculated by calculation using the Gaussian imaging formula. Alternatively, a subject distance B that is in focus is checked in advance corresponding to the distance A between the lens and the image sensor, and the digital camera associates the distance A and the distance B and holds them as a database. In this case, the distance between the lens and the image sensor corresponding to the subject distance information can be calculated. That is, in this embodiment, focus control is performed by calculating the distance from the imaging apparatus to the subject, not focus control using the defocus amount.
As described above, according to the present embodiment, the focus lens drive is executed so that the subject to be photographed is focused. Since it is not necessary to sequentially move the focus lens back and forth along the optical axis, it is possible to shorten the focusing time of the imaging apparatus during live view stereoscopic image display. In addition, since no focus detection dedicated pixels are arranged, pixel defects do not occur. Therefore, it is not necessary to interpolate and predict information on the subject at the focus detection dedicated pixel position from surrounding pixels, and a high-quality image can be obtained. Furthermore, even when the subject has a periodic pattern, the focusing time during live view display can be shortened.

また、本実施形態では、ライブビュー立体画像表示の際、撮像素子105内の第1PD選択合成部106で右目用と左目用の画素データを生成するので、高いフレームレートを実現できる。一方、静止画撮影においては、撮像素子105内の第1PD選択合成部106により、PDの情報を全て出力することで、後処理での自由度を高めることができる。但し、RAWデータを表示するためには現像処理が必要であり、現像処理に時間がかかる。そのため、ライブビュー表示では、表示用の現像画像を予め用意して表示する制御が行われる。表示用の現像画像を生成するために、撮像素子105の外部にある第2PD選択合成部151を用いることにより、ステレオ表示用の画像データを生成できるという利点がある。   Further, in the present embodiment, when live view stereoscopic image display is performed, pixel data for the right eye and left eye is generated by the first PD selection / combination unit 106 in the image sensor 105, so that a high frame rate can be realized. On the other hand, in still image shooting, the first PD selection / combination unit 106 in the image sensor 105 outputs all PD information, thereby increasing the degree of freedom in post-processing. However, in order to display RAW data, development processing is required, and development processing takes time. Therefore, in live view display, control is performed to prepare and display a developed image for display in advance. In order to generate a developed image for display, there is an advantage that image data for stereo display can be generated by using the second PD selection / synthesis unit 151 outside the image sensor 105.

[第2実施形態]
次に本発明の第2実施形態を説明する。なお、第1実施形態と同様の部分については既に使用した符号を用いることで、それらの詳細な説明を省略し、主に相違点を説明する。
図8は、本実施形態に係る主要な構成部を示す機能ブロック図である。図1との相違点は以下の通りである。
・距離算出部R401は、画像生成部R110から左像および右像の各データを取得して距離マップを生成し、ライブビュー表示部R200および被写体距離算出部R402に出力すること。
・被写体特定部R302は、被写体指示部R201からの被写体指示データ、および被写体抽出用画像生成部R112からの被写体抽出用画像データを取得し、被写体データを被写体距離算出部R402に出力すること。
・被写体距離算出部R402は、距離算出部R401からの距離マップ、および被写体特定部R302からの被写体データを取得し、被写体距離情報を制御方式切替部R600に出力すること。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, about the part similar to 1st Embodiment, by using the code | symbol already used, those detailed description is abbreviate | omitted and a difference is mainly demonstrated.
FIG. 8 is a functional block diagram showing main components according to the present embodiment. Differences from FIG. 1 are as follows.
The distance calculation unit R401 acquires the left image data and the right image data from the image generation unit R110, generates a distance map, and outputs the distance map to the live view display unit R200 and the subject distance calculation unit R402.
The subject specifying unit R302 acquires subject instruction data from the subject instruction unit R201 and subject extraction image data from the subject extraction image generation unit R112, and outputs the subject data to the subject distance calculation unit R402.
The subject distance calculation unit R402 acquires the distance map from the distance calculation unit R401 and the subject data from the subject specifying unit R302, and outputs the subject distance information to the control method switching unit R600.

以下に、図9のフローチャートを参照して焦点調節動作を説明する。ライブビュー表示部R200により、表示用画像が表示されることがトリガーとなって処理が開始し、S201へ進む。
S201で図8の距離算出部R401は、左像と右像の各データから距離マップを生成する。距離マップとは、カメラから物体までの距離を、表示用画像と関連付けたデータであり、撮像した画像に関連付けられた距離情報はユーザに提示される。距離マップの情報は、画素毎の距離でもよいし、撮影画面内を複数に区分したブロック毎の距離でもよい。本実施形態では距離マップがブロック毎の距離情報を含むものとし、当該ブロックを距離ブロックと呼ぶことにする。距離マップについては、第1実施形態と同様にステレオマッチングにより算出する。次にライブビュー表示部R200は距離マップに基づいて、距離を表示用画像の上にオーバーレイ表示する。オーバーレイ表示を図10(B)に例示する。図10(B)の例では、操作指示に従い、被写体を指示するためのマーカーH200の上下左右と中央に、距離H401(2.1m)、H402(2.1m)、H403(1.5m)、H404(2.1m)、H405(1.5m)が表示された状態を示す。ライブビュー表示部R200は、マーカーH200から所定のピクセル数だけ離れている位置座標に対応する距離ブロックを求めて、該距離ブロックに対応する距離を表示する。距離情報の表示については、2次元画像表示で行う場合と立体視画像表示で行う場合があり、ユーザによる選択操作または自動選択によって表示形態の変更が可能である。
The focus adjustment operation will be described below with reference to the flowchart of FIG. The live view display unit R200 starts a process triggered by the display image being displayed, and proceeds to S201.
In S201, the distance calculation unit R401 in FIG. 8 generates a distance map from the left image data and the right image data. The distance map is data in which the distance from the camera to the object is associated with the display image, and the distance information associated with the captured image is presented to the user. The distance map information may be a distance for each pixel or a distance for each block obtained by dividing the shooting screen into a plurality of blocks. In the present embodiment, the distance map includes distance information for each block, and the block is referred to as a distance block. The distance map is calculated by stereo matching as in the first embodiment. Next, the live view display unit R200 displays the distance as an overlay on the display image based on the distance map. An overlay display is illustrated in FIG. In the example of FIG. 10B, distances H401 (2.1 m), H402 (2.1 m), H403 (1.5 m), and H404 (2.1) are provided at the top, bottom, left, right, and center of the marker H200 for indicating the subject in accordance with the operation instructions. m), H405 (1.5 m) is displayed. The live view display unit R200 obtains a distance block corresponding to a position coordinate that is a predetermined number of pixels away from the marker H200, and displays the distance corresponding to the distance block. The display of the distance information may be performed by two-dimensional image display or stereoscopic image display, and the display form can be changed by a selection operation or automatic selection by the user.

カメラの操作者がライブビュー表示部R200による表示画面を見て被写体像を選択して指示するか、または、第1スイッチ117がオン状態になることにより、図9のS209へ移行する。 S209でライブビュー表示部R200は、被写体が特定されているか否かを判定する。操作者が被写体を選択する操作を行っていない場合、被写体が特定されていないと判断され、S212へ進む。またS209において操作者が被写体を選択する操作を行った場合には、S213へ進む。   When the camera operator looks at the display screen of the live view display unit R200 and selects and instructs the subject image, or the first switch 117 is turned on, the process proceeds to S209 in FIG. In S209, the live view display unit R200 determines whether or not a subject is specified. If the operator has not performed an operation of selecting a subject, it is determined that the subject has not been specified, and the process proceeds to S212. If the operator performs an operation of selecting a subject in S209, the process proceeds to S213.

S212で被写体特定部R302は、画像生成部R110から取得した被写体抽出用画像を用いて、画像認識により被写体像を抽出する。画像認識対象は、例えば被写体が人物である場合に顔であるが、他の物体を認識対象としてもよい。例えば、眼底カメラへの適用例では、眼底画像の黄斑部が認識対象とされる。第1実施形態ではカメラ操作者が明示的に被写体を指示する操作により、被写体が特定される。一方、S212ではカメラが自動的に被写体を特定する。本実施形態の利点は、カメラの操作者が被写体を指示する手間が省けるので、操作上の煩雑さが少ないことである。但し、画像認識の精度等によっては、被写体の特定が困難である場合に操作者が明示的に被写体を指示する方法を併用すればよい。   In step S212, the subject specifying unit R302 extracts a subject image by image recognition using the subject extraction image acquired from the image generation unit R110. The image recognition target is, for example, a face when the subject is a person, but another object may be the recognition target. For example, in an application example to a fundus camera, a macular portion of a fundus image is a recognition target. In the first embodiment, the subject is specified by an operation in which the camera operator explicitly instructs the subject. On the other hand, in S212, the camera automatically identifies the subject. The advantage of this embodiment is that the trouble of operation is reduced because the operator of the camera can save the trouble of pointing the subject. However, depending on the accuracy of image recognition or the like, a method in which the operator explicitly indicates the subject when the subject is difficult to identify may be used in combination.

画像認識に使用する被写体抽出用画像は、画像生成部R110が生成する。画像生成部R110は、表示用画像生成部R101、被写体抽出用画像生成部R112、コントラスト算出用画像生成部R113を備える。画像生成部R110の入力は左像と右像のデータであり、出力は表示用画像と被写体抽出用画像とコントラスト算出用画像と、左像と右像の各データである。被写体抽出用画像生成部R112は、左像と右像の各データを用いて、被写体抽出用画像データを生成する。被写体抽出用画像とは、画像認識に適するように強調処理やサイズ変更処理を施した画像である。被写体抽出用画像については、左像から1枚の画像を生成してもよいし、右像から1枚の画像を生成してもよい。あるいは、被写体抽出用画像として、左像と右像から2枚の画像を生成してもよいし、または左像と右像から1枚の画像を生成してもよい。コントラスト算出用画像生成部R113は、左像と右像の各データを用いて、コントラスト算出用画像データを生成する。コントラスト算出用画像は、コントラスト値の算出に適するように強調処理やサイズ変更処理を施した画像である。   The image generation unit R110 generates a subject extraction image used for image recognition. The image generation unit R110 includes a display image generation unit R101, a subject extraction image generation unit R112, and a contrast calculation image generation unit R113. The input of the image generation unit R110 is left image and right image data, and the output is display image, subject extraction image, contrast calculation image, and left image and right image data. The subject extraction image generation unit R112 generates subject extraction image data using the left image data and the right image data. The subject extraction image is an image that has been subjected to enhancement processing or size change processing so as to be suitable for image recognition. As for the subject extraction image, one image may be generated from the left image, or one image may be generated from the right image. Alternatively, as the subject extraction image, two images may be generated from the left image and the right image, or one image may be generated from the left image and the right image. The contrast calculation image generation unit R113 generates contrast calculation image data using the left image data and the right image data. The contrast calculation image is an image that has been subjected to enhancement processing or size change processing so as to be suitable for calculation of a contrast value.

S213で被写体特定部R302は、被写体指示部R201が出力した被写体指示データを用いて、被写体データを出力する。被写体特定部R302の動作は、第1実施形態の被写体特定部R300の動作と同じである。次に、被写体距離算出部R402は、距離算出部R401が出力した距離マップと、被写体データに含まれる被写体像の領域座標を用いて被写体距離を算出する。本実施形態では距離マップを使用するので、被写体距離算出部R402ではステレオマッチング処理の必要がない。但し、距離マップを算出できない場合には、第1実施形態と同様にステレオマッチング処理が実行される。   In step S213, the subject specifying unit R302 outputs subject data using the subject instruction data output by the subject instruction unit R201. The operation of the subject specifying unit R302 is the same as the operation of the subject specifying unit R300 of the first embodiment. Next, the subject distance calculation unit R402 calculates the subject distance using the distance map output from the distance calculation unit R401 and the region coordinates of the subject image included in the subject data. Since the distance map is used in the present embodiment, the subject distance calculation unit R402 does not need a stereo matching process. However, if the distance map cannot be calculated, stereo matching processing is executed as in the first embodiment.

被写体距離算出部R402での被写体距離の算出処理では、被写体像の領域内部に異なる距離が複数含まれているか否かの判定と、被写体距離の最大値と最小値の差を閾値と比較することによる判定が行われる。被写体像の領域内部に異なる距離が複数含まれており、かつ該距離の最大値と最小値の差が所定の閾値以上である場合、エラー処理が実行される。被写体距離算出部R402は、ライブビュー表示部R200にエラー表示指示を出力する。例えば、被写体像の領域内部に、複数の距離1.5mと5.0mが含まれている場合、両方に合焦することができない。しかし、例えば距離1.5mと1.6mの場合には、1.5mへの合焦と、1.6mへの合焦との間で、両者の撮影画像に相違は殆ど無い。閾値Thを、例えば0.5mと設定すれば、距離の最大値と最小値の差が0.5m以上である場合、被写体距離算出部R402は合焦不能と判断して、エラー表示指示を出力する。閾値Thは固定値ではなく、被写界深度に応じて変更される。この場合、閾値Thは、被写界深度が大きいほど大きい値に設定する。被写体距離算出部R402が被写体に対して合焦不能と判断しなかった場合には、被写体距離算出部R402にて以下の選択肢がある。
・距離の平均値を出力する第1処理。
・領域内の面積に応じて距離を加重平均した値を出力する第2処理。
・領域内の最大面積に対応する距離を出力する第3処理。
被写体距離算出部R402は、設定モードや撮影状態等に応じて、第1ないし第3処理のいずれかを選択し、被写体距離を算出する。
In the subject distance calculation process in the subject distance calculation unit R402, it is determined whether or not a plurality of different distances are included in the subject image area, and the difference between the maximum value and the minimum value of the subject distance is compared with a threshold value. Is determined. When a plurality of different distances are included in the area of the subject image and the difference between the maximum value and the minimum value of the distance is greater than or equal to a predetermined threshold value, error processing is executed. The subject distance calculation unit R402 outputs an error display instruction to the live view display unit R200. For example, when a plurality of distances of 1.5 m and 5.0 m are included in the subject image area, it is impossible to focus on both. However, for example, when the distance is 1.5 m and 1.6 m, there is almost no difference in the captured images between the focus on 1.5 m and the focus on 1.6 m. If the threshold value Th is set to 0.5 m, for example, if the difference between the maximum value and the minimum value is 0.5 m or more, the subject distance calculation unit R402 determines that focusing cannot be performed, and outputs an error display instruction. The threshold Th is not a fixed value, but is changed according to the depth of field. In this case, the threshold value Th is set to a larger value as the depth of field is larger. If the subject distance calculation unit R402 does not determine that the subject cannot be focused, the subject distance calculation unit R402 has the following options.
A first process for outputting an average distance value.
A second process for outputting a weighted average value of distances according to the area in the region.
A third process for outputting a distance corresponding to the maximum area in the region.
The subject distance calculation unit R402 selects one of the first to third processes according to the setting mode, the shooting state, etc., and calculates the subject distance.

S214では、S213で出力されたエラー表示指示を受けて、ライブビュー表示部R200は合焦できない旨の表示処理を行う。表示例を図10(C)に示す。マーカーH200が、図10(B)よりも左上に位置しており、マーカー内に距離2.1mと1.5mの情報が混在している。一方、図10(B)では、マーカー内に距離1.5mの情報のみが含まれており、この場合、合焦可能である。図10(C)では、図10(B)よりもマーカーH200の枠線が太く表示される。太枠の表示により、カメラ操作者は、合焦不能であることを視覚的に把握できる。被写体距離を表示することにより、操作者はマーカーH200をどの位置に移動させれば合焦可能になるかを推測し易くなるため、操作性が向上する。   In S214, in response to the error display instruction output in S213, the live view display unit R200 performs display processing indicating that focusing cannot be performed. A display example is shown in FIG. The marker H200 is located in the upper left of FIG. 10B, and information of distances 2.1 m and 1.5 m is mixed in the marker. On the other hand, in FIG. 10B, only the information of distance 1.5 m is included in the marker, and in this case, focusing is possible. In FIG. 10C, the frame line of the marker H200 is displayed thicker than in FIG. The thick frame display allows the camera operator to visually grasp that focusing is impossible. By displaying the subject distance, it becomes easier for the operator to guess which position the marker H200 can be brought into focus so that the operability is improved.

S212に続くS216で被写体距離算出部R402は、距離算出部R401が出力する距離マップと、被写体データに含まれる被写体像の領域座標を用いて被写体距離を算出する。この場合、ステレオマッチング処理は不要である。次にS300で制御方式切替部R600は、被写体距離算出部R402が出力した被写体距離情報を選択し、レンズ駆動部122へ出力する。レンズ駆動部122は、被写体距離情報に応じて被写体にピントが合うようにフォーカスレンズを駆動する。駆動後にS400に進み、S300の実行により被写体に対する合焦動作がほぼ完了した時点を初期時点として、コントラストAFが行われる。コントラストAF制御部R500、制御方式切替部R600、レンズ駆動部122の動作は第1実施形態の場合と同じである。コントラスト値算出部R501は、コントラスト値が最大となる合焦位置を算出する。コントラストAF制御部R500の出力するレンズ制御量は、制御方式切替部R600で選択されてレンズ駆動部122に出力され、処理を終了する。   In S216 following S212, the subject distance calculation unit R402 calculates the subject distance using the distance map output by the distance calculation unit R401 and the region coordinates of the subject image included in the subject data. In this case, stereo matching processing is not necessary. In step S <b> 300, the control method switching unit R <b> 600 selects the subject distance information output from the subject distance calculation unit R <b> 402 and outputs it to the lens driving unit 122. The lens driving unit 122 drives the focus lens so that the subject is in focus according to the subject distance information. After driving, the process proceeds to S400, and the contrast AF is performed with the time when the focusing operation on the subject is almost completed by the execution of S300 as an initial time. The operations of the contrast AF control unit R500, the control method switching unit R600, and the lens driving unit 122 are the same as those in the first embodiment. The contrast value calculation unit R501 calculates the in-focus position where the contrast value is maximized. The lens control amount output from the contrast AF control unit R500 is selected by the control method switching unit R600 and is output to the lens driving unit 122, and the process ends.

本実施形態では、まず被写体距離算出部R402が出力する被写体距離情報に基づいて焦点調節動作が行われ、次にコントラストAF方式によりフォーカスレンズ位置の微調整が行われる。これにより、コントラスト値が最大となるフォーカスレンズ位置(合焦位置)を、レンズの移動範囲全域に亘って逐次的に探索する処理が不要になるので、合焦動作を高速化できる。合焦位置は、被写体距離算出部R402が出力した、被写体距離に対応するフォーカスレンズ位置の前後である可能性が高いので、この近傍の範囲のみを探索すれば済むからである。また、被写体距離算出部R402の算出精度が低い場合には、コントラストAF制御方式により合焦精度を補完できるという効果が得られる。
なお、被写体距離算出部R402が被写体距離を算出できない場合、コントラストAF方式の焦点調節により支援する構成に限らず、コントラストAFを前段階で行ってもよい。例えば、コントラストAF方式による合焦ができなかった場合、被写体特定部R302が被写体を特定し、被写体距離算出部R402は被写体距離を算出して、その距離にピントを合わせるレンズ駆動制御が行われる。
In the present embodiment, the focus adjustment operation is first performed based on the subject distance information output from the subject distance calculation unit R402, and then the focus lens position is finely adjusted by the contrast AF method. This eliminates the need to sequentially search for the focus lens position (in-focus position) at which the contrast value is maximized over the entire movement range of the lens, thereby speeding up the focusing operation. This is because there is a high possibility that the in-focus position is before and after the focus lens position corresponding to the subject distance output from the subject distance calculation unit R402, and it is only necessary to search for a range in the vicinity thereof. Further, when the calculation accuracy of the subject distance calculation unit R402 is low, there is an effect that the focusing accuracy can be complemented by the contrast AF control method.
Note that, when the subject distance calculation unit R402 cannot calculate the subject distance, the contrast AF may be performed in the previous stage without being limited to the configuration that supports the focus adjustment by the contrast AF method. For example, when focusing by the contrast AF method cannot be performed, the subject specifying unit R302 specifies the subject, and the subject distance calculating unit R402 calculates the subject distance and performs lens drive control for focusing on the distance.

102 焦点調節用レンズ
105 撮像素子
122 レンズ駆動部
R100 画像生成部
R200 ライブビュー表示部
R201 被写体指示部
R300,R302 被写体特定部
R400,R402 被写体距離算出部
R401 距離算出部
R500 コントラストAF制御部
R600 制御方式切替部


DESCRIPTION OF SYMBOLS 102 Focus adjustment lens 105 Image pick-up element 122 Lens drive part R100 Image generation part R200 Live view display part R201 Subject instruction part R300, R302 Subject specification part R400, R402 Subject distance calculation part R401 Distance calculation part R500 Contrast AF control part R600 Control method Switching part


Claims (10)

各マイクロレンズに対して撮像光学系の射出瞳の異なる領域をそれぞれ通過した光束を受光して光電変換する複数の光電変換部を撮像素子が備え、該撮像素子の出力する像信号を用いて撮像光学系の焦点調節を行う撮像装置であって、
前記撮像素子から取得した複数の像信号から左目用画像および右目用画像を含む画像データを生成する画像生成手段と、
前記画像データを取得して画像を表示する表示手段と、
前記画像データを取得して被写体像を特定する被写体特定手段と、
前記画像データおよび前記被写体特定手段により特定された被写体を示す情報を取得し、前記左目用画像および右目用画像に含まれる被写体像について当該画像間の像ズレ量を算出し、前記被写体の視差により当該被写体までの距離を算出する被写体距離算出手段と、
前記表示手段が撮像された画像を表示しているときに、前記撮像光学系を構成する焦点調節用レンズを移動させることにより、前記被写体距離算出手段が算出した前記距離にピントを合わせるレンズ駆動手段を備え
前記被写体特定手段により特定される被写体までの距離について、前記被写体距離算出手段が複数の距離情報を算出した場合、前記被写体までの距離の最大値と最小値の差を算出して閾値と比較し、差が閾値以上である場合、合焦不能の旨を報知することを特徴とする撮像装置。
The image sensor has a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different areas of the exit pupil of the imaging optical system for each microlens, and perform imaging using image signals output from the image sensor An imaging device for adjusting the focus of an optical system,
Image generating means for generating image data including a left-eye image and a right-eye image from a plurality of image signals acquired from the image sensor;
Display means for acquiring the image data and displaying the image;
Subject specifying means for acquiring the image data and specifying a subject image;
Obtaining the image data and information indicating the subject specified by the subject specifying means, calculating an image shift amount between the images for the subject images included in the left-eye image and the right-eye image, and using the parallax of the subject Subject distance calculating means for calculating the distance to the subject;
Lens driving means for focusing on the distance calculated by the subject distance calculation means by moving a focus adjustment lens that constitutes the imaging optical system when the display means is displaying an imaged image. equipped with a,
For the distance to the subject specified by the subject specifying means, when the subject distance calculation means calculates a plurality of distance information, the difference between the maximum value and the minimum value of the distance to the subject is calculated and compared with a threshold value. If the difference is equal to or larger than the threshold, the image pickup apparatus characterized that you notify the fact of focusing impossible.
前記画像生成手段から取得した画像データを用いてコントラスト値を算出してレンズ制御量を出力する合焦制御手段と、
前記被写体距離算出手段が算出した距離、または前記合焦制御手段の出力するレンズ制御量に切り替えて前記レンズ駆動手段に出力する切替手段を備えることを特徴とする請求項1に記載の撮像装置。
A focus control means for calculating a contrast value using the image data acquired from the image generation means and outputting a lens control amount;
The imaging apparatus according to claim 1, further comprising a switching unit that switches to the distance calculated by the subject distance calculation unit or the lens control amount output from the focusing control unit and outputs the lens control unit to the lens driving unit.
前記切替手段は、前記被写体距離算出手段が前記被写体までの距離を算出できない場合に、前記合焦制御手段の出力するレンズ制御量に切り替えて前記レンズ駆動手段に出力することを特徴とする請求項2に記載の撮像装置。   The switching means, when the subject distance calculation means cannot calculate the distance to the subject, switches to the lens control amount output by the focus control means and outputs to the lens driving means. 2. The imaging device according to 2. 前記画像生成手段により生成される表示用画像データを取得して前記表示手段に画像を表示する制御を行う表示制御手段と、
前記表示手段により表示された画像にて被写体像を指示する被写体指示手段を備え、
前記被写体特定手段は、前記被写体指示手段により指示された被写体像を特定することを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。
Display control means for performing control for acquiring display image data generated by the image generation means and displaying an image on the display means;
Subject indicating means for indicating a subject image in the image displayed by the display means;
The imaging apparatus according to claim 1, wherein the subject specifying unit specifies a subject image instructed by the subject instructing unit.
前記画像生成手段は、前記複数の像信号から被写体抽出用画像のデータを生成し、
前記被写体特定手段は、前記被写体抽出用画像から被写体像を画像認識により特定することを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。
The image generation means generates image data for subject extraction from the plurality of image signals,
The imaging apparatus according to claim 1, wherein the subject specifying unit specifies a subject image from the subject extraction image by image recognition.
前記左目用画像および右目用画像を含む画像データを前記画像生成手段から取得して前記撮像装置から物体までの距離を表示用画像と関連付けた距離マップを生成して、前記被写体距離算出手段に出力する距離算出手段を備えることを特徴とする請求項1ないし5のいずれか1項に記載の撮像装置。   Image data including the image for the left eye and the image for the right eye is acquired from the image generation unit, a distance map in which the distance from the imaging device to the object is associated with the display image is generated, and output to the subject distance calculation unit The imaging apparatus according to claim 1, further comprising a distance calculation unit that performs the calculation. 前記表示手段は、前記距離算出手段により生成される距離マップを取得し、距離情報を表示することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the display unit acquires a distance map generated by the distance calculation unit and displays distance information. 前記被写体距離算出手段は、前記閾値を被写界深度に応じて変更することを特徴とする請求項1ないし7のいずれか1項に記載の撮像装置。 The object distance calculating means, the image pickup apparatus according to any one of claims 1 to 7, characterized in that for changing the threshold depending on the depth of field. 前記表示手段は、前記画像データを取得して立体画像を表示することを特徴とする請求項1ないしのいずれか1項に記載の撮像装置。 The display means, the image pickup apparatus according to any one of claims 1 to 8, wherein the displaying a stereoscopic image by acquiring the image data. 各マイクロレンズに対して撮像光学系の射出瞳の異なる領域をそれぞれ通過した光束を受光して光電変換する複数の光電変換部を撮像素子が備え、該撮像素子の出力する像信号を用いて撮像光学系の焦点調節を行う撮像装置にて実行される制御方法であって、
前記撮像素子から取得した複数の像信号から左目用画像および右目用画像を含む画像データを生成する画像生成ステップと、
前記画像データを取得して被写体像を特定する被写体特定ステップと、
前記画像データおよび前記被写体特定ステップで特定された被写体を示す情報を取得し、前記左目用画像および右目用画像に含まれる被写体像について当該画像間の像ズレ量を算出し、前記被写体の視差により当該被写体までの距離を算出する被写体距離算出ステップと、
撮像された画像を表示手段に表示しているときに、前記撮像光学系を構成する焦点調節用レンズを移動させることにより、前記被写体距離算出ステップで算出した前記距離にピントを合わせるレンズ駆動ステップを有し、
前記被写体特定ステップにおいて特定される被写体までの距離について、前記被写体距離算出ステップにおいて複数の距離情報が算出された場合、前記被写体までの距離の最大値と最小値の差を算出して閾値と比較し、差が閾値以上である場合、合焦不能の旨を報知することを特徴とする撮像装置の制御方法。
The image sensor has a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different areas of the exit pupil of the imaging optical system for each microlens, and perform imaging using image signals output from the image sensor A control method executed by an imaging apparatus that performs focus adjustment of an optical system,
An image generation step of generating image data including a left-eye image and a right-eye image from a plurality of image signals acquired from the image sensor;
A subject specifying step of acquiring the image data and specifying a subject image;
Obtaining the image data and information indicating the subject specified in the subject specifying step, calculating an image shift amount between the images for the subject images included in the left-eye image and the right-eye image, and using the parallax of the subject A subject distance calculating step for calculating a distance to the subject;
A lens driving step of focusing on the distance calculated in the subject distance calculation step by moving a focus adjustment lens that constitutes the imaging optical system when the captured image is displayed on the display unit; Yes, and
For the distance to the subject specified in the subject specifying step, when a plurality of distance information is calculated in the subject distance calculating step, the difference between the maximum value and the minimum value of the distance to the subject is calculated and compared with a threshold value and, when the difference is equal to or greater than the threshold, the control method of an image pickup apparatus which is characterized that you notify the fact of focusing impossible.
JP2013108818A 2013-05-23 2013-05-23 Imaging apparatus and control method thereof Active JP6071748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108818A JP6071748B2 (en) 2013-05-23 2013-05-23 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108818A JP6071748B2 (en) 2013-05-23 2013-05-23 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2014228727A JP2014228727A (en) 2014-12-08
JP2014228727A5 JP2014228727A5 (en) 2016-07-07
JP6071748B2 true JP6071748B2 (en) 2017-02-01

Family

ID=52128606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108818A Active JP6071748B2 (en) 2013-05-23 2013-05-23 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6071748B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6616668B2 (en) * 2015-11-17 2019-12-04 キヤノン株式会社 Image processing apparatus and image processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5633181B2 (en) * 2010-05-07 2014-12-03 株式会社ニコン Depth map output device
JP2011259168A (en) * 2010-06-08 2011-12-22 Fujifilm Corp Stereoscopic panoramic image capturing device
JP2012124650A (en) * 2010-12-07 2012-06-28 Fujifilm Corp Imaging apparatus, and imaging method
JP5814692B2 (en) * 2011-08-15 2015-11-17 キヤノン株式会社 Imaging apparatus, control method therefor, and program
JP5852371B2 (en) * 2011-09-01 2016-02-03 キヤノン株式会社 Imaging apparatus and control method thereof
JP5767715B2 (en) * 2011-09-30 2015-08-19 富士フイルム株式会社 Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2014228727A (en) 2014-12-08

Similar Documents

Publication Publication Date Title
US8885026B2 (en) Imaging device and imaging method
JP5388544B2 (en) Imaging apparatus and focus control method thereof
US9258545B2 (en) Stereoscopic imaging apparatus
US8823778B2 (en) Imaging device and imaging method
JP5788518B2 (en) Monocular stereoscopic photographing apparatus, photographing method and program
US10587860B2 (en) Imaging apparatus and method for controlling same
US10602051B2 (en) Imaging apparatus, control method, and non-transitory storage medium
JP2012049773A (en) Imaging apparatus and method, and program
JP2011027902A (en) Image processing apparatus, image pickup apparatus and image processing method
JP2020054002A (en) Imaging apparatus, control method, and program
JP2013218297A (en) Focus adjustment device and focus adjustment method
US20130100251A1 (en) Image capturing device and image capturing method
US20140125861A1 (en) Imaging apparatus and method for controlling same
JP5932363B2 (en) Imaging apparatus and control method thereof
JPWO2013035427A1 (en) Stereoscopic imaging apparatus and method
JP2013113857A (en) Imaging device, and control method therefor
JP6071748B2 (en) Imaging apparatus and control method thereof
US20130076869A1 (en) Imaging apparatus and method for controlling same
JP2012124650A (en) Imaging apparatus, and imaging method
JP6723853B2 (en) Imaging device and control method thereof
JP2016071275A (en) Image-capturing device and focus control program
JP2014102400A (en) Imaging apparatus and method for controlling imaging apparatus
JP2014222268A (en) Imaging device and imaging device control method
JP6467768B2 (en) Imaging device
JP2014063190A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151