JP6643371B2 - Imaging device, control method, and program - Google Patents

Imaging device, control method, and program Download PDF

Info

Publication number
JP6643371B2
JP6643371B2 JP2018012590A JP2018012590A JP6643371B2 JP 6643371 B2 JP6643371 B2 JP 6643371B2 JP 2018012590 A JP2018012590 A JP 2018012590A JP 2018012590 A JP2018012590 A JP 2018012590A JP 6643371 B2 JP6643371 B2 JP 6643371B2
Authority
JP
Japan
Prior art keywords
image
display
exposure
imaging
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018012590A
Other languages
Japanese (ja)
Other versions
JP2019079024A (en
Inventor
嘉人 玉木
嘉人 玉木
英之 浜野
英之 浜野
博之 古用
博之 古用
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/933,550 priority Critical patent/US10602051B2/en
Priority to EP18163888.3A priority patent/EP3383023B1/en
Priority to CN201810263642.9A priority patent/CN108737696B/en
Publication of JP2019079024A publication Critical patent/JP2019079024A/en
Priority to US16/744,856 priority patent/US10986262B2/en
Application granted granted Critical
Publication of JP6643371B2 publication Critical patent/JP6643371B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置、制御方法、およびプログラムに関する。   The present invention relates to an imaging device, a control method, and a program.

デジタルカメラ等の撮像装置の中には、主被写体に対して撮像面位相差方式の自動焦点検出(撮像面位相差AF)を行いながら静止画の連続撮影を行う連写(連続撮影)機能が備えられているものがある。この連写機能の実行中、撮像装置は、背面モニタ等にライブビュー(LV)画像として表示させる画像と、静止画像として記録するための記録画像を各々読み出して、リアルタイムに表示と記録を行う。   2. Description of the Related Art Some imaging devices such as digital cameras have a continuous shooting (continuous shooting) function of continuously shooting still images while performing automatic focus detection (imaging surface phase difference AF) of an imaging surface phase difference method on a main subject. Some are provided. During the execution of the continuous shooting function, the imaging apparatus reads an image to be displayed as a live view (LV) image on a rear monitor or the like and a recorded image to be recorded as a still image, and performs display and recording in real time.

例えは、連写時に焦点検出を行いながら撮像素子から取得した画像をライブビュー画像(LV画像)として表示装置に表示させる際に、主被写体への追従性を向上させる技術が知られている。特許文献1では、表示装置に、解像度の異なる画像を逐次表示するか高解像度画像のみを表示するかを切り替える技術が提案されている。特許文献1によれば、フレームレートが低い連写においても、LV画像の表示時間間隔を短縮してフレーミング時の主被写体への追従性を向上させることができる。   For example, there is known a technique for improving the followability to a main subject when displaying an image acquired from an imaging element as a live view image (LV image) on a display device while performing focus detection during continuous shooting. Patent Literature 1 proposes a technique for switching between sequentially displaying images having different resolutions or displaying only high-resolution images on a display device. According to Patent Literature 1, even in continuous shooting with a low frame rate, the display time interval of the LV image can be shortened, and the followability to the main subject during framing can be improved.

特開2015−144346号公報JP 2015-144346 A

しかしながら、特許文献1で提案されている技術では、解像度の異なる画像を表示装置に逐次表示する際に、当該解像度が異なる画像同士の露出の違いや信号読出し条件の違いなどに応じた画質の差について言及していない。上述したような原因により画像同士の画質に差が生じてしまうと、画像の明るさ、解像感、コントラストなどが異なる画像が交互に表示されてしまうため、ユーザに対して違和感のある不自然な表示となってしまう。この場合、画像を交互に表示することでユーザに与える違和感が大きくなってしまうという問題がある。   However, in the technique proposed in Patent Document 1, when images having different resolutions are sequentially displayed on a display device, a difference in image quality depending on a difference in exposure between images having different resolutions, a difference in signal reading conditions, and the like. Did not mention. If a difference occurs in the image quality between images due to the above-described causes, images having different brightness, resolution, contrast, etc., are displayed alternately. Display. In this case, there is a problem that the discomfort given to the user is increased by alternately displaying the images.

本発明は、連続撮影時に異なる種類の画像を取得してこれらを表示する場合にユーザに与える違和感を低減する技術を提案する。   The present invention proposes a technique for reducing discomfort given to a user when acquiring and displaying different types of images during continuous shooting.

本発明の例に係る撮像光学系を通して被写体を撮像する撮像装置は、前記撮像光学系により結像された光から画像信号を取得する撮像素子と、前記撮像素子の露出パラメータを制御する第1の制御手段と、前記撮像素子の画素部のうち、第1の画素数の画素部に相当する第1の画像と、前記第1の画素数よりも少ない第2の画素数の画素部に相当する第2の画像とを切り替えて出力する処理を行う第2の制御手段と、を備える。前記第2の制御手段は、前記第1の画像および前記第2の画像の少なくとも一方に基づいて合焦判定を行い、前記第2の制御手段は、前記撮像素子にて瞳分割された画像信号を読み出して焦点検出を行い、前記撮像光学系の焦点調節を制御し、前記第1の制御手段は、前記第1の画像と前記第2の画像を取得するための露出パラメータを制御することで、続けて取得する第1の画像と第2の画像との露出パラメータの変化量を低減し、前記第1の制御手段は、前記合焦判定に基づいて前記第2の画像を取得するための露出パラメータを制御することで、続けて取得する第1の画像と第2の画像との露出パラメータの変化量を低減する。 An imaging device that captures an image of a subject through an imaging optical system according to an example of the present invention includes an imaging device that acquires an image signal from light formed by the imaging optical system, and a first device that controls an exposure parameter of the imaging device. A control unit, a first image corresponding to a pixel unit having a first pixel number among pixel units of the image sensor, and a pixel unit having a second pixel number smaller than the first pixel number; A second control unit that performs a process of switching and outputting the second image. The second control unit makes a focus determination based on at least one of the first image and the second image, and the second control unit outputs an image signal obtained by pupil division by the image sensor. read and perform focus detection, controls the focusing of the imaging optical system, said first control means, by controlling the exposure parameters for acquiring the first image and the second image Reducing the amount of change in the exposure parameter between the first image and the second image acquired continuously , and wherein the first control means acquires the second image based on the focus determination. By controlling the exposure parameter, the amount of change in the exposure parameter between the first image and the second image acquired successively is reduced .

本発明の例によれば、連続撮影時に異なる種類の画像を取得してこれらを表示する場合にユーザに与える違和感を低減することができる。   According to the example of the present invention, it is possible to reduce discomfort given to a user when acquiring and displaying different types of images during continuous shooting.

本発明の実施例における撮像素子の概略構造図である。FIG. 2 is a schematic structural diagram of an image sensor according to an embodiment of the present invention. 本発明の実施例における撮像素子の画素配列図である。FIG. 2 is a pixel array diagram of an image sensor according to an embodiment of the present invention. 本発明の実施例における撮像システムの概要図である。1 is a schematic diagram of an imaging system according to an embodiment of the present invention. 本発明の実施例における焦点検出用信号を示す図である。FIG. 4 is a diagram illustrating a focus detection signal according to the embodiment of the present invention. 第1実施例における合焦判定テーブルを示す図である。FIG. 6 is a diagram illustrating a focus determination table according to the first embodiment. 本発明の実施例の処理を説明するフローチャートである。5 is a flowchart illustrating a process according to an embodiment of the present invention. 図6に続く処理を説明するフローチャートである。FIG. 7 is a flowchart illustrating processing subsequent to FIG. 6. 本発明の実施例における交互表示のタイミング図である。FIG. 5 is a timing chart of alternate display in the embodiment of the present invention. 本発明の実施例における交互表示を行わない場合のタイミング図である。FIG. 7 is a timing chart in a case where alternate display is not performed in the embodiment of the present invention. 第2実施例における合焦判定テーブルを示す図である。FIG. 11 is a diagram illustrating a focus determination table according to a second embodiment. 第2実施例における合焦判定テーブルを示す図である。FIG. 11 is a diagram illustrating a focus determination table according to a second embodiment. 第3実施例における撮像システムの概要図である。It is a schematic diagram of an imaging system in a third example. 第3実施例における撮像素子の画素配列図である。It is a pixel array figure of an image sensor in a 3rd example. 第3実施例における表示処理のフローチャートである。It is a flow chart of the display processing in a 3rd example. 第3実施例におけるLV画像の生成・表示処理のフローチャートである。13 is a flowchart of an LV image generation / display process in a third embodiment. 第3実施例における撮像サブルーチン処理のフローチャートである。It is a flowchart of an imaging subroutine process in the third embodiment. 第3実施例における表示判定処理のフローチャートである。It is a flowchart of a display determination process in the third embodiment. 第3実施例における静止画像の生成・表示処理のフローチャートである。13 is a flowchart of still image generation / display processing in the third embodiment. LV画像と静止画像を表示させる場合のタイミングチャートである。5 is a timing chart when an LV image and a still image are displayed. LV画像と静止画像を交互に表示させる場合のタイミングチャートである。It is a timing chart at the time of displaying an LV image and a still image alternately. LV画像と静止画像を交互に表示させる場合のタイミングチャートである。It is a timing chart at the time of displaying an LV image and a still image alternately. 第4実施例における交互表示方法の図である。It is a figure of the alternate display method in 4th Example. 第4実施例における交互表示方法の図である。It is a figure of the alternate display method in 4th Example. 第4実施例におけるLV画像の生成・表示処理のフローチャートである。15 is a flowchart of LV image generation / display processing in a fourth embodiment. 第4実施例における静止画像の生成・表示処理のフローチャートである。15 is a flowchart of still image generation / display processing in a fourth embodiment.

以下に本発明の実施例を詳細に説明する。各実施例では、瞳分割された焦点検出画素を有する撮像素子を備え、被写体に焦点を合せながら連続撮影(AF連写)を行う撮像装置を説明する。連続撮影において、静止画撮影時に絞り値が変化した場合でも、ライブビュー撮影時の絞り値との間で差が小さくなるように絞り制御を行うことにより、表示品質を維持しつつ、フレーミング中の追従性の低下を抑えることができる。   Hereinafter, examples of the present invention will be described in detail. In each of the embodiments, an imaging apparatus including an imaging element having pupil-divided focus detection pixels and performing continuous shooting (AF continuous shooting) while focusing on a subject will be described. In continuous shooting, even if the aperture value changes during still image shooting, aperture control is performed so that the difference from the aperture value during live view shooting is reduced, thereby maintaining the display quality and framing during framing. A decrease in followability can be suppressed.

[第1実施例]
図1は、本発明の第1実施例における撮像素子の構成例を示す概略ブロック図である。撮像素子306は多数の画素部101を2次元アレイ状に配置した構成を有する。各画素部101に対して、垂直出力線102、転送信号線103、リセット信号線104、行選択信号線105がそれぞれ接続されている。カラムADCブロック111は、画素部101に接続された垂直出力線102から出力される信号に対し、A(アナログ)/D(デジタル)変換した信号を出力する。行走査回路112は転送信号線103、リセット信号線104、行選択信号線105により画素部101に接続される。複数の列走査回路113は、水平信号線115−a,115−bにより、複数のカラムADCブロック111に接続される。タイミング制御回路114は、カラムADCブロック111、列走査回路113にそれぞれタイミング制御信号を出力して制御を行う。
[First embodiment]
FIG. 1 is a schematic block diagram illustrating a configuration example of an image sensor according to a first embodiment of the present invention. The imaging element 306 has a configuration in which many pixel units 101 are arranged in a two-dimensional array. A vertical output line 102, a transfer signal line 103, a reset signal line 104, and a row selection signal line 105 are connected to each pixel portion 101, respectively. The column ADC block 111 outputs an A (analog) / D (digital) converted signal with respect to a signal output from the vertical output line 102 connected to the pixel unit 101. The row scanning circuit 112 is connected to the pixel portion 101 by a transfer signal line 103, a reset signal line 104, and a row selection signal line 105. The plurality of column scanning circuits 113 are connected to the plurality of column ADC blocks 111 by horizontal signal lines 115-a and 115-b. The timing control circuit 114 performs control by outputting a timing control signal to each of the column ADC block 111 and the column scanning circuit 113.

切り替え部116は、水平信号線115−aと115−bによる各信号を切り替えて、パラレル・シリアル変換部(以下、P/S変換部と表記する)117に出力する。P/S変換部117は切り替え部116の出力を取得し、パラレル・シリアル変換を行う。P/S変換部117は変換した信号を外部に出力する。   The switching unit 116 switches between signals on the horizontal signal lines 115-a and 115-b and outputs the signals to a parallel / serial conversion unit (hereinafter, referred to as a P / S conversion unit) 117. The P / S conversion unit 117 acquires the output of the switching unit 116 and performs parallel / serial conversion. The P / S converter 117 outputs the converted signal to the outside.

本実施例の撮像素子306は、複数の画素部101が水平方向(行方向)において転送信号線103、リセット信号線104、および行選択信号線105に接続され、垂直方向(列方向)において垂直出力線102に接続されている。垂直出力線102の各々は読み出し行単位に応じて接続先が異なる。画素部101から読み出される信号はカラムADCブロック111を介して、チャンネル毎の水平信号線115−a、水平信号線115−bから出力され、切り替え部116に送られる。切り替え部116で選択された画像信号は、タイミング制御回路114のタイミングに合わせてP/S変換部117がパラレル・シリアル変換を行い、撮像素子306の外部に出力する。   In the image sensor 306 of this embodiment, the plurality of pixel units 101 are connected to the transfer signal line 103, the reset signal line 104, and the row selection signal line 105 in the horizontal direction (row direction), and are vertically arranged in the vertical direction (column direction). It is connected to the output line 102. Each of the vertical output lines 102 has a different connection destination depending on the readout row unit. A signal read from the pixel unit 101 is output from the horizontal signal line 115-a and the horizontal signal line 115-b for each channel via the column ADC block 111, and sent to the switching unit 116. The image signal selected by the switching unit 116 is subjected to parallel / serial conversion by the P / S conversion unit 117 in accordance with the timing of the timing control circuit 114, and is output to the outside of the image sensor 306.

画素信号の読み出し方式としては、全画素を読み出す方式、垂直方向にて画素を間引いて読み出す方式、水平方向にて画素を加算して読み出す方式、垂直間引き水平加算方式等を適宜に選択可能である。垂直間引き水平加算方式は、垂直方向にて間引き読み出しを行い水平方向にて画素を加算して読み出す方式である。本実施例では、静止画読み出しの方式に全画素を読み出す方式を採用する。第1の読み出しモードでは、第1の画素数の画素部として撮像素子のすべての画素部から画素信号が読み出される。読み出し画素数が多いため、所定時間内に限られた枚数の画像しか取得できないので、動体である被写体が高速で移動する場合、正確に被写体を画角内に捉え難くなる。一方、ライブビュー読み出しの方式には垂直間引き水平加算方式を採用する。第2の読み出しモードでは、第1の画素数よりも少ない第2の画素数の画素部から画素信号が読み出される。読み出し画素数が少ないため、処理の高速化に適している。   As a method for reading out pixel signals, a method for reading out all pixels, a method for reading out by thinning out pixels in the vertical direction, a method for adding and reading out pixels in the horizontal direction, a vertical thinning-out horizontal addition method, and the like can be appropriately selected. . The vertical thinning-out horizontal addition method is a method in which thinning-out reading is performed in the vertical direction, and pixels are added and read out in the horizontal direction. In this embodiment, a method of reading out all pixels is adopted as a still image reading method. In the first reading mode, pixel signals are read from all the pixel units of the image sensor as the pixel units having the first number of pixels. Since the number of pixels to be read is large, only a limited number of images can be acquired within a predetermined time. Therefore, when a moving subject is moving at high speed, it is difficult to accurately capture the subject within the angle of view. On the other hand, a vertical thinning-out horizontal addition method is adopted as a live view reading method. In the second reading mode, a pixel signal is read from a pixel portion having a second number of pixels smaller than the first number of pixels. Since the number of readout pixels is small, it is suitable for high-speed processing.

図2は本実施例における撮像面位相差AFで使用する撮像素子306の画素配列を模式的に示す。撮像素子306はオンチップマイクロレンズ201に対応する複数の光電変換部が配置された構成である。カラーフィルタにはベイヤー配列が適用され、R/G行で示す奇数行の画素には、左から順に赤(RED)と緑(GREEN)のカラーフィルタが交互に設けられる。また、G/B行で示す偶数行の画素には、左から順に緑(GREEN)と青(BLUE)のカラーフィルタが交互に設けられる。オンチップマイクロレンズ201はカラーフィルタの上に構成されている。オンチップマイクロレンズ201の内側に配置された複数の光電変換部を複数の矩形で示す。瞳分割型撮像素子にて対をなす光電変換部を、それぞれA画素101a、B画素101bと表記する。第1の画素群に含まれるA画素101aからの出力によって第1の視点画像であるA画像が生成される。第2の画素群に含まれるB画素101bからの出力によって第2の視点画像であるB画像が生成される。演算部はA画像とB画像の相対的な像ずれ量を相関演算により検出し、所定領域のデフォーカス量を算出する。デフォーカス量に基づいてフォーカスレンズが移動してレンズ部301の焦点調節動作が行われる。また、A画像の信号とB画像の信号は撮像素子内で加算処理が行われ、表示用および記録用の画像信号が生成される。なお、図2に示したように複数の光電変換部を設ける画素構成とせずに、光電変換部の受光面の一部を遮光する形態であってもよい。   FIG. 2 schematically illustrates a pixel array of the image sensor 306 used in the image plane phase difference AF according to the present embodiment. The imaging element 306 has a configuration in which a plurality of photoelectric conversion units corresponding to the on-chip microlens 201 are arranged. A Bayer array is applied to the color filters, and red (RED) and green (GREEN) color filters are provided alternately from left to right in pixels in the odd-numbered rows indicated by R / G rows. In addition, the pixels of the even-numbered rows indicated by the G / B rows are provided with green (GREEN) and blue (BLUE) color filters alternately from the left. The on-chip micro lens 201 is configured on a color filter. A plurality of photoelectric conversion units arranged inside the on-chip micro lens 201 are indicated by a plurality of rectangles. The photoelectric conversion units forming a pair in the pupil division type imaging device are referred to as an A pixel 101a and a B pixel 101b, respectively. An A image that is a first viewpoint image is generated by an output from the A pixel 101a included in the first pixel group. A B image that is a second viewpoint image is generated by an output from the B pixel 101b included in the second pixel group. The calculation unit detects a relative image shift amount between the A image and the B image by a correlation operation, and calculates a defocus amount of a predetermined area. The focus lens moves based on the defocus amount, and the focus adjustment operation of the lens unit 301 is performed. In addition, the signal of the A image and the signal of the B image are subjected to addition processing in the image sensor, and image signals for display and recording are generated. Note that a configuration in which a part of the light receiving surface of the photoelectric conversion unit is shielded from light may be employed instead of a pixel configuration in which a plurality of photoelectric conversion units are provided as illustrated in FIG.

図3は、撮像素子306を用いた撮像システムの概要を示すブロック図である。本実施例の撮像システムは、一例として動画像または静止画像を取得するデジタルカメラであるが、これに限られるものではない。例えば監視カメラやスマートフォン等の携帯機器や車載カメラ等の移動体にも適用可能である。   FIG. 3 is a block diagram illustrating an outline of an imaging system using the imaging element 306. The imaging system of the present embodiment is a digital camera that acquires a moving image or a still image as an example, but is not limited to this. For example, the present invention is also applicable to mobile devices such as surveillance cameras and smartphones, and mobile objects such as in-vehicle cameras.

レンズ部301は、撮像光学系を構成する複数のレンズを備える。レンズ部301はカメラ本体部に装着可能な交換レンズ、またカメラ本体部に一体化されたレンズユニットである。レンズ駆動部302は、撮像光学系を構成する可動レンズ(ズームレンズ、フォーカスレンズ等)を駆動する。メカニカルシャッタ(図にはメカシャッタと表記する)303は露光時間の制御に用いられ、絞り304は露光量の制御に用いられる。メカニカルシャッタ・絞り駆動部(図にはシャッタ・絞り駆動部と表記する)305は、メカニカルシャッタ303および絞り304を駆動することによって撮像素子306の露出状態を制御する。なお、露光量を制御するための手段としてNDフィルタ等の光学フィルタを設ける構成にしてもよい。   The lens unit 301 includes a plurality of lenses forming an imaging optical system. The lens unit 301 is an interchangeable lens that can be mounted on the camera body, and a lens unit integrated with the camera body. The lens driving unit 302 drives a movable lens (a zoom lens, a focus lens, and the like) included in the imaging optical system. A mechanical shutter (denoted as a mechanical shutter in the figure) 303 is used for controlling an exposure time, and an aperture 304 is used for controlling an exposure amount. A mechanical shutter / aperture drive unit (denoted as a shutter / aperture drive unit) 305 in the figure controls the exposure state of the image sensor 306 by driving the mechanical shutter 303 and the aperture 304. Note that an optical filter such as an ND filter may be provided as a means for controlling the exposure amount.

撮像素子306は、撮像光学系を通して結像される被写体からの光を受光して光電変換を行い、電気信号を出力する。積層型構成の撮像素子の場合、撮像層と回路層を有する。撮像信号処理回路307は撮像素子306の出力信号を処理し、処理後の画像信号を出力する。第1のメモリ部(図にはメモリ部Iと表記する)308は、撮像信号処理回路307が処理した画像信号等を記憶する。   The imaging element 306 receives light from a subject formed through an imaging optical system, performs photoelectric conversion, and outputs an electric signal. In the case of a stacked-type imaging device, it has an imaging layer and a circuit layer. The imaging signal processing circuit 307 processes the output signal of the imaging element 306 and outputs the processed image signal. A first memory unit (denoted as a memory unit I in the figure) 308 stores an image signal and the like processed by the imaging signal processing circuit 307.

全体制御演算部309は撮像システム全体の制御を司る中枢部であり、CPU(中央演算処理部)を備える。CPUは第2のメモリ部(図にはメモリ部IIと表記する)314から読み出したプログラムを実行することにより、各部の動作を制御する。第2のメモリ部314はCPUの演算結果やユーザ操作によって撮像装置に設定されたカメラ情報等も記憶する。記録媒体制御インターフェース(I/F)部310は、全体制御演算部309の制御指令にしたがって、画像信号等を記録媒体312に記録し、また記録媒体312から情報を読み出す処理を行う。記録媒体312は撮像装置の本体部に着脱可能である。表示部311は液晶表示パネル等の表示デバイスを備え、全体制御演算部309の制御指令にしたがって画像データ等を画面に表示する。外部インターフェース(I/F)部313は、コンピュータ等の外部装置との間で情報を送受し合う通信処理部である。本実施例では撮像装置が表示部311を備えるが、表示手段のない撮像装置の場合には画像情報や関連情報が外部I/F部313を介して外部の表示装置に出力される。例えば、AF連写時の静止画像とライブビュー画像を交互に出力する処理と、ライブビュー画像だけを出力する処理が実行される。操作部315はスイッチやタッチパネル等の入力デバイスを備え、ユーザの操作指示を受け付けて操作指示信号を全体制御演算部309に出力する。全体制御演算部309は、操作部315によってユーザが設定した撮像システムの撮像モードや露出条件等に関する情報に基づいて撮像システム全体を制御する。   The overall control calculation unit 309 is a central unit that controls the entire imaging system, and includes a CPU (central processing unit). The CPU controls the operation of each unit by executing a program read from a second memory unit (denoted as a memory unit II in the figure) 314. The second memory unit 314 also stores calculation results of the CPU, camera information set in the imaging device by a user operation, and the like. The recording medium control interface (I / F) unit 310 performs a process of recording an image signal or the like on the recording medium 312 and reading information from the recording medium 312 according to a control command of the overall control calculation unit 309. The recording medium 312 is detachable from the main body of the imaging device. The display unit 311 includes a display device such as a liquid crystal display panel, and displays image data and the like on a screen according to a control command of the overall control calculation unit 309. The external interface (I / F) unit 313 is a communication processing unit that exchanges information with an external device such as a computer. In the present embodiment, the imaging device includes the display unit 311. However, in the case of an imaging device without a display unit, image information and related information are output to an external display device via the external I / F unit 313. For example, a process of alternately outputting a still image and a live view image during AF continuous shooting and a process of outputting only the live view image are executed. The operation unit 315 includes an input device such as a switch or a touch panel, receives an operation instruction from a user, and outputs an operation instruction signal to the overall control calculation unit 309. The overall control calculation unit 309 controls the entire imaging system based on information on the imaging mode, the exposure condition, and the like of the imaging system set by the user using the operation unit 315.

レンズ部301を通った被写体からの光は絞り304にて適切な光量に調整され、撮像素子306の撮像面上に結像される。撮像素子306の画素部101を構成する光電変換部は被写体の光学像に対して光電変換を行い、電気信号を出力する。電気信号はさらにゲイン制御が行われ、A/D変換によってアナログ信号からデジタル信号へ変換された上でR、Gr、Gb、Bの信号として取り込まれ、撮像信号処理回路307に送られる。   The light from the subject that has passed through the lens unit 301 is adjusted to an appropriate light amount by the stop 304, and is formed on the imaging surface of the imaging element 306. A photoelectric conversion unit included in the pixel unit 101 of the imaging element 306 performs photoelectric conversion on an optical image of a subject and outputs an electric signal. The electric signal is further subjected to gain control, is converted from an analog signal to a digital signal by A / D conversion, is captured as R, Gr, Gb, and B signals, and is sent to the imaging signal processing circuit 307.

撮像信号処理回路307は、撮像された画像データを用いて所定の演算処理を行う。得られた演算結果に基づいて全体制御演算部309が露光制御および測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAE(自動露出)処理、EF(フラッシュ自動調光発光)処理が行われる。また、撮像信号処理回路307は、撮像された画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。この他、撮像信号処理回路307は、ノイズを低減するローパスフィルタ処理や、シェーディング補正処理、ホワイトバランス処理等の各種の信号処理を行い、さらに各種の補正および画像信号の圧縮等を行う。   The imaging signal processing circuit 307 performs a predetermined calculation process using the captured image data. The overall control calculation unit 309 performs exposure control and distance measurement control based on the obtained calculation results. As a result, TTL (through the lens) AE (automatic exposure) processing and EF (flash automatic light emission control) processing are performed. Further, the imaging signal processing circuit 307 performs predetermined arithmetic processing using the captured image data, and performs TTL AWB (auto white balance) processing based on the obtained arithmetic result. In addition, the imaging signal processing circuit 307 performs various signal processing such as low-pass filter processing for reducing noise, shading correction processing, and white balance processing, and performs various corrections and compression of image signals.

撮影中のレンズ部301は、レンズ駆動部302によってズーム駆動およびフォーカス駆動等の制御が行われる。メカニカルシャッタ303と絞り304はそれぞれ、全体制御演算部309の制御指令にしたがってメカニカルシャッタ・絞り駆動部305により駆動される。第1のメモリ部308は撮像後の画像信号を一時的に記憶する。記録媒体制御I/F部310は、記録媒体312に画像信号を記録する処理と、記録媒体312から信号を読み出す処理を行う。表示部311は撮像された画像を画面に表示する。   The lens unit 301 during shooting is controlled by a lens driving unit 302 such as zoom driving and focus driving. The mechanical shutter 303 and the diaphragm 304 are respectively driven by a mechanical shutter / aperture driving unit 305 according to a control command of the overall control calculation unit 309. The first memory unit 308 temporarily stores the image signal after imaging. The recording medium control I / F unit 310 performs a process of recording an image signal on the recording medium 312 and a process of reading a signal from the recording medium 312. The display unit 311 displays a captured image on a screen.

次に図4を参照して、本実施例における合焦判定について説明する。図4は本実施例におけるA画素およびB画素の各出力信号が撮像信号処理回路307へ送られた場合の焦点検出用信号を示す図である。図4において、横軸Xは連結された信号の画素並び方向における位置を示し、縦軸Yは信号の強度を示す。焦点検出用信号401aはA画像の信号に相当し、焦点検出用信号401bはB画像の信号に相当する。これらの信号は、焦点検出用画像信号であるA画像信号とB画像信号としてそれぞれ形成される信号である。図4に示す例は、レンズ部301が撮像素子306に対してデフォーカス状態であるため、焦点検出用信号401aが左側にずれ、焦点検出用信号401bが右側にずれた状態となっている。A画像とB画像の信号のずれ量を撮像信号処理回路307が算出することにより、像ずれ量からデフォーカス量が算出される。すなわちレンズ部301が合焦状態からどれだけずれているかを検出することができる。   Next, with reference to FIG. 4, focus determination in the present embodiment will be described. FIG. 4 is a diagram illustrating a focus detection signal when each output signal of the A pixel and the B pixel in the present embodiment is sent to the imaging signal processing circuit 307. In FIG. 4, the horizontal axis X indicates the position of the connected signal in the pixel arrangement direction, and the vertical axis Y indicates the signal intensity. The focus detection signal 401a corresponds to the signal of the A image, and the focus detection signal 401b corresponds to the signal of the B image. These signals are signals formed as an A image signal and a B image signal, which are image signals for focus detection, respectively. In the example illustrated in FIG. 4, since the lens unit 301 is in a defocused state with respect to the imaging element 306, the focus detection signal 401a is shifted to the left and the focus detection signal 401b is shifted to the right. The defocus amount is calculated from the image shift amount by the imaging signal processing circuit 307 calculating the shift amount of the signal between the A image and the B image. That is, it is possible to detect how much the lens unit 301 is out of focus.

具体的には、撮像信号処理回路307はA画像信号とB画像信号との位相差を求める相関演算を行い、位相差から被写体距離を算出するための測距演算を行う。被写体距離は撮像装置から被写体までの距離であり、デフォーカス量に対応する量として算出される。A画像とB画像との一致の程度を表す量Uとして、(1)式を用いることができる。

Figure 0006643371
ただし、aはj番目のA画素の信号であり、bはB画素の信号である。(1)式の量Uは合焦時に最小値となる。 Specifically, the imaging signal processing circuit 307 performs a correlation operation for calculating a phase difference between the A image signal and the B image signal, and performs a distance measurement operation for calculating a subject distance from the phase difference. The subject distance is a distance from the imaging device to the subject, and is calculated as an amount corresponding to the defocus amount. Equation (1) can be used as the quantity U representing the degree of coincidence between the A image and the B image.
Figure 0006643371
Here, a j is the signal of the j-th A pixel, and b j is the signal of the B pixel. The amount U in the equation (1) becomes a minimum value when focusing.

さらに、B画像に対してA画像を相対的にp画素分だけシフトしてUの値を計算する処理が行われる。(2)式で算出される量をPと表記する。

Figure 0006643371
合焦時のシフト量においてPは最小値となる。このシフト量に基づいて、どの程度合焦位置からずれているかを示すデフォーカス量が算出される。 Further, a process of shifting the A image relative to the B image by p pixels and calculating the value of U is performed. The amount calculated by equation (2) is denoted by P.
Figure 0006643371
P becomes the minimum value in the shift amount at the time of focusing. Based on this shift amount, a defocus amount indicating how much the camera is deviated from the in-focus position is calculated.

デフォーカス量がゼロとなった場合、つまり合焦した場合にA画像とB画像は一致するはずであるが、A画像とB画像に違いがある場合には撮像面位相差AFの精度が低下してしまう。そこで、例えば2つの画像の共通領域の面積を求め、求めた面積に応じて信頼性を判断する処理が行われる。面積が大きいほど、合焦の信頼性は高いと判断され、面積が小さいほど、合焦の信頼性は低いと判断される。   When the defocus amount becomes zero, that is, when the image is in focus, the A image and the B image should match, but if there is a difference between the A image and the B image, the accuracy of the imaging surface phase difference AF decreases. Resulting in. Therefore, for example, a process is performed in which the area of the common region of the two images is determined, and the reliability is determined according to the determined area. The reliability of focusing is determined to be higher as the area is larger, and the reliability of focusing is determined to be lower as the area is smaller.

次に撮像信号処理回路307は、図4の焦点検出用信号401a、401bのエッジの急峻度を算出する。エッジの急峻度(Eと記す)は、(3)式を用いて算出される。

Figure 0006643371
(3)式において、E値が大きな値である場合、合焦の信頼性が高いと判断され、E値が小さな値である場合には合焦の信頼性が低いと判断される。 Next, the imaging signal processing circuit 307 calculates the steepness of the edges of the focus detection signals 401a and 401b in FIG. The steepness of the edge (denoted by E) is calculated using equation (3).
Figure 0006643371
In equation (3), when the E value is a large value, it is determined that the reliability of focusing is high, and when the E value is a small value, it is determined that the reliability of focusing is low.

図5は、本実施例の合焦判定テーブルを例示した図である。合焦判定テーブルは、相関演算結果の信頼性と、エッジ急峻度Eによる信頼性に応じて、以下の4段階の状態値AからDを有する。相関演算結果の信頼性に関して、「大」、「中」、「小」の3段階とし、相関演算結果(U値)が小さいほど、信頼性が高いものとする。また、エッジ急峻度Eによる信頼性に関して、「高」、「中」、「低」の3段階とし、E値が高いほど信頼性が高いものとする。   FIG. 5 is a diagram illustrating a focus determination table according to the present embodiment. The focus determination table has the following four levels of state values A to D according to the reliability of the correlation calculation result and the reliability based on the edge steepness E. Regarding the reliability of the correlation operation result, there are three levels of “large”, “medium”, and “small”, and the smaller the correlation operation result (U value), the higher the reliability. The reliability based on the edge steepness E is set to three levels of “high”, “medium”, and “low”, and the higher the E value, the higher the reliability.

A:合焦している状態。
B:合焦していない状態。撮影条件を少し変化させれば、合焦可能である。
C:合焦していない状態。撮影条件をBよりも大きく変化させれば、合焦可能である。
D:全く合焦していない状態。撮影条件を大きく変化させないと、合焦しない。
例えば、相関演算結果が「小」で、エッジ急峻度Eが「高」である場合にAとなり、これは合焦時の状態値である。本実施例では説明の便宜上、4段階の合焦判定を説明するが、もちろん、4段階未満または5段階以上の合焦判定も可能である。
A: In-focus state.
B: Out of focus. Focusing is possible by slightly changing the shooting conditions.
C: Out of focus. If the photographing condition is changed more than B, focusing can be performed.
D: State in which focus is not achieved at all. If the photographing conditions are not significantly changed, focusing will not be achieved.
For example, when the correlation calculation result is “small” and the edge steepness E is “high”, the result is A, which is a state value at the time of focusing. In the present embodiment, focus determination in four stages will be described for convenience of description, but it is needless to say that focus determination in less than four stages or five or more stages is also possible.

図6および図7を参照して、本実施例におけるAF連写時の処理例を説明する。図6および図7は、合焦判定テーブルを用いたAF連写を説明するフローチャートである。
連写開始時に全体制御演算部309は静止画撮影の絞りF値を決定する(S601)。次に静止画撮影用の撮像素子306の露光が開始する(S602)。露光終了後、撮像素子306から静止画像の画像信号が読み出される(S603)。次に、全体制御演算部309は図5の合焦判定テーブルに従い、合焦判定の結果を判断する。状態値Aに該当するかどうかが判断され(S604)。Aに該当する場合(合焦した場合)、S605に進み、A以外の場合にはS606に移行する。
With reference to FIG. 6 and FIG. 7, an example of processing at the time of AF continuous shooting in the present embodiment will be described. FIGS. 6 and 7 are flowcharts illustrating AF continuous shooting using the focus determination table.
At the start of continuous shooting, the overall control calculation unit 309 determines the aperture F value for still image shooting (S601). Next, exposure of the imaging element 306 for still image shooting starts (S602). After the exposure, an image signal of a still image is read from the image sensor 306 (S603). Next, the overall control calculation unit 309 determines the result of the focus determination according to the focus determination table of FIG. It is determined whether or not the state value A is satisfied (S604). If it corresponds to A (if it is in focus), the process proceeds to S605; otherwise, the process proceeds to S606.

S605で全体制御演算部309は、ライブビュー(LV)撮影の絞りF値を静止画撮影と同じF値に設定し、S610へ進む。S606で全体制御演算部309は、合焦判定の結果が状態値Bに該当するかどうかを判断する。Bに該当する場合、S607に進み、Bでない場合にはS608に移行する。S607で全体制御演算部309は、ライブビュー撮影の絞りF値を静止画撮影時より1段分開放側に変更し、S610へ進む。   In step S605, the overall control calculation unit 309 sets the aperture F value for live view (LV) shooting to the same F value as for still image shooting, and proceeds to step S610. In step S606, the overall control calculation unit 309 determines whether the result of the focus determination corresponds to the state value B. If it corresponds to B, the process proceeds to S607; otherwise, the process proceeds to S608. In step S <b> 607, the overall control calculation unit 309 changes the aperture F value for live view shooting from the still image shooting by one stop to the open side, and proceeds to S <b> 610.

S608で全体制御演算部309は、合焦判定の結果が状態値Cに該当するかどうかを判断する。Cに該当する場合、S609に進み、Cでない場合、つまりDの場合にはS611へ移行する。S609で全体制御演算部309は、ライブビュー撮影の絞りF値を静止画撮影時より2段分開放側に変更し、S610へ進む。   In step S608, the overall control calculation unit 309 determines whether the result of the focus determination corresponds to the state value C. In the case of C, the process proceeds to S609, and in the case of not C, that is, in the case of D, the process proceeds to S611. In step S609, the overall control calculation unit 309 changes the aperture F value for live view shooting from the still image shooting to an open side by two stops, and proceeds to step S610.

合焦判定結果が状態値A、B、Cのいずれかに該当する場合にはS610にて、撮像後の静止画像を表示部311の画面に表示する処理が実行された後、図7のS612に進む。一方、合焦判定結果が状態値Dに該当する場合にはS611にて、全体制御演算部309はライブビュー撮影の絞りF値を開放にする。そして図7のS612へ進む。   If the focus determination result corresponds to any one of the state values A, B, and C, in S610, a process of displaying the captured still image on the screen of the display unit 311 is performed, and then, in S612 of FIG. Proceed to. On the other hand, when the focus determination result corresponds to the state value D, in S611, the overall control calculation unit 309 opens the aperture F value for live view shooting. Then, the process proceeds to S612 in FIG.

S612で全体制御演算部309は、ライブビュー撮影用の撮像素子306の露光を開始する。そして、撮像素子306からライブビュー画像の信号が読み出され(S613)、ライブビュー画像が表示部311の画面に表示される(S614)。全体制御演算部309はAF制御を行う(S615)。その後、全体制御演算部309は、ユーザが操作部315により行った操作指示に基づき、連写を終了するかどうかを判断する(S616)。連写を続行すると判断された場合、S601へ戻る。S616で連写終了と判断された場合には一連の処理を終了する。   In step S612, the overall control calculation unit 309 starts exposure of the image sensor 306 for live view shooting. Then, the signal of the live view image is read from the image sensor 306 (S613), and the live view image is displayed on the screen of the display unit 311 (S614). The overall control calculation unit 309 performs AF control (S615). After that, the overall control calculation unit 309 determines whether or not to end the continuous shooting based on the operation instruction given by the user using the operation unit 315 (S616). If it is determined that the continuous shooting is to be continued, the process returns to S601. If it is determined in step S616 that the continuous shooting has been completed, a series of processing ends.

本実施例では、合焦判定結果が状態値BまたはCに該当する場合、ライブビュー撮影時の絞り値が変化する。その分、画像の明るさを静止画像に合わせるために露光時間とISO感度の制御を行う必要がある。このとき全体制御演算部309は、エッジの急峻度の判定結果に応じて、露光時間とISO感度のどちらを優先的に変更するかを決定する。例えば、エッジの急峻度の値が低い場合には、被写体ブレが発生している可能性がある。この場合、全体制御演算部309は露光時間を短く設定し、ISO感度を静止画像の場合と同じ値に設定する。逆にエッジの急峻度の値が高い場合に全体制御演算部309は、露光時間を静止画像の場合と同じに時間に設定し、ISO感度を下げる設定にする。こうすることで、ライブビュー撮影時の位相差AFの合焦判定精度を高くすることが可能となる。   In this embodiment, when the focus determination result corresponds to the state value B or C, the aperture value during live view shooting changes. Accordingly, it is necessary to control the exposure time and the ISO sensitivity in order to adjust the brightness of the image to the still image. At this time, the overall control calculation unit 309 determines which of the exposure time and the ISO sensitivity is preferentially changed according to the determination result of the edge steepness. For example, when the value of the edge steepness is low, there is a possibility that the subject blur has occurred. In this case, the overall control calculation unit 309 sets the exposure time to be short, and sets the ISO sensitivity to the same value as in the case of a still image. Conversely, when the value of the edge steepness is high, the overall control calculation unit 309 sets the exposure time to the same time as in the case of a still image, and sets the ISO sensitivity to be lower. By doing so, it is possible to increase the focus determination accuracy of the phase difference AF during live view shooting.

図8は、静止画表示とライブビュー表示を交互に行う場合のタイミングチャートを示す。期間T1〜T4はそれぞれ露光期間を示す。期間S1、S3は図6のS603の静止画読み出し期間をそれぞれ示し、期間S2、S4は図7のS613のライブビュー(LV)読み出し期間をそれぞれ示す。タイミングチャートには、シャッタの開閉状態を示す。表示期間には、図6のS610の静止画表示と図7のS614のライブビュー表示が交互に行われることを示す。期間D1,D3は、図6のS610の静止画表示期間であり、期間D2、D4は図7のS614のライブビュー表示期間である。合焦判定、絞り制御およびAF制御のタイミングを黒塗り長方形の記号でそれぞれ示す。静止画像の合焦判定およびライブビューの合焦判定のタイミングはそれぞれ、読み出し期間S1〜S4の終了後である。静止画像の合焦判定後に絞り制御が行われ、ライブビューの合焦判定後に絞り制御およびAF制御が行われる。   FIG. 8 shows a timing chart when the still image display and the live view display are performed alternately. Each of the periods T1 to T4 indicates an exposure period. Periods S1 and S3 respectively show the still image readout period of S603 in FIG. 6, and periods S2 and S4 show the live view (LV) readout period of S613 of FIG. 7, respectively. The timing chart shows the open / closed state of the shutter. During the display period, the still image display in S610 in FIG. 6 and the live view display in S614 in FIG. 7 are performed alternately. The periods D1 and D3 are the still image display periods in S610 in FIG. 6, and the periods D2 and D4 are the live view display periods in S614 in FIG. The timing of focus determination, aperture control, and AF control are indicated by black rectangle symbols, respectively. The timings of the still image focus determination and the live view focus determination are after the end of the readout periods S1 to S4, respectively. The aperture control is performed after the focus determination of the still image, and the aperture control and the AF control are performed after the focus determination of the live view.

露光期間T1の終了後、静止画読み出し期間S1にて静止画像の信号が取得される。そして、静止画像の合焦判定処理が行われ、合焦判定結果が図5の状態値A、B、Cのいずれかに該当する場合には期間D1にて静止画表示が行われる。そして、絞り制御が行われる。露光期間T2の終了後、ライブビュー読み出し期間S2にてライブビュー画像の信号が読み出される。期間D2でライブビュー表示が行われる。ライブビューの合焦判定後に絞り制御とAF制御が行われる。   After the end of the exposure period T1, a signal of a still image is obtained in a still image reading period S1. Then, the focus determination processing of the still image is performed, and when the focus determination result corresponds to any of the state values A, B, and C in FIG. 5, the still image is displayed in the period D1. Then, aperture control is performed. After the end of the exposure period T2, a signal of a live view image is read out in a live view readout period S2. Live view display is performed in the period D2. After the focus determination of the live view, the aperture control and the AF control are performed.

図9は、静止画表示とライブビュー表示を交互に表示しない場合のタイミングチャートを示す。各項目は図8と同じであるが、静止画表示は行われない。露光期間T1の終了後、静止画読み出し期間S1にて信号が読み出される。そして、静止画像の合焦判定が行われる。合焦判定結果が図5の状態値Dに該当する場合、静止画表示は行わない。そして、絞りが開放に設定されて、露光期間T2の終了後、ライブビュー読み出し期間S2でライブビュー画像の信号が読み出される。期間D2でライブビュー表示が行われる。ライブビューの合焦判定後に絞り制御とAF制御が行われる。   FIG. 9 shows a timing chart when the still image display and the live view display are not alternately displayed. Each item is the same as in FIG. 8, but no still image is displayed. After the end of the exposure period T1, a signal is read in the still image read period S1. Then, focus determination of the still image is performed. When the focus determination result corresponds to the state value D in FIG. 5, the still image display is not performed. Then, the aperture is set to open, and after the exposure period T2 ends, a signal of a live view image is read in a live view readout period S2. Live view display is performed in the period D2. After the focus determination of the live view, the aperture control and the AF control are performed.

本実施例では、ライブビュー撮影時の絞り制御に関し、図5の合焦判定テーブルと、静止画撮影時の絞りの状態によって判断する。静止画撮影時の画像とライブビュー撮影時の画像とを交互に表示させる場合に露出条件(絞り値)の差を小さくする制御が行われる。これにより、AF連写中の静止画撮影時に絞りを絞った場合においても、表示品質の維持とフレーミング中の追従性を両立させることができる。   In the present embodiment, aperture control during live view shooting is determined based on the focus determination table in FIG. 5 and the aperture state during still image shooting. When an image at the time of shooting a still image and an image at the time of live view shooting are alternately displayed, control for reducing the difference in exposure condition (aperture value) is performed. Thus, even when the aperture is stopped down during still image shooting during AF continuous shooting, it is possible to maintain both display quality and followability during framing.

なお、第1実施例において露出条件として絞り値の差を小さくする制御を示したが、露出条件としては絞り値以外にも露光時間や感度(ISO感度)等の差も小さくするように制御してもよい。つまり、静止画撮影時のプログラム線図とライブビュー撮影時のプログラム線図とを同様の構成とするようにしてもよい。   In the first embodiment, the control for reducing the difference between the aperture values is shown as the exposure condition. However, the exposure condition is controlled so as to reduce the difference between the exposure time and the sensitivity (ISO sensitivity) in addition to the aperture value. You may. That is, the program diagram at the time of still image shooting and the program diagram at the time of live view shooting may have the same configuration.

また、合焦の判定に関しては静止画撮影時およびライブビュー撮影時の両方で行う場合には、それぞれに対して重みづけを行ってもよい。これはライブビュー撮影時の解像度は静止画の解像度と比較して低いために、合焦判定精度としては低い場合がるためで、ライブビュー撮影時の合焦の判定結果の重みを低く設定することが好ましい。   When the focus is determined both at the time of still image shooting and at the time of live view shooting, weighting may be performed for each. This is because the resolution at the time of live view shooting is lower than the resolution of a still image, and thus the focus determination accuracy may be low. Therefore, the weight of the focus determination result at the time of live view shooting is set low. Is preferred.

[第2実施例]
次に本発明の第2実施例を説明する。本実施例では、静止画撮影時の絞りの状態以外に、レンズ部301の焦点距離や被写体距離の違いに応じて、ライブビュー撮影時の絞りを制御する構成について説明する。なお、本実施例において第1実施例と同様の構成要素については既に使用した符号を用いることで、それらの詳細な説明を省略し、主に相違点を説明する。
[Second embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, a configuration will be described in which the aperture during live view shooting is controlled in accordance with differences in the focal length and subject distance of the lens unit 301 in addition to the state of the aperture during still image shooting. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, detailed description thereof will be omitted, and differences will be mainly described.

レンズ部301の焦点距離の違いによって、絞り値が変更された場合の画像の見え方が大きく異なる。例えば、焦点距離の短い広角時に絞り値を2段変更した場合の画像の見え方の変化は小さいが、焦点距離の長い望遠時に絞り値を2段変更した場合には画像の見え方の変化が大きくなる。そこで、本実施例では、レンズ部301の焦点距離に応じて以下の制御を行う。   The way the image looks when the aperture value is changed greatly differs depending on the difference in the focal length of the lens unit 301. For example, when the aperture value is changed by two steps at a wide angle with a short focal length, the change in the appearance of the image is small, but when the aperture value is changed by two steps at a long focal length, the change in the image appearance is small. growing. Therefore, in the present embodiment, the following control is performed according to the focal length of the lens unit 301.

・焦点距離が短い広角側の場合(例えば50mm以下)
全体制御演算部309は、図5の合焦判定結果が状態値Bであると判定したときに、図6のS607のライブビューの絞り制御における絞り値を静止画像の場合よりも2段分開放側に変更する。また全体制御演算部309は、図5の合焦判定結果が状態値Cである判定したときに、図6のS609のライブビューの絞り制御における絞り値を静止画像の場合よりも4段分開放側に変更にする。
-When the focal length is on the wide angle side (for example, 50 mm or less)
When it is determined that the focus determination result in FIG. 5 is the state value B, the overall control calculation unit 309 opens the aperture value in the aperture control of the live view in S607 in FIG. Change to the side. When the in-focus determination result in FIG. 5 is determined to be the state value C, the overall control calculation unit 309 opens the aperture value in the live view aperture control in S609 in FIG. Change to the side.

・焦点距離の長い望遠側の場合
全体制御演算部309は、ライブビューの絞り制御にて第1実施例と同じ処理を行う。
In the case of the telephoto side where the focal length is long, the overall control calculation unit 309 performs the same processing as in the first embodiment by controlling the aperture of the live view.

次に被写体距離の違いについて説明する。撮像装置から被写体までの距離によって、絞り値が変更された場合の画像の見え方が大きく異なる。例えば、被写体距離が大きい場合に絞り値を2段変更した場合の画像の見え方の変化は小さいが、被写体距離が小さい場合に絞り値を2段変更した場合には画像の見え方の変化が大きくなる。そこで本実施例では、被写体距離に応じて以下の制御を行う。   Next, the difference in subject distance will be described. Depending on the distance from the imaging device to the subject, the appearance of the image when the aperture value is changed greatly differs. For example, when the aperture value is changed by two steps when the subject distance is large, the change in the appearance of the image is small, but when the aperture value is changed by two steps when the subject distance is small, the change in the appearance of the image is small. growing. Therefore, in the present embodiment, the following control is performed according to the subject distance.

・被写体距離が大きい場合(例えば3m以上)
全体制御演算部309は、図5の合焦判定結果が状態値Bであると判定したとき、図6のS607のライブビューの絞り制御における絞り値を静止画像の場合よりも2段分開放側に変更する。また全体制御演算部309は、図5の合焦判定結果が状態値Cであると判定したとき、図6のS609のライブビューの絞り制御における絞り値を静止画像の場合よりも4段分開放側に変更する。
-When the subject distance is large (for example, 3 m or more)
When determining that the focus determination result in FIG. 5 is the state value B, the overall control calculation unit 309 sets the aperture value in the live view aperture control in S607 in FIG. Change to When the overall control calculation unit 309 determines that the focus determination result in FIG. 5 is the state value C, the aperture value in the live view aperture control in S609 in FIG. Change to the side.

・被写体距離が小さい場合
全体制御演算部309は、ライブビューの絞り制御にて第1実施例と同じ処理を行う。
When the subject distance is small The overall control calculation unit 309 performs the same processing as that of the first embodiment by controlling the aperture of the live view.

また本実施例では、レンズ部301の焦点距離および被写体距離に応じて以下の制御を行う。
・焦点距離が閾値より長く、かつ、被写体距離が閾値より大きい場合
全体制御演算部309は、図5の合焦判定結果が状態値Bであると判定したとき、図6のS607のライブビューの絞り制御における絞り値を静止画像の場合よりも2段分開放側に変更する。また全体制御演算部309は、図5の合焦判定結果が状態値Cであると判定したとき、図6のS609のライブビューの絞り制御における絞り値を静止画像の場合よりも4段分開放側に変更する。
In the present embodiment, the following control is performed according to the focal length of the lens unit 301 and the subject distance.
When the focal length is longer than the threshold value and the subject distance is larger than the threshold value When the overall control calculation unit 309 determines that the focus determination result in FIG. The aperture value in the aperture control is changed to a two-step opening side compared to the case of a still image. When the overall control calculation unit 309 determines that the focus determination result in FIG. 5 is the state value C, the aperture value in the live view aperture control in S609 in FIG. Change to the side.

・焦点距離が閾値より長く、かつ、被写体距離が閾値以下である場合
全体制御演算部309は、ライブビューの絞り制御にて第1実施例と同じ処理を行う。
When the focal length is longer than the threshold value and the subject distance is equal to or less than the threshold value, the overall control calculation unit 309 performs the same processing as that of the first embodiment in the live view aperture control.

次に図10を参照してモードに応じた合焦判定について説明する。図10Aはフレーミング中の追従性を優先する第1の合焦判定モードにおける合焦判定テーブルを例示する。第1の合焦判定モードは、AFの合焦精度よりも表示更新を優先させるモードである。図10Bはフレーミング中のAF精度を優先する第2の合焦判定モードにおける合焦判定テーブルを例示する。第2の合焦判定モードは、表示更新よりもAFの合焦精度を優先させるモードである。全体制御演算部309は、モードごとに合焦判定テーブルを切り替える。各信頼性の段階や状態値AからDについては図5で説明した通りである。   Next, focus determination according to the mode will be described with reference to FIG. FIG. 10A illustrates a focus determination table in the first focus determination mode in which priority is given to tracking during framing. The first focus determination mode is a mode in which display updating is prioritized over AF focusing accuracy. FIG. 10B illustrates a focus determination table in the second focus determination mode in which the priority is given to the AF accuracy during framing. The second focus determination mode is a mode in which the focus accuracy of AF is given priority over display update. The overall control calculation unit 309 switches the focus determination table for each mode. The reliability levels and the state values A to D are as described in FIG.

図10Aに示す第1の合焦判定モードの場合、可能な限り静止画像とライブビュー画像の交互表示が行われるようにするために、図5に比べて合焦判定テーブルにて状態値Dの数が少なくなっている。つまり、相関演算結果が「大」であって、かつエッジの急峻度が「中」である場合と、相関演算結果が「中」であって、かつエッジの急峻度が「低」である場合に、状態値Cと判定される。よって、静止画像とライブビュー画像が交互に表示される頻度が相対的に高くなる。   In the case of the first focus determination mode shown in FIG. 10A, in order to alternately display a still image and a live view image as much as possible, the state value D is compared with the focus determination table in FIG. The number is low. That is, the case where the correlation calculation result is “large” and the steepness of the edge is “medium”, and the case where the correlation calculation result is “medium” and the steepness of the edge is “low”. Is determined as the state value C. Therefore, the frequency at which the still image and the live view image are alternately displayed becomes relatively high.

図10Bに示す第2の合焦判定モードの場合、AF精度を優先させるために、図5に比べて合焦判定テーブルにて状態値Dの数が多くなっている。つまり、相関演算結果が「大」であって、かつエッジの急峻度が「高」である場合と、相関演算結果とエッジの急峻度が「中」である場合と、相関演算結果が「小」であって、かつエッジの急峻度が「低」である場合に、状態値Dと判定される。よって、ライブビュー画像が表示される頻度が相対的に高くなる。   In the case of the second focus determination mode shown in FIG. 10B, in order to give priority to AF accuracy, the number of state values D is larger in the focus determination table than in FIG. That is, when the correlation calculation result is “large” and the steepness of the edge is “high”, when the correlation calculation result and the steepness of the edge are “medium”, and when the correlation calculation result is “small”. , And the steepness of the edge is “low”, it is determined to be the state value D. Therefore, the frequency at which the live view image is displayed becomes relatively high.

本実施例では、レンズ部301の焦点距離や被写体距離に応じた絞り制御によって撮像素子306の露出状態が変更される。これにより、AF連写中の静止画撮影時に絞りを絞った場合においても、撮影条件や撮影モードに応じて表示品質の維持とフレーミング中の追従性を両立させることが可能である。   In the present embodiment, the exposure state of the image sensor 306 is changed by aperture control according to the focal length of the lens unit 301 and the subject distance. Thus, even when the aperture is stopped down during still image shooting during AF continuous shooting, it is possible to maintain both display quality and follow-up during framing in accordance with shooting conditions and shooting modes.

[第3実施例]
図11は、本発明の第3実施例に係る複数の撮影レンズを交換可能なカメラ本体と撮影レンズとからなるカメラシステムの形態を持つ撮像装置の構成を示すブロック図である。本実施例のカメラシステム(撮像装置)はレンズ交換式一眼レフカメラであり、撮影レンズからなるレンズユニット1100とカメラ本体1120とを有する。レンズユニット1100は、図中央の点線で示されるマウントMを介して、カメラ本体1120に装着される。
[Third embodiment]
FIG. 11 is a block diagram showing a configuration of an image pickup apparatus having a form of a camera system including a camera main body and a photographing lens which can exchange a plurality of photographing lenses according to a third embodiment of the present invention. The camera system (imaging apparatus) of the present embodiment is a single-lens reflex camera with interchangeable lenses, and includes a lens unit 1100 including a taking lens and a camera body 1120. The lens unit 1100 is mounted on the camera body 1120 via a mount M indicated by a dotted line in the center of the figure.

レンズユニット1100は、結像光学系(第1レンズ群1101、絞り1102、第2レンズ群1103、第3レンズ群(フォーカスレンズ1104))、および駆動/制御系を有する。第1レンズ群1101は、レンズユニット1100の先端に配置され、光軸方向OAに移動可能に保持される。絞り1102は、撮影時の光量を調節する機能のほか、静止画撮影時には露出時間を制御するメカニカルシャッターとしての機能を有する。絞り1102および第2レンズ群1103は、一体で光軸方向OAに移動可能であり、第1レンズ群1101と連動して移動することによりズーム機能を実現する。フォーカスレンズ1104も光軸方向OAに移動可能であり、位置に応じてレンズユニット1100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ1104の光軸方向OAにおける位置を制御することにより、レンズユニット1100の合焦距離を調節する焦点調節を行うことができる。   The lens unit 1100 has an imaging optical system (first lens group 1101, aperture 1102, second lens group 1103, third lens group (focus lens 1104)), and a drive / control system. The first lens group 1101 is arranged at the tip of the lens unit 1100, and is held movably in the optical axis direction OA. The aperture 1102 has a function as a mechanical shutter for controlling the exposure time when photographing a still image, in addition to a function of adjusting the amount of light during photographing. The diaphragm 1102 and the second lens group 1103 are integrally movable in the optical axis direction OA, and realize a zoom function by moving in conjunction with the first lens group 1101. The focus lens 1104 is also movable in the optical axis direction OA, and the subject distance (focusing distance) at which the lens unit 1100 focuses changes according to the position. By controlling the position of the focus lens 1104 in the optical axis direction OA, focus adjustment for adjusting the focal distance of the lens unit 1100 can be performed.

駆動/制御系は、ズームアクチュエータ1111、絞りアクチュエータ1112、フォーカスアクチュエータ1113、ズーム駆動回路1114、絞り駆動回路1115、フォーカス駆動回路1116、レンズMPU1117(プロセッサ)、レンズメモリ1118を有する。   The drive / control system includes a zoom actuator 1111, an aperture actuator 1112, a focus actuator 1113, a zoom drive circuit 1114, an aperture drive circuit 1115, a focus drive circuit 1116, a lens MPU 1117 (processor), and a lens memory 1118.

ズーム駆動回路1114は、ズームアクチュエータ1111を用いて第1レンズ群1101および第2レンズ群1103を光軸方向OAに駆動し、レンズユニット1100の光学系の画角を制御する。絞り駆動回路1115は、絞りアクチュエータ1112を用いて絞り1102を駆動し、絞り1102の開口径や開閉動作を制御する。フォーカス駆動回路1116は、フォーカスアクチュエータ1113を用いてフォーカスレンズ1104を光軸方向OAに駆動し、レンズユニット1100の光学系の合焦距離を制御する。また、フォーカス駆動回路1116は、フォーカスアクチュエータ1113を用いてフォーカスレンズ1104の現在位置を検出する。   The zoom drive circuit 1114 drives the first lens group 1101 and the second lens group 1103 in the optical axis direction OA using the zoom actuator 1111 and controls the angle of view of the optical system of the lens unit 1100. An aperture driving circuit 1115 drives the aperture 1102 using an aperture actuator 1112, and controls the opening diameter and opening / closing operation of the aperture 1102. The focus drive circuit 1116 drives the focus lens 1104 in the optical axis direction OA using the focus actuator 1113, and controls the focusing distance of the optical system of the lens unit 1100. The focus drive circuit 1116 detects the current position of the focus lens 1104 using the focus actuator 1113.

レンズMPU1117は、レンズユニット1100に係る全体的な演算、制御を行い、ズーム駆動回路1114、絞り駆動回路1115、フォーカス駆動回路1116を制御する。また、レンズMPU1117は、マウントMを通じてカメラMPU1125と接続され、コマンドやデータを通信する。例えば、レンズMPU1117は、フォーカスレンズ1104の位置を検出し、カメラMPU1125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ1104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。また、レンズMPU1117は、カメラMPU1125からの要求に応じて、ズーム駆動回路1114、絞り駆動回路1115、フォーカス駆動回路1116を制御する。レンズメモリ1118には、撮像面位相差AFに必要な光学情報が予め記憶されている。レンズMPU1117は、例えば内蔵する不揮発性メモリやレンズメモリ1118に記憶されているプログラムを実行することで、レンズユニット1100の動作を制御する。   The lens MPU 1117 performs overall calculations and controls related to the lens unit 1100, and controls the zoom drive circuit 1114, the aperture drive circuit 1115, and the focus drive circuit 1116. The lens MPU 1117 is connected to the camera MPU 1125 via the mount M, and communicates commands and data. For example, the lens MPU 1117 detects the position of the focus lens 1104, and notifies lens position information in response to a request from the camera MPU 1125. The lens position information includes the position of the focus lens 1104 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moving, and the optical axis of the lens frame that restricts the light flux of the exit pupil. Includes information such as position and diameter in direction OA. The lens MPU 1117 controls the zoom drive circuit 1114, the aperture drive circuit 1115, and the focus drive circuit 1116 in response to a request from the camera MPU 1125. Optical information necessary for the imaging surface phase difference AF is stored in the lens memory 1118 in advance. The lens MPU 1117 controls the operation of the lens unit 1100, for example, by executing a program stored in a built-in nonvolatile memory or the lens memory 1118.

カメラ本体1120は、光学系(光学ローパスフィルタ1121および撮像素子1122)と、駆動/制御系とを有する。光学ローパスフィルタ1121は、撮像画像の偽色やモアレを軽減する。撮像素子1122は、CMOSイメージセンサと周辺回路で構成され、横方向m画素、縦方向n画素(n,mは2以上の整数)が配置される。本実施例の撮像素子1122は、瞳分割機能を有し、視差を持つ画像データを用いた撮像面位相差AFが可能である。   The camera body 1120 has an optical system (optical low-pass filter 1121 and image sensor 1122) and a drive / control system. The optical low-pass filter 1121 reduces false colors and moire of a captured image. The image sensor 1122 is composed of a CMOS image sensor and peripheral circuits, and has m pixels in the horizontal direction and n pixels in the vertical direction (n and m are integers of 2 or more). The image sensor 1122 of the present embodiment has a pupil division function, and is capable of performing an imaging plane phase difference AF using image data having parallax.

駆動/制御系は、撮像素子駆動回路1123、画像処理回路1124、カメラMPU1125(プロセッサ)、表示部1126、操作スイッチ群1127、メモリ1128、撮像面位相差焦点検出部1129を有する。画像処理回路1124は、撮像素子1122が出力する画像データから、焦点検出信号と、表示・記録用の画像データを生成する。   The drive / control system includes an imaging element driving circuit 1123, an image processing circuit 1124, a camera MPU 1125 (processor), a display unit 1126, an operation switch group 1127, a memory 1128, and an imaging plane phase difference focus detection unit 1129. The image processing circuit 1124 generates a focus detection signal and image data for display / recording from the image data output from the image sensor 1122.

撮像素子駆動回路1123は、撮像素子1122の動作を制御すると共に、取得した画像データをA/D変換してカメラMPU1125に送信する。画像処理回路1124は、撮像素子1122が取得した画像データに対して、γ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。   The image sensor driving circuit 1123 controls the operation of the image sensor 1122, A / D converts the acquired image data, and transmits the data to the camera MPU 1125. The image processing circuit 1124 performs general image processing performed by a digital camera, such as γ conversion, white balance adjustment processing, color interpolation processing, and compression encoding processing, on the image data acquired by the image sensor 1122.

カメラMPU1125は、カメラ本体1120に係る全体的な演算、制御を行い、撮像素子駆動回路1123、画像処理回路1124、表示部1126、操作スイッチ群1127、メモリ1128、撮像面位相差焦点検出部1129を制御する。カメラMPU1125は、マウントMを介してレンズMPU1117と接続され、レンズMPU1117とコマンドやデータを通信する。カメラMPU1125は、レンズMPU1117に対し、レンズ位置の取得要求や、所定の駆動量での絞り、フォーカスレンズ、ズーム駆動要求や、レンズユニット1100に固有の光学情報の取得要求などを発行する。カメラMPU1125には、カメラ本体1120の動作を制御するプログラムを格納したROM1125a、変数を記憶するRAM1125b、諸パラメータを記憶するEEPROM1125cが内蔵されている。   The camera MPU 1125 performs overall calculations and controls related to the camera body 1120, and controls the image sensor driving circuit 1123, the image processing circuit 1124, the display unit 1126, the operation switch group 1127, the memory 1128, and the imaging plane phase difference focus detection unit 1129. Control. The camera MPU 1125 is connected to the lens MPU 1117 via the mount M, and communicates commands and data with the lens MPU 1117. The camera MPU 1125 issues, to the lens MPU 1117, a request for obtaining a lens position, a request for driving an aperture, a focus lens, and a zoom with a predetermined drive amount, a request for obtaining optical information unique to the lens unit 1100, and the like. The camera MPU 1125 includes a ROM 1125a storing a program for controlling the operation of the camera body 1120, a RAM 1125b storing variables, and an EEPROM 1125c storing various parameters.

表示部1126は、LCDなどから構成され、カメラ本体1120の撮影モードに関する情報、撮影前のプレビュー画像および撮影後の確認用画像、焦点検出時の合焦状態画像などを表示する。操作スイッチ群1127は、電源スイッチ、レリーズ(撮像トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。メモリ1128は、着脱可能なフラッシュメモリで、撮影済み画像を記録する。   The display unit 1126 is configured with an LCD or the like, and displays information on a shooting mode of the camera body 1120, a preview image before shooting, a confirmation image after shooting, an in-focus state image at the time of focus detection, and the like. The operation switch group 1127 includes a power switch, a release (imaging trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 1128 is a detachable flash memory and records a photographed image.

撮像面位相差焦点検出部1129は、画像処理回路1124により得られる撮像面位相差AF信号に基づき、撮像面位相差AFによる焦点検出処理を行う。具体的には、画像処理回路1124が撮像面位相差AF信号として撮影光学系の一対の瞳領域を通過する光束で形成される一対の像データを生成し、撮像面位相差焦点検出部1129がこの一対の像データのずれ量に基づいて焦点ずれ量(デフォーカス量)を検出する。このように、本実施例の撮像面位相差焦点検出部1129は、専用のAFセンサを用いず、撮像素子1122の出力に基づく撮像面位相差AFを行う。   The imaging plane phase difference focus detection unit 1129 performs focus detection processing by the imaging plane phase difference AF based on the imaging plane phase difference AF signal obtained by the image processing circuit 1124. Specifically, the image processing circuit 1124 generates a pair of image data formed by a light beam passing through a pair of pupil regions of the imaging optical system as an imaging plane phase difference AF signal, and the imaging plane phase difference focus detection unit 1129 generates The amount of defocus (the amount of defocus) is detected based on the amount of deviation between the pair of image data. As described above, the imaging plane phase difference focus detection unit 1129 of the present embodiment performs the imaging plane phase difference AF based on the output of the imaging element 1122 without using a dedicated AF sensor.

図12を参照して、撮像面位相差焦点検出部1129の動作について詳細に説明する。図12は、本実施例に係る撮像素子1122の画素配列を示す図であり、2次元C−MOSエリアセンサの縦(Y方向)6行と横(X方向)8列の範囲を、レンズユニット1100側から観察した状態を示している。撮像素子1122には、ベイヤー配列のカラーフィルタが設けられている。本実施例のベイヤー配列は、例えば、奇数行の画素には、左から順に緑(G)と赤(R)のカラーフィルタがX方向に交互に配置され、偶数行の画素には、左から順に青(B)と緑(G)のカラーフィルタがX方向に交互に配置されている。画素1211において、符号1211iが指す円はオンチップマイクロレンズを表し、オンチップマイクロレンズ1211iの内側に配置された複数の矩形(符号1211a,1211b)はそれぞれ光電変換部を表している。   The operation of the imaging plane phase difference focus detection unit 1129 will be described in detail with reference to FIG. FIG. 12 is a diagram illustrating a pixel array of the image sensor 1122 according to the present embodiment. The state observed from the 1100 side is shown. The image sensor 1122 is provided with a Bayer array color filter. In the Bayer array according to the present embodiment, for example, green (G) and red (R) color filters are alternately arranged in the X direction in order from the left for pixels in the odd rows, and pixels for the even rows are arranged in the X direction from the left. In this order, blue (B) and green (G) color filters are alternately arranged in the X direction. In the pixel 1211, a circle indicated by a reference numeral 1211i represents an on-chip microlens, and a plurality of rectangles (reference numerals 1211a and 1211b) arranged inside the on-chip microlens 1211i each represent a photoelectric conversion unit.

本実施例の撮像素子1122は、撮影光学系の異なる瞳部分領域を各々通過する光束を受光する第1と第2の焦点検出画素を有する。なお、本実施例では、撮像素子1122中のすべての画素の光電変換部はX方向に2分割され、分割された一方の領域の光電変換信号と、2つの光電変換信号の和とは、独立して読み出しできる構成となっている。しかしながら、X方向、Y方向に複数分割された構成であってもよい。そして、独立して読み出しされた信号に関して、2つの光電変換信号の和と分割された一方の領域の光電変換信号との差分をとることにより、もう一方の光電変換領域で得られる信号に相当する信号を得ることができる。これらの分割された領域の光電変換信号は、後述する方法で位相差式焦点検出に用いられるほか、視差情報を有した複数画像から構成される3D(3−Dimensional)画像を生成することもできる。一方で、2つの光電変換信号の和は、通常の撮影画像として用いられる。   The image sensor 1122 of this embodiment has first and second focus detection pixels that receive light beams that pass through different pupil partial regions of the imaging optical system. In this embodiment, the photoelectric conversion units of all the pixels in the image sensor 1122 are divided into two in the X direction, and the photoelectric conversion signal of one of the divided areas and the sum of the two photoelectric conversion signals are independent. And read it out. However, the configuration may be divided into a plurality of parts in the X direction and the Y direction. Then, regarding the signal read out independently, by taking the difference between the sum of the two photoelectric conversion signals and the photoelectric conversion signal in one of the divided areas, the signal corresponds to the signal obtained in the other photoelectric conversion area. A signal can be obtained. The photoelectric conversion signals of these divided areas are used for phase difference focus detection by a method described later, and a 3D (3-Dimensional) image composed of a plurality of images having parallax information can also be generated. . On the other hand, the sum of the two photoelectric conversion signals is used as a normal captured image.

ここで、撮像面位相差AF信号について説明する。本実施例においては、図12のオンチップマイクロレンズ1211iと、分割された光電変換部1211a,1211bで撮影光学系の射出光束を瞳分割する。そして、同一画素行に配置された所定範囲内の複数の画素1211について、光電変換部1211aの出力をつなぎ合わせて編成したものを撮像面位相差AF用のA像(AF用A像)とする。また、光電変換部1211bの出力をつなぎ合わせて編成したものを撮像面位相差AF用のB像(AF用B像)とする。光電変換部1211a,1211bの出力は、カラーフィルタの単位配列に含まれる緑、赤、青、緑の出力を加算して算出した疑似的な輝度(Y)信号を用いる。但し、赤、青、緑の色ごとに、AF用A像、AF用B像を編成してもよい。このように生成したAF用A像とAF用B像の相対的な像ずれ量を相関演算により検出することで、所定領域の焦点ずれ量(デフォーカス量)を検出することができる。本実施例では、一方の光電変換部の出力と全光電変換部の出力の和を撮像素子1122から読み出すものとする。例えば光電変換部1211aの出力と、光電変換部1211a,1211bの出力の和とが読み出される場合、光電変換部1211bの出力は、和から光電変換部1211aの出力を減じることで取得される。これにより、AF用A像とAF用B像の両方を得ることができ、撮像面位相差AFが実現できる。このような撮像素子は、例えば特開2004−134867号公報に開示されるように公知であるため、これ以上の詳細な説明は省略する。   Here, the imaging plane phase difference AF signal will be described. In the present embodiment, the on-chip micro lens 1211i of FIG. 12 and the divided photoelectric conversion units 1211a and 1211b pupil-divide the emitted light beam of the imaging optical system. Then, for a plurality of pixels 1211 within a predetermined range arranged in the same pixel row, an image formed by connecting the outputs of the photoelectric conversion units 1211a to form an A image for the imaging surface phase difference AF (A image for AF). . A knitted image obtained by connecting the outputs of the photoelectric conversion units 1211b is referred to as a B image for the imaging surface phase difference AF (B image for AF). As the outputs of the photoelectric conversion units 1211a and 1211b, pseudo luminance (Y) signals calculated by adding the green, red, blue, and green outputs included in the unit array of the color filters are used. However, the A image for AF and the B image for AF may be formed for each of the colors red, blue, and green. By detecting the relative image shift amount between the AF A image and the AF B image generated by the correlation calculation, it is possible to detect the defocus amount (defocus amount) in a predetermined area. In this embodiment, the sum of the output of one photoelectric conversion unit and the output of all photoelectric conversion units is read from the image sensor 1122. For example, when the output of the photoelectric conversion unit 1211a and the sum of the outputs of the photoelectric conversion units 1211a and 1211b are read, the output of the photoelectric conversion unit 1211b is obtained by subtracting the output of the photoelectric conversion unit 1211a from the sum. Thereby, both the A image for AF and the B image for AF can be obtained, and the imaging surface phase difference AF can be realized. Such an image sensor is known as disclosed in, for example, Japanese Patent Application Laid-Open No. 2004-134867, and therefore, further detailed description will be omitted.

なお、ここでは一例として水平方向に射出瞳を2分割する構成を説明したが、撮像素子1122中の一部の画素については垂直方向に射出瞳を2分割する構成としてもよい。また、水平および垂直の両方向に射出瞳を分割する構成としてもよい。垂直方向に射出瞳を分割する画素を設けることにより、水平だけでなく垂直方向の被写体のコントラストに対応した撮像面位相差AFが可能となる。   Here, the configuration in which the exit pupil is divided into two in the horizontal direction has been described as an example, but the configuration may be such that the exit pupil is divided into two in the vertical direction for some pixels in the image sensor 1122. Further, the exit pupil may be divided in both the horizontal and vertical directions. By providing a pixel that divides the exit pupil in the vertical direction, it is possible to perform the imaging surface phase difference AF corresponding to the contrast of the subject not only in the horizontal direction but also in the vertical direction.

以上説明したように、撮像素子1122は、撮像の機能だけではなく、焦点検出装置としての機能も有している。なお、焦点検出方法としては、射出瞳を分割した光束を受光する焦点検出用画素を備えているため、撮像面位相差AFを行うことが可能である。   As described above, the image sensor 1122 has not only a function of imaging but also a function as a focus detection device. In addition, as a focus detection method, since a focus detection pixel that receives a light beam obtained by dividing the exit pupil is provided, it is possible to perform the imaging surface phase difference AF.

図13は、本発明の第3実施例に係るカメラ本体1120が実行する焦点検出処理、撮像処理、および表示処理を説明するフローチャートである。本フローチャートにおいて、各ステップの処理は、特に断らない限り、カメラMPU1125がROM1125aに格納されたプログラムに従ってカメラ本体1120の各部を制御したりレンズMPU1117と通信したりすることにより実現される。なお、以降の説明では、撮像装置が表示部1126に表示用の画像データを逐次表示するライブビュー(LV)状態から撮像を行うLV撮影を実行する際の動作について説明する。   FIG. 13 is a flowchart illustrating focus detection processing, imaging processing, and display processing performed by the camera body 1120 according to the third embodiment of the present invention. In this flowchart, the processing of each step is realized by the camera MPU 1125 controlling each unit of the camera main body 1120 and communicating with the lens MPU 1117 according to a program stored in the ROM 1125a, unless otherwise specified. In the following description, an operation will be described in which the imaging apparatus performs LV imaging in which imaging is performed from a live view (LV) state in which image data for display is sequentially displayed on the display unit 1126.

S701で、カメラMPU1125は、撮像素子駆動回路1123および撮像素子1122の駆動を制御し、被写体を撮像することで撮像データを取得する。ここでは、LV表示用の動画撮影のための駆動動作であるため、LV表示用のフレームレートに応じた時間の電荷蓄積と読み出しを行う、いわゆる電子シャッタを用いた撮影を行う。このLV表示としては、撮影者(ユーザ)が撮像範囲や撮影条件の確認を行うことを主たる目的としており、例えば、30フレーム/秒(撮像間隔33.3ms)や60フレーム/秒(撮像間隔16.6ms)であればよい。なお、S701の処理において、初期値設定動作として、後述する交互表示フラグを0として初期化する。   In step S701, the camera MPU 1125 controls the driving of the image sensor driving circuit 1123 and the image sensor 1122, and acquires image data by imaging the subject. Here, since the driving operation is for photographing a moving image for LV display, photographing using a so-called electronic shutter is performed in which charge accumulation and readout are performed for a time corresponding to the frame rate for LV display. The main purpose of the LV display is to allow the photographer (user) to confirm the imaging range and the imaging conditions, for example, 30 frames / second (imaging interval of 33.3 ms) and 60 frames / second (imaging interval of 16 frames). .6 ms). In the process of S701, as an initial value setting operation, an after-mentioned alternate display flag is initialized to 0.

次に、S702で、カメラMPU1125は、S701で得られた撮像データのうち、撮像素子の焦点検出領域に含まれる第1焦点検出画素と第2焦点検出画素から得られる焦点検出データを取得する。また、カメラMPU1125は、撮像信号を生成し、画像処理回路1124で色補間処理などを適用して得られる画像データを取得する。このように、1回の撮像により、画像データ(画像信号)と、焦点検出データ(焦点検出信号)とを取得することができる。なお、撮像画素と、第1焦点検出画素、第2焦点検出画素を個別の画素構成とした場合には、焦点検出用画素の補完処理などを行って画像データを取得する。なおカメラMPU1125は、S702の処理で得られた画像信号(第2の画像信号)を用いて、設定された撮影条件においてフリッカの発生有無を検出するフリッカ検知を実施する。本実施例では、カメラ本体1120の電源起動時やユーザによる手動操作に応じて実行されるフリッカ検知結果をメモリ1128に記録しておき、当該フリッカ検知結果に応じて、後述する交互表示の実行有無を判定する。なお、フリッカ検知の方法は公知の方法であればどのようなものを採用してもよい。例えば、本実施例では、フリッカの光量変化周期と特徴点の位置を検出することでフリッカ検知を実行する(例えば、特開2015−220673号公報を参照)が、これに限定されるものではない。例えば、画像信号に対応した画面全体に発生している明暗差を抽出し、抽出した明暗差に関する情報とカメラ本体1120の内部に予め格納されているフリッカ情報とを比較することで、フリッカ検知を実行する構成であればよい。   Next, in step S702, the camera MPU 1125 obtains focus detection data obtained from the first focus detection pixel and the second focus detection pixel included in the focus detection area of the image sensor out of the imaging data obtained in step S701. Further, the camera MPU 1125 generates an imaging signal, and acquires image data obtained by applying a color interpolation process or the like in the image processing circuit 1124. In this way, image data (image signal) and focus detection data (focus detection signal) can be acquired by one image capturing. When the image pickup pixel, the first focus detection pixel, and the second focus detection pixel are configured as individual pixels, image data is obtained by performing a process of complementing the focus detection pixels and the like. Note that the camera MPU 1125 performs flicker detection for detecting whether or not flicker has occurred under set shooting conditions, using the image signal (second image signal) obtained in the process of S702. In the present embodiment, a flicker detection result executed when the power of the camera body 1120 is turned on or in response to a manual operation by a user is recorded in the memory 1128. Is determined. Note that any known method of flicker detection may be employed. For example, in the present embodiment, flicker detection is performed by detecting a flicker light amount change cycle and a position of a feature point (see, for example, Japanese Patent Application Laid-Open No. 2015-220673), but is not limited thereto. . For example, flicker detection is performed by extracting a brightness difference occurring over the entire screen corresponding to the image signal, and comparing the extracted information on the brightness difference with flicker information stored in advance in the camera body 1120. Any configuration may be used as long as it is executed.

次に、S800で、カメラMPU1125は、画像処理回路1124を制御して、S702の処理で得られた画像信号(第2の画像信号)に基づいてLV表示用の画像(LV画像)を生成し、表示部1126に表示する。なお、LV表示用の画像は、例えば表示部1126の解像度に合わせた縮小画像であり、S702の処理で画像データを生成する際に画像処理回路1124で縮小処理を実施する。そして、カメラMPU1125は、当該縮小処理後のLV画像(第2の画像)を表示部1126に表示させる。上述の通り、LV表示中は所定のフレームレートで被写体の撮像と逐次表示が行われるため、表示部1126を通じてユーザは撮影時の構図や露出条件の調整などを行うことができる。   Next, in S800, the camera MPU 1125 controls the image processing circuit 1124 to generate an image for LV display (LV image) based on the image signal (second image signal) obtained in the process of S702. , On the display unit 1126. The image for LV display is, for example, a reduced image corresponding to the resolution of the display unit 1126, and the image processing circuit 1124 performs a reduction process when generating image data in the process of S702. Then, the camera MPU 1125 causes the display unit 1126 to display the LV image (second image) after the reduction processing. As described above, during LV display, imaging of a subject and sequential display are performed at a predetermined frame rate, so that the user can adjust the composition at the time of shooting, exposure conditions, and the like through the display unit 1126.

なお、S800で、カメラMPU1125は、S702で取得した画像信号(第2の画像信号)からLV画像(第2の画像)を生成する際に、後述する交互表示用の静止画像(第3の画像)と交互表示を行うか否かに応じて異なる処理を実行する。交互表示を行う場合は、第2の画像と第3の画像との差が少なくなるような処理を実行して、第2の画像信号を生成する。これにより、異なる露出条件や信号読出し条件で取得した第3の画像と第2の画像を用いた表示を行う際に、違和感の少ない表示が可能となる。S800の処理の詳細については後述する。なお、以降の説明では、後述する第1の画像信号に基づいて記録用の静止画像(第1の画像)と交互表示用の静止画像(第3の画像)を生成し、第2の画像信号に基づいてLV画像(第2の画像)を生成する。   In step S800, the camera MPU 1125 generates an LV image (second image) from the image signal (second image signal) acquired in step S702, and generates a still image for alternate display (third image) described later. ) And different processes are executed depending on whether or not to perform the alternate display. When performing the alternate display, a process is performed to reduce the difference between the second image and the third image to generate a second image signal. Accordingly, when performing display using the third image and the second image acquired under different exposure conditions and signal readout conditions, it is possible to perform display with less discomfort. Details of the processing in S800 will be described later. In the following description, a still image for recording (first image) and a still image for alternate display (third image) are generated based on a first image signal described later, and a second image signal is generated. , An LV image (second image) is generated.

次に、S703で、カメラMPU1125は、S702で取得した焦点検出領域に対応する焦点検出データを用いて、デフォーカス量および方向を焦点検出領域ごとに求める。本実施例では、カメラMPU1125が焦点検出用の像信号の生成と、焦点検出用信号のずれ量(位相差)の算出と、算出したずれ量からデフォーカス量と方向を求める処理を実施する。カメラMPU1125は、焦点検出用の像信号を生成する際に、第2の画像信号を生成する際に行う信号処理とは異なる処理(例えばゲイン調整、ローパス処理など)を行う。   Next, in step S703, the camera MPU 1125 obtains a defocus amount and a direction for each focus detection area using the focus detection data corresponding to the focus detection area acquired in step S702. In the present embodiment, the camera MPU 1125 performs processing for generating an image signal for focus detection, calculating a shift amount (phase difference) of the focus detection signal, and obtaining a defocus amount and a direction from the calculated shift amount. When generating an image signal for focus detection, the camera MPU 1125 performs processing (eg, gain adjustment, low-pass processing, etc.) different from signal processing performed when generating the second image signal.

表示に用いる第2の画像の元データである第2の画像信号は、表示部1126で撮像範囲の構図、色、明るさ、ボケ具合などの確認が可能であることが求められるため、ゲイン処理により一部の信号が飽和してしまう場合がある。一方で、焦点検出用の像信号は、飽和信号を含まない方が、高精度な焦点検出を行うことができる。また、第2の画像は、後述する交互表示に用いる静止画像に対応させた画像処理を行うため、焦点検出を行うために十分なコントラストが確保できない、あるいは、ローパス処理などにより高周波成分の信号を取得できない場合がある。そこで、S703の処理でカメラMPU1125は、第2の画像を生成する際とは異なる処理を第2の画像信号に対して施すことにより、コントラストや高周波成分の信号を取得可能にし、焦点検出に適した焦点検出用の像信号を生成する。   The second image signal, which is the original data of the second image used for display, is required to be able to confirm the composition, color, brightness, blur state, and the like of the imaging range on the display unit 1126. , Some signals may be saturated. On the other hand, when the image signal for focus detection does not include a saturation signal, highly accurate focus detection can be performed. In addition, since the second image is subjected to image processing corresponding to a still image used for alternate display, which will be described later, sufficient contrast cannot be secured to perform focus detection, or a signal of a high-frequency component cannot be obtained by low-pass processing or the like. May not be available. Therefore, in the process of S703, the camera MPU 1125 performs a process different from the process of generating the second image on the second image signal, thereby enabling acquisition of a signal of a contrast or a high-frequency component, which is suitable for focus detection. Then, an image signal for focus detection is generated.

次に、S704でカメラMPU1125は、撮影準備開始を示すスイッチであるSW1のオン/オフを検出する。操作スイッチ群1127の一つであるレリーズ(撮像トリガ)スイッチは、当該レリーズスイッチの押し込み量に応じて、2段階のオン/オフを検出することが可能である。上述のSW1のオン/オフは、レリーズ(撮像トリガ)スイッチの1段階目のオン/オフに相当し、撮影準備開始を示す。   Next, in step S704, the camera MPU 1125 detects ON / OFF of SW1, which is a switch indicating the start of shooting preparation. A release (imaging trigger) switch, which is one of the operation switches 1127, can detect two stages of on / off in accordance with the amount of depression of the release switch. The ON / OFF of SW1 described above corresponds to the first ON / OFF of a release (imaging trigger) switch, and indicates the start of shooting preparation.

次に、S704で、SW1のオンが検出されない(あるいはオフが検出された)場合に、カメラMPU1125は、処理をS709に進め、操作スイッチ群1127に含まれるメインスイッチがオフされたか否かを判別する。一方、S704でSW1のオンが検出されると、カメラMPU1125は、処理をS705に進め、合焦させる焦点検出領域を設定(選択)する。ここでは、ユーザが指示した焦点検出領域を設定してもよいし、S704の処理で得られた複数の焦点検出領域のデフォーカス量の情報や焦点検出領域の撮像範囲中心からの距離などの情報に基づいて、カメラMPU1125が自動的に設定してもよい。なお、一般的に、ユーザが撮影を意図する被写体は、撮影距離の短い位置に存在する確率が高く、また撮像範囲の中央付近に存在する確率が高い。カメラMPU1125は、例えば複数の被写体が存在する場合に、これらの条件を考慮して適切と考えられる焦点検出領域を自動的に設定する。また、カメラMPU1125は、例えば、主被写体を判定できる被写体と背景とを判別できる場合に、当該主被写体が存在する領域を焦点領域として設定する。   Next, in step S704, if the switch SW1 is not detected to be on (or the switch is detected to be off), the camera MPU 1125 advances the process to step S709, and determines whether the main switch included in the operation switch group 1127 has been turned off. I do. On the other hand, if SW1 is detected to be on in S704, the camera MPU 1125 advances the process to S705, and sets (selects) a focus detection area to be focused. Here, the focus detection area designated by the user may be set, or information such as the information on the defocus amounts of the plurality of focus detection areas obtained in the processing of S704 and the distance from the center of the imaging range of the focus detection area. May be automatically set by the camera MPU 1125 based on the. In general, a subject that the user intends to photograph has a high probability of being located at a position where the photographing distance is short, and has a high probability of being located near the center of the imaging range. For example, when there are a plurality of subjects, the camera MPU 1125 automatically sets a focus detection area that is considered appropriate in consideration of these conditions. In addition, for example, when it is possible to determine a subject from which a main subject can be determined and a background, the camera MPU 1125 sets an area where the main subject exists as a focus area.

次に、S706でカメラMPU1125は、選択した焦点検出領域で検出されたデフォーカス量に基づき、レンズ駆動を行う。なお、検出されたデフォーカス量が所定の閾値よりも小さい場合は、必ずしもレンズ駆動を行わない構成であれば、頻繁に必要がないレンズ駆動がされることを抑制することが出来る。   Next, in step S706, the camera MPU 1125 drives the lens based on the defocus amount detected in the selected focus detection area. When the detected defocus amount is smaller than the predetermined threshold, if the lens drive is not always performed, it is possible to suppress the lens drive that is not required frequently.

次に、S707で、カメラMPU1125は、撮像開始指示を示すスイッチであるSW2のオン/オフを検出する。前述したように、レリーズ(撮像トリガ)スイッチは、押し込み量に応じて、2段階のオン/オフを検出することが可能である。上述のSW2は、レリーズ(撮像トリガ)スイッチの2段階目のオン/オフに相当し撮像開始を示す。カメラMPU1125は、S707でSW2のオンが検出されない場合はS702の処理に戻り、前述したLV表示、焦点検出を繰り返す。   Next, in step S707, the camera MPU 1125 detects ON / OFF of SW2, which is a switch indicating an imaging start instruction. As described above, the release (imaging trigger) switch can detect two stages of on / off in accordance with the amount of depression. The above-described SW2 corresponds to the second-stage ON / OFF of the release (imaging trigger) switch, and indicates the start of imaging. If the switch M2 is not detected in step S707, the process returns to step S702, and the camera MPU 1125 repeats the above-described LV display and focus detection.

S707でSW2のオンが検出された場合はS900の処理に進み、カメラMPU1125は、撮影サブルーチンを実行する。撮影サブルーチンの詳細については後述する。S900で撮影サブルーチンが実行されるとS1000に進む。   If SW2 is detected to be on in S707, the process proceeds to S900, and the camera MPU 1125 executes a shooting subroutine. Details of the shooting subroutine will be described later. When the shooting subroutine is executed in S900, the process proceeds to S1000.

次に、S1000で、第3の画像(交互表示用の静止画像)の表示判定を行い、その後、S708で第3の画像を表示部1126に表示するか否かを判断する。なお、第3の画像は、S900で得られた記録用の静止画像(第1の画像)に対応する交互表示用の静止画像である。   Next, in S1000, display determination of the third image (still image for alternate display) is performed, and then, in S708, it is determined whether to display the third image on the display unit 1126. The third image is a still image for alternate display corresponding to the still image for recording (first image) obtained in S900.

次に、S708の処理で第3の画像を表示部1126に表示すると判断されると、S1100に進み、カメラMPU1125は、第3の画像の生成し、第3の画像を表示部1126に表示させる。一方で、S708で、第3の画像の表示を行わないと判断されると、第3の画像は生成せずに、S702に戻る。S1000の処理で行う第3の画像表示判定についての詳細は後述する。   Next, if it is determined in step S708 that the third image is to be displayed on the display unit 1126, the process advances to step S1100, where the camera MPU 1125 generates a third image and causes the display unit 1126 to display the third image. . On the other hand, if it is determined in S708 that the third image is not to be displayed, the process returns to S702 without generating the third image. Details of the third image display determination performed in the process of S1000 will be described later.

S1100でカメラMPU1125は、S900の処理で得られた記録用の静止画像(第1の画像)とLV画像(第2の画像)に基づいて交互表示用の静止画像(第3の画像)を生成する。上述のとおり、事前に交互表示用の静止画像との差が小さくなるようにLV画像を生成しているため、交互表示用の静止画像(第3の画像)を生成する際は、必要最低限の処理を施す。なお、撮像動作の容易化を優先し、交互表示の静止画像(第3の画像)をLV画像(第2の画像)に対応させて生成する構成であってもよい。S1100で行う処理の詳細については後述する。   In S1100, the camera MPU 1125 generates a still image for alternate display (third image) based on the still image for recording (first image) and the LV image (second image) obtained in S900. I do. As described above, since the LV image is generated in advance so as to reduce the difference from the still image for alternate display, when generating the still image (third image) for alternate display, the minimum required Is performed. It should be noted that a configuration may be adopted in which priority is given to facilitation of the imaging operation, and the alternately displayed still image (third image) is generated in association with the LV image (second image). Details of the processing performed in S1100 will be described later.

S1100の処理を終えると、S709に進む。S709でカメラMPU1125は、メインスイッチのオフが検出された場合に一連の撮影動作(焦点検出および表示制御を含む)を終了する。一方、S709でメインスイッチのオフが検出されない場合、S702に戻り前述した各種の処理を繰り返す。例えば、S709の処理においてメインスイッチのオフが検出されず、S704の処理でSW1が検出され、さらにS707の処理でSW2が継続して検出された場合、一連の撮影動作が繰り返し行われる、いわゆる連写(連続撮影)が行われる。本実施例のカメラ本体1120は、LV表示の有無に関わらず、連写撮影を行う場合は所定の間隔で記録用の静止画像(第1の画像)を複数回取得される。そして、LV表示中に連続撮影が指示された場合は、記録用の静止画像を取得している間(すなわち連続撮影中)に、少なくともLV画像を表示部1126に表示することができる。   Upon completion of the process in S1100, the process proceeds to S709. In step S709, the camera MPU 1125 ends a series of shooting operations (including focus detection and display control) when the main switch is detected to be off. On the other hand, if it is determined in step S709 that the main switch has not been turned off, the process returns to step S702 to repeat the above-described various processes. For example, if the main switch is not turned off in the processing of S709, SW1 is detected in the processing of S704, and SW2 is continuously detected in the processing of S707, a series of photographing operations is repeatedly performed. Photographing (continuous shooting) is performed. The camera body 1120 according to the present embodiment acquires a recording still image (first image) a plurality of times at predetermined intervals when performing continuous shooting regardless of the presence or absence of the LV display. Then, when continuous shooting is instructed during LV display, at least the LV image can be displayed on the display unit 1126 while a still image for recording is being acquired (that is, during continuous shooting).

次に、上述したS800で示すLV画像(第2の画像)の生成、表示処理の詳細について図14を参照して説明する。図14は、本発明の第3実施例に係るLV画像の生成・表示処理について説明するフローチャートである。なお、図14に示すフローチャートは連続撮影における2回目以降の撮像動作において実行される処理を示しており、当該2回目以降の撮像処理をn回目(nは自然数)と想定して説明する。以降の説明では、対応する撮像動作の回数(例えばn回目)を、括弧内に示す。   Next, the generation and display processing of the LV image (second image) shown in S800 will be described in detail with reference to FIG. FIG. 14 is a flowchart illustrating a process of generating and displaying an LV image according to the third embodiment of the present invention. Note that the flowchart shown in FIG. 14 illustrates processing executed in the second and subsequent imaging operations in continuous imaging, and the second and subsequent imaging processing will be described as the n-th (n is a natural number). In the following description, the number of times of the corresponding imaging operation (for example, the n-th time) is shown in parentheses.

まず、S801で、カメラMPU1125は、S702で取得した画像データ(n)を取得する際の撮影条件と、S900で取得された交互表示用の静止画像である第3の画像(n−1)の撮影条件を取得する。   First, in step S801, the camera MPU 1125 sets the shooting conditions for obtaining the image data (n) obtained in step S702 and the third image (n-1) that is a still image for alternate display obtained in step S900. Get shooting conditions.

ここで、撮影条件としては、露光時間(電荷蓄積時間)、絞り開口径に係る絞り値(F値)、ISO感度調整などによる信号に施されたゲイン情報などの露出パラメータに関する露出条件が該当する。また、撮影条件としては、不図示のジャイロセンサーなどから出力された被写体のぶれ情報、画像の主被写体部のコントラスト情報などから得られるボケ情報などが該当する。   Here, as the photographing conditions, exposure conditions regarding exposure parameters such as an exposure time (charge accumulation time), an aperture value (F value) related to an aperture diameter of the aperture, and gain information applied to a signal by ISO sensitivity adjustment and the like are applicable. . The shooting conditions include subject blur information output from a gyro sensor (not shown) and blur information obtained from contrast information of a main subject portion of an image.

次に、S802で、カメラMPU1125は、S801の処理で取得した情報に基づいて、第2の画像と第3の画像の交互表示を行うか否かに関する情報を示す交互表示フラグ=1であるかを判定する。交互表示フラグの設定については、図16を参照して後述する。   Next, in S802, the camera MPU 1125 determines whether or not the alternate display flag = 1 indicating information on whether or not to alternately display the second image and the third image based on the information acquired in the processing in S801. Is determined. The setting of the alternate display flag will be described later with reference to FIG.

S802の処理で交互表示フラグ=1であると判定された場合、S803に進み、カメラMPU1125は、交互表示に用いるLV画像である第2の画像(n)の編集設定を行う。具体的に、交互表示を実行する場合は、S801で得た撮影条件を用いて、直前に取得(生成)された第3の画像(n−1)と第2の画像(n)の差が小さくなるように、LV画像(第2の画像(n))の編集設定を行う。この編集設定としては、S702の処理で取得された画像データに対して、ゲイン調整、シャープネス(ボケ)調整、ローパス処理(空間周波数フィルタリング)などを行う。この構成により、交互表示する画像間でユーザに与える違和感を軽減することが出来る。   If it is determined in step S802 that the alternate display flag is 1, the process proceeds to step S803, where the camera MPU 1125 performs editing settings for the second image (n), which is an LV image used for alternate display. Specifically, when the alternate display is performed, the difference between the third image (n−1) and the second image (n) acquired (generated) immediately before using the imaging conditions obtained in S801. The editing setting of the LV image (the second image (n)) is performed so as to reduce the size. As this editing setting, gain adjustment, sharpness (blurring) adjustment, low-pass processing (spatial frequency filtering), and the like are performed on the image data acquired in the processing of S702. With this configuration, it is possible to reduce a sense of discomfort given to the user between the images displayed alternately.

ここで、上述したS803におけるゲイン調整に関して具体的に説明する。カメラMPU1125は、第3の画像(n−1)とS702の処理で取得された画像データ(n)との間でゲインや露光時間が異なる場合、LV画像(n)は第3の画像(n−1)に合わせたゲイン調整となるような編集設定とする。例えば、第3の画像(n−1)に係る露光時間が1/30秒でゲインが2倍である場合を想定する。この場合、S702の処理で取得した画像データ(n)に係る露光時間が1/15秒でゲインが4倍であると、LV画像である第2の画像(n)はS702の処理で取得された画像データ(n)に対して、ゲインが1/4倍となるような編集設定とする。   Here, the gain adjustment in S803 will be specifically described. When the gain and the exposure time are different between the third image (n−1) and the image data (n) acquired in the processing of S702, the camera MPU 1125 converts the LV image (n) into the third image (n). The editing setting is such that the gain is adjusted according to -1). For example, it is assumed that the exposure time for the third image (n-1) is 1/30 second and the gain is twice. In this case, if the exposure time for the image data (n) acquired in the process of S702 is 1/15 second and the gain is four times, the second image (n) as the LV image is acquired in the process of S702. The editing setting is such that the gain becomes 1/4 times that of the image data (n).

なお、後述する露出シミュレーションの設定によって、第1の画像(記録用の静止画像)と第2の画像(LV画像)とでゲインが異なる場合に、第3の画像(表示用の静止画像)の編集設定として、第2の画像に合わせたゲイン調整量を設定してもよい。   Note that when the gain of the first image (still image for recording) and the gain of the second image (LV image) are different due to the setting of the exposure simulation described later, the third image (still image for display) is obtained. As the editing setting, a gain adjustment amount according to the second image may be set.

また、シャープネス処理やローパス処理について、第3の画像(n−1)とS702の処理で取得した画像データ(n)のフォーカス状態やぶれ状態は、露出条件をそろえたとしても、取得期間の違いにより両画像を一致させるのは困難である。そこで、本実施例では、主被写体の近傍のボケ状態を解析して、第3の画像(n−1)と第2の画像(n)の差を低減する。例えば、第3の画像(n−1)の方がS702で取得した画像(n)よりもボケていると判断できる場合には、当該画像(n)にローパス処理を施して、第2の画像(n)のボケ状態を第3の画像(n−1)に揃える。そこで、S803の処理では、ローパス処理のフィルタ設定を行う。ローパス処理やシャープネス処理の強弱は、主被写体の近傍のコントラスト情報や空間周波数成分情報などを取得して設定すればよい。もしくは、露光時の手振れ情報を用いて設定してもよい。なお、S803で実行する処理としては、画像処理またはゲイン調整の何れか一方のみであってもよい。   Regarding the sharpness processing and the low-pass processing, the focus state and the blur state of the third image (n-1) and the image data (n) acquired in the processing of S702 may vary depending on the acquisition period even if the exposure conditions are adjusted. It is difficult to match both images. Therefore, in the present embodiment, the blur state near the main subject is analyzed to reduce the difference between the third image (n-1) and the second image (n). For example, if it can be determined that the third image (n-1) is more blurred than the image (n) acquired in S702, the third image (n) is subjected to low-pass processing and the second image The blur state of (n) is aligned with the third image (n-1). Therefore, in the processing of S803, the filter setting of the low-pass processing is performed. The strength of the low-pass processing or the sharpness processing may be set by acquiring contrast information or spatial frequency component information near the main subject. Alternatively, the setting may be made using camera shake information at the time of exposure. Note that the processing executed in S803 may be only one of image processing and gain adjustment.

以上説明したように、本実施例では、第3の画像と第2の画像を交互に表示する際に、第3の画像の次に表示される第2の画像が、当該第3の画像に対して差が小さくなるように生成される構成である。この構成により、LV画像と静止画像の両方を交互で表示する際に、両画像間の差によりユーザに与える違和感を低減することが出来る。   As described above, in the present embodiment, when the third image and the second image are alternately displayed, the second image displayed next to the third image is added to the third image. This is a configuration that is generated so that the difference is small. With this configuration, when both the LV image and the still image are alternately displayed, it is possible to reduce a sense of discomfort given to the user due to a difference between the two images.

一方、S802で交互表示フラグ=1ではない(すなわち、交互表示フラグ=0)の場合、S804に進み、カメラMPU1125は、表示部1126に第2の画像のみを表示するための編集設定を行う。この場合、第3の画像(n−1)と第2の画像(n)の差を小さくする必要がないため、表示用として適切な明るさやコントラストとなるような編集設定とすればよい。   On the other hand, if the alternate display flag is not 1 in S802 (that is, the alternate display flag is 0), the process proceeds to S804, and the camera MPU 1125 performs editing settings for displaying only the second image on the display unit 1126. In this case, since there is no need to reduce the difference between the third image (n-1) and the second image (n), the editing settings may be set so as to provide appropriate brightness and contrast for display.

S803およびS804の処理で種々の編集設定が完了すると、S805でカメラMPU1125は、S702の処理で取得された画像(n)に対して、設定された編集設定を適用させてn回目の撮像動作に対応したLV画像(第2の画像)を生成する。そして、S805で第2の画像(n)の生成が完了すると、S806に進み、カメラMPU1125は、第3の画像(n−1)と第2の画像(n)との間で、ゲイン調整、シャープネス処理、ローパス処理を実行しても調整が不可能な差があるか否かを判定する。例えば、上述した2画像間で、F値が大きく異なる場合やピント状態が大きく異なる場合は、シャープネス処理やローパス処理では両者の差を調整しきれないことがある。   When various editing settings are completed in the processing of S803 and S804, the camera MPU 1125 applies the set editing settings to the image (n) acquired in the processing of S702 in S805 and performs the n-th imaging operation. A corresponding LV image (second image) is generated. When the generation of the second image (n) is completed in S805, the process proceeds to S806, where the camera MPU 1125 adjusts the gain between the third image (n-1) and the second image (n), It is determined whether there is a difference that cannot be adjusted even when the sharpness processing and the low-pass processing are performed. For example, when the F value is greatly different or the focus state is significantly different between the two images described above, the difference between the two may not be fully adjusted by the sharpness processing or the low-pass processing.

S806において調整不可能な差があると判断された場合、S807で、カメラMPU1125は、第3の画像(n−1)と第2の画像(n)を合成して、新たに第2の画像(n)を生成する。2つの画像の合成は、例えば、2つの画像の平均値(例えば、画像信号の出力値や輝度値など)を用いる。なお、後述する第3の画像(n)を生成する際も同様の処理を行うため、2つの画像に対して時系列で移動平均処理を施すことになる。これにより、2つの画像間の差を低減することができる。一方で、被写体の移動やパンニング動作などが行われている場合に、2つの画像の平均処理を行うと、画像内の移動している部分がずれて重なった不自然な表示となる。このような場合には、この合成処理は行わないようにすればよい。   If it is determined in step S806 that there is an unadjustable difference, in step S807, the camera MPU 1125 combines the third image (n-1) and the second image (n) and newly creates a second image. (N) is generated. The combination of the two images uses, for example, an average value of the two images (for example, an output value or a luminance value of an image signal). Note that the same processing is performed when a third image (n) to be described later is generated. Therefore, moving average processing is performed on the two images in time series. Thereby, the difference between the two images can be reduced. On the other hand, if the averaging process of the two images is performed while the movement of the subject or the panning operation is performed, an unnatural display in which the moving portions in the images are shifted and overlapped with each other. In such a case, the synthesizing process may not be performed.

次に、S808でカメラMPU1125は、第2の画像(n)を表示部1126に表示する。なお、上述した各処理は、画像データとして出力された各画像に対して施す構成ではなく、画像データに変換する前の画像信号を用いて実行する構成であってもよい。例えば、S807の処理では、第3の画像(n−1)に対応する画像信号と、第2の画像(n)に対応する画像信号を合成する構成であってもよい。   Next, in step S808, the camera MPU 1125 displays the second image (n) on the display unit 1126. Note that each of the above-described processes may be executed using an image signal before being converted into image data, instead of being applied to each image output as image data. For example, in the processing of S807, the image signal corresponding to the third image (n-1) and the image signal corresponding to the second image (n) may be combined.

次に、上述したS900で示す撮像サブルーチン処理の詳細について図15を参照して説明する。図15は、本発明の第3実施例に係る撮像サブルーチン処理について説明するフローチャートである。なお、例えば、図14に図示するフローチャートにおいてn回目の撮像動作に関するLV画像の生成および表示に関する処理の次に行われる撮像サブルーチンでは、n回目の撮像動作に対応した記録用の静止画像(第1の画像)が生成される。   Next, the details of the imaging subroutine process shown in S900 will be described with reference to FIG. FIG. 15 is a flowchart illustrating an imaging subroutine process according to the third embodiment of the present invention. For example, in the imaging subroutine performed after the processing related to the generation and display of the LV image related to the n-th imaging operation in the flowchart illustrated in FIG. 14, a recording still image (first image) corresponding to the n-th imaging operation Is generated.

S901でカメラMPU1125は、露出制御処理を開始し、撮影条件(露光時間、F値、ゲイン(撮影感度))を設定する。この露出制御処理は、カメラMPU1125が画像データの輝度情報に基づいて行うことができるが、その方法としては任意の公知技術を用いればよい。本実施例では、例えば、n回目の撮像動作においてはn−1回目の撮像動作で取得された記録用の静止画像に基づいて上述した輝度情報を取得する。あるいは、n回目の撮像動作において取得されたLV画像に基づいて輝度情報を取得する構成であってもよい。   In step S901, the camera MPU 1125 starts exposure control processing and sets shooting conditions (exposure time, F value, gain (photographing sensitivity)). This exposure control processing can be performed by the camera MPU 1125 based on the luminance information of the image data, and any known technique may be used as the method. In the present embodiment, for example, in the n-th imaging operation, the above-described luminance information is acquired based on the still image for recording acquired in the (n-1) -th imaging operation. Alternatively, the configuration may be such that luminance information is obtained based on the LV image obtained in the n-th imaging operation.

また、S901でカメラMPU1125は、設定したF値と露光時間に基づいて絞りアクチュエータ1112を制御し、絞りを兼用するシャッタ1102の動作を制御する。また、カメラMPU1125は、設定された露光時間に基づいて撮像素子駆動回路1123の駆動を制御して電荷蓄積を実行する。   In step S901, the camera MPU 1125 controls the aperture actuator 1112 based on the set F value and the exposure time, and controls the operation of the shutter 1102 that also functions as the aperture. Further, the camera MPU 1125 controls the driving of the image sensor driving circuit 1123 based on the set exposure time to execute charge accumulation.

当該電荷蓄積が終了すると、S902でカメラMPU1125は、撮像素子駆動回路1123の動作を制御して、先の蓄積電荷を読み出すことで静止画像に対応する画像データ(第1の画像信号)を取得する。そして、カメラMPU1125は、当該第1の画像信号に基づいて記録用の静止画像(第1の画像)を取得する。なお、第1の画像信号の読み出しは、所謂全画素の読み出しであるが、記録用の静止画像として高画素な画像データを取得できるように、撮像素子1122の読み出しラインを設定すればよい。また、本実施例のカメラ本体1120としては、表示用の静止画像(第3の画像)を、記録用の静止画像(第1の画像)に基づいて生成してもよいし、記録用の静止画像と同時に第1の画像信号に基づいて生成してもよい。この場合、第1の画像信号に基づいて、記録用の静止画像と表示用の静止画像がそれぞれ生成される。なお、本実施例にお代えるLV画像と静止画像は、上述したように読み出しを行う撮像素子の画素数が異なる、互いに異なる種類の画像である。   When the charge accumulation is completed, in step S902, the camera MPU 1125 controls the operation of the image sensor driving circuit 1123 to acquire the image data (first image signal) corresponding to the still image by reading out the accumulated charge. . Then, the camera MPU 1125 acquires a recording still image (first image) based on the first image signal. Note that reading of the first image signal is so-called reading of all pixels, but a reading line of the image sensor 1122 may be set so that high-pixel image data can be obtained as a still image for recording. Further, the camera body 1120 of the present embodiment may generate a still image for display (third image) based on a still image for recording (first image), or generate a still image for recording. It may be generated based on the first image signal simultaneously with the image. In this case, a still image for recording and a still image for display are respectively generated based on the first image signal. Note that the LV image and the still image used in the present embodiment are different types of images in which the number of pixels of the image sensor that performs reading is different as described above.

次に、S903でカメラMPU1125は、読み出された画像データに対して画像処理回路1124を介して欠陥画素補正処理を実施する。S904でカメラMPU1125は、欠陥画素補正後の画像データに対して画像処理回路1124を介してデモザイク(色補間)処理やホワイトバランス処理、γ補正(階調補正)処理、色変換処理、エッジ強調処理等の各種画像処理や、符号化処理などを適用させる。S905においてカメラMPU1125は、記録用の静止画像(第1の画像)に対応するデータファイルをメモリ1128に記録する。   Next, in step S903, the camera MPU 1125 performs a defective pixel correction process on the read image data via the image processing circuit 1124. In step S904, the camera MPU 1125 performs demosaic (color interpolation) processing, white balance processing, γ correction (gradation correction) processing, color conversion processing, and edge enhancement processing on the image data after the defective pixel correction via the image processing circuit 1124. And other image processing, encoding processing, and the like. In step S <b> 905, the camera MPU 1125 records a data file corresponding to a recording still image (first image) in the memory 1128.

次に、S906でカメラMPU1125は、S905の処理で記録された記録用の静止画像に対応するカメラ本体の特性情報を、メモリ1128とカメラMPU1125に設けられたメモリに記録する。ここでカメラ本体の特性情報としては、露出条件、画像処理情報、撮像素子1122の撮像用画素および焦点検出用画素の受光感度分布に関する情報、撮影光束のケラレ情報、フランジバックに関する情報、製造誤差情報などが該当する。なお、撮像素子1122の受光感度分布情報は、オンチップマイクロレンズMLと光電変換部PDに依存する情報であるため、これら部材に関する情報を記録しても良い。   Next, in S906, the camera MPU 1125 records the characteristic information of the camera body corresponding to the still image for recording recorded in the processing of S905 in the memory 1128 and the memory provided in the camera MPU 1125. Here, the characteristic information of the camera body includes exposure conditions, image processing information, information on the light receiving sensitivity distribution of the imaging pixels and focus detection pixels of the image sensor 1122, vignetting information of the imaging light flux, information on flange back, and manufacturing error information. And so on. Since the light receiving sensitivity distribution information of the image sensor 1122 is information dependent on the on-chip microlens ML and the photoelectric conversion unit PD, information on these members may be recorded.

次に、S907でカメラMPU1125は、S905の処理で記録した記録用の静止画像に対応するレンズユニットの特性情報を、メモリ1128とカメラMPU1125に設けられたメモリに記録する。ここで、レンズユニットの特性情報としては、射出瞳に関する情報、撮像時の焦点距離やF値に関する情報、光学系の収差情報、製造誤差情報などが該当する。   Next, in step S907, the camera MPU 1125 records the characteristic information of the lens unit corresponding to the recording still image recorded in the processing in step S905 in the memory 1128 and the memory provided in the camera MPU 1125. Here, the characteristic information of the lens unit includes information on the exit pupil, information on the focal length and F-number at the time of imaging, aberration information on the optical system, manufacturing error information, and the like.

次に、S908でカメラMPU1125は、先に取得した記録用の静止画像に関する画像関連情報をメモリ1128とカメラMPU1125に設けられたメモリに記録する。画像関連情報としては、撮像前の焦点検出動作に関する情報や、被写体移動情報、焦点検出動作の精度に関わる情報などが該当する。   Next, in step S908, the camera MPU 1125 records the image-related information relating to the previously acquired still image for recording in the memory 1128 and the memory provided in the camera MPU 1125. Examples of the image-related information include information on a focus detection operation before imaging, subject movement information, information on the accuracy of the focus detection operation, and the like.

次に、上述したS1000で示す第3の画像表示判定処理の詳細について図16を参照して説明する。図16は、本発明の第3実施例に係る表示用の静止画像の表示判定処理について説明するフローチャートである。なお、例えば、先の撮像サブルーチンにおいてn回目の撮像動作に関する記録用の静止画像(第1の画像)の生成・表示処理の次に行われる第3の画像表示判定処理では、n回目の撮像動作に対応した表示用の静止画像(第3の画像(n))が生成される。   Next, details of the third image display determination processing shown in S1000 will be described with reference to FIG. FIG. 16 is a flowchart illustrating a display determination process of a still image for display according to the third embodiment of the present invention. For example, in the third image display determination process performed after the generation and display process of the recording still image (first image) related to the n-th imaging operation in the previous imaging subroutine, the n-th imaging operation Are generated (third image (n)) for display corresponding to.

S1001でカメラMPU1125は、ユーザにより交互表示設定がオフされているか否かを判定する。交互表示設定としては、例えば、ユーザが操作部材を手動操作することによりメニュー画面に表示された交互表示設定のオン/オフが可能である。交互表示設定がオフの場合、S1009に進みカメラMPU1125は、交互表示を行わない旨を示す情報として交互表示フラグ=0に設定する。   In step S1001, the camera MPU 1125 determines whether the alternate display setting has been turned off by the user. As the alternate display setting, for example, it is possible to turn on / off the alternate display setting displayed on the menu screen by manually operating the operation member by the user. If the alternate display setting is off, the process proceeds to S1009, where the camera MPU 1125 sets the alternate display flag = 0 as information indicating that alternate display is not to be performed.

次に、S1001で交互表示がオンに設定されている場合、S1002に進みカメラMPU1125は、記録用の静止画像(第1の画像)を撮影する際に、発光装置(不図示)による被写体に向けた発光(照明)を行っているかを判定する。発光装置により被写体を照明している場合、記録用の静止画像(第1の画像)においては被写体が照明されているが、LV画像(第2の画像)においては被写体が照明されておらず、両画像間の明るさに大きな差が生じる。したがって、この場合は、明るさが大きく異なる画像が交互表示されてしまうことでユーザに違和感を与えることを抑制するため、交互表示は行わない。なお、発光装置による発光量が少ない場合であればゲイン調整などにより両画像間の明るさの差を減らすことが出来るため、このような場合は、交互表示を行う構成であってもよい。   Next, if the alternate display is set to ON in step S1001, the process proceeds to step S1002, where the camera MPU 1125 directs a light-emitting device (not shown) toward a subject when capturing a still image (first image) for recording. It is determined whether light emission (illumination) is performed. When the subject is illuminated by the light emitting device, the subject is illuminated in the recording still image (first image), but is not illuminated in the LV image (second image). There is a large difference in brightness between the two images. Therefore, in this case, the alternate display is not performed in order to prevent the user from feeling uncomfortable due to the alternate display of images having significantly different brightness. If the amount of light emitted from the light emitting device is small, the difference in brightness between the two images can be reduced by adjusting the gain or the like. In such a case, the display may be alternately displayed.

次に、S1003でカメラMPU1125は、第1の画像(n)と第2の画像(n)との間で、各露出条件に所定値以上の差があるか否かを判定する。上述したように、露出条件の差は、ゲイン調整や2画像の合成処理で低減できるが、両画像間の差が大きい場合はこの差を低減するのが困難である。例えば、所謂スローシャッターによる長秒露光おいて絞り開口を小さくした(小絞り)条件により第1の画像を取得する場合を想定する。この場合、第2の画像と第1の画像が同じ露出条件で取得されればよいが、LV画像については、表示部1126への表示更新時間の長時間化や焦点検出精度の低下が問題となる。したがって、S1003の処理において、所定値以上の露出条件に差があると判定される場合は交互表示を行わないような設定にする。   Next, in step S1003, the camera MPU 1125 determines whether or not each exposure condition has a difference equal to or more than a predetermined value between the first image (n) and the second image (n). As described above, the difference between the exposure conditions can be reduced by adjusting the gain or combining the two images. However, when the difference between the two images is large, it is difficult to reduce the difference. For example, it is assumed that the first image is acquired under the condition that the aperture opening is made small (small aperture) in long-time exposure using a so-called slow shutter. In this case, the second image and the first image may be acquired under the same exposure condition. However, for the LV image, there is a problem that the display update time on the display unit 1126 is prolonged and the focus detection accuracy is deteriorated. Become. Therefore, in the process of S1003, when it is determined that there is a difference between the exposure conditions equal to or more than the predetermined value, the setting is made such that the alternate display is not performed.

次に、S1004でカメラMPU1125は、LV画像(第2の画像)の取得に際して焦点検出処理を補助するための補助光の発光有無を判定する。一般的に、当該補助光は、焦点検出を補助するための投光であって、投光による照明範囲が撮像範囲に対して狭い、または、特定範囲のみ色が偏るため、静止画像の取得には適さない。このため、LV画像の取得に際して上述した補助光が発光されていた場合、静止画像とLV画像との明るさの差が大きく、当該差を補償するのは困難である。したがって、n回目の撮像動作においてLV画像(第2の画像)の取得時に焦点検出を補助する補助光が発光されている場合は交互表示を行わないような設定にする。   Next, in step S1004, the camera MPU 1125 determines whether or not to emit auxiliary light for assisting the focus detection process when acquiring the LV image (second image). Generally, the auxiliary light is light projection for assisting focus detection, and the illumination range by the light projection is narrower than the imaging range, or the color is biased only in a specific range. Is not suitable. Therefore, when the above-described auxiliary light is emitted when the LV image is obtained, the difference in brightness between the still image and the LV image is large, and it is difficult to compensate for the difference. Therefore, in the n-th imaging operation, when the auxiliary light for assisting the focus detection is emitted at the time of acquiring the LV image (the second image), the setting is made such that the alternate display is not performed.

次に、S1005でカメラMPU1125は、記録用の静止画像(第1の画像(n))とLv画像(第2の画像(n))との、それぞれのISO感度(ゲイン)が所定の範囲外に該当する値であるか否かを判定する。前述したように、静止画像とLV画像とでは、信号値の読み出し方法に差がある。例えば、静止画像に対してLV画像は所謂間引き読み出しにより、撮像素子の水平方向における同色の信号を加算および圧縮して読み出されるため、両画像間で色相などが異なる場合がある。この場合、ISO感度の設定値に応じて静止画像とLv画像間の差(例えばノイズ量の差)が大きく異なる。そこで、本実施例のカメラ本体1120は、交互表示を実行可能な範囲(閾値)を設け、静止画像とLV画像のISO感度が当該範囲内に含まれる場合は、両画像間の差が小さいと判定して交互表示を実行する。対して、静止画像とLV画像のISO感度の何れかが当該範囲外に該当する値である場合は、両画像間の差が大きいと判定して交互表示を実行しない。   Next, in S1005, the camera MPU 1125 sets the ISO sensitivity (gain) of the recording still image (first image (n)) and the Lv image (second image (n)) out of the predetermined range. It is determined whether or not the value corresponds to. As described above, there is a difference in the signal value reading method between the still image and the LV image. For example, an LV image is read out from a still image by adding and compressing signals of the same color in the horizontal direction of the image sensor by so-called thinning-out reading, so that the hue and the like may be different between the two images. In this case, a difference (for example, a difference in noise amount) between the still image and the Lv image greatly differs depending on the set value of the ISO sensitivity. Therefore, the camera body 1120 of the present embodiment provides a range (threshold) in which the alternate display can be performed, and when the ISO sensitivity of the still image and the LV image is included in the range, the difference between the two images is small. Judge and perform alternate display. On the other hand, if any one of the ISO sensitivities of the still image and the LV image falls outside the range, the difference between the two images is determined to be large, and the alternate display is not performed.

なお、本実施例では、(記録用の)静止画像とLV画像のそれぞれのISO感度を、ISO感度に関する所定の範囲(閾値)と比較する構成について説明したが、これに限定されるものではない。例えば、連続して取得されたLV画像(n)と記録用の静止画像(n)とのISO感度の差(絶対値)が所定の閾値以上か否かを判定し、両画像のISO感度の差が所定の閾値よりも小さい場合に交互表示を実行する構成であってもよい。   In the present embodiment, a configuration has been described in which the ISO sensitivities of the still image (for recording) and the LV image are compared with a predetermined range (threshold) related to the ISO sensitivities, but the present invention is not limited to this. . For example, it is determined whether or not the difference (absolute value) of the ISO sensitivity between the continuously acquired LV image (n) and the recording still image (n) is equal to or greater than a predetermined threshold, and the ISO sensitivity of both images is determined. When the difference is smaller than a predetermined threshold, the display may be alternately displayed.

次に、S1006でカメラMPU1125は、S703で算出されるずれ量(位相差)が
所定の範囲外に該当する値であるか否かを判定する。ずれ量が所定の範囲外に該当する値であると判定された場合には、ずれ量が大きいと判定して交互表示を実施しない。
Next, in step S1006, the camera MPU 1125 determines whether the deviation amount (phase difference) calculated in step S703 is a value outside a predetermined range. When it is determined that the deviation amount falls outside the predetermined range, the deviation amount is determined to be large, and the alternate display is not performed.

次に、S1007でカメラMPU1125は、S702で行われるフリッカ検知有無を判定する。フリッカ有の場合には、フリッカが発生しない露出条件で撮影を実施するため、所定値以上の露出条件差有と判定して交互表示を実施しない。なお、フリッカの影響を低減するための撮影モードが設定されている場合に、交互表示フラグを0に設定し、交互表示を行わない構成であってもよい。   Next, in step S1007, the camera MPU 1125 determines whether flicker is detected in step S702. If there is flicker, shooting is performed under an exposure condition in which flicker does not occur. Therefore, it is determined that there is an exposure condition difference equal to or greater than a predetermined value, and alternate display is not performed. In addition, when the shooting mode for reducing the influence of flicker is set, the alternate display flag may be set to 0 and the alternate display may not be performed.

以上説明したS1001〜S1007の各判定がNO判定である場合、S1008でカメラMPU1125は、交互表示フラグとして、交互表示を実行することを示すフラグ(交互表示フラグ=1)を設定する。なお、上述したS1001〜S1007の各判定の何れかのみを実行し、または除外して当該判定結果に基づいて交互表示の有無を決定する構成であってもよい。例えば、他の条件に依らず、交互表示設定がオンである場合は交互表示を実行する構成であってもよい。   When each of the determinations in S1001 to S1007 described above is a NO determination, in S1008, the camera MPU 1125 sets a flag indicating that the alternate display is to be performed (alternate display flag = 1) as the alternate display flag. Note that a configuration may be adopted in which only one of the above-described determinations in S1001 to S1007 is executed or excluded, and the presence or absence of alternate display is determined based on the determination result. For example, the configuration may be such that the alternate display is executed when the alternate display setting is ON regardless of other conditions.

次に、上述したS1100で示す表示用の静止画像(第3の画像)の生成、表示処理の詳細について図17を参照して説明する。図17は、本発明の第3実施例に係る表示用の静止画像の生成・表示処理について説明するフローチャートである。なお、図17に示すフローチャートにおいても、連続撮影における2回目以降の撮像動作にけるn回目(nは自然数)の撮像動作を想定して説明する。   Next, details of the generation and display processing of the display still image (third image) shown in S1100 described above will be described with reference to FIG. FIG. 17 is a flowchart illustrating a process of generating and displaying a still image for display according to the third embodiment of the present invention. Note that the flowchart illustrated in FIG. 17 is also described assuming the n-th (n is a natural number) imaging operation in the second and subsequent imaging operations in continuous imaging.

まず、S1101でカメラMPU1125は、S702で取得した画像データ(n)を取得する際の撮影条件と、S900で取得された交互表示用の静止画像である第3の画像(n−1)の撮影条件を取得する。この処理は前述したS801と同様である。   First, in step S1101, the camera MPU 1125 captures a capturing condition for acquiring the image data (n) acquired in step S702 and captures a third image (n-1), which is a still image for alternate display, acquired in step S900. Get conditions. This processing is the same as in S801 described above.

S1102でカメラMPU1125は、交互表示に用いる第3の画像の編集設定を行う。具体的に、交互表示を実行する場合は、S1101で得た撮影条件を用いて、第3の画像(n−1)と第2の画像(n)との差が小さくなるように、表示用の静止画像(第3の画像)の編集設定を行う。上述したS803の処理では、表示用の静止画像(n−1)とLV画像(n)との差を低減してユーザに与える違和感を抑制する点について説明した。対して、S1102の処理では、LV画像(n)と表示用の静止画像(n−1)との差を低減してユーザに与える違和感を抑制するために、LV画像(n)に合わせて表示用の静止画像(n)を取得する。この構成により、表示用の静止画像(n−1)、LV画像(n)、表示用の静止画像(n)の順に交互表示する場合であっても、連続して表示する画像間の差を低減してユーザに与える違和感を抑制することが出来る。なお、S1102の処理における編集設定は、前述したS803における処理と略同一なので説明は省略する。   In step S1102, the camera MPU 1125 performs editing settings for the third image used for alternate display. Specifically, in the case of performing the alternate display, the display conditions are set such that the difference between the third image (n-1) and the second image (n) is reduced using the imaging conditions obtained in S1101. Edit setting of the still image (third image). In the processing of S803 described above, the point that the difference between the display still image (n-1) and the LV image (n) is reduced to suppress a sense of discomfort given to the user has been described. On the other hand, in the process of S1102, in order to reduce the difference between the LV image (n) and the still image (n-1) for display and to suppress the sense of discomfort given to the user, the display is performed in accordance with the LV image (n). To obtain a still image (n). With this configuration, even when the still image for display (n-1), the LV image (n), and the still image for display (n) are alternately displayed in this order, the difference between the images to be displayed continuously is determined. It is possible to suppress the discomfort given to the user by reducing the amount. Note that the editing settings in the processing of S1102 are substantially the same as the processing in S803 described above, and thus description thereof will be omitted.

次に、S1103でカメラMPU1125は、第1の画像(記録用の静止画像(n))に対して、S1102で定められた編集設定に基づいて第3の画像(表示用の静止画像(n))を生成する。そして、S1104でカメラMPU1125は、第2の画像(n)と第3の画像(n)との間で、ゲイン調整、シャープネス処理、ローパス処理を実行しても調整が不可能な差があるか否かを判定する。当該判定は前述したS806と略同一なので説明は省略する。   Next, in S1103, the camera MPU 1125 applies a third image (still image for display (n)) to the first image (still image (n) for recording) based on the editing settings determined in S1102. ). Then, in step S1104, the camera MPU 1125 determines whether there is a difference between the second image (n) and the third image (n) that cannot be adjusted even if the gain adjustment, the sharpness processing, and the low-pass processing are performed. Determine whether or not. This determination is substantially the same as S806 described above, and a description thereof will be omitted.

S1104において調整不可能な差があると判断された場合、S1105でカメラMPU1125は、第2の画像(LV画像(n))と第3の画像(表示用の静止画像(n))とを合成して、新たに第3の画像(n)を生成する。2つの画像の合成方法は、前述したS807と略同一なので説明は省略する。   If it is determined in S1104 that there is an unadjustable difference, the camera MPU 1125 combines the second image (LV image (n)) and the third image (still image (n) for display) in S1105. Then, a third image (n) is newly generated. The method of synthesizing the two images is substantially the same as that in S807 described above, and a description thereof will not be repeated.

次に、S1106でカメラMPU1125は、第3の画像(表示用の静止画像(n))を表示部1126に表示する。なお、前述したように、図17に図示する各処理は、画像データとして出力された各画像に対して施す構成ではなく、画像データに変換する前の画像信号を用いて実行する構成であってもよい。   Next, in step S1106, the camera MPU 1125 displays the third image (still image (n) for display) on the display unit 1126. Note that, as described above, each process illustrated in FIG. 17 is not performed on each image output as image data, but is performed using an image signal before being converted into image data. Is also good.

次に、上述したLV画像と静止画像の交互表示動作について図18〜図20を参照して説明する。図18は、交互表示を行う場合であって、画像生成後すぐにLV画像と静止画像を表示させる場合のタイミングチャートを例示的に説明する図である。図19は、交互表示を行う場合であって、所定の表示遅延時間を鑑みてLV画像と静止画像を交互に表示させる場合の第1の方法に係るタイミングチャートを例示的に説明する図である。また、図20は、交互表示を行う場合であって、所定の表示遅延時間を鑑みてLV画像と静止画像を交互に表示させる場合の第2の方法に係るタイミングチャートを例示的に説明する図である。なお、以降の説明における各種動作や処理は、カメラMPU1125によって実行されるものとする。   Next, the above-described alternate display operation of the LV image and the still image will be described with reference to FIGS. FIG. 18 is a diagram exemplarily illustrating a timing chart in a case where an alternating display is performed and an LV image and a still image are displayed immediately after image generation. FIG. 19 is a diagram exemplarily illustrating a timing chart according to the first method in a case where an LV image and a still image are alternately displayed in consideration of a predetermined display delay time in the case of performing the alternate display. . FIG. 20 is a diagram exemplarily illustrating a timing chart according to a second method in a case where an LV image and a still image are alternately displayed in consideration of a predetermined display delay time in the case of performing the alternate display. It is. It is assumed that various operations and processes in the following description are executed by the camera MPU 1125.

図18〜20において、斜線のブロックは、静止画像に関連する処理を示しており、白色のブロックは、LV画像に関連する処理を示している。Tr1、Tr2は、それぞれ静止画像およびLV画像の露光、読出し、画像取得の時間(露光開始から取得完了までに要する時間)を示している。tr1、tr1’は、静止画像の露光開始時刻を示しており、tr2は、LV画像の露光開始時刻を示している。td1、td1’は、静止画像の表示開始時刻を示しており、td2は、LV画像の表示開始時刻を示している。   18 to 20, hatched blocks indicate processing related to still images, and white blocks indicate processing related to LV images. Tr1 and Tr2 indicate the time of exposure, readout, and image acquisition (time required from the start of exposure to the completion of acquisition) of the still image and the LV image, respectively. tr1 and tr1 'indicate the exposure start time of the still image, and tr2 indicates the exposure start time of the LV image. td1 and td1 'indicate the display start time of the still image, and td2 indicates the display start time of the LV image.

また、図18〜20において、Td1_0は、静止画像の表示時間を示しており、Td2_0は、LV画像の表示時間を示している。また、図19、20のΔTd1は、静止画像の表示遅延時間(静止画像の取得完了から表示開始までの時間)を示しており、ΔTd2は、LV画像の表示遅延時間(LV画像の取得完了から表示開始までの時間)を示している。なお、図19、20の例では、ΔTd1=0であるが、本実施例はΔTd1=0に限定されない。図19、20におけるt11〜t18、t21〜t27は、各図における時刻を表している。なお、図中では時刻をt18、t27まで示しているが、連続撮影を継続すると判定されれば、図示している時刻以降も連続撮影処理が継続する。   18 to 20, Td1_0 indicates a display time of a still image, and Td2_0 indicates a display time of an LV image. In addition, ΔTd1 in FIGS. 19 and 20 indicates the display delay time of the still image (the time from the completion of acquisition of the still image to the start of display), and ΔTd2 indicates the display delay time of the LV image (from the completion of acquisition of the LV image. (Time until display starts). In the examples of FIGS. 19 and 20, ΔTd1 = 0, but the present embodiment is not limited to ΔTd1 = 0. T11 to t18 and t21 to t27 in FIGS. 19 and 20 represent times in the respective drawings. Although the times are shown in the figure up to t18 and t27, if it is determined that continuous shooting is to be continued, the continuous shooting process is continued after the illustrated time.

まず、図18を参照して表示遅延なしに交互表示を行う場合の具体的な例について説明する。この場合、最初にtr1のタイミングから時間Tr1において静止画像(記録用・表示用)を生成する。そして、表示遅延することなくtd1に示すタイミングから時間Td1_0において、表示用の静止画像を表示させる。   First, a specific example in the case of performing alternate display without display delay will be described with reference to FIG. In this case, first, a still image (for recording / display) is generated at a time Tr1 from the timing of tr1. Then, a still image for display is displayed at time Td1_0 from the timing shown by td1 without display delay.

次に、tr2のタイミングから時間Tr2においてLV画像を生成する。そして、表示遅延することなくtd2のタイミングから時間Td2_0において、生成されたLV画像を表示させる。以降、同様の手順で表示用の静止画像とLV画像を交互に表示させる。   Next, an LV image is generated at a time Tr2 from the timing of tr2. Then, the generated LV image is displayed at time Td2_0 from timing td2 without display delay. Thereafter, the display still image and the LV image are alternately displayed in the same procedure.

次に図19を参照して、第1の方法に基づいて所定の表示遅延時間を鑑みた交互表示を行う場合の具体的な例について説明する。第1の方法では、静止画像の取得タイミングから表示開始タイミングまでの時間と、LV画像の取得タイミングから表示開始タイミングtd2までの時間が略等しくなるように表示遅延時間を設定する。すなわち、タイミングtr1からタイミングtd1までの時間と、タイミングtr2からタイミングtd2までの時間が略等しくなるように第1の表示遅延時間ΔTd1と第2の表示遅延時間ΔTd2を設定する。そして、算出した第1の表示遅延時間ΔTd1、および第2の表示遅延時間ΔTd2から表示用の静止画像の表示時間Td1とLV画像の表示時間Td2を算出する。   Next, with reference to FIG. 19, a description will be given of a specific example in the case of performing alternate display in consideration of a predetermined display delay time based on the first method. In the first method, the display delay time is set so that the time from the acquisition timing of the still image to the display start timing is substantially equal to the time from the acquisition timing of the LV image to the display start timing td2. That is, the first display delay time ΔTd1 and the second display delay time ΔTd2 are set such that the time from the timing tr1 to the timing td1 is substantially equal to the time from the timing tr2 to the timing td2. Then, the display time Td1 of the still image for display and the display time Td2 of the LV image are calculated from the calculated first display delay time ΔTd1 and second display delay time ΔTd2.

具体的には、カメラMPU1125は、S801で設定した撮影条件に基づき、静止画像およびLV画像それぞれの露光開始から取得完了までの時間Tr1,Tr2を取得する。そして、カメラMPU1125は、静止画像用の第1の表示遅延時間ΔTd1を0に決定する(前述の通り、0以外でもよい)。そして、カメラMPU1125は、下記の式に従ってLV画像用の第2の表示遅延時間ΔTd2を算出する。
Tr2+ΔTd2=Tr1+ΔTd1
ΔTd2=Tr1+ΔTd1−Tr2=Tr1−Tr2
Specifically, the camera MPU 1125 acquires the time Tr1 and Tr2 from the start of exposure to the completion of acquisition of each of the still image and the LV image based on the imaging conditions set in S801. Then, the camera MPU 1125 determines the first display delay time ΔTd1 for a still image to be 0 (may be other than 0 as described above). Then, the camera MPU 1125 calculates the second display delay time ΔTd2 for the LV image according to the following equation.
Tr2 + ΔTd2 = Tr1 + ΔTd1
ΔTd2 = Tr1 + ΔTd1-Tr2 = Tr1-Tr2

次に、カメラMPU1125は、静止画像およびLV画像の表示時間Td1,Td2を算出する。具体的には、カメラMPU1125は、S801とS1101で設定した撮影条件に基づき、表示遅延時間ΔTd1,ΔTd2が存在しない場合の表示時間Td1_0,Td2_0(図18参照)を取得する。そして、カメラMPU1125は、下記の式に従って表示時間Td1,Td2を算出する。
Td1=Td1_0+(ΔTd2−ΔTd1)=Td1_0+ΔTd2
Td2=Td2_0+(ΔTd1−ΔTd2)=Td1_0−ΔTd2
Next, the camera MPU 1125 calculates the display times Td1 and Td2 of the still image and the LV image. Specifically, the camera MPU 1125 acquires the display times Td1_0 and Td2_0 (see FIG. 18) when the display delay times ΔTd1 and ΔTd2 do not exist, based on the imaging conditions set in S801 and S1101. Then, the camera MPU 1125 calculates the display times Td1 and Td2 according to the following equation.
Td1 = Td1_0 + (ΔTd2-ΔTd1) = Td1_0 + ΔTd2
Td2 = Td2_0 + (ΔTd1-ΔTd2) = Td1_0−ΔTd2

次に、算出した第1の表示遅延時間ΔTd1、表示時間Td1に基づいて、カメラMPU1125は、表示用の静止画像の表示開始時刻(タイミング)と表示時間を設定して、表示を指示する。具体的に、時刻tr1から取得を開始した静止画像は、時刻t12において表示用の静止画像の表示を開始し、時刻t16まで表示させる。なお、LV画像に対しても略同一の処理を実行するため説明は省略する。以上説明した構成により、静止画像の取得時刻tr1から静止画像の表示開始時刻td1までの時間と、LV画像の取得時刻tr2からLV画像の表示開始時刻td2までの時間が略等しくなる為、違和感のない画像の表示が可能となる。   Next, based on the calculated first display delay time ΔTd1 and display time Td1, the camera MPU 1125 sets a display start time (timing) and a display time of a still image for display, and instructs display. Specifically, the still image whose acquisition has been started from time tr1 starts displaying a still image for display at time t12 and displays it until time t16. It should be noted that substantially the same processing is performed on the LV image, and a description thereof will be omitted. With the configuration described above, the time from the still image acquisition time tr1 to the still image display start time td1 is substantially equal to the time from the LV image acquisition time tr2 to the LV image display start time td2. It is possible to display an image that does not exist.

次に図20を参照して、第2の方法に基づいて所定の表示遅延時間を鑑みた交互表示を行う場合の具体的な例について説明する。本実施例における第2の方法では、静止画像の表示時間Td1と、LV画像の表示時間Td2が略等しくなるように(表示用の)静止画像に係る第1の表示遅延時間ΔTd1とLV画像に係る第2の表示遅延時間ΔTd2を設定する。具体的に、第2の方法を用いた場合、取得に要する時間が長い画像に対して表示遅延を設けることなく、取得に要する時間が短い画像に対してのみ表示遅延を設定する。つまり、第1の表示遅延時間ΔTd1=0とし、表示用の静止画像の表示時間Td1とLV画像の表示時間Td2が略等しくなる様に、各画像の表示時間を制御する。すなわち、前述した第1の方法に対して第2の方法は、静止画像およびLV画像の表示時間Td1,Td2と、LV画像の表示開始時刻(タイミング)td2が異なる。   Next, with reference to FIG. 20, a specific example in the case of performing alternate display in consideration of a predetermined display delay time based on the second method will be described. In the second method according to the present embodiment, the first display delay time ΔTd1 and the LV image are set such that the display time Td1 of the still image and the display time Td2 of the LV image are substantially equal to each other. The second display delay time ΔTd2 is set. Specifically, when the second method is used, a display delay is set only for an image requiring a short time to acquire, without providing a display delay for an image requiring a long time to acquire. That is, the first display delay time ΔTd1 = 0, and the display time of each image is controlled so that the display time Td1 of the display still image and the display time Td2 of the LV image are substantially equal. That is, the second method differs from the first method in that the display times Td1 and Td2 of the still image and the LV image are different from the display start time (timing) td2 of the LV image.

LV画像用の第2の表示遅延時間ΔTd2は、前述した式と合わせて、以下に示す式4を用いて算出される。   The second display delay time ΔTd2 for the LV image is calculated using the following equation 4 together with the above equation.

Figure 0006643371
Figure 0006643371

次に、カメラMPU1125は、静止画像およびLV画像の表示時間Td1,Td2を算出する。具体的には、カメラMPU1125は、S801とS1101で設定した撮影条件に基づき、表示遅延時間ΔTd1,ΔTd2が存在しない場合の表示時間Td1_0,Td2_0(図18参照)を取得する。そして、カメラMPU1125は、第1の表示遅延時間ΔTd1=0とp前述した式4で算出された第2の表示遅延時間ΔTd2に基づき、下記の式5に従って表示時間Td1,Td2を算出する。   Next, the camera MPU 1125 calculates the display times Td1 and Td2 of the still image and the LV image. Specifically, the camera MPU 1125 acquires the display times Td1_0 and Td2_0 (see FIG. 18) when the display delay times ΔTd1 and ΔTd2 do not exist, based on the imaging conditions set in S801 and S1101. Then, based on the first display delay time ΔTd1 = 0 and the second display delay time ΔTd2 calculated by Expression 4 described above, the camera MPU 1125 calculates display times Td1 and Td2 according to the following Expression 5.

Figure 0006643371
Figure 0006643371

次に、算出した第1の表示遅延時間ΔTd1、表示時間Td1を用いて、カメラMPU1125は、表示用の静止画像の表示開始時刻(タイミング)と表示時間を設定して、表示を指示する。具体的に、時刻tr1から取得を開始した静止画像は、時刻t22において表示用の静止画像の表示を開始し、時刻t25まで表示させる。なお、LV画像に対しても略同一の処理を実行するため説明は省略する。以上説明した構成により、表示用の静止画像の表示時間Td1とLV画像の表示時間Td2が略等しくなる為、違和感のない画像の表示が可能となる。   Next, using the calculated first display delay time ΔTd1 and display time Td1, the camera MPU 1125 sets the display start time (timing) and display time of the still image for display, and instructs display. Specifically, the still image whose acquisition has been started from time tr1 starts displaying a still image for display at time t22 and displays it until time t25. It should be noted that substantially the same processing is performed on the LV image, and a description thereof will be omitted. With the configuration described above, the display time Td1 of the still image for display and the display time Td2 of the LV image become substantially equal, so that it is possible to display an image without a sense of discomfort.

なお、本実施例の撮像装置としては、交互表示を実行する場合、図18〜20で説明した各タイミングチャートに示すような種々の方法のうちの何れかを用いる構成であればよい。特に、前述した第1、第2の方法を用いて交互表示を実行することで、静止画像とLV画像の表示遅延を調整することでユーザに与える違和感を抑制するのが好ましい。なお、第1の方法と第2の方法を組み合わせて交互表示を実行する構成であってもよい。   In the case of performing the alternate display, the imaging apparatus according to the present embodiment may be configured to use any one of the various methods illustrated in the timing charts illustrated in FIGS. In particular, it is preferable that by performing the alternate display using the first and second methods described above, it is preferable to adjust the display delay of the still image and the LV image, thereby suppressing a sense of discomfort given to the user. Note that a configuration in which the first method and the second method are combined to perform the alternate display may be employed.

以上説明したように、本実施例によれば、カメラ本体1120は、種々の条件に基づいて交互表示に用いる画像間の差が大きいと考えられる場合は、複数の画像を順次取得して順次表示する処理(交互表示)を実行しない構成である。換言すると、カメラ本体1120は、種々の条件に基づいて交互表示に用いる画像間の差が小さい考えられる場合に、複数の画像を順次取得して順次表示する処理(交互表示)を実行する構成である。したがって、本実施例のカメラ本体1120は、交互表示に用いる画像間の差に基づいて交互表示の実行有無を判定することが出来るため、交互表示を実行することでユーザに与える違和感が大きくなることを抑制することが出来る。   As described above, according to the present embodiment, the camera body 1120 sequentially acquires a plurality of images and sequentially displays the images when it is considered that the difference between the images used for the alternate display is large based on various conditions. Is not executed. In other words, the camera body 1120 is configured to execute a process of sequentially acquiring and displaying a plurality of images (alternate display) when the difference between the images used for the alternate display is considered to be small based on various conditions. is there. Therefore, since the camera body 1120 of the present embodiment can determine whether or not to perform the alternating display based on the difference between the images used for the alternating display, the unpleasant feeling given to the user by performing the alternating display increases. Can be suppressed.

なお、上述した実施例では、静止画像とLV画像を交互に1つずつ取得する例を示したが、各画像として取得する画像の取得数はこれに限定されるものではない。本発明に係る撮像装置としては、所定の間隔で静止画像を取得する間に、少なくとも1回以上第2の画像(LV画像など)を取得する構成であればよい。例えば、静止画像を取得する間に複数のLV画像を取得する構成であってもよい。この場合、表示用の静止画像を表示部1126に表示した後に、LV画像の生成・表示を複数回繰り返し(更新し)、その後、新たに表示用の静止画像を表示する構成であればよい。なお、静止画像に対してLV画像を取得する際の露光時間が短い場合は、上述した複数のLV画像を加算(フレーム加算)し、例えば、静止画像と略同一の露光時間とする構成であってもよい。そして、上述したフレーム加算を行う場合は、各LV画像間で移動平均処理を行うことにより、表示更新間隔を損ねることなくフレーム加算を実現することができる。   Note that, in the above-described embodiment, an example in which still images and LV images are acquired one by one alternately has been described, but the number of images acquired as each image is not limited to this. The imaging device according to the present invention may be configured to acquire the second image (such as an LV image) at least once during acquisition of still images at predetermined intervals. For example, a configuration in which a plurality of LV images are acquired while acquiring a still image may be employed. In this case, the configuration may be such that after the display still image is displayed on the display unit 1126, the generation and display of the LV image is repeated (updated) a plurality of times, and then a new display still image is displayed. When the exposure time for acquiring an LV image with respect to a still image is short, the above-described plurality of LV images are added (frame addition), and for example, the exposure time is set to be substantially the same as the still image. You may. When the above-described frame addition is performed, the frame addition can be realized without impairing the display update interval by performing the moving average process between the LV images.

[第4実施例]
次に、本発明の第4実施例について図21〜23を参照して説明する。なお、第4実施例では、露出シミュレーション機能に関する設定に応じた交互表示の方法について説明する。具体的に、本実施例では、交互表示を実行する場合は、露出シミュレーション設定のオン/オフに依らず、交互表示に用いられる連続する画像間における明るさの差を小さくするためのカメラ本体1120における制御について説明する。
[Fourth embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIGS. In the fourth embodiment, a method of alternate display according to the setting regarding the exposure simulation function will be described. Specifically, in this embodiment, when performing the alternate display, the camera body 1120 for reducing the difference in brightness between successive images used for the alternate display regardless of whether the exposure simulation setting is on or off. Will be described.

ここで、露出シミュレーション機能とは、ユーザによって設定された露出条件(例えば、露光時間、絞り値、ゲインなどの露出パラメータ)において取得される画像を、実際に被写体を本撮像する前にシミュレートする機能である。したがって、この露出シミュレーション設定がオンされていることにより、ユーザは本撮像で取得され得る静止画像を事前に確認することができる。   Here, the exposure simulation function simulates an image obtained under exposure conditions (for example, exposure parameters such as an exposure time, an aperture value, and a gain) set by a user before actually capturing a subject. Function. Therefore, by turning on the exposure simulation setting, the user can confirm in advance a still image that can be acquired by the main imaging.

また、ユーザの意図により、被写体に対する適正ではない明るさで撮像する場合もある。この場合、露出シミュレーション設定がオンされていると、設定済みの露出条件に取得され得る静止画像に合わせてLV表示が行われるため、例えば、ユーザがアンダー側の露出条件で静止画像を取得する場合に、LV画像が暗くなり、視認性が低下してしまう。このような場合は、露出シミュレーション設定をオフすることで、ユーザによる視認に適した明るさの画像を表示させることができる。   Further, there is a case where an image is captured with an inappropriate brightness for a subject depending on a user's intention. In this case, if the exposure simulation setting is turned on, the LV display is performed in accordance with the still image that can be acquired under the set exposure condition. For example, when the user acquires a still image under the under exposure condition In addition, the LV image becomes dark, and the visibility deteriorates. In such a case, by turning off the exposure simulation setting, it is possible to display an image having a brightness suitable for visual recognition by the user.

以下、図21を参照して、本実施例に係る焦点検出処理、撮像処理、および表示処理について説明する。なお、前述した第3実施例と略同一の構成についての説明は省略し、同一の符号を付す。図21は、本発明の第4実施例に係る露出シミュレーション設定と交互表示に係る設定に基づく交互表示方法について例示的に説明する図である。このうち、図21Aは、本発明の第4実施例に係る交互表示設定と露出シミュレーション設定に応じて表示部1126に表示される画像について例示的に説明する図である。なお、図21では、LV撮影時に表示部1126に表示されるLV画像と表示用の静止画像を交互に表示する場合を想定している。また、図21において太枠で囲う画像が表示用の静止画像(第3の画像)と示し、それ以外の画像がLV画像を示している。   Hereinafter, the focus detection processing, the imaging processing, and the display processing according to the present embodiment will be described with reference to FIG. The description of the same configuration as that of the third embodiment is omitted, and the same reference numeral is given. FIG. 21 is a diagram illustratively illustrating an alternate display method based on an exposure simulation setting and an alternate display setting according to the fourth embodiment of the present invention. Among them, FIG. 21A is a diagram exemplarily illustrating an image displayed on the display unit 1126 according to the alternate display setting and the exposure simulation setting according to the fourth embodiment of the present invention. Note that FIG. 21 assumes a case in which an LV image displayed on the display unit 1126 and a still image for display are alternately displayed during LV shooting. In FIG. 21, an image surrounded by a bold frame is a still image (third image) for display, and the other images are LV images.

まずは、交互表示設定がオン、露出シミュレーション設定がオンである場合について説明する。この場合、ユーザによって設定されている露出条件に応じて、交互表示に用いられる画像の明るさは異なる。例えば、ユーザが設定した露出条件が被写体に対して適正な明るさ(露出)である場合は、図21Aに図示する(11)のように、適正な露出に相当する明るさの画像を交互表示に用いる。また、例えば、ユーザが設定した露出条件が被写体に対してアンダー側の明るさ(露出)である場合は、図21Aに図示する(21)のように、アンダー側の露出に相当する明るさの画像を交互に用いる。なお、露出シミュレーションがオンされている場合は、静止画像の明るさに合わせるようにLV画像の明るさを調整する。   First, the case where the alternate display setting is ON and the exposure simulation setting is ON will be described. In this case, the brightness of the image used for alternate display differs depending on the exposure condition set by the user. For example, when the exposure condition set by the user is an appropriate brightness (exposure) for the subject, an image having a brightness corresponding to the appropriate exposure is alternately displayed as (11) shown in FIG. 21A. Used for Further, for example, when the exposure condition set by the user is the brightness (exposure) on the underside of the subject, as shown in (21) in FIG. 21A, the brightness corresponding to the underside exposure is obtained. Use the images alternately. When the exposure simulation is turned on, the brightness of the LV image is adjusted to match the brightness of the still image.

次に、交互表示設定がオン、露出シミュレーション設定がオフである場合について説明する。この場合、露出シミュレーション設定がオフされているので、ユーザの設定した露出条件に応じて交互表示に用いる画像の明るさを調整する必要はない。したがって、この場合は、図21Aに図示する(12)または図21Aに図示する(22)に示すように、露出条件に依らず、ユーザの視認性を優先した適正な明るさ(露出)に相当する画像が交互表示に用いられる。なお、この場合は、LV画像の明るさに合わせるように表示用の静止画像の明るさを調整する。   Next, a case where the alternate display setting is on and the exposure simulation setting is off will be described. In this case, since the exposure simulation setting is turned off, it is not necessary to adjust the brightness of the image used for the alternate display according to the exposure condition set by the user. Therefore, in this case, as shown in (12) shown in FIG. 21A or (22) shown in FIG. 21A, it corresponds to an appropriate brightness (exposure) that prioritizes the visibility of the user regardless of the exposure condition. Are used for alternate display. In this case, the brightness of the display still image is adjusted to match the brightness of the LV image.

次に、交互表示設定がオフ、露出シミュレーション設定がオンである場合について説明する。この場合、交互表示設定がオフされているので表示用の静止画像(第3の画像)は表示部1126に表示させない(なお、図21Aにおいては点線で図示している)。そして、露出シミュレーション設定がオンされているので、露出条件に応じてLV画像に施す画像処理が異なる。例えば、被写体の明るさに対して適正な露出に相当するような露出条件が設定されている場合は、図21Aに図示する(13)で示すように、適正な露出に相当する明るさのLV画像のみが表示部1126に表示される。また、被写体の明るさに対してアンダー側の露出に相当するような露出条件が設定されている場合は、図21Aに図示する(23)で示すように、アンダー側の露出に相当するLV画像が表示部1126に表示される。   Next, the case where the alternate display setting is off and the exposure simulation setting is on will be described. In this case, since the alternate display setting is turned off, the display still image (third image) is not displayed on the display unit 1126 (in FIG. 21A, it is indicated by a dotted line). Since the exposure simulation setting is turned on, the image processing performed on the LV image differs depending on the exposure condition. For example, when an exposure condition corresponding to an appropriate exposure for the brightness of the subject is set, as shown in (13) illustrated in FIG. 21A, an LV having a brightness corresponding to the appropriate exposure is set. Only the image is displayed on the display unit 1126. When an exposure condition corresponding to the underside exposure with respect to the brightness of the subject is set, as shown by (23) in FIG. 21A, the LV image corresponding to the underside exposure is set. Is displayed on the display unit 1126.

次に、交互表示設定がオフ、露出シミュレーション設定がオフである場合について説明する。この場合、交互表示設定がオフされているので、図21Aに図示する(14)で示すように表示用の静止画像(第3の画像)は表示部1126に表示させない(なお、図21Aにおいては点線で図示している)。そして、露出シミュレーション設定がオフされているので、図21Aに図示する(24)で示すように、露出条件によらず、ユーザの視認性を優先した適正な明るさ(露出)に相当するLV画像が表示部1126に表示される。   Next, a case where the alternate display setting is off and the exposure simulation setting is off will be described. In this case, since the alternate display setting is turned off, a still image (third image) for display is not displayed on the display unit 1126 as shown in (14) shown in FIG. 21A (note that in FIG. 21A, This is shown by the dotted line). Then, since the exposure simulation setting is turned off, as shown in (24) shown in FIG. 21A, the LV image corresponding to the appropriate brightness (exposure) giving priority to the visibility of the user regardless of the exposure condition. Is displayed on the display unit 1126.

ここで、交互表示設定がオン、露出シミュレーション設定がオフである場合の処理について図21Bを参照して説明する。図21Bは、交互表示設定がオン、露出シミュレーション設定がオフである場合における交互表示について例示的に説明する図である。この設定においては、通常は表示用の静止画像の生成に際して、直前に取得されたLV画像に合わせてゲイン調整を行う。しかしながら、図21Bの(22’)に示すように、ユーザが設定した露出条件がアンダー側の露出である場合は、静止画像はアンダー側の露出に相当する明るさとなり、LV画像は視認性を優先した適正な露出に相当する明るさとなる。したがって、これらの画像を交互表示すると、明るさが異なる(連続性がない)画像が交互に表示されてしまうため、ユーザに与える違和感が大きい。そこで、本実施例では、交互表示設定がオン、露出シミュレーション設定がオフである場合に、交互表示を優先し露出シミュレーション設定がオンである場合と同様に交互表示用の画像の明るさを調整する構成であってもよい(図21Bの(21)など)。逆に、露出シミュレーション設定を優先させるため、交互表示設定がオフされたときと同様に交互表示に用いる画像を選択する構成であってもよい(図21Bの(24)など)。   Here, processing when the alternate display setting is on and the exposure simulation setting is off will be described with reference to FIG. 21B. FIG. 21B is a diagram exemplarily illustrating the alternate display when the alternate display setting is on and the exposure simulation setting is off. In this setting, usually, when a still image for display is generated, the gain is adjusted in accordance with the LV image acquired immediately before. However, as shown in (22 ') of FIG. 21B, when the exposure condition set by the user is under exposure, the still image has brightness equivalent to the under exposure, and the LV image has low visibility. The brightness is equivalent to the appropriate priority exposure. Therefore, when these images are alternately displayed, images having different brightness (no continuity) are alternately displayed, so that a sense of discomfort given to the user is large. Therefore, in the present embodiment, when the alternate display setting is on and the exposure simulation setting is off, priority is given to the alternate display, and the brightness of the image for the alternate display is adjusted in the same manner as when the exposure simulation setting is on. It may be configured (such as (21) in FIG. 21B). Conversely, in order to give priority to the exposure simulation setting, a configuration may be used in which an image used for alternate display is selected in the same manner as when the alternate display setting is turned off ((24) in FIG. 21B).

次に、本実施例に係るLV画像(第2の画像)の生成、表示処理の詳細について図22を参照して説明する。図22は、本発明の第4実施例に係るLV画像の生成・表示処理について説明するフローチャートである。なお、以降は、連続撮影における2回目以降の撮像動作に該当するn回目(nは自然数)の撮像動作を仮定して説明する。また、本実施例における基本的な処理フローは前述した第3実施例(図13)と略同一であり、以下に説明する、第2の画像生成・表示に係る処理(図22)と第3の画像生成・表示に係る処理(図23)のみが、前述した第3実施例とは異なる。以降は、前述した第3実施例とは異なる点を説明する。   Next, details of the generation and display processing of the LV image (second image) according to the present embodiment will be described with reference to FIG. FIG. 22 is a flowchart illustrating an LV image generation / display process according to the fourth embodiment of the present invention. Hereinafter, the description will be made assuming an n-th (n is a natural number) imaging operation corresponding to the second and subsequent imaging operations in continuous imaging. Further, the basic processing flow in this embodiment is substantially the same as that of the third embodiment (FIG. 13), and the processing relating to the second image generation / display (FIG. 22) and the third Only the processing (FIG. 23) related to image generation / display differs from the third embodiment described above. Hereinafter, points different from the third embodiment will be described.

S1801〜S1802までの処理は、前述第3実施例のS801〜S802と同一なので説明は省略する。なお、S1802で交互表示フラグ=1と判定された場合はS1803の処理に進み、S1802で交互表示フラグ≠1(すなわち、交互表示フラグ=0)と判定された場合はS1806の処理に進む。   Steps S1801 to S1802 are the same as steps S801 to S802 in the third embodiment, and a description thereof will be omitted. If it is determined in S1802 that the alternate display flag = 1, the process proceeds to S1803, and if it is determined in S1802 that the alternate display flag is ≠ 1 (that is, the alternate display flag = 0), the process proceeds to S1806.

S1803でカメラMPU1125は、露出シミュレーション設定がオンであるか否かを判定する。なお、本実施例のカメラ本体1120は、操作スイッチ群1127などをユーザが操作することで、露出シミュレーション設定を任意にオン/オフに切り替えることが出来る。S1803で露出シミュレーション設定がオンと判定された場合は、S1804に進み、カメラMPU1125は、交互表示に用いるLV画像である第2の画像(n)の編集設定を行う。S1804の処理では、ユーザが設定した露出条件に合わせてLV画像を生成し、当該LV画像を交互表示に用いることを目的とする。したがって、カメラMPU1125は、S1801で得た露出条件を用いて、直前に取得(生成)された第3の画像(n−1)と第2の画像(n)の差が小さくなるように、LV画像(第2の画像(n))の編集設定を行う。編集設定の詳細は、前述した第3実施例と同一なので説明は省略する。   In step S1803, the camera MPU 1125 determines whether the exposure simulation setting is on. Note that the camera body 1120 of the present embodiment can arbitrarily switch on / off the exposure simulation setting by operating the operation switches 1127 and the like by the user. If it is determined in step S1803 that the exposure simulation setting is ON, the flow advances to step S1804, and the camera MPU 1125 performs editing settings for the second image (n), which is an LV image used for alternate display. The process of S1804 aims to generate an LV image according to the exposure condition set by the user and use the LV image for alternate display. Therefore, the camera MPU 1125 uses the exposure condition obtained in S1801 so that the difference between the third image (n−1) and the second image (n) acquired (generated) immediately before is reduced. Edit setting of the image (second image (n)) is performed. The details of the editing settings are the same as in the third embodiment described above, and a description thereof will be omitted.

また、S1803で露出シミュレーション設定がオフと判定された場合は、S1805に進み、カメラMPU1125は、S1804に進み、カメラMPU1125は、交互表示に用いるLV画像である第2の画像(n)の編集設定を行う。S1805の処理では、露出シミュレーション設定がオフされているため、ユーザの視認性を考慮して、被写体の明るさに対して適正な露出に相当する明るさとなるようにLV画像の編集設定を行う。なお、交互表示する場合であって露出シミュレーション設定がオフされている場合は、後述する第3の画像生成・表示処理において、LV画像に合わせて表示用の静止画像の明るさを調整する。したがって、このタイミングにおける編集設定としては、LV画像としてユーザの視認性を考慮した明るさに調整するための設定であればよい。また、適正な露出に関する情報は、メモリ1128などに予め格納されているものとする。   If it is determined in step S1803 that the exposure simulation setting is OFF, the process advances to step S1805, and the camera MPU 1125 advances to step S1804. The camera MPU 1125 edits the second image (n), which is an LV image used for alternate display. I do. In the processing of S1805, since the exposure simulation setting is turned off, the editing setting of the LV image is performed in consideration of the visibility of the user so that the brightness becomes equivalent to the appropriate exposure for the brightness of the subject. In the case where the display is alternately displayed and the exposure simulation setting is turned off, the brightness of the display still image is adjusted in accordance with the LV image in a third image generation / display process described later. Therefore, the editing setting at this timing may be any setting for adjusting the brightness to an LV image in consideration of the user's visibility. Also, it is assumed that the information regarding the proper exposure is stored in advance in the memory 1128 or the like.

次に、S1802の処理で交互表示フラグ≠1と判定された場合について説明する。なお、S1806の処理はS1803の処理と略同一なので説明は省略する。S1806で露出シミュレーション設定がオンと判定された場合はS1807に進み、カメラMPU1125は、表示部1126に静止画像を表示しない場合における、表示用のLV画像(第2の画像(n))の編集設定を行う。S1807の処理では、直前に取得した第3の画像(記録用の静止画像(n−1))を表示に用いることはないので、LV画像(n)のみが予め設定されている露出条件に応じた明るさとなるような編集設定を行う。例えば、連続撮影時においては、記録用の静止画像(第1の画像)を取得する際の露出条件に合わせてLV画像に対する編集設定を行う。本実施例では、特に、露出条件に合わせてゲイン調整することで、LV画像を所望の明るさとするが、他のパラメータを調整することで、露出条件に応じたLV画像の明るさを実現する構成であってもよい。   Next, a case where it is determined that the alternate display flag is # 1 in the process of S1802 will be described. Note that the processing in S1806 is substantially the same as the processing in S1803, and thus description thereof is omitted. If it is determined in step S1806 that the exposure simulation setting is ON, the process advances to step S1807. In step S1807, the camera MPU 1125 edits the display LV image (second image (n)) when a still image is not displayed on the display unit 1126. I do. In the process of S1807, since the third image (the still image (n-1) for recording) acquired immediately before is not used for display, only the LV image (n) is used according to the preset exposure condition. Edit settings to make the image brighter. For example, at the time of continuous shooting, editing settings for an LV image are performed in accordance with the exposure conditions when a still image for recording (first image) is obtained. In this embodiment, in particular, the LV image is set to a desired brightness by adjusting the gain according to the exposure condition, but the brightness of the LV image according to the exposure condition is realized by adjusting other parameters. It may be a configuration.

また、S1806で露出シミュレーション設定がオフの場合はS1808に進み、カメラMPU1125は、表示部1126に静止画像を表示しない場合における、表示用のLV画像(第2の画像(n))の編集設定を行う。この場合、前述したS1807の処理とは異なり、LV画像を露出条件(例えば、記録用の静止画像)に応じた明るさに調整する必要はなく、LV画像の明るさを表示部1126への表示に適した明るさとするような編集設定を行う。以降のS1809〜S1812の処理は、前述した第3実施例におけるS805〜S808の処理と略同一なので説明は省略する。   If the exposure simulation setting is off in step S1806, the process advances to step S1808, and the camera MPU 1125 edits the display LV image (second image (n)) when the still image is not displayed on the display unit 1126. Do. In this case, unlike the processing of S1807 described above, it is not necessary to adjust the LV image to a brightness according to the exposure condition (for example, a still image for recording), and the brightness of the LV image is displayed on the display unit 1126. Edit settings to make the brightness suitable for Subsequent processing in S1809 to S1812 is substantially the same as the processing in S805 to S808 in the third embodiment described above, and a description thereof will be omitted.

次に、本実施例に係る表示用の静止画像(第3の画像)の生成、表示処理の詳細について図23を参照して説明する。図23は、本発明の第4実施例に係る表示用の静止画像の生成・表示処理について説明するフローチャートである。なお、本実施例においては、前述したように、記録用の静止画像の明るさに近づくようにLV画像の編集設定を行うが、撮影動作の容易さを優先して、LV画像(n)に合わせるように表示用の静止画像(n)の編集設定を行う場合について説明する。   Next, generation and display processing of a display still image (third image) according to the present embodiment will be described in detail with reference to FIG. FIG. 23 is a flowchart illustrating a process of generating and displaying a still image for display according to the fourth embodiment of the present invention. In this embodiment, as described above, the editing setting of the LV image is performed so as to approach the brightness of the still image for recording. A case will be described in which the edit setting of the display still image (n) is performed so as to match.

S1901の処理は前述した第3実施例のS701の処理と同様なので説明は省略する。次に、S1902でカメラMPU1125は、ユーザにより露出シミュレーション設定がオンされているか否かを判定する。S1902で露出シミュレーション設定がオンと判定された場合は、S1903に進み、カメラMPU1125は、交互表示に用いる表示用の静止画像(第3の画像(n))の編集設定を行う。   The process of S1901 is the same as the process of S701 of the third embodiment described above, and thus the description is omitted. Next, in step S1902, the camera MPU 1125 determines whether the exposure simulation setting has been turned on by the user. If it is determined in step S1902 that the exposure simulation setting is ON, the flow advances to step S1903, and the camera MPU 1125 performs editing settings for a display still image (third image (n)) used for alternate display.

S1903の処理では、露出シミュレーションを実行するため、先に取得されている記録用の静止画像(n)の露出条件に相当する明るさとなるように表示用の静止画像(n)を取得し、当該表示用の静止画像を交互表示に用いることを目的とする。したがって、カメラMPU1125は、S1901で得た露出条件に応じた明るさであって直前に取得(生成)されたLV画像(n)との差が小さくなるように表示用の静止画像(第3の画像(n))の編集設定を行う。なお、露出シミュレーション設定がオンされている場合は、静止画像に合わせてLV画像の明るさを調整するので、静止画像用の編集設定としては、直前のLV画像の明るさに依らず、ユーザにより設定された露出条件のみに基づく編集設定としてもよい。   In the process of S1903, in order to execute an exposure simulation, a display still image (n) is acquired so as to have a brightness corresponding to the exposure condition of the previously acquired recording still image (n). A still image for display is used for alternate display. Therefore, the camera MPU 1125 displays the still image for display (third image) such that the brightness is in accordance with the exposure condition obtained in S1901 and the difference from the previously acquired (generated) LV image (n) is small. Image (n)) is edited. When the exposure simulation setting is turned on, the brightness of the LV image is adjusted according to the still image. Therefore, the editing setting for the still image is set by the user regardless of the brightness of the immediately preceding LV image. Edit settings may be based on only the set exposure conditions.

S1902で露出シミュレーション設定がオフと判定された場合は、S1904に進み、カメラMPU1125は、交互表示に用いる表示用の静止画像(第3の画像(n))の編集設定を行う。S1904の処理では、露出シミュレーションを実行しないため、ユーザが設定した露出条件に合わせて表示用の静止画像(第3の画像(n))を取得し、当該表示用の静止画像を交互表示に用いることを目的とする。したがって、カメラMPU1125は、S1901で取得した露出条件に依らず、直前に取得(生成)されたLV画像(n)との差が小さくなるように表示用の静止画像(第3の画像(n))の編集設定を行う。この編集設定としては、例えば、LV画像の明るさに合わせて表示用の静止画像を取得する際のゲイン調整を行う。すなわち、交互表示を実行する場合であって露出シミュレーションを実行しない場合は、直前に取得(又は表示)されたLV画像の明るさに合わせて静止画像の明るさを調整する。撮影以降の、S1905〜S1908の処理は、前述第3実施例のS1103〜S1106の処理と略同一なので説明は省略する。   If it is determined in step S1902 that the exposure simulation setting is off, the flow advances to step S1904, and the camera MPU 1125 performs editing settings for a display still image (third image (n)) used for alternate display. In the processing of S1904, since the exposure simulation is not performed, a still image for display (third image (n)) is acquired in accordance with the exposure condition set by the user, and the still image for display is used for alternate display. The purpose is to: Therefore, the camera MPU 1125 sets the display still image (third image (n)) so as to reduce the difference from the previously acquired (generated) LV image (n) regardless of the exposure condition acquired in S1901. ) Edit settings. As this editing setting, for example, a gain adjustment for acquiring a display still image is performed in accordance with the brightness of the LV image. That is, when performing the alternating display and not performing the exposure simulation, the brightness of the still image is adjusted in accordance with the brightness of the LV image acquired (or displayed) immediately before. The processing of S1905 to S1908 after the photographing is substantially the same as the processing of S1103 to S1106 of the third embodiment, and a description thereof will be omitted.

以上説明したように、本実施例に係るカメラ本体1120は、露出シミュレーションの有無に依らず、交互表示に用いる画像間の差が小さくなるように各画像を取得する構成である。例えば、露出シミュレーション設定がオンされている場合は、ユーザが設定した露出条件に基づいてLV画像の明るさを調整する構成である。また、露出シミュレーション設定がオフされている場合は、ユーザの視認性を優先して、LV画像の明るさに合わせて静止画像の明るさを調整する。この構成により、交互表示において明るさが異なる画像が連続的に表示されることを低減できる。したがって、本実施例のカメラ本体1120は、交互表示に係る設定と露出シミュレーション設定に応じて、表示部1126での表示される画像の不自然になることを抑制し、ユーザに与える違和感を低減することが出来る。   As described above, the camera main body 1120 according to the present embodiment is configured to acquire each image such that the difference between the images used for the alternate display becomes small regardless of the presence or absence of the exposure simulation. For example, when the exposure simulation setting is turned on, the brightness of the LV image is adjusted based on the exposure condition set by the user. When the exposure simulation setting is turned off, the brightness of the still image is adjusted in accordance with the brightness of the LV image, giving priority to the visibility of the user. With this configuration, it is possible to reduce continuous display of images having different brightness in alternate display. Therefore, the camera body 1120 according to the present embodiment suppresses the image displayed on the display unit 1126 from becoming unnatural according to the setting related to the alternate display and the exposure simulation setting, and reduces a sense of discomfort given to the user. I can do it.

なお、前述した実施例では、交互表示設定がオンされており、露出シミュレーション設定がオフされている状態に、LV画像に合わせて静止画像の明るさを調整する点について言及したが、これに限定されるものではない。例えば、静止画像のように画素の間引き量が少ない高解像度の画像に対する明るさ調整(例えばゲイン調整や画像処理)を施すには、演算負荷が大きいため、この場合に、カメラMPU1125が交互表示行わないように制御する構成であってもよい。   In the above-described embodiment, the point that the brightness of the still image is adjusted in accordance with the LV image when the alternate display setting is on and the exposure simulation setting is off has been described. It is not something to be done. For example, to perform brightness adjustment (for example, gain adjustment or image processing) on a high-resolution image with a small pixel thinning amount such as a still image, the calculation load is large. In this case, the camera MPU 1125 performs alternate display. The configuration may be such that control is not performed.

なお、LV画像に合わせて静止画を調整する場合において明るさ以外にも視野範囲を調整してもよい。LV表示においては電子的な手振れ補正等が行われることが多いため、静止画の視野範囲よりも狭くなる場合がある、このような場合においてはLV画像の視野範囲に合わせて静止画を調整することが好ましい。   When adjusting a still image in accordance with an LV image, the field of view may be adjusted in addition to the brightness. In LV display, electronic image stabilization is often performed, so it may be narrower than the view range of the still image.In such a case, adjust the still image according to the view range of the LV image Is preferred.

以上、本発明の好ましい実施例について説明したが、本発明はこれらに限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、上述した実施例では、LV画像を用いて焦点検出を実行する例を示したが、第2の画像としてはLV画像に限定されるものではない。例えば、焦点検出に用いる画像とLV画像とを別に取得する場合、焦点検出用の画像およびLV画像の双方が第2の画像に該当する。また、静止画像の撮像開始前にLV表示を行わない場合、被写体の連続撮影中に交互表示を実行する際に、LV画像としては用いない焦点検出用の画像と静止画像を交互表示に用いる構成であってもよい。   Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these, and various modifications and changes can be made within the scope of the gist. For example, in the above-described embodiment, an example in which focus detection is performed using an LV image has been described. However, the second image is not limited to the LV image. For example, when separately obtaining an image used for focus detection and an LV image, both the image for focus detection and the LV image correspond to the second image. Further, in a case where the LV display is not performed before the start of capturing of a still image, a configuration in which a focus detection image and a still image that are not used as an LV image are alternately displayed when alternate display is performed during continuous shooting of a subject. It may be.

また、上述した実施例では、カメラ本体1120に対してレンズユニットを着脱可能な所謂レンズ交換タイプの撮像装置について説明したが、これに限定されるものではない。例えば、カメラ本体とレンズユニットとが一体的に形成されたレンズ固定タイプの撮像装置を採用する場合であっても、上述した本発明の構成を適用することが可能である。   In the above-described embodiment, a so-called interchangeable lens type imaging apparatus in which a lens unit can be attached to and detached from the camera body 1120 has been described. However, the present invention is not limited to this. For example, the configuration of the present invention described above can be applied to a case where a lens fixed type imaging device in which a camera body and a lens unit are integrally formed is adopted.

また、前述した実施例では、本発明を実施する撮像装置の一例としてデジタルカメラを採用した場合について説明したが、これに限定されるものではない。例えば、デジタルビデオカメラやスマートフォンなどの可搬デバイスなどや、セキュリティカメラなど、デジタルカメラ以外の撮像装置を採用する構成であってもよい。   Further, in the above-described embodiment, the case where the digital camera is employed as an example of the imaging apparatus for implementing the present invention has been described, but the present invention is not limited to this. For example, a configuration may be adopted in which a portable device such as a digital video camera or a smartphone, or an imaging device other than a digital camera such as a security camera is used.

[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program for realizing one or more functions of the above embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This process can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

301:レンズ部
302:レンズ駆動部
304:絞り
305:シャッタ・絞り駆動部
306:撮像素子
307:撮像信号処理回路
309:全体制御演算部

301: Lens unit 302: Lens drive unit 304: Aperture 305: Shutter / aperture drive unit 306: Image sensor 307: Image signal processing circuit 309: Overall control operation unit

Claims (13)

撮像光学系を通して被写体を撮像する撮像装置であって、
前記撮像光学系により結像された光から画像信号を取得する撮像素子と、
前記撮像素子の露出パラメータを制御する第1の制御手段と、
前記撮像素子の画素部のうち、第1の画素数の画素部に相当する第1の画像と、前記第1の画素数よりも少ない第2の画素数の画素部に相当する第2の画像とを切り替えて出力する処理を行う第2の制御手段と、を備え、
前記第2の制御手段は、前記第1の画像および前記第2の画像の少なくとも一方に基づいて合焦判定を行い、
前記第2の制御手段は、前記撮像素子にて瞳分割された画像信号を読み出して焦点検出を行い、前記撮像光学系の焦点調節を制御し、
前記第1の制御手段は、前記第1の画像と前記第2の画像を取得するための露出パラメータを制御することで、続けて取得する第1の画像と第2の画像との露出パラメータの変化量を低減し、
前記第1の制御手段は、前記合焦判定に基づいて前記第2の画像を取得するための露出パラメータを制御することで、続けて取得する第1の画像と第2の画像との露出パラメータの変化量を低減する、
撮像装置。
An imaging device for imaging a subject through an imaging optical system,
An image sensor that acquires an image signal from light formed by the imaging optical system;
First control means for controlling an exposure parameter of the image sensor;
A first image corresponding to a pixel portion having a first pixel number and a second image corresponding to a pixel portion having a second pixel number smaller than the first pixel number among the pixel portions of the image sensor. And a second control means for performing a process of switching and outputting
The second control unit performs a focus determination based on at least one of the first image and the second image,
The second control means reads out an image signal pupil-divided by the image sensor, performs focus detection, controls focus adjustment of the imaging optical system,
Said first control means, the first is an image with controlling exposure parameters for acquiring the second image, the exposure parameters of the first image and the second image to be acquired continuously Reduce the amount of change ,
The first control means controls an exposure parameter for acquiring the second image based on the focus determination, thereby controlling an exposure parameter between the first image and the second image acquired successively. Reduce the amount of change in
Imaging device.
前記露出パラメータは、絞り値、感度、および露光時間の少なくとも一つを備える、
請求項1に記載の撮像装置。
The exposure parameter comprises at least one of an aperture value, sensitivity, and exposure time,
The imaging device according to claim 1 .
前記第1の画像および第2の画像を表示部に表示する表示手段をさらに備え、
前記表示手段は、前記表示部に前記第1の画像と前記第2の画像とを交互に表示する場合に、前記第1の画像と前記第2の画像との露出パラメータの差が低減されるように第3の画像を生成して表示する、
請求項1または2に記載の撮像装置。
Display means for displaying the first image and the second image on a display unit,
The display means reduces a difference in an exposure parameter between the first image and the second image when the first image and the second image are alternately displayed on the display unit. Generate and display a third image ,
The imaging device according to claim 1 .
前記第1の画像と前記第2の画像との差は、前記露出パラメータに関する露出条件、または被写体のぶれ情報およびコントラスト情報に関するボケ情報を含む、
請求項3に記載の撮像装置。
The difference between the first image and the second image includes an exposure condition related to the exposure parameter, or blur information related to subject blur information and contrast information.
The imaging device according to claim 3 .
前記表示手段は、前記第1の画像と前記第2の画像を合成することで前記第3の画像を生成する、
請求項3に記載の撮像装置。
The display means generates the third image by combining the first image and the second image,
The imaging device according to claim 3 .
前記表示部に前記第1の画像と前記第2の画像とを交互に表示するか否かを判定する判定手段をさらに備え、
前記判定手段は、前記第1の画像または前記第2の画像に関する所定の情報に基づいて、前記表示部に前記第1の画像と前記第2の画像とを続けて表示するか否かを判定する、
請求項3に記載の撮像装置。
A determination unit configured to determine whether to alternately display the first image and the second image on the display unit,
The determination unit determines whether or not to continuously display the first image and the second image on the display unit based on predetermined information regarding the first image or the second image. Do
The imaging device according to claim 3 .
前記所定の情報は、前記第1の画像を取得する際の発光装置の発光量、前記第1の画像と前記第2の画像との露出パラメータの差、前記第2の画像を取得する際の焦点検出結果、前記第2の画像を取得する際の焦点検出に係る補助光の発光有無、前記第1の画像および前記第2の画像に係るゲインに関する情報、および光源のフリッカ検知の有無のうちの少なくとも1つである、
請求項6に記載の撮像装置。
The predetermined information includes a light emission amount of the light emitting device when acquiring the first image, a difference in an exposure parameter between the first image and the second image, and a time when acquiring the second image. Focus detection results, information on the presence / absence of emission of auxiliary light related to focus detection when acquiring the second image, information on gains related to the first image and the second image, and presence / absence of flicker detection of a light source Is at least one of
The imaging device according to claim 6 .
前記第1の画像は、記録用の静止画像であって、前記第2の画像は、ライブビューに用いるライブビュー画像である、
請求項1から7のいずれか1項に記載の撮像装置。
The first image is a still image for recording, and the second image is a live view image used for a live view.
The imaging device according to claim 1 .
前記第1の制御手段は、露出パラメータを、前記第1の画像を取得する条件が優先的となるように設定する、
請求項8に記載の撮像装置。
The first control means sets an exposure parameter such that a condition for acquiring the first image has a higher priority.
An imaging device according to claim 8 .
前記第2の制御手段は、フレーミング中の追従性を優先する第1の合焦判定モードと、焦点調節の精度を優先する第2の合焦判定モードを切り替えて、前記第1の画像と前記第2の画像を交互に出力する第1の処理または前記第1の画像を出力せずに前記第2の画像を出力する第2の処理を行う、
請求項8に記載の撮像装置。
The second control means switches between a first focus determination mode in which priority is given to followability during framing and a second focus determination mode in which priority is given to accuracy of focus adjustment, so that the first image and the Performing a first process of alternately outputting a second image or a second process of outputting the second image without outputting the first image;
An imaging device according to claim 8 .
前記撮像素子は、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部と、を備える、
請求項1から10のいずれか1項に記載の撮像装置。
The imaging device includes a plurality of microlenses, and a plurality of photoelectric conversion units corresponding to each microlens,
The imaging device according to claim 1 .
撮像光学系を通して被写体を撮像する撮像装置の制御方法であって、
撮像素子を用いて、前記撮像光学系により結像された光から画像信号を取得する取得工程と、
前記撮像素子の露出パラメータを制御する第1の制御工程と、
前記撮像素子の画素部のうち、第1の画素数の画素部に相当する第1の画像と、前記第1の画素数よりも少ない第2の画素数の画素部に相当する第2の画像とを切り替えて出力する処理を行う第2の制御工程と、を備え、
前記第2の制御工程は、前記第1の画像および前記第2の画像の少なくとも一方に基づいて合焦判定を行い、
前記第2の制御工程は、前記撮像素子にて瞳分割された画像信号を読み出して焦点検出を行い、前記撮像光学系の焦点調節を制御し、
前記第1の制御工程は、前記第1の画像と前記第2の画像を取得するための露出パラメータを制御することで、続けて取得する第1の画像と第2の画像との露出パラメータの変化量を低減し、
前記第1の制御工程は、前記合焦判定に基づいて前記第2の画像を取得するための露出パラメータを制御することで、続けて取得する第1の画像と第2の画像との露出パラメータの変化量を低減する、
制御方法。
A control method of an imaging device that images a subject through an imaging optical system,
Using an imaging device, an acquisition step of acquiring an image signal from light imaged by the imaging optical system,
A first control step of controlling an exposure parameter of the image sensor;
A first image corresponding to a pixel portion having a first pixel number and a second image corresponding to a pixel portion having a second pixel number smaller than the first pixel number among the pixel portions of the image sensor. And a second control step of performing a process of switching and outputting.
The second control step performs a focus determination based on at least one of the first image and the second image,
The second control step is to read out an image signal subjected to pupil division by the image sensor, perform focus detection, control focus adjustment of the imaging optical system,
Said first control step, by controlling the exposure parameters for acquiring the first image and the second image, the first image and the exposure parameters of the second image to be acquired continuously Reduce the amount of change ,
The first control step controls an exposure parameter for acquiring the second image based on the focus determination, so that an exposure parameter for the first image and the second image acquired successively is obtained. Reduce the amount of change in
Control method.
請求項12に記載の制御方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the control method according to claim 12 .
JP2018012590A 2017-03-28 2018-01-29 Imaging device, control method, and program Active JP6643371B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/933,550 US10602051B2 (en) 2017-03-28 2018-03-23 Imaging apparatus, control method, and non-transitory storage medium
EP18163888.3A EP3383023B1 (en) 2017-03-28 2018-03-26 Imaging apparatus, control method, and non-transitory storage medium
CN201810263642.9A CN108737696B (en) 2017-03-28 2018-03-28 Image pickup apparatus, control method, and non-transitory storage medium
US16/744,856 US10986262B2 (en) 2017-03-28 2020-01-16 Imaging apparatus, control method, and non-transitory storage medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2017062852 2017-03-28
JP2017062852 2017-03-28
JP2017217626 2017-11-10
JP2017217627 2017-11-10
JP2017217627 2017-11-10
JP2017217626 2017-11-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019229078A Division JP6825073B2 (en) 2017-03-28 2019-12-19 Imaging equipment, control methods, and programs

Publications (2)

Publication Number Publication Date
JP2019079024A JP2019079024A (en) 2019-05-23
JP6643371B2 true JP6643371B2 (en) 2020-02-12

Family

ID=66626541

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018012590A Active JP6643371B2 (en) 2017-03-28 2018-01-29 Imaging device, control method, and program
JP2019229078A Active JP6825073B2 (en) 2017-03-28 2019-12-19 Imaging equipment, control methods, and programs

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019229078A Active JP6825073B2 (en) 2017-03-28 2019-12-19 Imaging equipment, control methods, and programs

Country Status (1)

Country Link
JP (2) JP6643371B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332376B2 (en) 2019-07-22 2023-08-23 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP7362748B2 (en) 2019-08-28 2023-10-17 富士フイルム株式会社 Imaging device, imaging device, operating method of the imaging device, and program
CN110441984A (en) * 2019-09-18 2019-11-12 深圳飞马机器人科技有限公司 A kind of test macro and test method of camera shutter response time lag
JP7450408B2 (en) 2020-03-05 2024-03-15 キヤノン株式会社 Electronic devices, their control methods, programs and storage media
JP2022178952A (en) 2021-05-21 2022-12-02 キヤノン株式会社 Imaging apparatus, and control method thereof
CN115022679B (en) * 2022-05-30 2023-08-29 北京百度网讯科技有限公司 Video processing method, device, electronic equipment and medium
CN115373571B (en) * 2022-10-26 2023-02-03 四川中绳矩阵技术发展有限公司 Image display device, method, equipment and medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224760A (en) * 2002-01-29 2003-08-08 Fuji Photo Film Co Ltd Digital camera
JP5221931B2 (en) * 2007-10-31 2013-06-26 キヤノン株式会社 Imaging apparatus and control method thereof
JP2010226185A (en) * 2009-03-19 2010-10-07 Olympus Imaging Corp Imaging apparatus, and method of controlling imaging apparatus
JP5495841B2 (en) * 2010-02-22 2014-05-21 オリンパスイメージング株式会社 Camera and camera control method
JP2013118463A (en) * 2011-12-02 2013-06-13 Olympus Imaging Corp Imaging apparatus and imaging method
JP6320250B2 (en) * 2014-09-08 2018-05-09 キヤノン株式会社 Image recording apparatus and method, and program

Also Published As

Publication number Publication date
JP6825073B2 (en) 2021-02-03
JP2020054002A (en) 2020-04-02
JP2019079024A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6643371B2 (en) Imaging device, control method, and program
EP3383023B1 (en) Imaging apparatus, control method, and non-transitory storage medium
JP6512810B2 (en) Image pickup apparatus, control method and program
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP5947601B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
US10992854B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JP2012049773A (en) Imaging apparatus and method, and program
JP4799366B2 (en) Imaging apparatus and image reproduction apparatus
JP2006091915A (en) Imaging apparatus
JP6609910B2 (en) Imaging device
JP2019009694A (en) Imaging apparatus, control method and program
JP6997544B2 (en) Imaging device and its control method, program, storage medium
JP2009260565A (en) Imaging apparatus and control method thereof, and program
JP2015152830A (en) Imaging device and control method thereof, program, and storage medium
JP2016032180A (en) Imaging apparatus, control method and program
JP6071748B2 (en) Imaging apparatus and control method thereof
US11832020B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP2010028219A (en) Photographing apparatus
JP5239687B2 (en) Imaging device
JP7353749B2 (en) Image processing device, imaging device, and method for controlling the image processing device
JP6409083B2 (en) Imaging apparatus, imaging method, and imaging program
WO2015182021A1 (en) Image pickup control apparatus, image pickup apparatus, and image pickup control method
JP2007057704A (en) Camera
JP2015204579A (en) Imaging apparatus
JP2013186274A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R151 Written notification of patent or utility model registration

Ref document number: 6643371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151