JP6257231B2 - IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE - Google Patents

IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE Download PDF

Info

Publication number
JP6257231B2
JP6257231B2 JP2013186492A JP2013186492A JP6257231B2 JP 6257231 B2 JP6257231 B2 JP 6257231B2 JP 2013186492 A JP2013186492 A JP 2013186492A JP 2013186492 A JP2013186492 A JP 2013186492A JP 6257231 B2 JP6257231 B2 JP 6257231B2
Authority
JP
Japan
Prior art keywords
focus
focus adjustment
unit
control unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013186492A
Other languages
Japanese (ja)
Other versions
JP2015052747A (en
Inventor
哲央 菊地
哲央 菊地
功刀 和正
和正 功刀
浩一 新谷
浩一 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013186492A priority Critical patent/JP6257231B2/en
Publication of JP2015052747A publication Critical patent/JP2015052747A/en
Application granted granted Critical
Publication of JP6257231B2 publication Critical patent/JP6257231B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

この発明は、複数方式の焦点調節手段を備えた撮像装置における焦点調節手段の切換制御に関するものである。   The present invention relates to switching control of focus adjusting means in an imaging apparatus provided with a plurality of types of focus adjusting means.

従来、撮影光学系により結像された光学像を撮像素子等を用いて順次画像信号に変換して、静止画像や動画像等の画像データを生成し記録し再生し得るデジタルカメラ等の撮像装置が一般に実用化され広く普及している。この種の撮像装置は、焦点調節を自動的に行うための自動焦点調節(オートフォーカス;AF)手段を備えているのが普通である。   2. Description of the Related Art Conventionally, an imaging device such as a digital camera that can sequentially convert an optical image formed by a photographing optical system into an image signal using an imaging device or the like to generate, record, and reproduce image data such as a still image or a moving image Is generally put into practical use and widely used. This type of imaging apparatus usually includes an automatic focus adjustment (autofocus; AF) means for automatically performing focus adjustment.

近年において、このような従来の撮像装置においては、複数方式の焦点調節手段、例えば撮像素子の受光面(撮像面)の全域に亘って二次元状に配列された複数の撮像用画素を用いてコントラスト検出方式の自動焦点調節(オートフォーカス;AF)制御を行う手段と、上記撮像面に配列された複数の撮像用画素の一部の領域に配列された複数の焦点検出用画素を用いて撮像面位相差検出方式の自動焦点調節(オートフォーカス;AF)制御を行う手段とを具備した撮像装置についての提案が種々なされており、また徐々に実用化されつつある。   In recent years, in such a conventional imaging apparatus, a plurality of types of focus adjusting means, for example, a plurality of imaging pixels arranged two-dimensionally over the entire light receiving surface (imaging surface) of the imaging element are used. Imaging using a means for performing contrast detection type automatic focus adjustment (autofocus; AF) control and a plurality of focus detection pixels arranged in a partial area of the plurality of imaging pixels arranged on the imaging surface. Various proposals have been made for an image pickup apparatus provided with means for performing an automatic focus adjustment (autofocus; AF) control of a surface phase difference detection method, and it is gradually being put into practical use.

例えば、特開2013−3501号公報によって開示されている撮像装置は、撮像面に撮像用画素と焦点検出用画素とを二次元状に配置した撮像素子を備えた撮像装置であって、焦点検出用画素の出力信号に基づいて位相差検出方式による焦点調節を行う第一焦点調節手段と、撮像用画素の出力信号に基づいてコントラスト方式による焦点調節を行う第二焦点調節手段と、主要被写体を認識する画像処理手段とを備え、主要被写体と焦点検出領域との位置関係に基づいて、第一焦点調節手段と第二焦点調節手段とを切り換えるというものである。この場合においては、例えば、第一焦点調節手段による焦点調節中に主要被写体が焦点検出領域から外れたときには、第一焦点調節手段から第二焦点調節手段へ切り換えると共に、第一焦点調節手段の動作を停止させる、というものである。   For example, an imaging apparatus disclosed in Japanese Patent Laid-Open No. 2013-3501 is an imaging apparatus including an imaging element in which imaging pixels and focus detection pixels are two-dimensionally arranged on an imaging surface, and includes focus detection. A first focus adjustment unit that performs focus adjustment by a phase difference detection method based on an output signal of a pixel for imaging, a second focus adjustment unit that performs focus adjustment by a contrast method based on an output signal of an imaging pixel, and a main subject Recognizing image processing means, and switching between the first focus adjusting means and the second focus adjusting means based on the positional relationship between the main subject and the focus detection area. In this case, for example, when the main subject moves out of the focus detection area during the focus adjustment by the first focus adjustment means, the first focus adjustment means is switched to the second focus adjustment means, and the operation of the first focus adjustment means is performed. Is to stop.

また、特開2008−134390号公報によって開示されている撮像装置は、位相差検出方式とコントラスト検出方式とを併用して焦点検出を行う際に、より高速で高精度な焦点検出を行い得る、というものである。   In addition, the imaging device disclosed in Japanese Patent Application Laid-Open No. 2008-134390 can perform focus detection at higher speed and higher accuracy when performing focus detection using both the phase difference detection method and the contrast detection method. That's it.

特開2013−3501号公報JP2013-3501A 特開2008−134390号公報JP 2008-134390 A

ところが、上記特開2013−3501号公報によって開示されている撮像装置は、第一焦点調節手段と第二焦点調節手段との切り換えを、主要被写体と焦点検出領域との位置関係に基づいて行うようにしているが、その他の切り換え条件についての提示はなされていない。したがって、例えば主要被写体と焦点検出領域との位置関係に基づいて、焦点調節手段を切り換えた場合、応答性に関する考慮がなされていないので、高速性や高精度を損なう切り換え制御がなされてしまうことがある等の問題点が生じる可能性がある。   However, the imaging apparatus disclosed in the above Japanese Patent Application Laid-Open No. 2013-3501 performs switching between the first focus adjustment unit and the second focus adjustment unit based on the positional relationship between the main subject and the focus detection area. However, no other switching conditions are presented. Therefore, for example, when the focus adjusting means is switched based on the positional relationship between the main subject and the focus detection area, since the response is not taken into consideration, switching control that impairs high speed and high accuracy may be performed. There may be some problems.

また、上記特開2008−134390号公報によって開示されている撮像装置は、位相差検出方式とコントラスト検出方式とを併用して焦点検出を行う際の高速化及び高精度化を目指すものであって、位相差検出方式とコントラスト検出方式とを切り換えていずれか一方を選択制御するというものではない。また、位相差検出方式による焦点検出時にフォーカスレンズの駆動を行うようにしているので、時間的な制約が生じ、焦点検出動作の高速化にも制約が生じるという問題点がある。   In addition, the imaging apparatus disclosed by the above-mentioned Japanese Patent Application Laid-Open No. 2008-134390 aims to increase the speed and accuracy when performing focus detection using both the phase difference detection method and the contrast detection method. However, this is not to select and control either one of the phase difference detection method and the contrast detection method. In addition, since the focus lens is driven at the time of focus detection by the phase difference detection method, there is a problem that time restriction occurs and speeding up of the focus detection operation is also restricted.

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、複数方式の焦点調節手段を備えた撮像装置において、撮影を行う際の周囲の状況や撮像面上に結像されている被写体像の状況等、様々な条件や状況に応じて適切な焦点調節方式を選択し、選択した焦点調節方式に対応する自動焦点調節手段への切り換えを行う切換制御を自動的に行い得る撮像装置を提供することである。   The present invention has been made in view of the above-described points, and an object of the present invention is to provide an image pickup apparatus including a plurality of types of focus adjusting means on a surrounding situation or an image pickup surface when shooting. Automatic switching control that selects an appropriate focus adjustment method according to various conditions and conditions, such as the status of the image of the object being imaged, and switches to the automatic focus adjustment means corresponding to the selected focus adjustment method It is providing the imaging device which can be performed to.

上記目的を達成するために、本発明の一態様の撮像装置は、被写体像を結像させるレンズを含む撮像光学系と、撮像面の全域に亘って撮像用画素が二次元状に配列されると共に、その配列の少なくとも一部に複数の焦点検出用画素が配列されてなる撮像素子と、上記撮像用画素からの出力信号に基づいて焦点調節を行う第1焦点調節手段と、上記焦点検出用画素からの出力信号に基づいて焦点調節を行う第2焦点調節手段と、状況に応じて、上記第1焦点調節手段と上記第2焦点調節手段とのいずれか1つの焦点調節手段の選択を判定するAF方式選択判定手段と、上記AF方式選択判定手段による判定結果に基づき、上記第1焦点調節手段と上記第2焦点調節手段とを切り換える切換手段、を備えた制御部と、を具備し、上記制御部における上記AF方式選択判定手段は、焦点調節動作を開始する指示信号を受けた時点で上記第2焦点調節手段によってオートフォーカス処理を行うためのエリア設定がされており、かつ上記レンズが合焦位置にある場合には上記第2焦点調節手段を選択するよう判定し、上記制御部における上記切換手段は、上記AF方式選択判定手段において上記第2焦点調節手段を選択するよう判定された場合には、上記第2焦点調節手段に切り換える。 In order to achieve the above object, an imaging device of one embodiment of the present invention includes an imaging optical system including a lens that forms a subject image, and imaging pixels that are two-dimensionally arranged over the entire imaging surface. In addition, an imaging element in which a plurality of focus detection pixels are arranged in at least a part of the arrangement, a first focus adjustment unit that performs focus adjustment based on an output signal from the imaging pixel, and the focus detection A second focus adjustment unit that performs focus adjustment based on an output signal from the pixel; and, depending on a situation, selection of one of the first focus adjustment unit and the second focus adjustment unit is determined. and AF method selection determining means for, based on the determination result by the AF method selection determining means, anda control section and a switching means for switching between said first focusing means and the second focusing means , you to the control unit That the AF mode selection determining means is an area set for performing the automatic focus process at the time of receiving the instruction signal for starting the focusing operation by said second focusing means, and the lens is in-focus position If it is determined that the second focus adjustment unit is selected, the switching unit in the control unit determines that the AF method selection determination unit selects the second focus adjustment unit. , Switching to the second focus adjusting means .

上記目的を達成するために、本発明の一態様の撮像装置の制御方法は、合焦近傍判定手段によって、最終合焦時の状態のコントラスト値,経過時間,AFエリアの画像パターンの各情報のうち少なくとも一つの情報に基づいて現在のレンズ位置が合焦位置の近傍にあるかどうかを判定し、位相差信頼性事前判定手段によって、第2焦点調節手段が取得したデフォーカス量と、撮像光学系の仕様データとのうち少なくとも一方若しくは両方の情報に基づいて上記第2焦点調節手段による焦点調節結果の信頼性を事前に判定し、AF時間見積もり手段によって、現在のレンズ位置からの第1焦点調節手段による処理時間と、現在のレンズ位置からの上記第2焦点調節手段による処理時間とをそれぞれ取得し、制御部によって、上記合焦近傍判定手段若しくは上記位相差信頼性事前判定手段の各判定結果、または上記AF時間見積もり手段によって取得された処理時間に応じて適切なAF方式を選択し、上記AF方式の選択は、上記合焦近傍判定手段により、現在のレンズ位置が合焦位置の近傍にあると判定される場合、もしくは、上記位相差信頼性事前判定手段における各判定結果により上記第2焦点調節手段による焦点調節結果の信頼性があると判定される場合、または、上記AF時間見積もり手段により取得された上記第2焦点調節手段による処理時間が上記第1焦点調節手段による処理時間所定時間にある場合、の3つの場合において、上記3つの場合のうちいずれかの場合であると判定されるとき、上記AF方式を上記第2焦点調節手段として選択し、それ以外のときは上記第1焦点調節手段を選択する。 In order to achieve the above object, a method for controlling an image pickup apparatus according to an aspect of the present invention includes a method for determining the information on the contrast value, the elapsed time, and the image pattern in the AF area at the time of final focusing by the in-focus vicinity determining unit. Based on at least one of the information, it is determined whether or not the current lens position is in the vicinity of the in-focus position, and the defocus amount acquired by the second focus adjustment unit by the phase difference reliability prior determination unit and the imaging optical The reliability of the focus adjustment result by the second focus adjustment unit is determined in advance based on at least one or both of the system specification data, and the first focus from the current lens position is determined by the AF time estimation unit. and processing time by adjusting means, respectively obtains current from the lens position and the processing time by the second focusing means, the control unit, the focus proximity determination hand Or above determination result of the phase difference reliability advance determining means, or to select the appropriate AF method in accordance with the processing time acquired by the AF time estimating means, the selection of the AF method, the above-mentioned focus proximity determination means Thus, when it is determined that the current lens position is in the vicinity of the in-focus position, or each determination result in the phase difference reliability prior determination unit has reliability of the focus adjustment result by the second focus adjustment unit. In the three cases, or when the processing time by the second focus adjusting means acquired by the AF time estimating means is a predetermined processing time by the first focus adjusting means. The AF method is selected as the second focus adjustment means when it is determined that any one of the two cases, and the other is the second focus adjustment means. Selecting the focusing means.

本発明によれば、複数方式の焦点調節手段を備えた撮像装置において、撮影を行う際の周囲の状況や撮像面上に結像されている被写体像の状況等、様々な条件や状況に応じて適切な焦点調節方式を選択し、選択した焦点調節方式に対応する自動焦点調節手段への切り換えを行う切換制御を自動的に行い得る撮像装置を提供することができる。   According to the present invention, in an imaging apparatus including a plurality of types of focus adjustment means, according to various conditions and situations such as the surrounding situation when shooting and the situation of the subject image formed on the imaging surface. Thus, it is possible to provide an imaging apparatus that can automatically perform switching control for selecting an appropriate focus adjustment method and switching to an automatic focus adjustment unit corresponding to the selected focus adjustment method.

本発明の第1の実施形態の撮像装置(カメラ)の概略構成を示すブロック構成図1 is a block configuration diagram showing a schematic configuration of an imaging apparatus (camera) according to a first embodiment of the present invention. コントラストAF処理と像面位相差AF処理との各動作を模式的に示す概念図Conceptual diagram schematically showing each operation of contrast AF processing and image plane phase difference AF processing 合焦状態からAF処理を開始した場合のコントラストAF処理と像面位相差AF処理との各動作を時系列で示す概念図Conceptual diagram showing the operations of the contrast AF process and the image plane phase difference AF process in time series when the AF process is started from the focused state 非合焦状態からAF処理を開始した場合のコントラストAF処理と像面位相差AF処理との各動作を時系列で示す概念図Conceptual diagram showing time-series operations of contrast AF processing and image plane phase difference AF processing when AF processing is started from an out-of-focus state AF指示信号の発生時点でフレームレートの切り換え制御を伴わない場合(撮像切換時間Tsw=0の場合)のAF処理の動作を示す概念図Conceptual diagram showing the operation of AF processing when the switching of the frame rate is not accompanied when the AF instruction signal is generated (when the imaging switching time Tsw = 0). 本発明の第1の実施形態の撮像装置(カメラ)の作用を示すメインフローチャートThe main flowchart which shows the effect | action of the imaging device (camera) of the 1st Embodiment of this invention. 図6のメインフローチャートのうちのフルタイムAFモード処理(S200)のサブルーチンのフローチャートFlowchart of a subroutine of full time AF mode processing (S200) in the main flowchart of FIG. 図6のフローチャートのうちのシングルAFモード処理(S300)のサブルーチンのフローチャートA flowchart of a subroutine of the single AF mode process (S300) in the flowchart of FIG. 本発明の第2の実施形態の撮像装置(カメラ)の作用のうちシングルAFモード処理のサブルーチンのフローチャートFlowchart of a subroutine for single AF mode processing in the operation of the imaging apparatus (camera) of the second embodiment of the present invention. 図9のフローチャートのうちAF方式選択判定処理(S500)のサブルーチンのフローチャートThe flowchart of the subroutine of the AF method selection determination process (S500) in the flowchart of FIG. 図10のフローチャートのうち合焦近傍判定処理(S600)のサブルーチンのフローチャートFIG. 10 is a flowchart of a subroutine for in-focus vicinity determination processing (S600). 図10のフローチャートのうち位相差信頼性事前判定処理(S700)のサブルーチンのフローチャートFlowchart of subroutine of phase difference reliability pre-determination process (S700) in the flowchart of FIG. 図10のフローチャートのうちAF時間見積もり処理(S800)のサブルーチンのフローチャートFIG. 10 is a flowchart of a subroutine of AF time estimation processing (S800). 図10のフローチャートのうち像面位相差AF処理(S506)のサブルーチンのフローチャートThe flowchart of the subroutine of the image plane phase difference AF process (S506) in the flowchart of FIG.

以下、図示の実施の形態によって本発明を説明する。以下に説明する本発明の各実施形態は、例えば撮影光学系により結像された光学像を撮像素子等を用いて順次画像信号に変換し、静止画像や動画像等の画像データを生成し記録し再生し得るデジタルカメラ等の撮像装置(以下、単にカメラという)を例示するものである。   The present invention will be described below with reference to the illustrated embodiments. In each embodiment of the present invention described below, an optical image formed by, for example, a photographing optical system is sequentially converted into an image signal by using an imaging element, and image data such as a still image and a moving image is generated and recorded. An image pickup apparatus such as a digital camera (hereinafter simply referred to as a camera) that can be reproduced.

[第1の実施形態]
まず、本発明の第1の実施形態の撮像装置(カメラ)の概略構成を以下に説明する。図1は、本実施形態の撮像装置(カメラ)の概略構成を示すブロック構成図である。
[First Embodiment]
First, a schematic configuration of the imaging apparatus (camera) according to the first embodiment of the present invention will be described below. FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus (camera) according to the present embodiment.

図1に示すように、本実施形態の撮像装置1は、カメラボディ10とレンズ鏡筒30とによって主に構成されている。本カメラ1は、カメラボディ10に対してレンズ鏡筒30が着脱自在に構成されるいわゆるレンズ交換式カメラである。   As shown in FIG. 1, the imaging apparatus 1 of the present embodiment is mainly configured by a camera body 10 and a lens barrel 30. The camera 1 is a so-called interchangeable lens camera in which a lens barrel 30 is detachably attached to a camera body 10.

なお、本実施形態においては、撮像装置(カメラ)の一例としてレンズ交換式カメラを例に挙げて説明するが、本発明を適用し得る撮像装置(カメラ)としては、この形態に限られることはなく、例えばカメラボディ10とレンズ鏡筒30とが一体に構成された形態のレンズ固定式カメラであっても全く同様に適用することができる。   In this embodiment, an interchangeable lens camera will be described as an example of an imaging apparatus (camera). However, an imaging apparatus (camera) to which the present invention can be applied is not limited to this form. For example, a lens-fixed camera in which the camera body 10 and the lens barrel 30 are integrally formed can be applied in exactly the same manner.

カメラボディ10は、信号処理制御部11と、撮像ユニット12と、フラッシュメモリ13と、顔検出部14と、時計部15と、操作部16と、SDRAM17と、表示装置18と、表示ドライバ19と、タッチパネル20と、タッチパネルドライバ21と、角速度センサ22と、加速度センサ23と、記録媒体24及びメモリインタフェース25からなる記録部と、ボディ側通信部26等を有して構成されている。   The camera body 10 includes a signal processing control unit 11, an imaging unit 12, a flash memory 13, a face detection unit 14, a clock unit 15, an operation unit 16, an SDRAM 17, a display device 18, and a display driver 19. The touch panel 20, the touch panel driver 21, the angular velocity sensor 22, the acceleration sensor 23, a recording unit including a recording medium 24 and a memory interface 25, a body side communication unit 26, and the like.

信号処理制御部11は、本カメラ1の全体の動作を統括的に制御する制御部としての機能を備え、レンズ鏡筒30を含む各構成ユニットを制御するための制御信号を処理する制御部として機能すると共に、撮像素子12aによって取得された一連の画像信号(画像データ)を受けて所定の信号処理等を行う信号処理部として機能する回路部である。   The signal processing control unit 11 has a function as a control unit that comprehensively controls the entire operation of the camera 1, and serves as a control unit that processes control signals for controlling each component unit including the lens barrel 30. It is a circuit unit that functions as a signal processing unit that receives a series of image signals (image data) acquired by the imaging element 12a and performs predetermined signal processing and the like.

信号処理制御部11の内部には、AF信号算出部11b,画像処理部11c,露出制御部11d,測距演算部11e,像移動量検出部11f,操作制御部11g等の各種の回路部が具備されている。   Inside the signal processing control unit 11, there are various circuit units such as an AF signal calculation unit 11b, an image processing unit 11c, an exposure control unit 11d, a distance measurement calculation unit 11e, an image movement amount detection unit 11f, and an operation control unit 11g. It is equipped.

このうち、AF信号算出部11bは、撮像素子12aから出力される画像データに基づいてコントラスト検出処理若しくは位相差検出処理等の焦点調節処理に関する信号処理を行なう回路部である。   Among these, the AF signal calculation unit 11b is a circuit unit that performs signal processing related to focus adjustment processing such as contrast detection processing or phase difference detection processing based on image data output from the image sensor 12a.

画像処理部11cは、撮像素子12aによって取得された画像データに基いて各種の信号処理を施す処理回路部である。   The image processing unit 11c is a processing circuit unit that performs various types of signal processing based on image data acquired by the image sensor 12a.

露出制御部11dは、撮像素子12aから出力される画像データに基づいて露出制御のための演算処理を行なう回路部である。   The exposure control unit 11d is a circuit unit that performs arithmetic processing for exposure control based on image data output from the image sensor 12a.

測距演算部11eは、撮像素子12aから出力される画像データに基づいて測距処理のための演算処理を行なう回路部である。   The distance measurement calculation unit 11e is a circuit unit that performs calculation processing for distance measurement processing based on image data output from the image sensor 12a.

像移動量検出部11fは、撮像素子12aによって取得された画像データに基いて画面内において特定された被写体像(例えば後述する顔検出部14によって検出した顔画像)の画面内における移動量を検出する検出回路部である。   The image movement amount detection unit 11f detects the movement amount in the screen of a subject image (for example, a face image detected by the face detection unit 14 to be described later) specified in the screen based on the image data acquired by the imaging element 12a. This is a detection circuit unit.

操作制御部11gは、操作部16から入力された指示信号を受けて、受信した指示信号に対応する各種の動作制御を行う制御回路部である。   The operation control unit 11g is a control circuit unit that receives the instruction signal input from the operation unit 16 and performs various operation controls corresponding to the received instruction signal.

撮像ユニット12は、撮像素子12aと、画素加算読出部12bと、非画素加算読出部12c等によって構成される。   The imaging unit 12 includes an imaging element 12a, a pixel addition reading unit 12b, a non-pixel addition reading unit 12c, and the like.

撮像素子12aは、レンズ鏡筒30に含まれる撮影光学系(光学レンズ33等)によって結像された被写体像を受光して光電変換処理を行って画像データを生成する回路部等を含む電子部品である。撮像素子12aとしては、例えばCCD(Charge Coupled Device;電荷結合素子)等の回路素子を用いたCCDイメージセンサ若しくはMOS(Metal Oxide Semiconductor;金属酸化膜半導体)等を用いたMOS型イメージセンサ等の固体撮像素子である光電変換素子等が適用される。この撮像素子12aによって出力されるアナログ画像信号は、信号処理制御部11へと出力されて各種の信号処理が行なわれる。   The imaging element 12a includes an electronic component including a circuit unit that receives a subject image formed by a photographing optical system (such as the optical lens 33) included in the lens barrel 30 and performs photoelectric conversion processing to generate image data. It is. As the imaging device 12a, for example, a CCD image sensor using a circuit element such as a CCD (Charge Coupled Device) or a solid state image sensor such as a MOS image sensor using a MOS (Metal Oxide Semiconductor) or the like. A photoelectric conversion element or the like that is an imaging element is applied. The analog image signal output by the imaging element 12a is output to the signal processing control unit 11 and various signal processing is performed.

本実施形態の撮像素子12aは、撮像面(受光面)の全域に亘って画像を形成するための信号を出力する複数の撮像用画素が二次元状に配列されると共に、その配列の少なくとも一部に焦点検出を行うための信号を出力する複数の焦点検出用画素が配列されてなるイメージセンサである。   In the imaging device 12a of the present embodiment, a plurality of imaging pixels that output signals for forming an image over the entire imaging surface (light receiving surface) are two-dimensionally arranged, and at least one of the arrangements. This is an image sensor in which a plurality of focus detection pixels that output a signal for performing focus detection are arranged in the unit.

画素加算読出部12bは、撮像素子12aの出力信号を画素加算処理を行って読み出す回路部である。撮像素子12aの出力信号を画素加算読出部12bを介して読み出す場合としては、カメラ1が撮影待機状態にあるときの各種の処理、例えばライブビュー画像表示を行う場合や自動露出調整制御処理を行う場合、若しくはコントラスト検出方式の自動焦点調節(オートフォーカス;AF)制御処理を行う場合等である。   The pixel addition reading unit 12b is a circuit unit that reads out the output signal of the image sensor 12a by performing pixel addition processing. When the output signal of the image sensor 12a is read out via the pixel addition reading unit 12b, various processes when the camera 1 is in a shooting standby state, for example, a live view image display or an automatic exposure adjustment control process are performed. Or a case of performing a contrast detection type automatic focus adjustment (autofocus; AF) control process.

非画素加算読出部12cは、撮像素子12aの出力信号を画素加算処理を伴わずに読み出す回路部である。撮像素子12aの出力信号を非画素加算読出部12cを介して読み出す場合としては、例えば撮像面位相差検出方式の自動焦点調節(オートフォーカス;AF)制御処理を行う場合等である。   The non-pixel addition reading unit 12c is a circuit unit that reads an output signal of the image sensor 12a without performing pixel addition processing. A case where the output signal of the image pickup device 12a is read out via the non-pixel addition reading unit 12c is, for example, a case where an automatic focus adjustment (autofocus; AF) control process using an image pickup surface phase difference detection method is performed.

フラッシュメモリ13は、各種の制御プログラムや各種の情報データを予め記憶した書き換え可能な不揮発性の半導体メモリである。フラッシュメモリ13としては、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)等が適用される。   The flash memory 13 is a rewritable nonvolatile semiconductor memory that stores various control programs and various information data in advance. As the flash memory 13, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory) or the like is applied.

顔検出部14は、撮像素子12aから出力される画像データに基いて表示装置18で表示されるべき画像中に、人間の顔若しくは特定種類の動植物等(例えば犬,猫,鳥,花等)の被写体に対応する画像が存在するかどうかを検出するための被写体像検出回路部である。顔検出部14としては、顔画像を検出するだけでなく、これに加えて、例えば色検出やパターン検出等を行なうものを含めてよい。なお、信号処理制御部11は、顔検出部14によって検出された被写体像が撮影画面内で移動すると、その像パターンを追尾して、焦点調節を行い続ける制御等を行う機能を有する。   The face detection unit 14 includes a human face or a specific type of animal or plant (eg, dog, cat, bird, flower, etc.) in an image to be displayed on the display device 18 based on image data output from the image sensor 12a. This is a subject image detection circuit unit for detecting whether there is an image corresponding to the subject. The face detection unit 14 may include not only a face image but also a part that performs color detection, pattern detection, and the like in addition to the face image detection. Note that the signal processing control unit 11 has a function of performing control and the like of continuing the focus adjustment by tracking the image pattern when the subject image detected by the face detection unit 14 moves within the shooting screen.

時計部15は、いわゆるリアルタイムクロック(Real-Time Clock;RTC)と言われるコンピュータの内部時計である。時計部15は、例えばデータファイル等の日時情報の付与を行ったり、制御処理中における計時や時間制御等の際に利用される。   The clock unit 15 is an internal clock of a computer called a so-called real-time clock (RTC). The clock unit 15 is used, for example, for giving date / time information such as a data file, or for measuring time or controlling time during control processing.

操作部16は、本カメラ1のカメラボディ10の外装部分等に設けられる通常の押しボタン式若しくはスライド式,ダイヤル式等の形態の各種の操作部材であって、具体的な図示は省略しているが、例えばシャッターリリースボタン等、各種の一般的な操作部材を含めた操作用の構成部を指すものである。操作部16から出力される指示信号は、信号処理制御部11の操作制御部11gへと出力され、同操作制御部11gにおいて各種対応する動作制御が実行される。   The operation unit 16 is a variety of operation members such as a normal push button type, a slide type, or a dial type provided on an exterior portion of the camera body 10 of the camera 1. However, it refers to a component for operation including various general operation members such as a shutter release button. The instruction signal output from the operation unit 16 is output to the operation control unit 11g of the signal processing control unit 11, and various corresponding operation controls are executed in the operation control unit 11g.

SDRAM (Synchronous Dynamic Random Access Memory) 17は、撮像素子12aによって取得された画像信号や各種の情報データ等を一時的に記録し、一時的な作業用途に用いられる揮発性の半導体メモリである。   An SDRAM (Synchronous Dynamic Random Access Memory) 17 is a volatile semiconductor memory that temporarily records an image signal acquired by the image sensor 12a, various information data, and the like and is used for temporary work purposes.

表示装置18は、信号処理制御部11を介して制御される表示ドライバ19によって制御される表示用デバイスである。表示装置18は、例えば撮像素子12aによって取得された画像データに基づいて生成された表示用画像データ等を受けてライブビュー画像を表示したり、記録媒体24に記録済みの画像データに基いて静止画像若しくは動画像の画像再生表示を行ったり、記録媒体24若しくはSDRAM17等に予め用意された各種データ等を読み込んで生成されるメニュー表示等を表示する表示ユニットである。   The display device 18 is a display device controlled by a display driver 19 that is controlled via the signal processing control unit 11. The display device 18 receives a display image data generated based on image data acquired by the image sensor 12a, for example, and displays a live view image, or is stationary based on image data recorded on the recording medium 24. This is a display unit that displays an image or a moving image and displays a menu display generated by reading various data prepared in advance in the recording medium 24 or the SDRAM 17 or the like.

表示装置18としては、例えば液晶ディスプレイ(LCD;Liquid Crystal Display),プラズマディスプレイ(PDP;Plasma Display),有機エレクトロルミネッセンスディスプレイ(OEL;Organic Electro-Luminescence Display)等の表示パネルと、その駆動回路等を含んで構成される。   As the display device 18, for example, a display panel such as a liquid crystal display (LCD), a plasma display (PDP), an organic electro-luminescence display (OEL), a driving circuit thereof, and the like are provided. Consists of including.

さらに詳述すると、表示装置18は、信号処理制御部11を介した表示ドライバ19の制御下において、カメラ1の動作モードが再生モードに設定されている時には、撮影記録済みの画像データに基く画像(静止画像,動画像等)を再生表示する表示装置として機能する。一方、カメラ1の動作モードが撮影モードに設定されている時には、同様に信号処理制御部11を介した表示ドライバ19の制御下において、画像処理部11cを経て処理済みの画像データを受けて順次連続的にリアルタイムの画像を表示し続けることによって、撮影範囲の観察,確認を行ない得る電子ビューファインダ(EVF;Electric View Finder)として機能する。   More specifically, when the operation mode of the camera 1 is set to the playback mode under the control of the display driver 19 via the signal processing control unit 11, the display device 18 displays an image based on image data that has been recorded. It functions as a display device that reproduces and displays (still images, moving images, etc.). On the other hand, when the operation mode of the camera 1 is set to the photographing mode, similarly, under the control of the display driver 19 via the signal processing control unit 11, processed image data is received through the image processing unit 11c and sequentially received. By continuing to display real-time images continuously, it functions as an electronic view finder (EVF) that can observe and confirm the shooting range.

なお、表示装置18としては、例えばカメラボディ10の背面側に設けられ、比較的大型(例えば3型程度のサイズ)の表示パネルを採用する形態のもののほか、例えばアクセサリーシュー等に装着したりカメラボディ10に内蔵可能な小型(例えば0.5型程度のサイズ)の表示パネルを用いて構成されるいわゆる電子ビューファインダの形態のもの等、各種の形態のものが適用される。さらに、これら複数の表示パネルを設け、これらを適宜、用途に応じて切り換えて使用するような形態としてもよい。   The display device 18 is, for example, provided on the back side of the camera body 10 and adopts a relatively large display panel (for example, a size of about 3 inches). Various types of forms such as a so-called electronic viewfinder configured by using a small display panel (for example, a size of about 0.5 type) that can be built in the body 10 are applied. Further, a plurality of display panels may be provided, and these may be used by switching appropriately according to the application.

表示ドライバ19は、表示装置18を駆動制御する制御回路部である。この表示ドライバ19は、撮像素子12aによって生成され取得され、所定の処理を経て生成された表示用の画像データ(画像信号)を受けて、表示装置18の表示パネルを用いて画像として視認可能に表示させるための制御等を行う。なお、表示ドライバ19において、表示用の画像データを生成する画像処理等を行うような構成としてもよい。   The display driver 19 is a control circuit unit that drives and controls the display device 18. The display driver 19 receives display image data (image signal) generated and acquired by the image sensor 12 a and generated through a predetermined process, and can be viewed as an image using the display panel of the display device 18. Performs control for display. The display driver 19 may be configured to perform image processing for generating image data for display.

タッチパネル20は、上記操作部16とは別系統の操作用部材として設けられる電子部品である。タッチパネル20は、表示装置18の表示パネル上に配置されており、使用者(ユーザー)が表示装置18に表示中の画像に対応する所定領域や各種アイコン表示に相当する領域等に対してタッチ操作やスライド操作等を行うことによって、各種の操作指示信号が発生するように構成されている。タッチパネル20からの指示入力信号は、タッチパネルドライバ21へと送られて、その操作入力が判定される。   The touch panel 20 is an electronic component that is provided as an operation member of a different system from the operation unit 16. The touch panel 20 is disposed on the display panel of the display device 18, and a user (user) performs a touch operation on a predetermined region corresponding to an image being displayed on the display device 18, a region corresponding to various icon displays, or the like. By performing a slide operation or the like, various operation instruction signals are generated. The instruction input signal from the touch panel 20 is sent to the touch panel driver 21, and the operation input is determined.

タッチパネルドライバ21は、タッチパネル20からの指示入力信号を受けて、その指示内容を判定する信号処理回路である。例えば、表示装置18の表示画像上のアイコン表示等が表示されている時に、使用者(ユーザー)が、表示中のアイコン表示等に対応するタッチパネル20上の位置をタッチ操作やスライド操作等を行なうと、それらの操作を判定する。タッチパネルドライバ21による判定結果は、信号処理制御部11へと伝達される。これを受けた信号処理制御部11はその判定結果に対応する制御処理を実行する。   The touch panel driver 21 is a signal processing circuit that receives an instruction input signal from the touch panel 20 and determines the instruction content. For example, when an icon display or the like on the display image of the display device 18 is displayed, the user (user) performs a touch operation, a slide operation, or the like on the position on the touch panel 20 corresponding to the currently displayed icon display or the like. And determine their operation. The determination result by the touch panel driver 21 is transmitted to the signal processing control unit 11. Receiving this, the signal processing control unit 11 executes control processing corresponding to the determination result.

角速度センサ22は、カメラボディ10に加わる姿勢変化(例えば振れ)の角速度を検出するセンサ素子である。加速度センサ23は、カメラボディ10に加わる姿勢変化(例えば振れ)の加速度を検出するセンサ素子である。信号処理制御部11は、角速度センサ22及び加速度センサ23の出力に基づいてカメラボディ10の姿勢を検出する。その検出結果は、例えば撮像素子12aを含む構成ユニットを駆動して所定の振れ補正制御等を行ったり、若しくはレンズ鏡筒30のレンズ制御部31を介して振れ補正のための光学レンズの駆動制御を行う等に利用される。また、このほかにも、カメラボディ10の姿勢検出結果は、例えばカメラボディ10が縦位置であるか横位置であるかの判定等にも利用され、それらのデータが記録画像データのメタデータとして付加される。   The angular velocity sensor 22 is a sensor element that detects an angular velocity of a posture change (for example, shake) applied to the camera body 10. The acceleration sensor 23 is a sensor element that detects acceleration of posture change (for example, shake) applied to the camera body 10. The signal processing control unit 11 detects the posture of the camera body 10 based on the outputs of the angular velocity sensor 22 and the acceleration sensor 23. The detection result is obtained by, for example, driving a constituent unit including the image sensor 12a to perform predetermined shake correction control or the like, or driving control of an optical lens for shake correction via the lens control unit 31 of the lens barrel 30. It is used for performing etc. In addition to this, the posture detection result of the camera body 10 is also used, for example, to determine whether the camera body 10 is in the vertical position or the horizontal position, and such data is used as metadata of the recorded image data. Added.

記録部は、記録媒体24とメモリインタフェース25等からなる構成ユニットである。記録媒体24は、画像データや各種の情報若しくは各種のプログラムなどを記録するデバイスである。記録媒体24としては、例えばカード型着脱式若しくはカメラ内蔵型の半導体メモリ媒体や磁気記憶媒体等が適用される。メモリインタフェース25は、記録媒体24を駆動制御する制御部のほかに、画像データの入出力を司る信号処理回路部等によって構成される回路部である。   The recording unit is a constituent unit including a recording medium 24, a memory interface 25, and the like. The recording medium 24 is a device that records image data, various information, various programs, and the like. As the recording medium 24, for example, a card-type detachable or camera-embedded semiconductor memory medium or magnetic storage medium is applied. The memory interface 25 is a circuit unit including a signal processing circuit unit that controls input / output of image data, in addition to a control unit that drives and controls the recording medium 24.

メモリインタフェース25は、例えば撮像素子12aによって生成され画像処理部11cを経て所定の処理が施された画像データを受けて、これを例えば信号圧縮処理等を行って記録用の画像データに変換する信号処理を行ったり、記録媒体24に記録済みの画像データを読み込んで伸長処理等を施して画像データを復元させる信号処理等を行う。なお、画像データについての圧縮伸長処理については、上記メモリインタフェース25において処理する形態に限られることはなく、例えば信号処理制御部11内に同様の信号処理回路部を設け、それによって実行するような形態としてもよい。   The memory interface 25 receives, for example, image data generated by the image pickup device 12a and subjected to predetermined processing through the image processing unit 11c, and converts it into image data for recording by performing signal compression processing or the like, for example. Processing is performed, or signal processing for restoring image data by reading image data recorded on the recording medium 24 and performing decompression processing or the like is performed. Note that the compression / decompression processing for image data is not limited to the form of processing in the memory interface 25. For example, a similar signal processing circuit unit is provided in the signal processing control unit 11 and is executed thereby. It is good also as a form.

ボディ側通信部26は、カメラボディ10とレンズ鏡筒30との間の制御信号,情報信号等をやり取りするために設けられる通信用信号処理回路部である。カメラボディ10にレンズ鏡筒30を装着すると、両者はインタフェース41を介して電気的に接続されるように構成されている。   The body side communication unit 26 is a communication signal processing circuit unit provided for exchanging control signals, information signals, and the like between the camera body 10 and the lens barrel 30. When the lens barrel 30 is attached to the camera body 10, both are configured to be electrically connected via the interface 41.

ここで、インタフェース41は、カメラボディ10及びレンズ鏡筒30の双方のそれぞれに設けられる電気接点等の部材である。ボディ側通信部26は、カメラボディ10の内部でボディ側のインタフェース41と電気的に接続されている。また、後述するレンズ制御部31はレンズ側のインタフェース41と電気的に接続されている。   Here, the interface 41 is a member such as an electrical contact provided in both the camera body 10 and the lens barrel 30. The body side communication unit 26 is electrically connected to the body side interface 41 inside the camera body 10. A lens control unit 31 described later is electrically connected to the lens-side interface 41.

従って、カメラボディ10とレンズ鏡筒30とをインタフェース41を介して接続することにより、カメラボディ10側の信号処理制御部11とレンズ鏡筒30側のレンズ制御部31とは電気的に接続される。そして、この状態において両者は協働してカメラボディ10及びレンズ鏡筒30をそれぞれ制御するように構成されている。   Therefore, by connecting the camera body 10 and the lens barrel 30 via the interface 41, the signal processing control unit 11 on the camera body 10 side and the lens control unit 31 on the lens barrel 30 side are electrically connected. The In this state, the two cooperate to control the camera body 10 and the lens barrel 30, respectively.

次に、レンズ鏡筒30は、レンズ制御部31と、レンズドライバ32と、撮影光学系である光学レンズ33と、絞り装置34等によって主に構成されている。   Next, the lens barrel 30 is mainly configured by a lens control unit 31, a lens driver 32, an optical lens 33 that is a photographing optical system, a diaphragm device 34, and the like.

レンズ制御部31は、上記カメラボディ10側の信号処理制御部11の制御下において、若しくはこれと協働して、レンズ鏡筒30側の各構成ユニットの動作を制御する制御回路部である。なお、このレンズ制御部31は省略して構成することもできる。その場合には、レンズ鏡筒30側の制御の全てをカメラボディ10側の信号処理制御部11が担うように構成すればよい。   The lens control unit 31 is a control circuit unit that controls the operation of each component unit on the lens barrel 30 side under the control of the signal processing control unit 11 on the camera body 10 side or in cooperation therewith. The lens control unit 31 can be omitted. In that case, what is necessary is just to comprise so that the signal processing control part 11 by the side of the camera body 10 may perform all the control by the side of the lens-barrel 30.

光学レンズ33は、撮影対象とする対象物(被写体)からの光を透過させて被写体の光学像を結像させる撮影光学系である。なお、図面においては詳細な図示を省略しているが、撮影光学系としての光学レンズ33は、光学レンズを保持する複数の保持枠部材や、これら複数の保持枠部材を各個別に光軸方向に進退させる駆動部材等のほか、ズーミングのためのズーム駆動機構部,フォーカシングのためのフォーカス駆動機構部等を含めて構成される構成ユニットである。なお、この図には明示していないが、各レンズや光学系の位置を検出するセンサがあり、これによって至近の位置から無限遠の位置の間、あるいはそれを超えた領域のどこにピント合わせ用レンズが配置されているかを判定することが可能である。   The optical lens 33 is a photographing optical system that forms an optical image of a subject by transmitting light from an object (subject) to be photographed. Although not shown in detail in the drawings, the optical lens 33 as the photographing optical system includes a plurality of holding frame members that hold the optical lenses and the plurality of holding frame members individually in the optical axis direction. In addition to the drive member that moves forward and backward, the zoom drive mechanism unit for zooming, the focus drive mechanism unit for focusing, and the like are configured units. Although not explicitly shown in this figure, there are sensors that detect the position of each lens and optical system, and this makes it possible to focus anywhere between the closest position and the infinity position or beyond the area. It is possible to determine whether a lens is arranged.

絞り装置34は、撮影光学系を透過する光束の光量を調整するための絞り機構と、この絞り機構を駆動する駆動源(アクチュエータ)やその駆動力を伝達する駆動機構等と、この駆動機構を制御する駆動回路(ドライバ)等を含む構成ユニットである。   The aperture device 34 includes an aperture mechanism for adjusting the amount of light beam transmitted through the photographing optical system, a drive source (actuator) for driving the aperture mechanism, a drive mechanism for transmitting the drive force, and the like. It is a structural unit including a drive circuit (driver) to be controlled.

なお、カメラボディ10及びレンズ鏡筒30の構成要素としては、上述した構成部材以外にも、その他の各種構成ユニット等を有して構成されているものであるが、それらの各種構成ユニット等は、本発明に直接関連しない構成であるので、従来の一般的なカメラと同様の構成を具備するものとして、その詳細説明及び図示を省略している。   In addition to the components described above, the camera body 10 and the lens barrel 30 are configured to include other various structural units. Since the configuration is not directly related to the present invention, the detailed description and illustration are omitted because the configuration is the same as that of a conventional general camera.

例えば、撮影光学系の光路を開閉し、撮影動作の際に撮影光学系を透過する光束の光量を調整するためのシャッター機構については図示及び説明を省略しているが、本実施形態のカメラ1においても、従来のカメラと同様の通常のシャッター機構を有している。この場合において、シャッター機構としては、カメラボディ10側に配設するフォーカルプレーンシャッターでもよいし、レンズ鏡筒30側に配設するレンズシャッターでもよい。また、機械的なシャッター機構に変えて若しくは加えて撮像素子12aを電気的に制御することによってシャッター機構として機能させる素子シャッター機能を備えていてもよい。なお、シャッター機構がカメラボディ10側に配設されている場合(素子シャッターも含む)には、シャッター機構は主にボディー側の制御部によって制御される。また、シャッター機構がレンズ鏡筒30側に配設されている場合には、シャッター機構は主にボディー側の制御部の制御下においてレンズ制御部31を介して制御される。   For example, illustration and description of a shutter mechanism for opening and closing the optical path of the photographing optical system and adjusting the amount of light beam transmitted through the photographing optical system during photographing operation are omitted, but the camera 1 of the present embodiment. Also has a normal shutter mechanism similar to a conventional camera. In this case, the shutter mechanism may be a focal plane shutter disposed on the camera body 10 side or a lens shutter disposed on the lens barrel 30 side. Further, instead of or in addition to a mechanical shutter mechanism, an element shutter function that functions as a shutter mechanism by electrically controlling the image sensor 12a may be provided. When the shutter mechanism is disposed on the camera body 10 side (including the element shutter), the shutter mechanism is mainly controlled by the control unit on the body side. When the shutter mechanism is disposed on the lens barrel 30 side, the shutter mechanism is controlled via the lens control unit 31 mainly under the control of the body side control unit.

このように構成された本実施形態のカメラ1を用いて撮影を行なう場合の作用のうち、主に自動焦点調節(オートフォーカス;AF)制御処理(以下、単にAF制御処理という)に関する作用について、以下に詳述する。   Among the actions when shooting is performed using the camera 1 of the present embodiment configured as described above, the action mainly related to the automatic focus adjustment (autofocus; AF) control processing (hereinafter simply referred to as AF control processing). This will be described in detail below.

本実施形態のカメラ1は、撮像素子12aの撮像面(受光面)の全域に亘って二次元状に配列された複数の撮像用画素からの出力信号に基づいて合焦状態の検出を行なって焦点調節を行うコントラスト検出方式のAF制御処理を行う第1焦点調節手段と、上記撮像用画素の一部の領域に配列された複数の焦点検出用画素からの出力信号に基づいて合焦状態の検出を行なって焦点調節を行う撮像面位相差検出方式のAF制御処理を行う第2焦点調節手段とを具備して構成される。   The camera 1 according to the present embodiment detects the in-focus state based on output signals from a plurality of imaging pixels arranged two-dimensionally over the entire imaging surface (light receiving surface) of the imaging element 12a. Based on output signals from a first focus adjusting unit that performs AF control processing of a contrast detection method for performing focus adjustment and a plurality of focus detection pixels arranged in a partial region of the imaging pixel. And a second focus adjusting unit that performs AF control processing of an imaging surface phase difference detection method that performs detection and performs focus adjustment.

上記AF制御処理の方式は、いずれの場合も、信号処理制御部11の制御下において、撮像素子12aからの出力信号を受けてAF信号算出部11b,画像処理部11c等によって合焦位置の検出を行い、その検出結果に基づいてレンズ制御部31を介してレンズドライバ32を駆動制御して、光学レンズ33を所定の合焦位置へと移動させる。   In any case, the AF control processing method receives the output signal from the image sensor 12a under the control of the signal processing control unit 11, and detects the in-focus position by the AF signal calculation unit 11b, the image processing unit 11c, and the like. The lens driver 32 is driven and controlled via the lens control unit 31 based on the detection result, and the optical lens 33 is moved to a predetermined in-focus position.

この場合において、コントラスト検出方式のAF制御処理(以下、コントラストAF処理と略記する)は、画素加算読出部12bを介して出力される撮像素子12aの出力信号(画像信号)に基づいて合焦位置の検出が行なわれる。コントラストAF処理は、撮像素子12aの撮像面上に結像された被写体像のコントラスト(明暗差)が最大となる(即ち、撮像面上に結像された被写体像が合焦状態になる)際の光学レンズ33の光軸上の位置を検出する処理である。そのために、コントラストAF処理の実行中には、撮影光学系である光学レンズ33のうちの焦点調節動作に関連するレンズ群(フォーカスレンズ群)(を保持するレンズ保持枠)を光軸に沿う方向に移動させるレンズ駆動制御が必ず行なわれる。   In this case, the contrast detection AF control processing (hereinafter abbreviated as contrast AF processing) is performed based on the output signal (image signal) of the image sensor 12a output via the pixel addition reading unit 12b. Is detected. The contrast AF process is performed when the contrast (brightness / darkness difference) of the subject image formed on the imaging surface of the image sensor 12a is maximized (that is, the subject image formed on the imaging surface is in focus). This is a process for detecting the position of the optical lens 33 on the optical axis. Therefore, during the execution of the contrast AF process, the lens group (focus lens group) related to the focus adjustment operation (the lens holding frame for holding) of the optical lens 33 that is the photographing optical system is in the direction along the optical axis. The lens drive control is always performed.

一方、撮像面位相差検出方式のAF制御処理(以下、像面位相差AF処理と略記する)は、非画素加算読出部12cを介して出力される撮像素子12aの出力信号(画像信号)に基づいて合焦位置の検出が行なわれる。像面位相差AF処理は、撮像素子12aの焦点検出用画素に結像される一対の像の間隔を検出することで、現在設定されているレンズ位置を基準とした合焦位置の方向と合焦状態のズレ量(以下、デフォーカス量という)を判定し、光学レンズ33を合焦位置へと移動させる処理である。   On the other hand, an AF control process (hereinafter abbreviated as an image plane phase difference AF process) of the imaging plane phase difference detection method is performed on an output signal (image signal) of the imaging element 12a output via the non-pixel addition reading unit 12c. Based on this, the focus position is detected. In the image plane phase difference AF process, the distance between a pair of images formed on the focus detection pixels of the image sensor 12a is detected, and the direction of the in-focus position is determined based on the currently set lens position. This is a process of determining the amount of shift in the in-focus state (hereinafter referred to as defocus amount) and moving the optical lens 33 to the in-focus position.

本カメラ1の信号処理制御部11は、においては、周囲状況や撮像面上に結像されている被写体像の状況等に応じて上記二種の焦点調節方式による制御処理(コントラストAF処理,像面位相差AF処理)を自動的に切り換える制御を行う。この場合において、信号処理制御部11は、状況に応じて複数の焦点調節手段の切り換え制御を行う切換手段として機能する。   In the signal processing control unit 11 of the camera 1, control processing (contrast AF processing, image processing) according to the above-described two types of focus adjustment methods is performed according to the surrounding situation and the situation of the subject image formed on the imaging surface. Control to automatically switch (surface phase difference AF processing) is performed. In this case, the signal processing control unit 11 functions as a switching unit that performs switching control of a plurality of focus adjusting units depending on the situation.

上述したように、像面位相差AF処理では、撮像面の一部の領域に配列された複数の焦点検出用画素からの出力信号を用いて合焦状態の検出を行うので、撮像面内の上記焦点検出用画素の存在しない領域においては合焦状態を検出することができず、よって合焦状態を検出し得る領域が限られるという制約がある。   As described above, in the image plane phase difference AF process, the in-focus state is detected using output signals from a plurality of focus detection pixels arranged in a partial area of the imaging plane. In the region where the focus detection pixels do not exist, the in-focus state cannot be detected, and there is a restriction that the region in which the in-focus state can be detected is limited.

これに対し、コントラストAF処理では、撮像面の全域に亘って二次元状に配列された複数の撮像用画素を用いて合焦状態の検出を行う。したがって、撮像面内であれば、どの領域であっても合焦状態の検出が可能である点において、像面位相差AF処理と比べて有利である。   On the other hand, in the contrast AF process, the in-focus state is detected using a plurality of imaging pixels arranged two-dimensionally over the entire imaging surface. Therefore, it is more advantageous than the image plane phase difference AF process in that the in-focus state can be detected in any region within the imaging plane.

一方、コントラストAF処理では、合焦状態の検出を行うのに際して必ずレンズ駆動を伴うのに対し、像面位相差AF処理では、レンズ駆動を伴わずに焦点検出用画素からの出力信号から合焦位置の方向とデフォーカス量を検出できるので、光学レンズ33を合焦位置へ移動させるのに際して、コントラストAF処理と比べて焦点調節動作を高速化できるという利点がある。   On the other hand, in contrast AF processing, lens driving is always accompanied when detecting the in-focus state, whereas in image plane phase difference AF processing, focusing is performed from an output signal from a focus detection pixel without lens driving. Since the position direction and the defocus amount can be detected, there is an advantage that the focus adjustment operation can be speeded up as compared with the contrast AF process when the optical lens 33 is moved to the in-focus position.

例えば、図2は、コントラストAF処理と像面位相差AF処理との各動作を模式的に示す概念図である。このうち図2(A)はコントラストAFの動作を示し、図2(B),図2(C)は像面位相差AF処理の動作を示している。なお、図2(B)は、像面位相差AF処理においてデフォーカス量が小である場合の動作パターンを示し、図2(C)は、像面位相差AF処理においてデフォーカス量が大である場合の動作パターンを示している。   For example, FIG. 2 is a conceptual diagram schematically showing operations of contrast AF processing and image plane phase difference AF processing. 2A shows the operation of contrast AF, and FIGS. 2B and 2C show the operation of image plane phase difference AF processing. 2B shows an operation pattern when the defocus amount is small in the image plane phase difference AF process, and FIG. 2C shows a large defocus amount in the image plane phase difference AF process. The operation pattern in a certain case is shown.

図2において、光学レンズ33による焦点調節可能範囲を最至近端(close range side end)位置Pから無限遠位置∞で示す間の範囲とする。また、現在のレンズ位置を符号Pで示し、移動目標とするレンズ位置である合焦位置(focusing position)を符号Fで示している。そして、図示のように、現在のレンズ位置Pと合焦位置Fとが一致していない状況にあるものとする。   In FIG. 2, a focus adjustable range by the optical lens 33 is a range between a close range side end position P and an infinite position ∞. Further, the current lens position is indicated by a symbol P, and a focusing position that is a lens position to be moved is indicated by a symbol F. As shown in the figure, it is assumed that the current lens position P and the in-focus position F do not match.

この状況において合焦位置Fを検出するためにコントラストAF処理を行う場合、光学レンズ33を駆動制御して、同レンズ33を光軸に沿って移動させつつ、コントラストが最大となる位置を検出する。図2(A)に示す例は、コントラストAF処理を行う場合において、合焦位置Fの検出に最も時間を要する場合の例示である。典型的なシーンとしては、暗くてコントラストが少ない被写体を狙った場合などで、例えば現在のレンズ位置Pから至近端位置Qに向けてレンズ駆動を行い、結局コントラスト変化が検出困難で至近端位置Qまで行って仕方なく折り返して無限遠位置∞へ向けてレンズ駆動が行われ、ここにきてコントラストがはっきりして、一旦合焦位置Fを通り過ぎた後、後戻りするいわゆる山登りAF動作が行われる。   When contrast AF processing is performed to detect the in-focus position F in this situation, the optical lens 33 is driven and controlled, and the position where the contrast is maximized is detected while moving the lens 33 along the optical axis. . The example shown in FIG. 2A is an example of the case where it takes the longest time to detect the in-focus position F when performing contrast AF processing. A typical scene is when the subject is dark and has low contrast. For example, the lens is driven from the current lens position P to the closest end position Q. The lens is driven to infinity position ∞ after going to position Q, and the lens is driven toward infinity position ∞. Here, the contrast is clear, and after passing the in-focus position F, a so-called hill-climbing AF operation is performed. Is called.

次に、同様の状況下において合焦位置Fを検出するために像面位相差AF処理を行う場合であって、デフォーカス量が小である場合には、焦点検出用画素からの出力信号に基づいて合焦位置の方向とデフォーカス量を検出できるので、図2(B)に示すように、現在のレンズ位置Pから検出された合焦位置Fに向けてレンズ駆動を行なう。像面位相差AFでは、複数の像のズレ具合を見るので、像がはっきりしていて、ずれも検出範囲内に入っていれば、迷いのない、迅速な制御が可能となる。このように、撮像面位相差AFでは、迅速処理ができるかどうかをかなり正確に判定することが出来る。   Next, when the image plane phase difference AF process is performed to detect the in-focus position F under the same situation and the defocus amount is small, the output signal from the focus detection pixel is Since the direction of the in-focus position and the amount of defocus can be detected based on this, the lens is driven from the current lens position P toward the in-focus position F as shown in FIG. In the image plane phase difference AF, since the degree of deviation of a plurality of images is observed, if the image is clear and the deviation is within the detection range, quick control without any hesitation is possible. As described above, in the imaging plane phase difference AF, it can be determined fairly accurately whether or not rapid processing can be performed.

また、像面位相差AF処理を行う場合であってもデフォーカス量が大である場合には、コントラストがない場合や暗い場合も、こうした事はあるが、像面位相差AF特有の問題として、位相差が大きすぎて撮像面の検出可能範囲内に入らない場合などがある。コントラストがはっきりしていても、複数の像のズレ具合を検出してピント合わせする像面位相差AFの場合、ズレを見るセンササイズに限界があるので、このような事は起こり得る。このとき、焦点検出用画素からの出力信号によっては合焦位置の方向やデフォーカス量を検出できず、よって、図2(C)に示すような動作パターンが行われる。即ち、この場合には、像面位相差AF処理であっても、その検出不能の原理は違うこともあれ、コントラストAF処理と同様に、現在のレンズ位置Pから至近端位置Qに向けてレンズ駆動を行い、至近端位置Qで折り返して無限遠位置∞へ向けてレンズ駆動が行われる。このとき、光学レンズ33が、例えば図2(C)の符号P1で示す位置にきたとき、焦点検出用画素からの出力信号によって合焦位置の方向及びデフォーカス量が検出されたものとする。すると、一旦この位置でレンズ駆動が停止され、その後、検出された合焦位置Fに向けてレンズ駆動が行なわれる。図2(C)に示す例は、デフォーカス量が大であって、焦点検出用画素からの出力信号によっては合焦位置の方向やデフォーカス量を検出できない場合の例示である。具体的には、例えば焦点調節を行おうとする被写体像が撮像面内における焦点検出用画素のある領域から外れているような場合等で、この場合、レンズの位置(至近や無限までの繰り出し距離)などによっては、コントラストAFより時間がかかる場合がある。レンズを止めたり動かしたりする時のスピードや、AF用画素や表示用画素の読み出しを切り換えるタイムラグ等でどちらのAFが有利かが決まる場合がある。以下の説明によって、カメラの各制御状態で、どのようなタイムラグが生じるか、レンズ駆動に生じるスピード差などに触れるが、これらによって、AFにかかるスピードは依存し、コントラストがはっきりしているかや、実際のピント合わせ位置と現在のレンズの位置の関係などによって変わって来る。   In addition, even when image plane phase difference AF processing is performed, if the defocus amount is large, there are cases where there is no contrast or darkness, but this is a problem peculiar to image plane phase difference AF. In some cases, the phase difference is too large to fall within the detectable range of the imaging surface. Even if the contrast is clear, in the case of the image plane phase difference AF that detects and adjusts the degree of deviation of a plurality of images, this may occur because there is a limit to the sensor size for viewing the deviation. At this time, the direction of the in-focus position and the defocus amount cannot be detected depending on the output signal from the focus detection pixel, and thus an operation pattern as shown in FIG. 2C is performed. In other words, in this case, even in the image plane phase difference AF process, the principle of detection failure may be different, and as in the contrast AF process, from the current lens position P toward the closest end position Q. The lens is driven, and the lens is driven toward the infinite position ∞ by turning back at the closest end position Q. At this time, for example, when the optical lens 33 comes to the position indicated by reference numeral P1 in FIG. 2C, the direction of the in-focus position and the defocus amount are detected by the output signal from the focus detection pixel. Then, the lens drive is temporarily stopped at this position, and then the lens drive is performed toward the detected focus position F. The example shown in FIG. 2C is an example in which the defocus amount is large and the direction of the focus position and the defocus amount cannot be detected by the output signal from the focus detection pixel. Specifically, for example, when the subject image to be focused is out of the area where the focus detection pixels are located on the imaging surface, in this case, in this case, the lens position (protruding distance to the nearest or infinity) ) May take longer than contrast AF. There are cases where which AF is advantageous depends on the speed at which the lens is stopped or moved, the time lag for switching the readout of AF pixels and display pixels, and the like. The following explanation touches what time lag occurs in each control state of the camera, the speed difference that occurs in lens driving, etc., but depending on these, the speed applied to AF depends and the contrast is clear, It depends on the relationship between the actual focus position and the current lens position.

このような条件の積算によって、現在のレンズ位置Pと合焦位置Fとが一致していない状況においては、像面位相差AF処理に比べてコントラストAF処理を行う方が、より高速に合焦位置の検出及び合焦位置へのレンズ移動を実行することができるものであると言える。   In the situation where the current lens position P and the in-focus position F do not match due to the integration of such conditions, the contrast AF processing is performed faster than the image plane phase difference AF processing. It can be said that the position detection and the lens movement to the in-focus position can be executed.

一般に、撮像装置(カメラ)における焦点調節動作は、高速かつ正確に動作することが望まれている。一方、撮影を行う際の周囲の状況や撮像面上に結像されている被写体像の状況等によって、最適となる焦点調節方式は異なる。前述のように像面位相差AFでは、コントラストや相対的、絶対的なレンズ位置によって、検出範囲の限界という問題がある上、レンズ駆動を伴う場合、AF用画素読み出しと表示用画素読み出しを行わなければならず、レンズを動かすスピードが遅くなりがちであるが、コントラストAFでは表示用画素読み出しだけで行けるのでレンズを速く動かせる。ただし、もともとスピードの遅い重いレンズ(またはアクチュエータによるものもある)では、この差異は小さくなる。このような要因を加味して、有利な方式を選ぶようにする。レンズ位置とは、ピント合わせ位置との差異、あるいは至近端、無限遠端まで距離などを考慮している。   In general, it is desired that a focus adjustment operation in an image pickup apparatus (camera) operates at high speed and accurately. On the other hand, the optimum focus adjustment method varies depending on the surrounding conditions when shooting, the situation of the subject image formed on the imaging surface, and the like. As described above, in the image plane phase difference AF, there is a problem that the detection range is limited depending on the contrast, relative and absolute lens position, and when the lens is driven, AF pixel readout and display pixel readout are performed. However, since the speed of moving the lens tends to be slow, the contrast AF can be performed only by reading out the display pixels, so that the lens can be moved quickly. However, this difference is small for heavy lenses (or actuators) that are originally slow. Taking these factors into account, select an advantageous method. The lens position considers the difference from the focusing position, or the distance to the close end and the infinity end.

例えば、カメラの撮影光学系が既に合焦状態にある場合、つまり撮影光学系のうちの焦点調節に関するレンズであるフォーカスレンズのレンズ位置が既に合焦位置にある場合には、像面位相差AF処理が有利であって、より高速なAF制御処理を実行できる。この場合の具体例を図3を用いて説明する。   For example, when the imaging optical system of the camera is already in focus, that is, when the lens position of the focus lens that is a lens related to focus adjustment in the imaging optical system is already in the in-focus position, the image plane phase difference AF Processing is advantageous, and faster AF control processing can be executed. A specific example in this case will be described with reference to FIG.

図3は、合焦状態からAF処理を開始した場合のコントラストAF処理と像面位相差AF処理との各動作を時系列で示す概念図である。このうち、図3(A),図3(B)はコントラストAF処理の動作を示し、図3(C),図3(D)は像面位相差AF処理の動作をに示す。なお、図3(A),図3(C)は垂直同期信号VDを示しており、図3(B),図3(D)は露光量の変化を示している。   FIG. 3 is a conceptual diagram showing the operations of the contrast AF process and the image plane phase difference AF process in time series when the AF process is started from the focused state. 3A and 3B show the operation of the contrast AF process, and FIGS. 3C and 3D show the operation of the image plane phase difference AF process. 3A and 3C show the vertical synchronization signal VD, and FIGS. 3B and 3D show changes in the exposure amount.

まず、通常のライブビュー画像表示が行われているとき、撮像素子の画素データの読み込みフレームレートは、例えば60fpsで行われている。そのライブビュー画像表示の動作中に、図示の符号Rの時点においてファースト(1st.)レリーズ操作によるAF指示信号が発生してAF動作が開始するものとする。この場合、まず、AF制御処理を高速に処理するために、読み込みフレームレートが120fpsに切り換える制御処理が行われる。この切り換え処理に伴って、データ読み取りタイミングの調整のために1フレーム分の空白(ブランク)期間Bが発生する。この空白(ブランク)期間Bでは画像表示用の画素データの読み込みは行われない。ここで、上記AF指示信号の発生時点Rから上記空白(ブランク)期間を含めて120fpsでの駆動が開始されるまでの期間を撮像切換期間(Tsw)というものする。高速側にフレームレートが切り換わると露光量は減ずる(図3(B),図3(D)参照)。   First, when normal live view image display is performed, the reading frame rate of the pixel data of the image sensor is, for example, 60 fps. It is assumed that during the live view image display operation, an AF instruction signal is generated by a first (1st.) Release operation at the time indicated by reference symbol R in the figure, and the AF operation starts. In this case, first, control processing for switching the reading frame rate to 120 fps is performed in order to perform AF control processing at high speed. Along with this switching process, a blank period B for one frame is generated to adjust the data reading timing. In this blank period B, pixel data for image display is not read. Here, the period from the generation time R of the AF instruction signal to the start of driving at 120 fps including the blank period is referred to as an imaging switching period (Tsw). When the frame rate is switched to the high speed side, the exposure amount decreases (see FIGS. 3B and 3D).

こうして、フレームレートが切り換わった後、コントラストAF処理においては、撮像素子の撮像用画素のうちの所定領域の画素データの読み込み制御とレンズ駆動制御とが行なわれて、合焦状態となるレンズ位置(合焦位置)が検出される。図3(B)で示す例では、略3フレーム分の期間でAF処理が完了するものとしている。   Thus, after the frame rate is switched, in the contrast AF process, the pixel data reading control and the lens driving control of the predetermined area of the imaging pixels of the imaging device are performed, and the lens position in the in-focus state is obtained. (Focus position) is detected. In the example shown in FIG. 3B, it is assumed that the AF processing is completed in a period of approximately three frames.

一方、同様にフレームレートが切り換わった後、像面位相差AF処理においては、レンズ駆動制御を伴わずに、撮像素子の焦点検出用画素の画素データの読み込み制御が行なわれて、合焦状態となるレンズ位置(合焦位置)が検出される。図3(D)で示す例では、略1フレーム分の期間でAF処理が完了するものとしている。   On the other hand, after the frame rate is similarly switched, in the image plane phase difference AF processing, reading control of pixel data of the focus detection pixels of the image sensor is performed without the lens driving control, and the in-focus state. The lens position (in-focus position) is detected. In the example shown in FIG. 3D, the AF process is completed in a period of approximately one frame.

このように、合焦状態からAF処理を開始した場合には、コントラストAF処理よりも像面位相差AF処理の方が、図3(D)の符号T1で示す時間だけ高速にAF処理結果を得ることができる。   As described above, when the AF process is started from the in-focus state, the image plane phase difference AF process produces the AF process result faster than the contrast AF process by the time indicated by reference numeral T1 in FIG. Can be obtained.

これに対し、例えば、カメラの撮影光学系が非合焦状態にある場合、つまり撮影光学系のうちの焦点調節に関するレンズであるフォーカスレンズのレンズ位置が合焦位置から外れた位置にある場合には、像面位相差AF処理よりもコントラストAF処理の方が有利となる。この場合の具体例を図4を用いて説明する。   On the other hand, for example, when the photographing optical system of the camera is in an out-of-focus state, that is, when the lens position of the focus lens that is a lens related to focus adjustment in the photographing optical system is out of the in-focus position. The contrast AF process is more advantageous than the image plane phase difference AF process. A specific example in this case will be described with reference to FIG.

図4は、非合焦状態からAF処理を開始した場合のコントラストAF処理と像面位相差AF処理との各動作を時系列で示す概念図である。このうち、図4(A),図4(B)はコントラストAF処理の動作を示し、図4(C),図4(D)は像面位相差AF処理の動作をに示す。なお、図4(A),図4(C)は垂直同期信号VDを示しており、図4(B),図4(D)は露光量の変化を示している。   FIG. 4 is a conceptual diagram showing the operations of the contrast AF process and the image plane phase difference AF process in time series when the AF process is started from the out-of-focus state. 4A and 4B show the operation of the contrast AF process, and FIGS. 4C and 4D show the operation of the image plane phase difference AF process. 4A and 4C show the vertical synchronization signal VD, and FIGS. 4B and 4D show changes in the exposure amount.

上述の図3に示す例と同様に、通常のライブビュー画像表示が行われているときの読み込みフレームレートを例えば60fpsとし、AF動作開始時点で読み込みフレームレートが120fpsへと切り換えわる制御処理が行われるものとする。この切り換え処理に伴って、撮像切換時間(Tsw)が発生するのも同様である。   Similar to the example shown in FIG. 3 described above, a control process is performed in which the reading frame rate when normal live view image display is performed is set to 60 fps, for example, and the reading frame rate is switched to 120 fps when the AF operation starts. Shall be. The imaging switching time (Tsw) is also generated along with this switching process.

フレームレートが60fpsから120fpsへと高速側に切り換わった後、コントラストAF処理が行われる場合、本例においても、上述の例と同様に、合焦状態となるレンズ位置(合焦位置)が検出されるまでに略3フレーム分の期間を要するものとする。   When the contrast AF processing is performed after the frame rate is switched from 60 fps to 120 fps on the high speed side, the lens position (in-focus position) in the in-focus state is detected in this example as well as in the above example. It is assumed that a period of approximately 3 frames is required until the operation is performed.

一方、同様にフレームレートが切り換わった後、像面位相差AF処理が行われる場合には、まず、撮像素子の焦点検出用画素の画素データの読み込み制御が行なわれて合焦状態となるレンズ位置(合焦位置)が検出された後、その位置へ向けてのレンズ駆動制御が行なわれる。図3(D)で示す例では、略1フレーム分の期間で検出処理は完了するが、その後のレンズ駆動制御が加わっている。   On the other hand, when the image plane phase difference AF processing is performed after the frame rate is switched in the same manner, first, the lens that is in focus is controlled by reading the pixel data of the focus detection pixels of the image sensor. After the position (in-focus position) is detected, lens drive control toward that position is performed. In the example shown in FIG. 3D, the detection process is completed in a period of approximately one frame, but subsequent lens drive control is added.

このように、非合焦状態からAF処理を開始した場合には、像面位相差AF処理よりもコントラストAF処理の方が、図4(B)の符号T2で示す時間だけ高速にAF処理結果を得ることができる。   As described above, when the AF process is started from the out-of-focus state, the contrast AF process is faster than the image plane phase difference AF process by the time indicated by the symbol T2 in FIG. 4B. Can be obtained.

なお、通常のライブビュー画像表示を行う際に、周囲環境が充分に明るい場合には、常に撮像素子を高速に(例えば読み込みフレームレート120fps)駆動させるようにしてもよい。この場合には、AF指示信号の発生時点でのフレームレートの切り換え制御が不要となり、よって撮像切換時間Tsw=0となりAF処理時間の短縮に寄与する。図5は、そのような場合の例を示している。   When performing normal live view image display, if the surrounding environment is sufficiently bright, the image sensor may always be driven at a high speed (for example, a reading frame rate of 120 fps). In this case, the frame rate switching control at the time when the AF instruction signal is generated becomes unnecessary, and therefore the imaging switching time Tsw = 0, which contributes to shortening of the AF processing time. FIG. 5 shows an example of such a case.

このように構成された本実施形態の撮像装置であるカメラ1の作用を以下に説明する。図6は、本実施形態の撮像装置(カメラ)の作用を示すメインフローチャートである。図7は図6のメインフローチャートのうちのフルタイムAFモード処理(S200)のサブルーチンのフローチャートである。図8は図6のメインフローチャートのうちのシングルAFモード処理(S300)のサブルーチンのフローチャートである。   The operation of the camera 1 that is the imaging apparatus of the present embodiment configured as described above will be described below. FIG. 6 is a main flowchart showing the operation of the imaging apparatus (camera) of this embodiment. FIG. 7 is a flowchart of the subroutine of the full-time AF mode process (S200) in the main flowchart of FIG. FIG. 8 is a flowchart of a subroutine of the single AF mode process (S300) in the main flowchart of FIG.

まず、本カメラ1の電源スイッチが、使用者(ユーザ)によってオン状態にされることにより、本カメラ1は起動して使用可能な状態になる。ここで、電源オン操作によって、カメラ1の信号処理制御部11は、所定の初期化処理等を含めた一連の起動処理が行われるが、その起動処理そのものについては本発明の要旨に直接関連しない部分であるので、その詳細説明は省略する。   First, when the power switch of the camera 1 is turned on by a user (user), the camera 1 is activated and becomes usable. Here, by the power-on operation, the signal processing control unit 11 of the camera 1 performs a series of activation processes including a predetermined initialization process, but the activation process itself is not directly related to the gist of the present invention. Since it is a part, detailed description thereof is omitted.

カメラ1が起動すると、まず、図6のステップS101において、信号処理制御部11は、現在設定されている動作モードが撮影動作を実行し得る撮影モードであるか否かの確認を行う。ここで、撮影モードに設定されていることが確認された場合には、ステップS102の処理に進む。また、撮影モード以外の動作モードに設定されていることが確認された場合には、その他の動作モードに対応した処理を実行する。ここで、その他の動作モードとは、例えば再生モードや通信モード等である。これらの動作モード時の処理は、本発明の要旨に直接関連しないので、その詳細説明は省略する。   When the camera 1 is activated, first, in step S101 in FIG. 6, the signal processing control unit 11 checks whether or not the currently set operation mode is a shooting mode in which a shooting operation can be performed. If it is confirmed that the shooting mode is set, the process proceeds to step S102. If it is confirmed that an operation mode other than the shooting mode is set, processing corresponding to the other operation mode is executed. Here, the other operation modes are, for example, a reproduction mode and a communication mode. Since the processing in these operation modes is not directly related to the gist of the present invention, detailed description thereof is omitted.

ステップS102において、信号処理制御部11は、露出制御部11dを制御して、撮像ユニット12から出力される画像データ等に基づいて自動露出調整(Auto Exposure;AE)制御処理を実行する。ここで実行される自動露出調整(AE)制御処理そのものは、従来一般的な形態の撮像装置(カメラ)において行われているものと同様の制御処理であるものとし、その詳細説明は省略する。その後、ステップS103の処理に進む。   In step S <b> 102, the signal processing control unit 11 controls the exposure control unit 11 d to execute an automatic exposure adjustment (AE) control process based on image data output from the imaging unit 12. The automatic exposure adjustment (AE) control process itself executed here is the same control process as that performed in an image pickup apparatus (camera) of a conventional general form, and detailed description thereof is omitted. Thereafter, the process proceeds to step S103.

ステップS103において、信号処理制御部11は、撮像ユニット12を駆動制御して画像データを生成するため画像信号取得処理等の撮像処理を開始する。ここで行なわれる撮像処理そのものは、従来一般的な処理と同様である。その後、ステップS104の処理に進む。   In step S <b> 103, the signal processing control unit 11 starts imaging processing such as image signal acquisition processing in order to drive and control the imaging unit 12 to generate image data. The imaging process itself performed here is the same as the conventional general process. Thereafter, the process proceeds to step S104.

ステップS104において、信号処理制御部11は、画像処理部11cを制御して、上記ステップS104の処理にて取得した画像データに基づいて所定の画像処理を実行する。この画像処理そのものも、従来一般的な処理と同様である。その後、ステップS104の処理に進む。その後、ステップS105の処理に進む。   In step S104, the signal processing control unit 11 controls the image processing unit 11c to execute predetermined image processing based on the image data acquired in the processing in step S104. This image processing itself is the same as conventional general processing. Thereafter, the process proceeds to step S104. Thereafter, the process proceeds to step S105.

ステップS105において、信号処理制御部11は、表示ドライバ19を介して表示装置18を制御して、上記ステップS105の処理にて処理済みの表示用画像データに基づくライブビュー画像を表示する一般的な表示処理を実行する。その後、ステップS106の処理に進む。   In step S105, the signal processing control unit 11 controls the display device 18 via the display driver 19 to display a live view image based on the display image data processed in the process of step S105. Execute display processing. Thereafter, the process proceeds to step S106.

ステップS106において、信号処理制御部11は、顔検出部14等を制御して一般的な動体判定処理を実行する。その後、ステップS107の処理に進む。   In step S106, the signal processing control unit 11 controls the face detection unit 14 and the like to execute a general moving object determination process. Thereafter, the process proceeds to step S107.

ステップS107において、信号処理制御部11は、現在設定されている撮影モードが動画撮影モードであるか否かの確認を行う。ここで、動画撮影モードに設定されていることが確認されると、ステップS108の処理に進む。また、動画撮影モードが設定されていない、即ち静止画撮影モードに設定されていることが確認されると、ステップS109の処理に進む。   In step S107, the signal processing control unit 11 checks whether or not the currently set shooting mode is the moving image shooting mode. If it is confirmed that the moving image shooting mode is set, the process proceeds to step S108. If it is confirmed that the moving image shooting mode is not set, that is, the still image shooting mode is set, the process proceeds to step S109.

ステップS108において、信号処理制御部11は、所定の動画記録処理を実行する。この動画記録処理についても、従来一般的な形態の撮像装置(カメラ)において行われているものと同様の処理であるものとし、その詳細説明は省略する。その後、ステップS109の処理に進む。   In step S108, the signal processing control unit 11 performs a predetermined moving image recording process. This moving image recording process is also assumed to be the same as that performed in a conventional general imaging device (camera), and detailed description thereof is omitted. Thereafter, the process proceeds to step S109.

ステップS109において、信号処理制御部11は、現在設定されている自動焦点調節制御処理(AF制御処理)の形態がフルタイムAFモードであるか否かの確認を行う。ここで、フルタイムAFモードとは、カメラ1が起動して撮影待機状態にあるときに、使用者(ユーザ)による操作指示を待たずに、常にAF制御処理を継続して実行する動作形態である。本カメラ1において設定可能なAF制御処理の形態としては、上記フルタイムAFモードのほかに、例えばシャッターレリーズボタン若しくはAFボタン等の操作部材を、使用者(ユーザ)が操作したタイミングでAF制御処理を開始するファースト(1st.)レリーズAFモード等がある。   In step S109, the signal processing control unit 11 checks whether or not the currently set automatic focus adjustment control process (AF control process) is in the full-time AF mode. Here, the full-time AF mode is an operation mode in which the AF control process is continuously executed without waiting for an operation instruction from the user (user) when the camera 1 is activated and is in a shooting standby state. is there. As a form of AF control processing that can be set in the camera 1, in addition to the full-time AF mode, for example, AF control processing is performed at the timing when a user (user) operates an operation member such as a shutter release button or an AF button. There is a first (1st.) Release AF mode for starting the operation.

上記ステップS109の処理にて、現在のAF制御処理形態がフルタイムAFモードであることが確認された場合には、ステップS200の処理(詳細は図7のサブルーチン参照)に進む。また、フルタイムAFモード以外に設定されていることが確認された場合には、ステップS110の処理に進む。   If it is confirmed in step S109 that the current AF control processing mode is the full-time AF mode, the process proceeds to step S200 (refer to the subroutine of FIG. 7 for details). If it is confirmed that the setting is other than the full-time AF mode, the process proceeds to step S110.

なお、本実施形態においては、フルタイムAFモード以外の設定として、上記ファーストレリーズAFモードとする。ここで、その他のAF制御処理の形態も考えられるが、本実施形態においては、それらの説明は省略する。   In the present embodiment, the first release AF mode is used as a setting other than the full-time AF mode. Here, other forms of AF control processing are also conceivable, but in the present embodiment, description thereof is omitted.

なお、ファーストレリーズAFモードにおいても、複数の動作形態がある。具体的には、例えばシングルAFモードとコンティニュアスAFモード等である。ここで、シングルAFモードは、使用者(ユーザ)による一回のファーストレリーズ操作(例えばシャッタ-レリーズボタンの半押し操作若しくはAFボタンの押圧操作)を受けて、一回だけAF制御処理を実行し、そのファーストレリーズ操作が維持されている間、AF制御処理結果を固定した状態で維持するいわゆるAFロック状態とする形態を言う。また、コンティニュアスAFモードは、使用者(ユーザ)による一回のファーストレリーズ操作を受けて、AF制御処理を開始し、そのファーストレリーズ操作が維持されている間に、例えば姿勢変化が生じて撮像面上の被写体像の状況に変化が生じると、その都度、AF制御処理を繰り返し実行する形態を言う。   There are a plurality of operation modes in the first release AF mode. Specifically, for example, a single AF mode and a continuous AF mode are used. Here, in the single AF mode, in response to one fast release operation (for example, half-pressing operation of the shutter-release button or pressing operation of the AF button) by the user (user), the AF control processing is executed only once. A mode in which the AF control processing result is maintained in a fixed state while the first release operation is maintained is a so-called AF lock state. In the continuous AF mode, an AF control process is started in response to one fast release operation by the user (user), and, for example, a posture change occurs while the first release operation is maintained. This is a form in which AF control processing is repeatedly executed whenever a change occurs in the state of the subject image on the imaging surface.

上述したように、上記ステップS109の処理にて、フルタイムAFモードに設定されていることが確認されて、ステップS200に進むと、このステップS200において、信号処理制御部11は、フルタイムAFモード処理を実行する。このフルタイムAFモード処理の詳細を図7のサブルーチンに示す。   As described above, when it is confirmed in the process of step S109 that the full-time AF mode is set and the process proceeds to step S200, the signal processing control unit 11 performs the full-time AF mode in step S200. Execute the process. Details of the full-time AF mode processing are shown in the subroutine of FIG.

図7のステップS201において、信号処理制御部11は、像面位相差AF処理を行うためのエリア(領域)が設定されているか否かの確認を行う。ここで、像面位相差AF可能エリア設定処理は、撮像面内において複数配置されている像面位相差AF可能エリア、即ち焦点検出用画素が配置されている複数エリアのうちから使用者(ユーザ)が操作を行うことにより所望のエリアを選択することにより、若しくは撮像面内に結像されている光学像に対応する領域や高コントラスト領域等を自動的に選択制御されることにより、設定される領域である。この場合において、像面位相差AF処理を可能とする領域(エリア)設定がされていることが確認されると、ステップS202の処理に進む。また、同設定が確認されなければステップS203の処理に進む。   In step S201 of FIG. 7, the signal processing control unit 11 checks whether or not an area (region) for performing the image plane phase difference AF processing is set. Here, in the image plane phase difference AF possible area setting process, a user (user) is selected from among a plurality of image plane phase difference AF possible areas arranged in the imaging plane, that is, a plurality of areas where focus detection pixels are arranged. ) Is set by selecting a desired area by performing an operation, or by automatically selecting and controlling a region corresponding to an optical image formed on the imaging surface, a high contrast region, or the like. Area. In this case, if it is confirmed that an area (area) is set that enables the image plane phase difference AF process, the process proceeds to step S202. If the same setting is not confirmed, the process proceeds to step S203.

ステップS202において、信号処理制御部11は、露出制御部11dを介して撮像面上の露出値を取得し、取得した露出値がEV5以上であるか否か、即ち充分に明るい環境であるか否かの確認を行う。ここで、EV5以上であることが確認された場合には、ステップS204の処理に進む。また、EV5未満である場合には、ステップS203の処理に進む。   In step S202, the signal processing control unit 11 acquires an exposure value on the imaging surface via the exposure control unit 11d, and whether or not the acquired exposure value is EV5 or more, that is, whether or not the environment is sufficiently bright. Confirm that. If it is confirmed that the EV is 5 or more, the process proceeds to step S204. If it is less than EV5, the process proceeds to step S203.

ステップS203において、信号処理制御部11は、所定のコントラストAF処理を実行する。このコントラストAF処理そのものは、従来一般的な処理と同様であり、詳細説明は省略する。その後、ステップS205の処理に進む。   In step S203, the signal processing control unit 11 performs a predetermined contrast AF process. The contrast AF process itself is the same as the conventional general process, and detailed description thereof is omitted. Thereafter, the process proceeds to step S205.

一方、ステップS204において、信号処理制御部11は、所定の像面位相差AF処理を実行する。この像面位相差AF処理そのものも、従来一般的な処理と同様であり、詳細説明は省略する。この像面位相差AF処理において、後述するデフォーカス量についての情報が取得される。その後、ステップS205の処理に進む。   On the other hand, in step S204, the signal processing control unit 11 executes predetermined image plane phase difference AF processing. This image plane phase difference AF process itself is the same as the conventional general process, and detailed description thereof is omitted. In this image plane phase difference AF process, information about the defocus amount described later is acquired. Thereafter, the process proceeds to step S205.

ステップS205において、信号処理制御部11は、撮像面内の画像が合焦状態にあるか否かの確認を行う。ここで、合焦状態であることが確認されると、ステップS206の処理に進む。また、合焦状態ではないことが確認されると、一連の処理を終了し、図6の元の処理シーケンスに戻り(リターン)、同図6のステップS110の処理に進む。   In step S205, the signal processing control unit 11 checks whether or not the image in the imaging surface is in focus. If it is confirmed that the in-focus state is obtained, the process proceeds to step S206. If it is confirmed that the in-focus state is not obtained, the series of processes is terminated, the process returns to the original process sequence of FIG. 6 (return), and the process proceeds to step S110 of FIG.

一方、上記ステップS206において、信号処理制御部11は、合焦領域(合焦エリア)の画像パターンを情報データとして記録する処理を行う。この情報データは、例えばSDRAM17若しくは一時的な情報データを記憶するために上記信号処理制御部11の内部に設けられる一時メモリ部(不図示)等に一時記憶される。   On the other hand, in step S206, the signal processing control unit 11 performs a process of recording the image pattern of the focus area (focus area) as information data. This information data is temporarily stored in, for example, the SDRAM 17 or a temporary memory unit (not shown) provided in the signal processing control unit 11 in order to store temporary information data.

ステップS207において、信号処理制御部11は、合焦領域(エリア)におけるコントラスト値を取得する処理を実行する。その後、ステップS208の処理に進む。   In step S207, the signal processing control unit 11 executes a process of acquiring a contrast value in the in-focus area (area). Thereafter, the process proceeds to step S208.

ステップS208において、信号処理制御部11は、時計部15を参照し、合焦時の時刻情報データを取得する。これら取得した各種の情報データは、例えばSDRAM17若しくは上記信号処理制御部11の一時メモリ部(不図示)等に一時記憶される。その後、一連の処理を終了し、図6の元の処理シーケンスに戻り(リターン)、同図6のステップS110の処理に進む。   In step S208, the signal processing control unit 11 refers to the clock unit 15 and acquires time information data at the time of focusing. These various information data acquired are temporarily stored in, for example, the SDRAM 17 or the temporary memory unit (not shown) of the signal processing control unit 11. Thereafter, the series of processes is terminated, the process returns to the original process sequence of FIG. 6 (return), and the process proceeds to step S110 of FIG.

図6に戻って、ステップS110において、信号処理制御部11は、例えば角速度センサ22,加速度センサ23等からの出力に基づいて、カメラ1の姿勢変化、即ち光学レンズ33の光軸の向く方向の姿勢に変化が生じたか否かの確認を行う。ここで、姿勢変化が確認された場合には、ステップS111の処理に進む。また、姿勢変化が確認されない場合には、ステップS112の処理に進む。   Returning to FIG. 6, in step S <b> 110, the signal processing control unit 11 changes the attitude of the camera 1, that is, in the direction in which the optical axis of the optical lens 33 faces, based on outputs from the angular velocity sensor 22, the acceleration sensor 23, and the like. Check if the posture has changed. If a change in posture is confirmed, the process proceeds to step S111. If no posture change is confirmed, the process proceeds to step S112.

ステップS111において、信号処理制御部11は、上述のステップS110の処理にて取得された角速度センサ22,加速度センサ23等からの出力に基づく姿勢変化情報記録を、例えばSDRAM17若しくは上記信号処理制御部11の一時メモリ部(不図示)等に一時記憶される。その後、ステップS112の処理に進む。   In step S111, the signal processing control unit 11 records posture change information based on the outputs from the angular velocity sensor 22, the acceleration sensor 23, and the like acquired in the processing in step S110, for example, the SDRAM 17 or the signal processing control unit 11 described above. Is temporarily stored in a temporary memory unit (not shown). Thereafter, the process proceeds to step S112.

ステップS112において、信号処理制御部11は、操作制御部11gを介して操作部16からの指示信号のうちファーストレリーズ操作等によるAF指示信号が発生したか否かの確認を行う。ここで、AF指示信号が確認された場合には、ステップS113の処理に進む。また、AF指示信号が確認されない場合には、ステップS114の処理に進む。   In step S112, the signal processing control unit 11 checks whether or not an AF instruction signal due to a first release operation or the like has occurred among instruction signals from the operation unit 16 via the operation control unit 11g. If the AF instruction signal is confirmed, the process proceeds to step S113. If the AF instruction signal is not confirmed, the process proceeds to step S114.

ステップS113において、信号処理制御部11は、現在設定されているファーストレリーズAFモードにおける動作形態がシングルAFモードであるか否かの確認を行う。ここで、シングルAFモードに設定されていることが確認された場合には、ステップS300の処理(詳細は図8のサブルーチン参照)に進む。また、シングルAFモード以外に設定されている場合には、ステップS114の処理に進む。ここで、その他のAF動作形態も考えられるが、本実施形態においては、それらの説明は省略する。   In step S113, the signal processing control unit 11 confirms whether or not the currently set operation mode in the first release AF mode is the single AF mode. If it is confirmed that the single AF mode is set, the process proceeds to step S300 (refer to the subroutine of FIG. 8 for details). If it is set to other than the single AF mode, the process proceeds to step S114. Here, other AF operation modes are also conceivable, but in the present embodiment, their description is omitted.

上述したように、上記ステップS113の処理にて、シングルAFモードが確認されて、ステップS300に進むと、このステップS300において、信号処理制御部11は、シングルAFモード処理を実行する。このシングルAFモード処理の詳細を図8のサブルーチンに示す。なお、このシングルAFモード処理のサブルーチンは、上述の図7のフルタイムAFモード処理のサブルーチンと略同様である。したがって、その作用の流れは上記図7に準ずるものとし、以下簡略に説明する。   As described above, when the single AF mode is confirmed in the process of step S113 and the process proceeds to step S300, in step S300, the signal processing control unit 11 executes the single AF mode process. Details of the single AF mode processing are shown in the subroutine of FIG. Note that the subroutine of the single AF mode process is substantially the same as the subroutine of the full-time AF mode process of FIG. Therefore, the flow of the action is based on FIG. 7 and will be briefly described below.

図8のステップS301は、図7のステップS201の処理と略同様である。即ちステップS301において、信号処理制御部11は、像面位相差AF処理可能エリア(領域)が設定されているか否かの確認を行う。ここで、像面位相差AF処理可能エリアの設定が確認されると、ステップS302の処理に進む。また、同設定が確認されなければステップS303の処理に進む。   Step S301 in FIG. 8 is substantially the same as the process in step S201 in FIG. That is, in step S301, the signal processing control unit 11 checks whether or not an image plane phase difference AF processable area (area) is set. If the setting of the image plane phase difference AF processable area is confirmed, the process proceeds to step S302. If the same setting is not confirmed, the process proceeds to step S303.

ステップS302において、信号処理制御部11は、最終合焦時からの経過時間が所定時間以内であるか否かの確認を行う。ここで、最終合焦時とは、上記図7のステップS203,S204のいずれかの処理若しくは後述する図8のステップS303,S304のいずれかの処理にて実行済みのAF制御処理の実行時である。   In step S <b> 302, the signal processing control unit 11 confirms whether or not the elapsed time since the last focusing is within a predetermined time. Here, the time of final focusing refers to the time when the AF control process that has been executed in one of steps S203 and S204 in FIG. 7 or one of steps S303 and S304 in FIG. is there.

上記ステップS302の処理にて、最終合焦時からの経過時間が所定時間以内であることが確認された場合には、ステップS304の処理に進む。また、最終合焦時からの経過時間が所定時間を超えている場合には、ステップS303の処理に進む。   If it is confirmed in the process of step S302 that the elapsed time from the final focusing time is within a predetermined time, the process proceeds to step S304. On the other hand, if the elapsed time from the final focusing time exceeds the predetermined time, the process proceeds to step S303.

ステップS303は、図7のステップS203の処理と同様である。即ちステップS303において、信号処理制御部11は、所定のコントラストAF処理を実行する。その後、ステップS305の処理に進む。   Step S303 is the same as the process of step S203 of FIG. That is, in step S303, the signal processing control unit 11 executes a predetermined contrast AF process. Thereafter, the process proceeds to step S305.

一方、ステップS304は、図7のステップS204の処理と同様である。即ちステップS304において、信号処理制御部11は、所定の像面位相差AF処理を実行する。その後、ステップS305の処理に進む。   On the other hand, step S304 is the same as the process of step S204 of FIG. That is, in step S304, the signal processing control unit 11 executes predetermined image plane phase difference AF processing. Thereafter, the process proceeds to step S305.

以降、ステップS305〜ステップS308の各処理は、図7のステップS205〜ステップS308の各処理と同様である。そして、図7のシーケンスと同様に、取得された各種の情報データは、例えばSDRAM17若しくは上記信号処理制御部11の一時メモリ部(不図示)等に一時記憶される。その後、一連の処理を終了し、図6の元の処理シーケンスに戻り(リターン)、同図6のステップS114の処理に進む。   Henceforth, each process of step S305-step S308 is the same as each process of step S205-step S308 of FIG. As in the sequence of FIG. 7, the acquired various information data is temporarily stored in, for example, the SDRAM 17 or a temporary memory unit (not shown) of the signal processing control unit 11. Thereafter, the series of processes is terminated, the process returns to the original process sequence of FIG. 6 (return), and the process proceeds to step S114 of FIG.

図6に戻って、ステップS114において、信号処理制御部11は、操作制御部11gを介して操作部16からの指示信号のうちセカンド(2nd.)レリーズ操作等による撮影指示信号が発生したか否かの確認を行う。ここで、撮影指示信号が確認された場合には、ステップS115の処理に進む。また、撮影指示信号が確認されない場合には、ステップS101の処理に戻る。   Returning to FIG. 6, in step S114, the signal processing control unit 11 determines whether or not a shooting instruction signal is generated by a second (2nd.) Release operation or the like among the instruction signals from the operation unit 16 via the operation control unit 11g. Confirm that. If the shooting instruction signal is confirmed here, the process proceeds to step S115. If the shooting instruction signal is not confirmed, the process returns to step S101.

ステップS115において、信号処理制御部11は、所定の静止画撮像処理を実行する。この静止画撮像処理は、従来一般的な処理と同様であり、詳細説明は省略する。その後、ステップS101の処理に戻り、以降の処理を繰り返す。   In step S115, the signal processing control unit 11 executes a predetermined still image capturing process. This still image capturing process is the same as the conventional general process, and detailed description thereof is omitted. Thereafter, the processing returns to step S101, and the subsequent processing is repeated.

以上説明したように上記第1の実施形態によれば、ファースト(1st.)レリーズ操作等によるAF指示信号が発生した時、それ以前の焦点調節動作によって合焦状態とされ、この時点においても、その合焦状態が維持されていると推定される場合には、レンズ駆動を伴わずに、高速にAF制御処理を実行しうる像面位相差AF処理を選択して、自動的に実行するようにしている。一方、AF指示信号発生時点において、非合焦状態である場合には、レンズ駆動を伴いつつ確実に焦点状態の検出を行い得るコントラストAF制御処理を実行するようにしている。換言すると、本実施形態によれば、焦点調節動作の履歴に基づいて、レンズ駆動を必ず伴うコントラストAF処理と、伴わない像面位相差AF処理とを切り換える制御を行う。これにより、状況に応じて適切な焦点調節手段を自動的に選択し切り換えることができ、常に高速なAF制御処理による撮影動作を実行し得る。
[第2の実施形態]
As described above, according to the first embodiment, when the AF instruction signal is generated by the first (1st.) Release operation or the like, the focus is adjusted by the previous focus adjustment operation. If it is estimated that the in-focus state is maintained, an image plane phase difference AF process capable of executing the AF control process at high speed without lens driving is selected and automatically executed. I have to. On the other hand, when the AF instruction signal is generated, if it is in the out-of-focus state, a contrast AF control process capable of reliably detecting the focus state while driving the lens is executed. In other words, according to the present embodiment, based on the history of the focus adjustment operation, control is performed to switch between contrast AF processing that always involves lens driving and image plane phase difference AF processing that does not always accompany. Accordingly, it is possible to automatically select and switch an appropriate focus adjusting unit according to the situation, and it is possible to always perform a photographing operation by high-speed AF control processing.
[Second Embodiment]

本発明の第2の実施形態は、上述の第1の実施形態と基本的には略同様であり、一部の処理シーケンスが異なるのみである。即ち、本実施形態においては、シングルAFモード時のサブルーチン(図9参照)が若干異なる。したがって、以下に説明する第2の実施形態においては、上述の第1の実施形態と同じ構成及び作用の説明は省略する。そして、上述の第1の実施形態と同じ処理ステップには同じ処理番号を付して説明を省略し、異なる処理ステップについてのみ以下に説明する。   The second embodiment of the present invention is basically substantially the same as the first embodiment described above, and only a part of the processing sequence is different. That is, in this embodiment, the subroutine (see FIG. 9) in the single AF mode is slightly different. Therefore, in the second embodiment described below, the description of the same configuration and operation as those in the first embodiment is omitted. The same processing steps as those in the first embodiment described above are denoted by the same processing numbers and description thereof is omitted, and only different processing steps will be described below.

本実施形態のメインフローチャートは、上述の第1の実施形態において説明した図6と略同様である。図6のメインフローチャートにおいて、ファーストレリーズ操作の確認後、ステップS113の処理にてシングルAFモードの設定が確認されると、シングルAFモード処理(図6のステップS300;詳細は図8)が実行される。   The main flowchart of this embodiment is substantially the same as FIG. 6 described in the first embodiment. In the main flowchart of FIG. 6, after confirming the first release operation, when the setting of the single AF mode is confirmed in the process of step S113, the single AF mode process (step S300 of FIG. 6; FIG. 8 for details) is executed. The

本実施形態におけるシングルAFモード処理のサブルーチンを図9に示す。これは、上記第1の実施形態における図6のステップS300(詳細図8)に相当する処理である。   FIG. 9 shows a subroutine of single AF mode processing in the present embodiment. This is a process corresponding to step S300 (detailed diagram 8) of FIG. 6 in the first embodiment.

本実施形態のシングルAFモード処理(ステップS300Aの処理)は、図9に示すように、まず、ステップS301において、像面位相差AF処理可能エリア(領域)の設定確認が行なわれ、ここで、像面位相差AF処理可能エリアの設定が確認されると、ステップS500のAF方式選択判定処理(詳細は後述する。図10のサブルーチン)に進む。また、同設定が確認されなければステップS303の処理に進む。   In the single AF mode process (the process in step S300A) of the present embodiment, as shown in FIG. 9, first, in step S301, the setting of the image plane phase difference AF processable area (area) is confirmed. When the setting of the image plane phase difference AF processable area is confirmed, the process proceeds to an AF method selection determination process (details will be described later, a subroutine of FIG. 10) in step S500. If the same setting is not confirmed, the process proceeds to step S303.

ステップS500(図10)の処理後、図9に戻ってステップS302Aの処理に進むと、このステップS302Aにおいて、信号処理制御部11は、上記ステップS500の処理における選択判定の結果が「像面位相差AF」であるか否かの確認を行う。ここで、判定結果が「像面位相差AF」である場合には、ステップS304の像面位相差AF処理に進む。また、判定結果が「像面位相差AF」であはない場合には、ステップS303のコントラストAF処理に進む。   After the process of step S500 (FIG. 10), returning to FIG. 9 and proceeding to the process of step S302A, in this step S302A, the signal processing control unit 11 indicates that the selection determination result in the process of step S500 is “image plane position”. It is confirmed whether or not it is “phase difference AF”. If the determination result is “image plane phase difference AF”, the process proceeds to the image plane phase difference AF process in step S304. If the determination result is not “image plane phase difference AF”, the process proceeds to contrast AF processing in step S303.

以降のステップS303〜ステップS308の各処理は、図8のステップS303〜ステップS308の各処理と同様である。そして、図8のシーケンスと同様に、取得された各種の情報データは、例えばSDRAM17若しくは上記信号処理制御部11の一時メモリ部(不図示)等に一時記憶される。その後、一連の処理を終了して元の処理シーケンスに戻る(リターン)。   The subsequent steps S303 to S308 are the same as the steps S303 to S308 in FIG. As in the sequence of FIG. 8, the acquired various types of information data are temporarily stored in, for example, the SDRAM 17 or a temporary memory unit (not shown) of the signal processing control unit 11. Thereafter, the series of processes is terminated and the process returns to the original process sequence (return).

ここで、上記ステップS500の処理、即ちAF制御処理を状況に応じて選択し採用すべきAF方式を判定するための処理であるAF方式選択判定処理の詳細を図10〜図14を用いて以下に説明する。   Here, the details of the AF method selection determination process, which is a process for selecting the AF control process according to the situation and determining the AF method to be employed, will be described below with reference to FIGS. Explained.

上述したように、信号処理制御部11の制御下においてAF方式選択判定処理が実行されると、まず、図10のステップS600において、信号処理制御部11は、現在のレンズ位置が合焦位置の近傍にあるか否かを判定する合焦近傍判定処理を実行する。この合焦近傍判定処理の詳細は、図11のサブルーチンに示す。なお、ここで、合焦近傍判定とは、現在のレンズ位置が合焦位置の近傍にあるかどうかの判定である。合焦近傍であるということは、言い換えれば、デフォーカス量が「小」である場合に相当し、非合焦近傍、即ち合焦近傍にないということは、デフォーカス量が「大」である場合に相当する。   As described above, when the AF method selection determination process is executed under the control of the signal processing control unit 11, first, in step S600 of FIG. 10, the signal processing control unit 11 determines that the current lens position is the in-focus position. In-focus vicinity determination processing is performed to determine whether or not the object is in the vicinity. Details of the in-focus vicinity determination process are shown in the subroutine of FIG. Here, the focus vicinity determination is determination of whether or not the current lens position is in the vicinity of the focus position. In other words, being in focus is equivalent to a case where the defocus amount is “small”. In other words, if the focus is not in focus, that is, not in the vicinity of focus, the defocus amount is “large”. Corresponds to the case.

合焦近傍判定処理は信号処理制御部11の制御下において実行される処理である。したがって、この場合において、信号処理制御部11は、合焦近傍判定手段として機能する。   The in-focus vicinity determination process is a process executed under the control of the signal processing control unit 11. Therefore, in this case, the signal processing control unit 11 functions as an in-focus vicinity determination unit.

図11のステップS601において、信号処理制御部11は、現在のコントラスト値が最終合焦時のコントラスト値(図9のステップS307で取得した値)から変化しているか否かの確認する。ここで、変化が確認されない場合には、ステップS606の処理に進む。また、変化が確認された場合には、ステップS602の処理に進む。   In step S601 in FIG. 11, the signal processing control unit 11 checks whether or not the current contrast value has changed from the contrast value at the time of final focusing (the value acquired in step S307 in FIG. 9). If no change is confirmed, the process proceeds to step S606. If a change is confirmed, the process proceeds to step S602.

ステップS602において、信号処理制御部11は、最終合焦時からの経過時間が所定時間以内であるか否かの確認を行う。この確認は、上記図9のステップS308にて取得され記録した合焦時の時刻と、時計部15を参照して求めた経過時間に基づいて行なわれる。ここで、最終合焦時からの経過時間が所定時間以内であることが確認された場合には、ステップS606の処理に進む。また、最終合焦時からの経過時間が所定時間を超えている場合には、ステップS603の処理に進む。   In step S602, the signal processing control unit 11 checks whether or not the elapsed time from the time of the final focusing is within a predetermined time. This confirmation is performed based on the time of focusing obtained and recorded in step S308 of FIG. 9 and the elapsed time obtained with reference to the clock unit 15. Here, when it is confirmed that the elapsed time from the final focusing time is within a predetermined time, the process proceeds to step S606. On the other hand, if the elapsed time from the final focusing time exceeds the predetermined time, the process proceeds to step S603.

ステップS603において、信号処理制御部11は、現在の合焦エリア内の画像パターンが最終合焦時における合焦エリア画像パターン(図9のステップS306の処理にて記録した画像パターン)と一致しているか否かの確認を行う。ここで、画像パターンの一致が確認された場合にはステップS606の処理に進む。また、画像パターンの不一致が確認された場合にはステップS604の処理に進む。   In step S603, the signal processing control unit 11 matches the image pattern in the current in-focus area with the in-focus area image pattern (the image pattern recorded in step S306 in FIG. 9) at the time of the final in-focus. Check if it exists. If the image pattern match is confirmed, the process proceeds to step S606. If the image pattern mismatch is confirmed, the process proceeds to step S604.

ステップS604において、信号処理制御部11は、角速度センサ22,加速度センサ23等からの出力に基づいてカメラ1の姿勢変化を確認し、上記図6のステップS111の処理にて記録した姿勢変化情報と比較し、姿勢変化の有無を確認する。ここで、姿勢変化が確認された場合には、ステップS605の処理に進む。また、姿勢変化が確認されない場合には、ステップS606の処理に進む。   In step S604, the signal processing control unit 11 confirms the posture change of the camera 1 based on the outputs from the angular velocity sensor 22, the acceleration sensor 23, etc., and the posture change information recorded in the process of step S111 in FIG. Compare and check for any changes in posture. If a change in posture is confirmed, the process proceeds to step S605. If no posture change is confirmed, the process proceeds to step S606.

ステップS605において、信号処理制御部11は、現在のレンズ位置が合焦位置の近傍にはない(非合焦位置にある)と判定し、一連の処理を終了する(リターン)。   In step S605, the signal processing control unit 11 determines that the current lens position is not in the vicinity of the in-focus position (is in the out-of-focus position), and ends the series of processes (return).

ステップS606において、信号処理制御部11は、現在のレンズ位置は合焦位置の近傍にあるものと判定し、一連の処理を終了する(リターン)。   In step S606, the signal processing control unit 11 determines that the current lens position is in the vicinity of the in-focus position, and ends a series of processing (return).

図10に戻って、ステップS501において、信号処理制御部11は、上述のステップS600の処理の結果が合焦近傍であるか否かの確認を行う。ここで、合焦近傍である場合には、ステップS506の処理に進む。   Returning to FIG. 10, in step S <b> 501, the signal processing control unit 11 checks whether or not the result of the processing in step S <b> 600 described above is close to the in-focus state. If it is near the in-focus state, the process proceeds to step S506.

一方、上述のステップS501の処理にて、合焦近傍ではない(非合焦近傍である)場合には、ステップS502の処理に進む。   On the other hand, if it is not near focus (near out-of-focus) in the process of step S501 described above, the process proceeds to step S502.

ステップS502において、信号処理制御部11は、撮像面上の撮影対象の主要な被写体像が動体であるか否かの確認を行う。この確認は、画像処理部11c等を用いた画像認識技術や、像移動量検出部11f等による検出結果に基づいて行なわれる。ここで、被写体像が動体であると確認された場合には、ステップS506の処理に進む。また、被写体像が動体ではない場合には、ステップS700の処理に進む。   In step S502, the signal processing control unit 11 checks whether or not the main subject image to be photographed on the imaging surface is a moving object. This confirmation is performed based on an image recognition technique using the image processing unit 11c or the like, or a detection result by the image movement amount detection unit 11f or the like. If it is confirmed that the subject image is a moving object, the process proceeds to step S506. If the subject image is not a moving object, the process proceeds to step S700.

ステップS700において、信号処理制御部11は、位相差AF処理の信頼性を事前に判定する位相差信頼性事前判定処理を実行する。この位相差信頼性事前判定処理の詳細は、図12のサブルーチンに示す。   In step S <b> 700, the signal processing control unit 11 performs a phase difference reliability prior determination process for determining in advance the reliability of the phase difference AF process. Details of this phase difference reliability prior determination processing are shown in the subroutine of FIG.

位相差信頼性事前判定処理は信号処理制御部11の制御下において実行される処理である。したがって、この場合において、信号処理制御部11は、位相差信頼性事前判定手段として機能する。   The phase difference reliability prior determination process is a process executed under the control of the signal processing control unit 11. Therefore, in this case, the signal processing control unit 11 functions as a phase difference reliability prior determination unit.

図12のステップS701において、信号処理制御部11は、現在の撮像面上の被写体像のデフォーカス量の有無を確認する。ここで、デフォーカス量がある場合とは、合焦状態にない場合である。この場合には、ステップS702の処理に進む。また、デフォーカス量がない場合、即ち合焦状態にある場合には、ステップS703の処理に進む。   In step S701 in FIG. 12, the signal processing control unit 11 confirms whether or not there is a defocus amount of the current subject image on the imaging surface. Here, when there is a defocus amount, it is a case where it is not in focus. In this case, the process proceeds to step S702. If there is no defocus amount, that is, if it is in focus, the process proceeds to step S703.

ステップS702において、信号処理制御部11は、現在装着されているレンズ鏡筒30の仕様を確認する。即ち、レンズ鏡筒30の開放絞り値がF4より小絞りであって、かつ焦点距離が20mm以下の広角レンズであるか否かの確認を行う。この確認は、次のような理由による。一般に、撮影光学系を構成するレンズ鏡筒30の仕様において、開放絞り値が小絞りである程、また焦点距離が短焦点である程、被写界深度が深くなる傾向にあることから、見かけ上のピントの合う範囲、即ち合焦状態とされる範囲が広くなることは周知である。この場合、ピントの合う範囲(合焦状態とされる範囲)における範囲とは、合焦位置に対するレンズ位置の光軸方向のズレ量の許容範囲で表すことができる。そこで、本実施形態においては、レンズ鏡筒30の仕様において、開放絞り値がF4よりも小絞りであって、焦点距離が20mm以下の広角レンズであれば、充分に深い被写界深度を得ることができ、よって、焦点調節処理の信頼性を得ることができるものとしている。   In step S702, the signal processing control unit 11 confirms the specifications of the lens barrel 30 currently mounted. That is, it is confirmed whether or not the lens barrel 30 is a wide-angle lens having an aperture value smaller than F4 and a focal length of 20 mm or less. This confirmation is due to the following reason. In general, in the specification of the lens barrel 30 constituting the photographing optical system, the depth of field tends to be deeper as the open aperture value is smaller and the focal length is shorter. It is well known that the above in-focus range, that is, the in-focus range is widened. In this case, the range in the in-focus range (the range in which the in-focus state is achieved) can be represented by an allowable range of the amount of deviation in the optical axis direction of the lens position with respect to the focus position. Therefore, in the present embodiment, in the specification of the lens barrel 30, a sufficiently deep depth of field is obtained if the wide-angle lens has an aperture value smaller than F4 and a focal length of 20 mm or less. Therefore, the reliability of the focus adjustment process can be obtained.

上記ステップS702の処理にて、レンズ鏡筒30が同条件(開放絞りF4より小かつ焦点距離20mm以下)に合致する場合には、ステップS703の処理に進む。また、同条件に合致しない場合には、ステップS704の処理に進む。   If it is determined in step S702 that the lens barrel 30 meets the same condition (smaller than the open aperture F4 and equal to or less than 20 mm in focal length), the process proceeds to step S703. If the condition is not met, the process proceeds to step S704.

ステップS703において、信号処理制御部11は、現在の状況において像面位相差AF処理によるAF制御処理を行った場合には、信頼性のある焦点調節結果が得られるものと事前判定し(信頼性あり判定)、一連の処理を終了する(リターン)。   In step S703, the signal processing control unit 11 determines in advance that a reliable focus adjustment result is obtained when the AF control processing by the image plane phase difference AF processing is performed in the current situation (reliability A determination of presence), a series of processing ends (return).

ステップS704において、信号処理制御部11は、現在の状況において像面位相差AF処理によるAF制御処理を行った場合には、信頼性のある焦点調節結果が得られないものと事前判定し(信頼性なし判定)、一連の処理を終了する(リターン)。   In step S704, the signal processing control unit 11 determines in advance that a reliable focus adjustment result cannot be obtained when the AF control processing by the image plane phase difference AF processing is performed in the current situation (reliable). A series of processing ends (return).

図10に戻って、ステップS503において、信号処理制御部11は、上述のステップS700の処理結果が、信頼性ありの事前判定であるか否かの確認を行う。ここで、信頼性ありの事前判定であれば、ステップS506の処理に進む。また、信頼性ありの事前判定でなければ、ステップS800の処理に進む。   Returning to FIG. 10, in step S <b> 503, the signal processing control unit 11 checks whether or not the processing result in step S <b> 700 described above is a reliable prior determination. Here, if the determination is reliable, the process proceeds to step S506. If the prior determination is not reliable, the process proceeds to step S800.

ステップS800において、信号処理制御部11は、AF時間見積もり処理を実行する。このAF時間見積もり処理は、像面位相差AF処理を行った場合にかかる処理時間(Tp)と、コントラストAF処理を行った場合にかかる処理時間(Ti)とを、事前に算出する(見積もる)処理である。その詳細は、図13のサブルーチンに示す。   In step S800, the signal processing control unit 11 executes AF time estimation processing. In this AF time estimation processing, the processing time (Tp) required when the image plane phase difference AF processing is performed and the processing time (Ti) required when the contrast AF processing is performed are calculated (estimated) in advance. It is processing. The details are shown in the subroutine of FIG.

AF時間見積もり処理は信号処理制御部11の制御下において実行される処理である。したがって、この場合において、信号処理制御部11は、AF時間見積もり手段として機能する。   The AF time estimation process is a process executed under the control of the signal processing control unit 11. Therefore, in this case, the signal processing control unit 11 functions as an AF time estimating unit.

図13のステップS801において、信号処理制御部11は、フレームレート切り換え時間の有無を確認する。   In step S801 in FIG. 13, the signal processing control unit 11 checks whether or not there is a frame rate switching time.

通常のライブビュー画像表示を行っている状態からAF制御処理を実行するのに際しては、例えば撮像素子12aからの画像データの読み取りを高速化してAF制御処理を高速化するために、撮像素子12aのフレームレートを例えば60fpsから120fps等のように高速方向に切り換えを行うことがある。このフレームレート切り換え時には、データ読み取りタイミングの調整のために1フレーム分の空白(ブランク)期間が必要になる。この期間に要する時間をフレームレート切り換え時間というものとしている。   When executing the AF control process from a state where normal live view image display is being performed, for example, in order to speed up the AF control process by speeding up the reading of image data from the image sensor 12a, the image sensor 12a The frame rate may be switched in the high speed direction, for example, from 60 fps to 120 fps. When this frame rate is switched, a blank period for one frame is required to adjust the data reading timing. The time required for this period is referred to as frame rate switching time.

ここで、フレームレート切り換え時間が存在する場合には、ステップS803の処理に進み、このステップS803において、フレームレート切り換え時間=Tswと設定する。その後、ステップS804の処理に進む。   If the frame rate switching time exists, the process proceeds to step S803, where the frame rate switching time is set to Tsw. Thereafter, the process proceeds to step S804.

一方、フレームレート切り換え時間が存在しない場合には、ステップS802の処理に進み、このステップS802において、フレームレート切り換え時間Tsw=0と設定する。その後、ステップS804の処理に進む。   On the other hand, if the frame rate switching time does not exist, the process proceeds to step S802, and the frame rate switching time Tsw = 0 is set in step S802. Thereafter, the process proceeds to step S804.

ステップS804において、信号処理制御部11は、現在のレンズ位置からのコントラストAF処理時間(Tli)を取得する。   In step S804, the signal processing control unit 11 acquires the contrast AF processing time (Tli) from the current lens position.

次いで、ステップS805において、信号処理制御部11は、コントラストAF処理時間の見積もり結果、Ti=Tsw+Tliを取得する。   Next, in step S805, the signal processing control unit 11 acquires Ti = Tsw + Tli as a result of estimating the contrast AF processing time.

続いて、ステップS806において、信号処理制御部11は、現在のレンズ位置からの像面位相差AF処理時間(Tlp)を取得する。   Subsequently, in step S806, the signal processing control unit 11 acquires the image plane phase difference AF processing time (Tlp) from the current lens position.

次いで、ステップS807において、信号処理制御部11は、像面位相差AF処理時間の見積もり結果、Tp=Tsw+Tlpを取得する。その後、一連の処理を終了する(リターン)。   Next, in step S807, the signal processing control unit 11 acquires Tp = Tsw + Tlp as an estimation result of the image plane phase difference AF processing time. Thereafter, the series of processes is terminated (return).

図10に戻って、ステップS504において、信号処理制御部11は、上述のステップS800の処理にて取得したコントラストAF処理時間(Ti)と像面位相差AF処理時間(Tp)との見積もり時間の比較を行う。ここで、像面位相差AF処理時間(Tp)<コントラストAF処理時間(Ti)であるか否かを確認し、そうである場合には、ステップS506の処理に進む。また、そうでない場合には、ステップS505の処理に進む。   Returning to FIG. 10, in step S504, the signal processing control unit 11 calculates the estimated time between the contrast AF processing time (Ti) and the image plane phase difference AF processing time (Tp) acquired in the processing in step S800 described above. Make a comparison. Here, it is confirmed whether or not image plane phase difference AF processing time (Tp) <contrast AF processing time (Ti). If so, the process proceeds to step S506. Otherwise, the process proceeds to step S505.

ステップS505において、信号処理制御部11は、所定のコントラストAF処理を実行する。その後、一連の処理を終了する(リターン)。   In step S505, the signal processing control unit 11 performs a predetermined contrast AF process. Thereafter, the series of processes is terminated (return).

一方、ステップS506において、信号処理制御部11は、像面位相差AF処理を実行する。この像面位相差AF処理の詳細は、図14のサブルーチンに示す。   On the other hand, in step S506, the signal processing control unit 11 executes image plane phase difference AF processing. Details of this image plane phase difference AF processing are shown in the subroutine of FIG.

図14のステップS5061において、信号処理制御部11は、デフォーカス量が算出可能であるかの確認を行う。ここで、デフォーカス量の算出可能であることが確認された場合には、ステップS5062の処理に進む。また、デフォーカス量の算出が不可能である場合には、ステップS5063の処理に進む。   In step S5061 in FIG. 14, the signal processing control unit 11 checks whether the defocus amount can be calculated. If it is confirmed that the defocus amount can be calculated, the process proceeds to step S5062. If the defocus amount cannot be calculated, the process proceeds to step S5063.

ステップS5062において、信号処理制御部11は、合焦位置へ向けてのレンズ駆動制御を実行する。その後、一連の処理を終了する(リターン)。   In step S5062, the signal processing control unit 11 executes lens drive control toward the in-focus position. Thereafter, the series of processes is terminated (return).

また、ステップS5063において、信号処理制御部11は、焦点調節可能範囲において最至近端若しくは無限遠端へ向けてのレンズ駆動制御を実行する。その後、一連の処理を終了する(リターン)。
以上説明したように上記第2の実施形態においても、上述の第1の実施形態と同様の効果を得ることができる。これに加えて、本実施形態においては、像面位相差AF処理の信頼性を事前に判定する処理(図12)やAF時間見積もり処理(図13)等を含めたAF方式選択判定処理(図10)を行なって、状況に応じて最適なAF方式を自動的に選択し実行することができる。したがって、常に高速なAF処理を行なって、快適な撮影を行い得る撮像装置とすることができる。
In step S5063, the signal processing control unit 11 executes lens drive control toward the closest end or the infinity end in the focus adjustable range. Thereafter, the series of processes is terminated (return).
As described above, also in the second embodiment, the same effects as those in the first embodiment can be obtained. In addition to this, in this embodiment, an AF method selection determination process (FIG. 12) including a process for determining the reliability of the image plane phase difference AF process in advance (FIG. 12), an AF time estimation process (FIG. 13), and the like. 10), the optimum AF method can be automatically selected and executed according to the situation. Therefore, it is possible to obtain an imaging apparatus that can always perform high-speed AF processing and perform comfortable shooting.

上述の各実施形態で説明した各処理シーケンスは、その性質に反しない限り、手順の変更を許容し得る。したがって、上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更したり、複数の処理ステップを同時に実行させたり、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。   Each processing sequence described in each of the above-described embodiments can allow a procedure to be changed as long as it does not contradict its nature. Therefore, for each of the above-described processing sequences, for example, the order of the processing steps is changed each time the processing order is changed, the processing steps are executed simultaneously, or a series of processing sequences are executed. It may be.

即ち、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   That is, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストリールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の撮影機器を実現することができる。   Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the photographing apparatus of the present embodiment by downloading the program via a communication network and installing the program in a computer or installing the program from a recording medium into the computer.

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications can of course be implemented without departing from the spirit of the invention. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the above-described embodiment, if the problem to be solved by the invention can be solved and the effect of the invention can be obtained, this constituent requirement is deleted. The configured structure can be extracted as an invention.

1……カメラ,
10……カメラボディ,11……信号処理制御部,11b……AF信号算出部,11c……画像処理部,11d……露出制御部,11e……測距演算部,11f……像移動量検出部,11g……操作制御部,12……撮像ユニット,12a……撮像素子,12b……画素加算読出部,12c……非画素加算読出部,13……フラッシュメモリ,14……顔検出部,15……時計部,16……操作部,18……表示装置,19……表示ドライバ,20……タッチパネル,21……タッチパネルドライバ,22……角速度センサ,23……加速度センサ,24……記録媒体,25……メモリインタフェース,26……ボディ側通信部,
30……レンズ鏡筒,31……レンズ制御部,32……レンズドライバ,33……光学レンズ,34……絞り装置,41……インタフェース,
1 …… Camera,
DESCRIPTION OF SYMBOLS 10 ... Camera body, 11 ... Signal processing control part, 11b ... AF signal calculation part, 11c ... Image processing part, 11d ... Exposure control part, 11e ... Distance calculation operation part, 11f ... Image movement amount Detection unit, 11g ... Operation control unit, 12 ... Imaging unit, 12a ... Imaging element, 12b ... Pixel addition readout unit, 12c ... Non-pixel addition readout unit, 13 ... Flash memory, 14 ... Face detection 15, clock unit 16, operation unit 18, display device, 19 display driver, 20 touch panel, 21 touch panel driver, 22 angular velocity sensor, 23 acceleration sensor, 24 ...... Recording medium, 25 ... Memory interface, 26 ... Body side communication unit,
30 ... Lens barrel, 31 ... Lens control unit, 32 ... Lens driver, 33 ... Optical lens, 34 ... Aperture device, 41 ... Interface,

Claims (6)

被写体像を結像させるレンズを含む撮像光学系と、
撮像面の全域に亘って撮像用画素が二次元状に配列されると共に、その配列の少なくとも一部に複数の焦点検出用画素が配列されてなる撮像素子と、
上記撮像用画素からの出力信号に基づいて焦点調節を行う第1焦点調節手段と、
上記焦点検出用画素からの出力信号に基づいて焦点調節を行う第2焦点調節手段と、
状況に応じて、上記第1焦点調節手段と上記第2焦点調節手段とのいずれか1つの焦点調節手段の選択を判定するAF方式選択判定手段と、上記AF方式選択判定手段による判定結果に基づき、上記第1焦点調節手段と上記第2焦点調節手段とを切り換える切換手段、を備えた制御部と、
を具備し、
上記制御部における上記AF方式選択判定手段は、焦点調節動作を開始する指示信号を受けた時点で上記第2焦点調節手段によってオートフォーカス処理を行うためのエリア設定がされており、かつ上記レンズが合焦位置にある場合には上記第2焦点調節手段を選択するよう判定し、
上記制御部における上記切換手段は、上記AF方式選択判定手段において上記第2焦点調節手段を選択するよう判定された場合には、上記第2焦点調節手段に切り換える
ことを特徴とする撮像装置。
An imaging optical system including a lens for forming a subject image;
An imaging device in which imaging pixels are arranged two-dimensionally over the entire imaging surface, and a plurality of focus detection pixels are arranged in at least a part of the arrangement;
First focus adjusting means for performing focus adjustment based on an output signal from the imaging pixel;
Second focus adjusting means for performing focus adjustment based on an output signal from the focus detection pixel;
According to the situation, based on the determination result by the AF method selection determination unit that determines the selection of any one of the first focus adjustment unit and the second focus adjustment unit, and the determination result by the AF method selection determination unit. and switching means for switching between said first focusing means and the second focusing means, and a control unit having a,
Comprising
The AF method selection determination means in the control unit has an area setting for performing autofocus processing by the second focus adjustment means when receiving an instruction signal for starting a focus adjustment operation , and the lens is If it is in the in-focus position, it is determined to select the second focus adjusting means ,
The switching device in the control unit switches to the second focus adjustment unit when the AF method selection determination unit determines to select the second focus adjustment unit .
上記第1焦点調節手段は、コントラスト検出方式の自動焦点調節制御処理によって焦点調節を行い、
第2焦点調節手段は、撮像面位相差検出方式の自動焦点調節制御処理によって焦点調節を行うことを特徴とする請求項1に記載の撮像装置。
The first focus adjustment means performs focus adjustment by an automatic focus adjustment control process of a contrast detection method,
The image pickup apparatus according to claim 1, wherein the second focus adjustment unit performs focus adjustment by an automatic focus adjustment control process of an imaging surface phase difference detection method.
上記制御部における上記AF方式選択判定手段は、最終合焦時の状態のコントラスト値,経過時間,AFエリアの画像パターンの各情報のうち少なくとも一つの情報に基づいて現在のレンズ位置が合焦位置の近傍にあるかどうかを判定する合焦近傍判定手段を、さらに具備し、上記合焦近傍判定手段の判定結果に応じて適切なAF方式を選択する
ことを特徴とする請求項1に記載の撮像装置。
The AF method selection determining means in the control unit determines whether the current lens position is a focus position based on at least one of the information of the contrast value in the final focus state, the elapsed time, and the image pattern of the AF area. the focus proximity determination means for determining whether the vicinity of, further comprising, according to claim 1, characterized in that selecting an appropriate AF method in accordance with the determination result of the above Kigoase proximity determination means Imaging device.
上記制御部における上記AF方式選択判定手段は、上記第2焦点調節手段によって取得したデフォーカス量と、上記撮像光学系の仕様データとのうち少なくとも一方若しくは両方の情報に基づいて上記第2焦点調節手段による焦点調節結果の信頼性を事前に判定する位相差信頼性事前判定手段を、さらに具備し、上記位相差信頼性事前判定手段の判定結果に応じて適切なAF方式を選択する
ことを特徴とする請求項1に記載の撮像装置。
The AF method selection determination means in the control unit is configured to adjust the second focus adjustment based on information on at least one or both of a defocus amount acquired by the second focus adjustment means and specification data of the imaging optical system. a phase difference reliability advance determination means for determining in advance the reliability of the focusing result by means, further comprising, selecting an appropriate AF method in accordance with the determination result of the above SL retardation reliable advance judging means The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
上記制御部における上記AF方式選択判定手段は、現在のレンズ位置からの上記第1焦点調節手段による処理時間と、現在のレンズ位置からの上記第2焦点調節手段による処理時間とを、それぞれ取得するAF時間見積もり手段を、さらに具備し、上記AF時間見積もり手段によって取得された処理時間を比較して、適切なAF方式を選択する
ことを特徴とする請求項1に記載の撮像装置。
The AF method selection determination unit in the control unit acquires the processing time by the first focus adjustment unit from the current lens position and the processing time by the second focus adjustment unit from the current lens position, respectively. the AF time estimation means further comprises, by comparing the processing times obtained by the above Symbol AF time estimating means, the imaging apparatus according to claim 1, characterized in that to select the appropriate AF method.
合焦近傍判定手段によって、最終合焦時の状態のコントラスト値,経過時間,AFエリアの画像パターンの各情報のうち少なくとも一つの情報に基づいて現在のレンズ位置が合焦位置の近傍にあるかどうかを判定し、
位相差信頼性事前判定手段によって、第2焦点調節手段が取得したデフォーカス量と、撮像光学系の仕様データとのうち少なくとも一方若しくは両方の情報に基づいて上記第2焦点調節手段による焦点調節結果の信頼性を事前に判定し、
AF時間見積もり手段によって、現在のレンズ位置からの第1焦点調節手段による処理時間と、現在のレンズ位置からの上記第2焦点調節手段による処理時間とをそれぞれ取得し、
制御部によって、上記合焦近傍判定手段若しくは上記位相差信頼性事前判定手段の各判定結果、または上記AF時間見積もり手段によって取得された処理時間に応じて適切なAF方式を選択し、
上記AF方式の選択は、
上記合焦近傍判定手段により、現在のレンズ位置が合焦位置の近傍にあると判定される場合、もしくは、上記位相差信頼性事前判定手段における各判定結果により上記第2焦点調節手段による焦点調節結果の信頼性があると判定される場合、または、上記AF時間見積もり手段により取得された上記第2焦点調節手段による処理時間が上記第1焦点調節手段による処理時間所定時間にある場合、の3つの場合において、上記3つの場合のうちいずれかの場合であると判定されるとき、上記AF方式を上記第2焦点調節手段として選択し、それ以外のときは上記第1焦点調節手段を選択する
こと特徴とする撮像装置の制御方法。
Whether the current lens position is in the vicinity of the in-focus position based on at least one of the contrast value, the elapsed time, and the AF area image pattern information at the time of the final in-focus state by the in-focus vicinity determination unit Determine whether
The focus adjustment result by the second focus adjustment unit based on at least one or both of the defocus amount acquired by the second focus adjustment unit and the specification data of the imaging optical system by the phase difference reliability prior determination unit The reliability of the
The AF time estimating means, and processing time by the first focusing means from the current lens position, respectively obtains the processing time by the second focusing means from the current lens position,
The control unit selects an appropriate AF method in accordance with the processing time acquired by the determination result, or the AF time estimating means of the focus proximity determination means or the retardation reliable advance determining means,
The AF method is selected as follows:
When it is determined by the in-focus vicinity determining means that the current lens position is in the vicinity of the in-focus position, or according to each determination result in the phase difference reliability prior determination means, the focus adjustment by the second focus adjusting means When it is determined that the result is reliable, or when the processing time by the second focus adjustment unit acquired by the AF time estimation unit is a predetermined processing time by the first focus adjustment unit In one case, when it is determined that any one of the above three cases, the AF method is selected as the second focus adjustment unit, and otherwise, the first focus adjustment unit is selected. A control method for an image pickup apparatus.
JP2013186492A 2013-09-09 2013-09-09 IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE Active JP6257231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013186492A JP6257231B2 (en) 2013-09-09 2013-09-09 IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013186492A JP6257231B2 (en) 2013-09-09 2013-09-09 IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE

Publications (2)

Publication Number Publication Date
JP2015052747A JP2015052747A (en) 2015-03-19
JP6257231B2 true JP6257231B2 (en) 2018-01-10

Family

ID=52701791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013186492A Active JP6257231B2 (en) 2013-09-09 2013-09-09 IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP6257231B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134390A (en) * 2006-11-28 2008-06-12 Sony Corp Imaging apparatus
JP5207797B2 (en) * 2008-03-28 2013-06-12 キヤノン株式会社 Imaging apparatus and control method thereof
JP2012247613A (en) * 2011-05-27 2012-12-13 Nikon Corp Imaging device
JP5961929B2 (en) * 2011-06-21 2016-08-03 株式会社ニコン camera
JP2013061579A (en) * 2011-09-15 2013-04-04 Nikon Corp Focusing device and imaging apparatus

Also Published As

Publication number Publication date
JP2015052747A (en) 2015-03-19

Similar Documents

Publication Publication Date Title
JP6063634B2 (en) Focus adjustment device
JP2010015024A (en) Image pickup apparatus, control method thereof, program and storage medium
US8462215B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
JP7086571B2 (en) Image pickup device, lens device and control method thereof
JP2009251557A (en) Imaging apparatus
JP2011248159A (en) Imaging apparatus, imaging system, imaging apparatus control method and program
JP5812706B2 (en) Optical device and control method thereof
JP2010183472A (en) Imaging apparatus, and program
JP2017211487A (en) Imaging apparatus and automatic focus adjustment method
JP2017129828A (en) Imaging device and imaging method
JP6312460B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6253454B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2007328360A (en) Automatic focusing camera and photographing method
JP2009175442A (en) Imaging apparatus
JP2016057463A (en) Focus adjustment device and control method of the same
JP2009105851A (en) Imaging apparatus, control method and program thereof
JP5486662B2 (en) Imaging device and camera body
JP2013024900A (en) Lens control device of optical apparatus
JP5062095B2 (en) Imaging device
JP6257231B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
JP2008158028A (en) Electronic still camera
JP2015040930A (en) Image-capturing device, image-capturing system, method for controlling image-capturing device, program, and recording medium
JP2014134697A (en) Imaging apparatus
JP5420034B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2012099984A (en) Imaging device, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171205

R151 Written notification of patent or utility model registration

Ref document number: 6257231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250