JP2016109766A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2016109766A
JP2016109766A JP2014244904A JP2014244904A JP2016109766A JP 2016109766 A JP2016109766 A JP 2016109766A JP 2014244904 A JP2014244904 A JP 2014244904A JP 2014244904 A JP2014244904 A JP 2014244904A JP 2016109766 A JP2016109766 A JP 2016109766A
Authority
JP
Japan
Prior art keywords
evaluation
evaluation value
calculation
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014244904A
Other languages
Japanese (ja)
Other versions
JP6508926B2 (en
Inventor
幸助 信岡
Kosuke Nobuoka
幸助 信岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014244904A priority Critical patent/JP6508926B2/en
Publication of JP2016109766A publication Critical patent/JP2016109766A/en
Application granted granted Critical
Publication of JP6508926B2 publication Critical patent/JP6508926B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that can improve a performance of a tracking AF with respect to a subject.SOLUTION: A plurality of grating-like small regions is set with respect to a frame image, and an intermediate AF evaluation value is created for each of the small regions. Meanwhile, an AF evaluation frame is set with respect to a region corresponding to a position of a subject obtained by tracking detection. Then, a final AF evaluation value is created using the set AF evaluation frame and intermediate AF evaluation value, and on the basis of the created final AF evaluation value, a position of a focus lens is adjusted to perform an AF control.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関し、特に、撮像装置におけるオートフォーカス制御技術に関する。   The present invention relates to an imaging apparatus, and more particularly to an autofocus control technique in the imaging apparatus.

撮像装置では、顔認識処理で得られた顔位置や輝度・色の分布情報等から被写体領域を検出し、被写体領域から推定した主被写体の位置にオートフォーカス(AF)用の評価枠を設定することにより、主被写体に対するAFを行う技術が提案されている。例えば、特許文献1では、顔検出位置の周辺部位の画像データから、AFの対象とする主被写体の位置を追尾することにより、主被写体を多少見失っても動きに追尾できるAFの実現技術が開示されている。   In the imaging apparatus, a subject area is detected from the face position and luminance / color distribution information obtained by the face recognition process, and an evaluation frame for autofocus (AF) is set at the position of the main subject estimated from the subject area. Thus, a technique for performing AF on the main subject has been proposed. For example, Patent Document 1 discloses a technique for realizing AF that can track a movement even if the main subject is slightly lost by tracking the position of the main subject as an AF target from image data of a peripheral part of the face detection position. Has been.

また、特許文献2では、主被写体の位置を追尾すると共に、被写体の移動方向を予測し、予測される方向に対しては広めのAF評価枠を設定することにより、動く主被写体に対するAF評価枠の捕捉確率を上げる技術が開示されている。   In Patent Document 2, the position of the main subject is tracked, the moving direction of the subject is predicted, and a wider AF evaluation frame is set for the predicted direction, whereby an AF evaluation frame for the moving main subject is set. A technique for increasing the capture probability of an image is disclosed.

特開2013−11766号公報JP 2013-11766 Gazette 特開2006−129272号公報JP 2006-129272 A

しかしながら、特許文献1の技術では、撮影画像の取得から主被写体の位置の追尾結果が得られるまでの時間が、追尾AF性能に及ぼす影響ついて何ら考慮されていない。従来からコントラスト評価方式と位相差検出方式という二つのAF方式が知られている。いずれのAF方式もAF評価用の撮影画像(動画撮影時は、そのまま表示・記録用にも使用される)からフォーカスレンズのピント状態を推定して、次のフレームの撮影画像を取得するまでにフォーカスレンズを推定合焦位置に移動させる。   However, in the technique of Patent Document 1, no consideration is given to the influence on the tracking AF performance from the acquisition of the captured image until the tracking result of the position of the main subject is obtained. Conventionally, two AF methods, a contrast evaluation method and a phase difference detection method, are known. In either AF method, the focus lens focus state is estimated from a captured image for AF evaluation (which is also used for display / recording during moving image capture), and the captured image of the next frame is acquired. Move the focus lens to the estimated focus position.

一方、特許文献1の技術は、撮影画像から主被写体の位置の追尾結果を得るものであるため、当該撮影画像における主被写体の位置に対してAF評価枠を設定することはできない。撮影画像における主被写体の位置に対してAF評価枠を反映できるのは、次のフレームの撮影画像に対して漸く可能であり、次のフレームの撮影画像における主被写体の位置が、1フレーム前の撮影画像に対する主被写体の位置と同一であるかの保証は全くない。このように、特許文献1の技術では、本質的に主被写体への追尾AFを実現できない。   On the other hand, since the technique of Patent Document 1 obtains the tracking result of the position of the main subject from the captured image, an AF evaluation frame cannot be set for the position of the main subject in the captured image. The AF evaluation frame can be reflected on the position of the main subject in the captured image in the captured image of the next frame. The position of the main subject in the captured image of the next frame is one frame before. There is no guarantee that the position of the main subject is the same as the captured image. As described above, the technique of Patent Document 1 cannot essentially realize tracking AF to the main subject.

また、特許文献2の技術は、被写体の動く方向に対して広めのAF評価枠を設定するだけの技術であるから、撮影画像における主被写体の位置にAF評価枠を設定できるかの保証までは得られない。さらに、主被写体に対して広めのAF評価枠を設定する方法なので、遠近競合の発生する確率が上がる弊害があり、総合的にAF性能を上げる技術とは言えない。   In addition, since the technique of Patent Document 2 is a technique that merely sets a wider AF evaluation frame in the moving direction of the subject, it can be guaranteed that the AF evaluation frame can be set at the position of the main subject in the captured image. I can't get it. Further, since a wider AF evaluation frame is set with respect to the main subject, there is a problem that the probability of occurrence of perspective conflicts increases, and it cannot be said that the technique improves the AF performance comprehensively.

本発明は、上記課題に鑑みて成されたものであり、被写体への追尾AFの性能を向上させることが出来る撮像装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an imaging apparatus capable of improving the performance of tracking AF to a subject.

上記目的を達成するために、本発明の撮像装置は、フォーカスレンズを含む撮像手段と、前記撮像手段の出力信号から被写体の位置を示すデータを生成する被写体追尾手段と、前記被写体追尾手段により生成されたデータからAF評価枠を設定するAF評価枠設定手段と、前記撮像手段の出力信号から第1のAF評価値を生成する第1の生成手段と、前記AF評価枠設定手段により設定されたAF評価枠と前記第1の生成手段により生成された第1のAF評価値を用いて第2のAF評価値を生成する第2の生成手段と、前記第2の生成手段により生成された第2のAF評価値に基づいて前記フォーカスレンズの位置を調整してAF制御を行う制御手段とを備えることを特徴とする。   In order to achieve the above object, an imaging apparatus of the present invention is generated by an imaging unit including a focus lens, a subject tracking unit that generates data indicating the position of a subject from an output signal of the imaging unit, and the subject tracking unit. Set by an AF evaluation frame setting means for setting an AF evaluation frame from the obtained data, a first generation means for generating a first AF evaluation value from the output signal of the imaging means, and the AF evaluation frame setting means Second generation means for generating a second AF evaluation value using the AF evaluation frame and the first AF evaluation value generated by the first generation means, and the second generation means generated by the second generation means. Control means for performing AF control by adjusting the position of the focus lens based on the AF evaluation value of 2.

本発明によれば、主被写体の位置を追尾した状態でのコントラストAF評価値の生成が可能となり、被写体への追尾AFの性能を向上させることが出来る。   According to the present invention, it is possible to generate a contrast AF evaluation value in a state in which the position of the main subject is tracked, and it is possible to improve the performance of tracking AF on the subject.

本発明の第1の実施形態に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 図1における第1のコントラスト評価演算部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the 1st contrast evaluation calculating part in FIG. 図2における第1のコントラスト評価演算サブ回路の概略構成を示す図である。FIG. 3 is a diagram showing a schematic configuration of a first contrast evaluation calculation subcircuit in FIG. 2. (a)第1のコントラスト評価演算枠の設定例を示す図、(b)第1のコントラスト評価値の一例を示す図である。(A) is a diagram showing an example of setting a first contrast evaluation calculation frame, (b) is a diagram showing an example of a first contrast evaluation value. 第1のコントラスト評価演算部の動作を説明するためのタイミングチャートである。It is a timing chart for demonstrating operation | movement of a 1st contrast evaluation calculating part. (a)被写体追尾AF評価領域の一例を示す図、(b)被写体追尾AF評価領域の他の一例を示す図である。FIG. 4A is a diagram illustrating an example of a subject tracking AF evaluation area, and FIG. 5B is a diagram illustrating another example of a subject tracking AF evaluation area. 図1の撮像装置の動作を説明するためのタイミングチャートである。3 is a timing chart for explaining the operation of the imaging apparatus of FIG. 1. (a)第2の実施形態における被写体追尾AF評価領域の一例を示す図、(b)被写体追尾AF評価領域の他の一例を示す図である。(A) A figure showing an example of subject tracking AF evaluation field in a 2nd embodiment, (b) A figure showing another example of subject tracking AF evaluation field. 本発明の第3の実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which concerns on the 3rd Embodiment of this invention. 図9における信頼性演算部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the reliability calculating part in FIG. 図10における第1の信頼性演算サブ回路の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the 1st reliability calculation subcircuit in FIG. (a)第3の実施形態における被写体追尾AF評価領域の一例を示す図、(b)被写体追尾AF信頼性結果の一例を示す図、(c)被写体追尾AF評価領域の他の一例を示す図である。(A) The figure which shows an example of the subject tracking AF evaluation area | region in 3rd Embodiment, (b) The figure which shows an example of an object tracking AF reliability result, (c) The figure which shows another example of an object tracking AF evaluation area | region It is. 本発明の第4の実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る撮像装置のフォーカスレンズ位置の時間推移を示す図である。It is a figure which shows the time transition of the focus lens position of the imaging device which concerns on the 4th Embodiment of this invention. 主被写体に対するフォーカス状態の変化により生ずる、主被写体のボケ広がりの様子を示す図である。It is a figure which shows the mode of the blur spread of the main subject which arises by the change of the focus state with respect to the main subject.

以下、本発明の実施の形態を図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る撮像装置の概略構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus according to the first embodiment of the present invention.

図1において、撮像装置は、フォーカスレンズ101、センサー(撮像素子)102、カメラ信号処理部103、表示・記録処理部104、表示装置105、記録メディア106、追尾検出部107を備える。また、撮像装置は、第1メモリインタフェース108、追尾評価値データ109を保持するメモリ、第2メモリインタフェース110、コントラスト評価フィルタ111、第1コントラスト評価演算部112、第3メモリインタフェース113を備える。さらに、撮像装置は、第1コントラスト評価値データ114を保持するメモリ、第4メモリインタフェース115、第2コントラスト評価演算部116、マイコン117、レンズ駆動アクチュエータ118、および映像同期生成部119を備える。   In FIG. 1, the imaging apparatus includes a focus lens 101, a sensor (imaging device) 102, a camera signal processing unit 103, a display / recording processing unit 104, a display device 105, a recording medium 106, and a tracking detection unit 107. The imaging apparatus also includes a first memory interface 108, a memory that holds tracking evaluation value data 109, a second memory interface 110, a contrast evaluation filter 111, a first contrast evaluation calculation unit 112, and a third memory interface 113. Furthermore, the imaging apparatus includes a memory that holds the first contrast evaluation value data 114, a fourth memory interface 115, a second contrast evaluation calculation unit 116, a microcomputer 117, a lens driving actuator 118, and a video synchronization generation unit 119.

図1の撮像装置では、被写体(不図示)の光学像がフォーカスレンズ101を介してセンサー102の結像面上に結像され、センサー102からセンサー出力信号S101が出力される。センサー102から出力されたセンサー出力信号S101は、カメラ信号処理部103、追尾検出部107、およびコントラスト評価フィルタ111にそれぞれ入力される。   In the imaging apparatus of FIG. 1, an optical image of a subject (not shown) is formed on the imaging surface of the sensor 102 via the focus lens 101, and a sensor output signal S <b> 101 is output from the sensor 102. The sensor output signal S101 output from the sensor 102 is input to the camera signal processing unit 103, the tracking detection unit 107, and the contrast evaluation filter 111, respectively.

カメラ信号処理部103は、入力されたセンサー出力信号S101に対して、図示しない色分離、ガンマ補正、白バランス調整などのカメラ信号処理を行ってカメラ処理画像信号S102を生成し、表示・記録処理部104に出力する。   The camera signal processing unit 103 performs camera signal processing such as color separation, gamma correction, and white balance adjustment (not shown) on the input sensor output signal S101 to generate a camera processed image signal S102, and performs display / recording processing. Output to the unit 104.

表示・記録処理部104は、入力されたカメラ処理画像信号S102から、表示画像信号S103と記録画像データS104を生成し、当該表示画像信号S103を表示装置105に出力して画像等を表示させる。また、表示・記録処理部104は、当該記録画像データS104を記録メディア106に記録する。   The display / recording processing unit 104 generates a display image signal S103 and recording image data S104 from the input camera processing image signal S102, and outputs the display image signal S103 to the display device 105 to display an image or the like. Further, the display / recording processing unit 104 records the recording image data S104 on the recording medium 106.

追尾検出部107では、入力されたセンサー出力信号S101から、例えば人の顔や特定色の領域に基づいて主被写体の位置が検出される。さらに、追尾検出部107では、過去のフレームの主被写体の位置とテンプレートマッチング処理などの公知の技術により、当該主被写体の位置が追尾され、追尾検出ライトデータS105が生成される。この追尾検出ライトデータS105は、第1メモリインタフェース108を介して追尾評価値データ109として、DRAM等の外部メモリに記憶される。   The tracking detection unit 107 detects the position of the main subject from the input sensor output signal S101 based on, for example, a human face or a specific color area. Further, the tracking detection unit 107 tracks the position of the main subject in the past frame and the position of the main subject using a known technique such as template matching processing, and generates tracking detection light data S105. The tracking detection write data S105 is stored in the external memory such as a DRAM as tracking evaluation value data 109 via the first memory interface 108.

コントラスト評価フィルタ111は、既知の通り、少なくともDC成分とセンサー102のカラーフィルタ(不図示)による色キャリア成分をヌルに落とす周波数特性を持つバンドパスフィルタである。そして、コントラスト評価フィルタ111は、フィルタ処理画像信号S107を生成し、第1コントラスト評価演算部112へ出力する。このフィルタ処理画像信号S107は、センサー出力信号S101に含まれる、被写体エッジ先鋭度を評価するために最適な空間フィルタ処理画像の信号であり、フォーカスレンズ101によるピント状態に応じて、画像のエネルギーが変化する特徴をもつ。   As is known, the contrast evaluation filter 111 is a band-pass filter having a frequency characteristic that drops at least a DC component and a color carrier component by a color filter (not shown) of the sensor 102 to null. Then, the contrast evaluation filter 111 generates a filtered image signal S107 and outputs it to the first contrast evaluation calculation unit 112. This filtered image signal S107 is a signal of a spatially filtered image that is optimal for evaluating the subject edge sharpness included in the sensor output signal S101, and the energy of the image depends on the focus state by the focus lens 101. It has changing characteristics.

第1コントラスト評価演算部112は、画像のエネルギーを評価するために、入力されたフィルタ処理画像信号S107に対して絶対値積分の演算処理を行い、第1コントラスト評価ライトデータS108として出力する。この第1コントラスト評価ライトデータS108は、第3メモリインタフェース113を介して第1コントラスト評価値データ114として、DRAM等の外部メモリに記憶される。   In order to evaluate the energy of the image, the first contrast evaluation calculation unit 112 performs an absolute value integration calculation process on the input filtered image signal S107 and outputs the result as first contrast evaluation light data S108. The first contrast evaluation write data S108 is stored in an external memory such as a DRAM as first contrast evaluation value data 114 via the third memory interface 113.

上述した追尾評価値データ109は、第2メモリインタフェース110を介して、追尾検出リードデータS106としてマイコン117に読み出される。この追尾評価値データ109は、センサー出力信号S101における主被写体の位置を表すデータであるから、マイコン117は、追尾検出リードデータS106からAF評価枠設定S110を生成する。このAF評価枠設定S110は第2コントラスト評価演算部116に送られる。   The tracking evaluation value data 109 described above is read to the microcomputer 117 as tracking detection read data S106 via the second memory interface 110. Since the tracking evaluation value data 109 is data representing the position of the main subject in the sensor output signal S101, the microcomputer 117 generates an AF evaluation frame setting S110 from the tracking detection lead data S106. The AF evaluation frame setting S110 is sent to the second contrast evaluation calculation unit 116.

第2コントラスト評価演算部116は、上述したDRAM等の外部メモリに一旦記憶された第1コントラスト評価値データ114を第4メモリインタフェース115を介して第1コントラスト評価リードデータS109として読み込む。そして、マイコン117から入力されたAF評価枠設定S110に基づき、追尾検出された主被写体に対するコントラスト評価値である第2コントラスト評価データS111を生成する。   The second contrast evaluation calculation unit 116 reads the first contrast evaluation value data 114 once stored in the external memory such as the DRAM as the first contrast evaluation read data S109 via the fourth memory interface 115. Then, based on the AF evaluation frame setting S110 input from the microcomputer 117, second contrast evaluation data S111, which is a contrast evaluation value for the main subject that is detected by tracking, is generated.

第2コントラスト評価演算部116で生成された第2コントラスト評価データS111は、マイコン117に読み込まれ、所定のAF制御アルゴリズムに従って、フォーカスレンズ駆動指示データS112が生成される。生成されたフォーカスレンズ駆動指示データS112は、レンズ駆動アクチュエータ118に送られて、フォーカスレンズ駆動制御信号S113としてフォーカスレンズ101に送られて、フォーカスレンズの移動が実行される。このような第2コントラスト評価演算部116の動作により、本発明の特徴である主被写体の追尾検出に同期したコントラスト評価が可能となるが、その詳細な説明は後述する。   The second contrast evaluation data S111 generated by the second contrast evaluation calculation unit 116 is read into the microcomputer 117, and focus lens drive instruction data S112 is generated according to a predetermined AF control algorithm. The generated focus lens drive instruction data S112 is sent to the lens drive actuator 118 and is sent to the focus lens 101 as a focus lens drive control signal S113, and the focus lens is moved. Such an operation of the second contrast evaluation calculation unit 116 enables contrast evaluation synchronized with main subject tracking detection, which is a feature of the present invention, and will be described in detail later.

なお、映像同期生成部119より、少なくともセンサー102および第1コントラスト評価演算部112に対して同期信号S114が供給され、同期信号S114に同期した映像処理が実施される。   Note that the synchronization signal S114 is supplied from the video synchronization generation unit 119 to at least the sensor 102 and the first contrast evaluation calculation unit 112, and video processing synchronized with the synchronization signal S114 is performed.

次に、第1コントラスト評価演算部112によるコントラスト評価値の生成方法について図2を参照して説明する。   Next, a method for generating a contrast evaluation value by the first contrast evaluation calculation unit 112 will be described with reference to FIG.

図2は、図1における第1コントラスト評価演算部112の概略構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic configuration of the first contrast evaluation calculation unit 112 in FIG.

図2において、第1コントラスト評価演算部112は、第1コントラスト評価演算サブ回路201、第2コントラスト評価演算サブ回路202、第3コントラスト評価演算サブ回路203、第4コントラスト評価演算サブ回路204を備える。また、第1コントラスト評価演算部112は、第5コントラスト評価演算サブ回路205、第6コントラスト評価演算サブ回路206、第7コントラスト評価演算サブ回路207、第8コントラスト評価演算サブ回路208を備える。さらに、第1コントラスト評価演算部112は、評価演算タイミング生成回路209、評価値選択セレクタ210、および絶対値演算回路211を備える。   In FIG. 2, the first contrast evaluation calculation unit 112 includes a first contrast evaluation calculation subcircuit 201, a second contrast evaluation calculation subcircuit 202, a third contrast evaluation calculation subcircuit 203, and a fourth contrast evaluation calculation subcircuit 204. . The first contrast evaluation calculation unit 112 includes a fifth contrast evaluation calculation subcircuit 205, a sixth contrast evaluation calculation subcircuit 206, a seventh contrast evaluation calculation subcircuit 207, and an eighth contrast evaluation calculation subcircuit 208. Furthermore, the first contrast evaluation calculation unit 112 includes an evaluation calculation timing generation circuit 209, an evaluation value selection selector 210, and an absolute value calculation circuit 211.

第1コントラスト評価演算部112には、前述の通り、フィルタ処理画像信号S107および同期信号S114が入力される。センサー102も同期信号S114により駆動されるので、フィルタ処理画像信号S107も同期信号S114に同期したものとなっている。   As described above, the filtered image signal S107 and the synchronization signal S114 are input to the first contrast evaluation calculation unit 112. Since the sensor 102 is also driven by the synchronization signal S114, the filtered image signal S107 is also synchronized with the synchronization signal S114.

フィルタ処理画像信号S107は、絶対値演算回路211において絶対値化され、絶対値化フィルタ画像処理信号S218が生成される。また、フィルタ処理画像信号S107は、前述のとおり、所定帯域のバンドパスフィルタ処理されており、DC成分がヌルに落とされているため、0値を中心とした符号付きの信号である。そして、絶対値演算回路211は、上述した符号情報を排除し、そのエネルギー情報を抽出するためのものである。生成された絶対値化フィルタ画像処理信号S218は、第1コントラスト評価演算サブ回路201〜第8コントラスト評価演算サブ回路208に共通に供給される。   The filtered image signal S107 is converted to an absolute value by the absolute value calculation circuit 211, and an absolute value converted filter image processing signal S218 is generated. Further, as described above, the filtered image signal S107 is a signal with a sign centered on a zero value because bandpass filter processing of a predetermined band is performed and the DC component is dropped to null. The absolute value calculation circuit 211 is for excluding the above-described code information and extracting the energy information. The generated absolute value filtered image processing signal S218 is commonly supplied to the first contrast evaluation calculation subcircuit 201 to the eighth contrast evaluation calculation subcircuit 208.

第1コントラスト評価演算サブ回路201〜第8コントラスト評価演算サブ回路208は、評価演算タイミング生成回路209から第1評価演算タイミング信号S201〜第8評価演算タイミング信号S208を受けて各々動作する。これらは、絶対値化フィルタ画像処理信号S218に対して、コントラスト評価したい画像領域に対してのみ、積分処理を行う。この積分処理の目的は、コントラスト評価したい画像領域において、フォーカスレンズ101によるピント状態に応じた画像のエネルギー変化をS/N良く評価でき、1評価値に縮退させることにある。   The first contrast evaluation calculation subcircuit 201 to the eighth contrast evaluation calculation subcircuit 208 operate in response to the first evaluation calculation timing signal S201 to the eighth evaluation calculation timing signal S208 from the evaluation calculation timing generation circuit 209. In the absolute value filter image processing signal S218, the integration processing is performed only for the image region for which contrast evaluation is desired. The purpose of this integration process is to evaluate the energy change of the image according to the focus state by the focus lens 101 with good S / N in the image region where contrast evaluation is desired, and to reduce the evaluation value to one evaluation value.

第1コントラスト評価演算サブ回路201〜第8コントラスト評価演算サブ回路208による各々の積分結果は、第1サブ評価値S209〜第8サブ評価値S216として生成される。生成された第1サブ評価値S209〜第8サブ評価値S216は、評価値選択セレクタ210において、所定のシーケンスに従い、順番に選択され、第1コントラスト評価ライトデータS108として出力される。この選択の制御は、評価演算タイミング生成回路209からのセレクト信号S217により制御される。   Each integration result by the first contrast evaluation calculation subcircuit 201 to the eighth contrast evaluation calculation subcircuit 208 is generated as a first subevaluation value S209 to an eighth subevaluation value S216. The generated first sub-evaluation value S209 to eighth sub-evaluation value S216 are sequentially selected in accordance with a predetermined sequence by the evaluation value selection selector 210 and output as first contrast evaluation light data S108. This selection control is controlled by a select signal S217 from the evaluation calculation timing generation circuit 209.

図3は、図2における第1コントラスト評価演算サブ回路201の概略構成を示す回路図である。   FIG. 3 is a circuit diagram showing a schematic configuration of the first contrast evaluation calculation subcircuit 201 in FIG.

図3において、第1コントラスト評価演算サブ回路201は、積分演算回路301、積分演算イネーブルセレクタ302、積分演算リセット回路303、積分演算データバッファ304、積分データロードセレクタ305、積分結果出力バッファ306を備える。   3, the first contrast evaluation calculation subcircuit 201 includes an integration calculation circuit 301, an integration calculation enable selector 302, an integration calculation reset circuit 303, an integration calculation data buffer 304, an integration data load selector 305, and an integration result output buffer 306. .

第1コントラスト評価演算サブ回路201の動作について詳細に説明する。なお、第2コントラスト評価演算サブ回路202〜第8コントラスト評価演算サブ回路208については、第1コントラスト評価演算サブ回路201と同様の動作を行うことから、それらの説明を省略する。   The operation of the first contrast evaluation calculation subcircuit 201 will be described in detail. Note that the second contrast evaluation calculation subcircuit 202 to the eighth contrast evaluation calculation subcircuit 208 perform the same operations as the first contrast evaluation calculation subcircuit 201, and thus the description thereof is omitted.

第1評価演算タイミング信号S201は、積分リセット信号S301、積分イネーブル信号S302、積分データロード信号S303の3信号から成る。そして、積分リセット信号S301がHighにアサートされることで積分演算リセット回路303がアクティブとなり、積分データS304は0値にリセットされる。また、積分イネーブル信号S302がHighにアサートされることにより、積分データS304と、入力データである絶対値化フィルタ画像処理信号S218の加算結果が、積分データS304として更新される。また、積分データロード信号S303がHighにアサートされることにより、積分データS304が積分結果出力バッファ306に保持されて、第1サブ評価値S209として出力される。   The first evaluation calculation timing signal S201 includes three signals: an integration reset signal S301, an integration enable signal S302, and an integration data load signal S303. When the integration reset signal S301 is asserted High, the integration calculation reset circuit 303 becomes active, and the integration data S304 is reset to zero. Further, when the integration enable signal S302 is asserted High, the addition result of the integration data S304 and the absolute value filter image processing signal S218 as input data is updated as the integration data S304. Further, when the integration data load signal S303 is asserted High, the integration data S304 is held in the integration result output buffer 306 and output as the first sub evaluation value S209.

次に、図2に示す第1コントラスト評価演算部112の動作タイミングと、第1コントラスト評価演算部112による第1コントラスト評価値データ114の生成方法について図4(a)、図4(b)および図5を参照して説明する。   Next, the operation timing of the first contrast evaluation calculation unit 112 shown in FIG. 2 and the method of generating the first contrast evaluation value data 114 by the first contrast evaluation calculation unit 112 will be described with reference to FIGS. This will be described with reference to FIG.

図4(a)は、第1コントラスト評価演算枠の設定例を示す図である。   FIG. 4A is a diagram illustrating a setting example of the first contrast evaluation calculation frame.

図4(a)には、Line−1〜10の10本の走査線で構成されるフレーム画像において、Line−3〜5の垂直画素位置であって、太線で囲まれた領域すなわち水平方向に8個の領域で第1コントラスト評価演算枠が設定されている様子を示す。図示の水平方向の8個の領域は、図2に示す第1コントラスト評価演算サブ回路201〜第8コントラスト評価演算サブ回路208の各々に対応する。   In FIG. 4A, in a frame image composed of 10 scanning lines Line-1 to Line-10, the vertical pixel positions of Lines 3 to 5 are surrounded by a thick line, that is, in the horizontal direction. A mode that the 1st contrast evaluation calculation frame is set in 8 area | regions is shown. The eight horizontal regions shown in the figure correspond to each of the first contrast evaluation calculation subcircuit 201 to the eighth contrast evaluation calculation subcircuit 208 shown in FIG.

図5は、第1コントラスト評価演算部112の動作を説明するためのタイミングチャートである。   FIG. 5 is a timing chart for explaining the operation of the first contrast evaluation calculation unit 112.

図5において、同期信号S114は、V同期信号(VD)とH同期信号(HD)から成る。図4(a)に示す通り、本実施形態におけるフレーム画像は、10本の走査線で構成されることから、VD期間に対して10個のHD期間が存在する。   In FIG. 5, the synchronization signal S114 includes a V synchronization signal (VD) and an H synchronization signal (HD). As shown in FIG. 4A, since the frame image in the present embodiment is composed of 10 scanning lines, there are 10 HD periods for the VD period.

図示の第1垂直評価期間T501はLine−3を意味し、第2垂直評価期間T502はLine−4、第3の垂直評価期間T503はLine−5の走査タイミングを表す。第1垂直評価期間T501〜第3垂直評価期間T503に対応する第1水平評価期間T504、第2水平評価期間T505、第3水平評価期間T506は、いずれも第1コントラスト評価演算サブ回路201がコントラスト評価演算(積分演算)を行う期間である。   The illustrated first vertical evaluation period T501 represents Line-3, the second vertical evaluation period T502 represents Line-4, and the third vertical evaluation period T503 represents Line-5 scanning timing. In each of the first horizontal evaluation period T504, the second horizontal evaluation period T505, and the third horizontal evaluation period T506 corresponding to the first vertical evaluation period T501 to the third vertical evaluation period T503, the first contrast evaluation calculation subcircuit 201 contrasts. This is a period during which evaluation calculation (integration calculation) is performed.

積分イネーブル信号S302を、第1水平評価期間T504、第2水平評価期間T505、第3水平評価期間T506の各々においてHighにアサートし、積分リセット信号S301を、各水平走査の先頭タイミングでHighにアサートする。これにより、積分データS304に対して以下の演算処理が行われる。即ち、積分データS304は第1垂直評価期間T501(Line−3)の先頭タイミングで0値にリセットされ、第1水平評価期間T504で積分処理が行われる(積分結果A)。   The integration enable signal S302 is asserted High in each of the first horizontal evaluation period T504, the second horizontal evaluation period T505, and the third horizontal evaluation period T506, and the integration reset signal S301 is asserted High at the start timing of each horizontal scan. To do. As a result, the following arithmetic processing is performed on the integration data S304. That is, the integration data S304 is reset to 0 value at the start timing of the first vertical evaluation period T501 (Line-3), and integration processing is performed in the first horizontal evaluation period T504 (integration result A).

そして、第2垂直評価期間T502(Line−4)の先頭タイミングで0値にリセットされ、第2水平評価期間T505で積分処理が行われる(積分結果B)。さらに、第3の垂直評価期間T503(Line−5)の先頭タイミングで0値にリセットされ、第3の水平評価期間T506で積分処理が行われる(積分結果C)。また、積分データロード信号S303を、各水平走査終了のタイミングでHighにアサートすることにより、積分結果A,B,Cは第1サブ評価値S209として保持される。以上が第1コントラスト評価演算サブ回路201により得られる第1サブ評価値S209である。   Then, it is reset to 0 value at the start timing of the second vertical evaluation period T502 (Line-4), and integration processing is performed in the second horizontal evaluation period T505 (integration result B). Further, it is reset to 0 value at the start timing of the third vertical evaluation period T503 (Line-5), and integration processing is performed in the third horizontal evaluation period T506 (integration result C). Also, the integration data A, B, and C are held as the first sub-evaluation value S209 by asserting the integration data load signal S303 to High at the end of each horizontal scan. The above is the first sub-evaluation value S209 obtained by the first contrast evaluation calculation sub-circuit 201.

第2コントラスト評価演算サブ回路202〜第8コントラスト評価演算サブ回路208は不図示だが、第1〜第3水平評価期間T504〜T506と隣接したタイミングで、かつ、各々をずらしながら水平評価期間が設定される。その結果、図5に示す通り、第2サブ評価値S210〜第8サブ評価値S216が得られる。   Although the second contrast evaluation calculation subcircuit 202 to the eighth contrast evaluation calculation subcircuit 208 are not shown, the horizontal evaluation period is set at a timing adjacent to the first to third horizontal evaluation periods T504 to T506 and while shifting each. Is done. As a result, as shown in FIG. 5, the second sub-evaluation value S210 to the eighth sub-evaluation value S216 are obtained.

そして、評価値選択セレクタ210に対してセレクト信号S217を、第1サブ評価値S209〜第8のサブ評価値S216の順でセレクトされるように与える。これにより、図5の第1コントラスト評価ライトデータS108に示すように、第2垂直評価期間T502において、第1垂直評価期間T501にて行われた積分演算の積分結果がA,D,G,J,M,P,S,Vの順に出力される。また、第3の垂直評価期間T503において、第2垂直評価期間T502にて行われた積分演算の積分結果がB,E,H,K,N,Q,T,Wの順に出力される。さらに、第3の垂直評価期間T503の次の期間において、第3の垂直評価期間T503にて行われた積分演算の積分結果がC,F,I,L,O,R,U,Xの順に出力される。   Then, a selection signal S217 is given to the evaluation value selection selector 210 so that the selection is made in the order of the first sub evaluation value S209 to the eighth sub evaluation value S216. As a result, as shown in the first contrast evaluation light data S108 in FIG. 5, in the second vertical evaluation period T502, the integration results of the integration calculations performed in the first vertical evaluation period T501 are A, D, G, J , M, P, S, V in this order. In addition, in the third vertical evaluation period T503, the integration results of the integration calculations performed in the second vertical evaluation period T502 are output in the order of B, E, H, K, N, Q, T, and W. Further, in the period following the third vertical evaluation period T503, the integration results of the integration operations performed in the third vertical evaluation period T503 are in the order of C, F, I, L, O, R, U, and X. Is output.

上記の動作により、図4(b)に示すように、水平方向に8個、垂直方向に3個の格子状の小領域毎に求めたコントラスト評価値が、第1コントラスト評価値データ114として得られる。   With the above operation, as shown in FIG. 4B, the contrast evaluation values obtained for each of the eight grid-like small regions in the horizontal direction and three in the vertical direction are obtained as the first contrast evaluation value data 114. It is done.

次に、図1における第2コントラスト評価演算部116が、AF評価枠設定S110と第1コントラスト評価値データ114を用いて、第2コントラスト評価データS111を生成する方法について図6(a)および図6(b)を参照して説明する。   Next, a method in which the second contrast evaluation calculation unit 116 in FIG. 1 generates the second contrast evaluation data S111 using the AF evaluation frame setting S110 and the first contrast evaluation value data 114 will be described with reference to FIGS. This will be described with reference to 6 (b).

AF評価枠設定S110は、例えば、図6(a)の太線で示すように、Line−4(V領域2)〜Line−5(V領域3)およびH領域3〜H領域4で囲まれた領域に設定される(AF評価領域)。即ち、AF評価枠設定S110の分解能は小領域単位に設定されており、小領域毎に求めた第1コントラスト評価値データ114としては、H,I,K,Lが対応している。このような前提から、第2コントラスト評価演算部116は、第1コントラスト評価値データ114からH,I,K,Lを読み出し、H+I+K+Lを演算して、第2コントラスト評価データS111として出力する。これにより、図6(b)に示すような被写体追尾AF評価領域に対する積分評価値と等しいコントラスト評価データを得ることができる。   The AF evaluation frame setting S110 is surrounded by, for example, Line-4 (V region 2) to Line-5 (V region 3) and H region 3 to H region 4, as indicated by a thick line in FIG. The area is set (AF evaluation area). That is, the resolution of the AF evaluation frame setting S110 is set in units of small areas, and H, I, K, and L correspond to the first contrast evaluation value data 114 obtained for each small area. Based on this premise, the second contrast evaluation calculation unit 116 reads H, I, K, and L from the first contrast evaluation value data 114, calculates H + I + K + L, and outputs the result as second contrast evaluation data S111. Thereby, contrast evaluation data equal to the integral evaluation value for the subject tracking AF evaluation region as shown in FIG. 6B can be obtained.

このように、フレーム画像に対して複数の格子状の小領域を設定し、当該小領域毎に第1コントラスト評価値データ114(第1のAF評価値)を生成する。これにより、当該フレーム画像内のあらゆる領域(位置、大きさ)に対して、制約のない状態で、主被写体位置に対するAF評価値を得ることができる。   In this manner, a plurality of grid-like small areas are set for the frame image, and the first contrast evaluation value data 114 (first AF evaluation value) is generated for each small area. As a result, the AF evaluation value for the main subject position can be obtained for all regions (position, size) in the frame image without restriction.

AF評価枠設定S110は、追尾検出部107が検出した主被写体に対する評価枠となっていることから、第2コントラスト評価データS111は、主被写体を追尾したコントラスト評価値となっている。   Since the AF evaluation frame setting S110 is an evaluation frame for the main subject detected by the tracking detection unit 107, the second contrast evaluation data S111 is a contrast evaluation value obtained by tracking the main subject.

次に、第2コントラスト評価データS111の取得タイミングについて図7を参照して説明する。   Next, the acquisition timing of the second contrast evaluation data S111 will be described with reference to FIG.

本実施形態では、センサー出力信号S101からピント状態を評価して、最終的にフォーカスレンズ101を調整するフィードバック制御を行っていることから、そのレイテンシはなるべく小さい方が、AF制御のレスポンス向上のためには望ましい。   In the present embodiment, the focus state is evaluated from the sensor output signal S101, and feedback control for finally adjusting the focus lens 101 is performed. Therefore, the smaller the latency, the better the AF control response. Is desirable.

図7において、センサー出力信号S101は、第1フレーム(FR1)〜第4フレーム(FR4)として表されている。追尾検出ライトデータS105は、少なくとも2フレームのセンサー出力信号S101から求められ、追尾検出(FR2/FR1)で示した期間で演算される。同様に、追尾検出(FR3/FR2)、追尾検出(FR4/FR3)で示した期間にも演算される。   In FIG. 7, the sensor output signal S101 is represented as a first frame (FR1) to a fourth frame (FR4). The tracking detection write data S105 is obtained from the sensor output signal S101 of at least two frames, and is calculated in a period indicated by tracking detection (FR2 / FR1). Similarly, calculation is performed for the periods indicated by tracking detection (FR3 / FR2) and tracking detection (FR4 / FR3).

上記追尾検出の期間は、主被写体が画面上のどの部分に位置するかにより演算タイミングがずれるので、追尾検出の結果は、図7に示すように、遅くとも追尾結果(FR2)のタイミングで、追尾検出(FR2/FR1)の結果が得られることになる。同様に、遅くとも追尾結果(FR3)のタイミングで、追尾検出(FR3/FR2)の結果が得られる。なお、第1フレーム(FR1)に対する追尾検出結果は、1フレーム前のセンサー出力信号S101が得られていないため、存在しないものとしている。   During the tracking detection period, the calculation timing is shifted depending on where the main subject is located on the screen. Therefore, as shown in FIG. 7, the tracking detection result is the tracking result (FR2) timing at the latest, as shown in FIG. The result of detection (FR2 / FR1) will be obtained. Similarly, the result of tracking detection (FR3 / FR2) is obtained at the timing of the tracking result (FR3) at the latest. The tracking detection result for the first frame (FR1) is not present because the sensor output signal S101 of the previous frame is not obtained.

第1コントラスト評価ライトデータS108は、AF評価(FR1)、AF評価(FR2)、AF評価(FR3)、AF評価(FR4)の各々の期間で演算される。これら演算期間は、第1コントラスト評価を行う画面領域の位置に応じて変化するが、遅くとも第1コントラスト評価値(FR1)のタイミングでAF評価(FR1)の結果が得られることとなる。同様に、図示の第1コントラスト評価値(FR2)、第1コントラスト評価値(FR3)というタイミングで結果が得られる。   The first contrast evaluation light data S108 is calculated in each period of AF evaluation (FR1), AF evaluation (FR2), AF evaluation (FR3), and AF evaluation (FR4). These calculation periods vary according to the position of the screen area where the first contrast evaluation is performed, but the result of the AF evaluation (FR1) is obtained at the timing of the first contrast evaluation value (FR1) at the latest. Similarly, a result is obtained at the timing of the illustrated first contrast evaluation value (FR2) and first contrast evaluation value (FR3).

本実施形態における第1コントラスト評価値(FR1〜FR4)の各取得タイミングは、従来技術によるコントラストAF評価値の取得タイミングである。それに対して、第2コントラスト評価データS111の取得タイミングは、図7に示す演算遅延T701後に、第2コントラスト評価値(FR2)、第2コントラスト評価値(FR3)が得られることとなる。この演算遅延T701とは、上述した、第1コントラスト評価値データ114からH,I,K,Lを読み出してH+I+K+Lを演算するのに要する時間のことであり、極めて短時間に演算することが十分に可能である。   Each acquisition timing of the first contrast evaluation values (FR1 to FR4) in the present embodiment is the acquisition timing of the contrast AF evaluation value according to the conventional technique. On the other hand, the acquisition timing of the second contrast evaluation data S111 is that the second contrast evaluation value (FR2) and the second contrast evaluation value (FR3) are obtained after the calculation delay T701 shown in FIG. This calculation delay T701 is the time required to read H, I, K, and L from the first contrast evaluation value data 114 and calculate H + I + K + L, and it is sufficient to calculate in a very short time. Is possible.

以上説明したように、上記第1の実施形態によれば、フレーム画像に対して複数の格子状の小領域を設定し、当該小領域毎に中間AF評価値を生成する一方、追尾検出により得られた主被写体の位置に対応する領域に対してAF評価枠を設定する。そして、設定されたAF評価枠と中間AF評価値を用いて最終的なAF評価値を生成し、生成された最終的なAF評価値に基づいてフォーカスレンズの位置を調整してAF制御を行う。これにより、主被写体の位置を追尾した状態でのコントラストAF評価値の生成が可能となり、被写体への追尾AFの性能を向上させることが出来る。   As described above, according to the first embodiment, a plurality of grid-like small regions are set for the frame image, and an intermediate AF evaluation value is generated for each small region, while the tracking detection is performed. An AF evaluation frame is set for an area corresponding to the position of the main subject. Then, a final AF evaluation value is generated using the set AF evaluation frame and the intermediate AF evaluation value, and AF control is performed by adjusting the position of the focus lens based on the generated final AF evaluation value. . Thereby, it is possible to generate a contrast AF evaluation value in a state where the position of the main subject is tracked, and it is possible to improve the performance of tracking AF on the subject.

[第2の実施形態]
本発明の第2の実施形態に係る撮像装置は、上記第1の実施形態と同一であるため、それらの説明を省略する。以下に、第1の実施形態と異なる点について説明する。
[Second Embodiment]
Since the imaging apparatus according to the second embodiment of the present invention is the same as that of the first embodiment, description thereof is omitted. Hereinafter, differences from the first embodiment will be described.

まず、本発明の第2の実施形態における第2コントラスト評価演算部116が、AF評価枠設定S110と第1コントラスト評価値データ114を用いて、第2コントラスト評価データS111を生成する方法について図8(a)、図8(b)を参照して説明する。   First, the second contrast evaluation calculation unit 116 according to the second embodiment of the present invention uses the AF evaluation frame setting S110 and the first contrast evaluation value data 114 to generate the second contrast evaluation data S111. FIG. This will be described with reference to (a) and FIG.

図8(a)において、第1コントラスト評価値データ114は、V領域1〜9、H領域1〜9の計81個の矩形小領域毎に生成されている。AF評価枠設定S110としては、図8(a)に示す通り、V領域3〜5、H領域4〜7の計12個の矩形小領域となっている。このとき、第2コントラスト評価演算部116は、当該12個の矩形小領域の各々の第1コントラスト評価値データ114、即ち、A〜Lの値を用いて、第2コントラスト評価データS111を下式(1)により算出する。   In FIG. 8A, the first contrast evaluation value data 114 is generated for each of 81 rectangular small areas, that is, V areas 1 to 9 and H areas 1 to 9 in total. As the AF evaluation frame setting S110, as shown in FIG. 8A, there are a total of 12 rectangular small areas of V area 3 to 5 and H area 4 to 7. At this time, the second contrast evaluation calculation unit 116 uses the first contrast evaluation value data 114 of each of the twelve rectangular small regions, that is, the values of A to L, to calculate the second contrast evaluation data S111 using the following formula. Calculated according to (1).

S111=(A+B+C+D+F+G+I+J+K+L)/16+2(E+H)/16 式(1)   S111 = (A + B + C + D + F + G + I + J + K + L) / 16 + 2 (E + H) / 16 Formula (1)

つまり、AF評価枠設定S110の中心位置にあるV領域4、H領域5,6の2個の矩形小領域の第1コントラスト評価値データ114、即ちE,Hに対しては、重み2/16、他については周辺領域なので重み1/16で演算する。このように、AF評価枠設定S110の中心に近い位置の第1コントラスト評価値データ114に対して、より大きく重み付けがなされる。   That is, the weight 2/16 is applied to the first contrast evaluation value data 114 of the two small rectangular areas V area 4 and H areas 5 and 6 at the center position of the AF evaluation frame setting S110, that is, E and H. Since other areas are peripheral areas, calculation is performed with a weight of 1/16. In this way, the first contrast evaluation value data 114 at a position close to the center of the AF evaluation frame setting S110 is weighted more greatly.

以上説明したように、上記第2実施形態によれば、AF評価枠設定S110の中心に近い位置の第1のAF評価値を重視するように重み付けがなされる。これにより、精度低下することなく主被写体位置に対するAF評価値が得られ、主被写体への追尾AFの性能を向上させることが出来る。   As described above, according to the second embodiment, weighting is performed so as to emphasize the first AF evaluation value at a position close to the center of the AF evaluation frame setting S110. Thereby, the AF evaluation value for the main subject position can be obtained without lowering the accuracy, and the performance of the tracking AF to the main subject can be improved.

[第3の実施形態]
図9は、本発明の第3の実施形態に係る撮像装置の概略構成を示すブロック図である。なお、図9に示す撮像装置では、上記第1の実施形態と同一の構成要素および信号については同一符号を振り、その詳細な説明を割愛する。
[Third Embodiment]
FIG. 9 is a block diagram illustrating a schematic configuration of an imaging apparatus according to the third embodiment of the present invention. In the imaging apparatus shown in FIG. 9, the same components and signals as those in the first embodiment are assigned the same reference numerals, and detailed descriptions thereof are omitted.

図9において、撮像装置は、図1の撮像装置に加えて、信頼性演算部901、第5メモリインタフェース902、信頼性データ903を保持するメモリ、第6メモリインタフェース904、および信頼性評価部905を備える。   9, in addition to the imaging apparatus of FIG. 1, the imaging apparatus includes a reliability calculation unit 901, a fifth memory interface 902, a memory for storing reliability data 903, a sixth memory interface 904, and a reliability evaluation unit 905. Is provided.

信頼性演算部901は、フィルタ処理画像信号S107の統計的な傾向を数値化して、第1コントラスト評価ライトデータS108の信頼性を表す信頼性ライトデータS901を生成する。信頼性ライトデータS901は、第5メモリインタフェース902を介して、信頼性データ903としてDRAM等の外部メモリに記憶される。この信頼性データ903は、第6メモリインタフェース904を介して、信頼性リードデータS902として、信頼性評価部905に読み込まれる。なお、図示しないが、信頼性ライトデータS901は、第1コントラスト評価ライトデータS108と略同一のタイミングでDRAM等の外部メモリに書き込まれる。そして、信頼性リードデータS902は、第1コントラスト評価リードデータS109と略同一のタイミングでDRAM等の外部メモリから読み出される。   The reliability calculation unit 901 digitizes the statistical tendency of the filtered image signal S107 to generate reliability light data S901 that represents the reliability of the first contrast evaluation light data S108. The reliability write data S901 is stored as reliability data 903 in an external memory such as a DRAM via the fifth memory interface 902. The reliability data 903 is read into the reliability evaluation unit 905 as reliability read data S902 via the sixth memory interface 904. Although not shown, the reliability write data S901 is written to an external memory such as a DRAM at substantially the same timing as the first contrast evaluation write data S108. The reliability read data S902 is read from an external memory such as a DRAM at substantially the same timing as the first contrast evaluation read data S109.

信頼性評価部905は、信頼性ライトデータS901を参照し、信頼性判定データS903を生成して、第2コントラスト評価演算部916に渡す。第2コントラスト評価演算部916は、信頼性判定データS903と第1コントラスト評価リードデータS109とAF評価枠設定S110を用いて、第2コントラスト評価データS111を生成し、マイコン117に出力する。このように、第2コントラスト評価演算部916は、図1における第2コントラスト評価演算部116に対して、信頼性判定データS903を参照する点が異なる。   The reliability evaluation unit 905 refers to the reliability write data S901, generates reliability determination data S903, and passes it to the second contrast evaluation calculation unit 916. The second contrast evaluation calculation unit 916 generates the second contrast evaluation data S111 using the reliability determination data S903, the first contrast evaluation lead data S109, and the AF evaluation frame setting S110, and outputs the second contrast evaluation data S111 to the microcomputer 117. As described above, the second contrast evaluation calculation unit 916 is different from the second contrast evaluation calculation unit 116 in FIG. 1 in that the reliability determination data S903 is referred to.

上記動作における上記第1の実施形態との差分は、信頼性の高い第1コントラスト評価値データ114を用いて第2コントラスト評価データS111を生成して、フォーカスレンズ駆動指示データS112が生成される点となる。   The difference from the first embodiment in the above operation is that the second contrast evaluation data S111 is generated using the highly reliable first contrast evaluation value data 114, and the focus lens drive instruction data S112 is generated. It becomes.

図10は、図9における信頼性演算部901の概略構成を示すブロック図である。なお、図示の信頼性演算部901に対して、図2の第1コントラスト評価演算部112と同一の構成要素および信号については同一符号を振り、その説明を割愛する。   FIG. 10 is a block diagram showing a schematic configuration of the reliability calculation unit 901 in FIG. The same reference numerals are assigned to the same components and signals as those of the first contrast evaluation calculation unit 112 in FIG.

図10において、信頼性演算部901は、第1信頼性演算サブ回路1001、第2信頼性演算サブ回路1002、第3信頼性演算サブ回路1003、第4信頼性演算サブ回路1004、第5信頼性演算サブ回路1005を備える。さらに、信頼性演算部901は、第6信頼性演算サブ回路1006、第7信頼性演算サブ回路1007、第8信頼性演算サブ回路1008を備える。   In FIG. 10, the reliability calculation unit 901 includes a first reliability calculation subcircuit 1001, a second reliability calculation subcircuit 1002, a third reliability calculation subcircuit 1003, a fourth reliability calculation subcircuit 1004, and a fifth reliability. A sex operation subcircuit 1005 is provided. Further, the reliability calculation unit 901 includes a sixth reliability calculation subcircuit 1006, a seventh reliability calculation subcircuit 1007, and an eighth reliability calculation subcircuit 1008.

図2に示す第1コントラスト評価演算部との差分は、絶対値化フィルタ画像処理信号S218が、第1〜第8信頼性演算サブ回路1001〜1008に共通に供給される点である。さらに、第1〜第8信頼性演算サブ回路1001〜1008から第1〜第8サブ信頼性S1009〜S1017が生成される点である。また、他の構成要素の動作は図2の説明と同じであるが、信頼性演算部901からは、信頼性ライトデータS901が出力される点のみ異なる。   The difference from the first contrast evaluation calculation unit shown in FIG. 2 is that the absolute value filtered image processing signal S218 is commonly supplied to the first to eighth reliability calculation subcircuits 1001 to 1008. Furthermore, the first to eighth sub reliability S1009 to S1017 are generated from the first to eighth reliability calculation subcircuits 1001 to 1008. The operation of the other components is the same as that described in FIG. 2 except that the reliability calculation unit 901 outputs the reliability write data S901.

次に、第1信頼性演算サブ回路1001の動作について図11を参照して説明する。なお、第2信頼性演算サブ回路1002〜第8信頼性演算サブ回路1008については、第1信頼性演算サブ回路1001と同様の動作を行うことから、それらの説明を省略する。   Next, the operation of the first reliability calculation subcircuit 1001 will be described with reference to FIG. Note that the second reliability calculation subcircuit 1002 to the eighth reliability calculation subcircuit 1008 perform the same operations as the first reliability calculation subcircuit 1001, and therefore their description is omitted.

図11は、図10における第1信頼性演算サブ回路1001の概略構成を示すブロック図である。なお、図示の第1信頼性演算サブ回路1001に対して、図3の第1コントラスト評価値演算サブ回路と同一の構成要素および信号については同一符号を振り、その説明を割愛する。   FIG. 11 is a block diagram showing a schematic configuration of the first reliability calculation subcircuit 1001 in FIG. For the first reliability calculation subcircuit 1001 shown in the figure, the same components and signals as those in the first contrast evaluation value calculation subcircuit in FIG. 3 are assigned the same reference numerals, and the description thereof is omitted.

第1信頼性演算サブ回路1001は、積分演算回路1101、積分演算イネーブルセレクタ1102、積分演算リセット回路1103、積分演算データバッファ1104、積分データロードセレクタ1105、および積分結果出力バッファ1106を備える。また、S1104は積分データであり、301〜306の各構成要素、並びに、S304と同一機能、同一信号を並列に構成したものとなる。   The first reliability calculation subcircuit 1001 includes an integration calculation circuit 1101, an integration calculation enable selector 1102, an integration calculation reset circuit 1103, an integration calculation data buffer 1104, an integration data load selector 1105, and an integration result output buffer 1106. Further, S1104 is integration data, which is configured by configuring each component of 301 to 306 and the same function and the same signal as S304 in parallel.

また、第1信頼性演算サブ回路1001は、信号レベル判定回路1107、第1積分演算イネーブルゲート1108、第2積分演算イネーブルゲート1109を備える。また、S1110は大レベル判定フラグ、S1111は小レベル判定フラグ、S1112は大レベル画素カウントイネーブル信号、S1113は小レベル画素カウントイネーブル信号である。   The first reliability calculation subcircuit 1001 includes a signal level determination circuit 1107, a first integration calculation enable gate 1108, and a second integration calculation enable gate 1109. S1110 is a large level determination flag, S1111 is a small level determination flag, S1112 is a large level pixel count enable signal, and S1113 is a small level pixel count enable signal.

図3の評価値演算サブ回路構成例との動作上の差異としては、以下の通りである。   The operational differences from the configuration example of the evaluation value calculation subcircuit in FIG. 3 are as follows.

信号レベル判定回路1107では、絶対値化フィルタ画像処理信号S218の信号レベルが、図示しない所定の閾値以上の場合は、大レベル判定フラグS1110がHighとなり、かつ、小レベル判定フラグS1111がLowとなるようにする。また、絶対値化フィルタ画像処理信号S218の信号レベルが、図示しない所定の閾値未満の場合は、大レベル判定フラグS1110がLowとなり、かつ、小レベル判定フラグS1111がHighとなるように動作する。   In the signal level determination circuit 1107, when the signal level of the absolute valued filtered image processing signal S218 is equal to or higher than a predetermined threshold (not shown), the large level determination flag S1110 becomes High and the small level determination flag S1111 becomes Low. Like that. When the signal level of the absolute value filtered image processing signal S218 is less than a predetermined threshold (not shown), the large level determination flag S1110 is set to Low and the small level determination flag S1111 is set to High.

従って、第1積分演算イネーブルゲート1108は、大レベル判定フラグS1110がLowの場合は積分イネーブル信号S302をLowマスクする。そして、大レベル画素カウントイネーブル信号S1112は積分イネーブル信号S302の如何によらず、Lowのままとなる。一方、第2積分演算イネーブルゲート1109では、小レベル判定フラグS1111がLowの場合に積分イネーブル信号S302がLowマスクされる。そして、小レベル画素カウントイネーブル信号S1113は積分イネーブル信号S302の如何によらず、Lowのままとなる。   Accordingly, the first integration calculation enable gate 1108 masks the integration enable signal S302 Low when the large level determination flag S1110 is Low. The large level pixel count enable signal S1112 remains Low regardless of the integration enable signal S302. On the other hand, in the second integration calculation enable gate 1109, the integration enable signal S302 is masked low when the small level determination flag S1111 is low. The small level pixel count enable signal S1113 remains Low regardless of the integration enable signal S302.

上述したように、大レベル判定フラグS1110と小レベル判定フラグS1111は、排他的にHigh、Lowとなる。そのため、積分イネーブル信号S302がHighの期間において、絶対値化フィルタ画像処理信号S218が所定の閾値以上の場合は、積分演算イネーブルセレクタ302のみがHighとなり、積分演算回路301において+1演算される。そして、積分結果出力バッファ306には、絶対値化フィルタ画像処理信号S218が所定の閾値以上となる画素数がカウントされる。   As described above, the large level determination flag S1110 and the small level determination flag S1111 are exclusively High and Low. Therefore, in the period when the integration enable signal S302 is High, when the absolute value filter image processing signal S218 is equal to or greater than a predetermined threshold, only the integration calculation enable selector 302 becomes High and the integration calculation circuit 301 performs +1 calculation. The integration result output buffer 306 counts the number of pixels for which the absolute value filtered image processing signal S218 is equal to or greater than a predetermined threshold.

また、絶対値化フィルタ画像処理信号S218が所定の閾値未満の場合は、積分演算イネーブルセレクタ1102のみがHighとなり、積分演算回路1101において+1演算される。その結果、積分結果出力バッファ1106には、絶対値化フィルタ画像処理信号S218が所定の閾値未満となる画素数がカウントされる。   If the absolute value filter image processing signal S218 is less than the predetermined threshold value, only the integration calculation enable selector 1102 becomes High, and the integration calculation circuit 1101 calculates +1. As a result, the integration result output buffer 1106 counts the number of pixels for which the absolute value filtered image processing signal S218 is less than a predetermined threshold.

第1サブ信頼性S1009は、積分結果出力バッファ306と積分結果出力バッファ1106の各々のカウント画素数がビット結合されて出力される。なお、第2サブ信頼性S1010〜第8サブ信頼性S1017も第1サブ信頼性S1009と同様の動作を行う。   In the first sub-reliability S1009, the count pixel numbers of the integration result output buffer 306 and the integration result output buffer 1106 are bit-coupled and output. Note that the second sub-reliability S1010 to the eighth sub-reliability S1017 perform the same operation as the first sub-reliability S1009.

図12(b)は、上述した第1サブ信頼性S1009〜第8サブ信頼性S1016のうち、被写体追尾AF評価領域内の状態のみを表した図である。なお、被写体追尾AF領域外については、演算対象外となるので説明を割愛する。   FIG. 12B is a diagram showing only the state in the subject tracking AF evaluation area in the first sub-reliability S1009 to the eighth sub-reliability S1016 described above. Note that the area outside the subject tracking AF area is not subject to calculation, and will not be described.

図12(b)において、0を示している小領域は、絶対値化フィルタ画像処理信号S218が所定の閾値未満となる画素数が、小領域全体画素数に対して、例えば半数以上であった領域を示す。また、1を示している小領域は、絶対値化フィルタ画像処理信号S218が所定の閾値以上となる画素数が、小領域全体画素数に対して、例えば半数以上であった領域を示す。ここで、絶対値化フィルタ画像処理信号S218は、その信号レベルが大きいほど、被写体の合焦度合いを示す所定の周波数成分のエネルギーをよく捉えており、信頼性が高いといえる。逆に、その信号レベルが小さいほど、被写体のコントラストがなく、ノイズのエネルギーが支配的で信頼性が低いといえる。   In FIG. 12B, in the small area indicating 0, the number of pixels in which the absolute value filter image processing signal S218 is less than a predetermined threshold is, for example, more than half of the total number of pixels in the small area. Indicates the area. In addition, the small area indicating 1 indicates an area in which the number of pixels in which the absolute value filter image processing signal S218 is equal to or greater than a predetermined threshold is, for example, more than half of the total number of pixels in the small area. Here, it can be said that the absolute value filtered image processing signal S218 is more reliable because it captures the energy of a predetermined frequency component indicating the degree of focus of the subject better as the signal level increases. Conversely, it can be said that the smaller the signal level, the less the contrast of the subject, the dominant noise energy, and the lower the reliability.

従って、図12(b)において、1と示された小領域に対応する第1コントラスト評価値データ、即ち、図12(a)に示すC,D,E,F,G,H,Jが選択される。そして、図12(c)に示すように、下式(2)により第2コントラスト評価データS111を算出することにより、より信頼性の高い第2コントラスト評価データS111が生成できる。   Accordingly, in FIG. 12B, the first contrast evaluation value data corresponding to the small area indicated as 1, that is, C, D, E, F, G, H, and J shown in FIG. Is done. And as shown in FIG.12 (c), the 2nd contrast evaluation data S111 with higher reliability can be produced | generated by calculating 2nd contrast evaluation data S111 by the following Formula (2).

S111=(C+D+E+F+G+H+J)/7 (2)
以上説明したように、上記第3の実施形態によれば、フレーム画像に対して複数の格子状の小領域を設定し、当該小領域毎に中間AF評価値を生成する一方、追尾検出により得られた主被写体の位置に対応する領域に対してAF評価枠を設定する。さらに、フレーム画像に対して設定された小領域の信号レベルから当該小領域の信頼性を判定する。そして、設定されたAF評価枠と中間AF評価値と当該小領域の信頼性の判定結果を用いて最終的なAF評価値を生成し、生成された最終的なAF評価値に基づいてフォーカスレンズの位置を調整してAF制御を行う。これにより、主被写体への追尾AFの性能を向上させることが出来ると共に、より信頼性の高い主被写体の位置に対するAF評価値を得ることができる。
S111 = (C + D + E + F + G + H + J) / 7 (2)
As described above, according to the third embodiment, a plurality of grid-like small areas are set for a frame image, and an intermediate AF evaluation value is generated for each small area, while the tracking detection is performed. An AF evaluation frame is set for an area corresponding to the position of the main subject. Further, the reliability of the small area is determined from the signal level of the small area set for the frame image. Then, a final AF evaluation value is generated using the set AF evaluation frame, the intermediate AF evaluation value, and the reliability determination result of the small area, and the focus lens is generated based on the generated final AF evaluation value. AF control is performed by adjusting the position of. Thereby, the performance of the tracking AF to the main subject can be improved, and the AF evaluation value for the position of the main subject with higher reliability can be obtained.

[第4の実施形態]
図13は、本発明の第4の実施形態に係る撮像装置の概略構成を示すブロック図である。なお、図13に示す撮像装置では、上記第1の実施形態と同一の構成要素および信号については同一符号を振り、その詳細な説明を割愛する。
[Fourth Embodiment]
FIG. 13 is a block diagram illustrating a schematic configuration of an imaging apparatus according to the fourth embodiment of the present invention. In the imaging apparatus shown in FIG. 13, the same components and signals as those in the first embodiment are assigned the same reference numerals, and detailed descriptions thereof are omitted.

図13において、撮像装置は、図1の撮像装置に加えて、ズームレンズ1301、光学絞り1302、およびボケ広がり量推定部1303を備える。なお、焦点距離情報S1301、光学絞り情報(F値)S1302、フォーカスレンズ位置情報S1303、および推定ボケ広がり量S1304の詳細については後述する。   In FIG. 13, the imaging apparatus includes a zoom lens 1301, an optical aperture 1302, and a blur spread amount estimation unit 1303 in addition to the imaging apparatus of FIG. 1. Details of the focal length information S1301, optical aperture information (F value) S1302, focus lens position information S1303, and estimated blur spread S1304 will be described later.

図14は、図13の撮像装置におけるフォーカスレンズ位置の時間推移を示す図である。   FIG. 14 is a diagram illustrating a temporal transition of the focus lens position in the imaging apparatus of FIG.

図14において、t1401はシャッター押し(S押し)のタイミング、t1402はレンズスキャン開始タイミング、t1403はレンズスキャン終了タイミング、t1404はレンズ停止タイミングである。また、T1401はS押し前のコンティニュアスAF期間、P1401はS押し時のレンズ位置、P1402はレンズスキャン開始位置、P1403はレンズスキャン終了位置、P1404はレンズ停止位置である。   In FIG. 14, t1401 is a shutter pressing (S-pressing) timing, t1402 is a lens scanning start timing, t1403 is a lens scanning end timing, and t1404 is a lens stop timing. T1401 is a continuous AF period before S is pushed, P1401 is a lens position at the time of S push, P1402 is a lens scan start position, P1403 is a lens scan end position, and P1404 is a lens stop position.

T1401は、S押し前のコンティニュアスAF期間である。コンティニュアスAF期間T1401では、マイコン117は、第1コントラスト評価リードデータS109または第2コントラスト評価データS111、および追尾検出リードデータS106を用いて、S押し前でも主被写体に対する追尾AF動作を行う。t1401においてS押しされたとき、フォーカスレンズ101のレンズ位置はS押し時のレンズ位置P1401である。その後、フォーカスレンズ101のレンズ位置は、マイコン117により、所定のシーケンスで、レンズスキャン開始タイミングt1402時にレンズスキャン開始位置P1402に移動する。次いで、レンズスキャン終了タイミングt1403時にレンズスキャン終了位置P1403に移動する。そして、レンズスキャン開始位置P1402からレンズスキャン終了位置P1403の間に得られた第2コントラスト評価データS111の変化の極大を示すフォーカスレンズ101のレンズ位置を求める。そして、レンズ停止タイミングt1404時にレンズ停止位置P1404にフォーカスレンズ101を移動させる。このレンズ停止位置P1404が主被写体に対する合焦位置となる。以上の制御は、既存の静止画撮影時のコントラストAF動作である。   T1401 is a continuous AF period before S is pressed. In the continuous AF period T1401, the microcomputer 117 uses the first contrast evaluation lead data S109 or the second contrast evaluation data S111 and the tracking detection lead data S106 to perform the tracking AF operation on the main subject even before S is pressed. When S is pressed at t1401, the lens position of the focus lens 101 is the lens position P1401 when S is pressed. Thereafter, the lens position of the focus lens 101 is moved to the lens scan start position P1402 by the microcomputer 117 in a predetermined sequence at the lens scan start timing t1402. Next, at the lens scan end timing t1403, the lens moves to the lens scan end position P1403. Then, the lens position of the focus lens 101 indicating the maximum change in the second contrast evaluation data S111 obtained between the lens scan start position P1402 and the lens scan end position P1403 is obtained. Then, the focus lens 101 is moved to the lens stop position P1404 at the lens stop timing t1404. This lens stop position P1404 is a focus position for the main subject. The above control is the contrast AF operation at the time of existing still image shooting.

フォーカスレンズ位置情報S1303は、レンズ位置P1401を表す。焦点距離情報S1301はズームレンズ1301の状態を表す。光学絞り情報(F値)S1302は、光学絞り1302の状態を表す。   The focus lens position information S1303 represents the lens position P1401. The focal length information S1301 represents the state of the zoom lens 1301. Optical aperture information (F value) S1302 represents the state of the optical aperture 1302.

ボケ広がり量推定部1303は、フォーカスレンズ位置情報S1303と焦点距離情報S1301と光学絞り情報(F値)S1302を用いて、t1402からt1403にかけて、推定ボケ広がり量S1304を生成する。   The blur spread amount estimation unit 1303 generates an estimated blur spread amount S1304 from t1402 to t1403 using the focus lens position information S1303, focal length information S1301, and optical aperture information (F value) S1302.

図15は、主被写体に対するフォーカス状態の変化により生ずる、主被写体のボケ広がりの様子を示す図である。   FIG. 15 is a diagram illustrating a state of blur expansion of the main subject caused by a change in the focus state with respect to the main subject.

図15に示す通り、フォーカスレンズ101のボケ状態が大きいほど、主被写体の細かいエッジは結像しなくなり、主被写体全体が広がったボケ像となる。主被写体像の大きさは、大ボケ時は大きく、合焦近傍になるに従って小さくなる。   As the blur state of the focus lens 101 is larger, the fine edge of the main subject is not imaged and the entire main subject becomes a blurred image as shown in FIG. The size of the main subject image is large at the time of large blur and becomes smaller as the focus is near.

フォーカスレンズ101のレンズ位置をレンズスキャン開始位置P1402からレンズスキャン終了位置P1403へと移動させる間、主被写体像は、図15に示す大ボケ状態〜合焦状態〜大ボケ状態と変化する。なお、上記大ボケの度合いは、フォーカスレンズ101のレンズ位置以外に、ズームレンズ1301の焦点距離や光学絞り1302の絞り状態(F値)にも依存する。   While the lens position of the focus lens 101 is moved from the lens scan start position P1402 to the lens scan end position P1403, the main subject image changes from a large blurred state to an in-focus state to a large blurred state shown in FIG. Note that the degree of the large blur depends on the focal length of the zoom lens 1301 and the diaphragm state (F value) of the optical diaphragm 1302 in addition to the lens position of the focus lens 101.

ボケ広がり量推定部1303による推定ボケ広がり量S1304は、図15で説明したフォーカスレンズ101の位置をレンズスキャン開始位置P1402からレンズスキャン終了位置P1403へと移動させる間の主被写体の大きさの変化度合いを表している。そこで、マイコン117は、追尾検出リードデータS106と推定ボケ広がり量S1304を用い、主被写体の位置と共に、フォーカスレンズの移動(レンズスキャン)に伴う主被写体の大きさ(ボケ広がり度合)を加味したAF評価枠設定S110を生成する。これにより、図15に示すように、AF評価枠から被写体エッジが消失した小領域を除外することができ、AF評価枠の精度を向上させることが可能となる。   The estimated blur spread amount S1304 by the blur spread amount estimation unit 1303 is the degree of change in the size of the main subject while moving the position of the focus lens 101 described in FIG. 15 from the lens scan start position P1402 to the lens scan end position P1403. Represents. Therefore, the microcomputer 117 uses the tracking detection read data S106 and the estimated blur spread S1304, and considers the position of the main subject and the size of the main subject (the degree of blur spread) accompanying the movement of the focus lens (lens scan). An evaluation frame setting S110 is generated. As a result, as shown in FIG. 15, it is possible to exclude a small area in which the subject edge has disappeared from the AF evaluation frame, and it is possible to improve the accuracy of the AF evaluation frame.

以上のように、上記第4実施形態によれば、フォーカスレンズ101の位置の移動(レンズスキャン)に伴う主被写体のボケ広がり度合いを加味した第2のAF評価値を生成することできる。これにより、レンズスキャン動作中の主被写体への追尾AFの性能を向上させることが出来る。   As described above, according to the fourth embodiment, it is possible to generate the second AF evaluation value in consideration of the degree of blur spread of the main subject accompanying the movement of the position of the focus lens 101 (lens scan). As a result, the performance of the tracking AF for the main subject during the lens scanning operation can be improved.

上記第1〜第4の実施形態では、説明の簡単化のため、図4(a)に示した垂直走査ラインを10ラインとしたが、どのような垂直走査ライン数であってもよい。また、図4(b)に示したように、得られた第1コントラスト評価値データ114を水平方向に8個、垂直方向に3個としたが、これらの数に制約はない。   In the first to fourth embodiments, for the sake of simplicity, the number of vertical scanning lines shown in FIG. 4A is 10 lines, but any number of vertical scanning lines may be used. Further, as shown in FIG. 4B, the obtained first contrast evaluation value data 114 is eight in the horizontal direction and three in the vertical direction, but there is no restriction on the number thereof.

また、図5において、垂直評価期間T501,T502,T503を、1ライン幅としているが、これについてもライン幅の制約はない。   In FIG. 5, the vertical evaluation periods T501, T502, and T503 are set to one line width, but there is no restriction on the line width.

さらに、図1では、単一の追尾検出部107について説明したが、追尾検出の方法自体には種々の公知の技術があり、複数の追尾検出部をもって構成しても、本発明の共通の効果がある。   Furthermore, although the single tracking detection unit 107 has been described with reference to FIG. 1, there are various known techniques for the tracking detection method itself, and even if a plurality of tracking detection units are used, the common effect of the present invention is achieved. There is.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

112 第1コントラスト評価演算部
117 マイコン
201 第1コントラスト評価演算サブ回路
210 評価値選択セレクタ
301 積分演算回路
112 First contrast evaluation calculation unit 117 Microcomputer 201 First contrast evaluation calculation subcircuit 210 Evaluation value selection selector 301 Integration calculation circuit

Claims (5)

フォーカスレンズを含む撮像手段と、
前記撮像手段の出力信号から被写体の位置を示すデータを生成する被写体追尾手段と、
前記被写体追尾手段により生成されたデータからAF評価枠を設定するAF評価枠設定手段と、
前記撮像手段の出力信号から第1のAF評価値を生成する第1の生成手段と、
前記AF評価枠設定手段により設定されたAF評価枠と前記第1の生成手段により生成された第1のAF評価値を用いて第2のAF評価値を生成する第2の生成手段と、
前記第2の生成手段により生成された第2のAF評価値に基づいて前記フォーカスレンズの位置を調整してAF制御を行う制御手段とを備えることを特徴とする撮像装置。
Imaging means including a focus lens;
Subject tracking means for generating data indicating the position of the subject from the output signal of the imaging means;
AF evaluation frame setting means for setting an AF evaluation frame from data generated by the subject tracking means;
First generation means for generating a first AF evaluation value from an output signal of the imaging means;
Second generation means for generating a second AF evaluation value using the AF evaluation frame set by the AF evaluation frame setting means and the first AF evaluation value generated by the first generation means;
An image pickup apparatus comprising: a control unit that performs AF control by adjusting a position of the focus lens based on a second AF evaluation value generated by the second generation unit.
前記第1の生成手段は、前記AF評価枠設定手段の分解能に応じて、前記撮像手段の出力信号から得られるフレーム画像に複数の格子状の小領域を設定し、当該小領域毎に第1のAF評価値を生成することを特徴とする請求項1に記載の撮像装置。   The first generation means sets a plurality of grid-like small areas in a frame image obtained from the output signal of the imaging means according to the resolution of the AF evaluation frame setting means, and the first generation means sets the first for each small area. The imaging apparatus according to claim 1, wherein an AF evaluation value is generated. 前記第2の生成手段は、前記AF評価枠設定手段により設定されたAF評価枠と、前記第1の生成手段により生成された第1のAF評価値のうち、前記AF評価枠の中心に近い位置の前記第1のAF評価値を用いて前記第2のAF評価値を生成することを特徴とする請求項2に記載の撮像装置。   The second generation unit is close to the center of the AF evaluation frame among the AF evaluation frame set by the AF evaluation frame setting unit and the first AF evaluation value generated by the first generation unit. The imaging apparatus according to claim 2, wherein the second AF evaluation value is generated using the first AF evaluation value of a position. 前記第1の生成手段により生成された第1のAF評価値の信頼性を判定する信頼性判定手段をさらに備え、
前記第2の生成手段は、前記AF評価枠設定手段により設定されたAF評価枠と、前記第1の生成手段により生成された第1のAF評価値のうち、前記信頼性判定手段により信頼性が高いと判定された第1のAF評価値を用いて前記第2のAF評価値を生成することを特徴とする請求項1または2に記載の撮像装置。
A reliability determination unit that determines the reliability of the first AF evaluation value generated by the first generation unit;
The second generation unit includes a reliability evaluation unit configured to determine reliability among the AF evaluation frame set by the AF evaluation frame setting unit and the first AF evaluation value generated by the first generation unit. The imaging apparatus according to claim 1, wherein the second AF evaluation value is generated using the first AF evaluation value determined to be high.
静止画撮影時のコントラストAF動作を行うAF動作手段と、
前記AF動作手段の動作中に得られる前記フォーカスレンズの位置、絞りの状態、焦点距離を含む情報を用いて、被写体像のボケ広がり度合いを示すボケ広がり量を生成するボケ広がり量推定手段とをさらに備え、
前記AF評価枠設定手段は、前記設定されたAF評価枠から、前記ボケ広がり量推定手段により生成されたボケ広がり量に応じたAF評価枠を設定することを特徴とする請求項1または2に記載の撮像装置。
AF operation means for performing contrast AF operation during still image shooting;
Blur spread amount estimating means for generating a blur spread amount indicating a blur spread degree of a subject image using information including the position of the focus lens, the state of the aperture, and the focal length obtained during the operation of the AF operation means; In addition,
The AF evaluation frame setting unit sets an AF evaluation frame according to the blur spread amount generated by the blur spread amount estimation unit from the set AF evaluation frame. The imaging device described.
JP2014244904A 2014-12-03 2014-12-03 Image pickup apparatus and control method of image pickup apparatus Active JP6508926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014244904A JP6508926B2 (en) 2014-12-03 2014-12-03 Image pickup apparatus and control method of image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014244904A JP6508926B2 (en) 2014-12-03 2014-12-03 Image pickup apparatus and control method of image pickup apparatus

Publications (2)

Publication Number Publication Date
JP2016109766A true JP2016109766A (en) 2016-06-20
JP6508926B2 JP6508926B2 (en) 2019-05-08

Family

ID=56123778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014244904A Active JP6508926B2 (en) 2014-12-03 2014-12-03 Image pickup apparatus and control method of image pickup apparatus

Country Status (1)

Country Link
JP (1) JP6508926B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082775A1 (en) * 2017-10-24 2019-05-02 ソニー株式会社 Image processing device, image processing method, and imaging device
US11310410B2 (en) 2018-12-12 2022-04-19 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling same, and storage medium
JP7117593B1 (en) * 2021-07-08 2022-08-15 パナソニックIpマネジメント株式会社 Imaging device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03207174A (en) * 1990-01-09 1991-09-10 Canon Inc Automatic focusing device
JP2002333571A (en) * 2001-05-09 2002-11-22 Ricoh Co Ltd Automatic focusing device, automatic focusing method, and computer program for performing the same method
JP2004325619A (en) * 2003-04-23 2004-11-18 Sony Corp Imaging apparatus and imaging method
JP2008076786A (en) * 2006-09-22 2008-04-03 Sony Corp Imaging apparatus, imaging apparatus control method, and computer program
JP2010096962A (en) * 2008-10-16 2010-04-30 Fujinon Corp Auto focus system with af frame auto-tracking function
JP2013015751A (en) * 2011-07-06 2013-01-24 Ricoh Co Ltd Imaging apparatus
JP2013228541A (en) * 2012-04-25 2013-11-07 Xacti Corp Imaging apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03207174A (en) * 1990-01-09 1991-09-10 Canon Inc Automatic focusing device
JP2002333571A (en) * 2001-05-09 2002-11-22 Ricoh Co Ltd Automatic focusing device, automatic focusing method, and computer program for performing the same method
JP2004325619A (en) * 2003-04-23 2004-11-18 Sony Corp Imaging apparatus and imaging method
JP2008076786A (en) * 2006-09-22 2008-04-03 Sony Corp Imaging apparatus, imaging apparatus control method, and computer program
JP2010096962A (en) * 2008-10-16 2010-04-30 Fujinon Corp Auto focus system with af frame auto-tracking function
JP2013015751A (en) * 2011-07-06 2013-01-24 Ricoh Co Ltd Imaging apparatus
JP2013228541A (en) * 2012-04-25 2013-11-07 Xacti Corp Imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082775A1 (en) * 2017-10-24 2019-05-02 ソニー株式会社 Image processing device, image processing method, and imaging device
US11310410B2 (en) 2018-12-12 2022-04-19 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling same, and storage medium
JP7117593B1 (en) * 2021-07-08 2022-08-15 パナソニックIpマネジメント株式会社 Imaging device

Also Published As

Publication number Publication date
JP6508926B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP5870264B2 (en) Imaging apparatus, imaging method, program, and integrated circuit
US11037310B2 (en) Image processing device, image processing method, and image processing program
US9531938B2 (en) Image-capturing apparatus
JP6184189B2 (en) SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
CN104113686B (en) Camera device and its control method
JP6351234B2 (en) Automatic focusing device, control method for automatic focusing device, control program for automatic focusing device, and storage medium
JP2016063248A (en) Image processing device and image processing method
JP5868061B2 (en) Imaging device
WO2016117035A1 (en) Image processing device, image processing method, and program
JP6508926B2 (en) Image pickup apparatus and control method of image pickup apparatus
JP6139960B2 (en) Imaging apparatus and control method thereof
JP6087714B2 (en) Imaging apparatus and control method thereof
JP6881909B2 (en) Image pickup device and its control method, and image processing device and method
US10747089B2 (en) Imaging apparatus and control method of the same
US20190297269A1 (en) Control apparatus, imaging apparatus, and control method
JP2015207090A (en) Image processor, and control method thereof
JP5698499B2 (en) Focus adjustment device and imaging device
US11375132B2 (en) Imaging apparatus, method of controlling the imaging apparatus, and program
JP4969349B2 (en) Imaging apparatus and imaging method
JP2015141394A (en) Imaging device and method and program
JP6071173B2 (en) Imaging apparatus, control method thereof, and program
JP2016100868A (en) Image processing apparatus, image processing method, and program, and imaging apparatus
WO2019082832A1 (en) Imaging apparatus, imaging apparatus control method, and program
JP7352389B2 (en) Focus detection device and method, and imaging device
JP2012103285A (en) Focus detecting device and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R151 Written notification of patent or utility model registration

Ref document number: 6508926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151