JP2010286577A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2010286577A
JP2010286577A JP2009138941A JP2009138941A JP2010286577A JP 2010286577 A JP2010286577 A JP 2010286577A JP 2009138941 A JP2009138941 A JP 2009138941A JP 2009138941 A JP2009138941 A JP 2009138941A JP 2010286577 A JP2010286577 A JP 2010286577A
Authority
JP
Japan
Prior art keywords
evaluation value
focus evaluation
electronic camera
imaging signal
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009138941A
Other languages
Japanese (ja)
Other versions
JP5597942B2 (en
Inventor
Toshiaki Maeda
敏彰 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009138941A priority Critical patent/JP5597942B2/en
Publication of JP2010286577A publication Critical patent/JP2010286577A/en
Application granted granted Critical
Publication of JP5597942B2 publication Critical patent/JP5597942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera having enhanced accuracy of focus adjustment. <P>SOLUTION: The electronic camera includes: an imaging element 2 repeatedly capturing an object field image through an imaging optical system 1; a recognizing means 12 recognizing the region of the object image from a first imaging signal obtained by the imaging element 2; a computing means 12 (10, 11) computing a first focus evaluation value corresponding to the region of the object image based on the first imaging signal; and a removing means 12 (9) removing a frequency component of a predetermined band from a second imaging signal obtained by the imaging element 2 in accordance with at least one of the first focus evaluation value and a controlled sensitivity value obtained by exposure computation. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

コントラスト検出方式のオートフォーカス調節を行う電子カメラにおいて、撮影補助光を使用して撮影する場合の焦点評価値の検出精度を高めるために、補助光源による照明光の色に対応する画素出力を相対的に高める技術が知られている(特許文献1参照)。   In an electronic camera that performs contrast detection autofocus adjustment, the relative pixel output corresponding to the color of the illumination light from the auxiliary light source is used to improve the accuracy of detecting the focus evaluation value when shooting using auxiliary shooting light. There is a known technique for enhancing the above (see Patent Document 1).

特開2005−352208号公報JP-A-2005-352208

しかしながら、撮影補助光を使用しないで撮影する場合にも、焦点調節精度を高めたいという要求があった。   However, there has been a demand for improving the focus adjustment accuracy even when shooting without using the auxiliary shooting light.

本発明による電子カメラは、撮影光学系を通して被写界像を繰り返し撮像する撮像素子と、撮像素子で得られた第1撮像信号から対象の画像の領域を認識する認識手段と、第1撮像信号に基づいて対象の画像の領域に対応する第1焦点評価値を算出する算出手段と、第1焦点評価値と露出演算によって得られる制御感度値との少なくとも1つに応じて、撮像素子で得られた第2撮像信号から所定帯域の周波数成分を除去する除去手段とを備えることを特徴とする。   An electronic camera according to the present invention includes an imaging device that repeatedly captures an object scene image through a photographing optical system, a recognition unit that recognizes a region of a target image from a first imaging signal obtained by the imaging device, and a first imaging signal. Based on the first focus evaluation value corresponding to the area of the target image, and at least one of the first focus evaluation value and the control sensitivity value obtained by the exposure calculation. And removing means for removing a frequency component of a predetermined band from the obtained second imaging signal.

本発明による電子カメラでは、焦点調節精度を高めることができる。   In the electronic camera according to the present invention, the focus adjustment accuracy can be increased.

本発明の一実施の形態によるAF電子カメラの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of AF electronic camera by one embodiment of this invention. フォーカシングレンズの位置と焦点評価値との関係の一例を示す図である。It is a figure which shows an example of the relationship between the position of a focusing lens, and a focus evaluation value. 追尾AF準備処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a tracking AF preparation process. AF電子カメラの背面を例示する図である。It is a figure which illustrates the back of AF electronic camera. 焦点評価値と制御撮像感度との関係を例示する図である。It is a figure which illustrates the relationship between a focus evaluation value and control imaging sensitivity. フィルタ特性を表す図である。It is a figure showing a filter characteristic. 追尾AF処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a tracking AF process.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態によるオートフォーカス(AF)電子カメラの要部構成を説明するブロック図である。図1において、電子カメラは、レンズユニット1と、撮像素子2と、A/D変換器3と、メモリ4と、画像処理回路5と、コントロール回路8と、CPU12と、モータ13と、フォーカス制御機構14と、LCDモニタ15と、操作部材16とを有し、外部記憶回路6が着脱可能に構成される。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram for explaining a main configuration of an autofocus (AF) electronic camera according to an embodiment of the present invention. In FIG. 1, an electronic camera includes a lens unit 1, an image sensor 2, an A / D converter 3, a memory 4, an image processing circuit 5, a control circuit 8, a CPU 12, a motor 13, and focus control. It has a mechanism 14, an LCD monitor 15, and an operation member 16, and the external storage circuit 6 is configured to be detachable.

レンズユニット1は、不図示のフォーカシングレンズを含む。フォーカシングレンズは、レンズユニット1を通過した被写体像が撮像素子2の撮像面上に結像するように焦点位置を調節するレンズである。モータ13がフォーカス制御機構14を駆動することにより、フォーカス制御機構14がフォーカシングレンズを光軸方向に進退移動させる。モータ13は、CPU12から出力されるレンズ駆動信号によって駆動される。   The lens unit 1 includes a focusing lens (not shown). The focusing lens is a lens that adjusts the focal position so that the subject image that has passed through the lens unit 1 is formed on the imaging surface of the imaging device 2. When the motor 13 drives the focus control mechanism 14, the focus control mechanism 14 moves the focusing lens forward and backward in the optical axis direction. The motor 13 is driven by a lens driving signal output from the CPU 12.

撮像素子2は、たとえば、CMOSイメージセンサなどによって構成される。撮像素子2は、撮像面上の被写体像を撮像し、各画素に対応する光電変換信号を出力する。撮像素子2から出力される光電変換信号は、各画素に入射される光の強さに応じてその信号レベルが異なる。コントロール回路8は、撮像素子2の駆動に必要なタイミング信号を生成して撮像素子2へ供給する。   The image sensor 2 is configured by, for example, a CMOS image sensor. The image sensor 2 captures a subject image on the imaging surface and outputs a photoelectric conversion signal corresponding to each pixel. The signal level of the photoelectric conversion signal output from the image sensor 2 varies depending on the intensity of light incident on each pixel. The control circuit 8 generates a timing signal necessary for driving the image sensor 2 and supplies the timing signal to the image sensor 2.

撮像素子2の撮像面にはカラーフィルタ2Aが設けられており、撮像素子2は該カラーフィルタ2Aを通して受光した光電変換信号を出力する。たとえば、撮像素子2の画素位置にR,G,B色のフィルタが配設されることにより、R色のフィルタを通して受光した画素からはR色成分の光に対応する光電変換信号が出力され、G色のフィルタを通して受光した画素からはG色成分の光に対応する光電変換信号が出力され、B色のフィルタを通して受光した画素からはB色成分の光に対応する光電変換信号が出力される。なお、各色ごとの光電変換信号を得る手段は、カラーフィルタ2Aの配置に限定されない。   A color filter 2A is provided on the image pickup surface of the image pickup device 2, and the image pickup device 2 outputs a photoelectric conversion signal received through the color filter 2A. For example, by arranging R, G, B color filters at the pixel positions of the image sensor 2, photoelectric conversion signals corresponding to light of R color components are output from the pixels received through the R color filters, A photoelectric conversion signal corresponding to light of the G color component is output from the pixel received through the G color filter, and a photoelectric conversion signal corresponding to light of the B color component is output from the pixel received through the B color filter. . The means for obtaining the photoelectric conversion signal for each color is not limited to the arrangement of the color filter 2A.

本実施形態のAF電子カメラは、撮像素子2による光電変換信号を撮影画像記録用、後述するライブビュー表示用、測光演算用および後述する焦点評価値算出用に用いる。撮像素子2から出力された光電変換信号は、A/D変換器3によってディジタル信号に変換される。変換後のディジタルデータはメモリ4に格納される。画像処理回路5は、メモリ4に格納された画像データに対して所定の方式(たとえば、JPEG)で圧縮処理を施し、圧縮処理後の画像データを外部記憶回路6に記憶させる。画像処理回路5は、外部記憶回路6に記録されている圧縮データを読み出して伸長する際の伸長処理も行う。外部記憶回路6は、たとえば、メモリカードなどのデータストレージ部材によって構成される。LCDモニタ15は、カメラ本体の背面に配設される。LCDモニタ15は、撮影画像やライブビュー画像などを再生表示する。   The AF electronic camera of the present embodiment uses photoelectric conversion signals from the image sensor 2 for recording a captured image, for live view display described later, for photometric calculation, and for calculating a focus evaluation value described later. The photoelectric conversion signal output from the image sensor 2 is converted into a digital signal by the A / D converter 3. The converted digital data is stored in the memory 4. The image processing circuit 5 performs compression processing on the image data stored in the memory 4 by a predetermined method (for example, JPEG), and stores the compressed image data in the external storage circuit 6. The image processing circuit 5 also performs decompression processing when the compressed data recorded in the external storage circuit 6 is read and decompressed. The external storage circuit 6 is configured by a data storage member such as a memory card, for example. The LCD monitor 15 is disposed on the back surface of the camera body. The LCD monitor 15 reproduces and displays captured images and live view images.

CPU12は、AE/AWB回路7と、検波フィルタ9と、積算回路10と、AF回路11と、不揮発性メモリ17とを含む。CPU12は、コントロール回路8およびメモリ4などと接続され、電子カメラの自動焦点検出(AF)や自動露出(AE)、ホワイトバランス調整(AWB)などの各種演算とカメラ動作のシーケンス制御とを行う。AE演算では、たとえば、撮像素子2による光電変換信号を用いて被写体輝度を算出する。CPU12はさらに、算出した被写体輝度を用いて所定の露出演算を行い、制御撮像感度Sv、制御絞りAvおよび制御シャッター秒時Tvを決定する。   The CPU 12 includes an AE / AWB circuit 7, a detection filter 9, an integration circuit 10, an AF circuit 11, and a nonvolatile memory 17. The CPU 12 is connected to the control circuit 8 and the memory 4 and performs various calculations such as automatic focus detection (AF), automatic exposure (AE), and white balance adjustment (AWB) of the electronic camera, and sequence control of camera operation. In the AE calculation, for example, the subject luminance is calculated using a photoelectric conversion signal from the image sensor 2. Further, the CPU 12 performs a predetermined exposure calculation using the calculated subject brightness, and determines the control imaging sensitivity Sv, the control aperture Av, and the control shutter time Tv.

CPU12には、操作部材16から各種操作信号が入力される。CPU12は、操作部材16から入力される操作信号に応じて、AF電子カメラのAF制御、AE制御、AWB制御などのカメラ制御を行う。   Various operation signals are input from the operation member 16 to the CPU 12. The CPU 12 performs camera control such as AF control, AE control, and AWB control of the AF electronic camera in accordance with an operation signal input from the operation member 16.

AE/AWB回路7は、公知の露出演算やホワイトバランス調整処理を行う。ホワイトバランス調整処理は、メモリ4に格納されている画像データに対して行われる。   The AE / AWB circuit 7 performs known exposure calculation and white balance adjustment processing. The white balance adjustment process is performed on the image data stored in the memory 4.

検波フィルタ9は、メモリ4に格納されている画像処理前の画像データのうち、焦点検出用の領域(フォーカスエリア)に対応する画像データから高周波数成分を抽出するフィルタである。検波フィルタ9によるフィルタ処理後の画像データは、フィルタ処理前の画像データに比べて、所定帯域の周波数成分、具体的には低周波数成分、とくに直流成分が除去されている。なお、後述するが、CPU12は検波フィルタ9の特性を変更可能であり、除去する周波数成分を調整している。   The detection filter 9 is a filter that extracts a high frequency component from image data corresponding to a focus detection area (focus area) in the image data before image processing stored in the memory 4. The image data after the filter processing by the detection filter 9 has a frequency component in a predetermined band, specifically, a low frequency component, particularly a direct current component, removed compared to the image data before the filter processing. As will be described later, the CPU 12 can change the characteristics of the detection filter 9 and adjust the frequency component to be removed.

積算回路10は、フォーカスエリアに含まれる画素に対応する画像データであって、検波フィルタ9によってフィルタリングされた画像データを積算する。なお、高周波数成分による差分を積算するために、画像データの絶対値を積算する。   The integration circuit 10 integrates the image data corresponding to the pixels included in the focus area and filtered by the detection filter 9. Note that the absolute values of the image data are integrated in order to integrate the differences due to the high frequency components.

AF回路11は、積算回路10による積算値を用いて焦点評価値を得る。図2は、撮影レンズ1内の不図示のフォーカシングレンズの位置と焦点評価値との関係の一例を示す図である。図2において、横軸はフォーカシングレンズの位置であり、縦軸は焦点評価値である。   The AF circuit 11 obtains a focus evaluation value using the integrated value obtained by the integrating circuit 10. FIG. 2 is a diagram illustrating an example of the relationship between the position of a focusing lens (not shown) in the photographing lens 1 and the focus evaluation value. In FIG. 2, the horizontal axis represents the position of the focusing lens, and the vertical axis represents the focus evaluation value.

焦点評価値の演算は、たとえば、フォーカシングレンズを可動端の一方(たとえば至近端)から他方(無限遠端)へ向けて移動させながら行う。図2に例示した焦点評価値カーブは、AF回路11が所定時間ごとに焦点評価値を算出して得た離散データの集まりとして得られる。ここで、離散データ間隔は、撮像素子2による撮像時間、フィルタ処理および積算値演算に要する時間と、フォーカシングレンズの移動速度とによって決定される。   The calculation of the focus evaluation value is performed, for example, while moving the focusing lens from one of the movable ends (for example, the closest end) toward the other (the infinite end). The focus evaluation value curve illustrated in FIG. 2 is obtained as a collection of discrete data obtained by the AF circuit 11 calculating focus evaluation values at predetermined time intervals. Here, the discrete data interval is determined by the imaging time by the imaging device 2, the time required for the filtering process and the integrated value calculation, and the moving speed of the focusing lens.

AF回路11は、焦点評価値カーブの最大点に対応する合焦点を算出する。合焦点は、撮像素子2によって撮像される被写体像のエッジのボケをなくし、画像のコントラストを最大にするレンズ位置である。合焦点の位置は、カメラから主要被写体までの距離に応じて異なる。   The AF circuit 11 calculates a focal point corresponding to the maximum point of the focus evaluation value curve. The focal point is a lens position that eliminates blurring of the edge of the subject image captured by the image sensor 2 and maximizes the contrast of the image. The position of the focal point varies depending on the distance from the camera to the main subject.

以上の焦点評価値算出処理は、撮影画面内に設けられたフォーカスエリアに対応させて行う。一般に、フォーカスエリアを画面内のどこに設定するかは、撮影者が操作部材16を操作してフォーカスエリア位置を指示する方式や、CPU12が所定の被写体に対応するフォーカスエリアを自動的に設定する方式などがある。   The above-described focus evaluation value calculation processing is performed in correspondence with the focus area provided in the shooting screen. In general, where the focus area is set on the screen is determined by a method in which the photographer operates the operation member 16 to indicate a focus area position, or a method in which the CPU 12 automatically sets a focus area corresponding to a predetermined subject. and so on.

本説明では、フォーカスエリアを自動的に設定する方式に切換えられたAF電子カメラが、所定の被写体に対応させてフォーカスエリアを設定する場合の動作を中心に説明する。この場合のCPU12は、撮像素子2によって取得された複数のフレーム画像に基づいて、たとえば、テンプレートマッチングなどの公知の技術を用いることにより、画面内における主要被写体の位置を検出する。そして、検出した主要被写体を含む所定範囲をフォーカスエリアとする。   In this description, the operation when the AF electronic camera switched to the method of automatically setting the focus area sets the focus area corresponding to a predetermined subject will be mainly described. In this case, the CPU 12 detects the position of the main subject in the screen by using a known technique such as template matching based on the plurality of frame images acquired by the image sensor 2. Then, a predetermined range including the detected main subject is set as a focus area.

AF電子カメラがテンプレートマッチングに用いる参照用データは、不揮発性メモリ17内に格納しておくことができる。参照用データの格納手順について、図3に例示するフローチャートを参照して説明する。   Reference data used by the AF electronic camera for template matching can be stored in the nonvolatile memory 17. The procedure for storing the reference data will be described with reference to the flowchart illustrated in FIG.

CPU12は、AF電子カメラが電源オン操作された場合に、図3による追尾AF準備処理を行うプログラムを起動する。図3のステップS01において、CPU12は追尾被写体確定処理を行う。具体的には、以下の手順で行う。   When the AF electronic camera is turned on, the CPU 12 activates a program for performing the tracking AF preparation process shown in FIG. In step S01 of FIG. 3, the CPU 12 performs a tracking subject determination process. Specifically, the following procedure is used.

まず、CPU12は、撮像素子2に所定の時間間隔(たとえば30コマ/毎秒)で、ライブビュー表示用の撮像をさせる。ライブビュー表示用の画像データは、上記所定時間ごとにフレーム単位で逐次メモリ4に格納される。画像処理回路5がメモリ4に格納された画像データを逐次読出して表示用データを生成し、LCDモニタ15が表示データによる再生画像を逐次表示する(ライブビュー表示)。   First, the CPU 12 causes the image sensor 2 to capture images for live view display at a predetermined time interval (for example, 30 frames / second). Image data for live view display is sequentially stored in the memory 4 in units of frames at the predetermined time intervals. The image processing circuit 5 sequentially reads the image data stored in the memory 4 to generate display data, and the LCD monitor 15 sequentially displays a reproduced image based on the display data (live view display).

ライブビュー表示のための表示データはLCDモニタ15の表示解像度に応じたサイズのデータを有していればよい。このため、ライブビュー表示時の撮像素子2からの光電変換信号の読み出しは、たとえば、画素間引き読み出しを行うことによって撮影時の読み出しデータに比べて小さなデータサイズで構成されている。   Display data for live view display only needs to have data having a size corresponding to the display resolution of the LCD monitor 15. For this reason, the readout of the photoelectric conversion signal from the image sensor 2 at the time of live view display is configured with a data size smaller than the readout data at the time of photographing by performing, for example, pixel thinning readout.

図4は、AF電子カメラの背面を例示する図である。図4において、LCDモニタ15にライブビュー画像が表示されている。画像処理回路5は、表示用データに追尾指定枠データを重畳させることにより、ライブビュー画像に重ねて追尾指定枠15Aを表示させる。追尾指定枠15Aのデフォルト表示位置は、本実施形態の場合は表示画面の中央である。   FIG. 4 is a diagram illustrating the back surface of the AF electronic camera. In FIG. 4, a live view image is displayed on the LCD monitor 15. The image processing circuit 5 superimposes the tracking designation frame data on the display data, thereby displaying the tracking designation frame 15A so as to be superimposed on the live view image. In the present embodiment, the default display position of the tracking designation frame 15A is the center of the display screen.

撮影者は、たとえば、追尾させようとする対象物(追尾被写体Tと呼ぶ)が追尾指定枠15Aの中に表示されるようにAF電子カメラをフレーミングし、操作部材16を構成する確定ボタン16Aを押下操作する。   The photographer, for example, frames the AF electronic camera so that the object to be tracked (referred to as the tracking subject T) is displayed in the tracking designation frame 15A, and presses the confirm button 16A constituting the operation member 16. Press down.

CPU12は、確定ボタン16Aが押下されたことを示す操作信号が入力された場合に、その時点で追尾指定枠15A内に表示中の追尾被写体Tに対応する画像データに基づいて特徴量データを生成し、特徴量データを含む参照用データを不揮発性メモリ17に格納(登録)する。この参照用データは、追尾被写体Tを追尾する際のテンプレートマッチング用に用いられる。   When an operation signal indicating that the confirm button 16A is pressed is input, the CPU 12 generates feature amount data based on the image data corresponding to the tracking subject T currently displayed in the tracking designation frame 15A. Then, the reference data including the feature amount data is stored (registered) in the nonvolatile memory 17. This reference data is used for template matching when tracking the tracking subject T.

追尾被写体確定処理後のステップS02において、CPU12は焦点評価値を用いて合焦状態か否かを判定する。CPU12は、合焦点にフォーカシングレンズが位置する場合にステップS02を肯定判定してステップS04へ進む。CPU12は、合焦点にフォーカシングレンズが位置しない場合(追尾被写体確定直後で焦点評価値を未算出の場合を含む)にはステップS02を否定判定してステップS03へ進む。   In step S02 after the tracking subject determination process, the CPU 12 uses the focus evaluation value to determine whether or not it is in focus. If the focusing lens is located at the focal point, the CPU 12 makes a positive determination in step S02 and proceeds to step S04. If the focusing lens is not located at the focal point (including the case where the focus evaluation value has not been calculated immediately after the tracking subject is determined), the CPU 12 makes a negative determination in step S02 and proceeds to step S03.

ステップS03において、CPU12はAFサーチ処理を行ってステップS01へ戻る。AFサーチ処理は、上述したようにフォーカシングレンズを可動端の一方から他方へ向けて移動させながら焦点評価値カーブを求め、焦点評価値カーブに基づく合焦点へフォーカシングレンズを移動させることにより終了する。なお、本時点の焦点評価値の算出は、追尾指定枠15Aの位置をフォーカスエリアとして、該フォーカスエリアに含まれる画素に対応する画像データを用いて行う。   In step S03, the CPU 12 performs AF search processing and returns to step S01. As described above, the AF search process is completed by obtaining a focus evaluation value curve while moving the focusing lens from one of the movable ends toward the other, and moving the focusing lens to a focal point based on the focus evaluation value curve. The focus evaluation value at this time is calculated using the position of the tracking designation frame 15A as a focus area, and using image data corresponding to the pixels included in the focus area.

ここで、焦点評価値は、フォーカスエリアに含まれる画素に対応する色成分ごとに算出する。つまり、フォーカスエリアに含まれる画素に対応する画像データであって、検波フィルタ9によってフィルタリングされた画像データが色成分ごとに積算され、R成分、G成分、およびB成分のそれぞれについて焦点評価値が算出される。AF回路11は、通常、R成分、G成分、およびB成分の焦点評価値を1:1:1の比率で加算した加算値を焦点調節用の焦点評価値とする。   Here, the focus evaluation value is calculated for each color component corresponding to the pixels included in the focus area. That is, the image data corresponding to the pixels included in the focus area, and the image data filtered by the detection filter 9 is integrated for each color component, and the focus evaluation value is obtained for each of the R component, the G component, and the B component. Calculated. The AF circuit 11 normally uses a sum value obtained by adding the focus evaluation values of the R component, the G component, and the B component at a ratio of 1: 1: 1 as a focus evaluation value for focus adjustment.

ステップS04において、CPU12は、ステップS02で合焦状態にあると判定された際に用いられた焦点評価値(以下、参照用データ登録時焦点評価値とする)、およびAE演算で取得している制御撮像感度Svをそれぞれ取得してステップS05へ進む。ステップS05において、CPU12は、検波フィルタ9の特性の変更設定を行う。   In step S04, the CPU 12 obtains the focus evaluation value (hereinafter referred to as a reference data registration focus evaluation value) used when it is determined in step S02 that the lens is in focus, and the AE calculation. The control imaging sensitivity Sv is acquired, and the process proceeds to step S05. In step S <b> 05, the CPU 12 performs a change setting for the characteristics of the detection filter 9.

図5は、焦点評価値(AFvalue)と制御撮像感度Svとの関係を例示する図である。図5において、Sv5はISO100相当であり、Sv10はISO3200相当である。○内の数字1〜3は、図6に例示されている検波フィルタ9のフィルタ特性を表す。図6において、検波フィルタ特性1は低域遮断周波数が最も低く、検波フィルタ特性3は低域遮断周波数が最も高く、検波フィルタ特性2は両者の中間の低域遮断周波数を有する。   FIG. 5 is a diagram illustrating the relationship between the focus evaluation value (AFvalue) and the control imaging sensitivity Sv. In FIG. 5, Sv5 is equivalent to ISO100, and Sv10 is equivalent to ISO3200. Numbers 1 to 3 in the circles represent filter characteristics of the detection filter 9 illustrated in FIG. In FIG. 6, the detection filter characteristic 1 has the lowest low cut-off frequency, the detection filter characteristic 3 has the highest low cut-off frequency, and the detection filter characteristic 2 has a low cut-off frequency intermediate between them.

なお、図6に例示した3つのフィルタ特性はいずれも低域遮断フィルタであるが、低域遮断フィルタの代わりに、所定周波数以上の不要な高周波数成分も遮断するバンドパスフィルタとして構成してもよい。バンドパスフィルタで構成する場合の検波フィルタ特性も、低域側の遮断周波数を図6のように3段階に異ならせる構成とする。   The three filter characteristics illustrated in FIG. 6 are all low-frequency cutoff filters. However, instead of the low-frequency cutoff filter, it may be configured as a bandpass filter that blocks unnecessary high-frequency components above a predetermined frequency. Good. The detection filter characteristics in the case of a band-pass filter are also configured so that the cut-off frequency on the low frequency side is varied in three stages as shown in FIG.

図5によれば、ステップS04(図3)で取得した制御撮像感度Svが高くなるほど検波フィルタ9の低域遮断周波数を低くするとともに、ステップS04(図3)で取得した参照用データ登録時焦点評価値が大きいほど検波フィルタ9の低域遮断周波数を高周波数側へ変化させる。つまり、高輝度かつ高コントラストの場合ほど低域遮断周波数を高く設定し、低輝度かつ低コントラストの場合ほど低域遮断周波数を低く設定する。CPU12は、以上のように検波フィルタ特性の変更設定を行うと図3による処理を終了して図7に例示する追尾AF処理を起動する。   According to FIG. 5, the lower cutoff frequency of the detection filter 9 is lowered as the control imaging sensitivity Sv acquired in step S04 (FIG. 3) becomes higher, and the reference data registration focus acquired in step S04 (FIG. 3). As the evaluation value is larger, the low-frequency cutoff frequency of the detection filter 9 is changed to the higher frequency side. That is, the higher the luminance and the higher the contrast, the higher the low-frequency cutoff frequency, and the lower the luminance and the low-contrast, the lower the frequency cutoff. When the CPU 12 performs the change setting of the detection filter characteristics as described above, the CPU 12 ends the process of FIG. 3 and starts the tracking AF process illustrated in FIG.

図7は、追尾AF処理の流れを説明するフローチャートである。図7のステップS11において、CPU12は被写体追尾処理を行う。具体的には、取得時刻が異なる複数フレームの画像データを用いて公知のテンプレートマッチング処理を施すことにより、先に取得された画像データにおける追尾被写体Tと類似する領域を、後から取得された画像データから検出(追尾)する。この際、後から取得された画像データは、検波フィルタ9の特性を変更した後のものであり、参照用データ登録時焦点評価値や制御撮像感度Svに応じた周波数成分が除去されたものである。CPU12は、被写体追尾処理を行うとステップS12へ進む。   FIG. 7 is a flowchart for explaining the flow of the tracking AF process. In step S11 of FIG. 7, the CPU 12 performs subject tracking processing. Specifically, by performing a known template matching process using image data of a plurality of frames having different acquisition times, an area similar to the tracking subject T in the previously acquired image data is acquired later. Detect (track) from data. At this time, the image data acquired later is obtained after the characteristics of the detection filter 9 are changed, and the frequency component corresponding to the focus evaluation value at the time of reference data registration and the control imaging sensitivity Sv is removed. is there. When the subject tracking process is performed, the CPU 12 proceeds to step S12.

ステップS12において、CPU12は被写体位置が移動したか否かを判定する。CPU12は、後から取得された画像データにおける検出領域の位置と、先に取得された画像データにおける追尾被写体Tの位置との相対距離が所定差を超えている場合に、ステップS12を肯定判定してステップS13へ進む。CPU12は、上記相対距離が所定差以下の場合には、ステップS12を否定判定してステップS14へ進む。   In step S12, the CPU 12 determines whether or not the subject position has moved. When the relative distance between the position of the detection region in the image data acquired later and the position of the tracking subject T in the image data acquired earlier exceeds a predetermined difference, the CPU 12 makes a positive determination in step S12. Then, the process proceeds to step S13. If the relative distance is equal to or smaller than the predetermined difference, the CPU 12 makes a negative determination in step S12 and proceeds to step S14.

ステップS13において、CPU12は、次回のAFサーチ処理で用いるフォーカスエリアの座標位置(AFエリア位置)を現位置からステップS11で検出した追尾被写体の位置へ更新するとともに、後から取得された画像データのうち、更新後のフォーカスエリアに対応する画像データに基づく焦点評価値を算出してステップS14へ進む。   In step S13, the CPU 12 updates the coordinate position (AF area position) of the focus area used in the next AF search process from the current position to the position of the tracking subject detected in step S11, and the image data acquired later is updated. Among them, the focus evaluation value based on the image data corresponding to the updated focus area is calculated, and the process proceeds to step S14.

ステップS14において、CPU12は、ステップS13で算出した焦点評価値が前回算出した焦点評価値から所定値以上変化しているか否かを判定する。CPU12は、所定値以上変化している場合にステップS14を肯定判定してステップS15へ進む。ステップS15へ進む場合は合焦状態に変動が生じた場合である。一方、CPU12は、所定値以上の変化がない場合にはステップS14を否定判定してステップS16へ進む。ステップS16へ進む場合は合焦状態が継続している場合である。   In step S14, the CPU 12 determines whether or not the focus evaluation value calculated in step S13 has changed by a predetermined value or more from the previously calculated focus evaluation value. If the CPU 12 has changed by a predetermined value or more, the CPU 12 makes a positive determination in step S14 and proceeds to step S15. The process proceeds to step S15 when the focus state varies. On the other hand, if there is no change greater than the predetermined value, the CPU 12 makes a negative determination in step S14 and proceeds to step S16. The process proceeds to step S16 when the in-focus state continues.

ステップS15において、CPU12は所定のAFサーチ処理を行ってステップS16へ進む。AFサーチ処理は上述したステップS03と同様であるが、ステップS15で用いられる画像データは、参照用データ登録時評価値や制御撮像感度Svに応じた周波数成分が除去されたものである。ステップS16において、CPU12は追尾モードを終了するか否かを判定する。CPU12は、追尾AF処理の終了指示が行われた場合(たとえば、追尾AF処理中に操作部材16が操作されて撮影動作に入ることを示す操作信号が入力される)は、ステップS16を肯定判定して図7による処理を終了する。CPU12は、追尾AF処理の終了指示が行われない場合は、ステップS16を否定判定してステップS11へ戻る。ステップS11へ戻る場合は、ライブビュー表示を行って追尾被写体Tを追尾しながら、該追尾被写体Tに対して焦点評価値を算出して焦点調節を行う追尾AF処理を繰り返す。   In step S15, the CPU 12 performs a predetermined AF search process and proceeds to step S16. The AF search process is the same as in step S03 described above, but the image data used in step S15 is obtained by removing frequency components corresponding to the reference data registration evaluation value and the control imaging sensitivity Sv. In step S16, the CPU 12 determines whether or not to end the tracking mode. When the CPU 12 is instructed to end the tracking AF process (for example, an operation signal indicating that the operation member 16 is operated during the tracking AF process to enter the shooting operation is input), the CPU 12 makes a positive determination in step S16. Then, the process according to FIG. If the instruction to end the tracking AF process is not issued, the CPU 12 makes a negative determination in step S16 and returns to step S11. When returning to step S11, the tracking AF processing for performing focus adjustment by calculating a focus evaluation value for the tracking subject T and repeating the focus while repeating the tracking subject T by performing live view display is repeated.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラは、レンズユニット1を通して被写界像を繰り返し撮像する撮像素子2を備え、CPU12が、撮像素子2で得られた光電変換信号から追尾被写体Tの画像の領域(追尾指定枠15A内)を認識し、光電変換信号に基づいて追尾被写体Tの画像の領域に対応する焦点評価値を算出し、焦点評価値と露出演算によって得られる制御感度値Svとの少なくとも1つに応じて、撮像素子2で得られた光電変換信号から所定帯域の周波数成分を除去するようにした。光電変換信号から除去する周波数帯域を適切に制御することにより、除去する周波数帯域を常に同じにする場合に比べて焦点調節精度を高めることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The electronic camera includes an image pickup device 2 that repeatedly picks up an object scene image through the lens unit 1, and the CPU 12 uses the photoelectric conversion signal obtained by the image pickup device 2 to obtain an image area (tracking designation frame) of the tracking subject T. 15A), a focus evaluation value corresponding to the image area of the tracking subject T is calculated based on the photoelectric conversion signal, and at least one of the focus evaluation value and the control sensitivity value Sv obtained by the exposure calculation is determined. Thus, a frequency component in a predetermined band is removed from the photoelectric conversion signal obtained by the image sensor 2. By appropriately controlling the frequency band to be removed from the photoelectric conversion signal, the focus adjustment accuracy can be increased as compared with the case where the frequency band to be removed is always the same.

(2)たとえば、高い制御撮像感度値Svが設定される場合は低輝度である場合が多いので、検波フィルタ9の低域遮断周波数を低くしてより低い周波数成分も焦点評価値に寄与させることにより、適切な焦点調節が行える。 (2) For example, when a high control imaging sensitivity value Sv is set, the luminance is often low. Therefore, the low-frequency cutoff frequency of the detection filter 9 is lowered so that a lower frequency component also contributes to the focus evaluation value. Thus, appropriate focus adjustment can be performed.

(3)また、テンプレートマッチングの参照用データを取得した際の焦点評価値(AFvalue)が高い場合、少なくとも追尾被写体Tの周囲は高コントラストである場合が多いので、検波フィルタ9の低域遮断周波数を高くしてなるべく低周波数成分を焦点評価値に寄与させないようにすることにより、適切な焦点調節が行える。 (3) When the focus evaluation value (AFvalue) when the template matching reference data is acquired is high, at least the area around the tracking subject T often has high contrast. As a result of making the low frequency component as low as possible and not contributing to the focus evaluation value, appropriate focus adjustment can be performed.

(変形例1)
上述した実施形態では、焦点評価値(AFvalue)と制御撮像感度Svとに基づいて、検波フィルタ9の検波フィルタ特性を異ならせるようにした(ステップS05)。この代わりに、制御撮像感度Svのみに基づいて検波フィルタ9の検波フィルタ特性を異ならせるように構成してもよい。この場合は、制御撮像感度Svが高くなるほど検波フィルタ9の低域遮断周波数を低くするとともに、制御撮像感度Svが低くなるほど検波フィルタ9の低域遮断周波数を高くする。つまり、高感度の場合ほど低域遮断周波数を低く設定し、低感度の場合ほど低域遮断周波数を高く設定する。
(Modification 1)
In the embodiment described above, the detection filter characteristics of the detection filter 9 are made different based on the focus evaluation value (AFvalue) and the control imaging sensitivity Sv (step S05). Instead of this, the detection filter characteristics of the detection filter 9 may be varied based only on the control imaging sensitivity Sv. In this case, the lower cutoff frequency of the detection filter 9 is lowered as the control imaging sensitivity Sv is higher, and the lower cutoff frequency of the detection filter 9 is higher as the control imaging sensitivity Sv is lower. That is, the lower cutoff frequency is set lower as the sensitivity is higher, and the lower cutoff frequency is set higher as the sensitivity is lower.

上述したように、高い撮像感度Svを設定する場合は低輝度である場合が多いので、検波フィルタ9の低域遮断周波数を低くしてより低い周波数成分も焦点評価値に寄与させることにより、適切な焦点調節が行える。反対に、低い撮像感度Svを設定する場合は高輝度である場合が多いので、検波フィルタ9の低域遮断周波数を高くしてなるべく低周波数成分を焦点評価値に寄与させないようにすることにより、適切な焦点調節が行える。   As described above, when the high imaging sensitivity Sv is set, the luminance is often low. Therefore, it is appropriate to reduce the low-frequency cutoff frequency of the detection filter 9 so that a lower frequency component contributes to the focus evaluation value. Focus adjustment. On the other hand, when the low imaging sensitivity Sv is set, the luminance is often high. Therefore, by setting the low-frequency cutoff frequency of the detection filter 9 as high as possible so that the low-frequency component does not contribute to the focus evaluation value, Appropriate focus adjustment can be performed.

(変形例2)
変形例1とは異なり、ステップS05において焦点評価値(AFvalue)のみに基づいて検波フィルタ9の検波フィルタ特性を異ならせるように構成してもよい。この場合は、ステップS04で取得した焦点評価値が大きいほど検波フィルタ9の低域遮断周波数を高くするとともに、焦点評価値が小さいほど検波フィルタ9の低域遮断周波数を低くする。つまり、高コントラストの場合ほど低域遮断周波数を高く設定し、低コントラストの場合ほど低域遮断周波数を低く設定する。
(Modification 2)
Unlike the first modification, the detection filter characteristic of the detection filter 9 may be varied based on only the focus evaluation value (AFvalue) in step S05. In this case, the lower the cutoff frequency of the detection filter 9 is made higher as the focus evaluation value acquired in step S04 is larger, and the lower cutoff frequency of the detection filter 9 is made lower as the focus evaluation value is smaller. That is, the lower cutoff frequency is set higher as the contrast is higher, and the lower cutoff frequency is set lower as the contrast is lower.

上述したように、焦点評価値(AFvalue)が高い場合は高コントラストである場合が多いので、検波フィルタ9の低域遮断周波数を高くしてなるべく低周波数成分を焦点評価値に寄与させないようにすることにより、適切な焦点調節が行える。反対に、焦点評価値(AFvalue)が低い場合は低コントラストである場合が多いので、検波フィルタ9の低域遮断周波数を低くしてより低い周波数成分を焦点評価値に寄与させることにより、適切な焦点調節が行える。   As described above, when the focus evaluation value (AFvalue) is high, the contrast is often high. Therefore, the low frequency cutoff frequency of the detection filter 9 is increased so that the low-frequency component is prevented from contributing to the focus evaluation value. Therefore, appropriate focus adjustment can be performed. On the other hand, when the focus evaluation value (AFvalue) is low, the contrast is often low. Therefore, it is possible to reduce the low-frequency cutoff frequency of the detection filter 9 so that a lower frequency component contributes to the focus evaluation value. Focus adjustment can be performed.

(変形例3)
上記実施形態では、AF回路11がR成分、G成分、およびB成分のそれぞれについて算出した焦点評価値を1:1:1相当の比率で加算した値を焦点評価値とする例を説明した。上記実施形態における焦点評価値(AFvalue)は次式(1)で表すことができる。
AFvalue=α×AF_R+β×AF_G+γ×AF_B (1)
ただしα=β=γ=1であり、α+β+γ=3である。また、R成分についての焦点評価値をAF_Rで、G成分についての焦点評価値をAF_Gで、B成分についての焦点評価値をAF_Bで、それぞれ表す。
(Modification 3)
In the embodiment described above, an example in which the focus evaluation value is obtained by adding the focus evaluation values calculated by the AF circuit 11 for each of the R component, the G component, and the B component at a ratio corresponding to 1: 1: 1. The focus evaluation value (AFvalue) in the above embodiment can be expressed by the following equation (1).
AFvalue = α × AF_R + β × AF_G + γ × AF_B (1)
However, α = β = γ = 1 and α + β + γ = 3. The focus evaluation value for the R component is represented by AF_R, the focus evaluation value for the G component is represented by AF_G, and the focus evaluation value for the B component is represented by AF_B.

変形例3のCPU12は、次式(2)−(4)で表されるように、ステップS04で取得した色成分別の焦点評価値(AF_R,AF_G,AF_B)に基づいて、ステップS13およびステップS15において焦点評価値を算出する際、3成分の焦点評価値(AF_R,AF_G,AF_B)を加算する比率を異ならせて焦点調節用の焦点評価値とする。
α=(3×AF_R)/(AF_R+AF_G+AF_B) (2)
β=(3×AF_G)/(AF_R+AF_G+AF_B) (3)
γ=(3×AF_B)/(AF_R+AF_G+AF_B) (4)
As represented by the following equations (2)-(4), the CPU 12 of the third modification example performs step S13 and step based on the focus evaluation values (AF_R, AF_G, AF_B) for each color component acquired in step S04. When the focus evaluation value is calculated in S15, the ratio of adding the three component focus evaluation values (AF_R, AF_G, AF_B) is varied to obtain a focus evaluation value for focus adjustment.
α = (3 × AF_R) / (AF_R + AF_G + AF_B) (2)
β = (3 × AF_G) / (AF_R + AF_G + AF_B) (3)
γ = (3 × AF_B) / (AF_R + AF_G + AF_B) (4)

変形例3のCPU12は、上式(2)−(4)によって算出されるα、β、γをそれぞれ上式(1)に代入することにより、変形例3による焦点評価値を算出する。変形例3によれば、追尾被写体Tの色特性に応じて各色成分の焦点評価値(AF_R,AF_G,AF_B)の加算比率を異ならせて焦点調節用の焦点評価値を得るようにしたから、たとえば、追尾被写体Tが赤っぽい場合はR成分の焦点評価値(AF_R)の比率が高まり、他の色成分の焦点評価値(AF_G,AF_B)の比率が低くなる。つまり、焦点評価値が高い色成分ほど、その色成分についての焦点評価値の比率を高める一方、焦点評価値が低い色成分については、その焦点評価値の比率を下げるようにする。これにより、追尾被写体Tの色成分に応じて適切に焦点調節を行うことができる。   The CPU 12 of the modified example 3 calculates the focus evaluation value according to the modified example 3 by substituting α, β, and γ calculated by the above equations (2) to (4) into the above equation (1), respectively. According to the third modification, the focus evaluation value for focus adjustment is obtained by changing the addition ratio of the focus evaluation values (AF_R, AF_G, AF_B) of the respective color components in accordance with the color characteristics of the tracking subject T. For example, when the tracking subject T is reddish, the ratio of the focus evaluation value (AF_R) of the R component increases, and the ratio of the focus evaluation values (AF_G, AF_B) of the other color components decreases. That is, the color component with a higher focus evaluation value increases the focus evaluation value ratio for the color component, while the color component with a lower focus evaluation value decreases the focus evaluation value ratio. Accordingly, it is possible to appropriately adjust the focus according to the color component of the tracking subject T.

(変形例4)
変形例3においては各色成分の焦点評価値(AF_R,AF_G,AF_B)に基づいて、これら各色成分の焦点評価値(AF_R,AF_G,AF_B)の加算比率を異ならせることにより、色成分別の重み付けを行った。この代わりに、各色成分の焦点評価値(AF_R,AF_G,AF_B)に基づいて、ステップS05において色成分ごとに検波フィルタ9のフィルタ特性を異ならせることにより、各色成分別の重み付けを行う構成にしてもよい。
(Modification 4)
In the third modification, weighting for each color component is performed by varying the addition ratio of the focus evaluation values (AF_R, AF_G, AF_B) of each color component based on the focus evaluation values (AF_R, AF_G, AF_B) of each color component. Went. Instead, based on the focus evaluation values (AF_R, AF_G, AF_B) of each color component, the filter characteristics of the detection filter 9 are made different for each color component in step S05, thereby performing weighting for each color component. Also good.

たとえば、追尾被写体Tが赤っぽい場合は、赤成分の焦点評価値(AF_R)の比率が高まる。この場合のCPU12は、ステップS05において色成分ごとに検波フィルタ9のフィルタ特性を異ならせる際、R成分に対する検波フィルタ9の低域遮断周波数を低くするとともに、G成分およびB成分に対する検波フィルタ9の低域遮断周波数を高くする。つまり、R成分については検波フィルタ9の低域遮断周波数を低くしてより低い周波数成分を焦点評価値に寄与させることにより、R成分の焦点評価値(AF_R)の比率を高める。一方、G成分およびB成分については検波フィルタ9の低域遮断周波数を高くしてなるべく低周波数成分を焦点評価値に寄与させないようにすることにより、G成分、B成分の焦点評価値(AF_G,AF_B)の比率を下げる。このような変形例4の構成とする場合も、追尾被写体Tの色成分に応じて適切に焦点調節を行うことができる。   For example, when the tracking subject T is reddish, the ratio of the focus evaluation value (AF_R) of the red component increases. In this case, when the CPU 12 varies the filter characteristics of the detection filter 9 for each color component in step S05, the CPU 12 lowers the low-frequency cutoff frequency of the detection filter 9 for the R component, and the detection filter 9 for the G component and the B component. Increase the low cut-off frequency. That is, for the R component, the ratio of the R component focus evaluation value (AF_R) is increased by lowering the low-frequency cutoff frequency of the detection filter 9 and contributing the lower frequency component to the focus evaluation value. On the other hand, for the G component and the B component, the low frequency cutoff frequency of the detection filter 9 is increased so that the low frequency component does not contribute to the focus evaluation value as much as possible, so that the focus evaluation values (AF_G, Reduce the AF_B) ratio. Also in the case of the configuration of the modification example 4, the focus adjustment can be appropriately performed according to the color component of the tracking subject T.

以上の説明は、一眼レフタイプでないAF電子カメラを例に説明したが、画像のコントラストを最大にするレンズ位置を求めて焦点調節を行うコントラスト検出方式の焦点調節を行うカメラであれば、一眼レフタイプの電子カメラにも本発明を適用することができる。   In the above description, an AF electronic camera that is not a single-lens reflex camera has been described as an example. The present invention can also be applied to a type of electronic camera.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…レンズユニット
2…撮像素子
2A…カラーフィルタ
3…A/D変換器
4…メモリ
9…検波フィルタ
10…積算回路
11…AF回路
12…CPU
DESCRIPTION OF SYMBOLS 1 ... Lens unit 2 ... Image pick-up element 2A ... Color filter 3 ... A / D converter 4 ... Memory 9 ... Detection filter 10 ... Integration circuit 11 ... AF circuit 12 ... CPU

Claims (7)

撮影光学系を通して被写界像を繰り返し撮像する撮像素子と、
前記撮像素子で得られた第1撮像信号から対象の画像の領域を認識する認識手段と、
前記第1撮像信号に基づいて前記対象の画像の領域に対応する第1焦点評価値を算出する算出手段と、
前記第1焦点評価値と露出演算によって得られる制御感度値との少なくとも1つに応じて、前記撮像素子で得られた第2撮像信号から所定帯域の周波数成分を除去する除去手段とを備えることを特徴とする電子カメラ。
An image sensor that repeatedly captures an object scene image through a photographing optical system;
Recognizing means for recognizing a region of a target image from a first imaging signal obtained by the imaging element;
Calculating means for calculating a first focus evaluation value corresponding to a region of the target image based on the first imaging signal;
Removing means for removing a frequency component of a predetermined band from the second imaging signal obtained by the imaging element according to at least one of the first focus evaluation value and a control sensitivity value obtained by exposure calculation; An electronic camera characterized by
請求項1に記載の電子カメラにおいて、
前記除去手段は、前記第1焦点評価値が高いほど、除去する周波数成分の帯域を高くすることを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera according to claim 1, wherein the removing unit increases a band of a frequency component to be removed as the first focus evaluation value is higher.
請求項1または2に記載の電子カメラにおいて、
前記除去手段は、前記制御感度値が高いほど、除去する周波数成分の帯域を低くすることを特徴とする電子カメラ。
The electronic camera according to claim 1 or 2,
The electronic camera according to claim 1, wherein the removing means lowers a frequency component band to be removed as the control sensitivity value is higher.
請求項1〜3のいずれか一項に記載の電子カメラにおいて、
前記撮像素子は、1つの画素に対応して配設される複数色の色フィルタを通して色成分ごとの撮像信号を出力し、
前記算出手段は、前記第2撮像信号の色成分ごとの撮像信号に基づいて前記対象の画像の領域に対応する第2焦点評価値を算出する際に、前記第1撮像信号の色成分ごとの撮像信号に応じて前記第2撮像信号の色成分ごとの撮像信号に重み付けを行うことを特徴とする電子カメラ。
In the electronic camera as described in any one of Claims 1-3,
The imaging element outputs an imaging signal for each color component through a plurality of color filters arranged corresponding to one pixel,
The calculating means calculates the second focus evaluation value corresponding to the region of the target image based on the imaging signal for each color component of the second imaging signal, for each color component of the first imaging signal. An electronic camera characterized by weighting an imaging signal for each color component of the second imaging signal in accordance with the imaging signal.
請求項4に記載の電子カメラにおいて、
前記算出手段は、前記第1撮像信号の色成分ごとの撮像信号に基づいて前記対象の画像の領域に対応する色ごとの前記第1焦点評価値を算出し、前記第2焦点評価値を算出する際に、前記色ごとの前記第1焦点評価値に基づいて重み付けを行うことを特徴とする電子カメラ。
The electronic camera according to claim 4,
The calculation means calculates the first focus evaluation value for each color corresponding to the region of the target image based on the imaging signal for each color component of the first imaging signal, and calculates the second focus evaluation value. In doing so, weighting is performed based on the first focus evaluation value for each color.
請求項5に記載の電子カメラにおいて、
前記算出手段は、前記色ごとの前記第1焦点評価値の高い色成分ほど前記重み付けの比率を高くすることを特徴とする電子カメラ。
The electronic camera according to claim 5,
The electronic camera according to claim 1, wherein the calculation unit increases the weighting ratio for a color component having a higher first focus evaluation value for each color.
請求項1〜6のいずれか一項に記載の電子カメラにおいて、
前記認識手段は、前記除去手段により前記所定帯域の周波数成分が除去された前記第2撮像信号から前記対象の画像の領域を認識し、
前記算出手段は、前記除去手段により前記所定帯域の周波数成分が除去された前記第2撮像信号に基づいて、前記対象の画像の領域に対応する第2焦点評価値を算出し、
前記第2焦点評価値に基づいて合焦制御を行う制御手段を備えることを特徴とする電子カメラ。
In the electronic camera as described in any one of Claims 1-6,
The recognizing unit recognizes a region of the target image from the second imaging signal from which the frequency component of the predetermined band has been removed by the removing unit;
The calculation means calculates a second focus evaluation value corresponding to a region of the target image based on the second imaging signal from which the frequency component of the predetermined band has been removed by the removal means,
An electronic camera comprising control means for performing focusing control based on the second focus evaluation value.
JP2009138941A 2009-06-10 2009-06-10 Electronic camera Active JP5597942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009138941A JP5597942B2 (en) 2009-06-10 2009-06-10 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009138941A JP5597942B2 (en) 2009-06-10 2009-06-10 Electronic camera

Publications (2)

Publication Number Publication Date
JP2010286577A true JP2010286577A (en) 2010-12-24
JP5597942B2 JP5597942B2 (en) 2014-10-01

Family

ID=43542336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009138941A Active JP5597942B2 (en) 2009-06-10 2009-06-10 Electronic camera

Country Status (1)

Country Link
JP (1) JP5597942B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182241A (en) * 2013-03-19 2014-09-29 Canon Inc Imaging apparatus
CN107847107A (en) * 2015-07-15 2018-03-27 索尼公司 Medical observation device and medical observational technique

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0414964A (en) * 1990-05-08 1992-01-20 Sharp Corp Automatic focus device
JP2004151609A (en) * 2002-11-01 2004-05-27 Fuji Photo Optical Co Ltd Autofocus system
JP2004325517A (en) * 2003-04-21 2004-11-18 Nikon Corp Imaging unit
JP2005156736A (en) * 2003-11-21 2005-06-16 Fujinon Corp Auto focus system
JP2005250402A (en) * 2004-03-08 2005-09-15 Kodak Digital Product Center Japan Ltd Imaging method and imaging device
JP2009098435A (en) * 2007-10-17 2009-05-07 Nikon Corp Focusing measurement device, method of focusing measurement and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0414964A (en) * 1990-05-08 1992-01-20 Sharp Corp Automatic focus device
JP2004151609A (en) * 2002-11-01 2004-05-27 Fuji Photo Optical Co Ltd Autofocus system
JP2004325517A (en) * 2003-04-21 2004-11-18 Nikon Corp Imaging unit
JP2005156736A (en) * 2003-11-21 2005-06-16 Fujinon Corp Auto focus system
JP2005250402A (en) * 2004-03-08 2005-09-15 Kodak Digital Product Center Japan Ltd Imaging method and imaging device
JP2009098435A (en) * 2007-10-17 2009-05-07 Nikon Corp Focusing measurement device, method of focusing measurement and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182241A (en) * 2013-03-19 2014-09-29 Canon Inc Imaging apparatus
CN107847107A (en) * 2015-07-15 2018-03-27 索尼公司 Medical observation device and medical observational technique

Also Published As

Publication number Publication date
JP5597942B2 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
WO2013021767A1 (en) Device and method for detecting moving objects
JP2007124398A (en) Photographing device
JP4645413B2 (en) Imaging device
JP2003307669A (en) Camera
JP5378283B2 (en) Imaging apparatus and control method thereof
JP6838894B2 (en) Focus control device, its control method and program
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
JP5092673B2 (en) Imaging apparatus and program thereof
JP4819318B2 (en) Method and apparatus for automatic focusing of camera
JP5048599B2 (en) Imaging device
JP4565370B2 (en) Electronic camera and autofocus control method
JP4692273B2 (en) Focus detection device and camera
US9922410B2 (en) Image processing apparatus and image processing method
JP2002207162A (en) Digital camera
JP5597942B2 (en) Electronic camera
JP2008185823A (en) Focus detector and camera
JP5387341B2 (en) Imaging device
JP5320937B2 (en) Focus detection apparatus and imaging apparatus
JP2006215105A (en) Imaging apparatus
JP2003107331A (en) Camera
JP2004309653A (en) Imaging unit
JP5345657B2 (en) Method and apparatus for automatic focusing of camera
JP2008283477A (en) Image processor, and image processing method
JP2007279694A (en) Automatic focusing device and photographing device
JP2006330160A (en) Autofocus camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

R150 Certificate of patent or registration of utility model

Ref document number: 5597942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250