JP2007286474A - Focus detector and photographing device - Google Patents

Focus detector and photographing device Download PDF

Info

Publication number
JP2007286474A
JP2007286474A JP2006115502A JP2006115502A JP2007286474A JP 2007286474 A JP2007286474 A JP 2007286474A JP 2006115502 A JP2006115502 A JP 2006115502A JP 2006115502 A JP2006115502 A JP 2006115502A JP 2007286474 A JP2007286474 A JP 2007286474A
Authority
JP
Japan
Prior art keywords
focus
saturation
evaluation value
signal
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006115502A
Other languages
Japanese (ja)
Inventor
Toshimi Watanabe
利巳 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006115502A priority Critical patent/JP2007286474A/en
Publication of JP2007286474A publication Critical patent/JP2007286474A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a focus detector capable of achieving improvement in focusing accuracy when a point light source exists. <P>SOLUTION: The focus detector, which calculates a focus evaluated value based on an imaging signal for each of a plurality of focus detection areas A1 to A5 respectively and calculates a focusing position based on the calculated focus evaluated value, is equipped with: a saturation decision means for deciding whether or not a saturation signal is included in the imaging signal for each of the focus detection areas A1 to A5; and a focusing position calculation means for calculating the focusing position based on the focus evaluated values of non-saturation focus detection areas A1, A2 and A5 decided as areas where the saturation signal is not included in the imaging signal by the saturation decision means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、焦点検出装置、および、その焦点検出装置を備える撮影装置に関する。   The present invention relates to a focus detection device and an imaging device including the focus detection device.

CCDなどの撮像素子を用いて被写体像を撮像し、その撮像信号に基づいてコントラスト法によりオートフォーカス(AF)を行うカメラが知られている(例えば、特許文献1参照)。   2. Description of the Related Art A camera that captures a subject image using an image sensor such as a CCD and performs autofocus (AF) by a contrast method based on the image signal is known (see, for example, Patent Document 1).

特開2004−246013号公報JP 2004-246013 A

しかしながら、AFエリアに点光源などの高輝度被写体があると、高輝度被写体に関する撮像信号が飽和して焦点評価値の信頼性が低下し、合焦位置を正しく検出できなくなる場合がある。   However, if there is a high-brightness subject such as a point light source in the AF area, the imaging signal related to the high-brightness subject is saturated, the reliability of the focus evaluation value is lowered, and the focus position may not be detected correctly.

請求項1の発明は、撮像信号に基づく焦点評価値を複数の焦点検出領域毎にそれぞれ算出し、算出された焦点評価値に基づいて合焦位置を算出する焦点検出装置に適用され、撮像信号に飽和信号が含まれているか否かを前記焦点検出領域毎に判定する飽和判定手段と、飽和判定手段により飽和信号が含まれていないと判定された非飽和焦点検出領域の焦点評価値に基づいて、合焦位置を算出する合焦位置算出手段とを備えたことを特徴とする。
請求項2の発明は、請求項1に記載の焦点検出装置において、非飽和焦点検出領域の焦点評価値に基づく合焦位置算出が不能であった場合に、飽和判定手段により飽和信号が含まれていると判定された飽和焦点検出領域の焦点評価値に基づいて、合焦位置を算出するようにしたものである。
請求項3の発明によるカメラは、請求項1または2に記載の焦点検出装置を備えたことを特徴とする。
The invention of claim 1 is applied to a focus detection device that calculates a focus evaluation value based on an imaging signal for each of a plurality of focus detection areas, and calculates a focus position based on the calculated focus evaluation value. Saturation determination means for determining whether or not a saturation signal is included for each focus detection area, and based on the focus evaluation value of the non-saturation focus detection area determined by the saturation determination means that the saturation signal is not included And an in-focus position calculating means for calculating an in-focus position.
According to a second aspect of the present invention, in the focus detection device according to the first aspect, when the focus position calculation based on the focus evaluation value of the non-saturated focus detection region is impossible, the saturation determination means includes a saturation signal. The in-focus position is calculated based on the focus evaluation value of the saturated focus detection area determined to be.
According to a third aspect of the present invention, a camera includes the focus detection apparatus according to the first or second aspect.

本発明によれば、非飽和焦点検出領域の焦点評価値に基づいて合焦動作を行うようにしたので、信頼性の低い飽和信号による影響を受けることなく合焦動作を行うことができ、合焦精度の向上を図ることができる。   According to the present invention, since the focusing operation is performed based on the focus evaluation value in the non-saturated focus detection area, the focusing operation can be performed without being affected by the saturation signal having low reliability. It is possible to improve the focusing accuracy.

以下、図を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態に係る撮影装置を説明する図である。図1はオートフォーカス(AF)電子カメラの要部構成を示すブロック図であり、電子カメラは、レンズユニット1と、撮像素子2と、A/D変換器3と、メモリ4と、画像処理回路5と、コントロール回路8と、CPU14と、モータ12と、フォーカス制御機構13とを備えている。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining a photographing apparatus according to an embodiment of the present invention. FIG. 1 is a block diagram showing the main configuration of an autofocus (AF) electronic camera. The electronic camera includes a lens unit 1, an image sensor 2, an A / D converter 3, a memory 4, and an image processing circuit. 5, a control circuit 8, a CPU 14, a motor 12, and a focus control mechanism 13.

レンズユニット1はフォーカスレンズを含んでおり、単一焦点距離(固定焦点)のレンズでも良いし、ズームレンズやステップズームレンズのように焦点可変のものでも良い。フォーカスレンズは、レンズユニット1を通過した被写体光が撮像素子2の撮像面上に結像するように、焦点位置を調節するレンズである。モータ12でフォーカス制御機構13を駆動することにより、フォーカスレンズが光軸方向に進退移動する。モータ12は、CPU14から出力されるレンズ駆動信号によって駆動される。   The lens unit 1 includes a focus lens, and may be a single focal length (fixed focus) lens, or may be a variable focus such as a zoom lens or a step zoom lens. The focus lens is a lens that adjusts the focal position so that the subject light that has passed through the lens unit 1 forms an image on the imaging surface of the imaging device 2. By driving the focus control mechanism 13 with the motor 12, the focus lens moves forward and backward in the optical axis direction. The motor 12 is driven by a lens driving signal output from the CPU 14.

撮像素子2は、例えば、二次元CCDイメージセンサなどによって構成される。撮像素子2は、撮像面上の被写体像を撮像し、各画素に対応する撮像信号を出力する。撮像素子2から出力される撮像信号は、各画素に入射される光の強さに応じてその信号レベルが異なる。本実施形態では撮像素子2としてCCD撮像素子を用いているが、CCDの代わりにCMOSセンサやCIDなどを用いて構成してもよい。コントロール回路8は、撮像素子2に対するタイミング信号を生成して撮像素子2へ送出する。   The image sensor 2 is configured by, for example, a two-dimensional CCD image sensor. The imaging element 2 captures a subject image on the imaging surface and outputs an imaging signal corresponding to each pixel. The image signal output from the image sensor 2 has a different signal level depending on the intensity of light incident on each pixel. In this embodiment, a CCD image pickup device is used as the image pickup device 2, but a CMOS sensor, a CID, or the like may be used instead of the CCD. The control circuit 8 generates a timing signal for the image sensor 2 and sends it to the image sensor 2.

撮像素子2から出力された撮像信号は、A/D変換器3によってディジタル信号に変換された後に、メモリ4に格納される。画像処理回路5は、メモリ4に格納された画像データに対して所定の方式(例えば、JPEG)で圧縮処理を施し、圧縮処理後の画像データを外部記憶回路6に記憶させる。画像処理回路5は、外部記憶回路6に記録されている圧縮データを読み出して伸長する際の伸長処理も行う。外部記憶回路6は、例えば、メモリカードなどのデータストレージ部材によって構成される。   The imaging signal output from the imaging device 2 is converted into a digital signal by the A / D converter 3 and then stored in the memory 4. The image processing circuit 5 performs compression processing on the image data stored in the memory 4 by a predetermined method (for example, JPEG), and stores the compressed image data in the external storage circuit 6. The image processing circuit 5 also performs decompression processing when the compressed data recorded in the external storage circuit 6 is read and decompressed. The external storage circuit 6 is configured by a data storage member such as a memory card, for example.

CPU14は、AE/AWB回路7と、バンドパスフィルタ9と、積算回路10と、AF回路11と、飽和判定部15とを含む。AE/AWB回路7は、周知の露出演算やホワイトバランス調整処理を行う。ホワイトバランス調整処理は、メモリ4に格納されている画像データに対して行われる。   The CPU 14 includes an AE / AWB circuit 7, a band pass filter 9, an integration circuit 10, an AF circuit 11, and a saturation determination unit 15. The AE / AWB circuit 7 performs known exposure calculation and white balance adjustment processing. The white balance adjustment process is performed on the image data stored in the memory 4.

CPU14はコントロール回路8およびメモリ4などと接続され、電子カメラの焦点検出(AF)や測光(AE)、ホワイトバランス調整(AWB)などの各種演算とカメラ動作のシーケンス制御とを行う。CPU14には、不図示の操作部材から各種操作信号が入力される。CPU14は、操作部材から入力される操作信号に応じて、電子カメラの焦点検出制御、露出制御、カラーバランス制御などを総括的に管理する。   The CPU 14 is connected to the control circuit 8 and the memory 4 and performs various calculations such as focus detection (AF), photometry (AE), white balance adjustment (AWB) of the electronic camera, and sequence control of the camera operation. Various operation signals are input to the CPU 14 from an operation member (not shown). The CPU 14 comprehensively manages focus detection control, exposure control, color balance control, and the like of the electronic camera according to operation signals input from the operation member.

バンドパスフィルタ9は、メモリ4に格納されている画像処理前の画像データのうち、焦点検出用領域(フォーカスエリア)に対応する撮像領域の画像データから高周波数成分を抽出するフィルタである。バンドパスフィルタ9によるフィルタ処理後の画像データは、フィルタ処理前の画像データに比べて、低周波数成分、特に、直流成分が除去されている。本実施の形態のカメラでは、図2に示すように被写界内に複数のフォーカスエリアA1〜A5が設定されており、バンドパスフィルタ9はフォーカスエリア毎にフィルタ処理を行う。   The band pass filter 9 is a filter that extracts a high frequency component from image data of an imaging region corresponding to a focus detection region (focus area) among image data before image processing stored in the memory 4. The image data after the filter processing by the bandpass filter 9 has a low frequency component, particularly a direct current component, removed compared to the image data before the filter processing. In the camera of the present embodiment, as shown in FIG. 2, a plurality of focus areas A1 to A5 are set in the object scene, and the bandpass filter 9 performs filter processing for each focus area.

積算回路10は、バンドパスフィルタ9でフィルタ処理した後の画像データに基づく積算処理を行う。AF回路11は、積算回路10による積算値に基づいて焦点評価値を得る。飽和判定部15は、メモリ4から各AFエリアA1〜A5の画像データを読み込み、輝度信号が飽和レベル以上か否かを判定する。本実施の形態では、バンドパスフィルタ9,積算回路10によるフィルタ処理および積算処理をCPU14によるソフトウェアで処理しているが、これらの機能をハードウェアで実現するように構成しても良い。   The integrating circuit 10 performs an integrating process based on the image data that has been filtered by the bandpass filter 9. The AF circuit 11 obtains a focus evaluation value based on the integrated value obtained by the integrating circuit 10. The saturation determination unit 15 reads the image data of each of the AF areas A1 to A5 from the memory 4 and determines whether or not the luminance signal is equal to or higher than the saturation level. In the present embodiment, the filter processing and integration processing by the bandpass filter 9 and the integration circuit 10 are processed by software by the CPU 14, but these functions may be realized by hardware.

図3は、フォーカスレンズの位置と焦点評価値との関係の一例を示す図である。図3において、横軸はフォーカスレンズの位置であり、縦軸は焦点評価値である。焦点評価値が最大となるレンズ位置D1は、被写体に対するフォーカスレンズの合焦位置である。ところで、図2に示すように、ツリーに飾られたライトのような点光源L1がAFエリア内にあると、点光源L1を撮像している画素からの出力が飽和してしまう場合がある。その場合、取得される焦点評価値のプロファイルは図4に示す曲線41のようになる。   FIG. 3 is a diagram illustrating an example of the relationship between the position of the focus lens and the focus evaluation value. In FIG. 3, the horizontal axis is the position of the focus lens, and the vertical axis is the focus evaluation value. The lens position D1 where the focus evaluation value is maximized is the focus position of the focus lens with respect to the subject. By the way, as shown in FIG. 2, when a point light source L1 such as a light adorned with a tree is in the AF area, the output from the pixel capturing the point light source L1 may be saturated. In that case, the profile of the acquired focus evaluation value becomes a curve 41 shown in FIG.

曲線41で示すように、本来の合焦レンズ位置D1における焦点評価値は減少し、その前後のレンズ位置に焦点評価値のピークが現れる。そのため、最至近優先でAFを行う場合、至近側のピーク位置D2が主要被写体S1よりも至近側であると、ピーク位置D2を合焦位置と誤判定してしまうおそれがあった。本実施の形態では、このような不具合を回避できるようなアルゴリズムで合焦判定を行うようにした。   As shown by the curve 41, the focus evaluation value at the original focusing lens position D1 decreases, and the peak of the focus evaluation value appears at the lens positions before and after that. Therefore, when performing AF with the closest focus, if the close peak position D2 is closer to the main subject S1, the peak position D2 may be erroneously determined as the in-focus position. In the present embodiment, focus determination is performed using an algorithm that can avoid such a problem.

《AF処理の説明》
図5は、本実施の形態におけるAF動作の一例を示すフローチャートであり、CPU14で行われるAF処理を示している。図5による処理は、例えば、不図示のレリーズスイッチから半押し操作信号がCPU14に入力されると開始される。ステップ#1において、AF処理に必要なデータやフラグ類を初期化する。フラグの一例としては、AFエリアが飽和していることを示す飽和フラグがある。
<Description of AF processing>
FIG. 5 is a flowchart showing an example of the AF operation in the present embodiment, and shows an AF process performed by the CPU 14. The process shown in FIG. 5 is started, for example, when a half-press operation signal is input to the CPU 14 from a release switch (not shown). In step # 1, data and flags necessary for AF processing are initialized. An example of the flag is a saturation flag indicating that the AF area is saturated.

ステップ#2では、合焦動作を行う際のサーチ初期値の設定を行う。サーチ初期値としては、フォーカスレンズのサーチ開始位置およびサーチ終了位置、サーチ時のレンズ移動速度などがある。なお、サーチ開始位置からサーチ終了位置までのフォーカスレンズの移動時間は、移動速度によって決定される。図6はサーチ動作におけるレンズ位置を示す図であり、縦軸はレンズ位置を、横軸は時間を表している。図6のサーチ動作におけるサンプリング点(図の黒丸)の数はレンズ移動速度に依存し、レンズ移動速度を遅くすると、サンプリング点の数が多くなる。   In step # 2, a search initial value for performing a focusing operation is set. The search initial value includes a search start position and a search end position of the focus lens, a lens moving speed during the search, and the like. Note that the movement time of the focus lens from the search start position to the search end position is determined by the movement speed. FIG. 6 is a diagram showing the lens position in the search operation, where the vertical axis represents the lens position and the horizontal axis represents time. The number of sampling points (black circles in the figure) in the search operation of FIG. 6 depends on the lens moving speed. If the lens moving speed is slowed down, the number of sampling points increases.

また、本実施の形態では、図6に示すようにサーチ開始位置を至近端に、サーチ終了位置を無限(∞)端にそれぞれ設定する。なお、サーチ開始位置を無限端に、サーチ終了位置を至近端に設定しても良いし、AF動作開始時のレンズ位置や撮影モードに応じて最適な値に設定するようにしても良い。ステップ#3において、CPU14はモータ12に駆動信号を出力し、レンズユニット1のフォーカスレンズ(不図示)をサーチ開始位置(至近端)に移動させる。   Further, in the present embodiment, as shown in FIG. 6, the search start position is set at the nearest end and the search end position is set at the infinite (∞) end. Note that the search start position may be set to the infinite end and the search end position may be set to the close end, or may be set to an optimum value according to the lens position and the shooting mode at the start of the AF operation. In step # 3, the CPU 14 outputs a drive signal to the motor 12, and moves the focus lens (not shown) of the lens unit 1 to the search start position (closest end).

続くステップ#4からステップ#7までが、サーチ動作の処理を示している。ステップ#4では、メモリ4に記憶された画像データに基づいて、各AFエリアA1〜A5の焦点評価値を算出する。算出された焦点評価値は、評価値履歴として画像データ取得時のレンズ位置と関連付けられてAFエリアA1〜A5毎に記憶される。   Subsequent steps # 4 to # 7 show the processing of the search operation. In step # 4, the focus evaluation values of the AF areas A1 to A5 are calculated based on the image data stored in the memory 4. The calculated focus evaluation value is stored as an evaluation value history for each of the AF areas A1 to A5 in association with the lens position at the time of image data acquisition.

なお、本実施の形態では、一旦メモリ4に格納した画像データを、CPU14に読み込んで評価値を計算するようにしているが、A/D変換器3から出力された画像データを逐次バンドパスフィルタ9へ送り、データ転送と同時に評価値を算出するようにしても良い。逐次バンドパスフィルタ9にデータ転送する構成とすることにより、メモリ4に一旦記憶する場合に比べて、評価値の計算遅れを低減することができる。   In this embodiment, the image data once stored in the memory 4 is read into the CPU 14 and the evaluation value is calculated. However, the image data output from the A / D converter 3 is sequentially converted into a bandpass filter. The evaluation value may be calculated simultaneously with the data transfer. By adopting a configuration in which data is sequentially transferred to the band-pass filter 9, it is possible to reduce evaluation value calculation delay as compared with a case where data is temporarily stored in the memory 4.

ステップ#5では、メモリ4に記憶された画像データに基づく飽和判定をAFエリアA1〜A5毎に行う。飽和判定部15は、AFエリア内の輝度信号を求め、輝度信号の最大値が予め設定された飽和レベル以上か否かを判定する。飽和レベル以上と判定された場合には、飽和フラグを立てる。飽和レベルとしては、例えば、輝度信号が12BitでAD変換されている場合には、信号レベル3800を飽和レベルとして設定すれば良い。   In step # 5, saturation determination based on the image data stored in the memory 4 is performed for each of the AF areas A1 to A5. The saturation determination unit 15 obtains a luminance signal in the AF area and determines whether or not the maximum value of the luminance signal is equal to or higher than a preset saturation level. If it is determined that the saturation level is exceeded, a saturation flag is set. As the saturation level, for example, when the luminance signal is AD-converted with 12 bits, the signal level 3800 may be set as the saturation level.

飽和判定レベルは撮像素子2の特性により最適な値に設定する。例えば、撮像素子2がCCDのとき、各画素の出力の加算方法が異なる転送方式を設定可能な場合がある。転送方式によって飽和電荷量が異なる場合には飽和判定レベルも異なるので、このような場合には転送方式に応じて、飽和レベルを個別に判定するようにしても良い。   The saturation determination level is set to an optimum value depending on the characteristics of the image sensor 2. For example, when the image sensor 2 is a CCD, there may be a case where a transfer method in which the output addition method of each pixel is different can be set. When the saturation charge amount varies depending on the transfer method, the saturation determination level also varies. In such a case, the saturation level may be individually determined according to the transfer method.

ステップ#6では、ステップ#2で設定した移動速度でフォーカスレンズを移動させる。ステップ#7では、フォーカスレンズのレンズ位置がステップ#2で設定したサーチ終了位置に達したか否かを判定し、達したと判定されるとステップ#8へ進み、達していないと判定されるとステップ#4へ戻ってサーチ動作を継続する。   In step # 6, the focus lens is moved at the moving speed set in step # 2. In step # 7, it is determined whether or not the lens position of the focus lens has reached the search end position set in step # 2. If it is determined that the lens has reached, the process proceeds to step # 8, and is determined not to have been reached. Returning to step # 4, the search operation is continued.

ステップ#8では、飽和エリアの判定を行う。すなわち、各AFエリアA1〜A5に関して、飽和フラグが立っているか否かを判定し、飽和フラグが立っているAFエリアを飽和エリアと判定する。例えば、図2に示す例では、点光源L1が含まれているAFエリアA3,A4が飽和エリアと判定される。   In step # 8, a saturated area is determined. That is, for each of the AF areas A1 to A5, it is determined whether a saturation flag is set, and the AF area where the saturation flag is set is determined as a saturation area. For example, in the example shown in FIG. 2, the AF areas A3 and A4 including the point light source L1 are determined as the saturation areas.

上述した飽和フラグを立てるステップ#5の処理は、サーチ動作中の各サンプリング点で各々行われるので、本実施の形態の場合には、複数のサンプリングのいずれか一つにおいて輝度信号の最大値が飽和レベル以上と判定されると、そのAFエリアは飽和エリアと判定されることになる。なお、サーチ動作中に1回でも輝度信号の最大値が飽和レベル以上となったならば、飽和エリアと判定する代わりに、飽和レベル以上となる回数が所定回数以上の場合に飽和エリアと判定しても良い。   Since the above-described processing of step # 5 for setting the saturation flag is performed at each sampling point during the search operation, in the case of the present embodiment, the maximum value of the luminance signal in any one of the plurality of samplings. If it is determined that the level is equal to or higher than the saturation level, the AF area is determined to be a saturated area. If the maximum value of the luminance signal is equal to or higher than the saturation level even once during the search operation, instead of determining as the saturated area, it is determined as the saturated area when the number of times exceeding the saturation level is equal to or greater than the predetermined number. May be.

ステップ#9では、ステップ#4で取得したAFエリア毎の評価値履歴に基づいて、各AFエリアA1〜A5の合焦位置PosIF Area[A1]〜PosIF Area[A5]を算出する。ステップ#10では、ステップ#8における飽和エリアの判定に基づいて、飽和エリアでないAFエリアA1,A2,A5で構成される優先1グループと、飽和エリアと判定されたAFエリアA3,A4で構成される優先2グループとにグループ分けする。   In Step # 9, based on the evaluation value history for each AF area acquired in Step # 4, the in-focus positions PosIF Area [A1] to PosIF Area [A5] of the AF areas A1 to A5 are calculated. In step # 10, based on the determination of the saturated area in step # 8, it is composed of one priority group composed of AF areas A1, A2, and A5 that are not saturated areas, and AF areas A3 and A4 determined as saturated areas. Into two priority groups.

ステップ#11では、ステップ#10のグループ分けに従って最終的な合焦位置PosInfocusを算出する。図7は、ステップ#11の詳細処理を示すフローチャートである。最終合焦位置PosInfocusの決定に際して、優先1グループは優先2グループよりも高い優先順位を持つ。ステップ#101では、優先1グループに含まれる全てのAFエリアA1,A2,A5に関して合焦位置の検出が不能か否かを調べ、全てのAFエリアが検出不能となっているか否かを判定する。例えば、AFエリアの焦点評価値のピーク値が合焦とみなせる閾値よりも小さかったり、焦点評価値の最大値と最小値との差が所定値より小さかったりした場合には、そのAFエリアは検出不能とされる。   In step # 11, the final in-focus position PosInfocus is calculated according to the grouping in step # 10. FIG. 7 is a flowchart showing the detailed process of step # 11. In determining the final focus position PosInfocus, the priority 1 group has a higher priority than the priority 2 group. In step # 101, it is checked whether or not the focus position can be detected for all the AF areas A1, A2, and A5 included in the priority group 1, and it is determined whether or not all the AF areas cannot be detected. . For example, when the peak value of the focus evaluation value of the AF area is smaller than a threshold that can be regarded as in-focus, or the difference between the maximum value and the minimum value of the focus evaluation value is smaller than a predetermined value, the AF area is detected. Impossible.

ステップ#101において全て検出不能と判定されるとステップ#103へ進み、優先1グループに含まれるいずれかのAFエリアにおいて合焦位置が検出可能な場合にはステップ#102へ進む。ステップ#102へ進んだ場合、各AFエリアA1,A2,A5の合焦位置の内で最も至近側にある合焦位置を最終合焦位置PosInfocusに設定する。   If it is determined in step # 101 that all cannot be detected, the process proceeds to step # 103. If the in-focus position can be detected in any AF area included in the priority group 1, the process proceeds to step # 102. When the process proceeds to step # 102, the closest focus position among the focus positions of the AF areas A1, A2, and A5 is set as the final focus position PosInfocus.

一方、ステップ#101で全て検出不能と判定されてステップ#103へ進んだ場合には、ステップ#103において、優先2グループに含まれる全てのAFエリアA3,A4に関して合焦位置の検出が不能か否かを調べ、全てのAFエリアが検出不能となっているか否かを判定する。なお、優先2グループに含まれるAFエリアA3,A4には点光源L1が含まれているので、図4に示すように本来の合焦位置の両側にピークが生じる場合がある。そのような場合には、高い方のピーク(レンズ位置D2)に対して上述したような検出不能判定を行う。   On the other hand, if it is determined in step # 101 that it is all undetectable and the process proceeds to step # 103, it is impossible to detect the in-focus position for all AF areas A3 and A4 included in the priority 2 group in step # 103. It is determined whether or not all AF areas are undetectable. Since the AF areas A3 and A4 included in the priority 2 group include the point light source L1, peaks may occur on both sides of the original in-focus position as shown in FIG. In such a case, the undetectable determination as described above is performed for the higher peak (lens position D2).

ステップ#103で全て検出不能と判定されるとステップ#105へ進み、優先2グループに含まれるいずれかのAFエリアA3,A4において合焦位置が検出可能な場合にはステップ#104へ進む。ステップ#104では、優先2グループのAFエリアA3,A4の検出可能とされる合焦位置の内で、最も至近側にある合焦位置を最終合焦位置PosInfocusに設定する。この場合、優先1グループと同様の方法で各AFエリアの合焦位置を算出するようにしても良いし、本発明者による出願特許(特開2004−246013号公報)に記載されているような飽和信号を考慮した方法で合焦位置を算出するようにしても良い。   If it is determined in step # 103 that all cannot be detected, the process proceeds to step # 105, and if the in-focus position can be detected in any of the AF areas A3 and A4 included in the priority 2 group, the process proceeds to step # 104. In step # 104, the closest focus position among the focus positions where the AF areas A3 and A4 of the priority two groups can be detected is set as the final focus position PosInfocus. In this case, the focus position of each AF area may be calculated by the same method as that for the priority 1 group, or as described in the patent application (Japanese Patent Application Laid-Open No. 2004-246013) filed by the present inventor. The focus position may be calculated by a method that takes into account the saturation signal.

ここでは、点光源L1を含み飽和信号が存在するAFエリアA3,A4における合焦位置の算出方法について、概略の説明を行う。飽和信号が存在するAFエリアに関しては、上述した焦点評価値(ここでは、焦点評価値AFv1記す)と共に、バンドパスフィルタ9を通さない撮像信号を積算処理して得られる第2の評価値AFv2を用いて、各AFエリア毎の合焦位置を算出する。   Here, an outline of the method for calculating the in-focus position in the AF areas A3 and A4 including the point light source L1 and where the saturation signal exists will be described. For the AF area where the saturation signal exists, the second evaluation value AFv2 obtained by integrating the image pickup signal that does not pass through the bandpass filter 9 is used together with the focus evaluation value (here, the focus evaluation value AFv1) described above. Using this, the focus position for each AF area is calculated.

評価値AFv2は、上述したサーチ動作処理の際に焦点評価値AFv1と同一タイミングで取得され、記憶される。図4の曲線42は評価値AFv2のプロファイルを示したものであり、合焦位置D1において極小を有している。さらに、サンプリング点毎に評価値AFv2と焦点評価値AFv1との差分Δ=AFv2−AFv1を求め、それらの差分Δの中から最大値のものを選びΔmaxとする。そして、最大値Δmaxと各差分Δとの差を、評価値AFv3(=Δmax−Δ)とする。この評価値AFv3が極大となるレンズ位置は合焦位置D1と一致するので、評価値AFv3が極大となるレンズ位置(合焦位置)を各AFエリアA3,A4に関して算出する。そして、これらの合焦位置の内で、最も至近側にある合焦位置を最終合焦位置PosInfocusに設定する。   The evaluation value AFv2 is acquired and stored at the same timing as the focus evaluation value AFv1 during the search operation process described above. A curve 42 in FIG. 4 shows a profile of the evaluation value AFv2, and has a minimum at the in-focus position D1. Further, a difference Δ = AFv2−AFv1 between the evaluation value AFv2 and the focus evaluation value AFv1 is obtained for each sampling point, and the maximum value is selected from these differences Δ and set as Δmax. Then, a difference between the maximum value Δmax and each difference Δ is set as an evaluation value AFv3 (= Δmax−Δ). Since the lens position at which the evaluation value AFv3 is maximum coincides with the focus position D1, the lens position (focus position) at which the evaluation value AFv3 is maximum is calculated for each AF area A3, A4. Then, among these focusing positions, the closest focusing position is set as the final focusing position PosInfocus.

また、飽和信号が存在するAFエリアA3,A4を一つのエリアとみなして、その中で最至近合焦位置を求めるようにしても良い。この場合の差分Δは、Δ=ΣAFv2−ΣAFv1で算出される。Σは、AFエリアA3の評価値およびAFエリアA4の評価値に関して和を取る。   Alternatively, the AF areas A3 and A4 where the saturation signal exists may be regarded as one area, and the closest focus position may be obtained. The difference Δ in this case is calculated as Δ = ΣAFv2−ΣAFv1. Σ is summed with respect to the evaluation value of the AF area A3 and the evaluation value of the AF area A4.

一方、ステップ#103において全て検出不能と判定されてステップ#105へ進んだ場合には、ステップ#105において、予め決められた所定位置を最終合焦位置PosInfocusに設定する。所定位置はズーム位置や輝度に応じて変化させても良く、例えば、被写体距離2m程度に選ばれる。   On the other hand, if it is determined in step # 103 that all cannot be detected and the process proceeds to step # 105, a predetermined position determined in advance is set as the final focus position PosInfocus in step # 105. The predetermined position may be changed according to the zoom position and the brightness, and is selected, for example, as a subject distance of about 2 m.

図5に戻って、ステップ#12では、モータ12を駆動して、フォーカスレンズをステップ#11で算出された最終合焦位置PosInfocusへ移動し、図5に示す合焦動作処理を終了する。   Returning to FIG. 5, in step # 12, the motor 12 is driven to move the focus lens to the final focusing position PosInfocus calculated in step # 11, and the focusing operation process shown in FIG. 5 is ended.

以上説明した実施の形態においては、次のような作用効果を奏する。
(1)撮像信号に飽和信号が含まれているか否かを焦点検出領域A1〜A5毎に判定し、飽和信号が含まれていないと判定された非飽和焦点検出領域A1,A2,A5の焦点評価値に基づいて、合焦動作を行うようにした。すなわち、焦点検出領域A1,A2,A5毎に合焦位置を算出し、それらの内で最至近側の合焦位置を最終合焦位置PosInfocusとしたので、信頼性の低い飽和信号による影響を受けることなく合焦動作を行うことができ、合焦精度の向上を図ることができる。
(2)また、非飽和焦点検出領域A1,A2,A5の焦点評価値に基づく合焦位置算出が不能であった場合には、飽和信号が含まれていると判定された飽和焦点検出領域A3,Aの焦点評価値に基づいて、合焦位置を算出するようにしたので、合焦不能という事態が発生するのを極力避けることができる。
The embodiment described above has the following operational effects.
(1) It is determined for each focus detection region A1 to A5 whether or not a saturation signal is included in the imaging signal, and the focus of the unsaturated focus detection regions A1, A2, and A5 determined as not including the saturation signal. Based on the evaluation value, the focusing operation was performed. That is, the focus position is calculated for each of the focus detection areas A1, A2, and A5, and the closest focus position among them is set as the final focus position PosInfocus. Therefore, the focus position is affected by a low-reliability saturation signal. The focusing operation can be performed without any problem, and the focusing accuracy can be improved.
(2) When the focus position calculation based on the focus evaluation values of the non-saturated focus detection areas A1, A2, and A5 is impossible, the saturated focus detection area A3 that is determined to contain a saturation signal. , A based on the focus evaluation value of A, the in-focus position is calculated, so that it is possible to avoid the occurrence of the in-focus situation as much as possible.

なお、上述した実施の形態では、カメラを例に説明したが、本発明はカメラに限らず種々の撮影装置に適用することができる。また、本発明の特徴を損なわない限り、本発明は上記実施の形態に何ら限定されるものではない。   In the above-described embodiment, the camera has been described as an example. However, the present invention is not limited to the camera and can be applied to various photographing apparatuses. In addition, the present invention is not limited to the above embodiment as long as the characteristics of the present invention are not impaired.

本発明の一実施の形態に係るカメラを説明する図である。It is a figure explaining the camera which concerns on one embodiment of this invention. 画面上のAFエリアA1〜A5と主要被写体S1および点光源L1との関係を示す図である。It is a figure which shows the relationship between AF area A1-A5 on a screen, main to-be-photographed object S1, and point light source L1. フォーカスレンズの位置と焦点評価値との関係の一例を示す図である。It is a figure which shows an example of the relationship between the position of a focus lens, and a focus evaluation value. 飽和信号がある場合の焦点評価値AFv1および評価値AFv2を示す図である。It is a figure which shows focus evaluation value AFv1 and evaluation value AFv2 in case there exists a saturation signal. 本実施の形態におけるAF動作の一例を示すフローチャートである。It is a flowchart which shows an example of AF operation | movement in this Embodiment. サーチ動作におけるレンズ位置を示す図である。It is a figure which shows the lens position in search operation | movement. 図5のステップ#11の詳細動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of step # 11 of FIG.

符号の説明Explanation of symbols

1:レンズユニット、2:撮像素子、3:A/D変換器、4:メモリ、9:バンドパスフィルタ、10:積算回路、11:AF回路、14:CPU、15:飽和判定部、A1〜A5:AFエリア、L1:点光源   1: Lens unit, 2: Image sensor, 3: A / D converter, 4: Memory, 9: Band pass filter, 10: Integration circuit, 11: AF circuit, 14: CPU, 15: Saturation determination unit, A1 to A1 A5: AF area, L1: Point light source

Claims (3)

撮像信号に基づく焦点評価値を複数の焦点検出領域毎にそれぞれ算出し、前記算出された焦点評価値に基づいて合焦位置を算出する焦点検出装置において、
前記撮像信号に飽和信号が含まれているか否かを前記焦点検出領域毎に判定する飽和判定手段と、
前記飽和判定手段により飽和信号が含まれていないと判定された非飽和焦点検出領域の焦点評価値に基づいて、合焦位置を算出する合焦位置算出手段とを備えたことを特徴とする焦点検出装置。
In a focus detection device that calculates a focus evaluation value based on an imaging signal for each of a plurality of focus detection regions, and calculates a focus position based on the calculated focus evaluation value.
Saturation determination means for determining for each focus detection region whether or not a saturation signal is included in the imaging signal;
A focus position calculating means for calculating a focus position based on a focus evaluation value of a non-saturated focus detection area determined by the saturation determination means as not containing a saturation signal. Detection device.
請求項1に記載の焦点検出装置において、
前記合焦位置算出手段は、前記非飽和焦点検出領域の焦点評価値に基づく合焦位置算出が不能であった場合に、前記飽和判定手段により飽和信号が含まれていると判定された飽和焦点検出領域の焦点評価値に基づいて、合焦位置を算出することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The in-focus position calculation means is a saturated focus that is determined by the saturation determination means to include a saturation signal when the in-focus position calculation based on the focus evaluation value of the non-saturation focus detection area is impossible. A focus detection apparatus that calculates a focus position based on a focus evaluation value of a detection area.
請求項1または2に記載の焦点検出装置を備えたことを特徴とする撮影装置。   An imaging apparatus comprising the focus detection apparatus according to claim 1.
JP2006115502A 2006-04-19 2006-04-19 Focus detector and photographing device Pending JP2007286474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006115502A JP2007286474A (en) 2006-04-19 2006-04-19 Focus detector and photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006115502A JP2007286474A (en) 2006-04-19 2006-04-19 Focus detector and photographing device

Publications (1)

Publication Number Publication Date
JP2007286474A true JP2007286474A (en) 2007-11-01

Family

ID=38758273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006115502A Pending JP2007286474A (en) 2006-04-19 2006-04-19 Focus detector and photographing device

Country Status (1)

Country Link
JP (1) JP2007286474A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079201A (en) * 2008-09-29 2010-04-08 Nikon Corp Focus detecting device, and image capturing apparatus
JP2010243899A (en) * 2009-04-08 2010-10-28 Canon Inc Focus detecting device and method, and imaging device
US20100315514A1 (en) * 2009-06-15 2010-12-16 Akihiro Uchida Imaging apparatus and imaging control method
EP2613518A1 (en) * 2012-01-06 2013-07-10 Hitachi Ltd. Video signal processing apparatus
JP2013160919A (en) * 2012-02-06 2013-08-19 Hitachi Ltd Image signal processing device and image signal processing method
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
CN104853087A (en) * 2015-03-16 2015-08-19 浙江宇视科技有限公司 Identification and focusing method for point light source scene
JP2016061798A (en) * 2014-09-12 2016-04-25 キヤノン株式会社 Automatic focusing apparatus and automatic focusing method
JP2016126046A (en) * 2014-12-26 2016-07-11 オリンパス株式会社 Focal point detecting device and focal point detecting method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079201A (en) * 2008-09-29 2010-04-08 Nikon Corp Focus detecting device, and image capturing apparatus
JP2010243899A (en) * 2009-04-08 2010-10-28 Canon Inc Focus detecting device and method, and imaging device
US20100315514A1 (en) * 2009-06-15 2010-12-16 Akihiro Uchida Imaging apparatus and imaging control method
US8243191B2 (en) * 2009-06-15 2012-08-14 Fujifilm Corporation Imaging apparatus and imaging control method for focusing by determining a focusing position
CN103200361B (en) * 2012-01-06 2016-04-06 日立产业控制解决方案有限公司 Image signal processing apparatus
US9172863B2 (en) * 2012-01-06 2015-10-27 Hitachi Industry & Control Solutions, Ltd. Video signal processing apparatus
JP2013140297A (en) * 2012-01-06 2013-07-18 Hitachi Ltd Image signal processor
CN103200361A (en) * 2012-01-06 2013-07-10 株式会社日立制作所 Video signal processing apparatus
US20140016020A1 (en) * 2012-01-06 2014-01-16 Hitachi, Ltd. Video signal processing apparatus
EP2613518A1 (en) * 2012-01-06 2013-07-10 Hitachi Ltd. Video signal processing apparatus
JP2013160919A (en) * 2012-02-06 2013-08-19 Hitachi Ltd Image signal processing device and image signal processing method
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
US9621786B2 (en) 2012-05-17 2017-04-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
US10021290B2 (en) 2012-05-17 2018-07-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
JP2016061798A (en) * 2014-09-12 2016-04-25 キヤノン株式会社 Automatic focusing apparatus and automatic focusing method
JP2016126046A (en) * 2014-12-26 2016-07-11 オリンパス株式会社 Focal point detecting device and focal point detecting method
CN104853087A (en) * 2015-03-16 2015-08-19 浙江宇视科技有限公司 Identification and focusing method for point light source scene
WO2016146021A1 (en) * 2015-03-16 2016-09-22 浙江宇视科技有限公司 Focusing method of scene of point light source
US9979875B2 (en) 2015-03-16 2018-05-22 Zhejiang Uniview Technologies Co., Ltd Focusing for point light source scene

Similar Documents

Publication Publication Date Title
US7382411B2 (en) Method for focus adjusting and camera
JP2007286474A (en) Focus detector and photographing device
JP4647885B2 (en) camera
JP4265233B2 (en) camera
JP2007108412A (en) Autofocus device and its program
JP2004325517A (en) Imaging unit
JP2004361484A (en) Autofocus camera
JP4692273B2 (en) Focus detection device and camera
JP2006195037A (en) Camera
WO2002099497A1 (en) Device for determining focused state of taking lens
JP2009098167A (en) Imaging device and program of the same
JP2008185823A (en) Focus detector and camera
JP2011090143A (en) Focal point detecting device and camera
JP2008176113A (en) Focus detecting device and camera
JP2007256463A (en) Automatic focusing device and camera
JP4902946B2 (en) Auto focus camera
US20140168467A1 (en) Focus adjustment apparatus and method, and image capturing apparatus
JP2006262221A (en) Imaging apparatus and image processing method
JP2006330160A (en) Autofocus camera
JP5320937B2 (en) Focus detection apparatus and imaging apparatus
JP4967930B2 (en) Focus detection device
JP5597942B2 (en) Electronic camera
JP4595390B2 (en) camera
JP2009237327A (en) Focusing device and focus control method
JP6191131B2 (en) Imaging device