JP2010224058A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2010224058A
JP2010224058A JP2009069058A JP2009069058A JP2010224058A JP 2010224058 A JP2010224058 A JP 2010224058A JP 2009069058 A JP2009069058 A JP 2009069058A JP 2009069058 A JP2009069058 A JP 2009069058A JP 2010224058 A JP2010224058 A JP 2010224058A
Authority
JP
Japan
Prior art keywords
focus position
evaluation value
image
focus
position calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009069058A
Other languages
Japanese (ja)
Inventor
Yoshinori Nagayama
佳範 永山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009069058A priority Critical patent/JP2010224058A/en
Publication of JP2010224058A publication Critical patent/JP2010224058A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately calculate a focusing position, in an imaging apparatus that adopts a contrast AF system. <P>SOLUTION: The imaging apparatus includes: an imaging device 101 which picks up an image by receiving subject light transmitted through a focus lens 201; an AF evaluated value arithmetic calculating section 107 which arithmetically calculates an AF evaluated value by using the image picked up by the imaging device 101; and a focusing position arithmetic calculating section 108, which arithmetically calculates the focusing position using a plurality of results by the AF evaluated value arithmetic calculating section 107 and is further provided with a focusing position arithmetic calculation start decision section 109 which decides significance of the result by the AF evaluated value arithmetic calculation section 107, based on subject information arithmetically calculated from the picked-up image from the imaging device 101 and makes a decision, to start the arithmetic calculation to the focusing position arithmetic calculation section 108, when there is significance. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置に関し、特に、撮像装置におけるオートフォーカス(以下、AFと略記する)技術に関する。   The present invention relates to an imaging apparatus, and more particularly to an autofocus (hereinafter abbreviated as AF) technique in the imaging apparatus.

従来のデジタルカメラにおけるAF技術は、大別してTTL(Through the Lens)位相差AF方式とコントラストAF方式とがある。   The AF technology in the conventional digital camera is roughly classified into a TTL (Through the Lens) phase difference AF method and a contrast AF method.

一般的に、レンズ交換式デジタル一眼レフカメラのAFには、位相差AF方式が用いられることが多く、高速に焦点検出を行えるという特徴がある。このため、移動被写体に対しても高精度に合焦することが可能である。この位相差AF方位は、カメラ本体に焦点位置のズレを検出するためのAFセンサモジュールが設けられ、該AFセンサモジュールにより検出された焦点ズレ量(デフォーカス量)により、焦点調節用のレンズ(フォーカスレンズ)の焦点検出を行う。しかし、この手法は、専用のセンサが必要となり、さらに撮影のための光路をハーフミラーなどの光学部材により分割してセンサへ光を導く構造をとるためにカメラのサイズが大型化し、コストアップにも繋がるという問題がある。   In general, the phase difference AF method is often used for AF of a lens interchangeable digital single-lens reflex camera, and there is a feature that focus detection can be performed at high speed. For this reason, it is possible to focus on a moving subject with high accuracy. This phase difference AF azimuth is provided with an AF sensor module for detecting a focus position shift in the camera body, and a focus adjustment lens (defocus amount) is detected by the focus shift amount (defocus amount) detected by the AF sensor module. Focus detection). However, this method requires a dedicated sensor, and further increases the cost of the camera by increasing the size of the camera because the optical path for shooting is divided by an optical member such as a half mirror to guide the light to the sensor. There is a problem of being connected.

一方で、コンパクトデジタルカメラでは、コントラストAF方式を用いることが多く、フォーカスレンズを光軸方向に移動させながら被写体の高周波成分を検出して、コントラストのピーク値を算出することで焦点検出を行う。コントラストAF方式は、焦点検出速度は高速ではないが、高精度の合焦制御が可能という特徴がある。この手法は、撮影用の撮像素子を用いて行うために、上記位相差AF方式のように光路分割の必要もなく、カメラのサイズ、コストに関してはメリットが大きい。   On the other hand, the compact digital camera often uses the contrast AF method, and detects the high frequency component of the subject while moving the focus lens in the optical axis direction, and performs focus detection by calculating the peak value of the contrast. The contrast AF method has a feature that the focus detection speed is not high, but high-precision focus control is possible. Since this method is performed using an image pickup device for photographing, there is no need to divide the optical path as in the phase difference AF method, and there is a great merit in terms of camera size and cost.

画像の「ピントが合っている」とは、しゃっきりとした画ということであり、被写体のエッジが最もはっきりとしている状態と換言できる。即ち、ハイパスフィルタを通した積算値が最も高い状態が「ピントが合っている」ことになる。これにより、コントラストAF方式の場合、一般的にハイパスフィルタを通した積算値をAF評価値とし、レンズ位置(フォーカス位置)を変えながらAF評価値をプロットしていくことで、最終的な合焦位置を補間演算して算出する。以下、図10を参照して、このコントラストAF方式を説明する。   “In-focus” in an image means a crisp image, which can be said to be the state in which the edge of a subject is most clear. That is, the state where the integrated value through the high-pass filter is the highest is “in focus”. Thus, in the case of the contrast AF method, the final value of focusing is generally obtained by plotting the AF evaluation value while changing the lens position (focus position) using the integrated value passed through the high-pass filter as the AF evaluation value. Calculate by interpolating the position. Hereinafter, the contrast AF method will be described with reference to FIG.

(1) 例えば、レンズの初期位置(フォーカス位置)がp1であるとした時、まず、そのフォーカス位置p1でAF評価値A1を算出する。   (1) For example, assuming that the initial position (focus position) of the lens is p1, first, the AF evaluation value A1 is calculated at the focus position p1.

(2)または(2’) フォーカス位置p1におけるAF評価値を取得後、このままでは合焦位置が無限方向、至近方向のどちらに存在するかわからない。このため、フォーカス位置を一定量、無限方向(2)または至近方向(2’)のどちらかに移動し、そこで再度AF評価値を算出する。これにより、フォーカス位置p1でのAF評価値A1と、フォーカス位置p2(またはp0)でのAF評価値A2(またはA0)の大小を比較し、合焦位置がどちらかであるかの判定を行う。   (2) or (2 ') After obtaining the AF evaluation value at the focus position p1, it is not known whether the in-focus position is in the infinite direction or the closest direction. For this reason, the focus position is moved by a fixed amount in either the infinite direction (2) or the closest direction (2 '), and the AF evaluation value is calculated again there. As a result, the AF evaluation value A1 at the focus position p1 and the AF evaluation value A2 (or A0) at the focus position p2 (or p0) are compared to determine whether the focus position is either. .

(3) 合焦方向が特定できたので、合焦方向に向かい一定量のフォーカス位置をずらし、フォーカス位置p3でAF評価値A3を取得する。   (3) Since the in-focus direction has been identified, a fixed amount of focus position is shifted toward the in-focus direction, and the AF evaluation value A3 is acquired at the focus position p3.

(4) さらに合焦方向に向かい一定量のフォーカス位置をずらし、フォーカス位置p4でAF評価値A4を算出する。ここで、フォーカス位置p3でのAF評価値A3とフォーカス位置p4でのAF評価値A4を比較すると、A3>A4となっている。これより、AF評価値のピーク位置、即ち、合焦位置を通り過ぎたことが判別できる。そこで、合焦位置付近の3点のフォーカス位置p2,p3,p4と、そのAF評価値A2,A3,A4により補間演算して、合焦位置pMaxを算出する。補間演算は、直線補間やラグランジェなど公知の技術が多種あるが、速度優先であれば直線補間を用いる。また、精度優先であれば、サンプリングポイントを増やして、ラグランジュ補間やスプライン補間などを用いても良い。   (4) Further, a certain amount of focus position is shifted toward the in-focus direction, and the AF evaluation value A4 is calculated at the focus position p4. Here, when the AF evaluation value A3 at the focus position p3 and the AF evaluation value A4 at the focus position p4 are compared, A3> A4. From this, it can be determined that the peak position of the AF evaluation value, that is, the in-focus position has been passed. Therefore, the interpolation position pMax is calculated by performing interpolation with the three focus positions p2, p3, and p4 near the in-focus position and the AF evaluation values A2, A3, and A4. There are various known techniques such as linear interpolation and Lagrangian for the interpolation calculation, but linear interpolation is used if speed priority is given. If accuracy is prioritized, the number of sampling points may be increased and Lagrange interpolation, spline interpolation, or the like may be used.

こうして合焦位置pMaxが算出された後は、フォーカス位置をその算出した、合焦位置pMaxをまで戻して停止し、撮影動作に入る。   After the in-focus position pMax is calculated in this way, the focus position is returned to the calculated in-focus position pMax to stop, and the photographing operation is started.

なお、上記(4)から(5)、(2’)から(2)のように、フォーカスの移動方向が逆方向になるとき、レンズのメカ構造によるバックラッシュが存在する場合には、それを加味してフォーカス移動を逆転する必要がある。具体的には、バックラッシュ量分、合焦方向とは反対に行き過ぎるようにしてから反転して戻ってくることで、バックラッシュの影響を低減できる。   When the focus movement direction is reversed as in (4) to (5) and (2 ′) to (2) above, if there is backlash due to the mechanical structure of the lens, In consideration of this, it is necessary to reverse the focus movement. Specifically, the influence of the backlash can be reduced by making it go backward in the opposite direction to the in-focus direction by the amount of backlash and then returning to reverse.

例えば、図11(A)は、移動していない被写体に対してフォーカス位置をp1_1、p1_2、p1_3と変化させていったときのイメージ図である。AF評価値は、撮影画角10内のAFエリア11の画像から演算される。画像のしゃっきり度、即ちAF評価値は、p1_1<p1_3<p1_2であることが視覚的にも判別できる。この場合のフォーカス位置とAF評価値の関係は、図12における上側のグラフのようになる。この状況(p1_1〜p1_3、A1_1〜A1_3)から合焦位置を補間演算した結果p1_Maxと実際の合焦位置p1_Max_Tとの誤差は、Δp1となる。   For example, FIG. 11A is an image diagram when the focus position is changed to p1_1, p1_2, and p1_3 with respect to a subject that has not moved. The AF evaluation value is calculated from the image of the AF area 11 within the shooting angle of view 10. It can also be visually determined that the degree of image sharpness, that is, the AF evaluation value is p1_1 <p1_3 <p1_2. The relationship between the focus position and the AF evaluation value in this case is as shown in the upper graph in FIG. The error between the result p1_Max obtained by interpolating the focus position from this situation (p1_1 to p1_3, A1_1 to A1_3) and the actual focus position p1_Max_T is Δp1.

これに対して、図11(B)は、図11(A)と同様に、被写体に対してフォーカス位置をp2_1、p2_2、p2_3と変化させていったときのイメージ図である。これは、移動しない被写体12の後ろを高速で移動する自動車等の高速移動被写体13が通過し、フォーカス位置p2_3の時にその高速移動被写体13がAFエリア11内に入ってしまった場合を示している。画像のしゃっきり度は、p2_1<p2_3<p2_2であるが、AF評価値を算出してみると、p2_1<p2_3≒p2_2となってしまい、合焦位置を補間演算するのに誤差が生じてしまう。即ち、この場合のフォーカス位置とAF評価値の関係は、図12における下側のグラフのようになる。この状況(p2_1〜p2_3、A2_1〜A2_3)から合焦位置を補間演算した結果p2_Maxと実際の合焦位置p2_Max_Tとの誤差は、Δp2となる。   On the other hand, FIG. 11B is an image diagram when the focus position with respect to the subject is changed to p2_1, p2_2, and p2_3, similarly to FIG. 11A. This shows a case where a high-speed moving subject 13 such as an automobile moving at high speed passes behind a non-moving subject 12 and the high-speed moving subject 13 enters the AF area 11 at the focus position p2_3. . The degree of chatter of the image is p2_1 <p2_3 <p2_2. However, when the AF evaluation value is calculated, p2_1 <p2_3≈p2_2, and an error occurs in the interpolation calculation of the in-focus position. That is, the relationship between the focus position and the AF evaluation value in this case is as shown in the lower graph in FIG. An error between the result p2_Max obtained by performing the interpolation calculation of the in-focus position from this situation (p2_1 to p2_3, A2_1 to A2_3) and the actual in-focus position p2_Max_T is Δp2.

実際の合焦位置p1_Max_T=p2_Max_Tであるので、図12における上図より下図の誤差は大きく、この誤差の大きいフォーカス位置でレンズ駆動を停止し撮影されることになるため、ピントがズレた画像が撮影されてしまうことになる。   Since the actual in-focus position p1_Max_T = p2_Max_T, the error in the lower diagram is larger than that in the upper diagram in FIG. 12, and the lens drive is stopped at the focus position where the error is large, and the image is out of focus. It will be filmed.

以上のように、コントラストAF方式の合焦位置検出は、異なるフォーカス位置における画像が、少なくとも3組必要である。フォーカス位置を異ならせるためには、レンズ駆動と撮像が必要であり、これらにかかる時間は短くはない。このため、移動被写体(特に高速に移動する被写体の場合)は、3枚撮影する間に移動してしまう可能性が高く、結果として誤った合焦位置を算出してしまうことになる。   As described above, the contrast AF type focus position detection requires at least three sets of images at different focus positions. In order to change the focus position, lens driving and imaging are required, and the time required for these is not short. For this reason, a moving subject (particularly in the case of a subject that moves at high speed) is likely to move during the shooting of three images, and as a result, an incorrect in-focus position is calculated.

さらに近年においては、レンズ交換式デジタル一眼レフカメラにおいて、撮像素子の情報を常に背面液晶に表示することで、フレーミングを行いながらAFを行う“ライブビューAF”という技術が製品化されてきている。これは、コンパクトカメラにおいては目新しいものではないが、通常、光束が撮像素子に入射していない一眼レフカメラにおいては、画期的なことといえる。しかし、ライブビューAFにおいては、位相差センサへ光が導かれないため、AF手法はコントラストAFを使わざるを得ない。このため、一眼レフカメラにも関わらず、動体に対して合焦精度が悪いという問題がよりクローズアップされてしまう。   Furthermore, in recent years, in a lens interchangeable digital single-lens reflex camera, a technique called “live view AF” in which AF is performed while framing is performed by always displaying information on an image sensor on a rear liquid crystal. This is not new in a compact camera, but it can be said that it is groundbreaking in a single-lens reflex camera in which a light beam is not normally incident on an image sensor. However, in live view AF, since light is not guided to the phase difference sensor, the AF method has to use contrast AF. For this reason, in spite of the single-lens reflex camera, the problem that the focusing accuracy with respect to the moving object is poor is further highlighted.

このようなコントラストAFにおける合焦精度を向上する技術としては、例えば特許文献1がある。これは、カメラ内部に装備された手振れ検出機構によって手振れを検出した場合に、コントラストAF動作の中断、または停止を行うというものである。   As a technique for improving the focusing accuracy in such contrast AF, there is, for example, Patent Document 1. This is to interrupt or stop the contrast AF operation when a camera shake is detected by a camera shake detection mechanism provided in the camera.

特開2008−107665公報JP 2008-107665 A

上記特許文献1では、カメラ内部に装備された手振れ検出機構によって手振れを検出した場合に、手振れ量に応じて、コントラストAF動作の中断、または停止を行うというものである。しかし、被写体側が高速に移動するような像ブレの場合は、手振れ情報が存在しないため、コントラストAF動作を中断、または停止することができないため、誤った合焦位置を算出してしまうことになる。   In Patent Document 1, when a camera shake is detected by a camera shake detection mechanism installed in the camera, the contrast AF operation is interrupted or stopped according to the amount of camera shake. However, in the case of image blur that causes the subject side to move at high speed, there is no camera shake information, so the contrast AF operation cannot be interrupted or stopped, and an incorrect in-focus position is calculated. .

本発明は、上記の点に鑑みてなされたもので、コントラストAF方式において精度良く合焦位置を算出することが可能な撮像装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide an imaging apparatus capable of calculating a focus position with high accuracy in the contrast AF method.

本発明の撮像装置の一態様は、
撮影光学系を透過した被写体光を受光して撮像する撮像素子と、
前記撮像素子で撮像した画像を用いてAF評価値を演算するAF評価値演算部と、
前記AF評価値演算部の複数の結果を用いて合焦位置演算を行う合焦位置演算部と、
前記撮像素子からの撮像画像から演算された被写体情報に基づいて前記AF評価値演算部の結果の有意性を判断し、有意性を有する場合に前記合焦位置演算部に対して演算開始の判断を下す合焦位置演算開始判断部と、
を具備することを特徴とする。
One aspect of the imaging device of the present invention is:
An image sensor for receiving and imaging subject light transmitted through the imaging optical system;
An AF evaluation value calculation unit that calculates an AF evaluation value using an image captured by the image sensor;
A focus position calculation unit that performs a focus position calculation using a plurality of results of the AF evaluation value calculation unit;
The significance of the result of the AF evaluation value calculation unit is determined based on the subject information calculated from the captured image from the imaging element, and if it is significant, the focus position calculation unit is determined to start calculation. An in-focus position calculation start determination unit,
It is characterized by comprising.

本発明によれば、撮像画像から演算された被写体情報に基づいてコントラストAF方式のAF動作の開始判断を下すことで、被写体側が高速に移動するような像ブレが無い時にのみコントラストAF動作を行うことができるので、精度の高い合焦位置算出が可能であり、ピンボケが少ない画像を撮影可能な撮像装置を提供することができる。   According to the present invention, a contrast AF operation is performed only when there is no image blur that causes the subject to move at high speed by making a start determination of the AF operation of the contrast AF method based on the subject information calculated from the captured image. Therefore, it is possible to provide an imaging apparatus capable of calculating an in-focus position with high accuracy and capturing an image with less blur.

図1は、本発明の撮像装置の第1実施形態としてのレンズ交換式デジタル一眼レフカメラの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a lens-interchangeable digital single-lens reflex camera as a first embodiment of an imaging apparatus according to the present invention. 図2は、オプティカルフロー法を用いた動き量を検出と合焦位置演算開始判断の手法を説明するための図である。FIG. 2 is a diagram for explaining a technique for detecting a motion amount and determining a focus position calculation start using the optical flow method. 図3は、第1実施形態のカメラにおけるAF動作を説明するためのタイミングチャートを示す図である。FIG. 3 is a timing chart for explaining the AF operation in the camera of the first embodiment. 図4は、第1実施形態のカメラにおけるAF動作を説明するための動作フローチャートを示す図である。FIG. 4 is an operation flowchart for explaining the AF operation in the camera of the first embodiment. 図5は、レンズ本体におけるフォーカス位置の取得動作を説明するための動作フローチャートを示す図である。FIG. 5 is an operation flowchart for explaining the focus position acquisition operation in the lens body. 図6は、レンズ本体におけるレンズ駆動動作を説明するための動作フローチャートを示す図である。FIG. 6 is an operation flowchart for explaining the lens driving operation in the lens body. 図7は、本発明の撮像装置の第2実施形態としてのレンズ交換式デジタル一眼レフカメラの構成を示す図である。FIG. 7 is a diagram showing a configuration of a lens interchangeable digital single-lens reflex camera as a second embodiment of the imaging apparatus of the present invention. 図8は、第2実施形態のカメラにおけるAF動作を説明するためのタイミングチャートを示す図である。FIG. 8 is a timing chart for explaining the AF operation in the camera of the second embodiment. 図9は、第2実施形態のカメラにおけるAF動作を説明するための動作フローチャートを示す図である。FIG. 9 is an operation flowchart for explaining the AF operation in the camera of the second embodiment. 図10は、コントラストAF方式を説明するための図である。FIG. 10 is a diagram for explaining the contrast AF method. 図11(A)は、移動していない被写体に対してフォーカス位置を変化させていったときの被写体像の変遷を示す図であり、図11(B)は、移動している被写体を含む場合のフォーカス位置を変化させていったときの被写体像の変遷を示す図である。FIG. 11A is a diagram showing the transition of the subject image when the focus position is changed with respect to the subject that has not moved, and FIG. 11B shows the case where the subject that is moving is included. It is a figure which shows the transition of a to-be-photographed image when changing the focus position. 図12は、図11(A)及び(B)の場合のフォーカス位置とAF評価値の関係を示す図である。FIG. 12 is a diagram showing the relationship between the focus position and the AF evaluation value in the cases of FIGS.

以下、本発明を実施するための形態を図面を参照して説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

[第1実施形態]
本発明の撮像装置の第1実施形態としてのレンズ交換式デジタル一眼レフカメラは、図1に示すように、カメラ本体100とレンズ本体200とからなる。
[First Embodiment]
As shown in FIG. 1, the lens interchangeable digital single-lens reflex camera as the first embodiment of the imaging apparatus of the present invention includes a camera body 100 and a lens body 200.

ここで、上記レンズ本体200は、上記カメラ本体100に対して着脱自在に構成された交換レンズとして提供されるものであり、フォーカスレンズ201、モータ202、レンズ駆動回路203、フォーカスエンコーダ204、レンズCPU205、等を備える。   Here, the lens body 200 is provided as an interchangeable lens configured to be detachable from the camera body 100, and includes a focus lens 201, a motor 202, a lens driving circuit 203, a focus encoder 204, and a lens CPU 205. , Etc.

ここで、フォーカスレンズ201は、被写体からの光束を結像する撮影光学系であり、モータ202によって光軸方向に駆動することでフォーカスを調整できるようになっている。レンズ駆動回路203は、そのモータ202への駆動制御信号を発行するドライバである。また、フォーカスエンコーダ204は、フォーカスレンズ201のフォーカス位置を検出するものであり、メカ的に位置を検出するメカエンコーダであっても良いし、電気的に検出するポテンションメータ等を用いても良い。そして、レンズCPU205は、カメラ本体100と通信路300を介して通信を行って、当該レンズ本体200内の各部を制御する。このレンズCPU205は、カメラ本体100からの指令に応じてレンズ駆動回路203へ駆動指示を行うことで、上記フォーカスレンズ201のフォーカス位置を調整したり、上記フォーカスエンコーダ204により検出したフォーカス位置をカメラ本体100に送信したりする機能を備える。   Here, the focus lens 201 is a photographing optical system that forms an image of a light beam from a subject, and can be adjusted in focus by being driven in the optical axis direction by a motor 202. The lens drive circuit 203 is a driver that issues a drive control signal to the motor 202. The focus encoder 204 detects the focus position of the focus lens 201 and may be a mechanical encoder that mechanically detects the position, or a potentiometer that electrically detects the position. . The lens CPU 205 communicates with the camera body 100 via the communication path 300 to control each part in the lens body 200. The lens CPU 205 adjusts the focus position of the focus lens 201 and determines the focus position detected by the focus encoder 204 by issuing a drive instruction to the lens drive circuit 203 in accordance with a command from the camera body 100. The function to transmit to 100 is provided.

通信路300上の伝送データとしては、フォーカス位置(レンズ本体200からカメラ本体100へ)、同期パルス(フォーカス位置取得時と同期)(レンズ本体200からカメラ本体100へ)、レンズ駆動量(カメラ本体100からレンズ本体200へ)、電源/GND、CS/Clock、等が存在する。   Transmission data on the communication path 300 includes a focus position (from the lens body 200 to the camera body 100), a synchronization pulse (synchronized with the focus position acquisition time) (from the lens body 200 to the camera body 100), and a lens drive amount (camera body). 100 to the lens body 200), power supply / GND, CS / Clock, and the like.

また、カメラ本体100は、撮像素子101、動き検出部102、記録画像処理部103、記録画像メモリ104、表示画像処理部105、表示素子106、AF評価値演算部107、合焦位置演算部108、合焦位置演算開始判断部109、カメラCPU110、等を備える。   The camera body 100 includes an image sensor 101, a motion detector 102, a recorded image processor 103, a recorded image memory 104, a display image processor 105, a display element 106, an AF evaluation value calculator 107, and a focus position calculator 108. , A focus position calculation start determination unit 109, a camera CPU 110, and the like.

ここで、撮像素子101は、撮影光学系としてのフォーカスレンズ201を透過した被写体光を受光して撮像する。動き検出部102は、撮像素子101で撮像した画像を複数枚取り込むためのフレームメモリ(図示せず)を備え、図示しない2段式のレリーズボタンの1段目の操作(以下、1R操作と略記する)等に応じた測距開始要求がなされた際には、該フレームメモリに取り込んだ前画面の画像と現画面の画像との差分を取ることで、被写体の動き情報、例えば動きベクトルを検出するものである。   Here, the image sensor 101 receives and captures subject light that has passed through a focus lens 201 serving as a photographing optical system. The motion detection unit 102 includes a frame memory (not shown) for capturing a plurality of images picked up by the image sensor 101, and the first stage operation (hereinafter abbreviated as 1R operation) of a two-stage release button (not shown). When the distance measurement start request is made according to the above, the difference between the previous screen image captured in the frame memory and the current screen image is obtained to detect motion information of the subject, for example, a motion vector. To do.

記録画像処理部103は、上記レリーズボタンの2段目の操作(以下、2R操作と略記する)による撮影要求がなされた際には、上記動き検出部102のフレームメモリに取り込んだ現画面の画像に対し、画作り(デモザイキング、収差、エッジ強調、等)、DCTの周波数変換、量子化(情報量を落とす)、多重化情報(動きベクトル、差分時画像切替情報)付与、等の画像処理を行って、記録画像メモリ104に記録する。この記録画像メモリ104は、当該カメラ本体100に内蔵固定されたものであっても良いし、着脱自在なメモリであっても構わない。   When a recording request is made by the second stage operation (hereinafter abbreviated as 2R operation) of the release button, the recorded image processing unit 103 captures the current screen image captured in the frame memory of the motion detection unit 102. Image processing such as image creation (demosaicing, aberration, edge enhancement, etc.), DCT frequency conversion, quantization (reducing the amount of information), multiplexing information (motion vector, differential image switching information), etc. To record in the recorded image memory 104. The recorded image memory 104 may be a built-in and fixed camera body 100 or a detachable memory.

表示画像処理部105は、上記動き検出部102のフレームメモリに取り込んだ現画面の画像に対し、画作り(デモザイキング、収差、エッジ強調、等)、間引き、DCTの周波数変換、量子化(情報量を落とす)、多重化情報(動きベクトル、差分時画像切替情報)に基づく動き補間、等の画像処理を行って、背面液晶等の表示素子106に表示することで、撮像素子101で撮像した画像を常に表示素子に表示する“ライブビュー”表示を可能としている。   The display image processing unit 105 performs image creation (demosaicing, aberration, edge enhancement, etc.), thinning, DCT frequency conversion, quantization (information) on the current screen image captured in the frame memory of the motion detection unit 102. The image is picked up by the image sensor 101 by performing image processing such as motion interpolation based on multiplexing information (motion vector, difference image switching information) and displaying on the display element 106 such as a rear liquid crystal. “Live view” display in which an image is always displayed on a display element is enabled.

AF評価値演算部107は、撮像素子101で撮像した画像を取り込むためのフレームメモリ(図示せず)を備え、該フレームメモリに取り込んだ現画面の画像より鮮鋭度抽出を行う、例えば、ハイパスフィルタを通した積算値を演算することで、AF評価値を求める。合焦位置演算部108は、該カメラ本体100内の各部を制御するカメラCPU110を介して与えられる上記レンズ本体200からのフォーカス位置と、上記AF評価値演算部107で演算され合焦位置演算開始判断部109を介して与えられる複数のAF評価値(現在までのAF評価値)とを格納する図示しない内部RAMを備え、それら2つを用いて、例えば過去3点の情報から補間演算して合焦位置(合焦ピーク)を推定する。そして、現在のフォーカス位置と推定した合焦位置との差分(デフォーカス量)をカメラCPU110を介してレンズ本体200に送信する。レンズ本体200のレンズCPU205は、その送信されてきたデフォーカス量に基づきレンズ駆動回路203によりレンズ駆動を行うこととなる。   The AF evaluation value calculation unit 107 includes a frame memory (not shown) for capturing an image captured by the image sensor 101, and performs sharpness extraction from the current screen image captured in the frame memory. For example, a high-pass filter The AF evaluation value is obtained by calculating the integrated value that has passed through. The in-focus position calculation unit 108 is calculated by the focus position from the lens body 200 given via the camera CPU 110 that controls each part in the camera body 100 and the AF evaluation value calculation unit 107, and starts the in-focus position calculation. An internal RAM (not shown) for storing a plurality of AF evaluation values (AF evaluation values up to the present) given through the determination unit 109 is provided, and using these two, for example, interpolation calculation is performed from information on the past three points. The in-focus position (in-focus peak) is estimated. Then, the difference (defocus amount) between the current focus position and the estimated focus position is transmitted to the lens body 200 via the camera CPU 110. The lens CPU 205 of the lens body 200 performs lens driving by the lens driving circuit 203 based on the transmitted defocus amount.

合焦位置演算開始判断部109は、上記撮像素子101で撮像した画像から演算された被写体情報、例えば、上記動き検出部102で検出した被写体の動き情報を基に、上記AF評価値演算部107で求めたAF評価値の有意性を判断して、上記合焦位置演算部108に対して演算開始、演算停止の判断を下すものである。AF評価値が有意性を有していれば、合焦位置演算部108に対して演算開始の判断を下し、合焦位置(合焦ピーク)算出開始トリガを発行する。この合焦位置算出開始トリガとしては、OK/NGを示すビット情報としても良いし、OK時にのみパルス信号を発行するような形態でも構わない。   The in-focus position calculation start determination unit 109 is based on subject information calculated from an image captured by the image sensor 101, for example, subject motion information detected by the motion detection unit 102, and the AF evaluation value calculation unit 107. The significance of the AF evaluation value obtained in step 1 is determined, and the calculation of the focus position calculation unit 108 is started or stopped. If the AF evaluation value is significant, the focus position calculation unit 108 is determined to start calculation, and a focus position (focus peak) calculation start trigger is issued. The in-focus position calculation start trigger may be bit information indicating OK / NG, or may be a form in which a pulse signal is issued only at the time of OK.

ここで、上記合焦位置演算開始判断部109における合焦位置演算開始判断について、さらに説明する。   Here, the focus position calculation start determination in the focus position calculation start determination unit 109 will be further described.

合焦位置演算開始判断の基になるのは、例えば上記動き検出部102で検出する被写体の動き情報である。具体的に言うと、動き情報とは、AF評価値を演算するAFエリア11の中の被写体の動き量である。この動き量を検出する方法としては、オプティカルフロー法(ブロックマッチング法、勾配法、等)やフレーム間差分法などの公知技術があり、どれを用いても良い。   For example, the motion information of the subject detected by the motion detection unit 102 is a basis for determining the start of the in-focus position calculation. Specifically, the motion information is the amount of motion of the subject in the AF area 11 for calculating the AF evaluation value. As a method for detecting the amount of motion, there are known techniques such as an optical flow method (block matching method, gradient method, etc.) and an inter-frame difference method, and any of them may be used.

図2において、オプティカルフロー法を用いた例について簡単に説明する。フォーカス位置をずらした3枚の画像(フォーカス位置p2_1、p2_2、p2_3)からは2種の動き情報(m1,m2)が算出できる。動き情報m1を見ると、AFエリア11の中には、人物位置(Xb1,Yb1)の点は存在するが、動き物体が存在しないため、ベクトルとしての動き量は存在しない。なお、高速移動被写体13である自動車については、(Xa1,Ya1)の情報があるが、AFエリア11外である。次に動き情報m2について注目すると、この場合は、AFエリア11の中に高速移動被写体13が入って、動き量m_t=|(Xa2,Ya2)−(Xa1,Ya1)|となる。   An example using the optical flow method in FIG. 2 will be briefly described. Two types of motion information (m1, m2) can be calculated from the three images (focus positions p2_1, p2_2, p2_3) with the focus position shifted. Looking at the motion information m1, there is a point of the person position (Xb1, Yb1) in the AF area 11, but there is no moving object, so there is no motion amount as a vector. In addition, although there is information of (Xa1, Ya1) for the automobile that is the high-speed moving subject 13, it is outside the AF area 11. Next, focusing on the motion information m2, in this case, the fast moving subject 13 enters the AF area 11, and the motion amount m_t = | (Xa2, Ya2) − (Xa1, Ya1) |.

合焦位置演算開始判断部109では、上記概要のように動き量m_tと、それに対応する現時点の動き物体(高速移動被写体13)の現時点の位置(動き後の位置)P_a(Xa2,Ya2)及び高速移動被写体13の動き前の位置P_b(Xa1,Ya1)の情報とから、上記AF評価値演算部107で求めたAF評価値の有意性、つまり合焦位置演算部108で合焦位置演算を行うか否かの判断を行う。判断NGの場合は、合焦位置演算部108での合焦位置演算を停止することとする。   In the in-focus position calculation start determination unit 109, as described above, the movement amount m_t and the current position (post-movement position) P_a (Xa2, Ya2) of the current moving object (high-speed moving subject 13) corresponding thereto and From the information of the position P_b (Xa1, Ya1) before the movement of the high-speed moving subject 13, the significance of the AF evaluation value obtained by the AF evaluation value calculation unit 107, that is, the focus position calculation by the focus position calculation unit 108 is calculated. It is determined whether or not to do so. In the case of determination NG, the focus position calculation in the focus position calculation unit 108 is stopped.

判断基準すべき状況の一例としては、以下のような状況がある。
(1)AFエリア11外からAFエリア11内へ物体が入って来た場合。この場合には、動き量m_t≠0で、動き前物体位置P_aがAFエリア11外、且つ、動き後物体位置P_bがAFエリア11内となる。この(1)の場合には、合焦位置演算部に対して演算停止の判断を下し、判断NGとして、合焦位置演算部108での合焦位置演算を停止する。
An example of the situation that should be judged is as follows.
(1) When an object enters the AF area 11 from outside the AF area 11. In this case, the motion amount m_t ≠ 0, the pre-motion object position P_a is outside the AF area 11, and the post-motion object position P_b is inside the AF area 11. In the case of (1), it is determined to stop the calculation with respect to the in-focus position calculation unit, and as the determination NG, the in-focus position calculation in the in-focus position calculation unit 108 is stopped.

(2)AFエリア11内からAFエリア11外へ物体が出ていった場合。この場合には、動き量m_t≠0で、動き前物体位置P_aがAFエリア11内、且つ、動き後物体位置P_bがAFエリア11外となる。この(2)の場合には、合焦位置演算部に対して演算停止の判断を下し、判断NGとして、合焦位置演算部108での合焦位置演算を停止する。     (2) When an object comes out of the AF area 11 from the AF area 11. In this case, the motion amount m_t ≠ 0, the pre-motion object position P_a is in the AF area 11, and the post-motion object position P_b is outside the AF area 11. In the case of (2), it is determined to stop the calculation with respect to the in-focus position calculator, and as the determination NG, the in-focus position calculation in the in-focus position calculator 108 is stopped.

(3)AFエリア11内で物体が動いた場合。この場合には、動き量m_t≠0で、動き前物体位置P_aがAFエリア11内、且つ、動き後物体位置P_bがAFエリア11内となる。この(3)の場合には、合焦位置演算部108に対して位置演算開始の判断を下し、判断OKとして、合焦位置演算部108での合焦位置演算を続行する。     (3) When an object moves in the AF area 11. In this case, the motion amount m_t ≠ 0, the pre-motion object position P_a is in the AF area 11, and the post-motion object position P_b is in the AF area 11. In the case of (3), the focus position calculation unit 108 is determined to start position calculation, and the determination of the focus position calculation unit 108 is continued as determination OK.

判断する閾値は、焦点距離、絞りなどによって可変しても良い。   The threshold value to be determined may vary depending on the focal length, the diaphragm, and the like.

以下、上記のような構成のカメラにおけるAF動作を、図3のタイミングチャート及び図4の動作フローチャートを参照して説明する。   Hereinafter, the AF operation in the camera having the above-described configuration will be described with reference to the timing chart of FIG. 3 and the operation flowchart of FIG.

撮像素子101は、撮影期間(撮像タイミング波形がハイの期間)に、露光動作を行って画像を撮像する(ステップS101)。その後、1R操作または2R操作などのユーザ操作によるAFトリガがあると(ステップS102)、撮像された画像が、動き検出部102とAF評価値演算部107の2つに入力される。   The image sensor 101 performs an exposure operation and captures an image during the shooting period (period when the imaging timing waveform is high) (step S101). Thereafter, when there is an AF trigger by a user operation such as a 1R operation or a 2R operation (step S102), the captured image is input to the motion detection unit 102 and the AF evaluation value calculation unit 107.

動き検出部102は、動き検出期間(動き検出波形がハイの期間)に、前画面の画像と入力された現画面の画像とから動き情報を検出する(ステップS103)。また、AF評価値演算部107は、AF評価値演算期間(AF評価値演算波形がハイの期間)に、原画面の画像からAF評価値を演算する(ステップS104)。これら動き情報及びAF評価値は、合焦位置演算開始判断部109に入力される。なお、動き検出期間とAF評価値演算期間は必ずしも同一タイミングで開始する必要はない。   In the motion detection period (period in which the motion detection waveform is high), the motion detection unit 102 detects motion information from the previous screen image and the input current screen image (step S103). Also, the AF evaluation value calculation unit 107 calculates an AF evaluation value from the image on the original screen during the AF evaluation value calculation period (a period when the AF evaluation value calculation waveform is high) (step S104). These movement information and AF evaluation value are input to the in-focus position calculation start determination unit 109. Note that the motion detection period and the AF evaluation value calculation period do not necessarily start at the same timing.

その後、合焦位置演算開始判断部109は、合焦位置演算開始判断期間(合焦位置演算開始判断波形がハイの期間)に、上記動き検出部102からの動き情報に基づき合焦位置演算すべきか否かの判断を行う(ステップS105)。この合焦位置開演算開始判断のOK/NGの閾値は、焦点距離、絞り情報などにより可変できるものとする。合焦位置演算開始判断結果は、OK/NGを示すビット情報(フラグ)として合焦位置演算部108に入力される。なお、そのようなOK/NGを示すビット情報ではなくて、OK時にのみパルス発行するなどとしても構わない。また、合焦位置演算開始判断部109は、AF評価値演算部107からのAF評価値も合焦位置演算部108に入力する。   Thereafter, the focus position calculation start determination unit 109 performs the focus position calculation based on the motion information from the motion detection unit 102 during the focus position calculation start determination period (the period when the focus position calculation start determination waveform is high). It is determined whether or not (step S105). It is assumed that the OK / NG threshold value for determining the start of the in-focus position calculation can be changed by the focal length, aperture information, and the like. The focus position calculation start determination result is input to the focus position calculation unit 108 as bit information (flag) indicating OK / NG. Note that the pulse information may be issued only at the time of OK instead of the bit information indicating such OK / NG. The focus position calculation start determination unit 109 also inputs the AF evaluation value from the AF evaluation value calculation unit 107 to the focus position calculation unit 108.

なお、上記AF評価値演算部107で演算されたAF評価値は、合焦位置演算開始判断部109を介さないで直接、AF評価値演算部107から合焦位置演算部108に入力するようにしても良いことは勿論である。   The AF evaluation value calculated by the AF evaluation value calculation unit 107 is directly input from the AF evaluation value calculation unit 107 to the focus position calculation unit 108 without the focus position calculation start determination unit 109. Of course, it may be.

合焦位置演算部108は、合焦位置演算開始判断の判断OKの結果を待って(ステップS106)、合焦位置演算を開始する(ステップS107)。即ち、合焦位置演算期間(合焦位置演算波形がハイの期間)に、上記AF評価値演算部107で演算されたAF評価値と、レンズ本体200から送られてカメラCPU110を介して入力されるフォーカス位置情報との2つを用い、過去3点の情報から補間演算して合焦位置(合焦ピーク)を推定する。   The focus position calculation unit 108 waits for the result of the determination of the focus position calculation start determination OK (step S106), and starts the focus position calculation (step S107). That is, in the in-focus position calculation period (the in-focus position calculation waveform is high), the AF evaluation value calculated by the AF evaluation value calculation unit 107 and the lens body 200 are sent and input via the camera CPU 110. The focus position information is used, and the in-focus position (in-focus peak) is estimated by performing interpolation calculation from the information of the past three points.

なお、上記合焦位置演算で必要なフォーカス位置は、図5に示すようにして、レンズ本体200にて取得される。即ち、レンズCPU205は、通信路300を介したデータ通信によりカメラCPU110からフォーカス位置取得要求を受信すると(ステップS201)、フォーカスレンズ201近傍に装備されたフォーカスエンコーダ204を用いてフォーカス位置を取得し(ステップS202)、その取得したフォーカス位置を通信路300を介したデータ通信によりカメラCPU110へ送信する(ステップS203)。なお、データ通信には、クロック同期、非同期などの公知技術を用いる。   It should be noted that the focus position necessary for the in-focus position calculation is acquired by the lens body 200 as shown in FIG. That is, when the lens CPU 205 receives a focus position acquisition request from the camera CPU 110 by data communication via the communication path 300 (step S201), the lens CPU 205 acquires the focus position using the focus encoder 204 provided in the vicinity of the focus lens 201 ( In step S202, the acquired focus position is transmitted to the camera CPU 110 by data communication via the communication path 300 (step S203). For data communication, known techniques such as clock synchronization and asynchronous are used.

合焦位置演算部108は、合焦位置演算により合焦位置(合焦ピーク)を推定したならば、さらに、現在フォーカス位置と合焦推定フォーカス位置との差分(デフォーカス量)をレンズ駆動量として演算し(ステップS108)、それをカメラCPU110を介してレンズCPU205に送信する(ステップS109)。そして、不図示の内部RAMに、現在までのAF評価値及びフォーカス位置を格納する(ステップS110)。   If the in-focus position calculation unit 108 estimates the in-focus position (in-focus peak) by the in-focus position calculation, it further calculates the difference (defocus amount) between the current focus position and the in-focus estimated focus position as the lens drive amount. (Step S108), and transmits it to the lens CPU 205 via the camera CPU 110 (step S109). Then, the AF evaluation value and the focus position up to now are stored in an internal RAM (not shown) (step S110).

レンズ本体200においては、カメラ本体100から送信されてきたレンズ駆動量(デフォーカス量)に基づきフォーカスレンズ201の駆動を行う。即ち、図6に示すように、レンズCPU205は、通信路300を介したデータ通信によりカメラCPU110からレンズ駆動量を受信すると(ステップS211)、まず、フォーカスレンズ201近傍に装備されたフォーカスエンコーダ204を用いて現在のフォーカス位置を取得する(ステップS212)。そして、その受信したレンズ駆動量と取得した現在のフォーカス位置とに基づいて、どちらの方向にどれだけフォーカスレンズ201を駆動するかを求め、その駆動に必要な駆動系(モータ202)のパラメータをレンズ駆動回路203に設定する(ステップS213)。そして、レンズ駆動回路203がその設定されたパラメータに従ってモータ202を駆動することで、カメラ本体100側から指示されたレンズ駆動量分、フォーカスレンズ201を移動させる(ステップS214)。   The lens main body 200 drives the focus lens 201 based on the lens driving amount (defocus amount) transmitted from the camera main body 100. That is, as shown in FIG. 6, when the lens CPU 205 receives the lens drive amount from the camera CPU 110 by data communication via the communication path 300 (step S211), first, the lens encoder 205 is installed in the vicinity of the focus lens 201. The current focus position is acquired by using (Step S212). Then, based on the received lens driving amount and the acquired current focus position, it is determined how much the focus lens 201 is driven in which direction, and parameters of the driving system (motor 202) necessary for the driving are determined. The lens driving circuit 203 is set (step S213). Then, the lens driving circuit 203 drives the motor 202 according to the set parameter, thereby moving the focus lens 201 by the lens driving amount instructed from the camera body 100 side (step S214).

また、合焦位置演算開始判断部109が判断NGの結果を合焦位置演算部108に入力した場合(ステップS106)、合焦位置演算部108は、不図示の内部RAMに格納している過去のAF評価値/フォーカス位置をリセットし、再度3点のAF評価値/フォーカス位置が収集されるまで合焦位置演算を行わない。   When the focus position calculation start determination unit 109 inputs the result of determination NG to the focus position calculation unit 108 (step S106), the focus position calculation unit 108 stores the past stored in an internal RAM (not shown). The AF evaluation value / focus position is reset, and the in-focus position calculation is not performed until three AF evaluation values / focus positions are collected again.

但し、2点のAF評価値/フォーカス位置が収集されれば、レンズ駆動すべき方向の判断を行うことが可能となるので、2点のAF評価値/フォーカス位置が収集されるまで合焦位置演算を行わないものとしても良い。   However, if the two AF evaluation values / focus positions are collected, it is possible to determine the direction in which the lens is to be driven, and therefore the in-focus position until the two AF evaluation values / focus positions are collected. It is good also as what does not perform a calculation.

なお、レンズ駆動は、撮影タイミングと同期して毎回行うものである。これに対して、合焦位置演算開始判断部109が判断NGの結果となって合焦位置演算部108が合焦位置演算を中断した場合には、レンズ駆動量はレンズ本体200側に送信されない。そこでそのような場合には、レンズCPU205は、最後に受信したレンズ駆動量に基づいたレンズ駆動を実施するものとする。   The lens driving is performed every time in synchronization with the photographing timing. On the other hand, when the in-focus position calculation start determination unit 109 results in determination NG and the in-focus position calculation unit 108 interrupts the in-focus position calculation, the lens driving amount is not transmitted to the lens body 200 side. . In such a case, the lens CPU 205 performs lens driving based on the last received lens driving amount.

また、動き検出部102で検出した動き情報は、撮像画像と共に、記録画像処理部103及び表示画像処理部105に入力される。   The motion information detected by the motion detection unit 102 is input to the recorded image processing unit 103 and the display image processing unit 105 together with the captured image.

表示画像処理部105は、入力された画像に対して画像処理を行って(ステップS112)、表示素子106に表示出力する(ステップS113)。この際、画像処理において動き情報を用いて動き補間などを行うことで、より見易い画像を表示することができる。なお、特に図示及び説明はしなかったが、上記ステップS101とステップS102の間で、動き情報を用いない画像処理を行って撮像画像を表示する処理が行われるものである。   The display image processing unit 105 performs image processing on the input image (step S112), and displays and outputs it on the display element 106 (step S113). At this time, it is possible to display a more easily viewable image by performing motion interpolation using the motion information in the image processing. Although not shown or described in particular, a process of displaying a captured image by performing image processing without using motion information is performed between step S101 and step S102.

また、記録画像処理部103は、入力された画像に対して画像処理を行って(ステップS114)、記録画像メモリ104に記録する(ステップS115)。この際、画像処理において動き情報を用いて動き補間などを行うことで、ブレの少ない画像を記録することができる。このような撮像画像の記録を行うことで、シャッタタイミングが遅れても確実にほしい画像が取得できるようにする先行連写機能を実現できる。勿論、通常の1コマ撮影を行う場合には、この画像処理及び記録は、2R操作が行われた時のみ行うようにすれば良い。   The recorded image processing unit 103 performs image processing on the input image (step S114) and records it in the recorded image memory 104 (step S115). At this time, an image with less blur can be recorded by performing motion interpolation using motion information in image processing. By recording such a captured image, it is possible to realize a preceding continuous shooting function that enables a desired image to be reliably acquired even when the shutter timing is delayed. Of course, when performing normal one-frame shooting, this image processing and recording may be performed only when the 2R operation is performed.

以上のような本発明の第1実施形態によれば、撮影光学系として機能するフォーカスレンズ201を透過した被写体光を受光して撮像する撮像素子101と、該撮像素子101で撮像した画像を用いてAF評価値を演算するAF評価値演算部107と、該AF評価値演算部107の複数の結果を用いて合焦位置演算を行う合焦位置演算部108と、上記撮像素子101からの撮像画像から演算された被写体情報に基づいて上記AF評価値演算部107の結果の有意性を判断し、有意性を有する場合に上記合焦位置演算部108に対して演算開始の判断を下す合焦位置演算開始判断部109と、を備えることにより、撮像画像から演算された被写体情報に基づいてコントラストAF方式のAF動作の開始判断を下すことで、被写体側が高速に移動するような像ブレが無い時にのみコントラストAF動作を行うことができるので、精度の高い合焦位置算出が可能であり、ピンボケが少ない画像を撮影可能な撮像装置を提供することができるようになる。   According to the first embodiment of the present invention as described above, the imaging element 101 that receives and images subject light that has passed through the focus lens 201 that functions as a photographing optical system, and an image that is captured by the imaging element 101 are used. An AF evaluation value calculation unit 107 that calculates an AF evaluation value, a focus position calculation unit 108 that performs a focus position calculation using a plurality of results of the AF evaluation value calculation unit 107, and imaging from the imaging element 101 Focusing that determines the significance of the result of the AF evaluation value calculation unit 107 based on the subject information calculated from the image, and makes a determination to start the calculation with respect to the focus position calculation unit 108 if the result is significant And a position calculation start determination unit 109, so that the subject side moves at high speed by making a start determination of the AF operation of the contrast AF method based on the subject information calculated from the captured image. Since the contrast AF operation can be performed only when there is no such image blurring, it is possible to provide an imaging apparatus capable of calculating a focus position with high accuracy and capturing an image with less blur. .

また、上記合焦位置演算開始判断部109は、さらに、上記AF評価値演算部107の結果が有意性を有しない場合に上記合焦位置演算部108に対して演算停止の判断を下すことで、被写体側が高速に移動するような像ブレが有る時には、コントラストAF動作を行わないので、誤った合焦位置を算出してしまうことがなく、よって合焦位置までのレンズ駆動に無駄な動作がないため、合焦位置までの時間を短くすることが可能となる。   The in-focus position calculation start determination unit 109 further determines that the in-focus position calculation unit 108 stops the calculation when the result of the AF evaluation value calculation unit 107 is not significant. When there is an image blur that causes the subject to move at high speed, the contrast AF operation is not performed, so that an incorrect in-focus position is not calculated, and therefore a useless operation for driving the lens up to the in-focus position is performed. Therefore, the time to the in-focus position can be shortened.

さらに、上記合焦位置演算開始判断部109は、上記被写体情報として被写体の動き情報を用いることで、被写体側が高速に移動するような像ブレの有無を容易に判別できる。   Further, the focus position calculation start determination unit 109 can easily determine the presence or absence of image blur that causes the subject to move at high speed by using subject movement information as the subject information.

[第2実施形態]
次に、本発明の第2実施形態を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

本発明の撮像装置の第2実施形態としてのレンズ交換式デジタル一眼レフカメラは、図7に示すように、上記第1実施形態と同様の構成に加えて、さらに、AFエリア変更部111を備える。   As shown in FIG. 7, the lens-interchangeable digital single-lens reflex camera as the second embodiment of the imaging apparatus of the present invention further includes an AF area changing unit 111 in addition to the same configuration as that of the first embodiment. .

このAFエリア変更部111は、上記AF評価値演算部107がAF評価値を演算する撮像画像のエリアであるAFエリア11を設定するものであり、合焦位置演算開始判断部109は、判断NGの結果となったときに、上記AFエリア11を変更する指示を該AFエリア変更部111に伝達し、該AFエリア変更部111はそれに応じてAFエリア11を変更する。ここで、AFエリア11の変更とは、AFエリア11の移動とエリアサイズの縮小・拡大を含むものとする。例えば、図2に示すような状況の場合には、動き物体(高速移動被写体13)の位置(Xa2,Ya2)を避けるようにAFエリア11を再設定する。   The AF area changing unit 111 sets an AF area 11 that is an area of a captured image in which the AF evaluation value calculation unit 107 calculates an AF evaluation value. The focus position calculation start determination unit 109 When the result becomes, an instruction to change the AF area 11 is transmitted to the AF area changing unit 111, and the AF area changing unit 111 changes the AF area 11 accordingly. Here, the change of the AF area 11 includes movement of the AF area 11 and reduction / enlargement of the area size. For example, in the situation shown in FIG. 2, the AF area 11 is reset so as to avoid the position (Xa2, Ya2) of the moving object (high-speed moving subject 13).

以下、上記のような構成のカメラにおけるAF動作を、図8のタイミングチャート及び図9のフローチャートを参照して説明する。   Hereinafter, the AF operation in the camera having the above configuration will be described with reference to the timing chart of FIG. 8 and the flowchart of FIG.

ここで、本実施形態は、合焦位置演算開始判断部109による合焦位置演算開始判断が判断OKの結果となった場合の動作は、上記第1実施形態と同様であるので、その説明は省略する。   Here, in the present embodiment, the operation when the focus position calculation start determination by the focus position calculation start determination unit 109 results in the determination OK is the same as that in the first embodiment, and the description thereof will be given. Omitted.

合焦位置演算開始判断部109における合焦位置演算開始判断が判断NGの結果となった場合(ステップS106)、合焦位置演算開始判断部109は、AFエリア変更部111にAFエリア11を変更する指示を伝達し、該AFエリア変更部111はそれに応じてAFエリア11を変更する(ステップS121)。そして、AF評価値演算部107は、再度のAF評価値演算期間に、原画面の画像の内の変更されたAFエリア11の画像からAF評価値を演算する(ステップS122)。こうして再度演算されたAF評価値は、合焦位置演算開始判断部109に入力され、合焦位置演算開始判断部109は、それを合焦位置演算開始判断の判断OKの結果と共に、合焦位置演算部108に入力する。従って、合焦位置演算部108は、合焦位置演算を開始して、合焦位置演算期間に、上記AF評価値演算部107で再演算されたAF評価値と、レンズ本体200から送られてカメラCPU110を介して入力されるフォーカス位置情報との2つを用い、過去3点の情報から補間演算して合焦位置(合焦ピーク)を推定する(ステップS107)。そして、その推定した合焦位置を用いて現在フォーカス位置と合焦推定フォーカス位置との差分(デフォーカス量)をレンズ駆動量として演算し(ステップS108)、それをカメラCPU110を介してレンズCPU205に送信する(ステップS109)。そして、不図示の内部RAMに、現在までのAF評価値及びフォーカス位置を格納する(ステップS110)。   When the focus position calculation start determination unit 109 determines that the focus position calculation start determination is a result of determination NG (step S106), the focus position calculation start determination unit 109 changes the AF area 11 to the AF area change unit 111. The AF area changing unit 111 changes the AF area 11 accordingly (step S121). Then, the AF evaluation value calculation unit 107 calculates an AF evaluation value from the image of the changed AF area 11 in the original screen image during the second AF evaluation value calculation period (step S122). The AF evaluation value recalculated in this way is input to the in-focus position calculation start determination unit 109, and the in-focus position calculation start determination unit 109 adds the result to the in-focus position calculation determination result OK. Input to the arithmetic unit 108. Therefore, the in-focus position calculation unit 108 starts the in-focus position calculation, and is sent from the lens body 200 with the AF evaluation value recalculated by the AF evaluation value calculation unit 107 during the in-focus position calculation period. The focus position information input via the camera CPU 110 is used to interpolate from the past three points of information to estimate the focus position (focus peak) (step S107). Then, using the estimated focus position, the difference (defocus amount) between the current focus position and the focus estimated focus position is calculated as a lens drive amount (step S108), and this is calculated to the lens CPU 205 via the camera CPU 110. Transmit (step S109). Then, the AF evaluation value and the focus position up to now are stored in an internal RAM (not shown) (step S110).

従って、本実施形態では、演算されたレンズ駆動量に基づくレンズ駆動は、撮影タイミングと同期して毎回行われる。   Therefore, in the present embodiment, lens driving based on the calculated lens driving amount is performed every time in synchronization with the photographing timing.

以上のような本発明の第2実施形態によれば、上記第1実施形態と同様の効果に、撮影光学系として機能するフォーカスレンズ201を透過した被写体光を受光して撮像する撮像素子101と、該撮像素子101で撮像した画像を用いてAF評価値を演算するAF評価値演算部107と、該AF評価値演算部107の複数の結果を用いて合焦位置演算を行う合焦位置演算部108と、上記撮像素子101からの撮像画像から演算された被写体情報に基づいて上記AF評価値演算部107の結果の有意性を判断し、有意性を有する場合に上記合焦位置演算部108に対して演算開始の判断を下す合焦位置演算開始判断部109と、を備えることにより、撮像画像から演算された被写体情報に基づいてコントラストAF方式のAF動作の開始判断を下すことで、被写体側が高速に移動するような像ブレが無い時にのみコントラストAF動作を行うことができるので、精度の高い合焦位置算出が可能であり、ピンボケが少ない画像を撮影可能な撮像装置を提供することができるようになる。   According to the second embodiment of the present invention as described above, the image pickup device 101 that receives the subject light that has passed through the focus lens 201 functioning as a photographing optical system and takes an image has the same effect as the first embodiment. , An AF evaluation value calculation unit 107 that calculates an AF evaluation value using an image captured by the image sensor 101, and a focus position calculation that performs a focus position calculation using a plurality of results of the AF evaluation value calculation unit 107 The significance of the result of the AF evaluation value calculation unit 107 is determined based on the object information calculated from the captured image from the unit 108 and the captured image from the image sensor 101, and when the result is significant, the focus position calculation unit 108 An in-focus position calculation start determination unit 109 that determines the start of calculation with respect to the image, thereby determining whether to start the AF operation of the contrast AF method based on the subject information calculated from the captured image. Since the contrast AF operation can be performed only when there is no image blur that causes the subject side to move at high speed, an imaging device that can calculate an in-focus position with high accuracy and capture an image with little blurring. Will be able to provide.

さらに、合焦位置演算開始判断部109は、合焦位置演算部108に対して演算停止の判断を下したとき、AFエリア設定部として機能するAFエリア変更部111に対して、AF評価値演算部107のAF評価値の演算に使用する撮像画像のエリアであるAFエリア11を変更する指示を伝達し、それに応じてAF評価値演算部107がAFエリア11を変更してAF評価値を再演算することで、合焦位置演算部108での合焦位置演算を続行することが可能となる。従って、被写体側が高速に移動するような像ブレが有る時には、そのような像ブレを無くすようにAFエリア11を再設定してコントラストAF動作を行うので、合焦位置までの時間をより短くすることが可能となる。   Further, when the in-focus position calculation start determination unit 109 determines that the in-focus position calculation unit 108 stops the calculation, the in-focus position calculation start determination unit 109 calculates an AF evaluation value for the AF area changing unit 111 that functions as an AF area setting unit. An instruction to change the AF area 11 that is an area of the captured image used for calculating the AF evaluation value of the unit 107 is transmitted, and the AF evaluation value calculation unit 107 changes the AF area 11 in response to the AF evaluation value again. By performing the calculation, the in-focus position calculation in the in-focus position calculation unit 108 can be continued. Accordingly, when there is an image blur that causes the subject to move at high speed, the AF area 11 is reset so as to eliminate such an image blur, and the contrast AF operation is performed, so the time to the in-focus position is further shortened. It becomes possible.

また、上記合焦位置演算開始判断部109は、上記被写体情報として被写体の動き情報を用いることで、被写体側が高速に移動するような像ブレの有無を容易に判別できる。   In addition, the in-focus position calculation start determination unit 109 can easily determine the presence or absence of image blur that causes the subject to move at high speed by using subject movement information as the subject information.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上記実施形態ではレンズ交換式デジタル一眼レフカメラを例に説明したが、コントラストAF方式を採用するコンパクトデジタルカメラや、カメラ付き携帯電話機、カメラ付きPDA等であっても構わない。   For example, in the above-described embodiment, a lens interchangeable digital single-lens reflex camera has been described as an example. However, a compact digital camera adopting a contrast AF method, a camera-equipped mobile phone, a camera-equipped PDA, or the like may be used.

また、静止画像を記録するスチルカメラに限らず、動画像を記録する動画カメラにも適用可能である。この場合、被写体側が高速に移動するような像ブレが有る時には、コントラストAF動作を行わないので、誤った合焦位置を算出してしまうことがなく、よって合焦位置までのレンズ駆動に無駄な動作がないため、動画カメラとしてスムーズな画像を記録することが可能になる。   Further, the present invention is not limited to a still camera that records still images, but can be applied to a moving image camera that records moving images. In this case, the contrast AF operation is not performed when there is an image blur that causes the subject side to move at high speed, so that an incorrect in-focus position is not calculated, and therefore it is useless for driving the lens up to the in-focus position. Since there is no operation, it is possible to record a smooth image as a video camera.

以上のように、コントラストAF方式を採用するものであれば、どのような撮像装置であっても構わない。   As described above, any imaging device may be used as long as it adopts the contrast AF method.

10…撮影画角、 11…AFエリア、 12…移動しない被写体、 13…高速移動被写体、 100…カメラ本体、 101…撮像素子、 102…動き検出部、 103…記録画像処理部、 104…記録画像メモリ、 105…表示画像処理部、 106…表示素子、 107…AF評価値演算部、 108…合焦位置演算部、 109…合焦位置演算開始判断部、 110…カメラCPU、 111…AFエリア変更部、 200…レンズ本体、 201…フォーカスレンズ、 202…モータ、 203…レンズ駆動回路、 204…フォーカスエンコーダ、 205…レンズCPU、 300…通信路。     DESCRIPTION OF SYMBOLS 10 ... Shooting angle of view, 11 ... AF area, 12 ... Subject which does not move, 13 ... High-speed moving subject, 100 ... Camera body, 101 ... Image sensor, 102 ... Motion detection part, 103 ... Recorded image processing part, 104 ... Recorded image Memory 105: Display image processing unit 106: Display element 107 ... AF evaluation value calculation unit 108 ... In-focus position calculation unit 109 ... In-focus position calculation start determination unit 110: Camera CPU 111: AF area change 200: Lens body 201: Focus lens 202 ... Motor 203 ... Lens drive circuit 204 ... Focus encoder 205 205 Lens CPU 300 ... Communication path

Claims (4)

撮影光学系を透過した被写体光を受光して撮像する撮像素子と、
前記撮像素子で撮像した画像を用いてAF評価値を演算するAF評価値演算部と、
前記AF評価値演算部の複数の結果を用いて合焦位置演算を行う合焦位置演算部と、
前記撮像素子からの撮像画像から演算された被写体情報に基づいて前記AF評価値演算部の結果の有意性を判断し、有意性を有する場合に前記合焦位置演算部に対して演算開始の判断を下す合焦位置演算開始判断部と、
を具備することを特徴とする撮像装置。
An image sensor for receiving and imaging subject light transmitted through the imaging optical system;
An AF evaluation value calculation unit that calculates an AF evaluation value using an image captured by the image sensor;
A focus position calculation unit that performs a focus position calculation using a plurality of results of the AF evaluation value calculation unit;
The significance of the result of the AF evaluation value calculation unit is determined based on the subject information calculated from the captured image from the imaging element, and if it is significant, the focus position calculation unit is determined to start calculation. An in-focus position calculation start determination unit,
An imaging apparatus comprising:
前記合焦位置演算開始判断部は、さらに、前記AF評価値演算部の結果が有意性を有しない場合に前記合焦位置演算部に対して演算停止の判断を下すことを特徴とする請求項1に記載の撮像装置。   The focus position calculation start determination unit further makes a determination to stop calculation with respect to the focus position calculation unit when the result of the AF evaluation value calculation unit is not significant. The imaging apparatus according to 1. 前記撮像画像のうち前記AF評価値演算部が前記評価値を演算する撮像画像のエリアを設定するAFエリア設定部をさらに具備し、
前記合焦位置演算開始判断部は、前記合焦位置演算部に対して演算停止の判断を下したとき、前記AFエリア設定部に対して前記AF評価値演算部が前記評価値を演算する撮像画像のエリアを変更する指示を伝達することを特徴とする請求項2に記載の撮像装置。
An AF area setting unit that sets an area of the captured image in which the AF evaluation value calculation unit calculates the evaluation value of the captured image;
When the focus position calculation start determination unit makes a determination to stop calculation with respect to the focus position calculation unit, the AF evaluation value calculation unit calculates the evaluation value with respect to the AF area setting unit. The imaging apparatus according to claim 2, wherein an instruction to change an image area is transmitted.
前記合焦位置演算開始判断部は、前記被写体情報として被写体の動き情報を用いることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the focus position calculation start determination unit uses movement information of a subject as the subject information.
JP2009069058A 2009-03-19 2009-03-19 Imaging apparatus Withdrawn JP2010224058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009069058A JP2010224058A (en) 2009-03-19 2009-03-19 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009069058A JP2010224058A (en) 2009-03-19 2009-03-19 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2010224058A true JP2010224058A (en) 2010-10-07

Family

ID=43041346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009069058A Withdrawn JP2010224058A (en) 2009-03-19 2009-03-19 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2010224058A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140262A (en) * 2012-01-05 2013-07-18 Canon Inc Focusing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140262A (en) * 2012-01-05 2013-07-18 Canon Inc Focusing device

Similar Documents

Publication Publication Date Title
US20220286598A1 (en) Camera body for receiving first and second image plane transfer coefficients
US7469098B2 (en) Optical apparatus
US8754979B2 (en) Focus adjustment device and imaging device
JP4843002B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4861057B2 (en) Imaging apparatus and control method thereof
US20110044675A1 (en) Focus adjustment apparatus and focus adjustment method
JP4730478B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2008032963A (en) Optical device, imaging apparatus and its control method
JP6610766B2 (en) Imaging device and interchangeable lens
JP2017211487A (en) Imaging apparatus and automatic focus adjustment method
JP5393300B2 (en) Imaging device
CN111133355B (en) Image pickup apparatus, control method of image pickup apparatus, and storage medium
JP2011013645A5 (en)
JP2011239131A (en) Imaging apparatus
JP2007328360A (en) Automatic focusing camera and photographing method
JP2011257450A (en) Imaging system
JP6032967B2 (en) IMAGING DEVICE, LENS DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP5418010B2 (en) Imaging apparatus and tracking method
JP2007316496A (en) Imaging apparatus and control method therefor
JP2010224058A (en) Imaging apparatus
JP5743459B2 (en) Imaging device and lens unit
JP2008170748A (en) Imaging apparatus and its control method
JP2010224165A (en) Imaging apparatus
JP2015118131A (en) Imaging apparatus
JP5938268B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605