JP5720767B2 - Focus detection device - Google Patents

Focus detection device Download PDF

Info

Publication number
JP5720767B2
JP5720767B2 JP2013260152A JP2013260152A JP5720767B2 JP 5720767 B2 JP5720767 B2 JP 5720767B2 JP 2013260152 A JP2013260152 A JP 2013260152A JP 2013260152 A JP2013260152 A JP 2013260152A JP 5720767 B2 JP5720767 B2 JP 5720767B2
Authority
JP
Japan
Prior art keywords
focus
position detection
detection result
image information
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013260152A
Other languages
Japanese (ja)
Other versions
JP2014081650A (en
Inventor
直之 大西
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013260152A priority Critical patent/JP5720767B2/en
Publication of JP2014081650A publication Critical patent/JP2014081650A/en
Application granted granted Critical
Publication of JP5720767B2 publication Critical patent/JP5720767B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、焦点検出装置に関する。   The present invention relates to a focus detection apparatus.

従来、追尾対象に設定された被写体を撮影画像中で追尾し、その追尾対象の位置における光学系の焦点調節状態を検出して光学系の焦点調節を行うカメラが知られている。特許文献1には、このような焦点調節を行うカメラにおいて、追尾対象の位置を正常に検出できなかった場合に、その旨を撮影者に通知するものが提案されている。   2. Description of the Related Art Conventionally, there has been known a camera that tracks a subject set as a tracking target in a captured image, detects a focus adjustment state of the optical system at the position of the tracking target, and adjusts the focus of the optical system. Patent Document 1 proposes a camera that performs such focus adjustment and notifies the photographer of the fact when the position of the tracking target cannot be detected normally.

特開2006−258943号公報JP 2006-258943 A

特許文献1に開示されるカメラでは、追尾対象の位置を正常に検出できなかった場合に、光学系の焦点調節状態を適切に検出することができない。   The camera disclosed in Patent Document 1 cannot properly detect the focus adjustment state of the optical system when the tracking target position cannot be normally detected.

請求項1の発明による焦点検出装置は、被写体を繰り返し撮像して被写体画像情報を繰り返し生成する撮像と、前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶と、前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出と、前記位置検出が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が所定時間より短い場合には前記位置検出で検出された位置検出結果を焦点検出位置として出力し、前記位置検出が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が前記所定時間より長い場合には過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾と、前記追尾により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出とを備えることを特徴とする。
請求項2の発明による焦点検出装置は、被写体を繰り返し撮像して被写体画像情報を繰り返し生成する撮像と、前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶と、前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出と、前記撮像による最新の前記被写体画像情報前記基準情報との類似度を演算し、前記類似度が所定値以上ならば前記位置検出で検出された最新の位置検出結果を焦点検出位置として出力し、前記類似度が所定値未満ならば過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾と、前記追尾により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出とを備えることを特徴とする。
A focus detection apparatus according to a first aspect of the present invention includes an imaging unit that repeatedly captures a subject and repeatedly generates subject image information, and a storage unit that stores reference information corresponding to the tracking target image information in the subject image information. , the subject of the position of the tracking target in the image information, a position detecting section for outputting the detected position detection result based on a comparison between the reference information and the subject image information, said position detecting unit is latest position detection when the difference between the obtained time and the time and the last position detection result acquisition results is shorter than the predetermined time and outputs a position detection result detected by the position detection unit as a focus detection position, the position detection unit When the difference between the time when the latest position detection result is acquired and the time when the previous position detection result is acquired is longer than the predetermined time, the position of the tracking target is based on a plurality of past position detection results. A tracking unit for outputting as a focus detection position by predicting, characterized in that it comprises a focus detecting unit for detecting the focusing state of the optical science system with respect to the focus detection position outputted by the tracking unit.
A focus detection apparatus according to a second aspect of the present invention includes an imaging unit that repeatedly captures a subject and repeatedly generates subject image information, and a storage unit that stores reference information corresponding to the tracking target image information in the subject image information. , the subject of the position of the tracking target in the image information, the object image information and the position detection unit and outputs the detected position detection result based on the comparison of the reference information, the latest of the subject image by the imaging unit calculates the class similarity score between the information and the reference information, the degree of similarity output the latest position detection result detected by the position detection unit if more than a predetermined value as a focus detection position, wherein the similarity is a predetermined value less than a tracking unit for outputting as a focus detection position if the position of the tracking object based on a plurality of past position detection results to predict if, with respect to the focus detection position output by the tracking unit Characterized in that it comprises a focus detecting unit for detecting the focusing state of the optical science system.

本発明によれば、追尾対象の位置を正常に検出できなかった場合であっても、光学系の焦点調節状態を適切に検出することができる。   According to the present invention, it is possible to appropriately detect the focus adjustment state of the optical system even when the position of the tracking target cannot be normally detected.

本発明の一実施形態による焦点調節装置を備えたデジタルカメラのブロック図である。1 is a block diagram of a digital camera including a focus adjustment device according to an embodiment of the present invention. 焦点検出エリアを示す図である。It is a figure which shows a focus detection area. 焦点調節時に実行される処理のフローチャートである。It is a flowchart of the process performed at the time of focus adjustment. 過去の位置履歴に基づく焦点検出エリアの選択処理を示すフローチャートである。It is a flowchart which shows the selection process of the focus detection area based on the past position history. 最新の位置検出結果に応じた焦点検出エリアの選択例を示す図である。It is a figure which shows the example of selection of the focus detection area according to the newest position detection result. 追尾対象の横方向の移動量を予測する方法を説明するための図である。It is a figure for demonstrating the method of estimating the moving amount | distance of the horizontal direction of a tracking object. 追尾対象の縦方向の移動量を予測する方法を説明するための図である。It is a figure for demonstrating the method of estimating the moving amount | distance of the vertical direction of a tracking object. 追尾対象の斜め方向の移動量を予測する方法を説明するための図である。It is a figure for demonstrating the method to estimate the moving amount | distance of the diagonal direction of a tracking object.

本発明の一実施形態による焦点調節装置を備えた一眼レフ方式のデジタルカメラについて、以下に説明する。図1は、カメラの要部構成を示すブロック図である。カメラは、カメラボディとレンズ鏡筒を有しており、カメラボディにレンズ鏡筒が交換可能に装着されている。レンズ鏡筒内には、レンズ光学系1と、レンズ駆動用モータ14が設けられている。レンズ光学系1は、被写体像を結像面に結像させるための光学系であり、焦点調節レンズを含む複数のレンズによって構成される。焦点調節レンズは、レンズ駆動用モータ14の動作により光軸方向に移動可能である。   A single-lens reflex digital camera equipped with a focus adjustment apparatus according to an embodiment of the present invention will be described below. FIG. 1 is a block diagram showing a main configuration of the camera. The camera has a camera body and a lens barrel, and the lens barrel is replaceably attached to the camera body. In the lens barrel, a lens optical system 1 and a lens driving motor 14 are provided. The lens optical system 1 is an optical system for forming a subject image on an imaging surface, and includes a plurality of lenses including a focus adjustment lens. The focus adjustment lens is movable in the optical axis direction by the operation of the lens driving motor 14.

カメラボディの内部には、クイックリターンミラー2、ファインダースクリーン3、ペンタプリズム4、接眼レンズ5、撮像素子6、サブミラー7、位相差AF検出素子8、AF−CCD制御部9、デフォーカス演算部10、フォーカスエリア位置決定部11、レンズ駆動量演算部12、レンズ駆動制御部13、測光用レンズ15、測光センサ16、操作部材17および制御装置18が設けられている。なお、AF−CCD制御部9、デフォーカス演算部10、フォーカスエリア位置決定部11、レンズ駆動量演算部12およびレンズ駆動制御部13は、制御装置18の機能により実現されるものである。   Inside the camera body are a quick return mirror 2, a viewfinder screen 3, a pentaprism 4, an eyepiece lens 5, an image sensor 6, a sub mirror 7, a phase difference AF detector 8, an AF-CCD controller 9, and a defocus calculator 10. , A focus area position determination unit 11, a lens drive amount calculation unit 12, a lens drive control unit 13, a photometric lens 15, a photometric sensor 16, an operation member 17, and a control device 18 are provided. The AF-CCD control unit 9, the defocus calculation unit 10, the focus area position determination unit 11, the lens drive amount calculation unit 12, and the lens drive control unit 13 are realized by the function of the control device 18.

撮像素子6には、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されている。撮像素子6は、レンズ光学系1によって結像される結像面の画像情報を撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を出力する。撮像素子6から出力された画像信号は、制御装置18の制御によって画像データに変換される。これにより、カメラにおいて撮像画像が取得される。撮像素子6には、たとえばCCDやCMOS等が使用される。なお、撮像素子6の撮像面の前には、赤外光をカットするための赤外カットフィルタや、画像の折り返しノイズを防止するための光学ローパスフィルタなどが配置されている。   In the image sensor 6, red (R), green (G), and blue (B) pixels are arranged in a predetermined arrangement pattern. The image pickup device 6 picks up image information of an image forming surface formed by the lens optical system 1 and outputs an image signal corresponding to color information and luminance information corresponding to each pixel. The image signal output from the image sensor 6 is converted into image data under the control of the control device 18. Thereby, a captured image is acquired in the camera. For example, a CCD or a CMOS is used for the image sensor 6. An infrared cut filter for cutting infrared light, an optical low-pass filter for preventing image aliasing noise, and the like are disposed in front of the imaging surface of the image sensor 6.

レンズ光学系1と撮像素子6との間には、レンズ光学系1を通過した被写体からの入射光束をファインダー光学系へと反射するクイックリターンミラー2が配設されている。入射光束の一部はクイックリターンミラー2の半透過領域を透過し、サブミラー7にて下方に反射された後に位相差AF検出素子8へ入射される。   A quick return mirror 2 is disposed between the lens optical system 1 and the imaging device 6 to reflect an incident light beam from a subject that has passed through the lens optical system 1 to the finder optical system. A part of the incident light beam passes through the semi-transmissive region of the quick return mirror 2, is reflected downward by the sub mirror 7, and then enters the phase difference AF detection element 8.

クイックリターンミラー2で反射された入射光束は、撮像素子6と光学的に等価な位置に設けられたファインダースクリーン3上に被写体像を結像する。ファインダースクリーン3上に結像された被写体像は、ペンタプリズム4および接眼レンズ5を通って撮影者の目へと導かれ、撮影者によって視認される。   The incident light beam reflected by the quick return mirror 2 forms a subject image on the finder screen 3 provided at a position optically equivalent to the image sensor 6. The subject image formed on the finder screen 3 is guided to the photographer's eyes through the pentaprism 4 and the eyepiece 5 and is visually recognized by the photographer.

ファインダースクリーン3上に結像された被写体像はまた、ペンタプリズム4および測光用レンズ15を通って測光センサ16へと導かれる。測光センサ16は、撮像素子6と同様に、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されており、レンズ光学系1により結像される結像面の画像情報を撮像する。そして、各画素に対応する色情報や輝度情報に応じた測光信号を制御装置18へ出力する。制御装置18は、この測光センサ16からの測光信号に基づいて、結像面の明るさを検出したり、予め追尾対象に設定された被写体像の結像面における位置を認識し、その被写体像の位置を追尾する被写体追尾を行ったりする。   The subject image formed on the finder screen 3 is also guided to the photometric sensor 16 through the pentaprism 4 and the photometric lens 15. Similar to the image sensor 6, the photometric sensor 16 has red (R), green (G), and blue (B) pixels arranged in a predetermined arrangement pattern, and is imaged by the lens optical system 1. Image information on the image plane is captured. Then, a photometric signal corresponding to the color information and luminance information corresponding to each pixel is output to the control device 18. Based on the photometric signal from the photometric sensor 16, the control device 18 detects the brightness of the imaging plane, recognizes the position of the subject image set in advance as a tracking target on the imaging plane, and detects the subject image. Subject tracking to track the position of.

カメラが撮影を行う際には、クイックリターンミラー2およびサブミラー7が光路上から光路外へと移動され、入射光束により撮像素子6上に被写体像が結像される。この被写体像を撮像素子6により撮像することで撮像画像が取得され、不図示のメモリーカードに記録される。こうしたクイックリターンミラー2およびサブミラー7の動作は、制御回路18により制御される。   When the camera performs shooting, the quick return mirror 2 and the sub mirror 7 are moved from the optical path to the outside of the optical path, and a subject image is formed on the image sensor 6 by the incident light flux. A captured image is acquired by capturing the subject image with the image sensor 6 and recorded in a memory card (not shown). The operations of the quick return mirror 2 and the sub mirror 7 are controlled by the control circuit 18.

位相差AF検出素子8は、不図示のマスク部、再結像レンズ、複数位置に配置されたAF用のCCDラインセンサなどを有している。この位相差AF検出素子8には、レンズ光学系1を通して入射され、クイックリターンミラー2を透過してサブミラー7により反射された被写体からの光束が入力される。この入射光束をマスク部により撮影レンズの異なる領域を通過する2つの光束に分けた後、再結像レンズにより一対の被写体像をCCDラインセンサ上に再結像し、その像位置の検出結果を表す像信号をCCDラインセンサから出力する。   The phase difference AF detection element 8 includes a mask unit (not shown), a re-imaging lens, an AF CCD line sensor arranged at a plurality of positions, and the like. The phase difference AF detection element 8 receives a light beam from the subject that is incident through the lens optical system 1, passes through the quick return mirror 2, and is reflected by the sub mirror 7. After splitting this incident light beam into two light beams that pass through different areas of the photographic lens by the mask part, a pair of subject images are re-imaged on the CCD line sensor by the re-imaging lens, and the detection result of the image position is obtained. A representative image signal is output from the CCD line sensor.

位相差AF検出素子8においてCCDラインセンサ上に再結像される一対の被写体像は、レンズ光学系1が予定焦点面よりも前に被写体の鮮鋭像を結ぶいわゆる前ピン状態では互いに近づき、逆に予定焦点面より後ろに被写体の鮮鋭像を結ぶいわゆる後ピン状態では互いに遠ざかる。また、レンズ光学系1が予定焦点面において被写体の鮮鋭像を結ぶ合焦状態では、一対の被写体像が相対的に一致する。したがって、上記のように一対の被写体像を再結像し、その像位置をCCDラインセンサによって検出することにより、レンズ光学系1からの入射光束に基づいて、レンズ光学系1の焦点調節状態が検出される。   The pair of subject images re-imaged on the CCD line sensor in the phase difference AF detection element 8 approach each other in the so-called front pin state in which the lens optical system 1 forms a sharp image of the subject before the intended focal plane, and vice versa. In the so-called rear pin state in which a sharp image of the subject is connected behind the planned focal plane, they move away from each other. In addition, in a focused state where the lens optical system 1 connects a sharp image of a subject on the planned focal plane, the pair of subject images relatively match. Therefore, by re-imaging the pair of subject images as described above and detecting the image position by the CCD line sensor, the focus adjustment state of the lens optical system 1 is based on the incident light beam from the lens optical system 1. Detected.

AF−CCD制御部9は、位相差AF検出素子8に設けられたCCDラインセンサのゲイン量や蓄積時間を制御する。また、前述の被写体追尾の結果に基づいて、レンズ光学系1による結像面内に設定された複数の焦点検出エリアの中から、いずれかの焦点検出エリアを選択する。本実施形態では、被写体追尾の結果、被写体像の位置と認識範囲に含まれる位置にある焦点検出エリアを選択するようになっている。そして、選択した焦点検出エリアにおける像信号を位相差AF検出素子8のCCDラインセンサから読み出し、デフォーカス演算部10へ出力する。   The AF-CCD control unit 9 controls the gain amount and accumulation time of the CCD line sensor provided in the phase difference AF detection element 8. Further, based on the result of the subject tracking described above, one of the focus detection areas is selected from a plurality of focus detection areas set in the imaging plane by the lens optical system 1. In the present embodiment, as a result of subject tracking, a focus detection area located at a position included in the recognition range and the position of the subject image is selected. The image signal in the selected focus detection area is read from the CCD line sensor of the phase difference AF detection element 8 and output to the defocus calculation unit 10.

デフォーカス演算部10は、AF−CCD制御部9によって読み出されたCCDラインセンサの出力値に基づいて、レンズ光学系1の焦点調節状態(ピントのずれ量)を表すデフォーカス量を算出する。   Based on the output value of the CCD line sensor read by the AF-CCD control unit 9, the defocus calculation unit 10 calculates a defocus amount representing the focus adjustment state (focus amount) of the lens optical system 1. .

フォーカスエリア位置決定部11は、デフォーカス演算部10によって算出されたデフォーカス量に基づいて、レンズ光学系1を最終的にフォーカスさせる焦点検出エリアの位置を決定する。   The focus area position determination unit 11 determines the position of the focus detection area where the lens optical system 1 is finally focused based on the defocus amount calculated by the defocus calculation unit 10.

レンズ駆動量演算部12は、デフォーカス演算部10によって算出されたデフォーカス量のうち、フォーカスエリア位置決定部11によって決定された焦点検出エリアのデフォーカス量に基づいて、レンズ光学系1が有する焦点調節レンズの駆動量を演算する。ここでは、焦点調節レンズの駆動位置の目標となるレンズ目標位置を演算することにより、レンズ駆動量の演算を行う。なお、レンズ目標位置は、当該デフォーカス量が0となる焦点調節レンズの位置に相当する。   The lens drive amount calculation unit 12 has the lens optical system 1 based on the defocus amount of the focus detection area determined by the focus area position determination unit 11 among the defocus amounts calculated by the defocus calculation unit 10. The driving amount of the focus adjustment lens is calculated. Here, the lens drive amount is calculated by calculating the lens target position which is the target of the drive position of the focus adjustment lens. The lens target position corresponds to the position of the focus adjustment lens where the defocus amount is zero.

レンズ駆動制御部13は、レンズ駆動量演算部12によって演算されたレンズ駆動量、すなわち焦点調節レンズに対するレンズ目標位置に基づいて、レンズ駆動用モータ14へ駆動制御信号を出力する。この駆動制御信号に応じて、レンズ駆動用モータ14が焦点調節レンズを駆動してレンズ目標位置へ移動させることにより、レンズ光学系1の焦点調節が行われる。   The lens drive control unit 13 outputs a drive control signal to the lens drive motor 14 based on the lens drive amount calculated by the lens drive amount calculation unit 12, that is, the lens target position with respect to the focus adjustment lens. In response to the drive control signal, the lens driving motor 14 drives the focus adjustment lens and moves it to the lens target position, thereby adjusting the focus of the lens optical system 1.

操作部材17は、カメラの操作を行うための各種スイッチ類によって構成される。たとえば、カメラの動作モードを選択するためのモード選択スイッチ、AFエリアを選択するためのエリア選択スイッチ、焦点調節の開始および撮影を指示するためのレリーズボタンなどが操作部材17に含まれる。   The operation member 17 includes various switches for operating the camera. For example, the operation member 17 includes a mode selection switch for selecting an operation mode of the camera, an area selection switch for selecting an AF area, a release button for instructing start of focus adjustment and photographing.

制御装置18は、マイコンやメモリ等によって構成されており、上記のAF−CCD制御部9、デフォーカス演算部10、フォーカスエリア位置決定部11、レンズ駆動量演算部12およびレンズ駆動制御部13の各機能を実現するための処理を実行したり、カメラの動作制御を行ったりする。また、これらの処理や制御において必要な情報を一時的に記憶する。   The control device 18 is configured by a microcomputer, a memory, and the like. The AF-CCD control unit 9, the defocus calculation unit 10, the focus area position determination unit 11, the lens drive amount calculation unit 12, and the lens drive control unit 13 described above. Processing for realizing each function is executed, and camera operation control is performed. Further, information necessary for these processes and controls is temporarily stored.

レンズ光学系1からの入射光束による像面内には、図2に示すように、51点の焦点検出エリア(焦点検出位置)a1〜a51が設定されている。レンズ光学系1の焦点調節を行う
際には、この焦点検出エリアa1〜a51のいずれか少なくとも1つがAF−CCD制御部9によって選択され、その焦点検出エリアのデフォーカス量がデフォーカス演算部10によって算出される。そして、フォーカスエリア位置決定部11により、デフォーカス量が算出された焦点検出エリアのうちいずれかが最終的なフォーカス対象の焦点検出エリアとして決定される。
As shown in FIG. 2, 51 focus detection areas (focus detection positions) a1 to a51 are set in the image plane of the incident light beam from the lens optical system 1. When adjusting the focus of the lens optical system 1, at least one of the focus detection areas a1 to a51 is selected by the AF-CCD control unit 9, and the defocus amount of the focus detection area is determined by the defocus calculation unit 10. Is calculated by Then, the focus area position determination unit 11 determines any focus detection area in which the defocus amount is calculated as the final focus detection focus detection area.

以上説明したような方法で決定された焦点検出エリアに対応するデフォーカス量に基づいて、レンズ駆動量演算部12により、レンズ光学系1の焦点調節レンズの駆動量が演算される。そして、レンズ駆動制御部13からレンズ駆動用モータ14へ駆動制御信号が出力される。これにより、レンズ光学系1の焦点調節が行われ、レンズ光学系1が被写体に対して合焦状態となる。   Based on the defocus amount corresponding to the focus detection area determined by the method described above, the lens drive amount calculation unit 12 calculates the drive amount of the focus adjustment lens of the lens optical system 1. Then, a drive control signal is output from the lens drive control unit 13 to the lens drive motor 14. As a result, the focus of the lens optical system 1 is adjusted, and the lens optical system 1 is brought into focus with respect to the subject.

焦点調節時に実行される処理のフローチャートを図3に示す。このフローチャートは、所定の開始条件を満たすことにより、制御装置18において実行される。たとえば、操作部材17のレリーズボタンがユーザによって半押し操作されたときや、操作部材17のモード選択スイッチにより所定の動作モードが設定されたときに、図3のフローチャートが実行される。   FIG. 3 shows a flowchart of processing executed at the time of focus adjustment. This flowchart is executed in the control device 18 by satisfying a predetermined start condition. For example, the flowchart of FIG. 3 is executed when the release button of the operation member 17 is pressed halfway by the user or when a predetermined operation mode is set by the mode selection switch of the operation member 17.

ステップS10において、制御装置18は、追尾対象とする被写体を設定する。この追尾対象の設定は、たとえば、スルー画に対するユーザの焦点検出エリアの選択に応じて行われる。具体的には、撮像素子6または測光センサ16により撮像した画像を図示しない表示装置にスルー画として表示する。ユーザは、操作部材17のエリア選択スイッチを操作することにより、スルー画上で追尾対象としたい被写体の位置に対応する焦点検出エリを選択する。その後、制御装置18は、選択された焦点検出エリアに対応する画像情報を追尾対象の画像情報として設定する。あるいは、撮像素子6または測光センサ16により撮像した画像に基づいて、制御装置18が自動的に主要被写体を判別し、その主要被写体を追尾対象に設定してもよい。こうして設定された追尾対象の画像情報は、基準情報として制御装置18内のメモリに記憶される。   In step S10, the control device 18 sets a subject to be tracked. This tracking target setting is performed, for example, according to the user's selection of the focus detection area for the through image. Specifically, an image captured by the image sensor 6 or the photometric sensor 16 is displayed as a through image on a display device (not shown). The user selects a focus detection area corresponding to the position of the subject to be tracked on the through image by operating the area selection switch of the operation member 17. Thereafter, the control device 18 sets the image information corresponding to the selected focus detection area as the tracking target image information. Alternatively, the control device 18 may automatically determine the main subject based on the image captured by the image sensor 6 or the photometric sensor 16, and set the main subject as a tracking target. The tracking target image information set in this way is stored in the memory in the control device 18 as reference information.

ステップS20において、制御装置18は、測光センサ16から出力される測光信号を取得する。ステップS30において、制御装置18は、ステップS20で取得した測光信号に基づいて、ステップS10で設定した追尾対象の位置を結像面において検出する。ここでは、ステップS20で取得した測光信号が表す結像面の画像情報と、ステップS10でメモリに記憶された基準情報とを比較する。この比較結果に基づいて、測光センサ16の各画素に対応する色情報または輝度情報が基準情報と最も類似する部分を結像面において特定し、その部分を追尾対象の位置として検出する。   In step S <b> 20, the control device 18 acquires a photometric signal output from the photometric sensor 16. In step S30, the control device 18 detects the position of the tracking target set in step S10 on the imaging plane based on the photometric signal acquired in step S20. Here, the image information of the image plane represented by the photometric signal acquired in step S20 is compared with the reference information stored in the memory in step S10. Based on this comparison result, a portion where the color information or luminance information corresponding to each pixel of the photometric sensor 16 is most similar to the reference information is identified on the imaging plane, and that portion is detected as the position of the tracking target.

以上説明したステップS20およびS30の処理は、制御装置18において図3のフローチャートが実行されている間は、所定の処理周期で繰り返し実行される。すなわち、レンズ光学系1により結像される結像面の画像情報が測光センサ16により繰り返し撮像され、測光センサ16から出力される測光信号が制御装置18によりステップS20において取得される。そして、ステップS30の処理が繰り返し実行され、各時点における追尾対象位置の検出結果が制御装置18により順次出力される。これ以降では、特に断りのない限り、追尾対象位置の検出結果が少なくとも3回以上出力されているものとして説明を行う。   The processes of steps S20 and S30 described above are repeatedly executed at a predetermined processing cycle while the flowchart of FIG. That is, the image information of the imaging surface formed by the lens optical system 1 is repeatedly imaged by the photometric sensor 16, and the photometric signal output from the photometric sensor 16 is acquired by the control device 18 in step S20. Then, the process of step S30 is repeatedly executed, and the detection result of the tracking target position at each time point is sequentially output by the control device 18. Hereinafter, description will be made assuming that the detection result of the tracking target position is output at least three times unless otherwise specified.

ステップS40において、制御装置18は、ステップS30で得られた最新の位置検出結果、すなわち最後に実行したステップS30による追尾対象位置の検出結果が適当であるか否かを判定する。ここでは、様々な判定条件に基づいて最新の位置検出結果が適当であるか否かを判定することができる。たとえば、測光センサ16がレンズ光学系1による結像面の画像情報を取得して測光信号を制御装置18へ出力したときの時刻に基づいて、最新の検出結果が適当であるか否かを判定する。具体的には、ステップS20において制御装置18が測光センサ16から測光信号を取得する度に、その取得時刻を記録しておく。そして、ステップS40において、最後に測光信号を取得した時刻と、その前に測光信号を取得した時刻との差を求める。この取得時刻の差が所定時間未満であれば最新の位置検出結果が適当であると判定し、所定時間以上であれば最新の位置検出結果が適当ではないと判定することができる。なお、前回の測光信号の取得時刻は、前回の処理においてデフォーカス量を検出するために用いられた(つまり、前回のステップS30で最新の位置検出結果が適当であると判定された)画像情報の取得時刻を表している。   In step S40, the control device 18 determines whether or not the latest position detection result obtained in step S30, that is, the tracking target position detection result in step S30 executed last is appropriate. Here, it is possible to determine whether or not the latest position detection result is appropriate based on various determination conditions. For example, it is determined whether or not the latest detection result is appropriate based on the time when the photometric sensor 16 acquires the image information of the imaging plane by the lens optical system 1 and outputs the photometric signal to the control device 18. To do. Specifically, every time the control device 18 acquires a photometric signal from the photometric sensor 16 in step S20, the acquisition time is recorded. In step S40, the difference between the time when the photometric signal was last acquired and the time when the photometric signal was acquired before that time is obtained. If the difference between the acquisition times is less than the predetermined time, it can be determined that the latest position detection result is appropriate, and if the difference is greater than the predetermined time, it can be determined that the latest position detection result is not appropriate. The previous photometric signal acquisition time is used to detect the defocus amount in the previous process (that is, the latest position detection result is determined to be appropriate in the previous step S30). Represents the acquisition time.

あるいは、制御装置18が前回の位置検出結果を得てから最新の位置検出結果を得るまでの時間、すなわち、前回ステップS30の処理を実行してから今回ステップS30の処理を実行するまでの時間に基づいて、最新の検出結果が適当であるか否かを判定してもよい。具体的には、制御装置18がステップS30において追尾対象位置を検出する度に、その検出時刻を記録しておく。そして、ステップS40において、今回の検出時刻と前回の検出時刻との差を求め、この差が所定時間未満であれば最新の位置検出結果が適当であると判定し、所定時間以上であれば最新の位置検出結果が適当ではないと判定することができる。   Alternatively, the time from when the control device 18 obtains the latest position detection result to the time when the latest position detection result is obtained, that is, the time from the execution of the previous step S30 to the execution of the current step S30. Based on this, it may be determined whether or not the latest detection result is appropriate. Specifically, each time the control device 18 detects the tracking target position in step S30, the detection time is recorded. In step S40, the difference between the current detection time and the previous detection time is obtained. If this difference is less than a predetermined time, the latest position detection result is determined to be appropriate. It can be determined that the position detection result is not appropriate.

また、最新の位置検出結果を得たときの測光信号が表す結像面の画像情報と基準情報との類似度に基づいて、その検出結果が適当であるか否かを判定してもよい。具体的には、制御装置18がステップS30において追尾対象位置を検出する際に、当該位置に対応する部分の画像情報が基準情報とどの程度一致するかを表す類似度を演算し、その演算結果を記録しておく。こうして記録された類似度が所定値以上であれば、ステップS40において最新の位置検出結果が適当であると判定し、所定値未満であれば適当ではないと判定することができる。   Further, it may be determined whether or not the detection result is appropriate based on the similarity between the image information on the imaging plane represented by the photometry signal when the latest position detection result is obtained and the reference information. Specifically, when the control device 18 detects the tracking target position in step S30, the similarity indicating how much the image information of the portion corresponding to the position matches the reference information is calculated, and the calculation result Record. If the similarity thus recorded is greater than or equal to a predetermined value, it can be determined in step S40 that the latest position detection result is appropriate, and if it is less than the predetermined value, it can be determined that it is not appropriate.

さらに、最新の位置検出結果を得たときの測光信号が表す結像面の輝度や、前回の位置検出結果と最新の位置検出結果との差分などに基づいて、最新の位置検出結果が適当であるか否かを判定してもよい。すなわち、これらの値が予め定められた撮影時に想定される通常の範囲を超えていなければ、ステップS40において最新の位置検出結果が適当であると判定し、当該範囲を超えていれば適当ではないと判定することができる。   In addition, the latest position detection result is appropriate based on the brightness of the image plane represented by the photometric signal when the latest position detection result is obtained and the difference between the previous position detection result and the latest position detection result. It may be determined whether or not there is. That is, if these values do not exceed the normal range assumed at the time of photographing, it is determined in step S40 that the latest position detection result is appropriate, and if it exceeds the range, it is not appropriate. Can be determined.

以上説明したような判定条件に基づいて、ステップS40の判定が行われる。その結果、最新の位置検出結果が適当であると判定された場合はステップS50へ進み、適当でないと判定された場合はステップS60へ進む。このとき複数の判定条件を組み合わせて用いてもよい。なお、ステップS30において最新の位置検出結果が得られなかった場合もステップS60へ進む。一方、ステップS30の処理が実行された回数が3回に満たない場合、すなわち1回または2回である場合は、後で説明するステップS60の処理を実行することができない。したがってこの場合は、ステップS40の判定結果に関わらずステップS50へ進む。あるいは、ステップS30の処理が実行された回数が3回に満たず、かつステップS40において最新の位置検出結果が適当ではないと判定された場合には、それ以降の処理を実行せずにステップS20へ戻るようにしてもよい。   Based on the determination conditions as described above, the determination in step S40 is performed. As a result, when it is determined that the latest position detection result is appropriate, the process proceeds to step S50, and when it is determined that it is not appropriate, the process proceeds to step S60. At this time, a plurality of determination conditions may be used in combination. In addition, also when the newest position detection result is not obtained in step S30, it progresses to step S60. On the other hand, when the number of times that the process of step S30 has been performed is less than 3, that is, once or twice, the process of step S60 described later cannot be performed. Therefore, in this case, the process proceeds to step S50 regardless of the determination result of step S40. Alternatively, when it is determined that the number of times that the process of step S30 has been performed is less than 3 and the latest position detection result is not appropriate in step S40, the subsequent process is not performed and step S20 is performed. You may make it return to.

ステップS50において、制御装置18は、図2に示す焦点検出エリアa1〜a51の中か
ら、最新の位置検出結果に応じた焦点検出エリアを選択する。たとえば、最新の位置検出結果として、図5に示す縦4画素、横4画素の合計16画素からなる範囲51が得られたとする。この場合、範囲51に対応するa4,a5,a6,a9,a10,a11,a14,a15およびa16の各焦点検出エリアがステップS50において選択される。ステップS50を実行したらステップS70へ進む。
In step S50, the control device 18 selects a focus detection area corresponding to the latest position detection result from the focus detection areas a1 to a51 shown in FIG. For example, it is assumed that a range 51 including a total of 16 pixels of 4 vertical pixels and 4 horizontal pixels shown in FIG. 5 is obtained as the latest position detection result. In this case, the focus detection areas of a4, a5, a6, a9, a10, a11, a14, a15 and a16 corresponding to the range 51 are selected in step S50. If step S50 is performed, it will progress to step S70.

なお、ステップS50において、最新の位置検出結果に加えて、前回の位置検出結果を加味して焦点検出エリアを選択することもできる。たとえば、前回の位置検出結果に基づいて、最新の位置検出結果が表す範囲よりも若干広めの範囲を設定し、その範囲に対応する焦点検出エリアを選択する。このようにして、前回の位置検出結果および最新の位置検出結果に基づいて焦点検出エリアを選択してもよい。   In step S50, the focus detection area can be selected in consideration of the previous position detection result in addition to the latest position detection result. For example, a range slightly wider than the range represented by the latest position detection result is set based on the previous position detection result, and a focus detection area corresponding to the range is selected. In this way, the focus detection area may be selected based on the previous position detection result and the latest position detection result.

ステップS60において、制御装置18は、過去の位置履歴に基づく焦点検出エリアの選択処理を行う。この処理の内容を図4のフローチャートにより説明する。   In step S60, the control device 18 performs a focus detection area selection process based on the past position history. The contents of this process will be described with reference to the flowchart of FIG.

図4のステップS61〜S63において、制御装置18は、追尾対象の移動方向を予測するための判定を行う。ここでは、前回の位置検出結果による追尾対象位置を代表する点の座標値と、前々回の位置検出結果による追尾対象位置を代表する点の座標値とを、それぞれ(x1,y1)および(x2,y2)とする。ステップS61において、制御装置18は、x1≠x2かつy1=y2の条件を満たすか否かを判定する。この条件を満たす場合、制御装置18は、追尾対象が横方向に移動していると判断してステップS64へ進む。条件を満たさない場合はステップS62へ進む。   In steps S61 to S63 in FIG. 4, the control device 18 performs determination for predicting the movement direction of the tracking target. Here, the coordinate value of the point representing the tracking target position based on the previous position detection result and the coordinate value of the point representing the tracking target position based on the previous position detection result are respectively (x1, y1) and (x2, y2). In step S61, the control device 18 determines whether or not the condition x1 ≠ x2 and y1 = y2 is satisfied. When this condition is satisfied, the control device 18 determines that the tracking target is moving in the horizontal direction, and proceeds to step S64. If the condition is not satisfied, the process proceeds to step S62.

ステップS62において、制御装置18は、x1=x2かつy1≠y2の条件を満たすか否かを判定する。この条件を満たす場合、制御装置18は、追尾対象が縦方向に移動していると判断してステップS65へ進む。条件を満たさない場合はステップS63へ進む。   In step S62, the control device 18 determines whether or not the conditions x1 = x2 and y1 ≠ y2 are satisfied. When this condition is satisfied, the control device 18 determines that the tracking target is moving in the vertical direction, and proceeds to step S65. If the condition is not satisfied, the process proceeds to step S63.

ステップS63において、制御装置18は、x1≠x2かつy1≠y2の条件を満たすか否かを判定する。この条件を満たす場合、制御装置18は、追尾対象が斜め方向に移動していると判断してステップS66へ進む。一方、ステップS61〜63においていずれの条件を満たさないと判定された場合は、追尾対象が移動していないと判断してステップS67へ進む。   In step S63, the control device 18 determines whether the conditions x1 ≠ x2 and y1 ≠ y2 are satisfied. When this condition is satisfied, the control device 18 determines that the tracking target is moving in an oblique direction, and proceeds to step S66. On the other hand, if it is determined in step S61 to 63 that none of the conditions is satisfied, it is determined that the tracking target has not moved, and the process proceeds to step S67.

ステップS64において、制御装置18は、前回の追尾対象位置に対応する座標値(x1,y1)と、前々回の追尾対象位置に対応する座標値(x2,y2)とに基づいて、追尾対象の横方向の移動量を予測する。その方法を図6により説明する。たとえば、前々回の位置検出結果として図6に示す範囲61が得られたとする。この範囲61を代表する点(ここでは左下の点)の座標値を(x2,y2)とする。同様に、前回の位置検出結果を代表する点の座標値を(x1,y1)と表す。ここで、y2=y1である。   In step S <b> 64, the control device 18 determines the horizontal position of the tracking target based on the coordinate value (x1, y1) corresponding to the previous tracking target position and the coordinate value (x2, y2) corresponding to the previous tracking target position. Predict the amount of movement in the direction. The method will be described with reference to FIG. For example, it is assumed that a range 61 shown in FIG. The coordinate value of a point representing the range 61 (here, the lower left point) is (x2, y2). Similarly, the coordinate value of a point representing the previous position detection result is represented as (x1, y1). Here, y2 = y1.

図6において、前回の追尾対象位置から今回の追尾対象位置までの横方向の移動量を示す矢印63は、(x1,y1)を始点としており、(x2,y2)から(x1,y1)へ向かう矢印62
と同じ向きおよび長さを有するものと予測される。したがって、今回の追尾対象位置に対応する点の座標値を(x0,y0)とすると、x0,y0の予測値は、それぞれx0=x1+(x1−x2
)、y0=y1=y2と求められる。このようにして追尾対象の横方向の移動量を予測し、その予測結果に基づいて今回の追尾対象位置に対応する座標値(x0,y0)を求めたら、制御装
置18はステップS67へ進む。
In FIG. 6, an arrow 63 indicating the amount of horizontal movement from the previous tracking target position to the current tracking target position starts at (x1, y1) and goes from (x2, y2) to (x1, y1). Arrow 62 heading
With the same orientation and length. Therefore, assuming that the coordinate value of the point corresponding to the current tracking target position is (x0, y0), the predicted values of x0 and y0 are x0 = x1 + (x1−x2), respectively.
), Y0 = y1 = y2. When the lateral movement amount of the tracking target is predicted in this way and the coordinate value (x0, y0) corresponding to the current tracking target position is obtained based on the prediction result, the control device 18 proceeds to step S67.

ステップS65において、制御装置18は、前回の追尾対象位置に対応する座標値(x1,y1)と、前々回の追尾対象位置に対応する座標値(x2,y2)とに基づいて、追尾対象の縦方向の移動量を予測する。その方法を図7により説明する。たとえば、前々回の位置検出結果として図7に示す範囲71が得られたとする。この範囲71を代表する点(ここでは左下の点)の座標値を(x2,y2)とする。同様に、前回の位置検出結果を代表する点の座標値を(x1,y1)と表す。ここで、x2=x1である。   In step S65, the control device 18 determines the vertical tracking target position based on the coordinate values (x1, y1) corresponding to the previous tracking target position and the coordinate values (x2, y2) corresponding to the previous tracking target position. Predict the amount of movement in the direction. The method will be described with reference to FIG. For example, it is assumed that a range 71 shown in FIG. The coordinate value of a point representing the range 71 (here, the lower left point) is (x2, y2). Similarly, the coordinate value of a point representing the previous position detection result is represented as (x1, y1). Here, x2 = x1.

図7において、前回の追尾対象位置から今回の追尾対象位置までの縦方向の移動量を示す矢印73は、(x1,y1)を始点としており、(x2,y2)から(x1,y1)へ向かう矢印72
と同じ向きおよび長さを有するものと予測される。したがって、今回の追尾対象位置に対応する点の座標値を(x0,y0)とすると、x0,y0の予測値は、それぞれx0=x1=x2、y0=y1+(y1−y2)と求められる。このようにして追尾対象の縦方向の移動量を予測し、その
予測結果に基づいて今回の追尾対象位置に対応する座標値(x0,y0)を求めたら、制御装
置18はステップS67へ進む。
In FIG. 7, an arrow 73 indicating the amount of vertical movement from the previous tracking target position to the current tracking target position starts at (x1, y1) and goes from (x2, y2) to (x1, y1). Arrow 72 heading
With the same orientation and length. Therefore, assuming that the coordinate value of the point corresponding to the current tracking target position is (x0, y0), the predicted values of x0 and y0 are obtained as x0 = x1 = x2 and y0 = y1 + (y1−y2), respectively. When the amount of vertical movement of the tracking target is predicted in this way and the coordinate value (x0, y0) corresponding to the current tracking target position is obtained based on the prediction result, the control device 18 proceeds to step S67.

ステップS66において、制御装置18は、前回の追尾対象位置に対応する座標値(x1,y1)と、前々回の追尾対象位置に対応する座標値(x2,y2)とに基づいて、追尾対象の斜め方向の移動量を予測する。その方法を図8により説明する。たとえば、前々回の位置検出結果として図8に示す範囲81が得られたとする。この範囲81を代表する点(ここでは左下の点)の座標値を(x2,y2)とする。同様に、前回の位置検出結果を代表する点の座標値を(x1,y1)と表す。   In step S66, the control device 18 determines the diagonal of the tracking target based on the coordinate value (x1, y1) corresponding to the previous tracking target position and the coordinate value (x2, y2) corresponding to the previous tracking target position. Predict the amount of movement in the direction. The method will be described with reference to FIG. For example, it is assumed that a range 81 shown in FIG. 8 is obtained as a position detection result two times before. The coordinate value of a point representing the range 81 (here, the lower left point) is (x2, y2). Similarly, the coordinate value of a point representing the previous position detection result is represented as (x1, y1).

図8において、前回の追尾対象位置から今回の追尾対象位置までの斜め方向の移動量を示す矢印83は、(x1,y1)を始点としており、(x2,y2)から(x1,y1)へ向かう矢印8
2と同じ向きおよび長さを有するものと予測される。したがって、今回の追尾対象位置に対応する点の座標値を(x0,y0)とすると、x0,y0の予測値は、それぞれx0=x1+(x1−x2)、y0=y1+(y1−y2)と求められる。このようにして追尾対象の斜め方向の移動量を
予測し、その予測結果に基づいて今回の追尾対象位置に対応する座標値(x0,y0)を求め
たら、制御装置18はステップS67へ進む。
In FIG. 8, an arrow 83 indicating the amount of movement in the oblique direction from the previous tracking target position to the current tracking target position starts at (x1, y1) and goes from (x2, y2) to (x1, y1). Arrow 8 heading
2 is expected to have the same orientation and length. Therefore, if the coordinate value of the point corresponding to the current tracking target position is (x0, y0), the predicted values of x0 and y0 are x0 = x1 + (x1−x2) and y0 = y1 + (y1−y2), respectively. Desired. When the amount of movement of the tracking target in the oblique direction is predicted in this way and the coordinate value (x0, y0) corresponding to the current tracking target position is obtained based on the prediction result, the control device 18 proceeds to step S67.

以上説明したステップS64、S65またはS66のいずれかの処理が実行されることにより、制御装置18は、前回の追尾対象位置の検出結果に基づいて、追尾対象の移動方向および移動量を予測することができる。なお、本実施形態においては、ステップS60で過去の位置履歴として前回の位置検出結果と前々回の位置検出結果とを用いることとしたが適宜変更可能である。例えば、前回の位置検出結果も適当でないと判断されている場合、前々回の位置検出結果とその一つ前の位置検出結果とを用いることとしてもよい。この場合、前々回の位置検出結果による追尾対象位置を代表する点の座標値を(x2,y2)と
し、その一つ前の位置検出結果による追尾対象位置を代表する点の座標値を(x3,y3)と
し、ステップS64ではx0=x2+2(x2−x3)、y0=y2=y3と予測され、ステップS65
ではx0=x2=x3、y0=y2+2(y2−y3)と予測され、ステップS66ではx0=x2+2(x2−x3)、y0=y2+2(y2−y3)と予測される。また、前回の位置検出結果は適当であるが前
々回の位置検出結果が適当でない場合、前回の位置検出結果と前々回の一つ前の位置検出結果とを用いることとしてもよい。この場合、前回の位置検出結果による追尾対象位置を代表する点の座標値を(x1,y1)とし、前々回の一つ前の位置検出結果による追尾対象位
置を代表する点の座標値を(x3,y3)とし、ステップS64ではx0=x1+(x1−x3)/2、y0=y1=y3と予測され、ステップS65ではx0=x1=x3、y0=y1+(y1−y3)/2と予測され、ステップS66ではx0=x1+(x1−x3)/2、y0=y1+(y1−y3)/2と予測される。このように、制御装置18は、各回での位置検出結果が適当であるか否かの判定結果を記憶しておき、適当と判定された位置検出結果のみを用いて追尾対象の移動方向および移動量を予測するのが好ましい。
By executing any one of steps S64, S65, and S66 described above, the control device 18 predicts the movement direction and movement amount of the tracking target based on the previous detection result of the tracking target position. Can do. In the present embodiment, the previous position detection result and the previous position detection result are used as the past position history in step S60, but can be appropriately changed. For example, when it is determined that the previous position detection result is not appropriate, the previous position detection result and the previous position detection result may be used. In this case, the coordinate value of the point representing the tracking target position based on the previous position detection result is (x2, y2), and the coordinate value of the point representing the tracking target position based on the previous position detection result is (x3, y3), and in step S64, x0 = x2 + 2 (x2-x3) and y0 = y2 = y3 are predicted, and step S65
Is predicted to be x0 = x2 = x3, y0 = y2 + 2 (y2−y3), and in step S66, x0 = x2 + 2 (x2−x3) and y0 = y2 + 2 (y2−y3) are predicted. If the previous position detection result is appropriate but the previous position detection result is not appropriate, the previous position detection result and the previous previous position detection result may be used. In this case, the coordinate value of the point representing the tracking target position based on the previous position detection result is (x1, y1), and the coordinate value of the point representing the tracking target position based on the immediately preceding position detection result is (x3 , y3), and in step S64, x0 = x1 + (x1-x3) / 2 and y0 = y1 = y3 are predicted, and in step S65, x0 = x1 = x3 and y0 = y1 + (y1-y3) / 2 are predicted. In step S66, x0 = x1 + (x1-x3) / 2 and y0 = y1 + (y1-y3) / 2 are predicted. As described above, the control device 18 stores the determination result as to whether or not the position detection result at each time is appropriate, and uses only the position detection result determined to be appropriate as the moving direction and movement of the tracking target. It is preferred to predict the amount.

ステップS67において、制御装置18は、ステップS64、S65またはS66のいずれかにおいて予測した移動量に応じた焦点検出エリアを選択する。たとえばステップS64において横方向の移動量を予測した場合は、その移動方向および移動量に基づいて、図6に示すように結像面内に範囲64を設定し、この範囲64内に位置する焦点検出エリアを選択する。また、ステップS65において縦方向の移動量を予測した場合は、その移動方向および移動量に基づいて、図7に示すように結像面内に範囲74を設定し、この範囲74内に位置する焦点検出エリアを選択する。さらに、ステップS66において斜め方向の移動量を予測した場合は、その移動方向および移動量に基づいて、図8に示すように結像面内に範囲84を設定し、この範囲84内に位置する焦点検出エリアを選択する。なお、ステップS64〜S66のいずれも実行しなかった場合、すなわち追尾対象が移動していないと判断された場合は、前回の位置検出結果に応じた範囲内に位置する焦点検出エリアを選択する。いずれの場合においても、前回の位置検出結果が表す範囲よりも若干広めの範囲を設定し、その範囲に対応する焦点検出エリアを選択するようにしてもよい。ステップS67を実行したら、制御装置18は図4のフローチャートを終了して図3のステップS70へ進む。   In step S67, the control device 18 selects a focus detection area corresponding to the movement amount predicted in any of steps S64, S65, or S66. For example, when the amount of movement in the horizontal direction is predicted in step S64, a range 64 is set in the image plane as shown in FIG. Select the detection area. Further, when the amount of movement in the vertical direction is predicted in step S65, a range 74 is set in the image plane as shown in FIG. 7 based on the direction and amount of movement, and is located within this range 74. Select the focus detection area. Furthermore, when the amount of movement in the oblique direction is predicted in step S66, a range 84 is set in the image plane as shown in FIG. 8 based on the direction and amount of movement, and is located within this range 84. Select the focus detection area. If none of steps S64 to S66 is executed, that is, if it is determined that the tracking target has not moved, a focus detection area located within a range corresponding to the previous position detection result is selected. In either case, a range slightly wider than the range represented by the previous position detection result may be set, and the focus detection area corresponding to that range may be selected. If step S67 is performed, the control apparatus 18 will complete | finish the flowchart of FIG. 4, and will progress to step S70 of FIG.

ステップS70において、制御装置18は、ステップS50またはS60の処理によって選択した焦点検出エリアにおける像信号を位相差AF検出素子8のCCDラインセンサから読み出す。ステップS80において、制御装置18は、ステップS70で読み出した像信号に基づいて、レンズ光学系1の焦点調節状態を表すデフォーカス量を算出する。   In step S <b> 70, the control device 18 reads the image signal in the focus detection area selected by the processing in step S <b> 50 or S <b> 60 from the CCD line sensor of the phase difference AF detection element 8. In step S80, the control device 18 calculates a defocus amount representing the focus adjustment state of the lens optical system 1 based on the image signal read in step S70.

ステップS90において、制御装置18は、ステップS50またはS60の処理によって選択した全ての焦点検出エリアに対して、ステップS80におけるデフォーカス量の演算が終了したか否かを判定する。まだデフォーカス量を演算していない焦点検出エリアが存在する場合はステップS70へ戻り、当該焦点検出エリアに対してステップS70およびS80の処理を行うことでデフォーカス量を演算する。選択された全ての焦点検出エリアに対してデフォーカス量の演算が終了した場合はステップS100へ進む。   In step S90, the control device 18 determines whether or not the calculation of the defocus amount in step S80 has been completed for all focus detection areas selected by the processing in step S50 or S60. If there is a focus detection area for which the defocus amount has not yet been calculated, the process returns to step S70, and the defocus amount is calculated by performing steps S70 and S80 on the focus detection area. When the calculation of the defocus amount is completed for all the selected focus detection areas, the process proceeds to step S100.

ステップS100において、制御装置18は、ステップS50またはS60の処理によって選択した焦点検出エリアの中から、レンズ光学系1を合焦させる対象とする焦点検出エリア(合焦エリア)を決定する。ここでは、ステップS80で各焦点検出エリアに対して算出したデフォーカス量に基づいて合焦エリアを決定することができる。たとえば、最小のデフォーカス量が得られた焦点検出エリアを合焦エリアとする。これ以外の方法で合焦エリアを決定してもよい。   In step S100, the control device 18 determines a focus detection area (focusing area) as a target for focusing the lens optical system 1 from the focus detection areas selected by the processing in step S50 or S60. Here, the focus area can be determined based on the defocus amount calculated for each focus detection area in step S80. For example, the focus detection area where the minimum defocus amount is obtained is set as the focus area. The focusing area may be determined by other methods.

ステップS110において、制御装置18は、ステップS100で決定した合焦エリアに対して算出されたデフォーカス量に基づいて、レンズ光学系1の焦点調節レンズを駆動するための駆動量を決定する。ステップS120において、制御装置18は、ステップS110で決定した駆動量に基づいて、レンズ駆動用モータ14に対して駆動制御信号を出力する。これにより、レンズ駆動用モータ14が焦点調節レンズを駆動し、レンズ光学系1の焦点調節が行われる。   In step S110, the control device 18 determines a drive amount for driving the focus adjustment lens of the lens optical system 1 based on the defocus amount calculated for the in-focus area determined in step S100. In step S120, the control device 18 outputs a drive control signal to the lens driving motor 14 based on the drive amount determined in step S110. Thereby, the lens driving motor 14 drives the focus adjustment lens, and the focus adjustment of the lens optical system 1 is performed.

ステップS130において、制御装置18は、処理を終了するか否かを判定する。所定の終了条件を満たす場合、たとえばユーザによるレリーズボタンの半押し操作が解除された場合や、レリーズボタンがユーザによって全押し操作されることにより撮像を指示された場合に、制御装置18は図3のフローチャートを終了する。一方、このような終了条件を満たさない場合、制御装置18はステップS20へ戻って前述のような処理を繰り返し実行する。   In step S130, the control device 18 determines whether or not to end the process. When the predetermined end condition is satisfied, for example, when the half-press operation of the release button by the user is released, or when imaging is instructed by the user pressing the release button fully, the control device 18 performs FIG. This flowchart is finished. On the other hand, when such an end condition is not satisfied, the control device 18 returns to step S20 and repeatedly executes the above-described processing.

なお、以上説明した図3および4のフローチャートにおいて、ステップS10〜S70およびS61〜S67の処理はAF−CCD制御部9の動作に、ステップS80の処理はデフォーカス演算部10の動作に、ステップS100の処理はフォーカスエリア位置決定部11の動作に、ステップS110の処理はレンズ駆動量演算部12の動作に、ステップS120の処理はレンズ駆動制御部13の動作に、それぞれ対応している。   3 and 4, the processes in steps S10 to S70 and S61 to S67 are performed for the operation of the AF-CCD control unit 9, the process in step S80 is performed for the operation of the defocus calculation unit 10, and step S100 is performed. The processing in step S110 corresponds to the operation of the focus area position determination unit 11, the processing in step S110 corresponds to the operation of the lens driving amount calculation unit 12, and the processing in step S120 corresponds to the operation of the lens driving control unit 13, respectively.

以上説明した実施の形態によれば、次の作用効果を奏することができる。
(1)制御装置18は、追尾対象の基準情報を記憶し(ステップS10)、その後、レンズ光学系1により結像される結像面の画像情報を測光センサ16が繰り返し撮像することで測光センサ16から出力される測光信号を取得する(ステップS20)。この測光信号に基づいて、結像面の画像情報と基準情報との比較を行い、その比較に基づいて結像面における追尾対象の位置を順次検出して出力する(ステップS30)。こうして出力した前回の位置検出結果に基づいて、結像面内に設定された複数の焦点検出エリアから少なくとも一つの焦点検出エリアを選択し(ステップS60)、選択された焦点検出エリアに対して、レンズ光学系1の焦点調節状態を示すデフォーカス量を検出する(ステップS80)。このようにしたので、追尾対象の位置を正常に検出できなかった場合であっても、光学系の焦点調節状態を適切に検出することができる。
According to the embodiment described above, the following operational effects can be achieved.
(1) The control device 18 stores the tracking target reference information (step S10), and then the photometric sensor 16 repeatedly captures image information of the image plane formed by the lens optical system 1 so that the photometric sensor The photometric signal output from 16 is acquired (step S20). Based on the photometric signal, the image information on the image plane is compared with the reference information, and the position of the tracking target on the image plane is sequentially detected and output based on the comparison (step S30). Based on the previous position detection result output in this way, at least one focus detection area is selected from a plurality of focus detection areas set in the imaging plane (step S60), and for the selected focus detection area, A defocus amount indicating the focus adjustment state of the lens optical system 1 is detected (step S80). Since it did in this way, even if it is a case where the position of tracking object cannot be detected normally, the focus adjustment state of an optical system can be detected appropriately.

(2)制御装置18は、最新の位置検出結果が適当であるか否かを判定し(ステップS40)、適当でないと判定した際には、ステップS60において過去の位置履歴に基づく焦点検出エリアの選択処理を実行することにより、最新の位置検出結果を用いずに焦点検出エリアを選択する。このようにしたので、最新の位置検出結果が適当でない場合に、誤った焦点検出エリアが選択されるのを防ぐことができる。 (2) The control device 18 determines whether or not the latest position detection result is appropriate (step S40), and when it is determined that it is not appropriate, in step S60, the focus detection area based on the past position history is determined. By executing the selection process, the focus detection area is selected without using the latest position detection result. Since it did in this way, when the newest position detection result is not suitable, it can prevent selecting an incorrect focus detection area.

(3)制御装置18は、ステップS40において、最新の位置検出結果を出力するために用いられた結像面の画像情報を測光センサ16が取得した時刻に基づいて、最新の位置検出結果が適当であるか否かを判定することができる。より具体的には、最新の位置検出結果を出力するために用いられた結像面の画像情報を測光センサ16が取得した時刻と、前回の処理においてデフォーカス量を検出するために用いられた画像情報を測光センサ16が取得した時刻とに基づいて、最新の位置検出結果が適当であるか否かを判定することができる。さらに制御装置18は、ステップS40において、ステップS30で追尾対象位置を検出した際の結像面の画像情報と基準情報との類似度に基づいて、最新の位置検出結果が適当であるか否かを判定することもできる。これにより、最新の位置検出結果が適当であるか否かを簡単な処理で正しく判定することができる。 (3) In step S40, the control device 18 determines that the latest position detection result is appropriate based on the time when the photometric sensor 16 obtains the image information of the imaging plane used for outputting the latest position detection result. It can be determined whether or not. More specifically, the time when the photometric sensor 16 acquired the image information of the imaging plane used for outputting the latest position detection result and the defocus amount in the previous process were used. Based on the time when the photometric sensor 16 acquires the image information, it can be determined whether or not the latest position detection result is appropriate. Further, in step S40, the control device 18 determines whether or not the latest position detection result is appropriate based on the similarity between the image information on the imaging plane and the reference information when the tracking target position is detected in step S30. Can also be determined. Thereby, it is possible to correctly determine whether or not the latest position detection result is appropriate by a simple process.

(4)制御装置18は、ステップS60で実行する過去の位置履歴に基づく焦点検出エリアの選択処理において、前回の位置検出結果に基づいて追尾対象の移動方向および移動量を予測し(ステップS61〜S66)、予測した移動方向および移動量に基づいて結像面内に選択範囲を設定し、その選択範囲内に位置する焦点検出エリアを選択する(ステップS67)。このようにしたので、今回の追尾対象の位置を正常に検出できなかった場合に、前回の位置検出結果に基づいて今回の追尾対象の位置を予測することで、適切に焦点検出エリアを選択することができる。 (4) In the focus detection area selection process based on the past position history executed in step S60, the control device 18 predicts the movement direction and movement amount of the tracking target based on the previous position detection result (steps S61 to S61). S66), a selection range is set in the imaging plane based on the predicted movement direction and movement amount, and a focus detection area located within the selection range is selected (step S67). Since it did in this way, when the position of this tracking target cannot be detected normally, the focus detection area is appropriately selected by predicting the position of the current tracking target based on the previous position detection result. be able to.

なお、上記実施の形態では、測光センサ16により結像面の画像情報を撮像し、この画像情報に基づいて追尾対象の位置を検出することとしたが、測光センサ16とは別に被写体追尾用の撮像素子を設け、これを用いて撮像した画像情報に基づいて追尾対象の位置を検出してもよい。あるいは、撮像素子6により結像面の画像情報を撮像し、この画像情報に基づいて追尾対象の位置を検出するようにしてもよい。   In the above embodiment, the photometric sensor 16 captures image information on the imaging plane and detects the position of the tracking target based on this image information. An image sensor may be provided, and the position of the tracking target may be detected based on image information captured using the image sensor. Alternatively, image information on the imaging plane may be captured by the image sensor 6 and the position of the tracking target may be detected based on the image information.

上記の実施の形態では、撮像素子6とは独立した位相差AF検出素子8を用いてレンズ光学系1の焦点調節状態を検出するようにしたが、撮像素子6の撮像画素配列中に焦点検出用の画素を混在して設けたものの出力に基づいて焦点検出してもよい。すなわち、撮像素子6は、レンズ光学系1を介した光を受光して画像信号を出力する撮像画素と、レンズ光学系1を介した光を受光して焦点検出信号を出力する焦点検出画素とを含む複数の画素を有する。そして、デフォーカス演算部10は、焦点検出画素から出力される焦点検出信号に基づいてデフォーカス量を検出する。このようにしてもよい。なお、この場合に撮像素子6の焦点検出画素は、たとえばマイクロレンズと一つまたは複数の光電変換部からなり、レンズ光学系1の瞳の異なる領域を通過した一対の光束を受光するよう構成されている。そしてこの一対の光束の受光信号により、瞳分割方式の焦点検出を行うものである。あるいは、コントラスト方式による焦点調節を行ってもよい。コントラスト方式による焦点調節は、レンズ光学系1の焦点調節レンズを移動させ、複数の焦点位置において撮像素子6により撮像を行う。こうして撮像された各画像に基づいて、選択された焦点検出エリア内の画像部分のコントラストに応じた焦点評価値を演算し、最も焦点評価値の高い焦点調節レンズの位置を合焦位置としてレンズ光学系1の焦点調節を行うものである。   In the above embodiment, the focus adjustment state of the lens optical system 1 is detected using the phase difference AF detection element 8 independent of the image sensor 6. However, focus detection is performed in the image pickup pixel array of the image sensor 6. Alternatively, focus detection may be performed based on the output of a mixture of pixels. That is, the imaging element 6 receives an image pixel that receives light through the lens optical system 1 and outputs an image signal, and a focus detection pixel that receives light through the lens optical system 1 and outputs a focus detection signal. A plurality of pixels. The defocus calculation unit 10 detects the defocus amount based on the focus detection signal output from the focus detection pixel. You may do this. In this case, the focus detection pixel of the image sensor 6 includes, for example, a microlens and one or a plurality of photoelectric conversion units, and is configured to receive a pair of light beams that have passed through different regions of the pupil of the lens optical system 1. ing. The pupil division type focus detection is performed based on the light receiving signals of the pair of light beams. Alternatively, focus adjustment by a contrast method may be performed. In the focus adjustment by the contrast method, the focus adjustment lens of the lens optical system 1 is moved, and imaging is performed by the image sensor 6 at a plurality of focus positions. Based on each image thus captured, a focus evaluation value corresponding to the contrast of the image portion in the selected focus detection area is calculated, and the lens optical is set with the position of the focus adjustment lens having the highest focus evaluation value as the focus position. The focus adjustment of the system 1 is performed.

1 レンズ光学系
6 撮像素子
8 位相差AF検出素子
9 AF−CCD制御部
10 デフォーカス演算部
11 フォーカスエリア位置決定部
12 レンズ駆動量演算部
13 レンズ駆動制御部
16 測光センサ
18 制御装置
DESCRIPTION OF SYMBOLS 1 Lens optical system 6 Image pick-up element 8 Phase difference AF detection element 9 AF-CCD control part 10 Defocus calculating part 11 Focus area position determination part 12 Lens drive amount calculating part 13 Lens drive control part 16 Photometric sensor 18 Control apparatus

Claims (2)

被写体を繰り返し撮像して被写体画像情報を繰り返し生成する撮像と、
前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶と、
前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出と、
前記位置検出が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が所定時間より短い場合には前記位置検出で検出された位置検出結果を焦点検出位置として出力し、前記位置検出が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が前記所定時間より長い場合には過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾と、
前記追尾により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出とを備えることを特徴とする焦点検出装置。
An imaging unit that repeatedly captures a subject and repeatedly generates subject image information ;
A storage unit for storing reference information corresponding to the image information of the tracking object in the object image information,
The position of the tracking target in the subject image information, a position detecting section for outputting the detected position detection result based on a comparison between the reference information and the subject image information,
When the difference between the time when the position detection unit acquires the latest position detection result and the time when the previous position detection result is acquired is shorter than a predetermined time, the position detection result detected by the position detection unit is used as the focus detection position. And when the difference between the time when the position detection unit acquires the latest position detection result and the time when the previous position detection result is acquired is longer than the predetermined time, based on a plurality of past position detection results A tracking unit that predicts the position of the tracking target and outputs it as a focus detection position;
Focus detecting apparatus comprising: a focus detection unit for detecting the focusing state of the optical science system with respect to the focus detection position outputted by the tracking unit.
被写体を繰り返し撮像して被写体画像情報を繰り返し生成する撮像と、
前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶と、
前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出と、
前記撮像による最新の前記被写体画像情報前記基準情報との類似度を演算し、前記類似度が所定値以上ならば前記位置検出で検出された最新の位置検出結果を焦点検出位置として出力し、前記類似度が所定値未満ならば過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾と、
前記追尾により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出とを備えることを特徴とする焦点検出装置。
An imaging unit that repeatedly captures a subject and repeatedly generates subject image information ;
A storage unit for storing reference information corresponding to the image information of the tracking object in the object image information,
The position of the tracking target in the subject image information, a position detecting section for outputting the detected position detection result based on a comparison between the reference information and the subject image information,
Calculates the class similarity score between the latest of the object image information and said reference information by the imaging unit, the latest position detection result detected by the position detection unit as a focus detection position the similarity is if more than a predetermined value A tracking unit that outputs a focus detection position by predicting the position of the tracking target based on a plurality of past position detection results if the similarity is less than a predetermined value;
Focus detecting apparatus comprising: a focus detection unit for detecting the focusing state of the optical science system with respect to the focus detection position outputted by the tracking unit.
JP2013260152A 2013-12-17 2013-12-17 Focus detection device Active JP5720767B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013260152A JP5720767B2 (en) 2013-12-17 2013-12-17 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013260152A JP5720767B2 (en) 2013-12-17 2013-12-17 Focus detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008285322A Division JP2010113130A (en) 2008-11-06 2008-11-06 Focus detecting device, imaging apparatus, focus detecting method

Publications (2)

Publication Number Publication Date
JP2014081650A JP2014081650A (en) 2014-05-08
JP5720767B2 true JP5720767B2 (en) 2015-05-20

Family

ID=50785825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013260152A Active JP5720767B2 (en) 2013-12-17 2013-12-17 Focus detection device

Country Status (1)

Country Link
JP (1) JP5720767B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089227A (en) * 1994-06-17 1996-01-12 Hitachi Ltd Image pickup device with automatic tracking function
JP4350725B2 (en) * 2005-08-05 2009-10-21 キヤノン株式会社 Image processing method, image processing apparatus, and program for causing computer to execute image processing method
JP2007052061A (en) * 2005-08-15 2007-03-01 Sharp Corp Imaging device, focusing operation control method, and electronic information apparatus
JP4819001B2 (en) * 2006-07-25 2011-11-16 富士フイルム株式会社 Imaging apparatus and method, program, image processing apparatus and method, and program
JP5056061B2 (en) * 2007-02-22 2012-10-24 株式会社ニコン Imaging device
JP2008263478A (en) * 2007-04-13 2008-10-30 Fujifilm Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2014081650A (en) 2014-05-08

Similar Documents

Publication Publication Date Title
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP5157256B2 (en) Image tracking device and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
US10863079B2 (en) Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
US10163222B2 (en) Image capturing apparatus, tracking device, control method, and storage medium
JP6825639B2 (en) Imaging device
JP2009109839A (en) Image tracking device and imaging device
CN106470317B (en) Image pickup apparatus and control method thereof
US10477101B2 (en) Focus detection apparatus, control method and storage medium
JP2014013368A (en) Imaging apparatus and control method thereof
JP6525809B2 (en) Focus detection apparatus and control method thereof
JP2017037103A (en) Imaging apparatus
JP5879736B2 (en) Image tracking device and imaging device
JP5403111B2 (en) Image tracking device
JP5056136B2 (en) Image tracking device
JP6486098B2 (en) Imaging apparatus and control method thereof
JP6140945B2 (en) Focus adjustment device and imaging device
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JP5359150B2 (en) Imaging device
JP2010113130A (en) Focus detecting device, imaging apparatus, focus detecting method
JP6492557B2 (en) Focus adjustment device and camera
JP4701837B2 (en) Automatic focus adjustment device
JP5720767B2 (en) Focus detection device
JP2018004904A (en) Subject tracking device and imaging device
JP7147887B2 (en) Imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150309

R150 Certificate of patent or registration of utility model

Ref document number: 5720767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250