JP2017026914A - Imaging apparatus and method of controlling the same - Google Patents

Imaging apparatus and method of controlling the same Download PDF

Info

Publication number
JP2017026914A
JP2017026914A JP2015147148A JP2015147148A JP2017026914A JP 2017026914 A JP2017026914 A JP 2017026914A JP 2015147148 A JP2015147148 A JP 2015147148A JP 2015147148 A JP2015147148 A JP 2015147148A JP 2017026914 A JP2017026914 A JP 2017026914A
Authority
JP
Japan
Prior art keywords
subject
image
imaging
control unit
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015147148A
Other languages
Japanese (ja)
Other versions
JP6602081B2 (en
Inventor
晃平 太田
Kohei Ota
晃平 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015147148A priority Critical patent/JP6602081B2/en
Publication of JP2017026914A publication Critical patent/JP2017026914A/en
Application granted granted Critical
Publication of JP6602081B2 publication Critical patent/JP6602081B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible that even if a tracked subject temporarily disappears from the imaging screen, tracking is resumed when the subject reappears within the imaging screen.SOLUTION: An optical instrument 101 comprises: detection means 203 for detecting an image region corresponding to a subject in each of a plurality of images sequentially generated by photoelectrically converting an optical image of the subject formed by an imaging optical system; and control means 204 for controlling focus tracking to keep the imaging optical system focused on the subject, based on the image regions. The control means transitions from focus tracking control for a first subject to focus tracking control for a second subject which is different from the first subject as the subject in the image region changes from the first subject to the second subject. The focus tracking control for the second subject is performed only when the defocused state of the imaging optical system on the first subject satisfies predetermined conditions.SELECTED DRAWING: Figure 1

Description

本発明は、いわゆる被写体追尾機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus having a so-called subject tracking function.

撮像装置には、撮像により生成した動画像において特定被写体(例えば、人物の顔)を検出し、その動きを追尾してフォーカスや露出を制御することが可能なものがある。また、予め人物の顔の情報を登録しておくことで、登録した人物を追尾し続ける撮像装置もある。   Some imaging devices can detect a specific subject (for example, a human face) in a moving image generated by imaging and track the movement to control focus and exposure. In addition, there is an imaging apparatus that keeps track of a registered person by registering information on the face of the person in advance.

特許文献1にて開示された撮像装置では、動画像における前フレームにて特定被写体の画像領域とその特定被写体の色情報を取得し、最新フレームにおいて前フレームで取得した色情報と同じ色情報を有する被写体領域を追尾する。特定被写体が人物の顔である場合は、顔の位置と色の情報とに基づいてその顔を追尾する。   In the imaging apparatus disclosed in Patent Document 1, an image area of a specific subject and color information of the specific subject are acquired in the previous frame in the moving image, and the same color information as the color information acquired in the previous frame is acquired in the latest frame. The subject area that the user has is tracked. When the specific subject is a human face, the face is tracked based on the face position and color information.

また、特許文献2にて開示された撮像装置では、予め追尾したい被写体(顔や物体)のパターンを登録しておき、動画像内からそのパターンを検出することで追尾を行う。そして、追尾対象の登録パターンの被写体が動画像(撮像画面)内から消えたときには、動画像内にて追尾対象以外の登録パターンの被写体を新たに追尾対象とすることもできる。   In the imaging device disclosed in Patent Document 2, a pattern of a subject (face or object) to be tracked is registered in advance, and tracking is performed by detecting the pattern from a moving image. When the subject of the tracking target registration pattern disappears from the moving image (imaging screen), the subject of the registered pattern other than the tracking target in the moving image can be newly set as the tracking target.

特開2013−101305号公報JP2013-101305A 特開2009−229586号公報JP 2009-229586 A

しかしながら、特許文献1にて開示された撮像装置における被写体追尾方法では、特定被写体を追尾しているときにその特定被写体の前に他の被写体が重なる(他の被写体が特定被写体と撮像装置との間に入り込む)と、該他の被写体の追尾を開始する。そして、他の被写体が通り過ぎて特定被写体が再度現れた後も該他の被写体を継続して追尾し続けてしまうおそれがある。   However, in the subject tracking method in the imaging apparatus disclosed in Patent Document 1, when a specific subject is being tracked, another subject overlaps the specific subject (the other subject is not the specific subject and the imaging device). Then, the tracking of the other subject is started. Then, even after another subject passes and the specific subject appears again, there is a possibility that the other subject may continue to be tracked.

一方、特許文献2に開示された撮像装置では、予め登録されている被写体のパターンを検出する際に該被写体に対するデフォーカス量が考慮されていないために、その被写体が画像内に存在するにもかかわらず正しく検出することができないおそれがある。つまり、追尾対象の被写体自体を特定することができず、被写体の追尾を行うことができないおそれがある。   On the other hand, in the imaging apparatus disclosed in Patent Document 2, since the defocus amount for the subject is not considered when detecting the pattern of the subject registered in advance, the subject exists in the image. Regardless, it may not be detected correctly. That is, there is a possibility that the subject to be tracked cannot be specified and the subject cannot be tracked.

本発明は、追尾していた特定被写体が他の被写体と重なる等して一時的に撮像画面から消えた場合でも、該特定被写体が再び撮像画面内に現れたときにその追尾をより確実に行うことができるようにした撮像装置等を提供する。   In the present invention, even when a specific subject that has been tracked temporarily disappears from the imaging screen because it overlaps with another subject, the tracking is more reliably performed when the specific subject appears again in the imaging screen. An imaging device or the like that can be provided is provided.

本発明の一側面としての光学機器は、撮像光学系により形成された被写体の光学像を光電変換することで順次生成される複数の画像のそれぞれにおいて被写体に対応する画像領域を検出する検出手段と、画像領域に基づいて、被写体に対する撮像光学系の合焦状態を維持するようにフォーカス追尾制御を行う制御手段とを有する。制御手段は、画像領域において被写体が第1の被写体から該第1の被写体とは異なる第2の被写体に変化することに応じて、第1の被写体に対するフォーカス追尾制御から第2の被写体に対するフォーカス追尾制御に移行する。そして、第2の被写体に対するフォーカス追尾制御を、撮像光学系の第1の被写体に対するデフォーカス状態が所定の条件を満たす場合に限って行うことを特徴とする。   An optical apparatus according to one aspect of the present invention includes detection means for detecting an image area corresponding to a subject in each of a plurality of images sequentially generated by photoelectrically converting an optical image of the subject formed by the imaging optical system. And control means for performing focus tracking control so as to maintain the in-focus state of the imaging optical system with respect to the subject based on the image area. In response to the change of the subject from the first subject to a second subject different from the first subject in the image region, the control means performs focus tracking control on the first subject to focus tracking on the second subject. Transition to control. The focus tracking control for the second subject is performed only when the defocus state for the first subject of the imaging optical system satisfies a predetermined condition.

本発明の他の一側面としての光学機器制御プログラムは、光学機器のコンピュータに、撮像光学系により形成された被写体の光学像を光電変換することで順次生成される複数の画像のそれぞれにおいて被写体に対応する画像領域を検出する処理と、画像領域に基づいて、被写体に対する撮像光学系の合焦状態を維持するようにフォーカス追尾制御を行う制御処理とを行わせるコンピュータプログラムである。制御処理は、画像領域において被写体が第1の被写体から該第1の被写体とは異なる第2の被写体に変化することに応じて、第1の被写体に対する前記フォーカス追尾制御から第2の被写体に対するフォーカス追尾制御に移行する。そして、第2の被写体に対するフォーカス追尾制御を、撮像光学系の第1の被写体に対するデフォーカス状態が所定の条件を満たす場合に限って行うことを特徴とする。   According to another aspect of the present invention, there is provided an optical device control program for a subject in each of a plurality of images sequentially generated by photoelectrically converting an optical image of a subject formed by an imaging optical system in a computer of the optical device. A computer program that performs processing for detecting a corresponding image region and control processing for performing focus tracking control so as to maintain the in-focus state of the imaging optical system with respect to the subject based on the image region. In the control process, the focus on the second subject is changed from the focus tracking control on the first subject in response to the change of the subject from the first subject to the second subject different from the first subject in the image region. Transition to tracking control. The focus tracking control for the second subject is performed only when the defocus state for the first subject of the imaging optical system satisfies a predetermined condition.

本発明では、第2の被写体に対するフォーカス追尾制御を撮像光学系の第1の被写体に対するデフォーカス状態が所定の条件を満たす場合に限定して行う。このため、本発明によれば、第1の被写体に対するフォーカス追尾制御から第2の被写体に対するフォーカス追尾制御に移行した後に第1の被写体を再検出し易くして、第1の被写体に対するフォーカス追尾制御に復帰しやすい被写体追尾機能を実現することができる。   In the present invention, focus tracking control for the second subject is performed only when the defocus state for the first subject of the imaging optical system satisfies a predetermined condition. Therefore, according to the present invention, the focus tracking control for the first subject can be facilitated by re-detecting the first subject after shifting from the focus tracking control for the first subject to the focus tracking control for the second subject. It is possible to realize a subject tracking function that is easy to return to.

本発明の実施例であるデジタル一眼レフカメラの断面図。1 is a cross-sectional view of a digital single-lens reflex camera that is an embodiment of the present invention. 実施例の撮像装置の機能構成を示すブロック図。FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus according to the embodiment. 実施例の撮像装置における被写体追尾制御処理を示すフローチャート。6 is a flowchart illustrating subject tracking control processing in the imaging apparatus according to the embodiment. 実施例における被写体追尾判定処理を行うシーン例を示す図。The figure which shows the example of a scene which performs the subject tracking determination process in an Example. 実施例の撮像装置における被写体追尾制御処理を示すフローチャート。6 is a flowchart illustrating subject tracking control processing in the imaging apparatus according to the embodiment. 実施例における被写体追尾制御処理を行うシーン例を示す図。The figure which shows the example of a scene which performs the subject tracking control process in an Example. 実施例における顔を検出できない被写体を追尾する場合の被写体追尾制御処理を示すフローチャート。6 is a flowchart illustrating subject tracking control processing when tracking a subject whose face cannot be detected in the embodiment. 実施例における顔を検出できない被写体を追尾する場合の被写体追尾制御処理を行うシーン例を示す図。The figure which shows the example of a scene which performs subject tracking control processing in the case of tracking the subject which cannot detect the face in an Example.

以下、本発明の実施例について図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1および図2を用いて本発明の実施例である撮像装置(光学機器)としてのデジタル一眼レフカメラ(以下、単にカメラという)101の構成について説明する。カメラ101には、交換レンズ102が取り外し可能に機械的および電気的に接続(装着)されている。図1は、カメラ101および交換レンズ102の光学的構成を示し、図2はカメラ101の電気的構成を示している。なお、図1と図2において共通する構成要素については同符号を付している。   A configuration of a digital single-lens reflex camera (hereinafter simply referred to as a camera) 101 as an imaging apparatus (optical apparatus) that is an embodiment of the present invention will be described with reference to FIGS. 1 and 2. An interchangeable lens 102 is detachably and mechanically and electrically connected (mounted) to the camera 101. FIG. 1 shows an optical configuration of the camera 101 and the interchangeable lens 102, and FIG. 2 shows an electrical configuration of the camera 101. In addition, the same code | symbol is attached | subjected about the component which is common in FIG. 1 and FIG.

交換レンズ102は、フォーカスレンズ103と絞り104を含む撮像光学系を有し、カメラ101からレンズマウント接点群105を介して電源供給や制御を受ける。   The interchangeable lens 102 has an imaging optical system including a focus lens 103 and a diaphragm 104, and receives power supply and control from the camera 101 via a lens mount contact group 105.

カメラ101において、メインミラー106はハーフミラーであり、その背後にはサブミラー107が配置されている。図1で示すようにメインミラー106が撮像光学系の光路(撮像光路)内に配置されている状態では、撮影光学系からの光束の一部がメインミラー106で反射されてファインダスクリーン109上に被写体像を形成する。メインミラー106を透過した光束はサブミラー107で反射されてAF(オートフォーカス)ユニット108に入射する。   In the camera 101, the main mirror 106 is a half mirror, and a sub mirror 107 is disposed behind it. As shown in FIG. 1, in a state where the main mirror 106 is disposed in the optical path (imaging optical path) of the imaging optical system, a part of the light beam from the imaging optical system is reflected by the main mirror 106 on the viewfinder screen 109. Form a subject image. The light beam transmitted through the main mirror 106 is reflected by the sub mirror 107 and enters an AF (autofocus) unit 108.

AFユニット108は、位相差検出方式の焦点検出を行うAFセンサ202を備えている。撮像光学系からのAFユニット108に入射した光束は、AFセンサ202内の一対の受光センサ(ラインセンサ)上のそれぞれに被写体像(2像)を形成する。AFユニット108内のAF制御部201は、2像を光電変換した一対のラインセンサから出力された一対の電気信号(以下、一対のAF像信号という)の位相差を算出する。さらに、AF制御部201は、該位相差から撮像光学系の被写体に対するデフォーカス量(デフォーカス方向を含む)検出する。   The AF unit 108 includes an AF sensor 202 that performs focus detection by a phase difference detection method. The light flux incident on the AF unit 108 from the imaging optical system forms subject images (two images) on the pair of light receiving sensors (line sensors) in the AF sensor 202. The AF control unit 201 in the AF unit 108 calculates a phase difference between a pair of electric signals (hereinafter referred to as a pair of AF image signals) output from a pair of line sensors obtained by photoelectrically converting two images. Further, the AF control unit 201 detects the defocus amount (including the defocus direction) with respect to the subject of the imaging optical system from the phase difference.

制御手段としてのシステム制御部203は、AF制御部201からのデフォーカス量の情報に基づいて合焦状態を得るためのフォーカスレンズ103の駆動量を算出し、該駆動量を含むフォーカス駆動命令を交換レンズ102内の不図示のレンズ制御部に送信する。レンズ制御部は、フォーカス駆動命令に応じてフォーカスレンズ103を駆動する。これにより、フォーカスレンズ103の駆動が制御され、位相差検出方式によりAFが行われる。   A system control unit 203 as a control unit calculates a drive amount of the focus lens 103 for obtaining a focused state based on defocus amount information from the AF control unit 201, and outputs a focus drive command including the drive amount. The data is transmitted to a lens control unit (not shown) in the interchangeable lens 102. The lens control unit drives the focus lens 103 according to the focus drive command. Thereby, the drive of the focus lens 103 is controlled, and AF is performed by the phase difference detection method.

なお、一対のラインセンサは撮像画面内の複数の焦点検出領域のそれぞれに対して設けられており、複数の焦点検出領域のうちユーザにより又はシステム制御部203が自動的に選択した焦点検出領域でAFが行われる。   The pair of line sensors is provided for each of the plurality of focus detection areas in the imaging screen, and is a focus detection area that is automatically selected by the user or the system control unit 203 among the plurality of focus detection areas. AF is performed.

また、ファインダスクリーン109上に被写体像を形成した光束は、ペンタプリズム111および接眼レンズ110を通ってユーザの眼に導かれる。これにより、ユーザは、ファインダスクリーン109上に形成された被写体像(ファインダ像)を観察することができる。また、ファインダスクリーン109上に被写体像を形成した光束の一部(測光像)は、ペンタプリズム111を介してAEユニット112にと導かれる。   The light beam that forms the subject image on the finder screen 109 is guided to the user's eye through the pentaprism 111 and the eyepiece 110. Thereby, the user can observe the subject image (finder image) formed on the finder screen 109. A part of the light beam (photometric image) that forms the subject image on the finder screen 109 is guided to the AE unit 112 via the pentaprism 111.

AEユニット112は、被写体の明るさを測定するため、測光センサ205によって測光像(光学像)を光電変換して測光用画像(画像データ)を生成する。AE制御部204は、測光用画像を用いて被写体の明るさを測定し、その測定結果(測光結果)から露出演算を行う。   The AE unit 112 generates a photometric image (image data) by photoelectrically converting the photometric image (optical image) by the photometric sensor 205 in order to measure the brightness of the subject. The AE control unit 204 measures the brightness of the subject using the photometric image, and performs an exposure calculation from the measurement result (photometric result).

システム制御部203は、AE制御部204から出力された露出演算結果に基づいて適切な絞り値を算出し、該絞り値を含む絞り駆動命令を交換レンズ102内のレンズ制御部に送信する。レンズ制御部は、絞り駆動命令に応じて絞り104を駆動する。これにより、絞り104の開口径が制御され、後述する撮像素子113に到達する光量が調節される。   The system control unit 203 calculates an appropriate aperture value based on the exposure calculation result output from the AE control unit 204, and transmits an aperture drive command including the aperture value to the lens control unit in the interchangeable lens 102. The lens control unit drives the diaphragm 104 according to the diaphragm drive command. Thereby, the aperture diameter of the diaphragm 104 is controlled, and the amount of light reaching the image sensor 113 described later is adjusted.

また、検出手段としてのAE制御部204は、測光用画像から被写体を検出する被写体検出処理を行い、検出した被写体の位置を示す情報(被写体位置情報)をシステム制御部203に出力する。システム制御部203は、被写体位置情報をAF制御部201に出力する。AF制御部201は、被写体位置情報によって特定される被写体(特定被写体)に対して合焦状態が得られるようにフォーカスレンズ103の駆動を制御する。システム制御部203は、撮像により生成される動画像を構成するフレーム画像と同期して順次生成される測光用画像ごとにAE制御部204により取得された被写体位置情報に基づいてフォーカスレンズ103の駆動を制御する。このようにして、システム制御部203は、特定被写体に追従するように合焦状態を維持し続ける被写体追従制御処理を行う。   The AE control unit 204 as detection means performs subject detection processing for detecting a subject from the photometric image, and outputs information indicating the detected subject position (subject position information) to the system control unit 203. The system control unit 203 outputs subject position information to the AF control unit 201. The AF control unit 201 controls the driving of the focus lens 103 so that a focused state is obtained with respect to a subject (specific subject) specified by the subject position information. The system control unit 203 drives the focus lens 103 based on the subject position information acquired by the AE control unit 204 for each photometric image sequentially generated in synchronization with the frame image constituting the moving image generated by imaging. To control. In this way, the system control unit 203 performs subject tracking control processing that continues to maintain a focused state so as to follow a specific subject.

撮像素子113は、CMOSイメージセンサやCCDイメージセンサ等の光電変換素子であり、2次元配列された複数の画素を有する。被写体を撮像する際には、メインミラー106およびサブミラー107が撮像光路外に退避してフォーカルプレンシャッタ114が開閉動作を行うことで、撮像素子113上に被写体像(光学像)が形成される。撮像素子113は、その複数の画素によって被写体像を光電変換し、電気信号(撮像信号)をシステム制御部203に出力する。システム制御部203は、撮像素子113からの電気信号に対して各種処理を行って撮像画像(動画像または静止画像)を生成し、これをカメラ101の背面に設けられたディスプレイ115に表示する。   The image sensor 113 is a photoelectric conversion element such as a CMOS image sensor or a CCD image sensor, and has a plurality of pixels arranged two-dimensionally. When imaging a subject, the main mirror 106 and the sub mirror 107 are retracted out of the imaging optical path, and the focal plane shutter 114 performs an opening / closing operation, whereby a subject image (optical image) is formed on the imaging element 113. The image sensor 113 photoelectrically converts the subject image with the plurality of pixels, and outputs an electrical signal (imaging signal) to the system control unit 203. The system control unit 203 performs various processes on the electrical signal from the image sensor 113 to generate a captured image (moving image or still image), and displays this on the display 115 provided on the back surface of the camera 101.

操作部206は、カメラ101や交換レンズ102に設けられたボタン、スイッチ、ダイヤル等の操作部材を含み、各操作部材のユーザ操作を検出して操作信号をシステム制御部203に伝達する。   The operation unit 206 includes operation members such as buttons, switches, and dials provided on the camera 101 and the interchangeable lens 102, detects a user operation of each operation member, and transmits an operation signal to the system control unit 203.

次に、AE制御部204が行う被写体検出処理について詳しく説明する。AE制御部204は、測光センサ205から取得した測光用画像から特定被写体を検出し、該特定被写体を含む画像領域である特定被写体領域を特定する。特定被写体としては、例えば人物の顔がある。   Next, the subject detection process performed by the AE control unit 204 will be described in detail. The AE control unit 204 detects a specific subject from the photometric image acquired from the photometric sensor 205, and specifies a specific subject region that is an image region including the specific subject. An example of the specific subject is a human face.

AE制御部204は、測光用画像から検出した特定被写体を追尾対象として第1の被写体に設定する。ここにいう「追尾」は、追尾対象の被写体に対してAFによって撮像光学系を合焦させ、さらにその合焦状態を維持するようにAFを継続するフォーカス追尾制御を行うことを意味する。また、以下の説明において、測光用画像に含まれる第1の被写体以外の特定被写体を第2の被写体とする。   The AE control unit 204 sets the specific subject detected from the photometric image as the first subject as the tracking target. Here, “tracking” means that the imaging optical system is focused on the subject to be tracked by AF, and focus tracking control is performed to continue AF so as to maintain the focused state. In the following description, a specific subject other than the first subject included in the photometric image is set as the second subject.

第1の被写体は、撮像開始時(またはその直後)に追尾対象として設定された特定被写体である。第1の被写体は、種々の方法により設定することができる。例えば、測光用画像内に複数の顔が存在する場合には、該複数の顔をディスプレイ115に表示し、それらの顔の中からユーザが追尾対象とする顔を操作部206を通じて選択することで第1の被写体が設定される。また、追尾対象とする人物の顔の情報を顔識別情報として登録しておき、測光用画像内にてその顔識別情報に対応する顔を検出した場合にその顔を第1の被写体に設定するようにしてもよい。このときの顔識別情報の登録は、第1の被写体の検出および追尾を行う撮像である追尾撮像の前の登録用撮像によって行ってもよいし、追尾撮像において最初に測光用画像内に現れた顔の情報を登録するようにしてもよい。   The first subject is a specific subject that is set as a tracking target at the start of imaging (or immediately after). The first subject can be set by various methods. For example, when there are a plurality of faces in the photometric image, the plurality of faces are displayed on the display 115, and the user selects a face to be tracked from the faces through the operation unit 206. A first subject is set. Also, information on the face of the person to be tracked is registered as face identification information, and when a face corresponding to the face identification information is detected in the photometric image, the face is set as the first subject. You may do it. Registration of the face identification information at this time may be performed by registration imaging before tracking imaging, which is imaging for detecting and tracking the first subject, or first appears in the photometric image in tracking imaging. You may make it register face information.

また、測光用画像内に存在する人物の顔を検出し、検出した顔の測光用画像において占める割合や測光用画像での位置(座標)に応じて第1の被写体として設定してもよい。さらに、ユーザが自ら焦点検出領域を選択している場合に、その焦点検出領域に近い顔を第1の被写体として設定してもよい。   Further, the face of a person existing in the photometric image may be detected and set as the first subject according to the proportion of the detected face in the photometric image and the position (coordinates) in the photometric image. Furthermore, when the user has selected a focus detection area, a face close to the focus detection area may be set as the first subject.

AE制御部204が上記のように特定被写体を検出して該特定被写体の位置情報(被写体位置情報)をシステム制御部203に出力することができるように、AE制御部204は、図2に示すように被写体検出部207と被写体識別部208を有する。以下の説明において、AE制御部204が測光センサから順次取得(時系列的に連続して取得)する測光用画像のそれぞれを検出フレームという。また、各検出フレームにおいて第1の被写体に対応する特定被写体領域を、第1の被写体領域という。   The AE control unit 204 is shown in FIG. 2 so that the AE control unit 204 can detect the specific subject as described above and output the position information (subject position information) of the specific subject to the system control unit 203. As described above, a subject detection unit 207 and a subject identification unit 208 are provided. In the following description, each of the photometric images sequentially acquired by the AE control unit 204 from the photometric sensor (continuously acquired in time series) is referred to as a detection frame. In addition, the specific subject area corresponding to the first subject in each detection frame is referred to as a first subject area.

被写体検出部207は、ある検出フレームにおいて特定被写体(第1の被写体)を検出する被写体検出処理(例えば、顔検出処理)を行う。また、被写体検出部207は、順次新たに取得する検出フレームのそれぞれにおいて、該新たな検出フレームより前に取得した検出フレームにて特定した第1の被写体領域付近で第1の被写体と相関が高い特定被写体に対応する特定被写体領域を検出する。そして、この相関が高い特定被写体領域を該新たな検出フレームでの特定被写体領域として検出する。該新たな検出フレームにおける特定被写体領域に対応する特定被写体が第1の被写体ではない第2の被写体である場合は、この特定被写体を第2の被写体として検出することになる。   The subject detection unit 207 performs subject detection processing (for example, face detection processing) for detecting a specific subject (first subject) in a certain detection frame. In addition, the subject detection unit 207 has a high correlation with the first subject in the vicinity of the first subject region specified in the detection frame acquired before the new detection frame in each of the detection frames newly acquired sequentially. A specific subject area corresponding to the specific subject is detected. Then, the specific subject region having a high correlation is detected as the specific subject region in the new detection frame. When the specific subject corresponding to the specific subject region in the new detection frame is the second subject that is not the first subject, the specific subject is detected as the second subject.

例えば、新たな検出フレームのうち前の検出フレームにおける第1の被写体領域の付近に存在する第1の被写体の色と同じか近い色の被写体(ただし、第1の被写体ではない)を「相関が高い」第2の被写体として特定する。このように、本実施例では、被写体の色の一致度を相関として用いる。   For example, an object having the same color as or close to the color of the first object existing in the vicinity of the first object region in the previous detection frame in the new detection frame (but not the first object) is referred to as “correlation. Identify as “high” second subject. Thus, in this embodiment, the degree of coincidence of the subject colors is used as the correlation.

そして、被写体検出部207は、新たな検出フレームにおける特定被写体(第2の被写体)を含む特定被写体領域の位置情報である被写体位置情報を出力する。   Then, the subject detection unit 207 outputs subject position information that is position information of a specific subject area including the specific subject (second subject) in the new detection frame.

被写体識別部208は、検出された特定被写体の位置等の類似性に基づいて複数の検出フレーム間において同一の特定被写体を識別する。さらに、被写体識別部208は、登録されている顔識別情報に対応する特定被写体を識別する。例えば、検出した顔の特徴(眼、鼻、口、耳等の器官の形状や色等)を示す情報を抽出し、登録されている顔識別情報に含まれる特徴情報と比較してそれらの類似度を示す識別評価値を生成する。そして、識別評価値に基づいて、検出した顔が登録されている顔識別情報に対応する顔か否かを判定する。顔識別情報に対応する顔である場合には、その顔に対応する画像領域を特定被写体領域として特定する。そして、被写体識別部208、各検出フレームにおける特定被写体領域の位置情報である被写体位置情報を出力する。   The subject identifying unit 208 identifies the same specific subject among a plurality of detection frames based on the similarity such as the position of the detected specific subject. Further, the subject identifying unit 208 identifies a specific subject corresponding to the registered face identification information. For example, information indicating the detected facial features (shape, color, etc. of organs such as eyes, nose, mouth, ears, etc.) is extracted and compared with the feature information included in the registered face identification information A discrimination evaluation value indicating the degree is generated. Then, based on the identification evaluation value, it is determined whether or not the detected face is a face corresponding to the registered face identification information. If the face corresponds to the face identification information, the image area corresponding to the face is specified as the specific subject area. Then, the subject identification unit 208 outputs subject position information that is position information of the specific subject region in each detection frame.

なお、被写体識別部208は、検出された顔の大きさや向きおよび顔に対するデフォーカス量によっては顔識別情報に対応する顔か否かの判定、すなわち第1の被写体領域の特定をすることができず、その結果、被写体位置情報の出力ができない場合がある。ただし、この場合でも、被写体検出部207により顔の検出は可能な場合はある。この場合は、被写体検出部207から得られる被写体位置情報がシステム制御部203に出力される。   Note that the subject identification unit 208 can determine whether the face corresponds to the face identification information, that is, specify the first subject area, depending on the size and orientation of the detected face and the defocus amount with respect to the face. As a result, the subject position information may not be output. However, even in this case, the subject detection unit 207 may be able to detect the face. In this case, subject position information obtained from the subject detection unit 207 is output to the system control unit 203.

次に、図3のフローチャートを用いて、本実施例における被写体追尾制御処理について説明する。マイクロコンピュータにより構成されるシステム制御部203は、コンピュータプログラムである光学機器制御プログラムに従って被写体追尾制御処理を実行する。ここでは、図4に示すように、2人の人物のうち静止している一方の人物の顔を第1の被写体、移動している他方の人物の顔を第2の被写体とする。そして、第1の被写体の手前(第1の被写体とカメラ101との間)を第2の被写体が横切るシーンを撮像する場合について説明する。   Next, the subject tracking control process in the present embodiment will be described using the flowchart of FIG. A system control unit 203 configured by a microcomputer executes subject tracking control processing according to an optical device control program that is a computer program. Here, as shown in FIG. 4, the face of one of the two persons standing still is the first subject, and the face of the other moving person is the second subject. A case will be described in which a scene in which the second subject crosses in front of the first subject (between the first subject and the camera 101) is imaged.

図4中の画像401,402,404,406は、第1の被写体の近くを第2の被写体がカメラ101の撮像光軸に対して直交する方向に横切る撮像シーンの撮像により生成される動画像の4つのフレーム(または検出フレーム)を示している。また、画像401,402,405,407は、第1の被写体の近くを第2の被写体がカメラ101に近づきながら横切るシーンの撮像により生成される動画像の4つのフレームを示している。さらに、画像401,403,408は、第1の被写体から離れた位置(カメラ101に近い位置)で第2の被写体が横切るシーンの撮像により生成される動画像の3つのフレームを示している。なお、画像401〜408は、測光センサ205により生成される検出フレームと同じである。   Images 401, 402, 404, and 406 in FIG. 4 are moving images generated by imaging an imaging scene in which the second subject crosses in the direction orthogonal to the imaging optical axis of the camera 101 near the first subject. These four frames (or detection frames) are shown. In addition, images 401, 402, 405, and 407 show four frames of a moving image generated by capturing a scene in which a second subject crosses near the first subject while approaching the camera 101. Furthermore, images 401, 403, and 408 show three frames of a moving image generated by capturing a scene that the second subject crosses at a position away from the first subject (position close to the camera 101). The images 401 to 408 are the same as the detection frames generated by the photometric sensor 205.

図3のステップS301では、システム制御部203は、AE制御部204に、前述した第1の被写体の設定方法のいずれかにより、画像401において枠で囲まれた第1の被写体を設定させる。システム制御部203は、設定された第1の被写体の追尾を開始する。   In step S301 in FIG. 3, the system control unit 203 causes the AE control unit 204 to set the first subject surrounded by a frame in the image 401 by any of the first subject setting methods described above. The system control unit 203 starts tracking the set first subject.

ステップS302では、システム制御部203は、AE制御部204により第1の被写体が撮像画面内にて検出されたか否か、つまりは第1の被写体が撮像画面から消えたか否かを判定する。AE制御部204は、前述した顔検出処理または登録された顔識別情報を用いた第1の被写体の識別処理を行い、第1の被写体が検出されたか否かを確認する。画像401のように第1の被写体が検出された場合は、システム制御部203は、そのまま検出された第1の被写体を追尾し続けるとともに、本ステップの判定を繰り返す。   In step S302, the system control unit 203 determines whether or not the AE control unit 204 has detected the first subject in the imaging screen, that is, whether or not the first subject has disappeared from the imaging screen. The AE control unit 204 performs the face detection process described above or the first subject identification process using the registered face identification information, and confirms whether or not the first subject has been detected. When the first subject is detected as in the image 401, the system control unit 203 continues to track the detected first subject as it is and repeats the determination of this step.

一方、画像402,403のように第1の被写体が第2の被写体の背後に隠れて撮像画面から消えた場合は第1の被写体が検出されない。このため、システム制御部203は、特定被写体の検出が可能な被写体検出部207による特定結果を利用するため、ステップS303に進む。   On the other hand, when the first subject is hidden behind the second subject and disappears from the imaging screen as in the images 402 and 403, the first subject is not detected. For this reason, the system control unit 203 proceeds to step S303 in order to use the specific result obtained by the subject detection unit 207 that can detect the specific subject.

次にステップS303では、システム制御部203は、被写体検出部207に、新たな(現)フレームのうち、前フレームにおいてAE制御部204により特定された第1の被写体領域付近に存在する第1の被写体と同じ色の被写体を追尾候補に設定する。第1の被写体に対して第2の被写体が重なった時点では、第1の被写体が撮像画面から消えて、それまで第1の被写体が検出された領域付近に第2の被写体が存在するため、第2の被写体が次に追尾を行う候補となる。この第2の被写体が追尾対象になるタイミングにおいて、システム制御部203は、第2の被写体を追尾するか否かを判定する被写体追尾判定処理を行う。   Next, in step S303, the system control unit 203 causes the subject detection unit 207 to select a first (existing) first frame existing near the first subject area specified by the AE control unit 204 in the previous frame. A subject of the same color as the subject is set as a tracking candidate. When the second subject overlaps the first subject, the first subject disappears from the imaging screen, and the second subject exists near the area where the first subject has been detected so far. The second subject is a candidate for the next tracking. At the timing when the second subject becomes a tracking target, the system control unit 203 performs subject tracking determination processing for determining whether or not to track the second subject.

具体的には、第2の被写体が重なることで第1の被写体が撮像画面から消えることに応じて、システム制御部203は、ステップS304にて第1の被写体が存在していた光軸方向での位置を基準位置に設定する。そして、撮像光学系が第2の被写体に対して合焦した場合における基準位置、すなわち第1の被写体に対する撮像光学系のデフォーカス量を算出(予測)する。   Specifically, in response to the first subject disappearing from the imaging screen due to the overlap of the second subject, the system control unit 203 moves in the optical axis direction in which the first subject was present in step S304. Is set as the reference position. Then, a reference position when the imaging optical system is focused on the second subject, that is, a defocus amount of the imaging optical system with respect to the first subject is calculated (predicted).

次にステップS305では、システム制御部203は、算出した第1の被写体に対するデフォーカス量として表されるデフォーカス状態が所定の条件を満たすか否かを判定する。具体的には、デフォーカス量が所定値以下(所定値と同じまたはこれよりも小さい)か否かを判定する。閾値としての所定値は、第1の被写体が撮像画面内に再度現れたときに顔検出処理や顔識別情報を用いた識別処理によって第1の被写体を検出可能な最大のデフォーカス量に基づいて設定される。デフォーカス量が閾値以下の場合は、システム制御部203は、ステップS306に進み、画像402のように合焦した第2の被写体に対する追尾を開始する。この後、ステップS308に進む。   In step S305, the system control unit 203 determines whether or not the defocus state expressed as the calculated defocus amount for the first subject satisfies a predetermined condition. Specifically, it is determined whether or not the defocus amount is equal to or smaller than a predetermined value (same as or smaller than the predetermined value). The predetermined value as the threshold is based on the maximum defocus amount that can detect the first subject by face detection processing or identification processing using face identification information when the first subject reappears in the imaging screen. Is set. If the defocus amount is less than or equal to the threshold value, the system control unit 203 proceeds to step S306 and starts tracking the focused second object as in the image 402. Thereafter, the process proceeds to step S308.

一方、第1の被写体に対するデフォーカス量が閾値よりも大きい場合は、システム制御部203は、ステップS307に進み、画像403のように第2の被写体に対する追尾は行わない。この後、ステップS313に進む。第1の被写体に対するデフォーカス量が閾値より大きいときに第2の被写体に対して追尾(つまりは合焦)しないことで、第1の被写体が撮像画面内に再び現れた後の顔検出処理や識別処理による第1の被写体の検出に応じて再び第1の被写体を追尾することができる。   On the other hand, when the defocus amount with respect to the first subject is larger than the threshold value, the system control unit 203 proceeds to step S307 and does not perform tracking for the second subject as in the image 403. Thereafter, the process proceeds to step S313. By not tracking (that is, focusing) the second subject when the defocus amount with respect to the first subject is larger than the threshold value, face detection processing after the first subject appears again in the imaging screen, The first subject can be tracked again in response to the detection of the first subject by the identification process.

ステップS306で第2の被写体の追尾を開始したシステム制御部203は、ステップS308にて、第2の被写体を追尾することで変化する第1の被写体に対するデフォーカス量を算出する。   In step S308, the system control unit 203 that has started tracking the second subject in step S306 calculates a defocus amount with respect to the first subject that changes by tracking the second subject.

そして、ステップS309では、システム制御部203は、算出した第1の被写体に対するデフォーカス量が上述した閾値としての所定値以下か否かを判定する。デフォーカス量が閾値以下である場合は、システム制御部203は、ステップS310に進み、画像404のようにそのまま第2の被写体の追尾を継続する。その後、ステップS312に進む。   In step S309, the system control unit 203 determines whether or not the calculated defocus amount with respect to the first subject is equal to or less than the predetermined value as the above-described threshold value. If the defocus amount is equal to or smaller than the threshold value, the system control unit 203 proceeds to step S310 and continues to track the second subject as it is as the image 404. Thereafter, the process proceeds to step S312.

一方、第2の被写体が光軸方向にて第1の被写体から離れた場所に移動した場合等、第1の被写体に対するデフォーカス量が閾値よりも大きくなった場合は、システム制御部203は、ステップS311に進む。そして、ステップS311では、システム制御部203は、画像405のように第2の被写体の追尾を中止する。そして、次に追尾する被写体を設定するまで第1の被写体に対するデフォーカス量が変化しないようにフォーカスレンズ103の位置を保持する。この後、ステップS313に進む。   On the other hand, when the defocus amount with respect to the first subject becomes larger than the threshold, such as when the second subject moves to a place away from the first subject in the optical axis direction, the system control unit 203 The process proceeds to step S311. In step S <b> 311, the system control unit 203 stops tracking the second subject as in the image 405. Then, the position of the focus lens 103 is held so that the defocus amount with respect to the first subject does not change until the subject to be tracked next is set. Thereafter, the process proceeds to step S313.

ステップS312では、システム制御部203は、第1の被写体が撮像画面内にて検出されたか否かを確認する。第1の被写体が撮像画面内にて検出された場合は、システム制御部203は、ステップS314に進み、画像406のように第2の被写体の追尾を中止して第1の被写体の追尾を再開する。一方、第1の被写体が撮像画面内にて検出されない場合は、システム制御部203は、ステップS308に戻り、第2の被写体の追尾を継続する。この場合は、後続のフレームにおいて第1の被写体が検出されるまでステップS308からS312までの処理を繰り返す。   In step S312, the system control unit 203 confirms whether or not the first subject is detected in the imaging screen. When the first subject is detected in the imaging screen, the system control unit 203 proceeds to step S314, stops tracking the second subject and resumes tracking the first subject as shown in the image 406. To do. On the other hand, if the first subject is not detected in the imaging screen, the system control unit 203 returns to step S308 and continues tracking the second subject. In this case, the processes from step S308 to S312 are repeated until the first subject is detected in the subsequent frame.

ステップS313では、システム制御部203は、ステップS312と同様に第1の被写体が撮像画面内にて検出されたか否かを確認する。第1の被写体が撮像画面内にて検出された場合は、システム制御部203は、ステップS314に進み、第1の被写体の追尾を再開する。第1の被写体が撮像画面内にて検出されない場合は、システム制御部203は、ステップS304に戻り、第1の被写体が後続のフレームにて検出されるまでステップS304以降の処理を繰り返す。   In step S313, the system control unit 203 confirms whether or not the first subject is detected in the imaging screen as in step S312. If the first subject is detected in the imaging screen, the system control unit 203 proceeds to step S314 and resumes tracking of the first subject. If the first subject is not detected in the imaging screen, the system control unit 203 returns to step S304 and repeats the processing from step S304 onward until the first subject is detected in the subsequent frame.

画像403のように第2の被写体に対する追尾に移行しなかったことで第1の被写体のデフォーカス量は閾値以下となる。この結果、画像408のように第1の被写体が撮像画面内に再び現れた後の顔検出処理や識別処理による第1の被写体の検出に応じて再び第1の被写体の追尾に戻ることが可能となる。   As the image 403 does not shift to the tracking of the second subject, the defocus amount of the first subject becomes equal to or less than the threshold value. As a result, it is possible to return to the tracking of the first subject again in accordance with the detection of the first subject by the face detection process or the identification process after the first subject appears again in the imaging screen as in the image 408. It becomes.

また、画像405のように第1の被写体に対するデフォーカス量が閾値以下のときに第2の被写体の追尾を中止することでも、第1の被写体の撮像画面内での再検出に応じて、画像407のように第1の被写体の追尾を再開することができる。   Further, even when the tracking of the second subject is stopped when the defocus amount with respect to the first subject is equal to or smaller than the threshold as in the image 405, the image can be changed according to the re-detection of the first subject in the imaging screen. As in 407, the tracking of the first subject can be resumed.

このように本実施例では、第1の被写体が撮像画面から消えて検出されなくなったときの該第1の被写体に対するデフォーカス量が閾値より大きくならないように第2の被写体に対する追尾を制限する。これにより、第2の被写体に対する追尾が行われていても、第1の被写体に対するデフォーカス量は常に閾値以下となる。この結果、第1の被写体が撮像画面内に再度現れた後の顔検出処理や識別処理により第1の被写体を確実に検出することができ、該第1の被写体の追尾に復帰することができる。一方、第1の被写体を追尾している間に第1の被写体が撮像画面から消えた場合には、第1の被写体が撮像画面内に再度現れたときにこれを検出可能な範囲で第2の被写体を追尾することができる。   As described above, in this embodiment, the tracking of the second subject is limited so that the defocus amount for the first subject does not become larger than the threshold when the first subject disappears from the imaging screen and is no longer detected. As a result, even when tracking is performed for the second subject, the defocus amount for the first subject is always equal to or less than the threshold value. As a result, it is possible to reliably detect the first subject by face detection processing and identification processing after the first subject appears again in the imaging screen, and to return to tracking of the first subject. . On the other hand, when the first subject disappears from the imaging screen while tracking the first subject, the second subject is detected within a range in which the first subject can be detected when it appears again in the imaging screen. Can track the subject.

次に、本発明の実施例2について説明する。本実施例では、第1の被写体が動体である場合について説明する。なお、本実施例のカメラ101および交換レンズ102の構成は実施例1と同じであり、構成する要素には同符号を付して説明を省略する。また、本実施例におけるAE制御部204で行われる被写体検出処理は、実施例1と同じである。   Next, a second embodiment of the present invention will be described. In this embodiment, a case where the first subject is a moving object will be described. Note that the configurations of the camera 101 and the interchangeable lens 102 of the present embodiment are the same as those of the first embodiment, and constituent elements are given the same reference numerals and description thereof is omitted. The subject detection process performed by the AE control unit 204 in the present embodiment is the same as that in the first embodiment.

図5のフローチャートおよび図6を用いて、第1の被写体が動体である場合の被写体追尾制御処理について説明する。ここでは、図6に示すように、2人の人物の顔のうち一方である第1の被写体がカメラ101に向かって近づいてくる手前を、他方である第2の被写体がカメラ101に近づきながら横切るシーンを撮像する場合について説明する。なお、第1の被写体に比べて第2の被写体の光軸方向での移動速度が速く、第1の被写体と第2の被写体との間の光軸方向での距離は広がっていくものとする。   The subject tracking control process when the first subject is a moving object will be described with reference to the flowchart of FIG. 5 and FIG. Here, as shown in FIG. 6, one of the faces of the two persons, the first subject approaching the camera 101, and the other second subject approaching the camera 101. The case where the scene which crosses is imaged is demonstrated. The moving speed of the second subject in the optical axis direction is faster than that of the first subject, and the distance in the optical axis direction between the first subject and the second subject increases. .

図5のステップS501では、システム制御部203は、AE制御部204に、実施例1で説明した第1の被写体の設定方法のいずれかにより、図6の画像601において枠で囲まれた第1の被写体を設定させる。システム制御部203は、設定された第1の被写体の追尾を開始する。   In step S501 in FIG. 5, the system control unit 203 causes the AE control unit 204 to perform the first framed frame in the image 601 in FIG. 6 by one of the first subject setting methods described in the first embodiment. Set the subject. The system control unit 203 starts tracking the set first subject.

ステップS502では、システム制御部203は、実施例1で説明した顔検出処理や識別処理を行うAE制御部204によって第1の被写体が撮像画面内にて検出されたか否か、つまりは第1の被写体が撮像画面から消えたか否かを判定する。第1の被写体が検出された場合は、システム制御部203は、そのまま検出された第1の被写体を追尾し続けるとともに、本ステップの判定を繰り返す。一方、図6の画像602のように第1の被写体が第2の被写体の背後に隠れて撮像画面から消えた場合は第1の被写体が検出されない。このため、システム制御部203は、被写体検出部207による特定結果を利用するため、ステップS503を介してステップS504に進む。   In step S502, the system control unit 203 determines whether or not the first subject has been detected in the imaging screen by the AE control unit 204 that performs the face detection processing and identification processing described in the first embodiment, that is, the first It is determined whether the subject has disappeared from the imaging screen. When the first subject is detected, the system control unit 203 continues to track the first subject detected as it is and repeats the determination of this step. On the other hand, when the first subject is hidden behind the second subject and disappears from the imaging screen as in the image 602 of FIG. 6, the first subject is not detected. Therefore, the system control unit 203 proceeds to step S504 via step S503 in order to use the specific result obtained by the subject detection unit 207.

この際、ステップS503では、システム制御部203は、第1の被写体が撮像画面にて検出されなくなる前の連続する複数の過去フレームから、第1の被写体の光軸方向での単位時間あたりの移動量(つまりは移動速度)を算出する。そしてステップS504では、システム制御部203は、新たな(現)フレームのうち、前フレームにおいてAE制御部204により特定された第1の被写体領域付近に存在する第1の被写体と同じ色の被写体(ここでは第2の被写体)を追尾候補に設定する。   At this time, in step S503, the system control unit 203 moves the first subject per unit time in the optical axis direction from a plurality of consecutive past frames before the first subject is not detected on the imaging screen. The amount (that is, the moving speed) is calculated. In step S504, the system control unit 203 sets a subject of the same color as the first subject existing in the vicinity of the first subject area specified by the AE control unit 204 in the previous frame in the new (current) frame. Here, the second subject) is set as a tracking candidate.

次に、ステップS505では、システム制御部203は、第2の被写体を追尾するか否かを判定する被写体追尾判定処理を行うため、第2の被写体に合焦した場合に変化する第1の被写体のデフォーカス量を算出する。このとき、システム制御部203は、ステップS503で算出した第1の被写体の単位時間あたりの光軸方向での移動量を用いてデフォーカス量を算出する。具体的には、第1の被写体の単位時間あたりの光軸方向での移動量から該第1の被写体の現在の位置を予測し、その位置を基準位置に設定する。そして、撮像光学系が第2の被写体に対して合焦した場合における基準位置、すなわち第1の被写体に対する撮像光学系のデフォーカス量を算出(予測)する。   Next, in step S505, the system control unit 203 performs subject tracking determination processing for determining whether or not to track the second subject, and thus the first subject that changes when the second subject is focused. The defocus amount of is calculated. At this time, the system control unit 203 calculates the defocus amount using the movement amount of the first subject in the optical axis direction per unit time calculated in step S503. Specifically, the current position of the first subject is predicted from the amount of movement of the first subject in the optical axis direction per unit time, and the position is set as the reference position. Then, a reference position when the imaging optical system is focused on the second subject, that is, a defocus amount of the imaging optical system with respect to the first subject is calculated (predicted).

次にステップS506では、システム制御部203は、算出した第1の被写体に対するデフォーカス量(デフォーカス状態)が所定の条件を満たすか否か、具体的には所定値以下(所定値と同じまたはこれよりも小さい)か否かを判定する。閾値としての所定値は、実施例1のステップS305と同様に、第1の被写体が撮像画面内に再度現れたときに顔検出処理や識別処理によって第1の被写体を検出可能な最大のデフォーカス量に基づいて設定される。デフォーカス量が閾値以下の場合は、システム制御部203は、ステップS507に進み、画像602のように合焦した第2の被写体に対する追尾を開始する。この後、ステップS509に進む。   In step S506, the system control unit 203 determines whether or not the calculated defocus amount (defocus state) for the first subject satisfies a predetermined condition, specifically, a predetermined value or less (same as the predetermined value or Or smaller). The predetermined value as the threshold is the maximum defocus that can detect the first subject by face detection processing or identification processing when the first subject appears again in the imaging screen, as in step S305 of the first embodiment. Set based on quantity. If the defocus amount is equal to or smaller than the threshold value, the system control unit 203 proceeds to step S507 and starts tracking the second subject focused as in the image 602. Thereafter, the process proceeds to step S509.

一方、第1の被写体のデフォーカス量が閾値よりも大きい場合は、システム制御部203は、ステップS508に進み、第2の被写体に対する追尾は行わない。この後、ステップS514に進む。第2の被写体に対する追尾は行わない理由は、実施例1のステップS307と同じである。   On the other hand, if the defocus amount of the first subject is larger than the threshold value, the system control unit 203 proceeds to step S508 and does not perform tracking for the second subject. Thereafter, the process proceeds to step S514. The reason for not tracking the second subject is the same as that in step S307 in the first embodiment.

ステップS507で第2の被写体の追尾を開始したシステム制御部203は、ステップS509にて、第2の被写体を追尾することで変化する第1の被写体に対するデフォーカス量を算出する。この際、ステップS505と同様に、ステップS503で算出した第1の被写体の単位時間あたりの光軸方向での移動量を用いて第1の被写体の現在の位置を予測し、その位置を基準位置に設定する。そして、撮像光学系が第2の被写体に対して合焦した場合における基準位置(第1の被写体)に対する撮像光学系のデフォーカス量を算出(予測)する。   In step S509, the system control unit 203 that has started tracking the second subject in step S507 calculates a defocus amount with respect to the first subject that changes by tracking the second subject. At this time, similarly to step S505, the current position of the first subject is predicted using the movement amount of the first subject in the optical axis direction per unit time calculated in step S503, and the position is determined as the reference position. Set to. Then, the defocus amount of the imaging optical system with respect to the reference position (first subject) when the imaging optical system is focused on the second subject is calculated (predicted).

そして、ステップS510では、システム制御部203は、算出した第1の被写体に対するデフォーカス量が上述した閾値以下か否かを判定する。デフォーカス量が閾値以下である場合は、システム制御部203は、ステップS511に進み、図6の画像603のようにそのまま第2の被写体の追尾を継続する。その後、ステップS513に進む。   In step S510, the system control unit 203 determines whether the calculated defocus amount for the first subject is equal to or less than the above-described threshold value. If the defocus amount is equal to or smaller than the threshold value, the system control unit 203 proceeds to step S511 and continues to track the second subject as it is like the image 603 in FIG. Thereafter, the process proceeds to step S513.

一方、移動速度が第1の被写体より速い第2の被写体が光軸方向において第1の被写体から離れることで第1の被写体に対するデフォーカス量が閾値よりも大きくなった場合は、システム制御部203は、ステップS512に進む。ステップS512では、システム制御部203は、図6の画像604のように第2の被写体の追尾を中止する。そして、次に追尾する被写体を設定するまで第1の被写体に対するデフォーカス量が変化しないように、ステップS503で算出した第1の被写体の移動速度を用いてフォーカスレンズ103の位置を制御する。この後、ステップS514に進む。   On the other hand, when the second subject whose movement speed is faster than the first subject moves away from the first subject in the optical axis direction and the defocus amount for the first subject becomes larger than the threshold, the system control unit 203 Advances to step S512. In step S512, the system control unit 203 stops tracking the second subject as shown in the image 604 of FIG. Then, the position of the focus lens 103 is controlled using the moving speed of the first subject calculated in step S503 so that the defocus amount for the first subject does not change until the subject to be tracked next is set. Thereafter, the process proceeds to step S514.

ステップS513では、システム制御部203は、第1の被写体が撮像画面内にて検出されたか否かを確認する。第1の被写体が撮像画面内にて検出された場合は、システム制御部203は、ステップS515に進み、図6の画像605のように第2の被写体の追尾を中止して第1の被写体の追尾を再開する。一方、第1の被写体が撮像画面内にて検出されない場合は、システム制御部203は、ステップS509に戻り、第2の被写体の追尾を継続する。この場合は、後続のフレームにおいて第1の被写体が検出されるまでステップS509からS513までの処理を繰り返す。   In step S513, the system control unit 203 confirms whether or not the first subject is detected in the imaging screen. When the first subject is detected in the imaging screen, the system control unit 203 proceeds to step S515, stops tracking the second subject as shown in the image 605 in FIG. 6, and determines the first subject. Resume tracking. On the other hand, if the first subject is not detected in the imaging screen, the system control unit 203 returns to step S509 and continues tracking the second subject. In this case, the processing from steps S509 to S513 is repeated until the first subject is detected in the subsequent frame.

ステップS514では、システム制御部203は、ステップS513と同様に第1の被写体が撮像画面内にて検出されたか否かを確認する。第1の被写体が撮像画面内にて検出された場合は、システム制御部203は、ステップS515に進み、第1の被写体の追尾を再開する。第1の被写体が撮像画面内にて検出されない場合は、システム制御部203は、ステップS504に戻り、第1の被写体が後続のフレームにて検出されるまでステップS504以降の処理を繰り返す。   In step S514, the system control unit 203 confirms whether or not the first subject is detected in the imaging screen as in step S513. When the first subject is detected in the imaging screen, the system control unit 203 proceeds to step S515 and resumes tracking of the first subject. If the first subject is not detected in the imaging screen, the system control unit 203 returns to step S504 and repeats the processing from step S504 onward until the first subject is detected in the subsequent frame.

本実施例では、第1の被写体が撮像画面にて検出されなくなる前の該第1の被写体の光軸方向での移動量から、第1の被写体が撮像画面から消えている間の移動を予測して、第1の被写体に対するデフォーカス量の算出に用いる。その上で、第1の被写体に対するデフォーカス量が閾値以下となるように第2の被写体の追尾(フォーカス追尾制御)を行う。これにより、画像605のように第1の被写体が撮像画面内に再び現れた後の顔検出処理や識別処理による第1の被写体の検出に応じて再び第1の被写体の追尾に復帰することが可能となる。   In this embodiment, the movement while the first subject disappears from the imaging screen is predicted from the amount of movement of the first subject in the optical axis direction before the first subject is no longer detected on the imaging screen. Thus, it is used to calculate the defocus amount for the first subject. After that, tracking of the second subject (focus tracking control) is performed so that the defocus amount with respect to the first subject is equal to or less than the threshold value. As a result, the tracking of the first subject can be resumed in response to the detection of the first subject by the face detection process or the identification process after the first subject appears again in the imaging screen as in the image 605. It becomes possible.

このように本実施例では、移動している第1の被写体が撮像画面から消えて検出されなくなったときの該第1の被写体に対するデフォーカス量が閾値より大きくならないように第2の被写体に対する追尾を制限する。これにより、第2の被写体に対する追尾が行われていても、移動している第1の被写体に対するデフォーカス量は常に閾値以下となる。この結果、移動している第1の被写体が撮像画面内に再度現れた後の第1の被写体を確実に検出して第1の被写体の追尾に復帰することができる。   As described above, in this embodiment, the tracking of the second subject is performed so that the defocus amount for the first subject when the moving first subject disappears from the imaging screen and is not detected is larger than the threshold value. Limit. Thereby, even when tracking is performed on the second subject, the defocus amount for the moving first subject is always equal to or less than the threshold value. As a result, it is possible to reliably detect the first subject after the moving first subject appears again in the imaging screen and return to tracking of the first subject.

次に、本発明の実施例3について説明する。本実施例では、第1の被写体としての顔が検出されない場合について説明する。なお、本実施例のカメラ101および交換レンズ102の構成は実施例1と同じであり、構成する要素には同符号を付して説明を省略する。   Next, Embodiment 3 of the present invention will be described. In this embodiment, a case where a face as the first subject is not detected will be described. Note that the configurations of the camera 101 and the interchangeable lens 102 of the present embodiment are the same as those of the first embodiment, and constituent elements are given the same reference numerals and description thereof is omitted.

図7のフローチャートおよび図8を用いて、第1の被写体(顔)が検出できない場合の被写体追尾制御処理について説明する。ここでは、図8に示すように、第1の被写体を追尾中に該第1の被写体が静止している第2の被写体の背後を横切るシーンを撮像する場合について説明する。このシーンでは、画像801に示すように、カメラ101に対して横を向いて移動している人物の顔を第1の被写体とし、この第1の被写体を連続して撮像する。連続した撮像において、ユーザは第1の被写体が撮像画面の中央に位置するようにカメラ101をパンニングしている。第1の被写体が横を向いているので、顔検出処理や識別処理による被写体検出処理を行うことはできない。   The subject tracking control process when the first subject (face) cannot be detected will be described with reference to the flowchart of FIG. 7 and FIG. Here, as shown in FIG. 8, a case will be described in which a scene crossing behind the second subject where the first subject is stationary while the first subject is being tracked is imaged. In this scene, as shown in an image 801, the face of a person moving sideways with respect to the camera 101 is set as a first subject, and the first subject is continuously imaged. In continuous imaging, the user pans the camera 101 so that the first subject is positioned at the center of the imaging screen. Since the first subject faces sideways, subject detection processing by face detection processing or identification processing cannot be performed.

図7のステップS701では、システム制御部203は、AE制御部204に、第1の被写体を設定させる。ここでは、実施例1で例示したように、ユーザが選択した焦点検出領域に含まれる(または近い)顔を第1の被写体として設定させる。そして、システム制御部203は、被写体検出部207に、第1の被写体の色の情報を取得させる。   In step S701 of FIG. 7, the system control unit 203 causes the AE control unit 204 to set the first subject. Here, as exemplified in the first embodiment, the face included in (or close to) the focus detection area selected by the user is set as the first subject. Then, the system control unit 203 causes the subject detection unit 207 to acquire information on the color of the first subject.

本実施例では、図8の画像801,802のように、第1の被写体である顔が撮像画面内に存在しているにもかかわらず、その顔を検出することができない。このため、次のステップS702では、システム制御部203は、被写体検出部207に、現フレームのうち前フレームにおいて特定された第1の被写体を含む第1の被写体領域付近に存在する第1の被写体と同じ色を検出させる。そして、その検出した色に基づいて第1の被写体を追尾する。言い換えれば、色の一致度を相関として用い、現フレームにおいて前フレームとの相関が高い画像領域に第1の被写体が存在するとみなしてこれを追尾する。   In this embodiment, like the images 801 and 802 in FIG. 8, the face cannot be detected even though the face that is the first subject exists in the imaging screen. Therefore, in the next step S702, the system control unit 203 causes the subject detection unit 207 to display the first subject existing near the first subject area including the first subject specified in the previous frame in the current frame. The same color is detected. Then, the first object is tracked based on the detected color. In other words, the degree of coincidence of colors is used as a correlation, and the first object is regarded as being present in an image area having a high correlation with the previous frame in the current frame, and this is tracked.

図8の画像803のように、第1の被写体が第2の被写体の背後に隠れて撮像画面から消えると、それまでの第1の被写体領域付近に第1の被写体と同じ色の第2の被写体が存在するため、第2の被写体が次に追尾を行う候補となる。この第2の被写体が追尾対象になるタイミングにおいて、システム制御部203は、第2の被写体を追尾するか否かを判定する被写体追尾判定処理を行う。   When the first subject is hidden behind the second subject and disappears from the imaging screen as in the image 803 in FIG. 8, the second subject of the same color as the first subject is located near the first subject region so far. Since the subject exists, the second subject is a candidate for the next tracking. At the timing when the second subject becomes a tracking target, the system control unit 203 performs subject tracking determination processing for determining whether or not to track the second subject.

ステップS703では、システム制御部203は、第1の被写体の光軸方向での位置を基準位置に設定し、撮像光学系が第2の被写体に対して合焦した場合における基準位置、すなわち第1の被写体に対する撮像光学系のデフォーカス量を算出(予測)する。   In step S703, the system control unit 203 sets the position of the first subject in the optical axis direction as the reference position, and the reference position when the imaging optical system is focused on the second subject, that is, the first position. The defocus amount of the imaging optical system for the subject is calculated (predicted).

そして、ステップS704では、システム制御部203は、算出した第1の被写体に対するデフォーカス量(デフォーカス状態)が所定の条件を満たすか否か、具体的には所定値以下(所定値と同じまたはこれよりも小さい)か否かを判定する。閾値としての所定値は、実施例1,2での所定値と同じである。デフォーカス量が閾値以下の場合は、システム制御部203は、ステップS705に進み、第2の被写体に対する追尾を開始する。この後、ステップS707に進む。一方、第1の被写体のデフォーカス量が閾値よりも大きい場合は、システム制御部203は、ステップS706に進み、図8の画像803のように第2の被写体に対する追尾は行わない。この後、ステップS707に進む。   In step S704, the system control unit 203 determines whether the calculated defocus amount (defocus state) with respect to the first subject satisfies a predetermined condition, specifically, a predetermined value or less (same as the predetermined value or Or smaller). The predetermined value as the threshold is the same as the predetermined value in the first and second embodiments. If the defocus amount is equal to or smaller than the threshold, the system control unit 203 proceeds to step S705 and starts tracking the second subject. Thereafter, the process proceeds to step S707. On the other hand, if the defocus amount of the first subject is larger than the threshold, the system control unit 203 proceeds to step S706 and does not perform tracking for the second subject as in the image 803 in FIG. Thereafter, the process proceeds to step S707.

ステップS707では、システム制御部203は、第1の被写体が撮像画面内にて検出されたか否かを確認する。図8の画像804のように第1の被写体が撮像画面内に再び現れたとき、第1の被写体が横顔であることから顔検出処理や識別処理によって第1の被写体を検出することはできない。しかし、第1の被写体と同じ色を検出することでその色を有する被写体を第1の被写体とみなすことができる。なお、第1の被写体に相当する被写体の検出には、複数の過去フレームにおける第1の被写体に対するデフォーカス量や位置の情報を利用して行うことも可能である。   In step S707, the system control unit 203 confirms whether or not the first subject is detected in the imaging screen. When the first subject appears again in the imaging screen as in the image 804 in FIG. 8, the first subject cannot be detected by face detection processing or identification processing because the first subject is a profile. However, by detecting the same color as the first subject, a subject having that color can be regarded as the first subject. Note that the detection of the subject corresponding to the first subject can also be performed using information on the defocus amount and position with respect to the first subject in a plurality of past frames.

こうして第1の被写体(とみなされた被写体)が検出された場合は、システム制御部203はステップS708に進み、第1の被写体の追尾を再開する。このとき追尾される被写体は第1の被写体と判別されていないが、その被写体(第1の被写体)に対するデフォーカス量が閾値以下であるため、該被写体に対して合焦状態を得て追尾することができる。   When the first subject (subject regarded as the subject) is detected in this way, the system control unit 203 proceeds to step S708 and resumes tracking of the first subject. The subject to be tracked at this time is not determined to be the first subject, but since the defocus amount for the subject (first subject) is less than or equal to the threshold value, the subject is tracked by obtaining a focused state. be able to.

一方、第1の被写体が検出されない場合には、システム制御部203はステップS702に戻る。   On the other hand, if the first subject is not detected, the system control unit 203 returns to step S702.

本実施例では、第1の被写体が撮像画面から消えて検出されなくなったときに、前フレームにて得られた第1の被写体の色情報に基づいて新たな追尾対象の被写体(第2の被写体)を設定する。このとき、第1の被写体に対するデフォーカス量が閾値より大きくならないように第2の被写体に対する追尾を制限する。これにより、第1の被写体が撮像画面内に再び現れたときに、第1の被写体の色と同じ色を検出することで第1の被写体の追尾に復帰することができる。   In this embodiment, when the first subject disappears from the imaging screen and is no longer detected, a new subject to be tracked (second subject) based on the color information of the first subject obtained in the previous frame. ) Is set. At this time, the tracking for the second subject is limited so that the defocus amount for the first subject does not exceed the threshold. Thereby, when the first subject appears again in the imaging screen, it is possible to return to the tracking of the first subject by detecting the same color as the color of the first subject.

仮に画像803において、ステップS703で算出される第1の被写体に対するデフォーカス量にかかわらず第2の被写体を追尾した場合には、後続の画像804で第1の被写体が撮像画面内に再度現れても第2の被写体を追尾し続ける可能性がある。また、第2の被写体を追尾している間に画像804の状態にて第1の被写体が正面を向く等した場合でも、第1の被写体のデフォーカス量が大きいために顔検出処理や識別処理による第1の被写体の検出ができない。これに対して、本実施例では、画像803において第2の被写体の追尾を第1の被写体に対するデフォーカス量によって制限したことで、第1の被写体が撮像画面内に再び現れて正面を向いたときに、顔検出処理や識別処理により第1の被写体を検出することができる。   If the second subject is tracked regardless of the defocus amount for the first subject calculated in step S703 in the image 803, the first subject appears again in the imaging screen in the subsequent image 804. May continue to track the second subject. Even when the first subject faces the front in the state of the image 804 while tracking the second subject, the face detection process and the identification process are performed because the defocus amount of the first subject is large. The first subject cannot be detected. In contrast, in this embodiment, the tracking of the second subject in the image 803 is limited by the defocus amount with respect to the first subject, so that the first subject appears again in the imaging screen and faces the front. Sometimes, the first subject can be detected by face detection processing or identification processing.

このように、本実施例によれば、第1の被写体である顔が検出できない場合においても、第1の被写体を優先的に追尾することができる。また、第1の被写体である顔が検出できる状態となれば、顔検出処理や識別処理による第1の被写体の検出が可能となる。   Thus, according to the present embodiment, the first subject can be preferentially tracked even when the face that is the first subject cannot be detected. Further, when the face that is the first subject can be detected, the first subject can be detected by the face detection process or the identification process.

上記各実施例では、デフォーカス状態を表すデフォーカス量が所定値以下(または所定値より小さい)場合に限って第2の被写体に対する追尾を行う場合について説明した。しかし、デフォーカス量以外のデフォーカス状態を表す評価値を決めて、該評価値についての所定の条件を満たす場合に限って第2の被写体に対する追尾を行うようにしてもよい。例えば、本実施例では位相差検出方式によってデフォーカス量を算出する場合について説明した。しかし、コントラスト検出方式によって求めたデフォーカス状態に対応するコントラスト評価値が所定値以上(または所定値より高い)という所定の条件を満足する場合に限って第2の被写体に対する追尾を行うようにしてもよい。なお、コントラスト評価値が所定値以上(または所定値より高い)とは、デフォーカス量で言えば所定値以下(または所定値より低い)であることに相当する。   In each of the embodiments described above, the case where the tracking of the second subject is performed only when the defocus amount representing the defocus state is equal to or smaller than the predetermined value (or smaller than the predetermined value) has been described. However, an evaluation value representing a defocus state other than the defocus amount may be determined, and the tracking of the second subject may be performed only when a predetermined condition for the evaluation value is satisfied. For example, in the present embodiment, the case where the defocus amount is calculated by the phase difference detection method has been described. However, the tracking of the second subject is performed only when the contrast evaluation value corresponding to the defocus state obtained by the contrast detection method satisfies a predetermined condition of a predetermined value or higher (or higher than the predetermined value). Also good. The contrast evaluation value equal to or higher than a predetermined value (or higher than the predetermined value) corresponds to a defocus amount that is equal to or lower than the predetermined value (or lower than the predetermined value).

また、上記各実施例では、第1の被写体に対して第2の被写体が重なることで第1の被写体が撮像画面から消えて第2の被写体が一時的に撮像画面内に存在することになる場合について説明した。しかし、各実施例のフォーカス追従制御は、第1の被写体が撮像画面から消えるとともに第2の被写体も存在しない場合や、第1の被写体が撮像画面から消えて、代わりに第2の被写体が現れる(フレームインする)場合等、様々なシーンで適用可能である。   In each of the above embodiments, the second subject overlaps the first subject, so that the first subject disappears from the imaging screen and the second subject temporarily exists in the imaging screen. Explained the case. However, the focus follow-up control in each embodiment is performed when the first subject disappears from the imaging screen and the second subject does not exist, or the first subject disappears from the imaging screen and the second subject appears instead. It can be applied in various scenes, such as when (frame-in).

また、各実施例では、被写体として2人の人物(の顔)が存在するシーンの撮像を例として説明したが、被写体の数や被写体(特定被写体)の種類は何ら限定されない。   In each of the embodiments, the imaging of a scene in which two persons (faces) exist as subjects has been described as an example, but the number of subjects and the types of subjects (specific subjects) are not limited at all.

また、各実施例では、測光センサ205による光電変換により取得される測光用画像(検出フレーム)を用いて被写体検出を行う場合について説明したが、他の画像を用いて被写体検出を行ってもよい。例えば、被写体像を光電変換する撮像素子113からの撮像信号を用いて生成された撮像画像(動画像のフレーム)を用いて被写体検出を行ってもよい。   In each embodiment, the case where subject detection is performed using a photometric image (detection frame) acquired by photoelectric conversion by the photometric sensor 205 has been described. However, subject detection may be performed using another image. . For example, subject detection may be performed using a captured image (moving image frame) generated using an imaging signal from the image sensor 113 that photoelectrically converts the subject image.

また、各実施例では、追尾対象である第1の被写体を撮像開始時に決定する場合について説明したが、第1の被写体の決定は撮像開始時に限らず、他のタイミングで決定してもよい。例えば、撮像中において、撮像開始時に設定した第1の被写体とは別の被写体を第1の被写体に切り替えてもよい。   In each embodiment, the case where the first subject to be tracked is determined at the start of imaging has been described. However, the determination of the first subject is not limited to at the start of imaging, and may be determined at another timing. For example, during imaging, a subject different from the first subject set at the start of imaging may be switched to the first subject.

さらに、各実施例では、デジタル一眼レフカメラについて説明したが、レンズ一体型カメラやビデオカメラ等の撮像装置や交換レンズ等のレンズ装置を含む各種光学機器において各実施例にて説明した被写体追従制御処理を行うことができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Furthermore, in each embodiment, a digital single-lens reflex camera has been described. However, subject tracking control described in each embodiment in various optical devices including an imaging device such as a lens-integrated camera and a video camera and a lens device such as an interchangeable lens. Processing can be performed.
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。   Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.

101 カメラ
102 交換レンズ
103 フォーカスレンズ
108 AFユニット
112 AEユニット
113 撮像素子
203 システム制御部
101 Camera 102 Interchangeable Lens 103 Focus Lens 108 AF Unit 112 AE Unit 113 Image Sensor 203 System Control Unit

Claims (9)

撮像光学系により形成された被写体の光学像を光電変換することで順次生成される複数の画像のそれぞれにおいて前記被写体に対応する画像領域を検出する検出手段と、
前記画像領域に基づいて、前記被写体に対する前記撮像光学系の合焦状態を維持するようにフォーカス追尾制御を行う制御手段とを有し、
前記制御手段は、
前記画像領域において前記被写体が第1の被写体から該第1の被写体とは異なる第2の被写体に変化することに応じて、前記第1の被写体に対する前記フォーカス追尾制御から前記第2の被写体に対する前記フォーカス追尾制御に移行し、
前記第2の被写体に対する前記フォーカス追尾制御を、前記撮像光学系の前記第1の被写体に対するデフォーカス状態が所定の条件を満たす場合に限って行うことを特徴とする光学機器。
Detecting means for detecting an image region corresponding to the subject in each of a plurality of images sequentially generated by photoelectrically converting an optical image of the subject formed by the imaging optical system;
Control means for performing focus tracking control so as to maintain the in-focus state of the imaging optical system with respect to the subject based on the image region;
The control means includes
In response to the change of the subject from the first subject to a second subject different from the first subject in the image region, the focus tracking control for the first subject causes the subject for the second subject to change. Move to focus tracking control,
An optical apparatus characterized in that the focus tracking control for the second subject is performed only when a defocus state for the first subject of the imaging optical system satisfies a predetermined condition.
前記所定の条件は、前記撮像光学系の前記第1の被写体に対するデフォーカス量が所定値以下または該所定値より小さいことであることを特徴とする請求項1に記載の光学機器。   2. The optical apparatus according to claim 1, wherein the predetermined condition is that a defocus amount of the imaging optical system with respect to the first subject is equal to or smaller than a predetermined value or smaller than the predetermined value. 前記所定値は、前記第2の被写体に対する前記フォーカス追尾制御が行われている間に前記検出手段による前記第1の被写体に対応する前記画像領域の再検出が可能な最大の前記デフォーカス量に基づいて設定されることを特徴とする請求項2に記載の光学機器   The predetermined value is the maximum defocus amount that allows the detection unit to redetect the image area corresponding to the first subject while the focus tracking control is performed on the second subject. The optical apparatus according to claim 2, wherein the optical apparatus is set based on 前記制御手段は、前記撮像光学系の光軸方向において前記第1の被写体の位置が変化しない場合には、前記デフォーカス量を、前記第1の被写体に対する前記フォーカス追尾制御が行われていたときの該第1の被写体の位置に対して算出することを特徴とする請求項2または3に記載の光学機器。   When the focus tracking control for the first subject is performed, the control means determines the defocus amount when the position of the first subject does not change in the optical axis direction of the imaging optical system. The optical apparatus according to claim 2, wherein the calculation is performed with respect to the position of the first subject. 前記制御手段は、前記撮像光学系の光軸方向において前記第1の被写体が移動している場合には、前記デフォーカス量を、前記第1の被写体に対する前記フォーカス追尾制御が行われていたときの該第1の被写体の位置と移動速度とを用いて算出することを特徴とする請求項2から4のいずれか一項に記載の光学機器。   When the first subject is moving in the optical axis direction of the imaging optical system, the control means uses the defocus amount as the focus tracking control for the first subject. 5. The optical apparatus according to claim 2, wherein the calculation is performed using the position and the moving speed of the first subject. 前記検出手段は、前記第1の被写体に対応する前記画像領域との相関を用いて前記第2の被写体に対応する前記画像領域を検出することを特徴とする請求項1から5のいずれか一項に記載の光学機器。   6. The detection unit according to claim 1, wherein the detection unit detects the image region corresponding to the second subject using a correlation with the image region corresponding to the first subject. The optical device according to Item. 前記相関は、被写体の色の一致度であることを特徴とする請求項6に記載の光学機器。   The optical apparatus according to claim 6, wherein the correlation is a degree of coincidence of a subject color. 前記被写体は、顔であることを特徴とする請求項1から7のいずれか一項に記載の光学機器。   The optical apparatus according to claim 1, wherein the subject is a face. 光学機器のコンピュータに、
撮像光学系により形成された被写体の光学像を光電変換することで順次生成される複数の画像のそれぞれにおいて前記被写体に対応する画像領域を検出する処理と、
前記画像領域に基づいて、前記被写体に対する前記撮像光学系の合焦状態を維持するようにフォーカス追尾制御を行う制御処理とを行わせるコンピュータプログラムであって、
前記制御処理は、
前記画像領域において前記被写体が第1の被写体から該第1の被写体とは異なる第2の被写体に変化することに応じて、前記第1の被写体に対する前記フォーカス追尾制御から前記第2の被写体に対する前記フォーカス追尾制御に移行し、
前記第2の被写体に対する前記フォーカス追尾制御を、前記撮像光学系の前記第1の被写体に対するデフォーカス状態が所定の条件を満たす場合に限って行うことを特徴とする光学機器制御プログラム。
In the computer of the optical equipment,
Processing for detecting an image region corresponding to the subject in each of a plurality of images sequentially generated by photoelectrically converting an optical image of the subject formed by the imaging optical system;
A computer program for performing a control process for performing a focus tracking control so as to maintain an in-focus state of the imaging optical system with respect to the subject based on the image area;
The control process is
In response to the change of the subject from the first subject to a second subject different from the first subject in the image region, the focus tracking control for the first subject causes the subject for the second subject to change. Move to focus tracking control,
An optical device control program that performs the focus tracking control for the second subject only when a defocus state for the first subject of the imaging optical system satisfies a predetermined condition.
JP2015147148A 2015-07-24 2015-07-24 Imaging apparatus and control method thereof Active JP6602081B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015147148A JP6602081B2 (en) 2015-07-24 2015-07-24 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015147148A JP6602081B2 (en) 2015-07-24 2015-07-24 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2017026914A true JP2017026914A (en) 2017-02-02
JP6602081B2 JP6602081B2 (en) 2019-11-06

Family

ID=57945892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015147148A Active JP6602081B2 (en) 2015-07-24 2015-07-24 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6602081B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003740A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Image capturing device and control method therefor
JP2020003741A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Image capturing device and control method therefor
JP2020513123A (en) * 2017-03-30 2020-04-30 スノー コーポレーション Method and apparatus for applying dynamic effects to images
US11115583B2 (en) 2018-06-29 2021-09-07 Canon Kabushiki Kaisha Apparatus and method for determination of a focus detection target

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method
JP2008271006A (en) * 2007-04-18 2008-11-06 Nikon Corp Image-tracking device and method therefor, and imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method
JP2008271006A (en) * 2007-04-18 2008-11-06 Nikon Corp Image-tracking device and method therefor, and imaging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513123A (en) * 2017-03-30 2020-04-30 スノー コーポレーション Method and apparatus for applying dynamic effects to images
US11176678B2 (en) 2017-03-30 2021-11-16 Snow Corporation Method and apparatus for applying dynamic effect to image
JP2020003740A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Image capturing device and control method therefor
JP2020003741A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Image capturing device and control method therefor
US11115583B2 (en) 2018-06-29 2021-09-07 Canon Kabushiki Kaisha Apparatus and method for determination of a focus detection target

Also Published As

Publication number Publication date
JP6602081B2 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
US10516821B2 (en) Focus detection apparatus and control method therefor
US7929042B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
JP4998308B2 (en) Focus adjustment device and imaging device
JP2006211139A (en) Imaging apparatus
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5950664B2 (en) Imaging apparatus and control method thereof
JP6602081B2 (en) Imaging apparatus and control method thereof
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2010008507A (en) Camera
JP6825203B2 (en) Imaging controller and camera
JP2014202875A (en) Subject tracking device
JP2019121860A (en) Image processing apparatus and control method therefor
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP2011044970A (en) Photographing system
JP2012208507A (en) Image tracking device
JP2017037103A (en) Imaging apparatus
JP2009010672A (en) Focus detector and image pickup device
JP2014027436A (en) Subject tracking device and imaging apparatus
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP5359150B2 (en) Imaging device
JP2019008075A (en) Imaging device
JP5018932B2 (en) Imaging device
JP2009284071A (en) Image analyzer, and imaging apparatus
JP2008187331A (en) Image tracking device, and imaging apparatus
JP2020043544A (en) Imaging device, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191008

R151 Written notification of patent or utility model registration

Ref document number: 6602081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151