JP6833483B2 - Subject tracking device, its control method, control program, and imaging device - Google Patents

Subject tracking device, its control method, control program, and imaging device Download PDF

Info

Publication number
JP6833483B2
JP6833483B2 JP2016234392A JP2016234392A JP6833483B2 JP 6833483 B2 JP6833483 B2 JP 6833483B2 JP 2016234392 A JP2016234392 A JP 2016234392A JP 2016234392 A JP2016234392 A JP 2016234392A JP 6833483 B2 JP6833483 B2 JP 6833483B2
Authority
JP
Japan
Prior art keywords
subject
tracking
captured image
control
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016234392A
Other languages
Japanese (ja)
Other versions
JP2017121042A (en
Inventor
良介 辻
良介 辻
伸茂 若松
伸茂 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/369,165 priority Critical patent/US10659676B2/en
Publication of JP2017121042A publication Critical patent/JP2017121042A/en
Application granted granted Critical
Publication of JP6833483B2 publication Critical patent/JP6833483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置に関する。 The present invention relates to a subject tracking device, a control method thereof, a control program, and an imaging device.

一般に、デジタルカメラなどの撮像装置においては、露出決定およびピント合わせなどの撮影上の重要な処理が自動化されている。さらに、手振れなどに起因する像ぶれを防止するための防振制御装置が搭載された撮像装置を用いれば、撮影の際にユーザの撮影ミスを誘発する要因をほぼなくすことができる。 Generally, in an imaging device such as a digital camera, important processing such as exposure determination and focusing is automated. Further, if an imaging device equipped with an anti-vibration control device for preventing image blurring due to camera shake or the like is used, it is possible to almost eliminate factors that induce a user's shooting error during shooting.

一方、移動する被写体を撮影する場合又は焦点距離が大きくなる望遠における撮影では、次のような問題がある。 On the other hand, when shooting a moving subject or when shooting at a telephoto where the focal length becomes large, there are the following problems.

移動する被写体を撮影する際、被写体が撮影画面から外れてしまうと、当該被写体をユーザ操作によって精度よく追尾するためには、ユーザの特別な技術が必要となる。また、望遠レンズを有する撮像装置で撮影を行う際には、手振れに起因する像ぶれの影響が大きくなる。このため、ユーザは被写体を撮影画面の中心に維持することが困難となる。そして、ユーザが撮影画面に被写体を戻そうと撮像装置を操作したとしても、当該操作による手ぶれ量が撮像装置によってぶれ補正されてしまう。この結果、防振制御の影響によって被写体を撮影画面又は撮影画面の中心に微調整する操作が困難となる。 When shooting a moving subject, if the subject deviates from the shooting screen, a special technique of the user is required in order to accurately track the subject by user operation. Further, when taking a picture with an image pickup device having a telephoto lens, the influence of image blurring due to camera shake becomes large. Therefore, it is difficult for the user to keep the subject in the center of the shooting screen. Then, even if the user operates the image pickup device to return the subject to the shooting screen, the amount of camera shake caused by the operation is corrected by the image pickup device. As a result, it becomes difficult to finely adjust the subject to the shooting screen or the center of the shooting screen due to the influence of the vibration isolation control.

このような問題に対処するため、例えば、光軸と交差する方向に光学系の一部を移動して、自動的に被写体を追尾する追尾制御装置を備える撮像装置がある(特許文献1参照)。さらに、撮影の結果得られた画像から目的とする被写体を抽出して、当該被写体の重心位置が撮影画面の中心付近となるように、回転雲台などによって被写体を追尾するようにした撮像装置がある(特許文献2参照)。 In order to deal with such a problem, for example, there is an imaging device provided with a tracking control device that automatically tracks a subject by moving a part of the optical system in a direction intersecting the optical axis (see Patent Document 1). .. Furthermore, an imaging device that extracts a target subject from the image obtained as a result of shooting and tracks the subject with a rotating pan head or the like so that the position of the center of gravity of the subject is near the center of the shooting screen. Yes (see Patent Document 2).

特開2010−93362号公報JP-A-2010-93362 特開平7−226873号公報Japanese Unexamined Patent Publication No. 7-2267873

ところが、特許文献2に記載の撮像装置においては、撮影画像から抽出される重心位置の推定精度が回転雲台の追尾制御に影響を与える。なお、以下の説明では、逐次供給される撮影画像から特定の被写体領域を抽出することを追跡と呼び、追跡結果による被写体位置に基づいて光学系の一部又は回転雲台などの可動部を制御することを追尾と呼ぶ。 However, in the image pickup apparatus described in Patent Document 2, the estimation accuracy of the position of the center of gravity extracted from the captured image affects the tracking control of the rotating pan head. In the following description, extracting a specific subject area from the sequentially supplied captured images is called tracking, and a part of the optical system or a moving part such as a rotating pan head is controlled based on the subject position based on the tracking result. Doing is called tracking.

被写体の追跡において、撮影画像に追跡対象と類似する領域が存在すると、誤った領域を追跡してしまうことがある。そして、誤った追跡結果に基づいて追尾が行われると、ユーザによる撮影を大きく妨げることになる。 In tracking a subject, if there is an area similar to the tracking target in the captured image, an erroneous area may be tracked. Then, if tracking is performed based on an erroneous tracking result, the user's shooting will be greatly hindered.

従って、本発明の目的は被写体の追跡の誤りに起因する追尾の誤動作を防止することのできる被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。 Therefore, an object of the present invention is to provide a subject tracking device, a control method thereof, a control program, and an imaging device capable of preventing a tracking malfunction caused by an error in tracking the subject.

上記の目的を達成するため、本発明による被写体追尾装置は、被写体追尾装置であって、影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡手段と、前記撮影画像における被写体の位置をシフトさせるシフト手段を制御して、前記撮影画像における前記被写体の位置を、前記撮影画像における目標位置との差分が小さくなるように移動させる制御手段とを有し、前記制御手段は、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする。 To achieve the above object, the subject tracking apparatus according to the present invention is a subject tracking apparatus in shooting the image, and the object tracking means for determining the confidence level indicating the position and subject likeness of the subject in the captured image, the captured image by controlling the shifting means for shifting the position of the subject in the position of the subject in the captured image, and a Ru control means is moved so that the difference becomes smaller between the target position in the captured image Yes, and the control means to change the state of tracking of the object by changing the control gain in the control of the shift means on the basis of the reliability.

本発明による撮像装置は、撮像光学系を介して結像した光学像に応じて撮影画像を得る撮像手段と、上記の被写体追尾装置と、を有することを特徴とする。 The imaging device according to the present invention is characterized by having an imaging means for obtaining a captured image according to an optical image imaged via an imaging optical system, and the subject tracking device described above.

本発明による制御方法は、連続的に得られる撮影画像における被写体の位置をシフトさせるシフト手段を制御することで前記被写体を追尾する被写体追尾装置の制御方法であって、前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、前記シフト手段を制御して前記撮影画像における前記被写体の位置を、前記撮影画像における目標位置との差分が小さくなるように移動させる制御ステップとを有し、前記制御ステップにおいて、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする。 The control method according to the present invention is a control method of a subject tracking device that tracks a subject by controlling a shift means for shifting the position of the subject in a continuously obtained captured image. The difference between the subject tracking step for obtaining the reliability indicating the position of the subject and the subject-likeness in the image and the position of the subject in the captured image by controlling the shift means is reduced from the target position in the captured image. have a, and Ru control step moves, in said control step changes the control gain in the control of the shifting means and changing the state of tracking of the object based on the reliability.

本発明による制御プログラムは、連続的に得られる撮影画像における被写体の位置をシフトさせるシフト手段を制御することで前記被写体を追尾する被写体追尾装置で用いられる制御プログラムであって、前記被写体追尾装置に備えられたコンピュータに、前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、前記シフト手段を制御して前記撮影画像における前記被写体の位置を、前記撮影画像における目標位置との差分が小さくなるように移動させる制御ステップとを実行させ、前記制御ステップにおいて、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする。 The control program according to the present invention is a control program used in a subject tracking device that tracks a subject by controlling a shift means that shifts the position of the subject in a continuously obtained captured image, and is used in the subject tracking device. A computer provided with a subject tracking step for obtaining a reliability indicating the position and subject-likeness of the subject in the captured image in the captured image, and controlling the shift means to position the subject in the captured image. wherein the Ru control step moves so that the difference becomes smaller between the target position in the captured image, is executed, in the control step, the change of the control gain in the control of the shift means on the basis of the reliability characterized that you change the state of tracking of the object.

本発明によれば、被写体の追跡の誤りに起因する追尾の誤動作を防止することができる。 According to the present invention, it is possible to prevent a tracking malfunction caused by an error in tracking a subject.

本発明の第1の実施形態による被写体追尾装置を備える撮像装置の一例についてその外観を模式的に示す図である。It is a figure which shows typically the appearance of an example of the image pickup apparatus provided with the subject tracking apparatus according to 1st Embodiment of this invention. 図1に示すカメラの構成についてその一例を示す図である。It is a figure which shows an example of the structure of the camera shown in FIG. 図2に示すカメラで検出された被写体の追尾を説明するための図であり、(A)は被写体の追尾開始前の撮影画像を示す図、(B)は被写体の追尾開始後の撮影画像を示す図である。It is a figure for demonstrating the tracking of the subject detected by the camera shown in FIG. 2, (A) is the figure which shows the photographed image before the start of tracking of a subject, (B) is the figure which shows the photographed image after the start of tracking of a subject. It is a figure which shows. 図2に示す被写体追跡部で行われる被写体追跡処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the subject tracking process performed by the subject tracking unit shown in FIG. 図2に示す被写体追跡部で行われるテンプレートマッチング処理を説明するための図である。It is a figure for demonstrating the template matching processing performed by the subject tracking part shown in FIG. 図2に示す追尾量算出部の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of the tracking amount calculation part shown in FIG. 図2に示すカメラで行われる被写体追尾の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of subject tracking performed by the camera shown in FIG. 本発明の第2の実施形態に係るカメラの構成についてその一例を示す図である。It is a figure which shows an example about the structure of the camera which concerns on 2nd Embodiment of this invention. 図8に示すカメラにおける通知方法を説明するための図である。It is a figure for demonstrating the notification method in the camera shown in FIG.

以下に、本発明の実施形態による被写体の追跡の誤りに起因する追尾の誤動作を軽減することのできる被写体追尾装置、その制御方法、および制御プログラム、並びに被写体追尾装置を備える撮像装置の一例について図面を参照して説明する。なお、下記の第1の実施形態、第2の実施形態ともに、撮像装置としてデジタルカメラに本発明を適用した例について説明をするが、本発明は、デジタルカメラに限らず、デジタルビデオカメラ、監視カメラ、Webカメラ、携帯電話等の撮像装置にも適用可能である。また、本発明は、レンズ交換式、レンズ一体型のいずれのカメラにも適用可能である。 The following is a drawing of an example of a subject tracking device capable of reducing a tracking malfunction caused by an error in tracking a subject according to the embodiment of the present invention, a control method thereof, a control program, and an imaging device including the subject tracking device. Will be described with reference to. An example in which the present invention is applied to a digital camera as an imaging device will be described in both the first and second embodiments described below, but the present invention is not limited to digital cameras, but digital video cameras and surveillance. It can also be applied to imaging devices such as cameras, Web cameras, and mobile phones. Further, the present invention can be applied to both interchangeable lens type and integrated lens type cameras.

[第1の実施形態]
図1は、本発明の第1の実施形態による被写体追尾装置を備える撮像装置の一例についてその外観を模式的に示す図である。
[First Embodiment]
FIG. 1 is a diagram schematically showing the appearance of an example of an imaging device including a subject tracking device according to the first embodiment of the present invention.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)101であり、カメラ筐体の上面にはレリーズボタン104が配置されている。ここでは、カメラ101の側面の方向に延びる軸をX軸とし、上面の方向に延びる軸をY軸とする。また、カメラ101の正面の方向に延びる軸をZ軸とする。そして、X軸回りの回転103Ppをピッチ(PITCH)とし、Y軸回りの回転103yをヨー(YAW)とする。 The illustrated imaging device is, for example, a digital camera (hereinafter, simply referred to as a camera) 101, and a release button 104 is arranged on the upper surface of the camera housing. Here, the axis extending in the direction of the side surface of the camera 101 is the X axis, and the axis extending in the direction of the upper surface is the Y axis. Further, the axis extending in the front direction of the camera 101 is defined as the Z axis. Then, the rotation 103Pp around the X axis is defined as the pitch (PITCH), and the rotation 103y around the Y axis is defined as the yaw (YAW).

図2は、図1に示すカメラの構成についてその一例を示す図である。 FIG. 2 is a diagram showing an example of the configuration of the camera shown in FIG.

図1および図2を参照して、撮像光学系の光軸102上には、補正レンズ114および撮像素子106が位置づけられている。撮像素子106は撮像光学系を介して結像した光学像に応じた電気信号(アナログ信号)を生成し、当該アナログ信号をA/D変換して撮影画像として出力する。なお、図示はしないが、撮像光学系にはズームレンズおよびフォーカスレンズが備えられている。角速度計103は、ピッチ103pおよびヨー103yにおける角度振れ(つまり、カメラ101のぶれ)を検出して角度振れ信号をCPU105に送る。CPU105は、本実施形態の被写体追尾装置を構成する。 With reference to FIGS. 1 and 2, the correction lens 114 and the image sensor 106 are positioned on the optical axis 102 of the image pickup optical system. The image pickup device 106 generates an electric signal (analog signal) corresponding to the optical image formed through the image pickup optical system, A / D-converts the analog signal, and outputs the captured image. Although not shown, the imaging optical system is provided with a zoom lens and a focus lens. The angular velocity meter 103 detects the angular velocity shake (that is, the shake of the camera 101) at the pitch 103p and the yaw 103y, and sends the angular velocity shake signal to the CPU 105. The CPU 105 constitutes the subject tracking device of the present embodiment.

CPU105において、振れ補正角度算出部108は、角度振れ信号に基づいて振れ補正角度を求める。例えば、振れ補正角度算出部108は、角度振れ信号において検出ノイズとして付加されるDC成分をカットした後、積分処理を行ってカメラ101の角度を示す角度信号を出力する。なお、DC成分のカットには、例えば、HPF(ハイパスフィルタ)が用いられる。そして、角度信号は敏感度調整部109に送られる。 In the CPU 105, the runout correction angle calculation unit 108 obtains the runout correction angle based on the angle runout signal. For example, the runout correction angle calculation unit 108 cuts the DC component added as detection noise in the angle runout signal, performs integration processing, and outputs an angle signal indicating the angle of the camera 101. For example, an HPF (high-pass filter) is used to cut the DC component. Then, the angle signal is sent to the sensitivity adjusting unit 109.

敏感度調整部109には、ズームおよびフォーカス位置検出部107からズームレンズおよびフォーカスレンズの位置を示すズーム位置およびフォーカス位置が送られる。敏感度調整部109は、ズーム位置およびフォーカス位置に基づいて焦点距離および撮影倍率を求める。そして、敏感度調整部109は焦点距離および撮影倍率に応じて角度信号を増幅して振れ補正目標値とする。敏感度調整部109は振れ補正目標値を振れ補正量として駆動制御部113に送る。 The zoom and focus position detection unit 107 sends a zoom position and a focus position indicating the positions of the zoom lens and the focus lens to the sensitivity adjustment unit 109. The sensitivity adjustment unit 109 obtains the focal length and the shooting magnification based on the zoom position and the focus position. Then, the sensitivity adjusting unit 109 amplifies the angle signal according to the focal length and the photographing magnification to set the shake correction target value. The sensitivity adjustment unit 109 sends a runout correction target value as a runout correction amount to the drive control unit 113.

なお、フォーカスレンズおよびズームレンズの位置の変化によって補正レンズ114の振れ補正ストロークに対するカメラ像面における振れ補正敏感度が変化するので、ここでは、ズーム位置およびフォーカス位置に基づいて振れ補正目標値を求める。 Since the sensitivity of the camera image plane to the shake correction stroke of the correction lens 114 changes depending on the position of the focus lens and the zoom lens, the shake correction target value is obtained here based on the zoom position and the focus position. ..

前述の補正レンズ114は、撮影の結果得られた画像における、追尾対象の被写体(追尾対象被写体)をシフト移動させるために用いられる。駆動制御部113は、後述するように、補正レンズ114を駆動制御して被写体の追尾を行う。さらに、駆動制御部113は補正レンズ114を光軸と異なる方向(例えば、交差する方向)に駆動して像ぶれを補正する(光学防振)。 The correction lens 114 described above is used to shift the subject to be tracked (the subject to be tracked) in the image obtained as a result of shooting. As will be described later, the drive control unit 113 drives and controls the correction lens 114 to track the subject. Further, the drive control unit 113 drives the correction lens 114 in a direction different from the optical axis (for example, a direction in which it intersects) to correct image blur (optical vibration isolation).

図2に示す例では、補正レンズ114を用いて光学防振を行うようにしたが、像ぶれ補正手法として、撮像素子106を光軸に直交する面内で移動させて像ぶれ補正を行う手法を用いるようにしてもよい。さらには、撮像素子106の出力である撮影フレーム毎に画像の切り出し位置を変更して、振れの影響を軽減する電子防振を用いるようにしてもよい。そして、上述の複数の像ブレ補正手法を組み合わせて用いるようにしてもよい。 In the example shown in FIG. 2, optical vibration isolation is performed using the correction lens 114, but as an image blur correction method, a method of moving the image sensor 106 in a plane orthogonal to the optical axis to perform image blur correction. May be used. Further, the cutout position of the image may be changed for each photographing frame which is the output of the image sensor 106, and electronic vibration isolation which reduces the influence of the shake may be used. Then, the above-mentioned plurality of image blur correction methods may be used in combination.

被写体追跡部110は、撮像素子106の出力である撮影画像を受けて、撮影画像において被写体領域の位置を抽出する。本実施形態では、被写体領域の重心位置が被写体の位置として用いられる。さらに、被写体追跡部110は被写体らしさを示す信頼度(尤度)を求めて、重心位置および尤度を追尾量算出部111に送る。追尾量算出部111は被写体領域の重心位置に基づいて、補正レンズ114によって被写体を追尾するために用いる制御量である追尾補正量を算出する。また、追尾量算出部111は尤度に基づいて追尾補正量を変更する。 The subject tracking unit 110 receives the captured image output from the image sensor 106 and extracts the position of the subject region in the captured image. In the present embodiment, the position of the center of gravity of the subject area is used as the position of the subject. Further, the subject tracking unit 110 obtains the reliability (likelihood) indicating the subject-likeness, and sends the position of the center of gravity and the likelihood to the tracking amount calculation unit 111. The tracking amount calculation unit 111 calculates the tracking correction amount, which is the control amount used for tracking the subject by the correction lens 114, based on the position of the center of gravity of the subject area. Further, the tracking amount calculation unit 111 changes the tracking correction amount based on the likelihood.

加算器112は、敏感度調整部109の出力である振れ補正量と追尾量算出部111の出力である追尾補正量とを加算して、加算結果を駆動制御部113に送る。駆動制御部113は、加算器112の出力である加算結果に基づいて、補正レンズ114の駆動量を求めて、当該駆動量に基づいて補正レンズ114を駆動し、被写体の追尾および像ぶれ補正を行う。 The adder 112 adds the runout correction amount output from the sensitivity adjustment unit 109 and the tracking correction amount output from the tracking amount calculation unit 111, and sends the addition result to the drive control unit 113. The drive control unit 113 obtains the drive amount of the correction lens 114 based on the addition result which is the output of the adder 112, drives the correction lens 114 based on the drive amount, and performs tracking of the subject and correction of image blur. Do.

図3は、図2に示すカメラで検出された被写体の追尾を説明するための図である。そして、図3(A)は被写体の追尾開始前の撮影画像を示す図であり、図3(B)は被写体の追尾開始後の撮影画像を示す図である。 FIG. 3 is a diagram for explaining tracking of a subject detected by the camera shown in FIG. FIG. 3A is a diagram showing a captured image before the start of tracking of the subject, and FIG. 3B is a diagram showing a captured image after the start of tracking of the subject.

図3(A)に示す撮影画像301aにおいて、被写体302aは、画像中心304から離れた位置に存在する。ここでは、被写体302aの重心位置(被写体重心位置)が参照番号303aで示されている。CPU105は、追尾(追尾制御ともいう)によって被写体重心位置303aを画像中心304に徐々に近づけて、最終的に画像中心304と被写体重心位置303aとをほぼ一致させる。これによって、図3(B)に示すように、追尾が成功した被写体302aの被写体重心位置303aは画像中心304と一致する。 In the captured image 301a shown in FIG. 3A, the subject 302a exists at a position away from the image center 304. Here, the position of the center of gravity of the subject 302a (the position of the center of gravity of the subject) is indicated by reference numeral 303a. The CPU 105 gradually brings the subject center of gravity position 303a closer to the image center 304 by tracking (also referred to as tracking control), and finally makes the image center 304 and the subject center of gravity position 303a substantially coincide with each other. As a result, as shown in FIG. 3B, the subject center of gravity position 303a of the subject 302a that has been successfully tracked coincides with the image center 304.

ここで、被写体追跡部110における被写体追跡手法について説明する。図示の例では、被写体追跡の際には、目的とする被写体を示す部分画像をテンプレートとして、当該テンプレートをシフトさせつつ撮影画像と照合して、相違度が低い領域を推定する手法(テンプレートマッチング)が用いられる。また、目的とする被写体について時間方向のスケール変換に対応するため、被写体の特徴色を抽出して、撮影画像の特徴色の分布状況に基づいて被写体領域を推定する手法も用いられる。そして、推定された被写体領域に基づいてテンプレートを更新する。 Here, the subject tracking method in the subject tracking unit 110 will be described. In the illustrated example, when tracking a subject, a method of estimating a region with a low degree of difference by collating with a captured image while shifting the template using a partial image showing the target subject as a template (template matching). Is used. Further, in order to correspond to the scale conversion in the time direction for the target subject, a method of extracting the characteristic color of the subject and estimating the subject area based on the distribution state of the characteristic color of the captured image is also used. Then, the template is updated based on the estimated subject area.

図4は、図2に示す被写体追跡部110で行われる被写体追跡処理の一例を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining an example of the subject tracking process performed by the subject tracking unit 110 shown in FIG.

被写体追跡処理を開始すると、被写体追跡部110は撮像素子106から撮影画像を読み込む(ステップS401)。そして、被写体追跡部110は、撮影画像に予め指定された追跡対象である被写体が存在するか否かを判定する(ステップS402)。追跡対象の被写体が存在しないと(ステップS402において、NO)、被写体追跡部110は追跡対象の被写体を決定するため、撮影画像において被写体を検出する(ステップS403)。 When the subject tracking process is started, the subject tracking unit 110 reads the captured image from the image sensor 106 (step S401). Then, the subject tracking unit 110 determines whether or not a subject that is a tracking target designated in advance exists in the captured image (step S402). If the subject to be tracked does not exist (NO in step S402), the subject tracking unit 110 detects the subject in the captured image in order to determine the subject to be tracked (step S403).

ステップS403の処理においては、被写体追跡部110はユーザの指示に基づいて被写体を検出するか又は自動で被写体を検出する。ユーザの指示に基づいて被写体を検出する際には、タッチパネルおよびボタンなどを有する入力インターフェイスによって、ユーザが撮影画像において被写体の位置を指示する。そして、被写体追跡部110はユーザが指示した位置に基づいて被写体を検出して当該被写体領域を抽出する。 In the process of step S403, the subject tracking unit 110 detects the subject based on the user's instruction or automatically detects the subject. When detecting a subject based on a user's instruction, the user instructs the position of the subject in a captured image by an input interface having a touch panel, buttons, and the like. Then, the subject tracking unit 110 detects the subject based on the position instructed by the user and extracts the subject area.

一方、自動で被写体を検出する際には、被写体追跡部110は顔検出を用いる。顔検出の際には、例えば、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を用いる手法とニューラルネットに代表される学習アルゴリズムによって顔検出のための識別器を構成する手法などがある。また、顔検出においては、検出率向上のため、一般に、上記の手法を組み合わせて顔検出が行われる。顔検出については、例えば、特開2002−251380号公報に記載のウェーブレット変換と画像特徴量とを用いて顔検出を行う手法が知られている。 On the other hand, when automatically detecting a subject, the subject tracking unit 110 uses face detection. In face detection, for example, a method that uses knowledge about the face (skin color information, parts such as eyes, nose, and mouth) and a method that constructs a classifier for face detection by a learning algorithm represented by a neural net, etc. There is. Further, in face detection, in order to improve the detection rate, face detection is generally performed by combining the above methods. As for face detection, for example, a method of performing face detection using the wavelet transform and the image feature amount described in JP-A-2002-251380 is known.

続いて、被写体追跡部110は被写体領域から追跡対象である被写体の特徴量を抽出する(ステップS404)。ここでは、テンプレートマッチングを用いて追跡処理を行うので、被写体領域の画像パターンが特徴量として抽出される。さらに、特徴色の分布に基づいて被写体領域の推定を行うため、被写体領域の色ヒストグラムHinが保持される。その後、被写体追跡部110は被写体追跡処理を終了して、次の撮影のサンプリング周期まで待ち状態となる。 Subsequently, the subject tracking unit 110 extracts the feature amount of the subject to be tracked from the subject area (step S404). Here, since the tracking process is performed using template matching, the image pattern of the subject area is extracted as a feature amount. Further, since the subject area is estimated based on the distribution of the feature colors, the color histogram Hin of the subject area is maintained. After that, the subject tracking unit 110 ends the subject tracking process and waits until the sampling cycle of the next shooting.

一方、追跡対象の被写体が存在すると(ステップS402において、YES)、被写体追跡部110は、テンプレートを用いてテンプレートマッチング処理を行う(ステップS405)。 On the other hand, when the subject to be tracked exists (YES in step S402), the subject tracking unit 110 performs the template matching process using the template (step S405).

図5は、図2に示す被写体追跡部110で行われるテンプレートマッチング処理を説明するための図である。そして、図5(A)はテンプレートマッチング処理における被写体モデル(テンプレート)の一例を示す図であり、図5(B)は追跡対象の被写体を探索する画像の一例を示す図である。 FIG. 5 is a diagram for explaining the template matching process performed by the subject tracking unit 110 shown in FIG. FIG. 5A is a diagram showing an example of a subject model (template) in the template matching process, and FIG. 5B is a diagram showing an example of an image for searching a subject to be tracked.

ここでは、追跡対象の被写体を示す部分画像(テンプレート)501の画素パターンが特徴量として用いられる。そして、テンプレート501の特徴量502として画素データの輝度が用いられる。特徴量T(i,j)は、テンプレート内の座標を(i,j)、水平画素数をW、および垂直画素数をHとすると、次の式(1)で表される。 Here, the pixel pattern of the partial image (template) 501 showing the subject to be tracked is used as the feature amount. Then, the brightness of the pixel data is used as the feature amount 502 of the template 501. The feature amount T (i, j) is expressed by the following equation (1), where the coordinates in the template are (i, j), the number of horizontal pixels is W, and the number of vertical pixels is H.

Figure 0006833483
Figure 0006833483

図5(B)において、マッチング処理を行う範囲である探索画像503における座標を(x,y)とする。探索画像503においてテンプレートマッチングの評価値を得るための部分領域504を設定する。そして、部分領域504の特徴量505にはテンプレート501と同様に撮影画像の輝度が用いられる。特徴量S(i,j)は、部分領域504内の座標を(i,j)、水平画素数をW、および垂直画素数をHとすると、次の式(2)で表される。 In FIG. 5B, the coordinates in the search image 503, which is the range in which the matching process is performed, are defined as (x, y). In the search image 503, a partial area 504 for obtaining an evaluation value of template matching is set. Then, the brightness of the captured image is used for the feature amount 505 of the partial region 504 as in the template 501. The feature amount S (i, j) is expressed by the following equation (2), where the coordinates in the partial region 504 are (i, j), the number of horizontal pixels is W, and the number of vertical pixels is H.

Figure 0006833483
Figure 0006833483

テンプレート501と部分領域504との類似性を評価する際には、差分絶対和、所謂SAD(Sum of Absolute Difference)値が用いられる。そして、SAD値は、次の式(3)によって求められる。 When evaluating the similarity between the template 501 and the partial region 504, the absolute difference difference, the so-called SAD (Sum of Absolute Evaluation) value, is used. Then, the SAD value is obtained by the following equation (3).

Figure 0006833483
Figure 0006833483

部分領域504を探索画像503の左上から順に1画素ずつずらしながら、SAD値V(x,y)を求める。SAD値V(x,y)が最小値を示す座標(x,y)がテンプレート501と最も類似した位置を示す。つまり、最小値を示す位置が探索画像503において目的とする追跡対象の被写体が存在する可能性の高い位置となる。 The SAD value V (x, y) is obtained while shifting the partial region 504 by one pixel in order from the upper left of the search image 503. The coordinates (x, y) where the SAD value V (x, y) indicates the minimum value indicates the position most similar to the template 501. That is, the position showing the minimum value is the position in the search image 503 where there is a high possibility that the target subject to be tracked exists.

ここでは、特徴量として輝度(輝度信号)などの1次元情報を用いる例について説明したが、明度、色相、および彩度などの3次元情報を特徴量として用いてもよい。また、テンプレートマッチングの評価値を求める際にはSAD値を用いたが、正規化相互相関、所謂NCC(Normalized Correlation Coeffiecient)などの手法を用いてもよい。 Here, an example in which one-dimensional information such as luminance (luminance signal) is used as the feature amount has been described, but three-dimensional information such as brightness, hue, and saturation may be used as the feature amount. In addition, although the SAD value is used when obtaining the evaluation value of template matching, a method such as normalized cross-correlation, so-called NCC (Normalized Correlation Coaffiency) may be used.

再び図4を参照して、被写体追跡部110は、テンプレートマッチング処理によって推定した位置に基づいて被写体領域の推定を行う(ステップS406)。ここでは、被写体追跡部110は、ステップS404で得られた被写体領域の色ヒストグラムHinと現在時刻の撮影画像の全体又は一部の色ヒストグラムHoutとに基づいて、次の式(4)で示す情報量I(a)を求める。 With reference to FIG. 4 again, the subject tracking unit 110 estimates the subject area based on the position estimated by the template matching process (step S406). Here, the subject tracking unit 110 uses the information represented by the following equation (4) based on the color histogram Hin of the subject region obtained in step S404 and the color histogram Hout of all or part of the captured image at the current time. Obtain the quantity I (a).

Figure 0006833483
Figure 0006833483

情報量I(a)は、色ヒストグラムの各ビンにおいて、撮影画像全体又は一部に対する被写体領域の生起確率を示す。被写体追跡部110は情報量I(a)を現在時刻の撮影画像の各画素に適応して探索画像503に被写体が存在する可能性を示すマップを生成する。そして、被写体追跡部110は当該マップに基づいて被写体領域を推定し、推定した被写体領域の重心位置を出力する。 The amount of information I (a) indicates the probability of occurrence of the subject region with respect to the entire or part of the captured image in each bin of the color histogram. The subject tracking unit 110 adapts the amount of information I (a) to each pixel of the captured image at the current time to generate a map showing the possibility that the subject exists in the search image 503. Then, the subject tracking unit 110 estimates the subject area based on the map and outputs the position of the center of gravity of the estimated subject area.

続いて、被写体追跡部110は被写体追跡の尤度を算出する(ステップS407)。被写体追跡の確からしさを妨げる要因として、例えば、被写体の変化、類似被写体の存在、追跡誤差の蓄積が挙げられる。被写体追跡部110はこれら要因をテンプレートマッチング処理および被写体領域の推定から得られた評価値に乗算して尤度を算出する。 Subsequently, the subject tracking unit 110 calculates the likelihood of subject tracking (step S407). Factors that hinder the certainty of subject tracking include, for example, changes in the subject, existence of similar subjects, and accumulation of tracking errors. The subject tracking unit 110 calculates the likelihood by multiplying these factors by the evaluation values obtained from the template matching process and the estimation of the subject area.

上述の式(3)で求めたSAD値V(x,y)の最小値が大きい程、被写体の変化が大きい。よって、被写体追跡部110は当該最小値が大きい程尤度を小さくする。式(3)で得られたSAD値V(x,y)の最小値と類似するSAD値が、被写体の推定位置と所定の閾値以上離れた位置に存在する場合には、類似被写体が存在する可能性が高い。このため、被写体追跡部110は、被写体の推定位置から所定の閾値以上離れた位置に存在するSAD値と式(3)で得られたSAD値V(x,y)の最小値との類似度が高い程尤度を低くする。 The larger the minimum value of the SAD value V (x, y) obtained by the above equation (3), the larger the change in the subject. Therefore, the subject tracking unit 110 reduces the likelihood as the minimum value increases. When the SAD value similar to the minimum value of the SAD value V (x, y) obtained by the formula (3) exists at a position separated from the estimated position of the subject by a predetermined threshold value or more, a similar subject exists. Probability is high. Therefore, the subject tracking unit 110 has a degree of similarity between the SAD value existing at a position separated by a predetermined threshold value or more from the estimated position of the subject and the minimum value of the SAD value V (x, y) obtained by the equation (3). The higher the value, the lower the likelihood.

なお、式(4)で得られた被写体の色特徴色を示す情報量I(a)について、被写体領域内の平均値(期待値)であるエントロピーEinが小さい程、被写体の変化が大きい。エントロピーEinは次の式(5)で表される。 Regarding the amount of information I (a) indicating the color feature color of the subject obtained by the equation (4), the smaller the entropy Ein, which is the average value (expected value) in the subject area, the larger the change in the subject. The entropy Ein is expressed by the following equation (5).

Figure 0006833483
Figure 0006833483

被写体追跡部110は、エントロピーEinが小さい程尤度を小さくする。さらに、式(4)で示す被写体の特徴色である情報量I(a)について、被写体領域外の平均値(期待値)であるエントロピーEoutが大きい程類似対象が存在する可能性が高い。エントロピーEoutは次の式(6)で表される。 The subject tracking unit 110 reduces the likelihood as the entropy Ein becomes smaller. Further, with respect to the amount of information I (a), which is the characteristic color of the subject represented by the equation (4), the larger the entropy Eout, which is the average value (expected value) outside the subject area, the higher the possibility that a similar object exists. The entropy Eout is expressed by the following equation (6).

Figure 0006833483
Figure 0006833483

被写体追跡部110は、エントロピーEoutが大きい程尤度を小さくする。さらに、被写体追跡の確からしさが一度低くなると、その後の追跡の信頼性も低くなる。このため、被写体追跡部110は尤度算出の際に履歴の尤度を加味する。例えば、所定の期間の尤度の平均値を現在フレームの尤度として用いる。このようにして、被写体追跡部110は被写体追跡の尤度を算出する。 The subject tracking unit 110 reduces the likelihood as the entropy Eout increases. Furthermore, once the certainty of subject tracking is low, the reliability of subsequent tracking is also low. Therefore, the subject tracking unit 110 adds the likelihood of the history when calculating the likelihood. For example, the average value of the likelihoods of a predetermined period is used as the likelihood of the current frame. In this way, the subject tracking unit 110 calculates the likelihood of subject tracking.

続いて、被写体追跡部110は被写体特徴量を更新する(ステップS408)。ここでは、被写体追跡部110はステップS406の処理で推定した被写体領域に基づいてテンプレートを更新して、被写体のスケール変化に対応する。その後、被写体追跡部110は被写体追跡処理を終了して、次の撮影のサンプリング周期まで待ち状態となる。 Subsequently, the subject tracking unit 110 updates the subject feature amount (step S408). Here, the subject tracking unit 110 updates the template based on the subject area estimated in the process of step S406 to correspond to the scale change of the subject. After that, the subject tracking unit 110 ends the subject tracking process and waits until the sampling cycle of the next shooting.

図6は、図2に示す追尾量算出部111の一例を説明するためのブロック図である。 FIG. 6 is a block diagram for explaining an example of the tracking amount calculation unit 111 shown in FIG.

追尾量算出部111は、画像の縦方向および横方向の各々において追尾補正量を求めるが、ここでは、一方の方向の追尾補正量の算出について説明する。追尾量算出部111は、被写体の位置(つまり、重心位置)と画像中心位置(被写体の目標位置)との差分に基づいて、被写体を追尾するためのカウント値を算出する。追尾量算出部111は、カウント値をサンプリング時間毎に加算して、被写体の位置が目標位置に移動するように制御する。そして、追尾量算出部111は、被写体追跡部110の出力である尤度(被写体尤度)に基づいて、カウント値の大きさを変更して追尾の度合いを変更する。 The tracking amount calculation unit 111 obtains the tracking correction amount in each of the vertical direction and the horizontal direction of the image, and here, the calculation of the tracking correction amount in one direction will be described. The tracking amount calculation unit 111 calculates a count value for tracking the subject based on the difference between the position of the subject (that is, the position of the center of gravity) and the position of the center of the image (the target position of the subject). The tracking amount calculation unit 111 adds the count value for each sampling time and controls the position of the subject to move to the target position. Then, the tracking amount calculation unit 111 changes the magnitude of the count value to change the degree of tracking based on the likelihood (subject likelihood) that is the output of the subject tracking unit 110.

減算器604は、被写体位置取得部601が取得した被写体位置の座標から画像中心位置取得部602が取得した画像中心位置の座標を減算する。これによって、画像中心位置と被写体の重心位置との画像上における距離(中心ずれ量)が算出される。この中心ずれ量は、画像中心をゼロとした際の符号付きのデータになる。減算器604の出力は、カウント値テーブル605に入力され、カウント値テーブル605から被写体重心位置と画像中心との差分の距離の大きさに応じたカウント値が出力される。なお、被写体位置取得部601が、画像中心位置を中心(x座標、y座標共にゼロ)とする座標上における被写体位置を取得してもよい。 The subtractor 604 subtracts the coordinates of the image center position acquired by the image center position acquisition unit 602 from the coordinates of the subject position acquired by the subject position acquisition unit 601. As a result, the distance (center deviation amount) between the image center position and the center of gravity position of the subject on the image is calculated. This amount of center deviation is signed data when the center of the image is set to zero. The output of the subtractor 604 is input to the count value table 605, and the count value corresponding to the magnitude of the difference distance between the position of the center of gravity of the subject and the center of the image is output from the count value table 605. The subject position acquisition unit 601 may acquire the subject position on the coordinates centered on the image center position (both x-coordinate and y-coordinate are zero).

なお、追尾量算出部111では、中心ずれ量が、閾値Z以下の場合又は閾値−Z以上の場合に、カウント値をゼロに設定する。これによって、画像中心から±Zの範囲内において追尾を行わない不感帯領域が設定される。なお、カウント値テーブル605は、中心ずれ量が大きくなるにつれてカウント値が大きくなるテーブルであり、カウント値の符号は中心ずれ量の符号に合わせられる。 The tracking amount calculation unit 111 sets the count value to zero when the center deviation amount is equal to or less than the threshold value Z or greater than or equal to the threshold value −Z. As a result, a dead zone region in which tracking is not performed is set within a range of ± Z from the center of the image. The count value table 605 is a table in which the count value increases as the center shift amount increases, and the sign of the count value is matched with the sign of the center shift amount.

カウント値テーブル605の出力は、可変ゲイン器606に入力される。ゲイン量算出部607は、被写体尤度取得部603が取得した被写体尤度に基づいてカウント値に係るゲイン(制御ゲイン)を算出する。ここでは、ゲイン量算出部607は被写体尤度が高い場合には、正しい被写体を追跡できている可能性が高いとして追尾の応答性を高めるためゲインを大きくする。一方で、被写体尤度が低い場合には、誤った被写体を追跡してしまっている可能性がある。そして、誤った追跡対象である被写体について追尾を行うとユーザの撮影を大きく妨げることとなる。このため、ゲイン量算出部607は、被写体尤度が低い場合には、ゲインを小さくする。このとき、被写体尤度が閾値以下の場合は、ゲインを0として追尾制御を停止してもよい。また、ゲインをゼロとする代わりに追尾スイッチ608をオフにすることで追尾制御を停止してもよい。そして、ゲイン量算出部607は算出したゲイン(ゲイン量)を可変ゲインCgとして可変ゲイン器606に設定する。 The output of the count value table 605 is input to the variable gain device 606. The gain amount calculation unit 607 calculates the gain (control gain) related to the count value based on the subject likelihood acquired by the subject likelihood acquisition unit 603. Here, when the subject likelihood is high, the gain amount calculation unit 607 considers that there is a high possibility that the correct subject can be tracked, and increases the gain in order to improve the tracking responsiveness. On the other hand, if the subject likelihood is low, there is a possibility that the wrong subject has been tracked. Then, tracking a subject that is an erroneous tracking target greatly hinders the user's shooting. Therefore, the gain amount calculation unit 607 reduces the gain when the subject likelihood is low. At this time, if the subject likelihood is equal to or less than the threshold value, the gain may be set to 0 and the tracking control may be stopped. Further, the tracking control may be stopped by turning off the tracking switch 608 instead of setting the gain to zero. Then, the gain amount calculation unit 607 sets the calculated gain (gain amount) as the variable gain Cg in the variable gain device 606.

可変ゲイン器606の出力は信号選択部609に入力される。信号選択部609にはダウンカウント値設定部611のダウンカウント値および追尾スイッチ608の設定が入力される。信号選択部609は、追尾スイッチ608がオンであると、可変ゲイン器606の出力を選択する。一方、追尾スイッチ608がオフであると、信号選択部609はダウンカウント値設定部611の出力を選択する。そして、信号選択部609の出力は加算器610に入力される。 The output of the variable gain device 606 is input to the signal selection unit 609. The down count value of the down count value setting unit 611 and the setting of the tracking switch 608 are input to the signal selection unit 609. The signal selection unit 609 selects the output of the variable gain device 606 when the tracking switch 608 is on. On the other hand, when the tracking switch 608 is off, the signal selection unit 609 selects the output of the down count value setting unit 611. Then, the output of the signal selection unit 609 is input to the adder 610.

ダウンカウント値設定部611はダウンカウント値を設定する。ダウンカウント値設定部611には、サンプリング部613から追尾量前回サンプリング値が入力される。ダウンカウント値設定部611は、追尾量前回サンプリング値がプラスの符号である場合は、ダウンカウント値をマイナスに設定する。一方、追尾量前回サンプリング値がマイナスの符号である場合は、ダウンカウント値設定部611はダウンカウント値をプラスに設定する。これによって、ダウンカウント値設定部611は、追尾補正量の絶対値を小さくする。なお、ダウンカウント値設定部611は、追尾量前回サンプリング値が0±所定範囲以内である場合には、ダウンカウント値をゼロに設定する。また、追尾量前回サンプリング値は、前回サンプリングまでの追尾補正量を示す。 The down count value setting unit 611 sets the down count value. The tracking amount previous sampling value is input from the sampling unit 613 to the down count value setting unit 611. When the tracking amount previous sampling value has a positive sign, the down count value setting unit 611 sets the down count value to a negative value. On the other hand, when the tracking amount previous sampling value has a negative sign, the down count value setting unit 611 sets the down count value to positive. As a result, the down count value setting unit 611 reduces the absolute value of the tracking correction amount. The down count value setting unit 611 sets the down count value to zero when the tracking amount previous sampling value is within 0 ± predetermined range. Further, the tracking amount previous sampling value indicates the tracking correction amount up to the previous sampling.

加算器610は、信号選択部609の出力と追尾量前回サンプリング値とを加算する。マイナスのダウンカウント値が追尾量前回サンプリング値に加算されると、追尾補正量の絶対値が小さくなる。加算器610の出力は上下限値設定部612に入力される。上下限値設定部612は追尾補正量を所定の上限値未満でかつ所定の下限値を超える量に設定する。上下限値設定部612の出力はサンプリング部613およびLPF614に入力される。LPF614は高周波ノイズをカットした追尾補正量を補正レンズ量変換部615に送る。補正レンズ量変換部615は追尾補正量を補正レンズ114で追尾するための信号形態に変換して最終的な追尾補正量を出力する。 The adder 610 adds the output of the signal selection unit 609 and the tracking amount previous sampling value. When a negative down count value is added to the tracking amount previous sampling value, the absolute value of the tracking correction amount becomes small. The output of the adder 610 is input to the upper / lower limit value setting unit 612. The upper / lower limit value setting unit 612 sets the tracking correction amount to an amount that is less than a predetermined upper limit value and exceeds a predetermined lower limit value. The output of the upper / lower limit value setting unit 612 is input to the sampling unit 613 and the LPF 614. The LPF614 sends a tracking correction amount that cuts high frequency noise to the correction lens amount conversion unit 615. The correction lens amount conversion unit 615 converts the tracking correction amount into a signal form for tracking by the correction lens 114, and outputs the final tracking correction amount.

このようにして、追尾量算出部111は、画像中心位置と被写体位置との差分に応じて、サンプリング毎にカウント値を求めて追尾補正量に加算し、徐々に被写体位置を画像中心付近に近づける追尾を行う。 In this way, the tracking amount calculation unit 111 obtains a count value for each sampling according to the difference between the image center position and the subject position, adds it to the tracking correction amount, and gradually brings the subject position closer to the image center. Perform tracking.

なお、上述の説明では、被写体尤度に基づいて、ゲイン量算出部607がゲインを設定するようにしたが、被写体尤度に加えて撮影画像の重心位置に基づいて、ゲイン量算出部607はゲインを設定するようにしてもよい。 In the above description, the gain amount calculation unit 607 sets the gain based on the subject likelihood, but the gain amount calculation unit 607 sets the gain based on the position of the center of gravity of the captured image in addition to the subject likelihood. The gain may be set.

前述のように、被写体追跡部110においては、撮影画像から目的とする被写体領域を推定する。このため、撮影画像に目的とする被写体が収まるように追尾が行われる必要がある。目的とする被写体が撮影画像の端に存在する場合には、次のフレーム以降において被写体が撮影画像から外れる可能性が高い。よって、追尾によって被写体を画像中心(目標位置)に移動させることが重要となる。 As described above, the subject tracking unit 110 estimates the target subject area from the captured image. Therefore, it is necessary to perform tracking so that the target subject fits in the captured image. When the target subject exists at the edge of the captured image, there is a high possibility that the subject will deviate from the captured image after the next frame. Therefore, it is important to move the subject to the center of the image (target position) by tracking.

一方、目的とする被写体が画像中心(目標位置)付近に存在する場合には、次のフレーム以降において、被写体が撮影画像から外れる可能性は低い。よって、追尾の重要度は低下する。従って、被写体尤度が低い程、追尾度合い(つまり、追尾状態)が小さくなるように制御するとともに、被写体重心位置が画像中心(目標位置)に近い程追尾度合いが小さくなるように制御する。 On the other hand, when the target subject exists near the center of the image (target position), it is unlikely that the subject will deviate from the captured image after the next frame. Therefore, the importance of tracking decreases. Therefore, the lower the subject likelihood, the smaller the tracking degree (that is, the tracking state), and the closer the subject center of gravity position is to the image center (target position), the smaller the tracking degree is controlled.

図7は、図2に示すカメラで行われる被写体追尾の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、カメラ101の主電源がオンされると開始し、所定のサンプリング周期で行われる。 FIG. 7 is a flowchart for explaining an example of subject tracking performed by the camera shown in FIG. The process according to the illustrated flowchart starts when the main power supply of the camera 101 is turned on, and is performed at a predetermined sampling cycle.

まず、CPU105は、防振SW(図示せず)がONであるか否かを判定する(ステップS701)。防振SWがONであると(ステップS701において、YES)、CPU105は角速度計103の出力を取り込む(ステップS702)。そして、CPU105はカメラ101が振れ補正が可能な状態であるか否かを判定する(ステップS703)。ここでは、CPU105はカメラ101が電源を供給されて角速度計103の出力が安定するまでの状態である場合に振れ補正が可能な状態でないと判定する。一方、カメラ101が角速度計103の出力が安定した後の状態である場合には、CPU105は振れ補正が可能な状態であると判定する。これによって、電源の供給直後における角速度計103の出力が不安定な状態においては振れ補正が行われない。 First, the CPU 105 determines whether or not the anti-vibration SW (not shown) is ON (step S701). When the anti-vibration SW is ON (YES in step S701), the CPU 105 captures the output of the angular velocity meter 103 (step S702). Then, the CPU 105 determines whether or not the camera 101 is in a state where the shake correction is possible (step S703). Here, the CPU 105 determines that the shake correction is not possible when the camera 101 is supplied with power and the output of the angular velocity meter 103 is stable. On the other hand, when the camera 101 is in a state after the output of the angular velocity meter 103 is stable, the CPU 105 determines that the shake correction is possible. As a result, runout correction is not performed when the output of the angular velocity meter 103 is unstable immediately after the power is supplied.

カメラ101が振れ補正が可能な状態である場合には(ステップS703において、YES)、CPU105は、前述のようにして、振れ補正角度算出部108および敏感度調整部109によって、角速度計103の出力に基づいて振れ補正量を求める(ステップS704)。一方、カメラ101が振れ補正が可能な状態でない場合には(ステップS703において、NO)、CPU105は振れ補正量をゼロとする(ステップS705)。なお、防振SWがOFFであると(ステップS701において、NO)、CPU105はステップS705の処理に進む。 When the camera 101 is in a state where the shake correction is possible (YES in step S703), the CPU 105 outputs the angular velocity meter 103 by the shake correction angle calculation unit 108 and the sensitivity adjustment unit 109 as described above. The amount of runout correction is obtained based on (step S704). On the other hand, when the camera 101 is not in a state where the shake correction is possible (NO in step S703), the CPU 105 sets the shake correction amount to zero (step S705). If the anti-vibration SW is OFF (NO in step S701), the CPU 105 proceeds to the process of step S705.

ステップS704又はS705の処理の後、CPU105は追尾SW(図示せず)がONであるか否かを判定する(ステップS706)。追尾SWがONであると(ステップS706において、YES)、CPU105は撮像素子106から連続的に得た撮影画像において追尾対象である被写体が存在するか否かを判定する(ステップS707)。追尾対象である被写体が存在すると(ステップS707において、YES)、CPU105は撮影画像において被写体領域の重心位置を推定する(ステップS708)。 After the process of step S704 or S705, the CPU 105 determines whether or not the tracking SW (not shown) is ON (step S706). When the tracking SW is ON (YES in step S706), the CPU 105 determines whether or not there is a subject to be tracked in the captured images continuously obtained from the image sensor 106 (step S707). When the subject to be tracked exists (YES in step S707), the CPU 105 estimates the position of the center of gravity of the subject region in the captured image (step S708).

続いて、CPU105は、前述のようにして当該重心位置に係る被写体尤度を求める(ステップS709)。なお、前述のように、ステップS708およびS709の処理は被写体追跡部110で行われる。そして、CPU105は、追尾量算出部111によって被写体重心位置および被写体尤度に基づいて追尾補正量を求める(ステップS710)。 Subsequently, the CPU 105 obtains the subject likelihood related to the position of the center of gravity as described above (step S709). As described above, the processing of steps S708 and S709 is performed by the subject tracking unit 110. Then, the CPU 105 obtains the tracking correction amount based on the position of the center of gravity of the subject and the likelihood of the subject by the tracking amount calculation unit 111 (step S710).

追尾対象である被写体が存在しないと(ステップS707において、NO)、CPU105は追尾補正量をゼロに設定する(ステップS711)。なお、追尾SWがOFFであると(ステップS706において、NO)、CPU105はステップS711の処理に進む。 If there is no subject to be tracked (NO in step S707), the CPU 105 sets the tracking correction amount to zero (step S711). If the tracking SW is OFF (NO in step S706), the CPU 105 proceeds to the process of step S711.

ステップS710又はS711の処理の後、CPU105は振れ補正量と追尾補正量とを加算してレンズ駆動量を算出する(ステップS712)。そして、CPU105は駆動制御部113によって、レンズ駆動量に基づいて補正レンズ114を駆動制御する(ステップsS713)。その後、CPU105は被写体追尾処理を終了して次のサンプリング周期まで待ち状態となる。 After the process of step S710 or S711, the CPU 105 adds the runout correction amount and the tracking correction amount to calculate the lens drive amount (step S712). Then, the CPU 105 drives and controls the correction lens 114 based on the lens drive amount by the drive control unit 113 (step sS713). After that, the CPU 105 finishes the subject tracking process and waits until the next sampling cycle.

このようにして、第1の実施形態では、被写体の追跡によって得られた被写体の重心位置とその尤度に基づいて、補正レンズ114を駆動制御する。これによって、追尾の誤動作を防止して、しかも応答性の高い追尾を行うことができる。 In this way, in the first embodiment, the correction lens 114 is driven and controlled based on the position of the center of gravity of the subject obtained by tracking the subject and its likelihood. As a result, it is possible to prevent a malfunction of tracking and perform highly responsive tracking.

[第2の実施形態]
前述の第1の実施形態では、被写体尤度に基づいて追尾度合いを変更する被写体追尾装置を備える撮像装置について説明をした。これに対して、第2の実施形態では、被写体尤度に基づいて追尾度合いを変更するとともに、追尾制御が難しい状態にある場合は、追尾制御が難しいことを撮影者に通知(警告)するように指示する被写体追尾装置を備える撮像装置について説明をする。追尾制御が難しい状態にあるか否かは、被写体尤度に基づいて判断をする。なお、被写体尤度に基づいて追尾度合いを変える点については、第1の実施形態と同様のため、説明は省略する。また、第1の実施形態と同様に、カメラに被写体追尾装置を適用した形態について説明をする。
[Second Embodiment]
In the above-described first embodiment, an imaging device including a subject tracking device that changes the tracking degree based on the subject likelihood has been described. On the other hand, in the second embodiment, the tracking degree is changed based on the subject likelihood, and when the tracking control is difficult, the photographer is notified (warning) that the tracking control is difficult. An imaging device including a subject tracking device instructed in the above will be described. Whether or not tracking control is difficult is determined based on the subject likelihood. Since the point of changing the tracking degree based on the subject likelihood is the same as that of the first embodiment, the description thereof will be omitted. Further, similarly to the first embodiment, a mode in which the subject tracking device is applied to the camera will be described.

図8は本発明の第2の実施形態に係るカメラの構成についてその一例を示す図である。第2の実施形態では、被写体追尾装置としてのCPU105が、被写体尤度に基づいて追尾制御が難しい状態にあるか否かを判定する追尾状態判定部801と、追尾状態判定部801による判定結果に基づいて撮影者への通知を指示する通知指示部802とを備える点で第1の実施形態と異なる。また、第2の実施形態のカメラ101は、画像を表示する表示部(図9(A)乃至図9(D))と、表示部に表示される画像を制御する表示制御部803を備え、表示制御部803は、通知指示部802からの通知指示を受けて、追尾制御が難しい状態にあることを撮影者へ通知する。 FIG. 8 is a diagram showing an example of the configuration of the camera according to the second embodiment of the present invention. In the second embodiment, the CPU 105 as the subject tracking device is based on the determination results of the tracking state determination unit 801 and the tracking state determination unit 801 that determine whether or not the tracking control is difficult based on the subject likelihood. It differs from the first embodiment in that it includes a notification instruction unit 802 that instructs the photographer to notify the photographer based on the above. Further, the camera 101 of the second embodiment includes a display unit (FIGS. 9A to 9D) for displaying an image and a display control unit 803 for controlling an image displayed on the display unit. The display control unit 803 receives the notification instruction from the notification instruction unit 802 and notifies the photographer that the tracking control is difficult.

被写体追跡部110は、第1の実施形態と同様に、設定された追尾対象の被写体について被写体尤度を取得する。そして、取得された被写体尤度は追尾状態判定部801に送られる。追尾状態判定部801は、被写体追跡部110から受け取った被写体尤度に基づいて該被写体尤度が閾値以下であるか否かを判定する。そして、受け取った被写体尤度が閾値以下のとき、追尾状態判定部801は、被写体尤度が低いため追尾制御が難しい状態にあると判定する。一方、受け取った被写体尤度が閾値より大きいとき、追尾状態判定部801は、追尾制御可能な程度以上に被写体尤度が高いと判定する。追尾状態判定部801による判定結果は通知指示部802に送られる。追尾状態判定部801によって被写体尤度が閾値以下であると判定されたとき、通知指示部802は、追尾制御が難しい状態にあることを撮影者に通知するように、表示制御部803へ指示を送る。表示制御部803は、撮影者への通知指示を通知指示部802から受けると、表示部に表示される画像の内容を変更し、追尾制御が難しい状態にあることを撮影者に通知する。 The subject tracking unit 110 acquires the subject likelihood for the set subject to be tracked, as in the first embodiment. Then, the acquired subject likelihood is sent to the tracking state determination unit 801. The tracking state determination unit 801 determines whether or not the subject likelihood is equal to or less than the threshold value based on the subject likelihood received from the subject tracking unit 110. Then, when the received subject likelihood is equal to or less than the threshold value, the tracking state determination unit 801 determines that the tracking control is difficult because the subject likelihood is low. On the other hand, when the received subject likelihood is larger than the threshold value, the tracking state determination unit 801 determines that the subject likelihood is higher than the tracking controllable degree. The determination result by the tracking state determination unit 801 is sent to the notification instruction unit 802. When the tracking state determination unit 801 determines that the subject likelihood is equal to or less than the threshold value, the notification instruction unit 802 instructs the display control unit 803 to notify the photographer that the tracking control is difficult. send. When the display control unit 803 receives the notification instruction to the photographer from the notification instruction unit 802, the display control unit 803 changes the content of the image displayed on the display unit and notifies the photographer that the tracking control is difficult.

次に、図9を用いて、追尾制御が難しい状態にあることを撮影者に通知する方法について説明をする。図9(A)乃至図9(D)に示すように、カメラ101は、背面に表示部として機能する液晶ディスプレイ901を備え、ライブビュー表示により、撮影前からカメラ101が捉えている画像を表示することができる。また、カメラ101には液晶ディスプレイ901の下にタッチパネル902が配置されており、タッチ操作によって指定された被写体903の座標位置を取得し、追尾対象の被写体を設定することができる。タッチ操作によって指定された被写体903は、被写体枠904によって示される。表示制御部803は、通知指示を通知指示部802から受けると、液晶ディスプレイ901に表示されている追尾アイコン905の表示を変化させて、追尾制御が難しい状態にあることを撮影者に通知する。追尾制御状態の変化に伴う追尾アイコン905の変化の例を説明する。 Next, with reference to FIG. 9, a method of notifying the photographer that the tracking control is difficult will be described. As shown in FIGS. 9 (A) to 9 (D), the camera 101 is provided with a liquid crystal display 901 that functions as a display unit on the back surface, and displays an image captured by the camera 101 before shooting by the live view display. can do. Further, the camera 101 has a touch panel 902 arranged under the liquid crystal display 901, and can acquire the coordinate position of the subject 903 designated by the touch operation and set the subject to be tracked. The subject 903 designated by the touch operation is indicated by the subject frame 904. When the display control unit 803 receives the notification instruction from the notification instruction unit 802, the display control unit 803 changes the display of the tracking icon 905 displayed on the liquid crystal display 901 to notify the photographer that the tracking control is difficult. An example of the change of the tracking icon 905 with the change of the tracking control state will be described.

図9(A)において、タッチ操作により追尾対象の被写体903が指定されると、追尾制御が行われ、追尾制御を行っている状態であることが分かるように、液晶ディスプレイ901の画面(以下単に画面と呼ぶ)に追尾アイコン905が表示される。被写体追尾が行われていない間(被写体が指定されていない状態)は、追尾アイコン905は画面に表示されない。 In FIG. 9A, when the subject 903 to be tracked is designated by the touch operation, the tracking control is performed, and the screen of the liquid crystal display 901 (hereinafter simply referred to as “simply”) so that it can be seen that the tracking control is being performed. The tracking icon 905 is displayed on the screen). While the subject is not tracked (the subject is not specified), the tracking icon 905 is not displayed on the screen.

図9(B)は、被写体指定後の状態を示す図である。時間の経過につれて、カメラの状態が図9(A)、図9(B)、図9(C)、図9(D)の順で変化した場合の振れ補正量と追尾補正量とを加算した加算器112の出力を図9(E)に示す。また、被写体位置の変化を図9(F)、被写体尤度の変化を図9(G)、追尾アイコン905の表示の状態を図9(H)に示す。図9(A)に示すようなタッチ操作により被写体が指定されるタイミングT11までは、追尾アイコン905は画面に表示されていない状態であり、図9(B)に示すように追尾対象の被写体が指定されると、追尾アイコン905が画面に表示される。その後、指定した被写体903が画像中心から離れていても、追尾量算出部111で算出された追尾補正量に基づいて追尾制御が行われることにより、図9(B)に示すように、被写体903は画像中心に戻される。なお、図中、被写体を指定して位置を検出したタイミングをT11、追尾制御により被写体が画像中心に戻されたタイミングをT12として示す。 FIG. 9B is a diagram showing a state after the subject is designated. The amount of runout correction and the amount of tracking correction when the state of the camera changes in the order of FIG. 9 (A), FIG. 9 (B), FIG. 9 (C), and FIG. 9 (D) with the passage of time are added. The output of the adder 112 is shown in FIG. 9 (E). Further, the change in the subject position is shown in FIG. 9 (F), the change in the subject likelihood is shown in FIG. 9 (G), and the display state of the tracking icon 905 is shown in FIG. 9 (H). The tracking icon 905 is not displayed on the screen until the timing T11 when the subject is designated by the touch operation as shown in FIG. 9A, and the subject to be tracked is as shown in FIG. 9B. If specified, the tracking icon 905 is displayed on the screen. After that, even if the designated subject 903 is far from the center of the image, the tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 111, so that the subject 903 is as shown in FIG. 9B. Is returned to the center of the image. In the figure, the timing when the subject is specified and the position is detected is shown as T11, and the timing when the subject is returned to the center of the image by the tracking control is shown as T12.

その後、図9(C)に示すように更に被写体903が移動すると、更に追尾補正量を大きくして追尾制御が行われる。図9(D)に示すように類似の被写体が画面内に複数表れた場合、被写体尤度は低く設定される。本実施形態では、被写体尤度が閾値Th1以下のとき、追尾ゲインはゼロに設定され、追尾制御を行わないように設定される。このとき、これ以上追尾を行わないことを撮影者に知らせるため、追尾アイコン905をグレー表示して、追尾不可能状態が撮影者に通知される(図9(H)参照)。 After that, when the subject 903 moves further as shown in FIG. 9C, the tracking correction amount is further increased to perform tracking control. When a plurality of similar subjects appear on the screen as shown in FIG. 9D, the subject likelihood is set low. In the present embodiment, when the subject likelihood is equal to or less than the threshold Th1, the tracking gain is set to zero and the tracking control is not performed. At this time, in order to notify the photographer that tracking is not performed any more, the tracking icon 905 is grayed out and the photographer is notified of the non-tracking state (see FIG. 9H).

以上のようにして、第2の実施形態に係る被写体追尾装置は、被写体尤度が低く、追尾制御を行うことはできないと判定すると、追尾アイコン905の表示を変化させる指示を送る。これにより、撮影者が自らカメラをフレーミングして被写体を画像中心に移動させることを促すことができる。なお、追尾制御を行うか否かを判定する閾値と、撮影者に追尾制御が難しい状態にあることを通知する閾値とは、一致していてもよいし、異なっていてもよい。閾値が一致している場合、追尾制御を行わないことを撮影者に通知できる。追尾制御を行うか否かを判定する閾値のほうが小さい場合、追尾制御を行いながら撮影者に被写体尤度が低いことを通知でき、追尾制御が停止する前に撮影者にフレーミングを促すことができるため、一度追尾制御が停止してから再開するよりも、スムーズに追尾制御を行うことができる。 As described above, the subject tracking device according to the second embodiment sends an instruction to change the display of the tracking icon 905 when it is determined that the subject likelihood is low and the tracking control cannot be performed. As a result, the photographer can framing the camera by himself / herself to move the subject to the center of the image. It should be noted that the threshold value for determining whether or not to perform tracking control and the threshold value for notifying the photographer that the tracking control is difficult may be the same or different. If the thresholds match, the photographer can be notified that tracking control is not performed. When the threshold value for determining whether or not to perform tracking control is smaller, it is possible to notify the photographer that the subject likelihood is low while performing tracking control, and to prompt the photographer to frame before the tracking control is stopped. Therefore, the tracking control can be performed more smoothly than when the tracking control is stopped and then restarted.

なお、第2の実施形態では、追尾アイコンの色を変化させることで撮影者に追尾制御が難しい状況にあることを通知したが、通知方法はこれに限定されない。追尾アイコンとは別に、被写体尤度が低いことを示すアイコンを液晶ディスプレイ901に表示してもよいし、カメラ101にLEDランプを設け、LEDランプの点灯状態(点灯、消灯、点滅等)を被写体尤度が高い時(追尾制御ができているとき)と変化させてもよい。 In the second embodiment, the photographer is notified that the tracking control is difficult by changing the color of the tracking icon, but the notification method is not limited to this. In addition to the tracking icon, an icon indicating that the subject likelihood is low may be displayed on the liquid crystal display 901, or an LED lamp is provided on the camera 101 to indicate the lighting state (lighting, turning off, blinking, etc.) of the LED lamp as the subject. It may be changed when the likelihood is high (when tracking control is possible).

上述の実施の形態では、振れ補正部材として補正レンズを用いて、当該補正レンズを光軸に交差する(例えば、直交する)面内で移動させる光学防振に適用した場合について説明した。一方、本発明は、光学防振に限らず、撮像素子を光軸に直交する面内で移動させる被写体追尾、撮像素子が出力する撮影フレームの各々における切り出し位置を変更する被写体追尾、撮像素子と撮影レンズ群を含む鏡筒とを回転駆動する被写体追尾、別のカメラをパンおよびチルトさせる回転雲台を組み合わせた被写体追尾、又は上記の複数の被写体追尾の組み合わせに適用することもできる。 In the above-described embodiment, a case where a correction lens is used as a shake correction member and the correction lens is moved in a plane intersecting (for example, orthogonal to) the optical axis has been described. On the other hand, the present invention is not limited to optical vibration isolation, and includes subject tracking that moves the image sensor in a plane orthogonal to the optical axis, subject tracking that changes the cutout position in each of the photographing frames output by the image sensor, and an image sensor. It can also be applied to subject tracking that rotationally drives a lens barrel including a group of photographing lenses, subject tracking that combines a rotating pan head that pans and tilts another camera, or a combination of the above-mentioned plurality of subject tracking.

上述の説明から明らかなように、図2に示す例では、補正レンズ114およびCPU105がシフト手段として機能し、CPU105、角速度計103、およびズームおよびフォーカス位置検出部107が被写体追跡手段として機能する。また、CPU105は制御手段として機能する。なお、少なくとも補正レンズ114、CPU105、角速度計103、およびズームおよびフォーカス位置検出部107によって被写体追尾装置が構成される。 As is clear from the above description, in the example shown in FIG. 2, the correction lens 114 and the CPU 105 function as shift means, and the CPU 105, the angular velocity meter 103, and the zoom and focus position detection unit 107 function as subject tracking means. Further, the CPU 105 functions as a control means. The subject tracking device is composed of at least the correction lens 114, the CPU 105, the angular velocity meter 103, and the zoom and focus position detection unit 107.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described above based on the embodiments, the present invention is not limited to these embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. ..

例えば、上記の実施の形態の機能を制御方法として、この制御方法を被写体追尾装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを被写体追尾装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and the subject tracking device may be made to execute this control method. Further, a program having the functions of the above-described embodiment may be used as a control program, and the control program may be executed by a computer provided in the subject tracking device. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

103 角速度計
107 ズームおよびフォーカス位置検出部
108 振れ補正角度算出部
109 敏感度調整部
110 被写体追跡部
111 追尾量算出部
113 駆動制御部
114 補正レンズ
103 Angular velocity meter 107 Zoom and focus position detection unit 108 Shake correction angle calculation unit 109 Sensitivity adjustment unit 110 Subject tracking unit 111 Tracking amount calculation unit 113 Drive control unit 114 Correction lens

Claims (10)

被写体追尾装置であって、
影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡手段と、
前記撮影画像における被写体の位置をシフトさせるシフト手段を制御して、前記撮影画像における前記被写体の位置を、前記撮影画像における目標位置との差分が小さくなるように移動させる制御手段とを有し、
前記制御手段は、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする被写体追尾装置。
It is a subject tracking device
In shooting images, and the object tracking means for determining the confidence level indicating the position and subject likeness of the subject in the captured image,
The captured image by controlling the shifting means for shifting the position of the subject in the position of the subject in the captured image, and a Ru control means is moved so that the difference becomes smaller between the target position in the captured image Yes, and
The control means is a subject tracking device, characterized in that the control gain in the control of the shift means is changed based on the reliability to change the tracking state of the subject.
前記被写体追跡手段は、前記撮影画像において前記被写体を示す部分領域をテンプレートとして、前記テンプレートと当該テンプレートとして用いた部分画像を得た撮影画像よりも後に得られた撮影画像の部分領域とを照合して評価値を求め、前記評価値の分布に応じて前記信頼度を求めることを特徴とする請求項1に記載の被写体追尾装置。 The subject tracking means uses a partial area indicating the subject in the captured image as a template, and collates the template with a partial region of the captured image obtained after the captured image obtained as the partial image used as the template. The subject tracking device according to claim 1, wherein the evaluation value is obtained, and the reliability is obtained according to the distribution of the evaluation value. 前記被写体追跡手段は、前記被写体の特徴色の前記撮影画像における分布に基づいて被写体領域を推定して、当該被写体領域内と被写体領域外との特徴色の分布に基づいて前記信頼度を求めることを特徴とする請求項1に記載の被写体追尾装置。 The subject tracking means estimates the subject area based on the distribution of the characteristic colors of the subject in the captured image, and obtains the reliability based on the distribution of the characteristic colors inside and outside the subject area. The subject tracking device according to claim 1. 前記被写体追跡手段は、前記信頼度を求める際、前記信頼度の履歴を参照して、現在の撮影画像における前記被写体の前記信頼度を求めることを特徴とする請求項1乃至3のいずれか1項に記載の被写体追尾装置。 Any one of claims 1 to 3, wherein the subject tracking means obtains the reliability of the subject in the currently captured image by referring to the history of the reliability when obtaining the reliability. The subject tracking device described in the section. 前記制御手段は、前記信頼度が低い程、前記被写体の追尾状態を低下させることを特徴とする請求項1乃至4のいずれか1項に記載の被写体追尾装置。 The subject tracking device according to any one of claims 1 to 4, wherein the control means lowers the tracking state of the subject as the reliability is lower. 前記制御手段は、前記撮影画像における前記被写体の前記位置が前記目標位置に近い程、前記被写体の追尾状態を低下させることを特徴とする請求項に記載の被写体追尾装置。 The subject tracking device according to claim 5 , wherein the control means lowers the tracking state of the subject as the position of the subject in the captured image is closer to the target position. 撮像光学系を介して結像した光学像に応じて撮影画像を得る撮像手段と、
請求項1乃至のいずれか1項に記載の被写体追尾装置と、
を有することを特徴とする撮像装置。
An imaging means for obtaining a captured image according to an optical image imaged via an imaging optical system,
The subject tracking device according to any one of claims 1 to 6.
An imaging device characterized by having.
前記シフト手段は、前記撮像光学系に備えられ前記撮像光学系の光軸に交差する方向に駆動される補正レンズを備えることを特徴とする請求項に記載の撮像装置。 It said shifting means, the imaging apparatus according to claim 7, wherein the obtaining Bei correction lens driven in a direction crossing the optical axis of the imaging optical system provided in the imaging optical system. 連続的に得られる撮影画像における被写体の位置をシフトさせるシフト手段を制御することで前記被写体を追尾する被写体追尾装置の制御方法であって、
前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、
前記シフト手段を制御して前記撮影画像における前記被写体の位置を、前記撮影画像における目標位置との差分が小さくなるように移動させる制御ステップとを有し、
前記制御ステップにおいて、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする制御方法。
A control method for a subject tracking device that tracks a subject by controlling a shift means for shifting the position of the subject in continuously obtained captured images.
In the captured image, a subject tracking step for obtaining reliability indicating the position and subject-likeness of the subject in the captured image, and
The position of the subject in the photographed image by controlling said shifting means, have a, and Ru control step moves so that the difference becomes smaller between the target position in the captured image,
A control method characterized in that, in the control step, the tracking state of the subject is changed by changing the control gain in the control of the shift means based on the reliability.
連続的に得られる撮影画像における被写体の位置をシフトさせるシフト手段を制御することで前記被写体を追尾する被写体追尾装置で用いられる制御プログラムであって、
前記被写体追尾装置に備えられたコンピュータに、
前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、
前記シフト手段を制御して前記撮影画像における前記被写体の位置を、前記撮影画像における目標位置との差分が小さくなるように移動させる制御ステップとを実行させ
前記制御ステップにおいて、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする制御プログラム。
A control program used in a subject tracking device that tracks a subject by controlling a shift means that shifts the position of the subject in continuously obtained captured images.
In the computer provided in the subject tracking device,
In the captured image, a subject tracking step for obtaining reliability indicating the position and subject-likeness of the subject in the captured image, and
Wherein the position of the subject in the captured image by controlling the shifting means, to execute the, and Ru control step moves so that the difference becomes smaller between the target position in the captured image,
In the control step, the control program which is characterized that you change the state of tracking of the object by changing the control gain in the control of the shift means on the basis of the reliability.
JP2016234392A 2015-12-08 2016-12-01 Subject tracking device, its control method, control program, and imaging device Active JP6833483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/369,165 US10659676B2 (en) 2015-12-08 2016-12-05 Method and apparatus for tracking a moving subject image based on reliability of the tracking state

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015239747 2015-12-08
JP2015239747 2015-12-08
JP2015254088 2015-12-25
JP2015254088 2015-12-25

Publications (2)

Publication Number Publication Date
JP2017121042A JP2017121042A (en) 2017-07-06
JP6833483B2 true JP6833483B2 (en) 2021-02-24

Family

ID=59272581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016234392A Active JP6833483B2 (en) 2015-12-08 2016-12-01 Subject tracking device, its control method, control program, and imaging device

Country Status (1)

Country Link
JP (1) JP6833483B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084951A (en) * 2016-11-24 2018-05-31 株式会社日立製作所 Behavior analysis device and behavior analysis method
WO2019013214A1 (en) * 2017-07-12 2019-01-17 シャープ株式会社 Correction device, imaging device, method for controlling correction device, and control program
JP7304193B2 (en) * 2019-04-10 2023-07-06 Omデジタルソリューションズ株式会社 Tracking device and tracking method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3644668B2 (en) * 1999-09-03 2005-05-11 三菱電機株式会社 Image monitoring device
JP2010093362A (en) * 2008-10-03 2010-04-22 Nikon Corp Imaging apparatus and optical apparatus
JP4730431B2 (en) * 2008-12-16 2011-07-20 日本ビクター株式会社 Target tracking device
JP6395381B2 (en) * 2014-01-08 2018-09-26 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JP2017121042A (en) 2017-07-06

Similar Documents

Publication Publication Date Title
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
US8068164B2 (en) Face recognition auto focus apparatus for a moving image
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
US10277809B2 (en) Imaging device and imaging method
US8284257B2 (en) Image pick-up apparatus and tracking method therefor
JP4218720B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
CN107948517B (en) Preview picture blurring processing method, device and equipment
TWI425828B (en) Image capturing apparatus, method for determing image area ,and computer-readable recording medium
US9531938B2 (en) Image-capturing apparatus
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
KR100860994B1 (en) Method and apparatus for photographing a subject-oriented
JP4940164B2 (en) Imaging apparatus and imaging method
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
CN107018288A (en) Control device and picture pick-up device
CN109451240B (en) Focusing method, focusing device, computer equipment and readable storage medium
JP6833483B2 (en) Subject tracking device, its control method, control program, and imaging device
US20200099854A1 (en) Image capturing apparatus and image recording method
JP2017201356A (en) Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium
JP2008259161A (en) Target tracing device
JP6504899B2 (en) CONTROL DEVICE, OPTICAL DEVICE, IMAGING DEVICE, AND CONTROL METHOD
JP2018007272A (en) Image processing apparatus, imaging apparatus, and program
JP5539565B2 (en) Imaging apparatus and subject tracking method
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
WO2018161322A1 (en) Depth-based image processing method, processing device and electronic device
JP7122916B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM AND STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151