JP6685823B2 - Subject tracking device, control method thereof, imaging device, and program - Google Patents

Subject tracking device, control method thereof, imaging device, and program Download PDF

Info

Publication number
JP6685823B2
JP6685823B2 JP2016090348A JP2016090348A JP6685823B2 JP 6685823 B2 JP6685823 B2 JP 6685823B2 JP 2016090348 A JP2016090348 A JP 2016090348A JP 2016090348 A JP2016090348 A JP 2016090348A JP 6685823 B2 JP6685823 B2 JP 6685823B2
Authority
JP
Japan
Prior art keywords
subject
image
area
information
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016090348A
Other languages
Japanese (ja)
Other versions
JP2017200088A (en
Inventor
広明 栗栖
広明 栗栖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016090348A priority Critical patent/JP6685823B2/en
Publication of JP2017200088A publication Critical patent/JP2017200088A/en
Application granted granted Critical
Publication of JP6685823B2 publication Critical patent/JP6685823B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置等に用いられる被写体追跡処理の技術に関する。   The present invention relates to a technique of subject tracking processing used in an imaging device or the like.

動画像から特定の被写体画像を抽出して被写体を追跡する技術は、画像内の被写体人物の顔領域や人体領域の特定等に利用されている。例えば、通信会議、マン・マシン・インターフェイス、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮等の多くの分野で使用可能である。   A technique of extracting a specific subject image from a moving image and tracking the subject is used for identifying a face area or a human body area of a subject person in the image. For example, it can be used in many fields such as teleconferencing, man-machine interface, security, monitor system for tracking arbitrary objects, image compression and so on.

ユーザが指定した撮像画像内の被写体の画像を抽出して追跡し、被写体に対する焦点状態や露出状態を最適化する技術がある(特許文献1参照)。一般的なテンプレートマッチングの技術では、タッチパネル等の入力インターフェイスを用いてユーザが画像内で任意に指定した領域を基準としてテンプレート画像が登録される。テンプレート画像と最も類似度が高いか、または相違度が低い領域を画像内において推定し、特定の被写体を追跡する処理が行われる。画素パターンの類似性を評価尺度として用いる方法は、追跡対象とその他の被写体(背景等)において部分領域の画素パターンが類似していると、誤った被写体を対象として追跡が行われる可能性がある。また、色ヒストグラムの類似性を評価尺度に利用する方法は、追跡対象とその他の被写体において部分領域の色の割合が類似していると、誤った被写体を対象として追跡が行われる可能性がある。   There is a technique of extracting and tracking an image of a subject in a captured image designated by a user, and optimizing a focus state and an exposure state of the subject (see Patent Document 1). In a general template matching technique, a template image is registered with reference to an area arbitrarily designated in the image by a user using an input interface such as a touch panel. A process of estimating a region having the highest similarity or the lowest difference with the template image in the image and tracking a specific subject is performed. In the method of using the similarity of pixel patterns as an evaluation measure, if the pixel patterns of the partial areas of the tracking target and other subjects (background, etc.) are similar, there is a possibility that tracking will be performed on the wrong subject. . Further, in the method of using the similarity of the color histogram as an evaluation measure, if the color ratios of the partial areas of the tracking target and other subjects are similar, there is a possibility that tracking may be performed on the wrong subject. .

被写体追跡を正確に行うために距離情報を利用した技術が提案されている。特許文献2には追跡対象の距離情報を利用して、撮像装置と追跡対象の被写体の間に存在する別の被写体(遮蔽被写体)の領域を検出し、遮蔽被写体に焦点を合わせないようにする技術が開示されている。   Techniques have been proposed that use distance information in order to accurately track an object. In Patent Document 2, by using distance information of a tracking target, a region of another subject (shielded subject) existing between the imaging device and the subject of the tracking target is detected so as not to focus on the shielded subject. The technology is disclosed.

特開2001−60269号公報JP 2001-60269 A 特開2014−202875号公報JP, 2014-202875, A 特開2002−251380号公報JP 2002-251380 A

従来の技術では被写体追跡が困難な撮影シーンがあり、被写体追跡の精度が充分に得られない場合がある。例えば、追跡対象の被写体(以下、主被写体と呼ぶ)に対して、画素パターンや色ヒストグラム等が類似する被写体(以下、類似被写体と呼ぶ)が存在するシーンを想定する。撮像装置の光軸方向(撮影方向)にて主被写体と類似被写体との距離差が小さい場合、主被写体と類似被写体とを距離情報で差別化することが困難となる。また、撮像装置から見た場合に主被写体が類似被写体に遮蔽されて姿が見えない間に主被写体が撮像装置の光軸方向に移動するシーンを想定する。追跡対象の乗り移りの検出や、再び出現した主被写体の追跡が困難になる可能性がある。   In the conventional technique, there are shooting scenes in which it is difficult to track an object, and there are cases where the accuracy of object tracking cannot be sufficiently obtained. For example, assume a scene in which a subject (hereinafter, referred to as a similar subject) having a pixel pattern, a color histogram, and the like that are similar to a subject to be tracked (hereinafter, referred to as a main subject) exists. When the difference in distance between the main subject and the similar subject in the optical axis direction (shooting direction) of the imaging device is small, it is difficult to differentiate the main subject and the similar subject based on the distance information. Further, it is assumed that the main subject moves in the optical axis direction of the image pickup device while the main subject is shielded by similar subjects and invisible when viewed from the image pickup device. There is a possibility that it may be difficult to detect the transfer of the tracking target or to track the main subject that reappears.

本発明は、撮像された画像に関連する距離情報と、被写体に係る奥行き方向の位置変化の検出情報を用いることで被写体追跡の精度を向上させることを目的とする。   It is an object of the present invention to improve the accuracy of subject tracking by using distance information related to a captured image and detection information of a position change in the depth direction of a subject.

本発明の一実施形態に係る装置は、画像データおよび該画像データに関連する距離情報を取得して画像内の被写体の追跡処理を行う被写体追跡装置であって、前記画像データおよび距離情報を取得する取得手段と、前記画像データから被写体の画像を検出して被写体領域に係る複数の第1の候補領域の情報を出力する第1の検出手段と、前記距離情報および画像内における前記被写体の奥行き方向の位置変化から被写体領域に係る第2の候補領域の情報を出力する第2の検出手段と、前記第1および第2の候補領域の情報を取得し、前記第2の候補領域により前記複数の第1の候補領域から絞り込んだ領域を被写体追跡に用いる被写体領域として決定する決定手段と、を備える。前記第1の検出手段は、前記画像データを取得して被写体を検出する被写体検出手段と、前記画像データおよび前記被写体検出手段の検出情報を取得してマッチング処理を行い、前記第1の候補領域の情報として複数の評価値と領域情報を出力するマッチング手段と、を有する。前記第2の検出手段は、前記距離情報を取得して画像内における前記被写体の奥行き方向の位置変化を示す位置変化ベクトルを算出する算出手段と、検出された複数の被写体領域に係る前記距離情報および位置変化ベクトルを比較して前記第2の候補領域の情報を出力する比較手段と、を有する。
An apparatus according to an embodiment of the present invention is an object tracking apparatus that acquires image data and distance information related to the image data to perform tracking processing of an object in an image, and acquires the image data and distance information. Acquiring means, first detecting means for detecting an image of a subject from the image data and outputting information of a plurality of first candidate regions related to the subject region, the distance information and the depth of the subject in the image. A second detection unit that outputs information on a second candidate region related to the subject region based on a change in position in the direction, and information on the first and second candidate regions are acquired, and the plurality of information items are acquired by the second candidate region. Determining unit that determines a region narrowed down from the first candidate region as a subject region used for subject tracking. The first detection unit obtains the image data and detects a subject, and obtains the image data and detection information of the subject detection unit to perform matching processing to obtain the first candidate region. And a matching unit that outputs a plurality of evaluation values and area information as information. The second detection unit obtains the distance information and calculates a position change vector indicating a position change of the subject in the image in the depth direction, and the distance information regarding the plurality of detected subject regions. And a comparison means for comparing the position change vectors and outputting the information of the second candidate area.

本発明によれば、撮像された画像に関連する距離情報と、被写体に係る奥行き方向の位置変化の検出情報を用いることで被写体追跡の精度を向上させることができる。   According to the present invention, the accuracy of subject tracking can be improved by using the distance information related to the captured image and the detection information of the position change of the subject in the depth direction.

本発明の実施形態に係る撮像装置を例示する外観図である。It is an external view which illustrates the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which concerns on embodiment of this invention. 撮像光学系の瞳と撮像素子の光電変換部との関係を示す模式図である。It is a schematic diagram which shows the relationship between the pupil of an imaging optical system, and the photoelectric conversion part of an image sensor. 本発明の第1実施形態における被写体追跡処理を含む全体のフローチャートである。3 is an overall flowchart including subject tracking processing according to the first embodiment of the present invention. 本発明の第1実施形態における被写体追跡処理部を示すブロック図である。FIG. 3 is a block diagram showing a subject tracking processing unit in the first embodiment of the present invention. マッチング処理を模式的に示す図である。It is a figure which shows a matching process typically. 被写体の像面位置とフォーカスレンズ位置の像面変換値の時間変化を示す図である。It is a figure which shows the time change of the image surface conversion value of a subject's image surface position and a focus lens position. 被写体領域と焦点検出領域を示す図である。It is a figure which shows a to-be-photographed area | region and a focus detection area. 被写体追跡処理を示すフローチャートである。It is a flowchart which shows a subject tracking process. 第2の被写体候補領域の検出処理を示すフローチャートである。It is a flow chart which shows the detection processing of the 2nd subject candidate field. 2つの被写体が同距離に存在する場合に被写体追跡を示す図である。It is a figure which shows subject tracking when two subjects exist in the same distance. 2つの被写体のデフォーカス量と光軸ベクトル量の時間変化を示す図である。It is a figure which shows the time change of the defocus amount and optical axis vector amount of two subjects. 2つの被写体がすれ違う際の被写体追跡を示す図である。It is a figure which shows subject tracking when two subjects pass each other. 2つの被写体のデフォーカス量と光軸ベクトル量の時間変化を示す図である。It is a figure which shows the time change of the defocus amount and optical axis vector amount of two subjects. 本発明の第2実施形態における被写体追跡処理部を示すブロック図である。It is a block diagram which shows the subject tracking process part in 2nd Embodiment of this invention. 本発明の第2実施形態における焦点検出領域を示す図である。It is a figure which shows the focus detection area | region in 2nd Embodiment of this invention.

以下、添付図面を参照して、本発明の例示的な実施形態を詳細に説明する。各実施形態の撮像装置は、撮像面位相差検出方式の焦点検出が可能な構成を有し、画像データに関連する距離情報と後述の光軸ベクトル情報(位置変化ベクトルの光軸成分の情報)を用いて被写体追跡の演算を行う。なお、以下の各実施形態に説明する構成は単なる例示であり、本発明は実施形態に記載された構成に限定されない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The image pickup apparatus of each embodiment has a configuration capable of focus detection by an image pickup surface phase difference detection method, and has distance information related to image data and optical axis vector information (information of an optical axis component of a position change vector) described later. Is used to calculate the subject tracking. The configurations described in the following embodiments are merely examples, and the present invention is not limited to the configurations described in the embodiments.

[第1実施形態]
図1および図2を参照して、本実施形態における撮像装置について説明する。図1は撮像装置101の外観を示す斜視図である。撮像装置101の光軸方向は、撮像装置101内の撮像面102に対して法線方向となる奥行き方向103である。図2は、撮像装置200の構成例を示すブロック図である。撮像装置200は、撮像光学系を介して撮像素子により撮像された被写体の画像データ(動画像や静止画像のデータ)を記録媒体に記録する機能を有する。記録媒体はテープや固体メモリ、光ディスクや磁気ディスク等の各種メディアである。撮像装置200はデジタルスチルカメラやビデオカメラ等であるが、これらに限定されるものではない。
[First Embodiment]
An image pickup apparatus according to this embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a perspective view showing the outer appearance of the image pickup apparatus 101. The optical axis direction of the imaging device 101 is a depth direction 103 that is a normal line direction to the imaging surface 102 in the imaging device 101. FIG. 2 is a block diagram showing a configuration example of the image pickup apparatus 200. The imaging device 200 has a function of recording image data (moving image or still image data) of a subject imaged by an imaging element via an imaging optical system on a recording medium. The recording medium is various media such as a tape, a solid-state memory, an optical disk and a magnetic disk. The imaging device 200 is a digital still camera, a video camera, or the like, but is not limited to these.

撮影レンズ201は、固定レンズ202、絞り203、フォーカスレンズ204を備えるレンズユニットである。絞り制御部211は、絞り203を駆動することにより、絞り203の開口径を調整して撮影時の光量調節を行う。フォーカス制御部212は、撮影レンズ201の焦点ずれ量に基づいてフォーカスレンズ204の駆動量を決定する。焦点調節用レンズであるフォーカスレンズ204を移動させることにより、焦点調節状態が制御される。レンズ制御部213は、フォーカス制御部212を介してフォーカスレンズ204の移動を制御し、自動焦点調節制御が実現される。図2にはフォーカスレンズ204を単レンズで簡略的に示しているが、通常複数のレンズで構成される。絞り制御部211やフォーカス制御部212はレンズ制御部213によって制御される。詳しくは後述するが、フォーカスレンズ204は主被写体に対して常に焦点を合わせ続けるように駆動制御される。   The taking lens 201 is a lens unit including a fixed lens 202, a diaphragm 203, and a focus lens 204. The diaphragm control unit 211 drives the diaphragm 203 to adjust the aperture diameter of the diaphragm 203 to adjust the light amount at the time of shooting. The focus control unit 212 determines the drive amount of the focus lens 204 based on the defocus amount of the photographing lens 201. The focus adjustment state is controlled by moving the focus lens 204 which is the focus adjustment lens. The lens control unit 213 controls the movement of the focus lens 204 via the focus control unit 212, and automatic focus adjustment control is realized. Although the focus lens 204 is simply shown as a single lens in FIG. 2, it is usually composed of a plurality of lenses. The aperture controller 211 and the focus controller 212 are controlled by the lens controller 213. As will be described in detail later, the focus lens 204 is drive-controlled so that the main subject is always focused.

撮影レンズ201を構成する光学部材を介して入射した被写界光は、撮像素子221の受光面上に結像する。撮像素子221は、被写体像(光学像)を信号電荷に光電変換する光電変換素子であり、CCD(電荷結合素子)イメージセンサやCMOS(相補型金属酸化膜半導体)イメージセンサにより構成される。撮像素子221の各光電変換部に蓄積された信号電荷は、タイミングジェネレータ222が出力する駆動パルスにより、信号電荷に応じた電圧信号として順次読み出される。   The field light that has entered through the optical member that constitutes the taking lens 201 forms an image on the light receiving surface of the image sensor 221. The image sensor 221 is a photoelectric conversion element that photoelectrically converts a subject image (optical image) into signal charges, and is configured by a CCD (charge coupled device) image sensor or a CMOS (complementary metal oxide semiconductor) image sensor. The signal charge accumulated in each photoelectric conversion unit of the image sensor 221 is sequentially read as a voltage signal corresponding to the signal charge by the drive pulse output from the timing generator 222.

撮像素子221は、1つのマイクロレンズを共有する複数の光電変換部を備え、複数の視差画像を生成することで、撮像面位相差検出方式の焦点検出が可能な構成となっている。複数の光電変換部は、例えば第1の光電変換部および第2の光電変換部であり、一対の視差画像データを取得可能である。撮像素子221については図3を参照して後述する。   The image sensor 221 includes a plurality of photoelectric conversion units that share one microlens, and generates a plurality of parallax images to enable focus detection by an imaging plane phase difference detection method. The plurality of photoelectric conversion units are, for example, a first photoelectric conversion unit and a second photoelectric conversion unit, and can acquire a pair of parallax image data. The image sensor 221 will be described later with reference to FIG.

撮像信号処理部223は、撮像素子221の出力信号を取得して処理し、バス231を介してSDRAM(Synchronous Dynamic Random Access Memory)261に画像信号を記憶する。焦点検出用信号処理部224は、撮像素子221から出力された焦点検出用の信号を取得して処理する。焦点検出用信号処理部224が行う、撮像面位相差検出方式の焦点検出方法については後述する。   The imaging signal processing unit 223 acquires and processes the output signal of the imaging device 221, and stores the image signal in an SDRAM (Synchronous Dynamic Random Access Memory) 261 via the bus 231. The focus detection signal processing unit 224 acquires and processes the focus detection signal output from the image sensor 221. The focus detection method of the imaging plane phase difference detection method performed by the focus detection signal processing unit 224 will be described later.

SDRAM261に格納された画像信号は、バス231を介して表示制御部241によって読み出され、表示部242は画像信号にしたがって画像表示を行う。また、画像信号の記録を行う動作モードにおいて記録媒体制御部251は、SDRAM261から画像信号を読み出して記録媒体252に記録する制御を行う。   The image signal stored in the SDRAM 261 is read by the display control unit 241 via the bus 231, and the display unit 242 displays an image according to the image signal. In addition, in the operation mode in which the image signal is recorded, the recording medium control unit 251 performs control to read the image signal from the SDRAM 261 and record it on the recording medium 252.

カメラ制御部225はメインCPU(中央演算処理装置)を備え、カメラシステムの各部の制御を統括する。ROM(リード・オンリ・メモリ)262にはカメラ制御部225が実行する制御プログラムおよび制御に必要な各種データ等が格納されている。フラッシュROM263には、ユーザ設定情報等のカメラ動作に関する各種設定情報等が格納されている。   The camera control unit 225 includes a main CPU (central processing unit) and controls the respective units of the camera system. A ROM (Read Only Memory) 262 stores a control program executed by the camera control unit 225 and various data necessary for control. The flash ROM 263 stores various setting information regarding camera operation such as user setting information.

カメラ制御部225は、焦点検出用信号処理部224から出力されるデフォーカス量をフォーカスレンズ駆動量に変換してレンズ制御部213に伝達する。レンズ制御部213はサブCPUを備え、フォーカス制御部212に指示してフォーカスレンズ204の移動を制御する。またカメラ制御部225は、ユーザが操作部を用いて行った操作指示を受け付けて各部の動作を制御する。例えば、カメラ制御部225は操作指示や画素信号の大きさに基づき、撮像素子221の蓄積時間、撮像素子221から撮像信号処理部223へ出力を行う際のゲインの設定値、タイミングジェネレータ222の設定値を決定する。画素信号は、一時的にSDRAM261に蓄積された画像データに係る画素信号である。   The camera control unit 225 converts the defocus amount output from the focus detection signal processing unit 224 into a focus lens drive amount and transmits the focus lens drive amount to the lens control unit 213. The lens control unit 213 includes a sub CPU and instructs the focus control unit 212 to control the movement of the focus lens 204. Further, the camera control unit 225 receives an operation instruction given by the user using the operation unit and controls the operation of each unit. For example, the camera control unit 225 sets the accumulation time of the image sensor 221, the set value of the gain when the image sensor 221 outputs to the image signal processing unit 223, and the setting of the timing generator 222 based on the size of the pixel signal. Determine the value. The pixel signal is a pixel signal related to the image data temporarily stored in the SDRAM 261.

被写体追跡部271は、主被写体の追跡処理を実行する。被写体追跡部271は被写体追跡において視差画像から算出可能な、距離情報と、位置変化ベクトルの光軸成分(以下、光軸ベクトルと呼ぶ)を用いた演算を行う。本実施形態では追跡精度を高めるために距離情報を使用するが、より精度を高めるために、撮像面位相差検出方式の焦点検出方法を用いる。つまり、被写体追跡部271は毎フレームの被写体の追跡結果を出力可能であるため、同様に毎フレームの距離情報を算出することができように、同じ撮像面から視差画像を取得する処理が行われる。被写体追跡部271の追跡結果は、バス231を介して各モジュールへ伝えられる。被写体追跡部271の追跡結果はカメラ制御部225、レンズ制御部213を介してフォーカス制御部212に伝達され、撮像画像内の主被写体領域に対する自動焦点検出および焦点調節制御が実現される。主被写体領域とは、追跡対象となる主被写体の画像領域である。また、絞り制御部211は、特定の被写体領域の輝度値を用いた露出制御を行う。被写体追跡部271が追跡している主被写体の表示については、主被写体の画像領域を矩形枠等で表示部242が画面に表示する。なお、被写体追跡部271には、SDRAM261に蓄積された撮像画像のデータがバス231を介して送られる。被写体追跡部271は撮影時刻の異なる複数の画像を用いて主被写体を追跡し、追跡結果として主被写体を示す部分領域を抽出する。   The subject tracking unit 271 executes a tracking process of the main subject. The subject tracking unit 271 performs calculation using distance information and an optical axis component of a position change vector (hereinafter referred to as an optical axis vector) that can be calculated from a parallax image in subject tracking. In this embodiment, the distance information is used to improve the tracking accuracy, but the focus detection method of the imaging plane phase difference detection method is used to improve the accuracy. That is, since the subject tracking unit 271 can output the tracking result of the subject for each frame, the process of acquiring the parallax image from the same imaging plane is performed so that the distance information for each frame can be calculated similarly. . The tracking result of the subject tracking unit 271 is transmitted to each module via the bus 231. The tracking result of the subject tracking unit 271 is transmitted to the focus control unit 212 via the camera control unit 225 and the lens control unit 213, and automatic focus detection and focus adjustment control for the main subject region in the captured image are realized. The main subject area is an image area of the main subject to be tracked. Further, the aperture control unit 211 performs exposure control using the brightness value of a specific subject area. Regarding the display of the main subject tracked by the subject tracking unit 271, the display unit 242 displays the image region of the main subject in a rectangular frame or the like on the screen. Note that the captured image data stored in the SDRAM 261 is sent to the subject tracking unit 271 via the bus 231. The subject tracking unit 271 tracks the main subject using a plurality of images at different shooting times, and extracts a partial area indicating the main subject as a tracking result.

次に図3を参照して、撮像光学系の瞳と撮像素子の光電変換部との関係を説明する。図3に例示する撮像素子は、2次元的に配列されたm×n個のセンサ部で構成される。図3の断面部301は、撮像素子221の一部を示している。各センサ部302には、マイクロレンズ303と2つの光電変換部(304,305)が配置されている。第1の光電変換部304および第2の光電変換部305の各出力信号を取得して、撮像面位相差検出方式による自動焦点調節に用いる像信号を生成可能である。   Next, the relationship between the pupil of the image pickup optical system and the photoelectric conversion unit of the image pickup device will be described with reference to FIG. The image sensor illustrated in FIG. 3 includes m × n sensor units arranged two-dimensionally. A cross section 301 in FIG. 3 shows a part of the image sensor 221. A microlens 303 and two photoelectric conversion units (304, 305) are arranged in each sensor unit 302. It is possible to obtain each output signal of the first photoelectric conversion unit 304 and the second photoelectric conversion unit 305 and generate an image signal used for automatic focus adjustment by the imaging plane phase difference detection method.

図3は、撮像光学系の瞳306の異なる領域(307,308)と各光電変換部との対応関係を示している。第1の瞳部分領域307と第2の瞳部分領域308は、光軸を挟んで位置している。各領域を通過した光束は、奥行き方向103の軸、つまり光軸を中心に各センサ部302に配置されたマイクロレンズ303を介して、2つの光電変換部(304、305)によりそれぞれ受光される。第1の瞳部分領域307を通過した光束は、マイクロレンズ303を介して第1の光電変換部304が受光する。また第2の瞳部分領域308を通過した光束は、マイクロレンズ303を介して第2の光電変換部305が受光する。各センサ部に設けられた2つの光電変換部により、撮像用の信号と焦点検出用の信号を取得できる。すなわち、2つの光電変換部(304,305)の出力を加算することで、撮像画像のデータが取得される。図2の撮像信号処理部223は撮像信号を画像信号(画像データ)として整える。また、2つの光電変換部(304,305)の出力を各々扱うことにより、視点の異なる2つの画像(視差画像)を取得できる。第1の光電変換部304の出力から第1の視差画像が得られ、第2の光電変換部305の出力から第2の視差画像が得られる。図2の焦点検出用信号処理部224は、一対の視差画像の信号を用いて焦点検出の演算を行う。   FIG. 3 shows the correspondence between different regions (307, 308) of the pupil 306 of the imaging optical system and the photoelectric conversion units. The first pupil partial region 307 and the second pupil partial region 308 are located with the optical axis sandwiched therebetween. The light flux passing through each region is received by each of the two photoelectric conversion units (304, 305) via the microlens 303 arranged in each sensor unit 302 about the axis in the depth direction 103, that is, the optical axis. . The light flux that has passed through the first pupil partial region 307 is received by the first photoelectric conversion unit 304 via the microlens 303. The light flux that has passed through the second pupil partial region 308 is received by the second photoelectric conversion unit 305 via the microlens 303. An image pickup signal and a focus detection signal can be acquired by the two photoelectric conversion units provided in each sensor unit. That is, the data of the captured image is acquired by adding the outputs of the two photoelectric conversion units (304, 305). The image pickup signal processing unit 223 of FIG. 2 prepares the image pickup signal as an image signal (image data). Further, by handling the outputs of the two photoelectric conversion units (304, 305) respectively, two images (parallax images) with different viewpoints can be acquired. The first parallax image is obtained from the output of the first photoelectric conversion unit 304, and the second parallax image is obtained from the output of the second photoelectric conversion unit 305. The focus detection signal processing unit 224 in FIG. 2 performs focus detection calculation using the signals of the pair of parallax images.

本実施形態では、2つの光電変換部の出力を加算して取得される画像信号の画像をA+B像と呼称する。2つの光電変換部の出力から各々取得される画像信号の画像をA像、B像と呼称する。なお、位相差信号の生成方法については本実施形態の方法に限定されず、他の方法を用いてもよい。例えば、2つの光電変換部の加算出力により取得されるA+B像の信号から、一方の光電変換部の出力により取得されるA像またはB像の信号を減算し、他方のB像またはA像の信号を生成することができる。   In the present embodiment, an image of an image signal acquired by adding the outputs of the two photoelectric conversion units is called an A + B image. The images of the image signals respectively acquired from the outputs of the two photoelectric conversion units are called A image and B image. The method of generating the phase difference signal is not limited to the method of this embodiment, and other methods may be used. For example, the signal of the A image or the B image obtained by the output of one photoelectric conversion unit is subtracted from the signal of the A + B image obtained by the addition output of the two photoelectric conversion units, and the signal of the B image or the A image of the other is subtracted. A signal can be generated.

ここで、焦点検出用信号処理部224が行う、撮像面位相差検出方式の焦点検出方法について説明する。撮像面位相差検出では、設定した焦点検出領域に対して撮像素子221から焦点検出用の一対の像信号、例えばA像の信号とB像の信号が取得される。次に焦点検出用信号処理部224は、取得された像信号間の相関量を算出する。相関量を求める演算は、焦点検出領域内の各走査ラインにおいてそれぞれ行われる。焦点検出用信号処理部224は相関量から相関変化量を算出し、相関変化量に基づいて2像のずれ量を算出する。この2像のずれ量に、所定の換算係数を乗算することでデフォーカス量に変換することができる。このとき、カメラ制御部225は自動焦点検出に使用する撮影パラメータ情報を取得する。撮影パラメータはカメラ本体部またはレンズ部のメモリに記憶されている。撮影パラメータとは、撮影レンズ201内の絞り203の絞り情報や、カメラ本体部内の撮像素子221のセンサゲイン等の情報である。本実施形態の構成に依らず、カメラの構成に応じて必要な情報を適宜取得してもよい。撮影パラメータに基づいて、焦点検出用の信号生成に係る処理や、焦点検出を行う領域が設定できるように、カメラ制御部225は必要な情報を提供する。本実施形態における焦点検出領域は、画面全体を2次元的に等分割して設定されている。   Here, the focus detection method of the imaging plane phase difference detection method performed by the focus detection signal processing unit 224 will be described. In the imaging plane phase difference detection, a pair of image signals for focus detection, for example, an A image signal and a B image signal, are acquired from the image sensor 221 for the set focus detection area. Next, the focus detection signal processing unit 224 calculates the correlation amount between the acquired image signals. The calculation for obtaining the correlation amount is performed for each scanning line in the focus detection area. The focus detection signal processing unit 224 calculates a correlation change amount from the correlation amount, and calculates a shift amount between the two images based on the correlation change amount. A defocus amount can be converted by multiplying the shift amount of these two images by a predetermined conversion coefficient. At this time, the camera control unit 225 acquires shooting parameter information used for automatic focus detection. The shooting parameters are stored in the memory of the camera body or the lens. The photographing parameters are information such as diaphragm information of the diaphragm 203 in the photographing lens 201 and sensor gain of the image sensor 221 in the camera body. Regardless of the configuration of the present embodiment, necessary information may be appropriately acquired according to the configuration of the camera. The camera control unit 225 provides necessary information so that the process related to the signal generation for focus detection and the region for focus detection can be set based on the shooting parameter. The focus detection area in this embodiment is set by equally dividing the entire screen in two dimensions.

次に、図4から図14を用いて、撮像装置の動作について説明する。まず、図4を参照し、被写体追跡処理を含む全体の処理の流れを説明する。以下の処理は、カメラ制御部225のCPUが実行するプログラムにしたがって実現される。   Next, the operation of the image pickup apparatus will be described with reference to FIGS. 4 to 14. First, the flow of the entire processing including the subject tracking processing will be described with reference to FIG. The following processing is realized according to a program executed by the CPU of the camera control unit 225.

撮像装置は露光を行い、撮像素子221は光像を電気信号に変換する(S401)。処理S402およびS403と、処理S404およびS405は並列処理として実行される。撮像信号処理部223は、撮像素子221から読み出した撮像画像(A+B像)の信号を画像信号に変換する(S402)。取得されたA+B像の画像信号はSDRAM261に格納される(S403)。一方、撮像素子221により取得された視差画像(A像、B像)の各信号は焦点検出用信号処理部224に入力される(S404)。焦点検出用信号処理部224はA像とB像のずれ量を検出してデフォーカス量を算出する(S405)。   The image pickup device performs exposure, and the image pickup element 221 converts the light image into an electric signal (S401). The processes S402 and S403 and the processes S404 and S405 are executed as parallel processes. The imaging signal processing unit 223 converts the signal of the captured image (A + B image) read from the image sensor 221 into an image signal (S402). The image signal of the acquired A + B image is stored in the SDRAM 261 (S403). On the other hand, each signal of the parallax image (A image, B image) acquired by the image sensor 221 is input to the focus detection signal processing unit 224 (S404). The focus detection signal processing unit 224 detects the shift amount between the A image and the B image and calculates the defocus amount (S405).

処理S403、S405の後、判定処理S406へ進む。カメラ制御部225はモードを判定する。ユーザが追跡モードを選択している場合(S406でYES)、処理S407へ進み、追跡モードが選択されていない場合(S406でNO)には判定処理S408へ移行する。追跡モードは、撮像装置が主被写体の追跡処理を行うモードである。撮像画像とデフォーカス情報に基づいて被写体追跡部271は被写体追跡処理を行う(S407)。判定処理S408にてカメラ制御部225は、電源のON/OFFを判定する。ユーザが電源をOFF操作するとシステムの動作が終了する(S408でYES)。また電源のOFF操作が行われない場合(S408でNO)、再び処理S401に戻り露光が行われる。   After the processes S403 and S405, the process proceeds to the determination process S406. The camera control unit 225 determines the mode. If the user has selected the tracking mode (YES in S406), the process proceeds to step S407, and if the tracking mode has not been selected (NO in S406), the process proceeds to determination process S408. The tracking mode is a mode in which the imaging device performs the tracking process of the main subject. The subject tracking unit 271 performs subject tracking processing based on the captured image and the defocus information (S407). In the determination processing S408, the camera control unit 225 determines ON / OFF of the power source. When the user turns off the power, the operation of the system ends (YES in S408). If the power-off operation is not performed (NO in S408), the process returns to step S401 and the exposure is performed.

続いて図5を参照し、被写体追跡処理について説明する。図5は本実施形態の被写体追跡を説明するブロック図である。被写体追跡部271は、撮像された画像(A+B像)を処理する第1の処理部と、デフォーカス情報を処理する第2の処理部を備える。第1の処理部は、被写体検出部501、マッチング部502、被写体領域決定部503を備える。SDRAM261から逐次供給される撮像画像(A+B像)に基づいて、被写体検出部501、マッチング部502は第1の被写体候補領域を抽出する。また、第2の処理部は、光軸ベクトル算出部504、距離・ベクトル比較部505を備える。第2の処理部は、被写体追跡性能を向上させるために、視差画像(A像、B像)に基づいて焦点検出用信号処理部224が算出したデフォーカス情報を使って第2の被写体候補領域を抽出する。第1および第2つの被写体候補領域に基づいて被写体領域決定部503は主被写体を追跡する。追跡の結果として、画像中の特定被写体を示す部分領域が抽出される。   Subsequently, the subject tracking process will be described with reference to FIG. FIG. 5 is a block diagram illustrating subject tracking according to this embodiment. The subject tracking unit 271 includes a first processing unit that processes a captured image (A + B image) and a second processing unit that processes defocus information. The first processing unit includes a subject detection unit 501, a matching unit 502, and a subject region determination unit 503. The subject detection unit 501 and the matching unit 502 extract the first subject candidate region based on the captured images (A + B images) sequentially supplied from the SDRAM 261. The second processing unit also includes an optical axis vector calculation unit 504 and a distance / vector comparison unit 505. The second processing unit uses the defocus information calculated by the focus detection signal processing unit 224 based on the parallax image (A image, B image) to improve the second subject candidate region in order to improve the subject tracking performance. To extract. The subject area determination unit 503 tracks the main subject based on the first and second subject candidate areas. As a result of the tracking, a partial area indicating the specific subject in the image is extracted.

本実施形態では、焦点検出用信号処理部224が算出したデフォーカス情報を用いる被写体追跡処理を例示して説明するが、本発明は、画像における被写体の深さに対応する情報としてさまざまな実施形態での適用が可能である。つまり、被写体の深さに対応するデータが示す情報(深さ情報)は、画像内における撮像装置から被写体までの被写体距離を直接的に表すか、または画像内の被写体の被写体距離や深さの相対関係を表す情報であればよい。以下、各処理部の詳細を説明する。   In the present embodiment, the subject tracking process using the defocus information calculated by the focus detection signal processing unit 224 will be described as an example, but the present invention is applicable to various embodiments as information corresponding to the depth of the subject in the image. It can be applied in. That is, the information (depth information) indicated by the data corresponding to the depth of the subject directly represents the subject distance from the image pickup device to the subject in the image, or the subject distance and depth of the subject in the image. Any information that represents a relative relationship may be used. The details of each processing unit will be described below.

図5の被写体検出部501は、撮像画像(A+B像)を取得して目的とする被写体を検出し、被写体追跡の追跡対象とする。撮像画像のデータは、撮像信号処理部223が出力してSDRAM261に記憶されている。被写体検出部501は、例えば顔検出を行い、画像内の被写体領域として人物の顔領域を特定する。検出方法としては、公知の顔検出方法を用いる。顔に関する知識(肌色情報、目・鼻・口等のパーツ)を利用する方法と、ニューラルネットに代表される学習アルゴリズムにより顔検出のための識別器を構成する方法等がある。また顔検出では、認識率向上のためにこれらを組み合わせて顔認識を行うのが一般的である。具体的には特許文献3に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法がある。これに限らず、タッチパネルやボタン等を含む入力インターフェイス部を用いて、ユーザ(操作者)が、画像に含まれる任意の被写体画像を追跡対象に指定する構成としてもよい。その場合、被写体検出部501はユーザの操作により指定された位置情報に基づき、撮像画像内の被写体領域を検出して検出情報をマッチング部502に出力する。検出により特定された被写体領域は主被写体の画像領域として設定される。   The subject detection unit 501 in FIG. 5 acquires a captured image (A + B image), detects a target subject, and sets the target as a tracking target for subject tracking. The data of the captured image is output from the captured signal processing unit 223 and stored in the SDRAM 261. The subject detection unit 501 performs face detection, for example, and identifies a human face area as a subject area in the image. A known face detection method is used as the detection method. There are a method of using knowledge about the face (skin color information, parts of eyes, nose, mouth, etc.) and a method of configuring a discriminator for face detection by a learning algorithm represented by a neural network. In face detection, face recognition is generally performed by combining these in order to improve the recognition rate. Specifically, there is a method of detecting a face using the wavelet transform and the image feature amount described in Patent Document 3. The present invention is not limited to this, and the user (operator) may use an input interface unit including a touch panel, buttons, and the like to specify an arbitrary subject image included in the image as a tracking target. In that case, the subject detection unit 501 detects the subject region in the captured image based on the position information designated by the user's operation, and outputs the detection information to the matching unit 502. The subject region specified by the detection is set as the image region of the main subject.

マッチング部502は、被写体検出部501の検出情報を取得して、検出された被写体領域をテンプレートとして登録する。マッチング部502は、テンプレートと、SDRAM261から逐次供給される画像の部分領域とのマッチング処理を行い、複数の評価値と領域情報を第1の被写体候補領域の情報として出力する。マッチング方式は多種多様に存在するが、本実施形態では、画素パターンの相違度に基づくテンプレートマッチング法を適用する。テンプレートマッチング法の詳細に関して図6を用いて説明する。   The matching unit 502 acquires the detection information of the subject detection unit 501 and registers the detected subject region as a template. The matching unit 502 performs matching processing between the template and the partial areas of the image sequentially supplied from the SDRAM 261, and outputs a plurality of evaluation values and area information as information on the first subject candidate area. Although there are various types of matching methods, in the present embodiment, the template matching method based on the degree of difference between pixel patterns is applied. Details of the template matching method will be described with reference to FIG.

図6(A)は、テンプレートマッチングにおける被写体モデル(テンプレート)の例を示す。マッチング部502は、目的とする主被写体の領域を示す画像601の画素パターンを特徴量として扱う。図6(A)は画像601の特徴量602をマトリクスで表現した例を示し、画素データの輝度信号を特徴量とする。特徴量をT(i,j)と表記し、テンプレート領域内の座標を(i,j)、水平画素数をW、垂直画素数をHと表記する。特徴量T(i,j)は下記式で表現される。

Figure 0006685823
FIG. 6A shows an example of a subject model (template) in template matching. The matching unit 502 treats the pixel pattern of the image 601 showing the target area of the main subject as a feature amount. FIG. 6A shows an example in which the characteristic amount 602 of the image 601 is expressed in a matrix, and the luminance signal of the pixel data is used as the characteristic amount. The feature amount is expressed as T (i, j), the coordinates in the template region are expressed as (i, j), the number of horizontal pixels is W, and the number of vertical pixels is H. The feature amount T (i, j) is expressed by the following equation.
Figure 0006685823

図6(B)は、主被写体を探索する場合の画像情報を例示し、マッチング処理を行う範囲の画像603を示す。探索画像における座標は、(x,y)で表現する。マッチングの評価値を取得するための部分領域604を矩形枠で示す。部分領域604の特徴量605については、図6(A)のテンプレートと同様に画像データの輝度信号を特徴量とする。特徴量をS(i,j)と表記し、部分領域604内の座標を(i,j)、水平画素数をW、垂直画素数をHと表記する。特徴量S(i,j)は、下記式で表現される。

Figure 0006685823
FIG. 6B exemplifies image information when searching for a main subject, and shows an image 603 in a range in which matching processing is performed. The coordinates in the search image are represented by (x, y). A partial area 604 for obtaining the matching evaluation value is shown by a rectangular frame. As for the feature amount 605 of the partial area 604, the brightness signal of the image data is used as the feature amount as in the template of FIG. The feature amount is expressed as S (i, j), the coordinates in the partial region 604 are expressed as (i, j), the number of horizontal pixels is W, and the number of vertical pixels is H. The feature amount S (i, j) is expressed by the following equation.
Figure 0006685823

テンプレート領域と部分領域604との類似性を評価する演算方法として、差分絶対和、いわゆるSAD(Sum of Absolute Difference)値を用いる方法がある。SAD値(V(x,y)と記す)は、下記式により算出される。

Figure 0006685823
As a calculation method for evaluating the similarity between the template area and the partial area 604, there is a method of using a difference absolute sum, that is, a so-called SAD (Sum of Absolute Difference) value. The SAD value (denoted as V (x, y)) is calculated by the following formula.
Figure 0006685823

マッチング部502は、部分領域604を探索範囲の画像603の左上から順に1画素ずつずらしながら、SAD値V(x,y)を演算する。算出されたSAD値V(x,y)が最小値を示す座標(x,y)はテンプレートと最も類似した位置を示す。つまり、SAD値V(x,y)が最小値を示す位置は、探索画像において主被写体が存在する可能性の高い位置である。   The matching unit 502 calculates the SAD value V (x, y) while shifting the partial area 604 by one pixel in order from the upper left of the image 603 in the search range. The coordinates (x, y) at which the calculated SAD value V (x, y) exhibits the minimum value indicate the position most similar to the template. That is, the position where the SAD value V (x, y) exhibits the minimum value is the position where the main subject is likely to exist in the search image.

特徴量として輝度信号の1次元の情報を用いる例を説明したが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてSAD値に関して説明したが、正規化相互相関いわゆるNCC(Normalized Cross-Correlation)等の、異なる演算方法を用いてもよい。本発明の適用上、テンプレートマッチングに限定されず、ヒストグラムの類似性に基づくヒストグラムマッチング等の他のマッチング方式であってもよい。   Although the example in which the one-dimensional information of the luminance signal is used as the feature amount has been described, three-dimensional information such as a signal of lightness, hue, and saturation may be treated as the feature amount. Further, although the SAD value has been described as the calculation method of the matching evaluation value, a different calculation method such as normalized cross-correlation (NCC) may be used. Application of the present invention is not limited to template matching, and other matching methods such as histogram matching based on histogram similarity may be used.

図5の被写体領域決定部503は、マッチング部502より複数の評価値と領域情報を取得し、主被写体の候補領域から最も評価値が小さい領域を被写体領域として決定する。しかし、主被写体と画素パターンや色ヒストグラムが似ている類似被写体が主被写体の近くにいる場面では類似被写体領域の評価値が小さくなってしまうことがある。その対策として、焦点検出用信号処理部224から出力されるデフォーカス量を利用して主被写体と類似被写体を区別する方法がある。しかし、この方法では主被写体と類似被写体が光軸方向にて近くにいる場面や、主被写体が類似被写体とすれ違って一時的に撮像面上からいなくなった間に光軸方向に移動する場面にて、主被写体と類似被写体とを区別することが難しい。つまりデフォーカス情報のみでは主被写体と類似被写体の判別に限界がある。そこで本実施形態では、デフォーカス情報に加えて、被写体の光軸ベクトルを参照することにより、追跡性能をさらに向上させることができる。   The subject region determination unit 503 in FIG. 5 acquires a plurality of evaluation values and region information from the matching unit 502, and determines the region having the smallest evaluation value from the candidate regions of the main subject as the subject region. However, the evaluation value of the similar subject area may be small in a scene in which a similar subject having a pixel pattern or a color histogram similar to that of the main subject is near the main subject. As a countermeasure, there is a method of distinguishing the main subject and the similar subject by using the defocus amount output from the focus detection signal processing unit 224. However, with this method, the main subject and the similar subject are close to each other in the optical axis direction, or the main subject passes the similar subject and moves in the optical axis direction while temporarily disappearing from the imaging surface. Therefore, it is difficult to distinguish the main subject and the similar subject. That is, there is a limit to the discrimination between the main subject and the similar subject only with the defocus information. Therefore, in the present embodiment, the tracking performance can be further improved by referring to the optical axis vector of the subject in addition to the defocus information.

図7を参照して、光軸ベクトル算出部504について説明する。光軸ベクトルとは、撮像面上の各焦点検出領域内に存在する被写体像の位置変化ベクトルの光軸成分を指す。図7は任意の焦点検出領域における被写体にピントが合う像面位置とフォーカスレンズ位置を、像面値に変換した値の時間変化を例示する。横軸は時間軸であり、縦軸は像面値を表わす。各時刻t1,t2において、フォーカスレンズ位置を黒塗りの円形記号で表わし、被写体にピントが合う位置を黒塗りの四角形記号で表わしている。   The optical axis vector calculation unit 504 will be described with reference to FIG. 7. The optical axis vector refers to the optical axis component of the position change vector of the subject image existing in each focus detection area on the imaging surface. FIG. 7 exemplifies a temporal change of a value obtained by converting an image plane position and a focus lens position where an object is in focus in an arbitrary focus detection area into an image plane value. The horizontal axis represents the time axis, and the vertical axis represents the image plane value. At each of the times t1 and t2, the focus lens position is represented by a black circle symbol, and the position at which the subject is in focus is represented by a black rectangle symbol.

任意の焦点検出領域を、x方向にc番目であってy方向にr番目の焦点検出領域としてその位置を(c,r)により表記する。任意の焦点検出領域での過去(時刻t1)のデフォーカス量をDpre(c,r)と表記し、当該焦点検出領域での現在(時刻t2)のデフォーカス量をDcur(c,r)と表記する。光軸ベクトルをv(c,r)と表記し、フォーカスレンズ204の駆動量を像面値に変換した値をLと表記する。図7より、光軸ベクトルv(c,r)は下記式で算出される。

Figure 0006685823
なお、フォーカスレンズ204の駆動量については、当該駆動量をデフォーカス量に変換する換算係数と、フォーカスレンズ204の駆動量1パルスあたりの繰り出し量を乗算することで像面値Lに変換することができる。フォーカスレンズ駆動量からデフォーカス量への換算係数や1パルスあたりの繰り出し量の情報はROM262に格納されているので、カメラ制御部225は必要に応じてバス231を介して取得できる。また、焦点検出用信号処理部224が算出したデフォーカス量はフォーカスレンズ204の駆動量へ変換することができる。 An arbitrary focus detection area is a c-th focus detection area in the x direction and an r-th focus detection area in the y direction, and its position is represented by (c, r). The past (time t1) defocus amount in an arbitrary focus detection area is expressed as Dpre (c, r), and the current (time t2) defocus amount in the focus detection area is expressed as Dcur (c, r). write. The optical axis vector is represented by v (c, r), and the value obtained by converting the drive amount of the focus lens 204 into the image plane value is represented by L. From FIG. 7, the optical axis vector v (c, r) is calculated by the following formula.
Figure 0006685823
It should be noted that the drive amount of the focus lens 204 is converted into the image plane value L by multiplying the conversion coefficient for converting the drive amount into the defocus amount by the extension amount per pulse of the drive amount of the focus lens 204. You can Since the conversion coefficient from the focus lens drive amount to the defocus amount and the information about the amount of extension per pulse are stored in the ROM 262, the camera control unit 225 can obtain it via the bus 231 as necessary. The defocus amount calculated by the focus detection signal processing unit 224 can be converted into the drive amount of the focus lens 204.

図8を参照して、フォーカスレンズ204の駆動量の決定方法を説明する。図8は被写体801の追跡を説明する画像例を示す。画像内の被写体領域802は、1フレーム前に被写体領域決定部503が決定した被写体領域であり、その重心点を点803で示す。矩形領域は重心点803を内包する焦点検出領域804である。被写体801を追跡する際の、フォーカスレンズ204の駆動量については、被写体領域802の重心点803を内包する焦点検出領域804において算出されたデフォーカス量を反映してカメラ制御部225が決定する。この時、主被写体に対するデフォーカス量はSDRAM261に貯蓄し続けるので、一定時間のデフォーカス量の時間傾向に基づいて近似曲線を算出することにより、次の被写体位置を予測することができる。予測位置に基づいてフォーカスレンズ204の駆動量を決定することができる。   A method of determining the drive amount of the focus lens 204 will be described with reference to FIG. FIG. 8 shows an example of an image for explaining the tracking of the subject 801. The subject area 802 in the image is the subject area determined by the subject area determination unit 503 one frame before, and the center of gravity thereof is indicated by a point 803. The rectangular area is a focus detection area 804 including the center of gravity 803. The camera control unit 225 determines the drive amount of the focus lens 204 when tracking the subject 801 by reflecting the defocus amount calculated in the focus detection area 804 including the center of gravity 803 of the subject area 802. At this time, since the defocus amount for the main subject continues to be stored in the SDRAM 261, the next subject position can be predicted by calculating the approximate curve based on the time tendency of the defocus amount for a certain period of time. The drive amount of the focus lens 204 can be determined based on the predicted position.

ところで、動画撮影モード等の場合、単位時間における焦点検出用の視差画像サンプリング数が多い。このようなモードに関しては、光軸ベクトルの絶対量が小さいため、焦点検出誤差によるノイズの影響を受ける可能性がある。そこで本実施形態では、光軸ベクトル算出部504により算出された光軸ベクトルはSDRAM261に記憶され、数フレームに亘る移動平均値として更新していく処理が行われる。これにより、ノイズを低減させた光軸ベクトルを算出することができる。なお、ノイズの低減方法は移動平均法に限定されず、数フレームの間にSDRAM261へ記憶されたデフォーカス量に対し、ローパスフィルタ処理を行う方法がある。このようにデフォーカス量の変化を平滑化してから光軸ベクトルを算出する各種の方法を用いてもよい。   By the way, in the moving image shooting mode and the like, the number of parallax image samples for focus detection per unit time is large. With respect to such a mode, since the absolute amount of the optical axis vector is small, there is a possibility of being affected by noise due to focus detection error. Therefore, in the present embodiment, the optical axis vector calculated by the optical axis vector calculation unit 504 is stored in the SDRAM 261 and is updated as a moving average value over several frames. This makes it possible to calculate an optical axis vector with reduced noise. Note that the noise reduction method is not limited to the moving average method, and there is a method of performing low-pass filter processing on the defocus amount stored in the SDRAM 261 during several frames. As described above, various methods of smoothing the change in the defocus amount and then calculating the optical axis vector may be used.

図5の距離・ベクトル比較部505は、SDRAM261に記憶された被写体のデフォーカス量および光軸ベクトルと、各焦点検出領域におけるデフォーカス量および光軸ベクトルとが一致しているか否かを判定する。以下、判定用の閾値について説明する。デフォーカス量と光軸ベクトルの閾値は、マッチング部502から出力される複数の評価値と、各領域の中心点座標の分散値に基づいて決定され、追跡信頼性に応じて動的に設定される。具体的には、マッチング部502から出力されるN個の評価値のうち、座標に対応するi番目の評価値をViと表記し、N個の評価値のうちで最小の評価値をVminと表記する。対象領域の中心座標(Ciと記す)に基づいて、下記式から評価値重心座標(Gと記す)が算出される。

Figure 0006685823
The distance / vector comparison unit 505 in FIG. 5 determines whether the defocus amount and the optical axis vector of the subject stored in the SDRAM 261 and the defocus amount and the optical axis vector in each focus detection area match. . Hereinafter, the threshold value for determination will be described. The defocus amount and the threshold value of the optical axis vector are determined based on the plurality of evaluation values output from the matching unit 502 and the variance value of the center point coordinates of each area, and are dynamically set according to the tracking reliability. It Specifically, of the N evaluation values output from the matching unit 502, the i-th evaluation value corresponding to the coordinate is written as Vi, and the minimum evaluation value of the N evaluation values is Vmin. write. Based on the center coordinates (denoted as Ci) of the target area, the evaluation value barycentric coordinates (denoted as G) are calculated from the following equation.
Figure 0006685823

評価値Viは、最小の評価値Vminで除算することで正規化される。また、先述したように評価値Viはテンプレートとの差分を意味するため、値が小さいほどテンプレートとの類似度が高い。そこで、評価値Viで重みづけした評価値重心座標Gを算出するために、中心座標Ciを、正規化した評価値Vi/Vminで除算し、その総和をNで除算して平均化する演算が行われる。下記式のように、評価値重心座標Gと各領域の中心座標Ciとのユークリッド距離を、各評価値Viで重みづけした合計値を求める演算が行われ、追跡信頼性評価値(Rと記す)が算出される。

Figure 0006685823
The evaluation value Vi is normalized by dividing by the minimum evaluation value Vmin. Further, as described above, the evaluation value Vi means the difference from the template, and thus the smaller the value, the higher the similarity to the template. Therefore, in order to calculate the evaluation value barycentric coordinate G weighted with the evaluation value Vi, the central coordinate Ci is divided by the normalized evaluation value Vi / Vmin, and the sum is divided by N to average. Done. As shown in the following formula, the Euclidean distance between the evaluation value barycentric coordinate G and the center coordinate Ci of each area is weighted by each evaluation value Vi, and a calculation is performed to obtain a total value, which is a tracking reliability evaluation value (denoted as R). ) Is calculated.
Figure 0006685823

追跡信頼性評価値Rは分散値であるので、値が小さいほど第1の被写体候補領域座標のばらつきが小さく追跡の信頼性が高くなる。したがって、追跡信頼性評価値Rが小さいときには、高い評価値をもつ領域が密集しており、類似被写体を主被写体と間違える可能性が低い。そのため距離・ベクトル比較部505は判定用の閾値を変更し、デフォーカス量と光軸ベクトルの一致度を判定するための許容範囲を広げて、デフォーカス量と光軸ベクトルの影響を小さくする。こうすることで、誤測距による影響を軽減させることができる。反対に、追跡信頼性評価値Rが大きいときには、高い評価値をもつ領域がばらついており、類似被写体を誤追跡する可能性が高くなる。そのため距離・ベクトル比較部505は判定用の閾値を変更し、デフォーカス量と光軸ベクトル量の一致度を判定するための許容範囲を狭めて、デフォーカス量と光軸ベクトルの影響を大きくする。なお、評価値重心座標Gと追跡信頼性評価値Rについて評価値Viで重みづけを行う方法を説明したが、この方法に限定されない。重みづけを行わない方法や他の方法を用いてもよい。   Since the tracking reliability evaluation value R is a variance value, the smaller the value, the smaller the variation in the coordinates of the first subject candidate area and the higher the tracking reliability. Therefore, when the tracking reliability evaluation value R is small, regions having high evaluation values are densely arranged, and it is unlikely that the similar subject is mistaken for the main subject. Therefore, the distance / vector comparison unit 505 changes the threshold for determination, widens the allowable range for determining the degree of coincidence between the defocus amount and the optical axis vector, and reduces the influence of the defocus amount and the optical axis vector. By doing so, the influence of erroneous distance measurement can be reduced. On the other hand, when the tracking reliability evaluation value R is large, the areas having a high evaluation value are scattered, and the possibility of erroneous tracking of a similar subject increases. Therefore, the distance / vector comparison unit 505 changes the threshold for determination, narrows the allowable range for determining the degree of coincidence between the defocus amount and the optical axis vector amount, and increases the influence of the defocus amount and the optical axis vector. . Although the method of weighting the evaluation value centroid coordinate G and the tracking reliability evaluation value R with the evaluation value Vi has been described, the present invention is not limited to this method. A method without weighting or another method may be used.

次に、図9、図10のフローチャートを参照して、図5の被写体追跡部271が行う被写体追跡処理を詳細に説明する。まず図9を用いて被写体追跡の概要を説明する。判定処理S901で被写体追跡部271は、テンプレート画像の有無を判定する。ユーザが追跡モードを選択した時点から初期フレームであればテンプレート画像が無いので、この場合(S901でNO)、処理S902へ進む。テンプレート画像が既に存在する場合には、処理S906以降および処理S909以降の並行処理が実行される。   Next, the subject tracking processing performed by the subject tracking unit 271 of FIG. 5 will be described in detail with reference to the flowcharts of FIGS. 9 and 10. First, the outline of subject tracking will be described with reference to FIG. In determination processing S901, the subject tracking unit 271 determines whether or not there is a template image. Since the template image does not exist in the initial frame from the time when the user selects the tracking mode, in this case (NO in S901), the process proceeds to step S902. If the template image already exists, the parallel processing from step S906 onward and step S909 onward is executed.

テンプレート画像を登録する必要があると判定された場合、SDRAM261の撮像画像(A+B像)のデータは被写体追跡部271に入力される(S902)。被写体検出部501は、入力された撮像画像に基づいて画像上の特徴量から被写体検出を行う(S903)。検出された被写体領域はテンプレートとして登録される(S904)。初期フレームにおける被写体追跡処理では、テンプレートの登録のみが行われる。判定処理S905に進み、追跡モードの終了判定が行われる。ここで、追跡モードを終了すると(S905でYES)、被写体追跡モードが終了する。追跡モードの終了が判定されない場合には、判定処理S901に戻る。   When it is determined that the template image needs to be registered, the data of the captured image (A + B image) of the SDRAM 261 is input to the subject tracking unit 271 (S902). The subject detection unit 501 performs subject detection from the feature amount on the image based on the input captured image (S903). The detected subject area is registered as a template (S904). In the subject tracking process in the initial frame, only template registration is performed. Proceeding to the determination processing S905, the termination determination of the tracking mode is performed. Here, when the tracking mode ends (YES in S905), the subject tracking mode ends. If the end of the tracking mode is not determined, the process returns to the determination process S901.

被写体追跡を開始してから2フレーム以降にはテンプレート画像が存在するので、処理S906および処理S909に進む。処理S906で入力される撮像画像(A+B像)に対して、テンプレートに基づいてマッチング部502はマッチング処理を実行し(S907)、第1の被写体候補領域を検出する(S908)。   Since the template image exists in the second and subsequent frames after the subject tracking is started, the process proceeds to step S906 and step S909. The matching unit 502 performs matching processing on the captured image (A + B image) input in processing S906 based on the template (S907), and detects the first subject candidate area (S908).

一方、処理S909では、焦点検出用信号処理部224から被写体追跡部271にデフォーカス情報が入力される。光軸ベクトル算出部504は光軸ベクトルを算出し、距離・ベクトル比較部505は第2の被写体候補領域を検出する(S910)。第2の被写体候補領域の検出方法の詳細については後述する。   On the other hand, in step S909, defocus information is input from the focus detection signal processing unit 224 to the subject tracking unit 271. The optical axis vector calculation unit 504 calculates the optical axis vector, and the distance / vector comparison unit 505 detects the second subject candidate area (S910). Details of the method of detecting the second subject candidate area will be described later.

処理S908、S910の後、処理S911へ進み、第2の被写体候補領域から第1の被写体候補領域の絞り込みが行われる。被写体追跡に距離情報を付加するために、テンプレートマッチングに基づく第1の被写体候補領域(S908の出力)の中心点のうち、距離・ベクトル比較部505が検出した第2の被写体候補領域(S910の出力)内に存在する点が抽出される。第1の被写体候補領域は、評価値が小さいほどテンプレートとの類似度が高い。そのため処理S912では、絞り込みにより残った第1の被写体候補領域の中で最も評価値が小さい被写体候補領域を被写体領域決定部503が被写体領域として決定する。   After steps S908 and S910, the process proceeds to step S911, and the first subject candidate area is narrowed down from the second subject candidate area. In order to add distance information to the object tracking, of the center points of the first object candidate area (output of S908) based on template matching, the second object candidate area (of S910) detected by the distance / vector comparison unit 505 is detected. Points existing in (output) are extracted. The smaller the evaluation value of the first subject candidate area, the higher the degree of similarity with the template. Therefore, in step S912, the subject area determination unit 503 determines the subject candidate area having the smallest evaluation value among the first subject candidate areas remaining after the narrowing down as the subject area.

ところで、被写体領域決定部503は常に被写体領域を決定できるとは限らない。例えば、被写体の形状や色分布が大きく変化してマッチング部502から出力される評価値が所定値よりも小さい場合には、被写体領域を決定できない。また、処理S911において第1の被写体候補領域と第2の被写体候補領域との間で一致する領域が無いために第1の被写体候補領域が無くなった場合には、被写体領域を決定できない。このように、被写体領域を決定できない状態をLOST状態と定義する。被写体領域決定部503において被写体領域を決定できる状態をFIND状態と定義する。判定処理S913ではFIND/LOST状態の判定が行われ、処理がS914、S917にそれぞれ分岐する。   By the way, the subject area determination unit 503 cannot always determine the subject area. For example, if the shape or color distribution of the subject changes significantly and the evaluation value output from the matching unit 502 is smaller than a predetermined value, the subject area cannot be determined. Further, in the processing S911, if there is no matching area between the first subject candidate area and the second subject candidate area and the first subject candidate area is lost, the subject area cannot be determined. In this way, the state in which the subject area cannot be determined is defined as the LOST state. The state in which the subject area determination unit 503 can determine the subject area is defined as the FIND state. In the determination processing S913, the FIND / LOST state is determined, and the processing branches to S914 and S917, respectively.

FIND状態のときに処理S914へ進み、被写体のテンプレート画像が最新の被写体画像に更新される。その後、被写体に焦点を合わせ続けるためにフォーカスレンズ204の駆動量を決定する必要がある。フォーカスレンズ204の駆動量は、被写体領域決定部503が決定した主被写体領域における重心位置のデフォーカス量に基づいて決定される(S915)。この時、フォーカスレンズ204の駆動量を像面値に換算した値は、被写体の光軸ベクトルの大きさと同じである。このため、フォーカスレンズ204の駆動量は被写体の光軸ベクトルとしてSDRAM261に記憶される(S916)。そして判定処理S905へ進む。一方、判定処理S913にて判定結果がLOST状態のときには、主被写体領域が決まらず主被写体に対するデフォーカス量が不明である。このため、フォーカスレンズ204の駆動が停止される(S917)。LOST状態が所定時間(判定用の閾値時間)以上続いたか否かが判定される(S918)。LOST状態が所定時間以上続いた場合(S918でYES)、被写体のテンプレートが削除される(S919)。テンプレートの削除後に判定処理S901に戻り、判定結果(NO)により、再びテンプレートの登録が行われる(S904)。また、LOST状態が所定時間未満である場合(S918でNO)、テンプレートを保持したままで、判定処理S905へ移行する。なお、本実施形態では判定処理S918で所定時間以上のLOST状態を判定条件として採用しているが、その他の条件に変更してもよい。   In the FIND state, the process proceeds to step S914, and the template image of the subject is updated to the latest subject image. After that, it is necessary to determine the drive amount of the focus lens 204 in order to continue focusing on the subject. The drive amount of the focus lens 204 is determined based on the defocus amount of the gravity center position in the main subject area determined by the subject area determination unit 503 (S915). At this time, the value obtained by converting the drive amount of the focus lens 204 into the image plane value is the same as the magnitude of the optical axis vector of the subject. Therefore, the drive amount of the focus lens 204 is stored in the SDRAM 261 as the optical axis vector of the subject (S916). Then, the process proceeds to the determination process S905. On the other hand, when the determination result in the determination processing S913 is the LOST state, the main subject area is not determined and the defocus amount for the main subject is unknown. Therefore, the drive of the focus lens 204 is stopped (S917). It is determined whether the LOST state has continued for a predetermined time (a threshold time for determination) or more (S918). If the LOST state continues for a predetermined time or longer (YES in S918), the subject template is deleted (S919). After deleting the template, the process returns to the determination process S901, and the template is registered again according to the determination result (NO) (S904). When the LOST state is less than the predetermined time (NO in S918), the template is held and the process proceeds to the determination process S905. In this embodiment, the LOST state for a predetermined time or longer is adopted as the judgment condition in the judgment processing S918, but it may be changed to other conditions.

続いて、図10のフローチャートを参照し、距離・ベクトル比較部505における第2の被写体候補領域の決定方法を説明する。距離・ベクトル比較部505は、設定した複数の焦点検出領域に対して1つずつ演算処理を実行し、各焦点検出領域が主被写体領域であるか、またはその他の領域であるかを判別する。まず、光軸ベクトル算出部504は入力されたデフォーカス量に基づいて光軸ベクトルを算出する(S1001)。この後、1フレーム前の状態がFIND状態であったかLOST状態であったかが判定される(S1002)。1フレーム前の状態がFIND状態であった場合(S1002でYES)、判定処理S1003に進み、1フレーム前の状態がLOST状態であった場合(S1002でNO)、判定処理S1006に進む。判定処理S1003では、算出されたデフォーカス量が所定範囲以内であるかどうかが判定される。デフォーカス量が所定範囲以内である場合(S1003でYES)、判定処理S1004に進み、デフォーカス量が所定範囲以内でない場合(S1003でNO)、処理S1008に移行する。   Subsequently, a method of determining the second subject candidate area in the distance / vector comparison unit 505 will be described with reference to the flowchart of FIG. The distance / vector comparison unit 505 performs a calculation process on each of the set focus detection areas, and determines whether each focus detection area is the main subject area or another area. First, the optical axis vector calculation unit 504 calculates the optical axis vector based on the input defocus amount (S1001). After this, it is determined whether the state one frame before was the FIND state or the LOST state (S1002). When the state one frame before is the FIND state (YES in S1002), the process proceeds to the determination process S1003, and when the state one frame before is the LOST state (NO in S1002), the process proceeds to the determination process S1006. In the determination processing S1003, it is determined whether the calculated defocus amount is within a predetermined range. If the defocus amount is within the predetermined range (YES in S1003), the process proceeds to determination process S1004, and if the defocus amount is not within the predetermined range (NO in S1003), the process proceeds to process S1008.

判定処理S1004では、処理S1001で算出された光軸ベクトルと、図9の処理S916でSDRAM261に記憶された主被写体の光軸ベクトルとが比較される。これらの光軸ベクトル同士の方向および大きさが一致していると判定された場合、処理S1005に進み、方向または大きさが一致していないと判定された場合には処理S1008へ移行する。ここで光軸ベクトルが一致するとは、光軸ベクトルの方向が同じであり、かつ処理S1001で算出された光軸ベクトルとSDRAM261に記憶された主被写体の光軸ベクトルとの大きさの差が所定の閾値以下であることとする。つまり、判定処理S1004での光軸ベクトルは、焦点検出領域に対応する被写体の光軸方向の速度を意味するので、同じ被写体の追尾が継続している間、光軸ベクトルの方向が一致しており、光軸ベクトルの大きさの差は小さい。   In the determination processing S1004, the optical axis vector calculated in the processing S1001 is compared with the optical axis vector of the main subject stored in the SDRAM 261 in the processing S916 of FIG. If it is determined that the directions and sizes of these optical axis vectors are the same, the process proceeds to step S1005, and if it is determined that the directions or the sizes are not the same, the process proceeds to step S1008. The coincidence of the optical axis vectors means that the directions of the optical axis vectors are the same, and the difference in size between the optical axis vector calculated in step S1001 and the optical axis vector of the main subject stored in the SDRAM 261 is predetermined. Is less than or equal to the threshold value of. That is, the optical axis vector in the determination processing S1004 means the velocity of the subject in the optical axis direction corresponding to the focus detection area. Therefore, while the tracking of the same subject continues, the directions of the optical axis vectors match. Therefore, the difference in the magnitude of the optical axis vector is small.

処理S1005にて距離・ベクトル比較部505は、判定対象である焦点検出領域を主被写体領域と見なし、第2の被写体候補領域とする。また、判定処理S1003、S1004にてどちらかの一方でも条件を満たさない場合、距離・ベクトル比較部505は判定対象の焦点検出領域を主被写体以外の被写体領域であると見なす(S1008)。先述したように、撮像装置は常に主被写体に焦点を合わせ続けているため、判定処理S1003でデフォーカス量が所定範囲外であると判定された場合には主被写体を捉えていないと見なされる。また判定処理S1004で光軸ベクトルの方向または大きさが一致していないと判定された場合にも主被写体を捉えていないと見なされる。   In step S1005, the distance / vector comparison unit 505 regards the focus detection area that is the determination target as the main subject area and sets it as the second subject candidate area. If either one of the conditions is not satisfied in the determination processes S1003 and S1004, the distance / vector comparison unit 505 regards the focus detection area to be determined as an object area other than the main object (S1008). As described above, since the imaging device always keeps the focus on the main subject, when it is determined that the defocus amount is out of the predetermined range in the determination process S1003, it is considered that the main subject is not captured. Also, when it is determined in the determination processing S1004 that the directions or sizes of the optical axis vectors do not match, it is considered that the main subject is not captured.

一方、判定処理S1002の判定結果がLOST状態である場合、判定処理S1006、S1007が実行される。判定処理S1006、S1007の処理内容はそれぞれ、判定処理S1003、S1004と同様である。判定処理S1006にて、算出されたデフォーカス量が小さく、所定範囲以内である場合、処理S1005に進む。デフォーカス量が所定範囲外である場合には判定処理S1007に進み、判定対象の焦点検出領域における光軸ベクトルとSDRAM261に記憶された主被写体の光軸ベクトルとの方向および大きさが比較される。これらの光軸ベクトルの方向および大きさが一致した場合、処理S1005へ進み、光軸ベクトルの方向または大きさが一致していない場合には処理S1008へ進む。処理S1005、S1008の後、判定処理S1009に進み、設定した全ての焦点検出領域について処理が終了したか否かについて判定が行われる。全ての焦点検出領域について終了した場合には、一連の処理を終えるが、未終了の場合には処理S1001に戻って処理を続行する。   On the other hand, when the determination result of the determination process S1002 is the LOST state, the determination processes S1006 and S1007 are executed. The processing contents of the determination processes S1006 and S1007 are the same as those of the determination processes S1003 and S1004, respectively. In the determination processing S1006, when the calculated defocus amount is small and is within the predetermined range, the processing proceeds to processing S1005. If the defocus amount is out of the predetermined range, the process proceeds to a determination process S1007, and the direction and size of the optical axis vector in the focus detection area to be determined and the optical axis vector of the main subject stored in the SDRAM 261 are compared. . If the directions and sizes of the optical axis vectors match, the process proceeds to step S1005, and if the directions and sizes of the optical axis vectors do not match, the process proceeds to step S1008. After the processes S1005 and S1008, the process proceeds to a determination process S1009, and it is determined whether or not the process is completed for all the set focus detection areas. If all focus detection areas have been completed, the series of processes is ended, but if not completed, the process returns to step S1001 to continue the process.

次に図11から図14を参照して具体例を説明する。図11、図12は1フレーム前の状態がFIND状態である場合(図10の判定処理S1002でYES)の第2の被写体候補領域の決定方法に関する説明図である。図11は2匹の類似する犬(被写体)がいる場面を例示する。右側の犬を主被写体1101とし、左側の犬を類似被写体1102とする。   Next, a specific example will be described with reference to FIGS. 11 to 14. 11 and 12 are explanatory diagrams regarding the method of determining the second subject candidate region when the state one frame before is the FIND state (YES in the determination process S1002 in FIG. 10). FIG. 11 illustrates a scene in which there are two similar dogs (subjects). The dog on the right side is the main subject 1101, and the dog on the left side is the similar subject 1102.

図11(A)は、画面奥から手前に移動する主被写体1101に対して、その左側で同じ場所に停留する類似被写体1102を撮影するシーンを例示する。主被写体1101に対する焦点検出領域1103と類似被写体に対する焦点検出領域1104をそれぞれ矩形枠で示す。図11(B)は、マッチング部502から出力される第1の被写体候補領域の中心点1105を黒塗りの三角形記号で示す。   FIG. 11A illustrates a scene in which a similar subject 1102 staying at the same place on the left side of the main subject 1101 moving from the back to the front of the screen is photographed. The focus detection area 1103 for the main subject 1101 and the focus detection area 1104 for the similar subject are shown by rectangular frames. In FIG. 11B, the center point 1105 of the first subject candidate area output from the matching unit 502 is indicated by a black triangle symbol.

図12(A)は主被写体1101、類似被写体1102の位置に対するそれぞれの焦点検出領域1103、1104におけるデフォーカス量の時間変化を例示する。横軸は時間軸であり、縦軸はデフォーカス量を表す。図12(B)は、焦点検出領域1103、1104におけるそれぞれの光軸ベクトルの時間変化を例示する。横軸は時間軸であり、縦軸は光軸ベクトルを表す。光軸の向きとしては、撮像装置から見た場合に奥方向を正方向とし、手前方向を負方向とする。主被写体1101については円形の記号で示し、類似被写体1102については四角形の記号で示している。   FIG. 12A illustrates a temporal change of the defocus amount in each of the focus detection areas 1103 and 1104 with respect to the positions of the main subject 1101 and the similar subject 1102. The horizontal axis represents the time axis and the vertical axis represents the defocus amount. FIG. 12B exemplifies a temporal change of each optical axis vector in the focus detection areas 1103 and 1104. The horizontal axis represents the time axis and the vertical axis represents the optical axis vector. Regarding the direction of the optical axis, when viewed from the imaging device, the back direction is the positive direction and the front direction is the negative direction. The main subject 1101 is indicated by a circular symbol, and the similar subject 1102 is indicated by a rectangular symbol.

図12(A)では、同じ場所に停留している類似被写体1102に関するデフォーカス量が時間的に変化している。その理由は、フォーカスレンズ204が主被写体1101に合わせて移動しているためである。図12(A)の2本の一点鎖線はデフォーカス量の閾値1201を示している。デフォーカス量が2本の一点鎖線の間の範囲内にある場合に主被写体と見なすことができるが、類似被写体に関するデフォーカス量が当該範囲内に入る期間をT1に示す。期間T1では、主被写体および類似被写体に関するデフォーカス領域が閾値1201内に収まっているので、両者を区別することができない。そこで、図12(B)に示す光軸ベクトルの時間傾向、つまり期間T1での主被写体および類似被写体に関する光軸ベクトルの相違から両者を区別することができる。図12(B)のように光軸方向において動かない類似被写体1102では、その光軸ベクトル量がゼロ近辺を維持する。これに対して、光軸手前方向に移動する主被写体1101では、その光軸ベクトル量がゼロでない値V1を維持する。そのため、類似被写体と主被写体とを判別することができる。図11(B)には、光軸ベクトル量がV1を維持する焦点検出領域を抽出することで得られる第2の被写体候補領域1106を長方形枠で示している。   In FIG. 12A, the defocus amount regarding the similar subject 1102 staying at the same place changes with time. The reason is that the focus lens 204 is moving according to the main subject 1101. Two dashed-dotted lines in FIG. 12A indicate the defocus amount threshold 1201. When the defocus amount is within the range between the two alternate long and short dash lines, it can be regarded as the main subject, but T1 indicates a period in which the defocus amount for the similar subject falls within the range. In the period T1, since the defocus areas relating to the main subject and the similar subject are within the threshold 1201, it is impossible to distinguish them. Therefore, the two can be distinguished from each other based on the temporal tendency of the optical axis vector shown in FIG. 12B, that is, the difference between the optical axis vectors of the main subject and the similar subject in the period T1. In the similar subject 1102 that does not move in the optical axis direction as shown in FIG. 12B, the optical axis vector amount maintains around zero. On the other hand, in the main subject 1101 that moves toward the front side of the optical axis, the optical axis vector amount maintains a non-zero value V1. Therefore, it is possible to distinguish between the similar subject and the main subject. In FIG. 11B, the second subject candidate region 1106 obtained by extracting the focus detection region in which the optical axis vector amount maintains V1 is shown by a rectangular frame.

以上の処理では、複数の被写体に関するデフォーカス量の時間変化と光軸ベクトルの時間変化に基づき、第1の被写体候補領域と第2の被写体候補領域をすり合わせることで主被写体と類似被写体を正確に区別できる。すなわち、デフォーカス量の時間変化だけでは区別が困難な主被写体と類似被写体を、光軸ベクトルの時間変化に基づいて判別することによって、主被写体の正確な追跡を実現できる。   In the above processing, the main subject and the similar subject are accurately identified by grinding the first subject candidate region and the second subject candidate region based on the time change of the defocus amount and the time change of the optical axis vector for a plurality of subjects. Can be distinguished. That is, accurate tracking of the main subject can be realized by discriminating the main subject and the similar subject, which are difficult to be distinguished only by the temporal change of the defocus amount, based on the temporal change of the optical axis vector.

続いて図13、図14の具体例を用いて、1フレーム前の状態がLOST状態である場合(図10の判定処理S1002でNO)の被写体領域判定について説明する。図13は、奥から手前に主被写体1301が進んできており、類似被写体1302が画面の右側から左側へ横切っているシーンを例示する。撮影開始時刻t1を起点として図13(A)は時刻t2で撮影された画像を示し、図13(B)は時刻t3で撮影された画像を示す。図13(C)は時刻t4で撮影された画像を示す。「t1<t2<t3<t4」とする。   Subsequently, the subject area determination in the case where the state one frame before is the LOST state (NO in determination processing S1002 in FIG. 10) will be described with reference to the specific examples in FIGS. 13 and 14. FIG. 13 illustrates a scene in which the main subject 1301 is moving from the back to the front, and the similar subject 1302 crosses from the right side to the left side of the screen. 13A shows an image taken at time t2, and FIG. 13B shows an image taken at time t3, starting from the shooting start time t1. FIG. 13C shows an image taken at time t4. Let “t1 <t2 <t3 <t4”.

図13(A)では主被写体1301の領域1303が決定され、FIND状態である。主被写体に対する焦点検出領域1304と類似被写体1302に対する焦点検出領域1305をそれぞれ示す。図13(B)では類似被写体1302が主被写体1301に重なっており、主被写体1301が隠れるので、撮影画面上で見えなくなる。このため、LOST状態となる。図13(C)では再び主被写体1301が出現する。   In FIG. 13A, the area 1303 of the main subject 1301 is determined and is in the FIND state. A focus detection area 1304 for the main subject and a focus detection area 1305 for the similar subject 1302 are shown. In FIG. 13B, the similar subject 1302 overlaps the main subject 1301 and the main subject 1301 is hidden, so that it cannot be seen on the shooting screen. Therefore, the LOST state is set. In FIG. 13C, the main subject 1301 appears again.

図14(A)は各被写体に対する焦点検出領域1304、1305におけるデフォーカス量の時間変化を例示する。図14(B)は、焦点検出領域1304、1305におけるそれぞれの光軸ベクトルの時間変化を例示する。各軸の設定は図12と同じである。期間T2、T3、T4については、図13(A)から(C)の各シーンに対応している。つまり、図13(A)の撮影時刻t2は期間T2内の時刻であり、図13(B)の撮影時刻t3は期間T3内の時刻である。図13(C)の撮影時刻t4は期間T4内の時刻である。   FIG. 14A illustrates a change over time in the defocus amount in the focus detection areas 1304 and 1305 for each subject. FIG. 14B exemplifies a temporal change of each optical axis vector in the focus detection areas 1304 and 1305. The setting of each axis is the same as in FIG. The periods T2, T3, and T4 correspond to the scenes in FIGS. 13A to 13C. That is, the shooting time t2 in FIG. 13A is the time within the period T2, and the shooting time t3 in FIG. 13B is the time within the period T3. The shooting time t4 in FIG. 13C is a time within the period T4.

期間T2においてデフォーカス量の変化と光軸ベクトルの変化は図11に示したFIND状態のシーンと同様である。しかし、期間T3では、手前を横切る類似被写体1302によって主被写体1301が隠れる。このため、主被写体1301についてはデフォーカス量と光軸ベクトル量を共に算出できなくなる。また、LOST状態ではフォーカスレンズ204の駆動が停止するので、光軸方向に移動していない類似被写体1302に関するデフォーカス量は一定値になる。   In the period T2, the change in the defocus amount and the change in the optical axis vector are the same as in the scene in the FIND state shown in FIG. However, in the period T3, the main subject 1301 is hidden by the similar subject 1302 that crosses the front side. Therefore, it becomes impossible to calculate both the defocus amount and the optical axis vector amount for the main subject 1301. Further, since the drive of the focus lens 204 is stopped in the LOST state, the defocus amount for the similar subject 1302 that has not moved in the optical axis direction becomes a constant value.

期間T4では、主被写体1301が再び撮影画面に出現し、デフォーカス量1401、光軸ベクトル量1402が取得される。つまり図13(C)の焦点検出領域1306におけるデフォーカス量と光軸ベクトル量が取得され、これらは一度見失った主被写体が再び出現した時に正確に追跡できた場合に存在すると想定される結果である。期間T4ではフォーカスレンズ204が停止していて、主被写体1301が手前に進んでくるため、デフォーカス量は絶対量が大きくなっていく。このためデフォーカス量1401だけでは、焦点検出領域1306を主被写体の領域と見なすことは困難である。一方、図14(B)に示す光軸ベクトル量は、期間T2と期間T4とで主被写体の光軸ベクトルが向きおよび大きさ(V2)ともに一致していることがわかる。このように期間T3、T4でのLOST状態において、すべての焦点検出領域に対して光軸ベクトル量がV2となる領域を探し続けることで、再び第2の被写体候補領域を決定できる。すなわち、主被写体が類似被写体によって隠れてしまうシーンの場合にデフォーカス量の時間変化だけでは特定が困難な主被写体を、光軸ベクトルの時間変化に基づいて識別することができる。第2の被写体候補領域が決定された後の処理については、図11、図12で示したFIND状態の場合の処理と同様であるため、その詳細な説明を省略する。なお図12(B)、図14(B)のグラフは、主被写体が等速運動を行っている状況を示す。これに限らず、光軸ベクトルの時間変化の傾向から近似式を生成して予測することで主被写体の加速度運動への対応も可能である。   In the period T4, the main subject 1301 appears again on the shooting screen, and the defocus amount 1401 and the optical axis vector amount 1402 are acquired. That is, the defocus amount and the optical axis vector amount in the focus detection area 1306 in FIG. 13C are acquired, and these are the results that are supposed to exist when the main object that was once lost can be accurately tracked when it reappears. is there. In the period T4, the focus lens 204 is stopped and the main subject 1301 moves forward, so that the absolute amount of defocus increases. Therefore, it is difficult to regard the focus detection area 1306 as the area of the main subject only with the defocus amount 1401. On the other hand, in the optical axis vector amount shown in FIG. 14B, it can be seen that the optical axis vector of the main subject is the same in both direction and size (V2) in the periods T2 and T4. In this way, in the LOST state in the periods T3 and T4, the second subject candidate region can be determined again by continuing to search for the region where the optical axis vector amount is V2 for all the focus detection regions. That is, in a scene in which the main subject is hidden by a similar subject, it is possible to identify the main subject, which is difficult to identify only by the temporal change of the defocus amount, based on the temporal change of the optical axis vector. The processing after the second subject candidate area is determined is the same as the processing in the FIND state shown in FIGS. 11 and 12, and thus detailed description thereof will be omitted. Note that the graphs in FIGS. 12B and 14B show a situation in which the main subject is moving at a constant velocity. Not limited to this, it is also possible to deal with the acceleration motion of the main subject by generating and predicting an approximate expression from the tendency of the temporal change of the optical axis vector.

本実施形態によれば、撮像面全体の距離情報と位置変化ベクトルの光軸成分(光軸ベクトル情報)を追跡のための情報に利用することで、追跡精度の向上を実現できる。主被写体と画素パターンや色ヒストグラムが類似している類似被写体に対して主被写体が光軸方向に近づいて来る場合や、光軸方向に移動している主被写体に対して類似被写体が手前を横切る場合でも主被写体の追跡処理を正確に行える。   According to the present embodiment, the tracking accuracy can be improved by using the distance information of the entire imaging surface and the optical axis component (optical axis vector information) of the position change vector as the information for tracking. Pixel pattern or color histogram is similar to the main subject When the main subject approaches the similar subject in the optical axis direction, or when the main subject is moving in the optical axis direction, the similar subject crosses in front of you. Even in this case, the tracking process of the main subject can be accurately performed.

[第2実施形態]
以下、本発明の第2実施形態について説明する。まず、本実施形態と第1実施形態との相違について説明する。第2実施形態では、第1実施形態に対して演算量を削減し、処理効率を上げることを目的とする。第1実施形態では撮像面全体を複数の小領域に分割して焦点検出を行ったが、本実施形態ではマッチング部502から出力される第1の被写体候補領域の座標に基づいて焦点検出領域を決定する。この方法を用いることで、第1の被写体候補領域が一か所または狭い範囲に集中しているときには焦点検出領域の数が減り、演算処理量を低減できる。なお、本実施形態における撮像装置の構成は図2の構成と同様であるため、既に使用した符号を用いることで、それらの詳細な説明を省略する。
[Second Embodiment]
The second embodiment of the present invention will be described below. First, the difference between the present embodiment and the first embodiment will be described. The second embodiment aims to reduce the amount of calculation and improve the processing efficiency as compared with the first embodiment. In the first embodiment, the entire image pickup surface is divided into a plurality of small areas for focus detection, but in the present embodiment, the focus detection area is determined based on the coordinates of the first subject candidate area output from the matching unit 502. decide. By using this method, the number of focus detection regions is reduced when the first subject candidate regions are concentrated in one place or a narrow range, and the amount of calculation processing can be reduced. Since the configuration of the image pickup apparatus in this embodiment is the same as the configuration in FIG. 2, the reference numerals already used are used, and the detailed description thereof is omitted.

図15は、本実施形態の被写体追跡部271の構成例を示すブロック図である。第1実施形態ではマッチング部502から出力される複数の評価値と領域情報が被写体領域決定部503にのみ入力されていた。本実施形態では複数の評価値と領域情報がカメラ制御部225にも入力される。焦点検出用信号処理部224は、これらの情報に基づいて焦点検出領域を設定し、算出したデフォーカス情報を光軸ベクトル算出部504に出力する。光軸ベクトル算出部504以降の処理については第1実施形態と同様であるため、その説明を省略する。   FIG. 15 is a block diagram showing a configuration example of the subject tracking unit 271 of this embodiment. In the first embodiment, the plurality of evaluation values and the area information output from the matching unit 502 are input only to the subject area determination unit 503. In this embodiment, a plurality of evaluation values and area information are also input to the camera control unit 225. The focus detection signal processing unit 224 sets the focus detection region based on these pieces of information, and outputs the calculated defocus information to the optical axis vector calculation unit 504. The processes after the optical axis vector calculation unit 504 are the same as those in the first embodiment, and thus the description thereof will be omitted.

図16を参照して、マッチング部502の出力に基づく焦点検出領域の設定方法を説明する。図16は2つの被写体を撮影するシーンの画像例を示す。焦点検出用信号処理部224は、マッチング部502から出力される複数の領域情報に基づき、各領域の中心座標をそれぞれ示す中心点群1601、1604を算出する。中心点群1601は、第1の被写体の画像に対応する複数の領域の中心座標をそれぞれ示し、中心点群1604は、第2の被写体の画像に対応する複数の領域の中心座標をそれぞれ示す。中心点群に基づいて焦点検出領域が設定される。具体的には、図16に示すように予め画面全体に小領域が配置され、それぞれの小領域に対して中心点群1601を内包する領域が仮焦点検出領域1602(実線の太線枠参照)として設定される。この段階で仮焦点検出領域1602とする理由は、被写体の大きさが考慮されていないためである。そこで被写体のそれぞれの中心点が持つ領域情報を考慮して、小領域を含む焦点検出領域1603が設定される。例えば、中心点群1604の1つは、領域1605の領域情報を持っているため、仮焦点検出領域(実線の太線枠参照)の上に位置する2つの小領域1606、1607の一部が領域1605に含まれる。よって、2つの小領域1606、1607は焦点検出領域1603に追加される。このように、より広く設定される焦点検出領域1603内に存在する小領域に対して、焦点検出用信号処理部224は相関演算を行い、デフォーカス量を算出する。   A method of setting the focus detection area based on the output of the matching unit 502 will be described with reference to FIG. FIG. 16 shows an example image of a scene in which two subjects are photographed. The focus detection signal processing unit 224 calculates center point groups 1601 and 1604 respectively indicating the center coordinates of each region based on the plurality of region information output from the matching unit 502. The center point group 1601 shows the center coordinates of a plurality of regions corresponding to the image of the first subject, and the center point group 1604 shows the center coordinates of the plurality of regions corresponding to the image of the second subject. The focus detection area is set based on the central point group. Specifically, as shown in FIG. 16, small areas are arranged in advance on the entire screen, and an area including the center point group 1601 for each small area is a temporary focus detection area 1602 (see a solid thick line frame). Is set. The reason for setting the provisional focus detection area 1602 at this stage is that the size of the subject is not taken into consideration. Therefore, the focus detection area 1603 including a small area is set in consideration of the area information of each center point of the subject. For example, since one of the center point groups 1604 has the area information of the area 1605, a part of the two small areas 1606 and 1607 located above the provisional focus detection area (see the solid bold frame) is the area. Included in 1605. Therefore, the two small areas 1606 and 1607 are added to the focus detection area 1603. In this way, the focus detection signal processing unit 224 performs a correlation operation on the small area existing in the wider focus detection area 1603 to calculate the defocus amount.

本実施形態では、図16のように中心点群が密集している場合に、中心点がそれぞれ有する領域情報から焦点検出領域を設定することで、焦点検出領域1603の数を必要最小限に抑えることができる。これにより、焦点検出領域1603以外の領域については相関演算を行う必要が無いので、演算負荷を低減できる。本実施形態によれば、焦点検出の処理効率を向上させることができる。   In the present embodiment, when the central point group is dense as shown in FIG. 16, the number of the focal point detection areas 1603 is minimized by setting the focal point detection areas from the area information of the central points. be able to. As a result, it is not necessary to perform the correlation calculation for the areas other than the focus detection area 1603, so the calculation load can be reduced. According to this embodiment, the processing efficiency of focus detection can be improved.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

200‥‥‥撮像装置
204‥‥‥フォーカスレンズ
212‥‥‥フォーカス制御部
213‥‥‥レンズ制御部
221‥‥‥撮像素子
224‥‥‥焦点検出用信号処理部
225‥‥‥カメラ制御部
271‥‥‥被写体追跡部

200 ... image pickup device 204 ... focus lens 212 ... focus control unit 213 ... lens control unit 221 ... image pickup device 224 ... focus detection signal processing unit 225 ... camera control unit 271 ‥‥‥ Subject tracking unit

Claims (14)

画像データおよび該画像データに関連する距離情報を取得して画像内の被写体の追跡処理を行う被写体追跡装置であって、
前記画像データおよび距離情報を取得する取得手段と、
前記画像データから被写体の画像を検出して被写体領域に係る複数の第1の候補領域の情報を出力する第1の検出手段と、
前記距離情報および画像内における前記被写体の奥行き方向の位置変化から被写体領域に係る第2の候補領域の情報を出力する第2の検出手段と、
前記第1および第2の候補領域の情報を取得し、前記第2の候補領域により前記複数の第1の候補領域から絞り込んだ領域を被写体追跡に用いる被写体領域として決定する決定手段と、を備え
前記第1の検出手段は、
前記画像データを取得して被写体を検出する被写体検出手段と、
前記画像データおよび前記被写体検出手段の検出情報を取得してマッチング処理を行い、前記第1の候補領域の情報として複数の評価値と領域情報を出力するマッチング手段と、を有し、
前記第2の検出手段は、
前記距離情報を取得して画像内における前記被写体の奥行き方向の位置変化を示す位置変化ベクトルを算出する算出手段と、
検出された複数の被写体領域に係る前記距離情報および位置変化ベクトルを比較して前記第2の候補領域の情報を出力する比較手段と、を有することを特徴とする被写体追跡装置。
A subject tracking device for performing a tracking process of a subject in an image by acquiring image data and distance information related to the image data,
Acquisition means for acquiring the image data and distance information,
First detection means for detecting an image of a subject from the image data and outputting information on a plurality of first candidate regions related to the subject region;
Second detection means for outputting information on a second candidate region related to the subject region based on the distance information and the position change of the subject in the depth direction in the image;
Determining means for acquiring information on the first and second candidate regions and determining a region narrowed down from the plurality of first candidate regions by the second candidate region as a subject region used for subject tracking. ,
The first detection means is
Subject detecting means for obtaining the image data to detect a subject,
A matching unit that acquires the image data and the detection information of the subject detection unit, performs matching processing, and outputs a plurality of evaluation values and region information as information of the first candidate region;
The second detection means is
Calculating means for acquiring the distance information and calculating a position change vector indicating a position change of the subject in the image in the depth direction;
And a comparing unit that compares the distance information and the position change vector relating to the plurality of detected subject areas and outputs the information of the second candidate area .
前記取得手段は、視差を有する複数の視差画像のデータから前記距離情報を取得して、前記第2の検出手段に出力し、
前記比較手段は、記憶手段に記憶された過去の撮像画像内の被写体領域に対応する前記距離情報および位置変化ベクトルと、現在の撮像画像内の被写体領域に対応する前記距離情報および位置変化ベクトルとを比較し、前記距離情報の差および前記位置変化ベクトルの差がそれぞれ閾値以下である被写体領域を、前記第2の候補領域に決定することを特徴とする請求項に記載の被写体追跡装置。
The acquisition unit acquires the distance information from data of a plurality of parallax images having parallax and outputs the distance information to the second detection unit,
The comparing means stores the distance information and the position change vector corresponding to the subject area in the past captured image stored in the storage means, and the distance information and the position change vector corresponding to the subject area in the current captured image. comparing the subject tracking apparatus according to claim 1, the difference between the difference and the positional change vector of the distance information of a subject area less than the threshold value, respectively, and determines the second candidate region.
前記視差画像のデータから焦点検出用の信号を生成して撮像光学系に係るデフォーカス量を算出する信号処理手段と、
前記信号処理手段からデフォーカス量を取得して前記撮像光学系の焦点調節の制御を行う制御手段と、を備え、
前記第2の検出手段は、前記距離情報として前記信号処理手段からデフォーカス量を取得することを特徴とする請求項に記載の被写体追跡装置。
Signal processing means for generating a signal for focus detection from the data of the parallax image and calculating a defocus amount related to the imaging optical system;
A control unit that acquires a defocus amount from the signal processing unit and controls focus adjustment of the imaging optical system,
The subject tracking apparatus according to claim 2 , wherein the second detection unit acquires a defocus amount from the signal processing unit as the distance information.
前記信号処理手段は、撮像画像内に設定された複数の焦点検出領域にてデフォーカス量を算出し、前記制御手段は前記撮像光学系のフォーカスレンズの駆動制御を行い、
前記算出手段は、前記信号処理手段が過去および現在に算出したデフォーカス量と前記フォーカスレンズの駆動量から前記位置変化ベクトルを算出することを特徴とする請求項に記載の被写体追跡装置。
The signal processing means calculates a defocus amount in a plurality of focus detection areas set in a captured image, and the control means performs drive control of a focus lens of the imaging optical system,
4. The subject tracking apparatus according to claim 3 , wherein the calculation unit calculates the position change vector from the defocus amount calculated in the past and the current by the signal processing unit and the drive amount of the focus lens.
前記比較手段は、被写体の特定が行われている第1の状態にて、前記デフォーカス量が閾値以下であって、かつ、過去の撮像画像内の被写体領域に対応する位置変化ベクトルと、現在の撮像画像内の被写体領域に対応する位置変化ベクトルとの差が閾値以下である被写体領域を前記第2の候補領域として決定することを特徴とする請求項3または4に記載の被写体追跡装置。 In the first state in which the subject is being identified, the comparison unit has a defocus amount equal to or less than a threshold value, and a position change vector corresponding to a subject region in a past captured image, and a current position change vector. The subject tracking device according to claim 3 or 4 , wherein a subject region having a difference from a position change vector corresponding to the subject region in the captured image of 1 is a threshold value or less is determined as the second candidate region. 前記比較手段は、被写体の特定が行われていない第2の状態にて、前記デフォーカス量が閾値以下であるか、または、過去の撮像画像内の被写体領域に対応する位置変化ベクトルと、現在の撮像画像内の被写体領域に対応する位置変化ベクトルとの差が閾値以下である被写体領域を前記第2の候補領域として決定することを特徴とする請求項3または4に記載の被写体追跡装置。 In the second state in which the subject is not specified, the comparison unit has the defocus amount equal to or less than a threshold value, or a position change vector corresponding to a subject region in a past captured image, and a current position change vector. The subject tracking device according to claim 3 or 4 , wherein a subject region having a difference from a position change vector corresponding to the subject region in the captured image of 1 is a threshold value or less is determined as the second candidate region. 前記比較手段は、前記記憶手段に記憶された複数の前記位置変化ベクトルを取得し、当該位置変化ベクトルの時間変化の傾向から現在の被写体領域に対応する位置変化ベクトルを識別する処理を行うことを特徴とする請求項2から6のいずれか1項に記載の被写体追跡装置。 The comparing means may obtain a plurality of the position change vectors stored in the storage means, and perform a process of identifying a position change vector corresponding to a current subject region based on a tendency of the position change vectors with respect to time change. The subject tracking device according to any one of claims 2 to 6 , which is characterized in that. 前記比較手段は、前記マッチング手段による前記複数の評価値と領域情報を取得して被写体追跡の信頼性評価値を算出し、前記距離情報の差および前記位置変化ベクトルの差の判定にそれぞれ用いる前記閾値を前記信頼性評価値に対応する値に変更することを特徴とする請求項2から7のいずれか1項に記載の被写体追跡装置。 The comparison means acquires the plurality of evaluation values and area information by the matching means, calculates a reliability evaluation value of subject tracking, and uses the reliability evaluation value for determining the difference in the distance information and the difference in the position change vector, respectively. The subject tracking device according to claim 2 , wherein the threshold value is changed to a value corresponding to the reliability evaluation value. 前記制御手段は、前記決定手段により決定された被写体領域の重心が位置する焦点検出領域におけるデフォーカス量を取得して前記フォーカスレンズの駆動量を決定することを特徴とする請求項に記載の被写体追跡装置。 Wherein, according to claim 4, characterized in that to determine the driving amount of defocus amounts obtained by the focus lens in the focus detection area centroid of the object region determined by the determining means is positioned Subject tracking device. 請求項1からのいずれか1項に記載の被写体追跡装置を備える撮像装置。 Imaging apparatus including a subject tracking apparatus according to any one of claims 1 9. 複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を有する撮像素子と、
撮像画像内に設定される複数の焦点検出領域に対応する前記複数の光電変換部が出力する信号を取得して、複数の像のずれ量からデフォーカス量を算出し、前記デフォーカス量からフォーカスレンズの駆動量を算出して該フォーカスレンズの駆動制御により焦点調節を行う焦点調節制御手段を備えることを特徴とする請求項10に記載の撮像装置。
A plurality of microlenses, an imaging device having a plurality of photoelectric conversion units corresponding to each microlens,
The signals output by the plurality of photoelectric conversion units corresponding to the plurality of focus detection areas set in the captured image are acquired, the defocus amount is calculated from the displacement amount of the plurality of images, and the focus is calculated from the defocus amount. The image pickup apparatus according to claim 10 , further comprising a focus adjustment control unit that calculates a drive amount of the lens and performs focus adjustment by controlling the drive of the focus lens.
前記焦点調節制御手段は、前記複数の焦点検出領域のうち、前記第1の候補領域に対応して設定される前記焦点検出領域におけるデフォーカス量を算出し、前記第1の候補領域に対応しない前記焦点検出領域については焦点検出の演算処理を行わないことを特徴とする請求項11に記載の撮像装置。 The focus adjustment control means calculates a defocus amount in the focus detection area set corresponding to the first candidate area among the plurality of focus detection areas, and does not correspond to the first candidate area. The image pickup apparatus according to claim 11 , wherein focus detection calculation processing is not performed on the focus detection area. 画像データおよび該画像データに関連する距離情報を取得して画像内の被写体の追跡処理を行う被写体追跡装置にて実行される制御方法であって、
第1の検出手段が前記画像データを取得して被写体を検出し、前記画像データおよび前記被写体の検出情報によりマッチング処理を行い、被写体領域に係る第1の候補領域の情報として複数の評価値と領域情報を出力する工程と、
第2の検出手段が前記距離情報を取得して画像内における前記被写体の奥行き方向の位置変化を示す位置変化ベクトルを算出し、検出された複数の被写体領域に係る前記距離情報および位置変化ベクトルを比較して被写体領域に係る第2の候補領域の情報を出力する工程と、
決定手段が前記第1および第2の候補領域の情報を取得し、前記第2の候補領域により前記複数の第1の候補領域から絞り込んだ領域を被写体追跡に用いる被写体領域として決定する工程と、を有することを特徴とする被写体追跡装置の制御方法。
A control method executed by a subject tracking device that obtains image data and distance information related to the image data to perform a tracking process of a subject in an image,
A first detection unit acquires the image data, detects a subject, performs matching processing based on the image data and detection information of the subject, and obtains a plurality of evaluation values as information of a first candidate region related to the subject region. Outputting the area information,
The second detecting means acquires the distance information, calculates a position change vector indicating a position change of the subject in the image in the depth direction, and calculates the distance information and the position change vector relating to the plurality of detected subject regions. A step of comparing and outputting information of the second candidate area related to the object area;
Determining means acquires information on the first and second candidate areas, and determines an area narrowed down from the plurality of first candidate areas by the second candidate area as a subject area to be used for subject tracking; A method of controlling a subject tracking device, comprising:
請求項13に記載の各工程を被写体追跡装置のコンピュータに実行させるプログラム。
A program that causes a computer of a subject tracking device to execute each step according to claim 13 .
JP2016090348A 2016-04-28 2016-04-28 Subject tracking device, control method thereof, imaging device, and program Active JP6685823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016090348A JP6685823B2 (en) 2016-04-28 2016-04-28 Subject tracking device, control method thereof, imaging device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016090348A JP6685823B2 (en) 2016-04-28 2016-04-28 Subject tracking device, control method thereof, imaging device, and program

Publications (2)

Publication Number Publication Date
JP2017200088A JP2017200088A (en) 2017-11-02
JP6685823B2 true JP6685823B2 (en) 2020-04-22

Family

ID=60238285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016090348A Active JP6685823B2 (en) 2016-04-28 2016-04-28 Subject tracking device, control method thereof, imaging device, and program

Country Status (1)

Country Link
JP (1) JP6685823B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024058B (en) * 2017-11-30 2019-08-02 Oppo广东移动通信有限公司 Image blurs processing method, device, mobile terminal and storage medium
JP7066388B2 (en) * 2017-12-06 2022-05-13 キヤノン株式会社 Focus control device, its control method, and program, storage medium, and image pickup device.
JP2021177582A (en) 2018-07-31 2021-11-11 ソニーグループ株式会社 Control device, control method, and program
CN110866486B (en) 2019-11-12 2022-06-10 Oppo广东移动通信有限公司 Subject detection method and apparatus, electronic device, and computer-readable storage medium
CN111968126B (en) * 2020-06-30 2023-10-17 上海艾策通讯科技股份有限公司 Page focus recognition method, device, computer equipment and storage medium
TWI784330B (en) * 2020-10-21 2022-11-21 財團法人工業技術研究院 Method, procsesing device, and system for object tracking

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4821460B2 (en) * 2006-06-28 2011-11-24 株式会社ニコン Autofocus device and camera
JP5879736B2 (en) * 2011-04-21 2016-03-08 株式会社ニコン Image tracking device and imaging device
JP2015111226A (en) * 2013-12-06 2015-06-18 キヤノン株式会社 Subject tracking device and control method of the same, imaging device, program, and storage medium

Also Published As

Publication number Publication date
JP2017200088A (en) 2017-11-02

Similar Documents

Publication Publication Date Title
JP6685823B2 (en) Subject tracking device, control method thereof, imaging device, and program
JP6509027B2 (en) Object tracking device, optical apparatus, imaging device, control method of object tracking device, program
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
JP6800628B2 (en) Tracking device, tracking method, and program
CN105629628B (en) Atomatic focusing method and device
JP2012123296A (en) Electronic device
JP7223079B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
CN103905727A (en) Object area tracking apparatus, control method, and program of the same
CN105744152A (en) Object Tracking Apparatus, Control Method Therefor And Storage Medium
JP2012015642A (en) Imaging device
JP3988574B2 (en) Image processing device
JP6881909B2 (en) Image pickup device and its control method, and image processing device and method
JP4871691B2 (en) Imaging apparatus and control method thereof
JP5390871B2 (en) Imaging apparatus and control method thereof
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP2019083580A (en) Image processing apparatus, image processing method, and program
JP2020136774A (en) Image processing apparatus for detecting motion vector, control method of the same, and program
KR101599434B1 (en) Space detecting apparatus for image pickup apparatus using auto focusing and the method thereof
JP2011242652A (en) Focus detector and control method thereof
JP6555940B2 (en) Subject tracking device, imaging device, and method for controlling subject tracking device
JP7458723B2 (en) Image processing device, imaging device, control method, and program
JP6675510B2 (en) Subject tracking device and its control method, image processing device and its control method, imaging device and its control method, and program
JP7324066B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
JP2013008045A (en) Imaging apparatus, its control method, program, and recording medium
JP2018042092A (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R151 Written notification of patent or utility model registration

Ref document number: 6685823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151