JP2010074315A - Object tracking method and imaging device - Google Patents

Object tracking method and imaging device Download PDF

Info

Publication number
JP2010074315A
JP2010074315A JP2008237189A JP2008237189A JP2010074315A JP 2010074315 A JP2010074315 A JP 2010074315A JP 2008237189 A JP2008237189 A JP 2008237189A JP 2008237189 A JP2008237189 A JP 2008237189A JP 2010074315 A JP2010074315 A JP 2010074315A
Authority
JP
Japan
Prior art keywords
tracking
value
correlation
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008237189A
Other languages
Japanese (ja)
Other versions
JP5118590B2 (en
JP2010074315A5 (en
Inventor
Takaaki Fukui
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008237189A priority Critical patent/JP5118590B2/en
Publication of JP2010074315A publication Critical patent/JP2010074315A/en
Publication of JP2010074315A5 publication Critical patent/JP2010074315A5/ja
Application granted granted Critical
Publication of JP5118590B2 publication Critical patent/JP5118590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To more accurately determine success or failure of object tracking in various photographic scenes and photographic sensitivities. <P>SOLUTION: An object tracking function in an imaging device detects a partial area corresponding to a partial area of a tracking object of the preceding image frame in the current image frame on the basis of a correlation in partial areas of a plurality of image frames that are imaged to thereby track the partial area between the image frames. Then, the object tracking function stores correlations acquired about a corresponding partial area in the current image frame in the tracking processing to thereby store a correlation about a corresponding partial area of a plurality of past image frames, and determines whether to succeed in tracking the partial area by the tracking processing on the basis of a change in a plurality of correlations that are stored. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体追尾機能を有する撮像装置及びその被写体追尾方法に関する。   The present invention relates to an imaging apparatus having a subject tracking function and a subject tracking method thereof.

従来、デジタルカメラや監視カメラを利用した監視装置において、被写体追尾を行う撮像システムがある。この種の撮像システムでは、被写体追尾機能を利用することで、被写体に対して適切な撮影条件を設定したり、信号処理を行ったりする。   2. Description of the Related Art Conventionally, there is an imaging system that performs subject tracking in a monitoring device using a digital camera or a monitoring camera. In this type of imaging system, an appropriate shooting condition is set for a subject or signal processing is performed by using a subject tracking function.

特許文献1には、撮影信号から、被写体の動きベクトルを計算し、被写体の動きに従ってカメラを回転させる被写体自動追跡装置が記載されている。特許文献1の被写体自動追跡装置は、ズームの位置が望遠である場合にはカメラの回転速度を速やかにし、広角である場合にはゆるくして被写体を効果的に追跡して撮影することができるようにしたものである。   Japanese Patent Application Laid-Open No. 2004-151561 describes an automatic subject tracking device that calculates a motion vector of a subject from a photographing signal and rotates a camera according to the motion of the subject. The subject automatic tracking device of Patent Document 1 can quickly track the subject and take an image when the zoom position is telephoto, and when the zoom position is wide, the camera rotation speed is quick and the subject is loosened when the zoom position is wide. It is what I did.

また特許文献2には、肌色領域の検出を行い、検出された領域を追尾枠としてWBや露出を制御することで、最適なホワイトバランスや露出制御の性能の向上を行う撮像装置が記載されている。   Patent Document 2 describes an imaging apparatus that detects the skin color area and controls the WB and exposure using the detected area as a tracking frame to improve the optimal white balance and exposure control performance. Yes.

このように被写体追尾システムや、被写体追尾機能を利用したホワイトバランスや露出の制御等、さまざまな提案がなされている。これら被写体追尾の制御方法としては、動きベクトルが計算される被写体領域におけるフレーム間の画像相関を用いた追尾方法と、画像特徴量をもとに被写体追尾を行なう追尾方法が一般的である。これらのうち、画像相関性を用いた被写体追尾方法では、たとえば、被写体の前を別の移動物体が横切った場合、主要被写体の画像相関が低くなり、横切った被写体を追尾してしまう可能性が高い。また、色味などの画像特徴量による主要被写体追尾方法では、似通った被写体が主要被写体の周りに存在している場合に、主要被写体を追尾し続けることが難しい。   Various proposals have been made, such as subject tracking systems and white balance and exposure control using the subject tracking function. As these subject tracking control methods, a tracking method using image correlation between frames in a subject area in which a motion vector is calculated, and a tracking method that performs subject tracking based on image feature values are generally used. Among these, in the subject tracking method using the image correlation, for example, when another moving object crosses in front of the subject, the image correlation of the main subject becomes low, and there is a possibility of tracking the crossed subject. high. Also, with the main subject tracking method based on image feature amounts such as color, it is difficult to keep track of the main subject when similar subjects exist around the main subject.

つまり、画像相関性を用いた追尾、画像特徴を用いた追尾のどちらの方法においても、不得意とするシーンが存在するため、これらの手法を組み合わせた追尾方法を用いることが有効である。例えば、基本的に顔検出による追尾(画像特徴を用いた追尾)を行い、顔が横向きになるなど顔検出が不可能になった場合にのみ、画像相関を用いた追尾方法で行うなどの方法で追尾性能を上げることができる。
特開平06-054326号公報 特開2007-104200号公報
That is, in both methods of tracking using image correlation and tracking using image features, there are scenes that are unsatisfactory, so it is effective to use a tracking method that combines these methods. For example, tracking is basically performed by face detection (tracking using image features), and only when face detection becomes impossible, such as when the face is turned sideways, a tracking method using image correlation is used. Can improve the tracking performance.
Japanese Patent Laid-Open No. 06-054326 JP 2007-104200 A

しかしながら、上述のような画像特徴と画像相関の組み合わせを用いた被写体の追尾においても、顔検出に失敗してかつ画像相関による追尾中において、主要被写体の画像相関が低くなった場合には追尾続行が不可能になってしまう。例えば、顔検出に失敗した後に画像相関による追尾を行っている最中に、被写体の前を別の移動物体が横切った場合などでは、追尾の続行が不可能となる可能性がある。したがって、画像相関にて追尾を行っている場合において、追尾が成功しているのか侵入物などの影響により追尾が失敗してしまったのかを判断する必要がある。   However, even in subject tracking using a combination of image features and image correlation as described above, tracking continues if face detection fails and image correlation of the main subject becomes low during tracking by image correlation. Becomes impossible. For example, in the case where another moving object crosses in front of the subject while tracking by image correlation after face detection fails, tracking may not be continued. Therefore, when tracking is performed using image correlation, it is necessary to determine whether tracking has succeeded or whether tracking has failed due to the influence of an intruder or the like.

一般的に、画像相関による追尾が成功しているかを判断する場合、被写体領域の画像相関が小さいとき(フレーム間差分が大きいとき)に被写体追尾に失敗した(被写体をロストした)と判断される。このような判断方法は、例えば監視カメラのような撮影被写体や撮影感度が比較的一定であるような被写体やシーンで追尾を行う場合には十分効果が得られると考えられる。しかしながら、デジタルカメラのように撮影シーンや撮影感度が限定されないような場合には画像相関値のみでの被写体追尾が成功しているかを判断することは困難である。例えば、高感度撮影時でノイズが多く発生しているような場合や、被写体自体に動体が含まれるような、被写体領域に一定値以上の動きがある被写体の場合などでは、画像相関値のみでの被写体追尾が成功しているか判断することは難しい。   In general, when determining whether tracking by image correlation is successful, it is determined that subject tracking has failed (subject has been lost) when the image correlation of the subject region is small (when the interframe difference is large). . Such a determination method is considered to be sufficiently effective when tracking is performed on a photographic subject such as a surveillance camera or a subject or scene whose photographing sensitivity is relatively constant. However, when the shooting scene and shooting sensitivity are not limited as in the case of a digital camera, it is difficult to determine whether the subject tracking is successful only with the image correlation value. For example, when there is a lot of noise during high-sensitivity shooting, or when the subject itself contains moving objects, the subject area moves more than a certain value. It is difficult to judge whether the subject tracking is successful.

本発明は上記課題に鑑みてなされたものであり、多様な撮影シーンや撮影感度において、被写体追尾の成否判断をより正確に行えるようにすることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to more accurately determine the success or failure of subject tracking in various shooting scenes and shooting sensitivities.

上記の目的を達成するための本発明の一態様による撮像装置は以下の構成を備える。すなわち、
撮像された複数の画像フレームの部分領域における相関度に基づいて、前の画像フレームの追尾対象の部分領域に対応する部分領域を現在の画像フレームにおいて検出することにより、当該画像フレーム間で前記部分領域を追尾する追尾手段と、
前記追尾手段において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度を記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を保存する保存手段と、
前記保存手段で保存された複数の相関度の変化に基づいて、前記追尾手段による前記部分領域に対する追尾が成功したか否かを判定する判定手段とを備える。
In order to achieve the above object, an imaging apparatus according to an aspect of the present invention has the following arrangement. That is,
Based on the degree of correlation in the partial areas of the plurality of captured image frames, the partial area corresponding to the tracking target partial area of the previous image frame is detected in the current image frame, so that the part between the image frames is detected. A tracking means for tracking the area;
Storing means for storing the correlation degrees related to the corresponding partial areas of a plurality of past image frames by storing the correlation degrees acquired for the corresponding partial areas in the current image frame in the tracking means; ,
Determination means for determining whether or not the tracking unit has successfully tracked the partial area based on a plurality of correlation degree changes stored by the storage unit.

また、上記の目的を達成するための本発明の他の態様による被写体追尾方法は、
撮像された複数の画像フレームの部分領域における相関度に基づいて、前の画像フレームの追尾対象の部分領域に対応する部分領域を現在の画像フレームにおいて検出することにより、当該画像フレーム間で前記部分領域を追尾する追尾工程と、
前記追尾工程において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度をメモリに記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を前記メモリに保存する保存工程と、
前記メモリに保存された複数の相関度の変化に基づいて、前記追尾工程による前記部分領域に対する追尾が成功したか否かを判定する判定工程とを有する。
In addition, a subject tracking method according to another aspect of the present invention for achieving the above object is as follows:
Based on the degree of correlation in the partial areas of the plurality of captured image frames, the partial area corresponding to the tracking target partial area of the previous image frame is detected in the current image frame, so that the part between the image frames is detected. A tracking process to track the area;
By storing in the memory the correlation degree acquired for the corresponding partial area in the current image frame in the tracking step, the correlation degree for the corresponding partial area of a plurality of past image frames is stored in the memory. A saving process to save;
And a determination step of determining whether or not the tracking of the partial region by the tracking step is successful based on a plurality of changes in the correlation degree stored in the memory.

本発明によれば、多様な撮影シーンや撮影感度において、被写体追尾の成否判断をより正確に行えるようになる。   According to the present invention, the success or failure of subject tracking can be determined more accurately in various shooting scenes and shooting sensitivities.

以下、添付の図面を参照して、本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は本実施形態における撮像装置の構成例を示したブロック図である。図1において、ユーザによりユーザインタフェース103を介して撮影指示があると、システムコントローラ107は、撮影処理を行う。撮影処理において、システムコントローラ107は、鏡筒装置112の焦点位置や絞り・メカシャッター、CCDなどのセンサである撮像素子101、さらにフラッシュ撮影を行う際の発光装置(不図示)などを制御して撮影を行う。撮影がなされると、撮像素子101から画像信号が出力され、CCD画像データとしてバッファメモリ102に蓄えられる。その後、信号処理回路111によって画像生成用の信号処理がなされてYUV画像が生成され、バッファメモリ102に蓄えられる。   FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the present embodiment. In FIG. 1, when a user gives a shooting instruction via the user interface 103, the system controller 107 performs a shooting process. In the photographing process, the system controller 107 controls the focal position of the lens barrel device 112, the aperture / mechanical shutter, the image sensor 101 which is a sensor such as a CCD, and the light emitting device (not shown) when performing flash photographing. Take a picture. When shooting is performed, an image signal is output from the image sensor 101 and stored in the buffer memory 102 as CCD image data. Thereafter, signal processing for image generation is performed by the signal processing circuit 111 to generate a YUV image, which is stored in the buffer memory 102.

画像記録が行われる場合には、バッファメモリ102内のYUV画像は圧縮伸長部104に送られる。圧縮伸長部104は、YUV画像に画像圧縮処理を施してJPEGファイルを生成する。生成されたJPEGファイルは記録制御部105によって記録媒体106に記録される。   When image recording is performed, the YUV image in the buffer memory 102 is sent to the compression / decompression unit 104. The compression / decompression unit 104 performs image compression processing on the YUV image to generate a JPEG file. The generated JPEG file is recorded on the recording medium 106 by the recording control unit 105.

また、表示制御部108は、バッファメモリ102に蓄えられたYUV画像や、システムコントローラ107の指令に応じて表示画像データを生成する。D/A部109は生成された表示画像データをアナログ信号に変換し、モニタ装置110に表示する。   In addition, the display control unit 108 generates display image data according to the YUV image stored in the buffer memory 102 or a command from the system controller 107. The D / A unit 109 converts the generated display image data into an analog signal and displays it on the monitor device 110.

また、顔検出部120は、バッファメモリ102に蓄えられたYUVまたはCCD画像データから顔検出を行い、画像中の座標位置を含む顔検出情報を出力する。顔検出部120にて顔検出が成功した場合には、システムコントローラ107は、表示制御部108に対して顔位置に顔枠(被写体枠)を表示するように指示する。   Further, the face detection unit 120 performs face detection from YUV or CCD image data stored in the buffer memory 102, and outputs face detection information including the coordinate position in the image. When face detection is successful in the face detection unit 120, the system controller 107 instructs the display control unit 108 to display a face frame (subject frame) at the face position.

また動画撮影や電子ビューファインダ(EVF)において被写体追尾を行う場合には、被写体追尾部121が、システムコントローラ107から被写体枠の画像上の位置を取得する。そして、被写体追尾部121は、撮像された画像フレーム間の、被写体枠によって特定される部分領域(被写体領域とも言う)における相関度に基づいて、当該部分領域を追尾することで当該被写体の追尾を実現する。そして、被写体追尾部121は、その被写体枠によって示される被写体領域の動きベクトルを算出してシステムコントローラ107に出力する。システムコントローラ107は、この動きベクトルに基づいて被写体枠の位置を変更して、その変更を表示制御部108へ通知する。   Also, when subject tracking is performed in moving image shooting or electronic viewfinder (EVF), the subject tracking unit 121 acquires the position of the subject frame on the image from the system controller 107. The subject tracking unit 121 tracks the subject by tracking the partial area based on the degree of correlation between the captured image frames in the partial area specified by the subject frame (also referred to as the subject area). Realize. The subject tracking unit 121 calculates a motion vector of the subject area indicated by the subject frame and outputs the motion vector to the system controller 107. The system controller 107 changes the position of the subject frame based on the motion vector and notifies the display control unit 108 of the change.

システムコントローラ107が最初に被写体枠を決定する際は、顔検出部120が顔検出した結果(顔検出情報)が用いられてもよいし、ユーザインタフェース103により指定されたユーザ指定領域などが用いられてもよい。また、顔検出以外の物体認識結果の位置が用いられてもよい。本実施形態においては、顔検出情報に基づく顔検出結果領域を追尾する手法について説明を行う。   When the system controller 107 determines a subject frame for the first time, a result (face detection information) detected by the face detection unit 120 may be used, or a user specified area specified by the user interface 103 may be used. May be. Further, the position of the object recognition result other than the face detection may be used. In the present embodiment, a method for tracking a face detection result area based on face detection information will be described.

なお、上述した各部の機能の一部もしくは全ては、コンピュータ(CPU)が不図示のプログラムメモリに記憶されたプログラムを実行することにより実現されてもよい。   Note that some or all of the functions of the respective units described above may be realized by a computer (CPU) executing a program stored in a program memory (not shown).

図6は本実施形態の撮像装置における、画像相関による被写体追尾処理を説明するフローチャートである。   FIG. 6 is a flowchart for explaining subject tracking processing based on image correlation in the imaging apparatus of the present embodiment.

ステップS201において、システムコントローラ107は、撮像素子101から取得されバッファメモリ102に保持された画像(現在フレームの画像)を取得し、不図示の画像メモリ上に展開する。顔検出部120は、展開された画像について顔検出処理(図4等により後述)を行う。ステップS202において、当該画像について顔検出部120による顔検出が成功したか否かを判定する。顔検出部120による顔検出に成功した場合は、当該顔検出の結果を追尾結果として用いるため、画像相関による追尾を終了する。一方、顔検出が失敗した場合においては、画像相関による追尾処理を行うため、処理をステップS203へ進める。   In step S201, the system controller 107 acquires an image (current frame image) acquired from the image sensor 101 and held in the buffer memory 102, and develops it on an image memory (not shown). The face detection unit 120 performs face detection processing (described later with reference to FIG. 4 and the like) on the developed image. In step S202, it is determined whether face detection by the face detection unit 120 is successful for the image. When the face detection by the face detection unit 120 is successful, the result of the face detection is used as a tracking result, and thus tracking by image correlation is terminated. On the other hand, if face detection fails, the process proceeds to step S203 in order to perform tracking processing based on image correlation.

ステップS203において、システムコントローラ107は、前フレームにおける被写体領域(被写体枠で特定される部分領域)を取得し、被写体追尾部121にセットする。ステップS204において、被写体追尾部121は、前フレームと現在フレームとの部分領域に関する画像相関を計算する。そして、ステップS205にて、被写体追尾部121は、計算された画像相関に基づいて前フレームの被写体領域と追従関係にある部分領域を現在フレームより検出し、その動きベクトルを算出する。ステップS206において、システムコントローラ107は、被写体追尾部121によって算出された動きベクトル量分だけ被写体枠を移動した座標を算出し、被写体枠の表示位置を修正する。   In step S <b> 203, the system controller 107 acquires a subject area (partial area specified by the subject frame) in the previous frame and sets it in the subject tracking unit 121. In step S204, the subject tracking unit 121 calculates an image correlation related to a partial region between the previous frame and the current frame. In step S205, the subject tracking unit 121 detects, from the current frame, a partial region that has a tracking relationship with the subject region of the previous frame based on the calculated image correlation, and calculates a motion vector thereof. In step S206, the system controller 107 calculates the coordinates where the subject frame has been moved by the amount of motion vector calculated by the subject tracking unit 121, and corrects the display position of the subject frame.

ステップS207において、システムコントローラ107は、前フレームの被写体領域の画像と、現在フレームにおける追尾検出後の被写体領域のフレーム間差分値を算出する。なお、このフレーム間差分値はステップS204で算出された画像相関の逆数を用いてもよい。ステップS208において、システムコントローラ107は、ステップS207で算出されたフレーム間差分値を複数フレーム分保存する。ステップS209において、システムコントローラ107は、ステップS208で蓄積された過去のフレーム間差分値から、侵入物検出評価値を算出する。たとえば、評価中のフレーム(現在フレーム)から所定数のフレームの範囲で差分値の最大値と最小値を選択し、その差分を動き評価値として算出し、これを侵入物検出評価値として用いる。   In step S207, the system controller 107 calculates the inter-frame difference value between the subject area image of the previous frame and the subject area after tracking detection in the current frame. The inter-frame difference value may be the inverse of the image correlation calculated in step S204. In step S208, the system controller 107 stores the inter-frame difference value calculated in step S207 for a plurality of frames. In step S209, the system controller 107 calculates an intruder detection evaluation value from the past inter-frame difference value accumulated in step S208. For example, a maximum value and a minimum value of a difference value are selected in a range of a predetermined number of frames from a frame under evaluation (current frame), the difference is calculated as a motion evaluation value, and this is used as an intruder detection evaluation value.

図8は侵入物検出評価値の算出方法の一例を示した図である。具体的な例としては、過去の複数フレーム(図8では22フレーム分)の被写体領域のフレーム間差分値を算出し、その中から、最大値と最小値を選択する。もちろん、動き評価値は、そのような差分に限られるものではなく、フレーム間差分値の最大値と最小値の倍率値を用いてもよい。なお、図8において、縦軸はフレーム間差分値を用いており、値が小さいほど被写体枠内の画像が類似している(画像相関が高い)ことを示している(図9、図10においても同様)。   FIG. 8 is a diagram illustrating an example of a method for calculating an intruder detection evaluation value. As a specific example, the inter-frame difference value of the subject area of the past plural frames (22 frames in FIG. 8) is calculated, and the maximum value and the minimum value are selected from among the difference values. Of course, the motion evaluation value is not limited to such a difference, and the maximum and minimum magnification values of the inter-frame difference values may be used. In FIG. 8, the vertical axis uses the inter-frame difference value, and the smaller the value, the more similar the images in the subject frame (the higher the image correlation) (in FIGS. 9 and 10). The same).

ステップS210において、システムコントローラ107は、ステップS209で算出される評価値により追尾に失敗したか否か(追尾ロストか否か)を判定するために用いられる検出閾値を決定する。この検出閾値は、カメラの撮影条件や撮影シーンなどに応じて、適応的に設定される。   In step S210, the system controller 107 determines a detection threshold used to determine whether tracking has failed (whether tracking is lost) or not based on the evaluation value calculated in step S209. This detection threshold is adaptively set according to the shooting conditions of the camera, the shooting scene, and the like.

図9はISO100とISO400でのフレーム間差分値のフレーム毎の推移を示したグラフである。このグラフで示されているように、感度が高くなるに応じて、光ショットノイズや暗電流成分によるランダムノイズが増幅されるため、フレーム間差分値が大きくなる。   FIG. 9 is a graph showing the transition of each frame difference value between ISO100 and ISO400. As shown in this graph, as the sensitivity increases, the light shot noise and random noise due to the dark current component are amplified, so that the inter-frame difference value increases.

この例でもわかるように、感度に応じてノイズ量が変わるため、フレーム間差分値の絶対値での追尾の成否の検出はできない。したがって、最近の過去の所定数の複数のフレーム中における画像差分値の最大値や最低値との差分を検出閾値と比較することで、追尾が失敗しているシーン(画像差分値が大きくなったシーン)を精度高く検出することが可能となる。なお、比較する対象として、追尾開始直後における所定数フレーム分のフレーム間差分値の平均値といった追尾開始直後のフレーム間差分値の定常値と対象フレームにおけるフレーム間差分値との差分を検出閾値と比較するようにしてもよい。   As can be seen from this example, since the amount of noise changes according to the sensitivity, it is impossible to detect the success or failure of tracking with the absolute value of the inter-frame difference value. Therefore, by comparing the difference between the maximum value and the minimum value of the image difference values in a predetermined number of recent past frames with the detection threshold, the scene in which tracking has failed (the image difference value has increased). Scene) can be detected with high accuracy. As a comparison target, a difference between a steady value of inter-frame difference values immediately after tracking start, such as an average value of inter-frame difference values for a predetermined number of frames immediately after tracking start, and an inter-frame difference value in the target frame is set as a detection threshold. You may make it compare.

また同様にカメラ(センサ個体)のノイズ量またはそれに順ずるような値に依存して上記の検出閾値が決定されてもよい。例えば、ノイズ量としてはダークノイズや光ノイズが挙げられる。ダークノイズには、例えば、遮光して撮影された画像信号値の標準偏差値を用いることができる。また、光ノイズには、例えば、チャート類を撮影し、そのチャート部分の標準偏差値をノイズ量として用いることができる。これらのノイズ量は、出荷時等においてあらかじめ設定されてもよいし、これらノイズを計測するモードを撮像装置に設けてもよい。更に、例えば、ノイズ量はセンサ出力に対するゲイン量に依存するため、撮像装置の感度を調整するためのゲイン設定値などに上記の閾値が依存しても良い。   Similarly, the detection threshold value may be determined depending on the noise amount of the camera (sensor individual) or a value corresponding to the noise amount. For example, the noise amount includes dark noise and optical noise. For the dark noise, for example, a standard deviation value of an image signal value photographed while being shielded from light can be used. For optical noise, for example, charts can be photographed, and the standard deviation value of the chart portion can be used as the amount of noise. These noise amounts may be set in advance at the time of shipment or the like, or a mode for measuring these noises may be provided in the imaging apparatus. Further, for example, since the noise amount depends on the gain amount with respect to the sensor output, the threshold value may depend on a gain setting value for adjusting the sensitivity of the imaging apparatus.

また、一般的なカメラにおいて撮影感度は、画像フレーム内から得られた輝度に対して領域別に重み付けをして得られた被写体輝度値(Bv値)に依存するため、検出閾値をBv値に応じて可変しても良いことは言うまでもない。また、検出閾値は画像フレーム内の被写体領域のみの輝度である画像輝度値(Y値)に応じて設定されてもよい。被写体領域の輝度値が高くなっていると、フレーム間差分値の値も大きくなるため、被写体領域の画像輝度値に応じて検出閾値を可変しても良いことは言うまでもない。逆に、検出閾値を変更せずに、被写体領域の輝度値の平均値で画像差分値を正規化してもよい。またそれ以外にも、例えば焦点距離が長くなると被写体が画角から出る可能性が高いため、検出閾値を低めにしてもよい。また、被写体の追従枠(被写体枠)のサイズが大きくなるほどフレーム間差分値が大きくなるため、被写体枠の画像サイズやピクセル毎に検出閾値を設定してもよいし、フレーム間差分値を被写体枠内の画素数で平均値化してもよい。また、フレームレートをあげるほどフレーム間で被写体が動ける度合いが小さくなるため、フレームレートをあげるほど検出閾値を低く設定してもよい。以上のように、検出閾値は、撮影感度、ゲイン設定値、センサ個体のノイズ量、被写体輝度(Bv値)、被写体領域の画像輝度値(Y値)、フレームレートの少なくともいずれかによって決定され得る。   Further, in a general camera, the photographing sensitivity depends on the subject luminance value (Bv value) obtained by weighting the luminance obtained from the image frame for each region, so that the detection threshold is set according to the Bv value. Needless to say, it may be variable. The detection threshold may be set according to an image luminance value (Y value) that is the luminance of only the subject area in the image frame. When the luminance value of the subject area is high, the value of the inter-frame difference value is also large, so it goes without saying that the detection threshold value may be varied according to the image luminance value of the subject area. Conversely, the image difference value may be normalized with the average value of the luminance values of the subject area without changing the detection threshold. In addition to this, for example, when the focal length becomes long, the subject is more likely to come out of the angle of view, so the detection threshold may be lowered. Further, since the inter-frame difference value increases as the size of the subject tracking frame (subject frame) increases, a detection threshold value may be set for each image size or pixel of the subject frame. The average value may be obtained by the number of pixels. Further, since the degree to which the subject can move between frames decreases as the frame rate increases, the detection threshold may be set lower as the frame rate increases. As described above, the detection threshold can be determined by at least one of the imaging sensitivity, the gain setting value, the noise amount of the individual sensor, the subject luminance (Bv value), the image luminance value (Y value) of the subject region, and the frame rate. .

図10は、フレーム数が経過した場合にフレーム間の画像相関が下がっている例(フレーム間差分値が上がっている例)を示している。これは、追尾開始直後は被写体追尾が成功していたとすると、それと比較して画像相関が大幅に低くなっていることを示しており、具体的には被写体追尾が失敗して他の物体や平面的なものに追尾枠が追従している可能性が高い。   FIG. 10 shows an example in which the image correlation between frames decreases when the number of frames elapses (an example in which the inter-frame difference value increases). This indicates that if the subject tracking was successful immediately after the start of tracking, the image correlation was significantly lower than that. Specifically, the subject tracking failed and another object or plane There is a high possibility that the tracking frame follows the target.

これからもわかるように被写体追尾が成功している間は、追尾を開始してから時間の経過とともに、フレーム間差分値が一定レベルにあるか、または小さくなることが予想される。   As can be seen, while the subject tracking is successful, it is expected that the inter-frame difference value is at a constant level or becomes smaller as time elapses after the tracking is started.

この例のように、画像差分の最大値と最小値の時間的な関係において最大値のほうが遅くなった場合には、追尾に失敗している可能性が高い。したがって、フレーム間差分値が下降している場合(画像相関が上昇している場合)の検出閾値(図8で用いた検出閾値)よりも小さい検出閾値を設定し、時間的にフレーム間差分値が上昇する場合にはその検出閾値との比較により追尾に失敗していると判断する。   As in this example, when the maximum value is delayed in the temporal relationship between the maximum value and the minimum value of the image difference, there is a high possibility that tracking has failed. Therefore, a detection threshold smaller than the detection threshold (detection threshold used in FIG. 8) when the inter-frame difference value is decreasing (when the image correlation is increasing) is set, and the inter-frame difference value is temporally determined. Is increased, it is determined that tracking has failed by comparison with the detection threshold.

図11は、前述したような侵入物検出閾値の設定例を示しており、感度が高くなるにつれて検出閾値が高くなっており、また被写体領域の画像輝度値(Y値)に応じて検出閾値が高くなっている様子を示している。図11では、時系列的にフレーム間差分値が下降しているとき(画像相関が上昇しているとき)の閾値(下降系)と、時系列的にフレーム間差分値が上昇しているとき(画像相関が下降しているとき)の閾値(上昇系)の両方が設定されている。   FIG. 11 shows an example of setting the intruder detection threshold as described above. The detection threshold increases as the sensitivity increases, and the detection threshold is set according to the image luminance value (Y value) of the subject area. It shows how it is getting higher. In FIG. 11, when the inter-frame difference value is decreasing in time series (when the image correlation is increasing) and when the inter-frame difference value is increasing in time series Both threshold values (rising system) are set (when the image correlation is falling).

以上のように、フレーム間差分値の最大値を得た画像フレームが最小値を得た画像フレームよりも時間的に後である場合と、フレーム間差分値の最大値を得た画像フレームが最小値を得た画像フレームよりも時間的に前である場合とで、検出閾値を変える。例えば、時間的に古いフレーム間差分値に対して新しいものが第1の検出閾値より大きくなっていることを、また、時間的に古いものに対して新しいものが第1の検出閾値より大きい第2の検出閾値を超えて小さくなっていることを検出する。たとえば、上りは被写体領域に侵入物が入ってきたことを、下りは被写体領域に入っていた侵入物が出ていった、または被写体領域の動きが止まったことを検出するため、閾値を変えることが好ましい。   As described above, when the image frame that has obtained the maximum value of the inter-frame difference value is later in time than the image frame that has obtained the minimum value, the image frame that has obtained the maximum value of the inter-frame difference value is the smallest The detection threshold is changed depending on the time before the image frame from which the value was obtained. For example, a new value for a temporally old inter-frame difference value is larger than a first detection threshold, and a new one for a temporally old one is larger than a first detection threshold. 2 is detected to be smaller than the detection threshold value. For example, change the threshold to detect that an intruder has entered the subject area when going up, and that an intruder that entered the subject area has come out or that movement of the subject area has stopped moving down. Is preferred.

図6に戻り、ステップS212において、システムコントローラ107は、ステップS209で算出された評価値とステップS210で決定された検出閾値とを比較して、追尾がロストしたか否かを判定する。本実施形態においては、フレーム間差分値の最近の過去22フレームにおける最大値と最小値との差分と、検出閾値とを比較して、検出閾値よりも大きい場合に侵入物があった、すなわち追尾がロストしたと判定する。以上のようにして、システムコントローラ107は、追従領域に関して保存された複数の相関度の変化量に基づいて、被写体に対する追尾を続行するか否か(追尾が成功したか否か)を判定する。   Returning to FIG. 6, in step S212, the system controller 107 compares the evaluation value calculated in step S209 with the detection threshold value determined in step S210, and determines whether or not the tracking is lost. In this embodiment, the difference between the maximum value and the minimum value in the last 22 frames of the difference value between the frames in the last 22 frames is compared with the detection threshold value. Is determined to be lost. As described above, the system controller 107 determines whether or not to continue tracking the subject (whether or not the tracking is successful) based on the plurality of correlation degree changes stored for the tracking region.

ステップS213において、追尾が成功したと判定された場合には、処理はステップS201に戻り、追尾が失敗したと判定された場合には処理はステップS214に進む。ステップS214にて、システムコントローラ107は、表示制御部108に被写体枠を消去するよう指示し、追尾を終了する。表示制御部108は、被写体枠を消去する指示に応じてモニタ装置110に表示されている被写体枠を消去する。   If it is determined in step S213 that the tracking has been successful, the process returns to step S201. If it is determined that the tracking has failed, the process proceeds to step S214. In step S214, the system controller 107 instructs the display control unit 108 to delete the subject frame, and ends the tracking. The display control unit 108 erases the subject frame displayed on the monitor device 110 in response to an instruction to erase the subject frame.

次に顔検出部120による顔検出方法について説明する。顔検出方法としては、
・ニューラルネットワークに代表される学習を用いた方法、
・目や鼻といった物理的な形状の特徴のある部位を画像領域からテンプレートマッチングを用いた手法、
・肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法、
など、多数の方法が提案されており、一般的にはそれらの方法を複数組み合わせて顔認識が行われる。
Next, a face detection method by the face detection unit 120 will be described. As a face detection method,
・ Methods using learning represented by neural networks,
・ A method using template matching for parts with physical shape features such as eyes and nose from the image area,
・ A method using statistical analysis to detect image features such as skin color and eye shape,
Many methods have been proposed, and face recognition is generally performed by combining a plurality of these methods.

現在製品として提案されているものとしては、ウェーブレット変換と画像特徴量を利用して顔検出する方法や、テンプレートマッチング等を組み合わせた方法などが代表的である。   Typical products currently proposed include a face detection method using wavelet transform and image feature amounts, a method combining template matching, and the like.

本実施形態においては、顔検出方法としてどのような手法を採用してもかまわないが、その一例を以下に説明する。図4は本実施形態による顔検出処理を示すフローチャートであり、図3は顔検出の具体的内容を説明した図である。図3において顔検出する対象画像を図3の(a)とする。ステップS101において、顔検出部120は、画像中の肌色の領域を抽出する肌色領域抽出処理を行う。図2はCIELABのLab色空間における代表色を示した色度図であり、その中の楕円201は、肌色である可能性が高い領域である。図3の(b)は、肌色領域の色度である領域を画像中から抽出した様子を示した図である。ステップS102において、顔検出部120は、画像に対してハイパスフィルタを作用させる。図3の(c)は、(b)の画像に対してハイパスフィルタによる処理を施した画像である。このようなハイパスフィルタ処理には、例えば図5に示したような係数を持つ2次元ハイパスフィルタを用いればよい。   In this embodiment, any method may be adopted as the face detection method, but an example thereof will be described below. FIG. 4 is a flowchart showing face detection processing according to the present embodiment, and FIG. 3 is a diagram for explaining specific contents of face detection. The target image for face detection in FIG. 3 is assumed to be (a) in FIG. In step S <b> 101, the face detection unit 120 performs a skin color area extraction process for extracting a skin color area in the image. FIG. 2 is a chromaticity diagram showing representative colors in the CIELAB Lab color space, and an ellipse 201 in the chromaticity diagram is an area that is highly likely to be a skin color. FIG. 3B is a diagram illustrating a state in which an area that is the chromaticity of the skin color area is extracted from the image. In step S102, the face detection unit 120 applies a high-pass filter to the image. (C) of FIG. 3 is an image obtained by performing processing using a high-pass filter on the image of (b). For such high-pass filter processing, for example, a two-dimensional high-pass filter having coefficients as shown in FIG. 5 may be used.

ステップS103において、顔検出部120は、テンプレートマッチングを行い画像中における目の検出を行う。ステップS104において、顔検出部120は、検出された目の領域の位置関係から顔認識を行い、方向・大きさ等の特徴量抽出を行う。こうして、顔検出部120は、画像中から顔の領域を検出し、顔検出情報を生成して出力する。   In step S103, the face detection unit 120 performs template matching to detect eyes in the image. In step S <b> 104, the face detection unit 120 performs face recognition based on the positional relationship between the detected eye regions, and extracts feature amounts such as direction and size. Thus, the face detection unit 120 detects a face region from the image, generates face detection information, and outputs it.

次に、本実施形態の被写体追尾に用いられるフレーム間差分値の算出方法について説明する。なお、被写体の相関性および動きベクトルを検出する方法は多数提案されており、いずれの方法を用いてもよいが、ここではもっとも単純な方法について説明する。   Next, a method for calculating an inter-frame difference value used for subject tracking according to the present embodiment will be described. Many methods for detecting the correlation and motion vector of a subject have been proposed, and any method can be used. Here, the simplest method will be described.

図7は、本実施形態の被写体追尾部121による画像相関を算出する処理を示すフローチャートである。   FIG. 7 is a flowchart illustrating a process of calculating an image correlation by the subject tracking unit 121 according to the present embodiment.

ステップS301で、被写体追尾部121は、相関をとる元となる基準部分領域の画像データを取得する。本実施形態においては、前フレームの被写体枠において特定される部分領域の画像であり、追尾開始時では顔検出部120により検出された顔領域やユーザ指定された領域に対応する被写体枠が、追尾後では動きベクトルにより移動した被写体枠がこれに相当する。次に、ステップS302において、被写体追尾部121は、画像相関をとる現在フレームを取得する。   In step S301, the subject tracking unit 121 acquires image data of a reference partial region that is a source of correlation. In the present embodiment, the image is a partial area specified in the subject frame of the previous frame, and the subject frame corresponding to the face area detected by the face detection unit 120 or the user-specified area at the start of tracking The subject frame moved by the motion vector later corresponds to this. Next, in step S302, the subject tracking unit 121 acquires a current frame for which image correlation is performed.

ステップS303で、現在フレームにおいて、被写体枠の位置を垂直、水平、斜め方向のいずれかにずらし、現在フレームにおける被写体枠内の画像データを、追尾対象の部分領域(対象部分領域)の画像データとして取得する。ここで被写体枠の位置の移動は、あらかじめ定められた画素数を単位として、あらかじめ定められたベクトル移動量検出範囲で行われる。よって、ベクトル移動量検出範囲を大きく設定することで広範囲を見ることができるが、比較対象が増えることで、検出に時間がかかることになる。また、ベクトル移動量検出範囲を狭くすれば、検出スピードは向上するが検出能力が下がる。   In step S303, the position of the subject frame in the current frame is shifted to any one of vertical, horizontal, and diagonal directions, and the image data in the subject frame in the current frame is used as image data of the tracking target partial area (target partial area). get. Here, the movement of the position of the subject frame is performed within a predetermined vector movement amount detection range in units of a predetermined number of pixels. Therefore, a wide range can be seen by setting the vector movement amount detection range to be large, but detection takes time due to an increase in comparison objects. Further, if the vector movement amount detection range is narrowed, the detection speed is improved but the detection capability is lowered.

ステップS304において、被写体追尾部121は、画素ずらしを行って得られた対象部分領域の画像と基準部分領域の画像との画像差分値を算出する。そしてステップS305において、被写体追尾部121は、ステップS304での画像差分の絶対値の積分値を取得する。もちろん画像差分の積分値の絶対値が小さいほど画像相関性が高いことは言うまでもない。   In step S304, the subject tracking unit 121 calculates an image difference value between the image of the target partial area and the image of the reference partial area obtained by performing pixel shifting. In step S305, the subject tracking unit 121 acquires the integral value of the absolute value of the image difference in step S304. Needless to say, the smaller the absolute value of the integral value of the image difference, the higher the image correlation.

ステップS306において、被写体追尾部121は、ステップS305で取得された相関値がそれまでに取得された相関値の中で最も高い(画素間の差分値が最も小さい)場合、その相関値およびそのときの被写体枠の位置(ずらし量)を保存する。   In step S306, when the correlation value acquired in step S305 is the highest among the correlation values acquired so far (the difference value between the pixels is the smallest), the subject tracking unit 121 determines the correlation value and the time at that time. Save the subject frame position (shift amount).

ステップS308において、被写体追尾部121は、被写体枠の移動をベクトル移動量検出範囲の全範囲について終了したか判断し、終了していない場合には、処理をステップS303に戻す。他方、ベクトル移動量検出範囲の全てについて画像相関値が算出されていた場合には、ステップS309にてもっとも相関性が高かった画像相関値とそのときのずらし量(動きベクトル)を算出する。なお、最も相関性が高かった画像相関値があらかじめ定められた閾値に到達していない場合に当該追尾が失敗したとする判断を加えてもよい。   In step S308, the subject tracking unit 121 determines whether the movement of the subject frame has been completed for the entire range of the vector movement amount detection range. If not, the process returns to step S303. On the other hand, if image correlation values have been calculated for the entire vector movement amount detection range, the image correlation value having the highest correlation and the shift amount (motion vector) at that time are calculated in step S309. A determination that the tracking has failed may be added when the image correlation value having the highest correlation does not reach a predetermined threshold value.

以上説明したように、本実施形態の被写体追尾機能によれば、被写体や環境、カメラの感度設定によらず、追尾性能および失敗可否判断を正確に行うことができる。即ち、被写体追尾を行う際、高感度時のノイズ成分や被写体の背景の動きによって相関値が大きく変動するため、フレーム間の被写体相関値のみで正確に被写体追尾可否判断を行うことは一般には困難であるという課題を解決する。また、本実施形態の被写体追尾処理では、追尾が成功しているか否かの判定をフレーム間差分値の絶対値のみでなく、複数フレームにおけるフレーム間差分値の変化、シーンや被写体や撮像装置の設定に依存した閾値が用いられる。このため、精度良く被写体侵入がされた事を検出し、追尾の状態が成功しているか否かを判定することができることが可能である。無論、フレーム間差分値ではなく画像相関を用いて判定することも可能である。   As described above, according to the subject tracking function of the present embodiment, it is possible to accurately perform tracking performance and failure determination regardless of the subject, environment, and camera sensitivity setting. That is, when subject tracking, the correlation value varies greatly depending on the noise component at the time of high sensitivity and the movement of the subject's background, so it is generally difficult to accurately determine whether the subject can be tracked using only the subject correlation value between frames. Solve the problem of being. Further, in the subject tracking process of the present embodiment, whether or not the tracking is successful is determined not only by the absolute value of the inter-frame difference value, but also by the change of the inter-frame difference value in a plurality of frames, the scene, the subject, and the imaging device. A threshold depending on the setting is used. For this reason, it is possible to detect whether the subject has entered with high accuracy and to determine whether or not the tracking state is successful. Of course, it is also possible to make a determination using image correlation instead of the inter-frame difference value.

また、このような被写体追尾機能を利用した撮像装置では、被写体に最適な撮影設定および信号処理、被写体に追尾していることを示す被写体枠の表示/消去を適切に行うことができる。特に、本実施形態の被写体追尾機能によれば、固定パターンノイズや暗いところの画像相関による追尾の判断が適応的にできるため、撮像装置に置ける撮影条件の設定等を精度良く制御することが可能となる。そのような被写体の場合においても追尾の性能を向上させることができ、ユーザの使い勝手を向上させることができる。   In addition, an imaging apparatus using such a subject tracking function can appropriately perform optimal shooting settings and signal processing for a subject and display / erase of a subject frame indicating that the subject is being tracked. In particular, according to the subject tracking function of the present embodiment, it is possible to adaptively determine tracking based on fixed pattern noise or image correlation in a dark place, so it is possible to control the setting of shooting conditions that can be placed in the imaging apparatus with high accuracy. It becomes. Even in the case of such a subject, the tracking performance can be improved, and user convenience can be improved.

以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。   In the present invention, the functions of the above-described embodiments are achieved by supplying a software program directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Including the case. In this case, the supplied program is a computer program corresponding to the flowchart shown in the drawings in the embodiment.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。   Examples of the computer-readable storage medium for supplying the computer program include the following. For example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD- R).

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to a homepage on the Internet, and the computer program of the present invention is downloaded from the homepage to a recording medium such as a hard disk. In this case, the downloaded program may be a compressed file including an automatic installation function. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

実施形態における撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device in embodiment. CIELab色空間における代表的な色度図において、顔検出に用いられる肌色の領域を示した図である。FIG. 5 is a diagram illustrating a skin color region used for face detection in a typical chromaticity diagram in a CIELab color space. 実施形態における顔認識方法を説明する図である。It is a figure explaining the face recognition method in an embodiment. 実施形態における顔検出方法を説明するフローチャートである。It is a flowchart explaining the face detection method in embodiment. 実施形態における顔検出処理に用いられるハイパスフィルタの例を示す図である。It is a figure which shows the example of the high pass filter used for the face detection process in embodiment. 実施形態における、画像相関による被写体追尾を説明するフローチャートである。6 is a flowchart illustrating subject tracking by image correlation in the embodiment. 実施形態における、画像相関値及び動きベクトル量を算出する処理を示すフローチャートである。It is a flowchart which shows the process which calculates the image correlation value and motion vector amount in embodiment. 実施形態における侵入物検出評価値の算出を説明する図である。It is a figure explaining calculation of the intruder detection evaluation value in an embodiment. 実施形態におけるISO感度別の侵入物検出評価値の例を示す図である。It is a figure which shows the example of the intrusion detection evaluation value according to ISO sensitivity in embodiment. 実施形態における侵入物検出評価値の算出を説明する図である。It is a figure explaining calculation of the intruder detection evaluation value in an embodiment. 実施形態における検出閾値の設定例を示す図である。It is a figure which shows the example of a setting of the detection threshold value in embodiment.

Claims (8)

撮像された複数の画像フレームの部分領域における相関度に基づいて、前の画像フレームの追尾対象の部分領域に対応する部分領域を現在の画像フレームにおいて検出することにより、当該画像フレーム間で前記部分領域を追尾する追尾手段と、
前記追尾手段において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度を記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を保存する保存手段と、
前記保存手段で保存された複数の相関度の変化に基づいて、前記追尾手段による前記部分領域に対する追尾が成功したか否かを判定する判定手段とを備えることを特徴とする撮像装置。
Based on the degree of correlation in the partial areas of the plurality of captured image frames, the partial area corresponding to the tracking target partial area of the previous image frame is detected in the current image frame, so that the part between the image frames is detected. A tracking means for tracking the area;
Storing means for storing the correlation degrees related to the corresponding partial areas of a plurality of past image frames by storing the correlation degrees acquired for the corresponding partial areas in the current image frame in the tracking means; ,
An image pickup apparatus comprising: a determination unit configured to determine whether or not the tracking unit has successfully tracked the partial region based on a plurality of correlation degree changes stored by the storage unit.
前記判定手段は、前記保存手段に保存されている前記複数の相関値の最小値と最大値の差分値と、あらかじめ定められた閾値との比較により、前記部分領域に対する追尾が成功したか否かを判定することを特徴とする請求項1の撮像装置。   The determination unit determines whether the tracking for the partial area has succeeded by comparing a difference value between a minimum value and a maximum value of the plurality of correlation values stored in the storage unit and a predetermined threshold value. The imaging apparatus according to claim 1, wherein: 前記判定手段は、前記保存手段に保存されている前記複数の相関値の最小値と最大値の倍率値と、あらかじめ定められた閾値との比較により、前記部分領域に対する追尾が成功したか否かを判定するを特徴とする請求項1の撮像装置。   The determination unit determines whether the tracking for the partial region has succeeded by comparing a minimum value and a maximum magnification value of the plurality of correlation values stored in the storage unit with a predetermined threshold value. The imaging apparatus according to claim 1, wherein: 前記判定手段は、前記保存手段に保存された相関度のうちの、相関度の最大値を得た画像フレームが相関度の最小値を得た画像フレームよりも時間的に後である場合と、相関度の最大値を得た画像フレームが相関度の最小値を得た画像フレームよりも時間的に前である場合とで、前記比較に異なる閾値を用いることを特徴とする請求項2または3に記載の撮像装置。   The determination means includes a case in which the image frame that has obtained the maximum value of the correlation degree among the correlation degrees stored in the storage means is later in time than the image frame that has obtained the minimum value of the correlation degree; 4. A different threshold is used for the comparison in a case where an image frame having a maximum correlation value is temporally preceding an image frame having a minimum correlation value. The imaging device described in 1. 前記判定手段において用いられる前記閾値を、センサ出力に対するゲイン設定値、センサ個体のノイズ量、被写体輝度値、部分領域の輝度値、フレームレートの少なくともいずれかに基づいて決定する決定手段を更に備えることを特徴とする請求項2乃至4のいずれか1項に記載の撮像装置。   And a determination unit that determines the threshold value used in the determination unit based on at least one of a gain setting value for the sensor output, a noise amount of the individual sensor, a subject luminance value, a luminance value of a partial region, and a frame rate. The imaging device according to any one of claims 2 to 4, wherein 撮像された画像から顔を検出して、検出された顔の領域に基づいて追尾対象の部分領域を設定する設定手段を更に備えることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a setting unit that detects a face from the captured image and sets a partial area to be tracked based on the detected face area. 撮像された複数の画像フレームの部分領域における相関度に基づいて、前の画像フレームの追尾対象の部分領域に対応する部分領域を現在の画像フレームにおいて検出することにより、当該画像フレーム間で前記部分領域を追尾する追尾工程と、
前記追尾工程において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度をメモリに記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を前記メモリに保存する保存工程と、
前記メモリに保存された複数の相関度の変化に基づいて、前記追尾工程による前記部分領域に対する追尾が成功したか否かを判定する判定工程とを有することを特徴とする被写体追尾方法。
Based on the degree of correlation in the partial areas of the plurality of captured image frames, the partial area corresponding to the tracking target partial area of the previous image frame is detected in the current image frame, so that the part between the image frames is detected. A tracking process to track the area;
By storing in the memory the correlation degree acquired for the corresponding partial area in the current image frame in the tracking step, the correlation degree for the corresponding partial area of a plurality of past image frames is stored in the memory. A saving process to save;
And a determination step of determining whether or not the tracking of the partial area by the tracking step is successful based on a plurality of correlation degree changes stored in the memory.
請求項7に記載された被写体追尾方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the subject tracking method according to claim 7.
JP2008237189A 2008-09-16 2008-09-16 Subject tracking method and imaging apparatus Active JP5118590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008237189A JP5118590B2 (en) 2008-09-16 2008-09-16 Subject tracking method and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008237189A JP5118590B2 (en) 2008-09-16 2008-09-16 Subject tracking method and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2010074315A true JP2010074315A (en) 2010-04-02
JP2010074315A5 JP2010074315A5 (en) 2011-11-04
JP5118590B2 JP5118590B2 (en) 2013-01-16

Family

ID=42205721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008237189A Active JP5118590B2 (en) 2008-09-16 2008-09-16 Subject tracking method and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5118590B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069064A (en) * 2013-09-30 2015-04-13 株式会社ニコン Subject tracking device, imaging device and subject tracking program
US9652850B2 (en) 2012-06-06 2017-05-16 Fujitsu Limited Subject tracking device and subject tracking method
JP2018142981A (en) * 2018-04-24 2018-09-13 株式会社ニコン Subject tracking device, imaging device, and subject tracking program
CN113989695A (en) * 2021-09-18 2022-01-28 北京远度互联科技有限公司 Target tracking method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038624A (en) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd Vehicle recognition method, vehicle recognition device and vehicle recognition program
JP2005018656A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Driver state detector
JP2008100204A (en) * 2005-12-06 2008-05-01 Akira Tomono Mist generating apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038624A (en) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd Vehicle recognition method, vehicle recognition device and vehicle recognition program
JP2005018656A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Driver state detector
JP2008100204A (en) * 2005-12-06 2008-05-01 Akira Tomono Mist generating apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9652850B2 (en) 2012-06-06 2017-05-16 Fujitsu Limited Subject tracking device and subject tracking method
JP2015069064A (en) * 2013-09-30 2015-04-13 株式会社ニコン Subject tracking device, imaging device and subject tracking program
JP2018142981A (en) * 2018-04-24 2018-09-13 株式会社ニコン Subject tracking device, imaging device, and subject tracking program
CN113989695A (en) * 2021-09-18 2022-01-28 北京远度互联科技有限公司 Target tracking method and device, electronic equipment and storage medium
CN113989695B (en) * 2021-09-18 2022-05-20 北京远度互联科技有限公司 Target tracking method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP5118590B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
US8861806B2 (en) Real-time face tracking with reference images
JP5409189B2 (en) Imaging apparatus and control method thereof
US8988529B2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
JP5279635B2 (en) Image processing apparatus, image processing method, and program
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
JP2020514891A (en) Optical flow and sensor input based background subtraction in video content
JP2010114752A (en) Device and method of imaging and program
JP2008259161A (en) Target tracing device
JP2007067559A (en) Image processing method, image processing apparatus, and control method of imaging apparatus
JP5118590B2 (en) Subject tracking method and imaging apparatus
US20210256713A1 (en) Image processing apparatus and image processing method
JP2012231327A (en) Imaging apparatus, imaging method, and program
JP5539565B2 (en) Imaging apparatus and subject tracking method
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
JP5111293B2 (en) Imaging apparatus and control method thereof
JP5451364B2 (en) Subject tracking device and control method thereof
JP2016092513A (en) Image acquisition device, shake reduction method and program
JP5213493B2 (en) Motion detection device
JP5323243B2 (en) Image processing apparatus and control method thereof
WO2023106103A1 (en) Image processing device and control method for same
JP5247419B2 (en) Imaging apparatus and subject tracking method
US20220198683A1 (en) Object tracking apparatus and control method thereof using weight map based on motion vectors
US20230360229A1 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
US20230046830A1 (en) Image capturing apparatus that performs blur correction and method of controlling same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121019

R151 Written notification of patent or utility model registration

Ref document number: 5118590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3