JP2022140105A - Object tracking device and object tracking method - Google Patents

Object tracking device and object tracking method Download PDF

Info

Publication number
JP2022140105A
JP2022140105A JP2021040762A JP2021040762A JP2022140105A JP 2022140105 A JP2022140105 A JP 2022140105A JP 2021040762 A JP2021040762 A JP 2021040762A JP 2021040762 A JP2021040762 A JP 2021040762A JP 2022140105 A JP2022140105 A JP 2022140105A
Authority
JP
Japan
Prior art keywords
tracking
unit
detection
result
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021040762A
Other languages
Japanese (ja)
Other versions
JP7548079B2 (en
Inventor
真也 阪田
Shinya Sakata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021040762A priority Critical patent/JP7548079B2/en
Publication of JP2022140105A publication Critical patent/JP2022140105A/en
Application granted granted Critical
Publication of JP7548079B2 publication Critical patent/JP7548079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To accurately update the feature of an object to be tracked to perform accurate object tracking.SOLUTION: An object tracking device tracks an object included in an image composed of a plurality of frames, and comprises: an image acquisition unit that acquires the image; a storage unit that stores the feature of an object to be detected and the feature of an object to be tracked; an update unit that updates the feature of the object to be tracked in the storage unit; a detection unit that, based on the feature of the object to be detected stored in the storage unit, detects the object to be detected from the acquired image; and a tracking unit that, based on the feature of the object to be tracked stored in the storage unit, tracks the object to be tracked from the acquired image. The object tracking device performs both detection of the object to be detected performed by the detection unit and tracking of the object to be tracked performed by the tracking unit for the current frame. The update unit updates the feature of the object to be tracked based on a result of tracking and a result of detection. The tracking unit performs the tracking for the next frame by using the updated feature of the object to be tracked.SELECTED DRAWING: Figure 1

Description

本発明は、物体追跡装置および物体追跡方法に関する。 The present invention relates to an object tracking device and an object tracking method.

物体追跡には、入力された画像から検出する対象物(検出対象物)を探し出す検出処理と、検出された対象物と同一物体を各フレームから探し出す追跡処理が行われる。物体追跡においては、追跡する対象物(追跡対象物)の特徴を抽出したテンプレートを用い、入力された画像からテンプレートと同様の特徴を有する領域が探し出される。ここで、追跡対象物の特徴は、物体の移動や背景の変化に伴い変化する場合がある。したがって、テンプレートを順次更新しつつ追跡を行うことで、精度よく追跡を行うことができる。 Object tracking includes detection processing for searching for an object to be detected (detection target) from an input image and tracking processing for searching each frame for the same object as the detected object. In object tracking, a template obtained by extracting the characteristics of an object to be tracked (tracking object) is used to search an input image for an area having characteristics similar to those of the template. Here, the characteristics of the tracked object may change as the object moves or the background changes. Therefore, by performing tracking while sequentially updating the template, it is possible to perform tracking with high accuracy.

テンプレート更新に用いられる従来手法の一つに、追跡により得られた結果をテンプレートに部分的に反映させる逐次学習型の手法がある。この手法では、追跡対象物の過去の状態が考慮されてテンプレートが更新されるので被写体の変化に対してロバストな追跡が可能であるが、一度学習に失敗すると背景部分への貼りつきが起きることがある。また、追跡の誤差が積み重なり追跡に失敗する恐れがある。 One of the conventional methods used for template updating is a sequential learning method in which the results obtained by tracking are partially reflected in the template. In this method, since the template is updated considering the past state of the tracked object, it is possible to perform robust tracking against changes in the object. There is In addition, there is a risk that tracking errors will accumulate and tracking will fail.

他の従来手法として、テンプレートを更新時毎に置き換えるリセット型の手法がある。この手法では、背景部分への貼りつきは起きにくいが、追跡対象物の過去の情報が学習されないため前フレームから被写体の状態が急激に変化した場合には追跡に失敗しやすい。 Another conventional technique is a reset type technique that replaces the template each time it is updated. In this method, sticking to the background is less likely to occur, but since past information about the object to be tracked is not learned, tracking is likely to fail if the condition of the object changes abruptly from the previous frame.

このように、いずれの手法も得意な状況と不得意な状況がある。しかしながら、対象物にはあらゆる状況が想定されるため、テンプレート更新において逐次学習型とリセット型のどちらの手法を用いるべきか見極めるのは困難である。これに対し、特許文献1では、追跡結果の信頼度を算出し、信頼度に基づいてテンプレートの更新や、追跡終了の判定を行う手法を提案している。特許文献1の手法は、最初のフレームのみ検出を行い、次フレーム以降は追跡結果の信頼度に基づきテンプレートを更新し、更新されたテンプレートを用いて追跡を行う。しかしながら、常に形状が変化する対象物体の場合には、正しく追跡を行っていても信頼度が毎フレーム低く算出されるため、誤って追跡を終了する恐れがあり、追跡に失敗しやすいという問題がある。したがって、特許文献1のような手法では、精度よくテンプレートを更新できず、追跡に失敗する恐れがある。 As described above, each method has a good situation and a bad situation. However, since all situations are assumed for the object, it is difficult to determine whether the sequential learning type or the reset type should be used in template updating. On the other hand, Patent Document 1 proposes a method of calculating the reliability of the tracking result, and updating the template and determining the end of the tracking based on the reliability. The method of Patent Document 1 detects only the first frame, updates the template based on the reliability of the tracking result for subsequent frames, and performs tracking using the updated template. However, in the case of a target object whose shape is constantly changing, the reliability is calculated to be low in each frame even if the tracking is performed correctly, so there is a risk of erroneously ending the tracking, which is a problem in that the tracking is likely to fail. be. Therefore, with the method as disclosed in Japanese Patent Application Laid-Open No. 2002-200012, the template cannot be updated with high accuracy, and tracking may fail.

特開2010-147950号公報JP 2010-147950 A

本発明は、上記事情に鑑みなされたものであって、従来よりも精度よく物体追跡を行うことを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to perform object tracking with higher accuracy than in the past.

上記目的を達成するために本発明は、以下の構成を採用する。 In order to achieve the above objects, the present invention employs the following configurations.

本発明の第1態様は、複数のフレームからなる画像に含まれる対象物を追跡する物体追跡装置であって、前記画像を取得する画像取得部と、検出対象物の特徴と、追跡対象物の特徴を記憶した記憶部と、前記記憶部の前記追跡対象物の特徴を更新する更新部と、前記
記憶部に記憶された前記検出対象物の特徴に基づき、取得した画像から前記検出対象物を検出する検出部と、前記記憶部に記憶された前記追跡対象物の特徴に基づき、取得した画像から前記追跡対象物を追跡する追跡部と、を備え、前記物体追跡装置は、現フレームに対して、前記検出部による前記検出対象物の検出と、前記追跡部による前記追跡対象物の追跡との両方を行い、前記更新部は、追跡結果と検出結果に基づいて前記追跡対象物の特徴を更新し、前記追跡部は、次フレームに対しては、更新された前記追跡対象物の特徴を用いて前記追跡を行う、ことを特徴とする物体追跡装置である。
A first aspect of the present invention is an object tracking device for tracking an object contained in an image consisting of a plurality of frames, comprising: an image acquisition unit for acquiring the image; features of a detection object; a storage unit that stores features; an update unit that updates the features of the tracked object stored in the storage unit; and a tracking unit that tracks the tracked object from an acquired image based on the characteristics of the tracked object stored in the storage unit. detection of the detection target by the detection unit and tracking of the tracking target by the tracking unit, and the updating unit updates the characteristics of the tracking target based on the tracking result and the detection result. and the tracking unit performs the tracking using the updated features of the tracked object for the next frame.

検出対象物および追跡対象物の特徴は、例えば、色や形状に関する特徴量等を用いてもよい。検出結果および追跡結果には、検出または追跡した領域に関する情報が含まれているとよい。 For the features of the detection target and the tracking target, for example, feature amounts related to color and shape may be used. Detection and tracking results may include information about the detected or tracked area.

本態様に係る物体追跡装置は、フレーム毎に検出と追跡の両方を行い、追跡結果または検出結果を用いて追跡に用いるテンプレート(追跡対象物の特徴)を更新する。次フレームに対しては、更新されたテンプレートを用いて追跡を行う。このように、追跡結果または検出結果に基づき更新されたテンプレートを用いて追跡を行うことで、追跡対象物や背景の変化に応じたテンプレートを追跡に用いることができ、精度よく追跡を行うことができる。 The object tracking device according to this aspect performs both detection and tracking for each frame, and updates the template (features of the tracked object) used for tracking using the tracking result or the detection result. Tracking is performed using the updated template for the next frame. In this way, by performing tracking using a template updated based on the tracking result or detection result, it is possible to use a template for tracking according to changes in the tracked object or background, and to perform accurate tracking. can.

本態様における更新部は、追跡結果と検出結果の一致度に応じてテンプレートの更新方法を切り替えてもよい。一致度に応じてテンプレートの更新方法を切り替えることで、次フレームにおいて追跡の誤りが生じないようにすることができる。 The update unit in this aspect may switch the template update method according to the degree of matching between the tracking result and the detection result. By switching the template update method according to the degree of matching, it is possible to prevent tracking errors from occurring in the next frame.

テンプレート更新方法の切り替えは、例えば、一致度が第1閾値に対し高いか否かにより次のように行うとよい。ここで、第1閾値には、一致度がその値以上であれば追跡結果が正しいと見なせる値を設定する。一致度が第1閾値よりも高い場合は、検出結果と追跡結果のいずれかまたは両方の特徴を用いてテンプレートを更新する(第1更新処理)とよい。一方、一致度が第1閾値以下である場合は、一致度が第1閾値より高い場合よりも検出結果が大きく影響されるようにテンプレート更新する(第2更新処理)とよい。検出結果と追跡結果が一致しない場合は、いずれかに誤りがあることが想定される。追跡処理は稀ではあるが対象物と大きく異なる物体を捉えてしまうことがあり、検出処理の方が対象物と大きく異なる物体を捉えることは少ない。したがって、上記のように検出結果と追跡結果と一致しない場合に検出結果を優先することで、次フレームでの誤追跡の可能性を抑制できる。 The template update method may be switched as follows, for example, depending on whether the degree of matching is higher than the first threshold. Here, the first threshold value is set to a value at which the tracking result can be considered correct if the degree of matching is equal to or higher than that value. If the degree of matching is higher than the first threshold, the template may be updated using features of either or both of the detection result and tracking result (first update process). On the other hand, when the degree of matching is equal to or less than the first threshold, it is preferable to update the template (second update processing) so that the detection result is affected more than when the degree of matching is higher than the first threshold. If the detection result and the tracking result do not match, it is assumed that there is an error in either. Although the tracking process rarely captures an object that is significantly different from the target, the detection process rarely captures an object that is significantly different from the target. Therefore, by giving priority to the detection result when the detection result and the tracking result do not match as described above, the possibility of erroneous tracking in the next frame can be suppressed.

本態様における一致度は、検出により得られた対象物と、追跡により得られた対象物の一致の程度を表す指標である。一致度は、例えば、追跡結果に含まれる追跡対象物と検出結果に含まれる検出対象物の、中心位置の差または大きさの差に基づいて算出できる。 The degree of matching in this aspect is an index representing the degree of matching between the object obtained by detection and the object obtained by tracking. The degree of matching can be calculated, for example, based on the difference in center position or size between the tracked object included in the tracking result and the detected object included in the detection result.

本態様における更新部は、第1更新処理では、現フレームに対する追跡部による追跡結果を用いてテンプレートを更新し、第2更新処理では、現フレームに対する検出部による検出結果を用いてテンプレートを更新してもよい。あるいは、更新部は、第2更新処理において、現フレームに対する検出部による検出結果をテンプレートとして置き換えてもよい。また、更新部は、第1更新処理よりも第2更新処理の方が、テンプレート更新における学習率を大きくしてもよい。このようにすれば、一致度が第1閾値以下である場合に、一致度が第1閾値より高い場合よりも検出結果が大きく影響されるようにテンプレートを更新できる。 The update unit in this aspect updates the template using the tracking result of the tracking unit for the current frame in the first update process, and updates the template using the detection result of the current frame by the detection unit in the second update process. may Alternatively, the update unit may replace the detection result of the current frame by the detection unit as a template in the second update process. Also, the update unit may set the learning rate in template update larger in the second update process than in the first update process. In this way, the template can be updated such that when the degree of matching is equal to or less than the first threshold, the detection result is affected more than when the degree of matching is higher than the first threshold.

本態様における更新部は、追跡結果や検出結果の信頼度に応じてテンプレート更新方法を切り替えてもよい。追跡結果または検出結果の信頼度は、例えば、現フレームの追跡結
果または検出結果と背景画像との差分を用いて算出してもよい。なお、背景画像とは、検出領域に検出対象物が存在しないときの画像である。また、追跡結果または検出結果の信頼度は、フレーム間での追跡位置または検出位置の差を用いて算出してもよい。また、追跡結果の信頼度は、追跡結果の確からしさを示す追跡スコアを用いて算出してもよいし、検出結果の信頼度は、検出結果の確からしさを示す検出スコアを用いて算出してもよい。このように、信頼度や検出スコアも用いて切り替えることで、より適切にテンプレートを更新できる。
The update unit in this aspect may switch the template update method according to the reliability of the tracking result or the detection result. The reliability of the tracking result or detection result may be calculated using, for example, the difference between the tracking result or detection result of the current frame and the background image. Note that the background image is an image when the detection target does not exist in the detection area. Also, the reliability of the tracking result or detection result may be calculated using the difference in tracking position or detection position between frames. The reliability of the tracking result may be calculated using a tracking score that indicates the certainty of the tracking result, and the reliability of the detection result may be calculated using a detection score that indicates the certainty of the detection result. good too. In this way, the template can be updated more appropriately by switching using the reliability and the detection score.

追跡結果または検出結果の信頼に応じてテンプレートの更新方法を次のように切り替えてもよい。例えば、更新部は、追跡結果および検出結果のいずれの信頼度も第2閾値以下である場合には、現フレームにおいてテンプレートを更新しなくてもよい。あるいは、更新部は、追跡結果の信頼度は第2閾値より高く、検出結果の信頼度が第2閾値以下である場合には、追跡結果と検出結果の一致度にかかわらずに第1更新処理を行ってもよい。また、更新部は、追跡結果の信頼度は第2閾値以下であり、検出結果の信頼度が第2閾値より高い場合には、追跡結果と検出結果の一致度にかかわらずに第2更新処理を行ってもよい。さらに、更新部は、追跡結果および検出結果のいずれの信頼度も第2閾値より高い場合には、一致度に応じて第1更新処理または第2更新処理を行うとよい。さらにまた、更新部は、追跡結果と検出結果のいずれか一方のみを考慮してテンプレートの更新方法を切り替えてもよい。例えば、検出結果の信頼度が第3閾値より高い場合には、追跡結果と検出結果の一致度に応じて第1更新処理または第2更新処理を行い、信頼度が第3閾値以下である場合には、現フレームにおいてテンプレートを更新しないようにしてもよい。追跡結果の信頼度のみを考慮して切り替える場合も同様とすることができる。 The template update method may be switched as follows depending on the reliability of the tracking result or detection result. For example, the updating unit may not update the template in the current frame when the reliability of both the tracking result and the detection result is equal to or lower than the second threshold. Alternatively, if the reliability of the tracking result is higher than the second threshold and the reliability of the detection result is lower than or equal to the second threshold, the updating unit performs the first update process regardless of the degree of matching between the tracking result and the detection result. may be performed. Further, when the reliability of the tracking result is equal to or less than the second threshold and the reliability of the detection result is higher than the second threshold, the update unit performs the second update process regardless of the degree of matching between the tracking result and the detection result. may be performed. Furthermore, when the reliability of both the tracking result and the detection result is higher than the second threshold, the updating unit preferably performs the first updating process or the second updating process according to the degree of matching. Furthermore, the update unit may switch the template update method in consideration of only one of the tracking result and the detection result. For example, if the reliability of the detection result is higher than the third threshold, the first update process or the second update process is performed according to the degree of matching between the tracking result and the detection result. Alternatively, the template may not be updated in the current frame. The same can be applied to the case of switching only considering the reliability of the tracking result.

本態様に係る物体追跡装置は、同一のフレームから複数の追跡結果および検出結果が得られた場合は、追跡結果と検出結果の対応付け(ペアリング)を行うとよい。このように、追跡結果と検出結果のペアリングを行うことで、複数の追跡結果および検出結果が得られた場合においてもそれぞれのペアごとにテンプレートを更新し、精度よく追跡を行うことができる。 When a plurality of tracking results and detection results are obtained from the same frame, the object tracking device according to this aspect preferably associates (pairs) the tracking results and the detection results. By pairing the tracking result and the detection result in this way, even when a plurality of tracking results and detection results are obtained, the template can be updated for each pair, and accurate tracking can be performed.

本発明の第2態様は、コンピュータが行う、複数のフレームからなる画像に含まれる対象物を追跡する物体追跡方法であって、前記画像を取得する画像取得ステップと、記憶部に格納されている検出対象物の特徴に基づき、取得した画像から前記検出対象物を検出する検出ステップと、前記記憶部に格納されている追跡対象物の特徴に基づき、取得した画像から前記追跡対象物を追跡する追跡ステップと、を含み、前記物体追跡方法は、現フレームに対して、前記検出ステップと、前記追跡ステップと、前記追跡対象物の特徴を更新する更新ステップと、を行い、次フレームに対しては、更新された前記追跡対象物の特徴を用いて前記追跡ステップを行う、ことを特徴とする物体追跡方法である。 A second aspect of the present invention is a computer-performed object tracking method for tracking an object included in an image consisting of a plurality of frames, comprising: an image acquisition step of acquiring the image; A detection step of detecting the detection target from the acquired image based on the features of the detection target, and tracking the tracking target from the acquired image based on the features of the tracking target stored in the storage unit. a tracking step, wherein the object tracking method performs the detecting step, the tracking step, and the updating step of updating features of the tracked object for a current frame; is an object tracking method characterized in that the tracking step is performed using updated features of the tracked object.

本発明は、上記手段の少なくとも一部を有する物体追跡装置として捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む物体追跡方法として捉えてもよい。また、本発明は、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。 The present invention may be regarded as an object tracking device having at least part of the above means. Moreover, the present invention may be regarded as an object tracking method including at least part of the above processing. Further, the present invention can also be regarded as a program for realizing such a method and a recording medium on which the program is non-temporarily recorded. It should be noted that each of the means and processes described above can be combined with each other as much as possible to constitute the present invention.

本発明によれば、従来よりも精度よく物体追跡を行うことができる。 According to the present invention, object tracking can be performed with higher accuracy than in the past.

図1は、物体追跡装置の機能構成を示す図である。FIG. 1 is a diagram showing the functional configuration of an object tracking device. 図2は、物体追跡装置におけるテンプレートの更新(学習)処理を説明する図である。FIG. 2 is a diagram for explaining template update (learning) processing in the object tracking device. 図3は、物体追跡装置のハードウェア構成を示す図である。FIG. 3 is a diagram showing the hardware configuration of the object tracking device. 図4は、物体追跡装置が実施する全体処理のフローチャートである。FIG. 4 is a flowchart of overall processing performed by the object tracking device. 図5は、検出結果および追跡結果の信頼度を用いる場合のフローチャートである。FIG. 5 is a flow chart for using the reliability of detection results and tracking results. 図6は、検出スコアを用いる場合のフローチャートである。FIG. 6 is a flow chart when using the detection score.

<適用例>
図1を参照して、本発明に係る物体追跡装置の適用例を説明する。物体追跡装置1は、取得した画像を解析して、対象物を検出・追跡する装置である。画像は、カメラから取得してもよいし、通信装置から受信してもよく、記録媒体から読み取ってもよい。対象物は任意の物体でよく、例えば、人体、顔、動物、車両、部品が例として挙げられる。ここでは一例として、人体を追跡する場合を想定する。この物体追跡装置1は、例えば、オフィスや工場などにおいて、対象とする人体の検出、認識、追跡などを行う。物体追跡装置1の追跡結果は、外部装置に出力され、例えば、人数のカウント、照明や空調など各種機器の制御などに利用される。
<Application example>
An application example of an object tracking device according to the present invention will be described with reference to FIG. The object tracking device 1 is a device that analyzes an acquired image to detect and track an object. The image may be obtained from a camera, received from a communication device, or read from a recording medium. The target object can be any object, for example, human body, face, animal, vehicle, and parts. Here, as an example, it is assumed that a human body is tracked. This object tracking device 1 detects, recognizes, and tracks a target human body, for example, in an office, a factory, or the like. The tracking result of the object tracking device 1 is output to an external device and used, for example, for counting the number of people and controlling various devices such as lighting and air conditioning.

本適用例では、検出と追跡の両方を毎フレーム行う。追跡に用いるテンプレート(追跡対象物の特徴)の学習は、基本的に逐次学習型のアルゴリズムにより行う。より具体的には、検出または追跡により得られた結果を用いてテンプレートを逐次更新し、次フレームでは更新されたテンプレートを用いて追跡を行う。ここで、不正確な追跡結果が得られた場合や、逐次学習に伴い背景など追跡対象以外の特徴が徐々に入り込んでしまった場合には、追跡誤差が積み重なり、最終的に追跡に失敗する恐れがある。そこで本適用例では、現フレームに対し検出と追跡の両方を行い、テンプレートを更新する方法を切り替えることで、追跡性能を向上する手法を提案する。 In this application example, both detection and tracking are performed every frame. Learning of the template (feature of the object to be tracked) used for tracking is basically performed by a sequential learning algorithm. More specifically, the template is sequentially updated using the results obtained by detection or tracking, and tracking is performed using the updated template in the next frame. However, if inaccurate tracking results are obtained, or if features other than the target of tracking, such as the background, are gradually introduced as a result of sequential learning, the tracking error will accumulate and the tracking may eventually fail. There is Therefore, this application example proposes a method for improving tracking performance by performing both detection and tracking for the current frame and switching the template update method.

画像取得部2は、物体追跡の対象とする画像データを取得する機能を有する。検出部3は、取得された画像から、検出対象物である人体の特徴に基づき人体の探索を行う。追跡部4は、取得された画像から、前フレームまでに検出部3により検出された人体と同じ人体の探索を行う。追跡に用いるテンプレートは、更新部5により更新される。 The image acquisition unit 2 has a function of acquiring image data for object tracking. The detection unit 3 searches for the human body based on the characteristics of the human body, which is the detection target, from the acquired image. The tracking unit 4 searches for the same human body as the human body detected by the detection unit 3 up to the previous frame from the acquired image. The template used for tracking is updated by the updating unit 5 .

更新部5は、追跡結果または検出結果を用いてテンプレートの更新を行う。追跡部4は、次フレームからは更新されたテンプレートを用いて追跡を行う。このように、現フレームの追跡結果または検出結果に基づき更新されるテンプレートを用いて追跡を行うことで、精度よく追跡を行うことができる。 The update unit 5 updates the template using the tracking result or detection result. The tracking unit 4 performs tracking using the updated template from the next frame. In this manner, by performing tracking using a template that is updated based on the tracking result or detection result of the current frame, accurate tracking can be performed.

テンプレート更新方法は、例えば、検出結果と追跡結果の一致度に応じて切り替えてもよい。一致度とは、検出部3が示す人体と、追跡部4が示す人体の一致の程度を表す。例えば、検出矩形と追跡矩形の位置座標の一致度や、検出矩形と追跡矩形の画像の一致度を用いて算出してもよい。 The template update method may be switched according to, for example, the degree of matching between the detection result and the tracking result. The matching degree represents the degree of matching between the human body indicated by the detection unit 3 and the human body indicated by the tracking unit 4 . For example, it may be calculated using the degree of matching between the position coordinates of the detection rectangle and the tracking rectangle, or the degree of matching between the images of the detection rectangle and the tracking rectangle.

テンプレートは、一致度が第1閾値よりも高い場合にそうでない場合と比較して検出結果が大きく影響するように更新するとよい。例えば、一致度が第1閾値よりも高い場合は追跡結果を用いてテンプレートを更新し、第1閾値以下である場合は検出結果を用いて更新してもよい。なお、更新方法の切り替えはこの方法に限られない。 The template may be updated so that the detection result has a greater influence when the degree of matching is higher than the first threshold compared to when it is not. For example, if the degree of matching is higher than the first threshold, the template may be updated using the tracking result, and if the degree of matching is equal to or less than the first threshold, the template may be updated using the detection result. Note that switching of the update method is not limited to this method.

このように一致度に応じてテンプレート更新方法を切り替えることで、より精度よくテンプレート更新を行うことができ、追跡精度が向上する。 By switching the template update method according to the degree of matching in this way, the template can be updated more accurately, and the tracking accuracy is improved.

また、テンプレート更新に用いる特徴の切り替えは、検出結果または追跡結果の信頼度に応じて更新に用いる結果を切り替えてもよい。信頼度は、追跡結果と検出結果の双方について算出してもよく、どちらか一方でもよい。追跡結果と検出結果の信頼度は、例えば、背景画像に基づいて算出してもよく、追跡または検出された対象物のフレーム間における位置の差に基づいて算出してもよい。また、検出結果の信頼度は、検出結果の確からしさを表す検出スコアに基づき算出してもよい。このように、信頼度や検出スコアも合わせて考慮しテンプレート更新に用いる特徴を切り替えることで、より精度よくテンプレートを更新し、追跡精度が向上することができる。 Also, the switching of the features used for template updating may be performed by switching the result used for updating according to the reliability of the detection result or tracking result. The reliability may be calculated for both the tracking result and the detection result, or may be calculated for either one. The reliability of the tracking result and the detection result may be calculated, for example, based on the background image, or may be calculated based on the positional difference between the frames of the tracked or detected object. Also, the reliability of the detection result may be calculated based on a detection score representing the certainty of the detection result. In this way, by switching the features to be used for template update in consideration of reliability and detection score as well, the template can be updated more accurately, and the tracking accuracy can be improved.

<実施形態1>
以下で説明する実施形態は、物体追跡装置1に関する。図2に示すように、ここでは一例としてカメラが撮影した画像から人体10を追跡する装置を想定するが、あくまで例示に過ぎず、画像から検出および追跡する物体は人体である必要はなく、任意の物体であってよい。例えば、動物、車両、部品が例として挙げられる。また、画像の取得元もカメラに限られず、例えばハードディスクに記録された画像に対して物体追跡装置を適用してもよい。
<Embodiment 1>
The embodiments described below relate to an object tracking device 1 . As shown in FIG. 2, here, as an example, a device for tracking a human body 10 from an image captured by a camera is assumed, but this is merely an example, and the object to be detected and tracked from the image does not have to be a human body. can be an object of Examples include animals, vehicles, and parts. Also, the image acquisition source is not limited to a camera, and the object tracking device may be applied to images recorded in a hard disk, for example.

本実施形態による物体追跡装置1は、例えば、監視カメラや車載カメラによる人体検出、オートフォーカス(AF)、人数カウントなどに用いることができる。 The object tracking device 1 according to this embodiment can be used, for example, for human body detection using a surveillance camera or an in-vehicle camera, autofocus (AF), and counting people.

<ハードウェア構成>
図3は、本実施形態に係る物体追跡装置1のハードウェア構成を示す図である。物体追跡装置1は、通信IF(インターフェース)20、通信装置21、記憶装置22、演算装置23、入力装置24、出力装置25を含む。通信IF20は、本実施形態ではカメラから直接画像データを受け取るが、通信装置21や記録媒体を介して画像データを受け取ってもよい。通信装置21は、物体追跡装置1が外部のコンピュータと通信を行うための装置である。通信の形態は有線であっても無線であってもよく、通信規格は任意であってよい。記憶装置22は、主記憶装置および補助記憶装置を含み、演算装置23によって実行されるプログラムや画像データやプログラム実行中の一時データを格納する。入力装置24は、ユーザが物体追跡装置1に指示を入力するための装置であり、例えば、ボタン、キーボード等から構成される。出力装置25は、物体追跡装置がユーザに対する出力を行うための装置であり、例えば、表示装置、制御装置、スピーカなどから構成される。
<Hardware configuration>
FIG. 3 is a diagram showing the hardware configuration of the object tracking device 1 according to this embodiment. The object tracking device 1 includes a communication IF (interface) 20 , a communication device 21 , a storage device 22 , an arithmetic device 23 , an input device 24 and an output device 25 . The communication IF 20 receives image data directly from the camera in this embodiment, but may receive image data via the communication device 21 or a recording medium. The communication device 21 is a device for the object tracking device 1 to communicate with an external computer. The form of communication may be wired or wireless, and the communication standard may be arbitrary. The storage device 22 includes a main storage device and an auxiliary storage device, and stores programs executed by the arithmetic unit 23, image data, and temporary data during program execution. The input device 24 is a device for the user to input instructions to the object tracking device 1, and is composed of, for example, buttons and a keyboard. The output device 25 is a device for the object tracking device to output to the user, and is composed of, for example, a display device, a control device, a speaker, and the like.

図1は本実施形態に係る物体追跡装置1の機能ブロック図である。本実施形態の物体追跡装置1は、画像取得部2、検出部3、追跡部4、更新部5、記憶部6、出力部7の各機能部を有している。これらの機能部は、演算装置23が記憶装置22に記憶されているプログラムを実行することにより実現される。ただし、これらの機能部の一部またはすべては、ASICなどの専用の装置によって実現されてもよい。 FIG. 1 is a functional block diagram of an object tracking device 1 according to this embodiment. The object tracking device 1 of this embodiment has functional units such as an image acquiring unit 2 , a detecting unit 3 , a tracking unit 4 , an updating unit 5 , a storage unit 6 and an output unit 7 . These functional units are realized by the arithmetic device 23 executing programs stored in the storage device 22 . However, some or all of these functional units may be implemented by dedicated devices such as ASICs.

(画像取得部2)
画像取得部2は、物体追跡の対象とする画像データを取得する機能を有する。取得する画像データは複数のフレームからなる画像であり、静止画像でも動画像でもよい。また、取得する画像は、カメラ26から取得されてもよいし、通信装置21や記憶装置22から取得されてもよい。取り込まれた画像データは、検出部3および追跡部4に引き渡される。
(Image acquisition unit 2)
The image acquisition unit 2 has a function of acquiring image data for object tracking. The image data to be acquired is an image consisting of a plurality of frames, and may be a still image or a moving image. Also, the image to be acquired may be acquired from the camera 26 or may be acquired from the communication device 21 or the storage device 22 . The captured image data is handed over to the detection unit 3 and the tracking unit 4 .

(検出部3)
検出部3は、記憶部6に記憶された検出対象物の特徴に基づき、画像取得部2が取得した画像から検出対象物を検出する。すなわち、検出部3は、検出対象物である人一般に共通する特徴に基づき、人体が含まれる領域を探索する。検出に用いるアルゴリズムは、人
体を検出する任意のアルゴリズムが採用可能である。検出結果は更新部5に引き渡される。
(Detector 3)
The detection unit 3 detects the detection target from the image acquired by the image acquisition unit 2 based on the features of the detection target stored in the storage unit 6 . In other words, the detection unit 3 searches for a region including a human body based on features common to people, who are detection targets. Any algorithm for detecting a human body can be adopted as the algorithm used for detection. The detection result is handed over to the updating unit 5 .

(追跡部4)
追跡部4は、記憶部6に記憶された追跡対象物の特徴に基づき、画像取得部2が取得した画像から追跡対象物を追跡する。すなわち、追跡部4は、追跡対象物である検出部3が検出した特定の人体を識別可能な特徴に基づき、前フレームまでに検出部3が検出した人体と同一の人体が含まれる領域を探索する。追跡部4が追跡に用いるテンプレートは更新部5により更新され、次フレームに対しては、更新されたテンプレートを用いて追跡を行う。追跡結果は更新部5に引き渡される。
(Tracking unit 4)
The tracking unit 4 tracks the tracking object from the image acquired by the image acquisition unit 2 based on the characteristics of the tracking object stored in the storage unit 6 . That is, the tracking unit 4 searches for a region containing the same human body as the human body detected by the detection unit 3 in the previous frame, based on the characteristics that can identify a specific human body detected by the detection unit 3, which is the object to be tracked. do. The template used for tracking by the tracking unit 4 is updated by the updating unit 5, and the updated template is used for tracking for the next frame. The tracking result is handed over to the updating unit 5 .

ここで、本実施形態では、検出部3や追跡部4が対象物の探索に用いる特徴の一例として、色の特徴量であるカラーヒストグラムを用いる。カラーヒストグラムは、歩行中の人のように形状が変化する場合であっても、色の分布は一定であるため、追跡対象が人の場合に好適である。なお、用いる特徴量は色に限られず、例えば輝度や形状に関する特徴量などを用いてもよく、複数の特徴量等を組み合わせて使用してもよい。 Here, in the present embodiment, a color histogram, which is a color feature amount, is used as an example of features used by the detection unit 3 and the tracking unit 4 to search for an object. The color histogram has a constant color distribution even when the shape changes, such as when a person is walking, so it is suitable for tracking a person. Note that the feature amount to be used is not limited to color. For example, a feature amount related to brightness or shape may be used, or a combination of a plurality of feature amounts may be used.

(更新部5)
更新部5は、検出部3による検出結果と、追跡部4による追跡結果との一致度に応じて更新(学習)方法を切り替える機能を有する。本実施形態では、更新部5は、一致度に応じてテンプレート更新に用いる特徴を追跡結果と検出結果において切り替えるとともに、学習率を変更する。一致度は、追跡部4が示す追跡矩形12と検出部3が示す検出矩形11の中心位置の差を用いて算出する。なお、一致度は追跡結果と検出結果の類似度を比較できるものであればよい。例えば、結果の類似度は、中心間距離のほか、領域の大きさの差や、IoU(Intersection over Union)を用いて算出してもよく、画像類似度から算
出してもよい。画像類似度は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、相互相関等を用いて算出してもよく、顔向きや姿勢など画像内
の被写体の類似度を用いて算出してもよい。
(Update part 5)
The update unit 5 has a function of switching update (learning) methods according to the degree of matching between the detection result by the detection unit 3 and the tracking result by the tracking unit 4 . In this embodiment, the updating unit 5 switches the feature used for template update between the tracking result and the detection result according to the degree of matching, and changes the learning rate. The matching degree is calculated using the difference between the center positions of the tracking rectangle 12 indicated by the tracking unit 4 and the detection rectangle 11 indicated by the detection unit 3 . Note that the degree of coincidence may be anything as long as the degree of similarity between the tracking result and the detection result can be compared. For example, the resulting similarity may be calculated using the distance between centers, the difference in area size, IoU (Intersection over Union), or may be calculated from the image similarity. The image similarity may be calculated using SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), cross-correlation, etc. It is calculated using the similarity of the subject in the image such as face orientation and posture. may

ここで、追跡も検出も正しく行われている場合は、追跡結果と検出結果は同様の領域が出力される。一方、追跡結果と検出結果が異なる領域を出力した場合は、追跡が正しく行われていない可能性がある。そこで、第1閾値には、一致度がその値以上であれば追跡が正しく行えていると判断できる値を設定する。このような値を設定し、第1閾値を境にテンプレート更新に用いる方法を切り替えることで、より精度よくテンプレート更新を行うことができる。なお、第1閾値は任意の値でよく、例えば、厳密な精度が求められる物体追跡の場合は、そうでない場合よりも所定の割合大きくする、と定めてもよい。更新部5による更新方法の切り替えについては、以下でフローチャートを参照しながら詳細に説明する。 Here, when both tracking and detection are performed correctly, similar regions are output for the tracking result and the detection result. On the other hand, if the tracking result and the detection result differ from each other, the tracking may not be performed correctly. Therefore, the first threshold value is set to a value at which it can be determined that tracking is being performed correctly if the degree of matching is equal to or higher than that value. By setting such a value and switching the method used for template update with the first threshold as a boundary, template update can be performed with higher accuracy. Note that the first threshold value may be an arbitrary value, and for example, it may be set to be larger by a predetermined percentage in the case of object tracking that requires strict accuracy than in other cases. The switching of the update method by the update unit 5 will be described in detail below with reference to the flowchart.

(記憶部6)
記憶部6は、検出部3が用いる検出対象物の特徴(検出用のテンプレート)と、追跡部4が用いる追跡対象物の特徴(追跡用のテンプレート)を記憶する機能を有する。記憶部6はまた、更新に用いる係数など追跡処理および更新処理に用いる各種のパラメータ等も記憶している。
(storage unit 6)
The storage unit 6 has a function of storing the features (detection template) of the detection object used by the detection unit 3 and the features (tracking template) of the tracking object used by the tracking unit 4 . The storage unit 6 also stores various parameters such as coefficients used for updating, which are used for tracking processing and updating processing.

(出力部7)
出力部7は、画像や検出結果・追跡結果などの情報を外部装置に出力する機能を有する。例えば、出力部7は、外部装置としてディスプレイに情報を表示してもよいし、外部装置として照明装置や空調装置に情報や制御信号を送信してもよいし、記録装置に格納してもよい。
(Output unit 7)
The output unit 7 has a function of outputting information such as images and detection results/tracking results to an external device. For example, the output unit 7 may display information on a display as an external device, may transmit information and control signals to a lighting device or an air conditioner as an external device, or may be stored in a recording device. .

<全体処理>
図4は、物体追跡処理の全体フローチャートである。図1および図4に沿って物体追跡処理の全体的な流れを説明する。
<Overall processing>
FIG. 4 is an overall flowchart of object tracking processing. The overall flow of object tracking processing will be described with reference to FIGS. 1 and 4. FIG.

ステップS101では、検出部3が、現フレーム画像から、検出対象物である人体の特徴に基づき、人体の検出を行う。 In step S101, the detection unit 3 detects a human body from the current frame image based on the characteristics of the human body, which is the object to be detected.

ステップS102では、追跡部4が、現フレーム画像から、テンプレートに基づき追跡対象物の追跡を行う。追跡対象物とは、前フレーム画像までに追跡を行っていた場合は、前フレーム画像で追跡していた人体のことである。前フレームまでに追跡は行っておらず、検出部3による検出結果のみある場合は、検出部3により検出された人体のことである。 In step S102, the tracking unit 4 tracks the tracked object based on the template from the current frame image. The tracked object is the human body that was tracked in the previous frame image when the track was performed up to the previous frame image. If there is only the detection result by the detection unit 3 without tracking up to the previous frame, it means the human body detected by the detection unit 3 .

ステップS103では、更新部5が追跡結果および検出結果の矩形の中心間距離に基づき、対応付け(ペアリング)を行う。なお、ペアリングは矩形の中心間距離に基づき行ってもよいし、矩形の最短距離や、矩形の大きさの類似度などに基づき行ってもよい。ステップS104~S106のループ処理L1以降の処理は、ペアリングされた追跡結果と検出結果についてそれぞれ処理を行う。 In step S103, the updating unit 5 performs association (pairing) based on the center-to-center distance of the rectangles of the tracking result and the detection result. The pairing may be performed based on the distance between the centers of the rectangles, the shortest distance between the rectangles, the similarity of the size of the rectangles, or the like. The processing after the loop processing L1 of steps S104 to S106 respectively processes the paired tracking result and detection result.

ステップS104では、更新部5が、追跡部4が示す追跡矩形12の中心座標と、検出部3が示す検出矩形11の中心座標から一致度を判定する。一致度が第1閾値よりも高い場合はステップS105に進み、第1閾値以下である場合はステップS106に進む。本実施形態では、ステップS105の処理が第1更新処理に相当し、ステップS106の処理が第2更新処理に相当する。 In step S<b>104 , the update unit 5 determines the degree of matching from the center coordinates of the tracking rectangle 12 indicated by the tracking unit 4 and the center coordinates of the detection rectangle 11 indicated by the detection unit 3 . If the degree of matching is higher than the first threshold, the process proceeds to step S105, and if it is equal to or less than the first threshold, the process proceeds to step S106. In this embodiment, the process of step S105 corresponds to the first update process, and the process of step S106 corresponds to the second update process.

本実施形態では、現フレームの追跡結果または検出結果を用いてテンプレートの更新を行う。以下にテンプレート更新に用いる式の一例を記載する。 In this embodiment, the template is updated using the tracking result or detection result of the current frame. An example of the expression used for template update is described below.

n+1=α×F+(1-α)×Fn―1
ここで
n+1:次フレームで追跡に用いる特徴量
:現フレームから得られた対象物の特徴量
n-1:前フレームまでに記憶していた特徴量
α:学習率
である。
Fn+1 = α×Fn+(1−α)× Fn−1
Here, F n+1 : feature quantity used for tracking in the next frame F n : feature quantity of the object obtained from the current frame F n-1 : feature quantity stored up to the previous frame α: learning rate.

ステップS105では、更新部5が、「現フレームから得られた対象物の特徴量(Fn)」として「現フレームの追跡結果が示す特徴量」を用い、学習率(α)を「0.1」としてテンプレート更新(逐次学習)を行う。なお、学習率とは、記憶部6に記憶されたテンプレートをどの程度変更するかを表すパラメータである。すなわち、S105では上述した式に示すように、現フレームの追跡結果が示す特徴量と、前フレームまでに記憶していた特徴量が1:9の比率で合成されるようにテンプレートを更新する。これにより、次フレームでは適切に更新されたテンプレートを用いて追跡を行うことができる。なお、本実施形態のステップS105では更新に用いる特徴として追跡結果を採用するが、検出結果を採用してもよいし、追跡結果と検出結果の両方を組み合わせて採用してもよい。また、学習率の値は「0.1」に限られず、任意の値でよい。 In step S105, the update unit 5 uses the "feature amount indicated by the tracking result of the current frame" as the "feature amount (Fn) of the object obtained from the current frame", and sets the learning rate (α) to "0.1 ” to update the template (sequential learning). Note that the learning rate is a parameter that indicates how much the template stored in the storage unit 6 is changed. That is, in S105, as shown in the above formula, the template is updated so that the feature amount indicated by the tracking result of the current frame and the feature amount stored up to the previous frame are combined at a ratio of 1:9. As a result, tracking can be performed using an appropriately updated template in the next frame. In step S105 of the present embodiment, the tracking result is used as the feature used for updating, but the detection result may be used, or both the tracking result and the detection result may be used in combination. Also, the value of the learning rate is not limited to "0.1" and may be any value.

ステップS106では、更新部5が、「現フレームから得られた対象物の特徴量(Fn)」として「現フレームの検出結果が示す特徴量」を用い、学習率(α)を「1」として
、すなわちテンプレートを現フレームの検出結果が示す特徴量へ置き換え(リセット)を行う。ここで、一致度が低い場合は、追跡結果が不正確な結果を示している可能性がある。したがって、テンプレートを現フレームの検出結果に即時に置き換えることで、次フレームからの追跡精度を迅速に回復することができる。学習率はS105よりも高ければよく、例えば学習率を「0.5」とする「学習率アップ」の処理を採用してもよい。この場合は、過去のテンプレートの情報も維持しつつ、現フレームの検出結果に近づくようにテンプレートを更新することができる。例えば、第1閾値よりも小さい所定の閾値を境に「リセット」と「学習率アップ」を切り替えてもよい。
In step S106, the updating unit 5 uses the "feature amount indicated by the detection result of the current frame" as the "feature amount (Fn) of the object obtained from the current frame", and sets the learning rate (α) to "1". That is, the template is replaced (reset) with the feature amount indicated by the detection result of the current frame. Here, if the match is low, the tracking results may indicate inaccurate results. Therefore, by immediately replacing the template with the detection result of the current frame, it is possible to quickly recover the tracking accuracy from the next frame. The learning rate may be higher than that in S105, and for example, a process of "increasing the learning rate" with the learning rate set to "0.5" may be employed. In this case, the template can be updated so as to approach the detection result of the current frame while also maintaining the information of the past template. For example, "reset" and "learning rate up" may be switched at a predetermined threshold smaller than the first threshold.

なお、本実施形態では、一致度が第1閾値より高い場合(ステップS105)では、現フレームに対する追跡部4による追跡結果を用いてテンプレートを更新し、一致度が第1閾値以下である場合(ステップS106)では、現フレームに対する検出部3による検出結果を用いてテンプレートを更新し、ステップS105とステップS106で異なる学習率を用いる処理について記載している。しかしながら、一致度が第1閾値よりも高い場合にそうでない場合と比較して検出結果が大きく影響するようにテンプレートを更新できれば、更新方法の切り替えはこの方法に限られない。例えば、更新部5は、テンプレート更新に用いる特徴は一致度に応じて追跡結果と検出結果において切り替えるが、一致度に関わらず学習率は同じ値を用いてもよい。この場合は、更新部5は、一致度が第1閾値よりも高い場合には追跡結果を用い、一致度が第1閾値以下である場合には検出結果を用い、学習率は任意の値(例えば「0.1」)でテンプレートを更新してもよい。また、更新部5は、テンプレート更新には一致度に関わらず検出結果を用い、一致度に応じて学習率を変更してもよい。この場合には、一致度が第1閾値よりも高い場合の学習率は、一致度が第1閾値以下である場合の学習率よりも大きくすればよい。また、更新部5は、テンプレート更新には一致度に関わらず追跡結果と検出結果を合成した結果を用い、一致度に応じて合成の割合を変更してもよい。この場合は、更新部5は、一致度が第1閾値よりも高い場合は、一致度が第1閾値以下の場合と比較して、追跡結果に対する重みが大きくなるようにして合成すればよい。さらに、この場合は、一致度に応じて学習率を変更してもよいし、同じ学習率を用いてもよい。また、上記複数の更新方法を組み合わせてテンプレートを更新してもよい。このように、一致度が第1閾値以下である場合は、そうでない場合よりも検出結果が大きく影響するようテンプレートを更新するとよい。これにより、一致度が低く、追跡結果と検出結果のどちらかが不正確な可能性がある場合でも、不正確なテンプレート更新による追跡精度の低下を回避することができる。 Note that in this embodiment, when the degree of matching is higher than the first threshold (step S105), the template is updated using the tracking result of the tracking unit 4 for the current frame, and when the degree of matching is equal to or less than the first threshold ( In step S106), the template is updated using the detection result of the detection unit 3 for the current frame, and the process of using different learning rates in steps S105 and S106 is described. However, if the template can be updated such that the detection result has a greater effect when the degree of matching is higher than the first threshold compared to when it is not, the switching of the update method is not limited to this method. For example, the updating unit 5 switches between the tracking result and the detection result according to the matching degree for the feature used for template updating, but the same value of the learning rate may be used regardless of the matching degree. In this case, the update unit 5 uses the tracking result when the degree of matching is higher than the first threshold, uses the detection result when the degree of matching is equal to or less than the first threshold, and sets the learning rate to an arbitrary value ( For example, "0.1") may update the template. Further, the update unit 5 may use the detection result for template update regardless of the degree of matching, and change the learning rate according to the degree of matching. In this case, the learning rate when the degree of matching is higher than the first threshold may be higher than the learning rate when the degree of matching is equal to or less than the first threshold. Further, the update unit 5 may use the result of synthesizing the tracking result and the detection result for template update regardless of the degree of matching, and may change the ratio of synthesis according to the degree of matching. In this case, when the degree of matching is higher than the first threshold, the updating unit 5 may combine the tracking results so that the weight for the tracking result is greater than when the degree of matching is equal to or lower than the first threshold. Furthermore, in this case, the learning rate may be changed according to the degree of matching, or the same learning rate may be used. Also, the template may be updated by combining the plurality of update methods described above. In this way, when the degree of matching is equal to or less than the first threshold, it is preferable to update the template so that the detection result has a greater influence than otherwise. As a result, even if the degree of matching is low and either the tracking result or the detection result may be inaccurate, it is possible to avoid a decrease in tracking accuracy due to inaccurate template updating.

追跡部4は、次フレームにおいては更新されたテンプレートを用いて、追跡を行い、それぞれのフレームについてステップS101からステップS105またはステップS106までの処理が繰り返される。 The tracking unit 4 performs tracking using the updated template in the next frame, and the processing from step S101 to step S105 or step S106 is repeated for each frame.

本実施形態では、現フレーム画像に対して検出部による検出と、追跡部による追跡の両方を行い、検出結果と追跡結果の一致度に応じてテンプレートの更新方法を切り替える。検出結果と追跡結果の一致度が高い場合は、どちらの結果を用いてもテンプレートを正しく更新することができる。一方、検出結果と追跡結果が相違する場合には、いずれかの結果が不正確な可能性がある。追跡処理は稀ではあるが対象物と大きく異なる物体を捉えてしまうことがあり、検出処理の方が対象物と大きく異なる物体を捉えることは少ない。したがって、上記のように検出結果と追跡結果と一致しない場合に検出結果を優先する。これにより、不正確な結果を用いたテンプレート更新による背景への貼りつき等が低減され、追跡精度を向上することができる。 In this embodiment, both detection by the detection unit and tracking by the tracking unit are performed on the current frame image, and the template update method is switched according to the degree of matching between the detection result and the tracking result. If there is a high degree of agreement between the detection result and the tracking result, either result can be used to correctly update the template. On the other hand, if the detection result and the tracking result are different, one of the results may be inaccurate. Although the tracking process rarely captures an object that is significantly different from the target, the detection process rarely captures an object that is significantly different from the target. Therefore, when the detection result and the tracking result do not match as described above, priority is given to the detection result. As a result, sticking to the background due to template update using inaccurate results can be reduced, and tracking accuracy can be improved.

<第2実施形態>
第1実施形態は一致度に基づいて更新方法を切り替えているが、第2実施形態はさらに追跡結果・検出結果の信頼度を考慮して更新方法を切り替える。本実施形態に係る物体追
跡装置の構成は、基本的に第1実施形態と同様であるため詳しい説明は省略し、主に異なる点について説明する。
<Second embodiment>
In the first embodiment, the update method is switched based on the degree of matching, but in the second embodiment, the update method is switched in consideration of the reliability of the tracking result/detection result. Since the configuration of the object tracking apparatus according to this embodiment is basically the same as that of the first embodiment, detailed description will be omitted, and mainly different points will be described.

ここで、信頼度とは、追跡結果や検出結果の確からしさを示す指標である。本実施形態では、追跡結果と検出結果の両方について信頼度を算出するが、追跡結果と検出結果のいずれか一方について算出してもよい。このように、信頼度も考慮してテンプレートの更新方法を切り替えることで、より適切にテンプレートを更新し、追跡精度を向上することができる。 Here, the reliability is an index indicating the certainty of the tracking result or detection result. In this embodiment, the reliability is calculated for both the tracking result and the detection result, but it may be calculated for either the tracking result or the detection result. In this way, by switching the template update method in consideration of the reliability, it is possible to update the template more appropriately and improve the tracking accuracy.

信頼度は、例えば、背景画像との差分を用いて算出してもよい。すなわち、追跡部4による追跡結果の信頼度は、現フレームに対する追跡結果と、背景画像との差分に応じて決定し、検出部3による検出結果の信頼度は、現フレームに対する検出結果と、背景画像との差分に応じて決定してもよい。なお、背景画像とは、検出領域に検出対象物が存在しないときの画像である。本実施形態では、検出対象物が存在しない、ある特定の時点の画像を背景画像として背景差分に用いる。なお、背景画像は、ある特定の時点の画像を背景画像として用いてもよく、逐次異なる画像を背景画像として用いてもよい。例えば、背景画像は、検出対象物が存在しない直前のフレーム画像を背景画像として定めてもよいし、直近の所定フレームの平均を用いて合成した画像を背景画像として定めてもよい。また、追跡結果の背景差分と、検出結果の背景差分で用いる背景画像は、同じ背景画像を用いてもよいし、異なる背景画像を用いてもよい。 The reliability may be calculated using, for example, the difference from the background image. That is, the reliability of the tracking result by the tracking unit 4 is determined according to the difference between the tracking result for the current frame and the background image, and the reliability of the detection result by the detection unit 3 is determined by the detection result for the current frame and the background image. You may determine according to the difference with an image. Note that the background image is an image when the detection target does not exist in the detection area. In this embodiment, an image at a specific point in time when there is no object to be detected is used as a background image for background subtraction. As the background image, an image at a specific point in time may be used as the background image, or different images may be used as the background image. For example, as the background image, the frame image immediately before the detection target does not exist may be determined as the background image, or an image synthesized using the average of the most recent predetermined frames may be determined as the background image. The background image used for the background difference of the tracking result and the background difference of the detection result may be the same background image or different background images.

背景画像との差分による信頼度は、現フレームについて追跡結果または検出結果が出力する領域と、背景画像の対応する領域の、画像の非類似度により評価する。ここで、追跡結果または検出結果が背景画像と類似している場合は、背景を誤って対象物と認識している可能性がある。したがって、信頼度として、追跡結果または検出結果と背景画像との非類似度を採用でき、非類似度が高い(類似していない)ほど信頼度が高いと評価する。なお、非類似度として画像差分の量を採用できるが、その他の指標を用いてもよい。 The degree of reliability based on the difference from the background image is evaluated by the degree of image dissimilarity between the area output by the tracking result or the detection result for the current frame and the corresponding area of the background image. Here, if the tracking result or detection result is similar to the background image, there is a possibility that the background is erroneously recognized as the object. Therefore, the degree of dissimilarity between the tracking result or detection result and the background image can be used as the degree of reliability, and the higher the degree of dissimilarity (the less similar), the higher the reliability is evaluated. Although the amount of image difference can be used as the degree of dissimilarity, other indices may be used.

図5を参照して、信頼度の一例として背景画像との差分を用い、テンプレートの更新方法を切り替える手法を説明する。なお、図4と同様の処理については同じ符号を付しており、詳細な説明は省略する。図1および図5に沿ってステップS201以降の処理の流れを説明する。 With reference to FIG. 5, a method of switching between template update methods using a difference from a background image as an example of reliability will be described. The same reference numerals are assigned to the same processes as in FIG. 4, and detailed description thereof will be omitted. The flow of processing after step S201 will be described with reference to FIGS. 1 and 5. FIG.

ステップS201では、検出部3による検出結果の信頼度および追跡部4による追跡結果の信頼度を、第2閾値と比較する。ここで、第2閾値とは、その値以上であれば検出結果や追跡結果を信頼できると判断できる値を設定する。また、本実施形態では、第2閾値は検出結果と追跡結果で同じ値を用いるが、異なる値を用いてもよい。 In step S201, the reliability of the detection result by the detection unit 3 and the reliability of the tracking result by the tracking unit 4 are compared with a second threshold. Here, the second threshold value is set to a value at which detection results and tracking results can be judged to be reliable. Also, in the present embodiment, the same value is used as the second threshold for the detection result and the tracking result, but different values may be used.

ステップS201の判定において、検出結果と追跡結果のいずれの信頼度も第2閾値よりも高い場合には、ステップS104に進む。すなわち、検出結果も追跡結果のどちらも信頼できる場合には、第1実施形態と同様に一致度を考慮してテンプレート更新方法を切り替える。 If it is determined in step S201 that both the reliability of the detection result and the tracking result are higher than the second threshold, the process proceeds to step S104. That is, when both the detection result and the tracking result are reliable, the template update method is switched in consideration of the degree of matching as in the first embodiment.

ステップS201の判定において、検出結果の信頼度は第2閾値以下であり、追跡結果の信頼度は第2閾値よりも高い場合には、検出結果は不正確な可能性があるが、追跡結果は正しい結果を出力していると考えられる。したがって、一致度を判定することなくステップS105に進み、更新部5は追跡結果を用い、テンプレート更新(逐次学習)を行う。これにより、より信頼できる結果を用いてテンプレートを更新することができる。 In the determination in step S201, if the reliability of the detection result is equal to or lower than the second threshold and the reliability of the tracking result is higher than the second threshold, the detection result may be inaccurate, but the tracking result is It seems that the correct result is output. Therefore, the process proceeds to step S105 without judging the degree of matching, and the updating unit 5 uses the tracking result to update the template (sequential learning). This allows the template to be updated with more reliable results.

ステップS201の判定において、検出結果の信頼度は第2閾値よりも高く、追跡結果
の信頼度は第2閾値以下である場合には、検出結果は正しい結果を出力していると考えられるが、追跡結果は不正確な可能性がある。したがって、一致度を判定することなくステップS106に進み、更新部5はテンプレートを現フレームの検出結果に置き換え(リセット)を行う。これにより、追跡結果が不正確な場合には、テンプレートが検出結果に近づくように修正され、追跡精度を向上することができる。
In the determination in step S201, if the reliability of the detection result is higher than the second threshold and the reliability of the tracking result is less than or equal to the second threshold, it is considered that the detection result is correct. Tracking results may be inaccurate. Therefore, the process proceeds to step S106 without judging the degree of matching, and the updating unit 5 replaces (resets) the template with the detection result of the current frame. Thereby, when the tracking result is inaccurate, the template is corrected so as to approach the detection result, and the tracking accuracy can be improved.

ステップS201の判定において、検出結果と追跡結果のいずれの信頼度も第2閾値以下である場合には、ステップS107に進み、更新部5はテンプレートを更新しない(「学習なし」)。なお、「テンプレートを更新しない」とは、学習率0%での学習処理であると捉えることができる。これにより、不正確な可能性がある特徴を用いてテンプレートが更新されることを回避することができる。 If it is determined in step S201 that both the reliability of the detection result and the tracking result are equal to or less than the second threshold, the process proceeds to step S107, and the updating unit 5 does not update the template ("no learning"). Note that "not updating the template" can be regarded as learning processing at a learning rate of 0%. This can avoid updating the template with potentially inaccurate features.

追跡部4は、次フレームにおいては更新されたテンプレートを用いて、追跡を行い、それぞれのフレームについてステップS101以降の処理が繰り返される。このように、信頼度に応じてテンプレートの更新方法を切り替えることで、現フレームの結果をより適切に反映してテンプレートを更新することができ、追跡精度を向上することができる。 The tracking unit 4 performs tracking using the updated template in the next frame, and the processes after step S101 are repeated for each frame. In this way, by switching the template update method according to the reliability, the template can be updated by reflecting the result of the current frame more appropriately, and the tracking accuracy can be improved.

なお、信頼度の判定結果を用いる場合は、ステップS201の判定後、S104~S107のすべての処理を採用してもよいし、いずれかの処理のみ採用してもよい。例えば、ステップS107(「学習なし」)を採用せず、検出結果の信頼度も追跡結果の信頼度も第2閾値以下である場合には、ステップS104の一致度の処理に進み、一致度に応じてテンプレートを更新してもよい。また、例えば、ステップS104の一致度の判定を採用せず、追跡結果の信頼度が高い場合はすなわち「逐次学習」の処理によりテンプレートを更新してもよい。また、テンプレートの更新方法は、上記とは異なる切り替え方法を採用してもよい。例えば、検出結果の信頼度と、追跡結果の信頼度との、いずれか一方でも信頼度が第2閾値よりも低い場合は、テンプレートを更新しない(ステップS107)処理を採用してもよい。なお、実施形態1と同様に、実施形態2で用いた学習率はあくまで例示であり、任意の値を用いてよい。 When using the reliability determination result, after the determination in step S201, all the processes of S104 to S107 may be adopted, or only one of the processes may be adopted. For example, if step S107 (“no learning”) is not adopted and both the reliability of the detection result and the reliability of the tracking result are equal to or less than the second threshold, the processing proceeds to the degree of matching in step S104. The template may be updated accordingly. Further, for example, if the degree of matching is not adopted in step S104 and the reliability of the tracking result is high, the template may be updated by "sequential learning" processing. Also, a template update method may adopt a switching method different from the above. For example, if either one of the reliability of the detection result and the reliability of the tracking result is lower than the second threshold, the template may not be updated (step S107). As in the first embodiment, the learning rate used in the second embodiment is merely an example, and any value may be used.

また、信頼度は、背景画像との非類似度に限られず、他の指標に基づいて算出されてもよい。例えば、フレーム間での位置の差を信頼度の指標として採用してもよい。この場合、フレーム間における位置の差が対象物の移動しうる範囲内であれば、信頼できる結果であると推定してもよい。追跡部4による追跡結果の信頼度は、フレーム間での追跡位置の差に応じて決定し、検出部3による検出結果の信頼度は、フレーム間での検出位置の差に応じて決定してもよい。追跡位置および検出位置とは、例えば追跡および検出された領域の中心位置の座標である。このように、フレーム間での位置の差に応じて信頼度を算出することで、誤って追跡または検出した恐れのある結果を用いてテンプレートを更新する可能性を低減することができる。 Also, the reliability is not limited to the degree of dissimilarity with the background image, and may be calculated based on other indexes. For example, the difference in position between frames may be employed as an indicator of reliability. In this case, if the difference in position between frames is within the range in which the object can move, it may be assumed that the result is reliable. The reliability of the tracking result by the tracking unit 4 is determined according to the difference in tracking position between frames, and the reliability of the detection result by the detecting unit 3 is determined according to the difference in detection position between frames. good too. The tracking position and detection position are coordinates of the center position of the tracked and detected area, for example. By calculating the reliability according to the positional difference between frames in this way, it is possible to reduce the possibility of updating the template using results that may have been erroneously tracked or detected.

なお、信頼度に用いる基準は、一条件に限られない。例えば、背景画像との差分と、フレーム間での位置の差や、その他の基準を組み合わせて信頼度を算出してもよい。 Note that the criterion used for reliability is not limited to one condition. For example, the reliability may be calculated by combining the difference from the background image, the positional difference between frames, or other criteria.

第2実施形態では、検出結果および追跡結果の信頼度を考慮してテンプレートの更新方法を切り替える。本実施形態によれば、信頼できる結果を用いてテンプレートの更新が行えるので、より適切な更新が可能となり、追跡精度をさらに向上させることができる。 In the second embodiment, the template update method is switched in consideration of the reliability of the detection result and the tracking result. According to this embodiment, since the template can be updated using reliable results, it is possible to perform more appropriate updating and further improve tracking accuracy.

<変形例>
第2実施形態は検出結果と追跡結果の信頼度に基づいてテンプレートの更新方法を切り替えているが、検出結果の信頼度のみに基づいてテンプレートの更新方法を切り替えてもよい。本変形例に係る物体追跡装置の構成は、基本的に第2実施形態と同様であるため詳
しい説明は省略し、主に異なる点について説明する。
<Modification>
In the second embodiment, the template update method is switched based on the reliability of the detection result and the tracking result, but the template update method may be switched based only on the reliability of the detection result. Since the configuration of the object tracking device according to this modification is basically the same as that of the second embodiment, detailed description is omitted, and mainly different points will be described.

図6は、信頼度は検出結果のみ算出する場合のフローチャートである。ここで、検出結果の信頼度として、検出結果の確からしさを表す検出スコアを用いてもよい。なお、検出結果の信頼度のみに基づいてテンプレートの更新方法を切り替える場合は、必ずしも検出スコアを用いる必要があるわけではない。例えば、第2実施形態で述べたように、背景画像との差分や、フレーム間での位置の差を検出結果の信頼度として用いてもよいし、その他の手法により算出した信頼度を検出結果の信頼度として用いてもよい。 FIG. 6 is a flow chart when the reliability is calculated only for the detection result. Here, a detection score representing the certainty of the detection result may be used as the reliability of the detection result. When the template update method is switched based only on the reliability of the detection result, it is not always necessary to use the detection score. For example, as described in the second embodiment, the difference from the background image or the difference in position between frames may be used as the reliability of the detection result, or the reliability calculated by other methods may be used as the detection result. may be used as the reliability of

検出結果スコアとは、検出領域に検出対象物が含まれる確からしさを示す指標であり、検出部が検出領域とともに出力する。検出スコアは、検出領域に人体が含まれている可能性が高いほど、高い値が算出される。このように、信頼度には検出結果の信頼度のみ算出し、検出結果の信頼度に応じてテンプレートの更新方法を切り替えることで、より簡単な処理で、追跡精度を向上することができる。 The detection result score is an index indicating the probability that the detection target is included in the detection area, and is output by the detection unit together with the detection area. A higher value is calculated for the detection score as the probability that a human body is included in the detection area is higher. In this way, only the reliability of the detection result is calculated as the reliability, and the template update method is switched according to the reliability of the detection result, so that the tracking accuracy can be improved with simpler processing.

図6を参照して、検出スコアを用い、テンプレートの更新方法を切り替える手法を説明する。なお、ステップS103までの処理は、図4と同様の処理である。図1および図6に沿ってステップS301以降の処理の流れを説明する。 With reference to FIG. 6, a method of switching the template update method using the detection score will be described. Note that the processing up to step S103 is the same processing as in FIG. The flow of processing after step S301 will be described with reference to FIGS. 1 and 6. FIG.

ステップS301では、検出結果の検出スコアを、第3閾値と比較する。ここで、第3閾値とは、検出スコアがその値以上であれば検出結果に検出対象物が含まれており、検出結果が信頼できると判断できる値を設定する。 In step S301, the detection score of the detection result is compared with the third threshold. Here, the third threshold value is set to a value at which it can be determined that the detection result includes the detection target and that the detection result is reliable if the detection score is equal to or higher than that value.

ステップ301の判定において、検出スコアが第3閾値よりも高い場合は、ステップS104に進む。すなわち、検出結果が信頼できる場合には、第1実施形態と同様に一致度を考慮してテンプレート更新方法を切り替える。 If the detection score is higher than the third threshold in the determination of step 301, the process proceeds to step S104. That is, when the detection result is reliable, the template update method is switched in consideration of the degree of matching as in the first embodiment.

ステップS301の判定において、検出スコアが第3閾値以下である場合には、ステップS107に進み、更新部5はテンプレートを更新しない(「学習なし」)。なお、「テンプレートを更新しない」とは、学習率0%での学習処理であると捉えることができる。。検出スコアが第3閾値以下であり、検出結果が不正確な可能性がある場合には、追跡結果は正しい結果を示しているか否か不明である。したがって、テンプレートを更新せず、現在のテンプレートを維持する。これにより、不正確な可能性がある特徴を用いてテンプレートが更新されることを回避することができる。 In the judgment of step S301, when the detection score is equal to or less than the third threshold, the process proceeds to step S107, and the updating unit 5 does not update the template ("no learning"). Note that "not updating the template" can be regarded as learning processing at a learning rate of 0%. . If the detection score is less than or equal to the third threshold and there is a possibility that the detection result is inaccurate, it is unclear whether the tracking result indicates a correct result. So don't update the template, keep the current template. This can avoid updating the template with potentially inaccurate features.

追跡部4は、次フレームにおいては更新されたテンプレートを用いて、追跡を行い、それぞれのフレームについてステップS101以降の処理が繰り返される。このように、検出スコアに応じてテンプレートの更新方法を切り替えることで、現フレームの結果を適切に反映してテンプレートを更新することができ、追跡精度を向上することができる。 The tracking unit 4 performs tracking using the updated template in the next frame, and the processes after step S101 are repeated for each frame. In this manner, by switching the template update method according to the detection score, the template can be updated by appropriately reflecting the result of the current frame, and the tracking accuracy can be improved.

なお、変形例では、追跡結果と検出結果のいずれか一方の信頼度を用いてテンプレートの更新方法を切り替える例として、検出結果の信頼度を用いる場合を説明したが、追跡結果の信頼度のみ用いてテンプレートの更新方法を切り替えてもよい。 In the modified example, as an example of switching the template update method using the reliability of either the tracking result or the detection result, the case where the reliability of the detection result is used has been described, but only the reliability of the tracking result is used. to switch the template update method.

<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Others>
The above-described embodiment is merely an example of the configuration of the present invention. The present invention is not limited to the specific forms described above, and various modifications are possible within the technical scope of the present invention.

上記の説明では、検出部3や追跡部4が対象物の探索に用いる特徴の一例として、色の
特徴を表す特徴量としてカラーヒストグラムを用いたが、これに限られない。例えば、輝度の特徴を表す特徴量として輝度ヒストグラムを用いてもよいし、物体の形状・輪郭を表す特徴量としてHOG(Histogram of Gradient)特徴量、SIFT(Scale-Invariant Feature Transform)特徴量、SURF(Speeded Up Robust Features)特徴量などを採用してもよい。
In the above description, a color histogram is used as a feature quantity representing a color feature as an example of a feature used by the detection unit 3 and the tracking unit 4 to search for the target object, but the present invention is not limited to this. For example, a luminance histogram may be used as the feature quantity representing the luminance feature, and HOG (Histogram of Gradient) feature quantity, SIFT (Scale-Invariant Feature Transform) feature quantity, SURF as the feature quantity representing the shape/contour of the object. (Speeded Up Robust Features) A feature amount or the like may be employed.

検出に用いる手法は、どのようなアルゴリズムを用いてもよい。例えば、HOGやHaar-likeなどの画像特徴とブースティングを組み合わせた識別器を用いてもよいし、SVM
(Support Vector Machine)のようなパターン認識モデルを用いてもよいし、ディープラーニング(例えばR-CNN、Fast R-CNN、YOLOなど)による画像認識を用いてもよい。
Any algorithm may be used as a method for detection. For example, a classifier that combines image features such as HOG or Haar-like with boosting may be used, or SVM
A pattern recognition model such as (Support Vector Machine) may be used, or image recognition by deep learning (eg, R-CNN, Fast R-CNN, YOLO, etc.) may be used.

上記実施形態の「逐次学習」の処理では(S105、S103,S303)、追跡結果を用いてテンプレートを更新する例を示しているが、検出結果を用いてもよいし、追跡結果と検出結果を組み合わせた結果を用いてテンプレート更新を行ってもよい。また、信頼度を用いてテンプレート更新方法を切り替える図5や図6において、一致度が低い場合の処理では(S204、S304)、「リセット」の処理を採用する例を示しているが、「逐次学習」よりも学習率が高い「学習率アップ」の処理を採用してもよい。例えば、一致度の値や、一致度が第1閾値よりも小さいフレームが連続する数に応じて「リセット」と「学習率アップ」の処理を切り替えてもよい。なお、学習率の値は10%、50%、100%に限定されず、任意の値を用いてよい。 In the "sequential learning" process (S105, S103, S303) of the above embodiment, an example of updating the template using the tracking result is shown. The combined results may be used to perform template updates. In addition, in FIGS. 5 and 6, in the processing when the degree of matching is low (S204, S304), an example of adopting the “reset” processing is shown, but in FIG. 5 and FIG. A process of "increase learning rate" having a higher learning rate than "learning" may be adopted. For example, the processing of “reset” and “increase learning rate” may be switched according to the value of the degree of matching or the number of consecutive frames with a degree of matching smaller than the first threshold. Note that the values of the learning rate are not limited to 10%, 50%, and 100%, and arbitrary values may be used.

変形例において、検出スコアが低い場合は、検出結果も追跡結果も更新に用いず、更新部はテンプレートを更新しない例を示しているが(S305)、追跡結果を用いてテンプレートを更新してもよい。例えば、検出スコアは低いが、追跡結果が安定している場合は、追跡結果を用いてテンプレートを更新することで、追跡精度を向上することができる。 In the modified example, when the detection score is low, neither the detection result nor the tracking result is used for updating, and the updating unit does not update the template (S305). good. For example, if the detection score is low but the tracking results are stable, tracking accuracy can be improved by updating the template using the tracking results.

上記実施形態では矩形の検出枠を例示したが(図2など)、矩形以外の形態(多角形、楕円、自由図形など)の検出枠を用いてもよい。 In the above embodiment, a rectangular detection frame was exemplified (FIG. 2, etc.), but a detection frame in a form other than rectangular (polygon, ellipse, free figure, etc.) may be used.

<付記>
(1)複数のフレームからなる画像に含まれる対象物を追跡する物体追跡装置(1)であって、
前記画像を取得する画像取得部(2)と、
検出対象物の特徴と、追跡対象物の特徴を記憶した記憶部(6)と、
前記記憶部(6)の前記追跡対象物の特徴を更新する更新部(5)と、
前記記憶部(6)に記憶された前記検出対象物の特徴に基づき、取得した画像から前記検出対象物を検出する検出部(3)と、
前記記憶部(6)に記憶された前記追跡対象物の特徴に基づき、取得した画像から前記追跡対象物を追跡する追跡部(4)と、
を備え、
前記物体追跡装置(1)は、現フレームに対して、前記検出部(3)による前記検出対象物の検出と、前記追跡部(4)による前記追跡対象物の追跡との両方を行い、
前記更新部(5)は、追跡結果と検出結果に基づいて前記追跡対象物の特徴を更新し、
前記追跡部(4)は、次フレームに対しては、更新された前記追跡対象物の特徴を用いて前記追跡を行う、
ことを特徴とする物体追跡装置
(2)コンピュータが行う、複数のフレームからなる画像に含まれる対象物を追跡する物体追跡方法であって、前記画像を取得する画像取得ステップと、記憶部に格納されている検出対象物の特徴に基づき、取得した画像から前記検出対象物を検出する検出ステップ(
S101)と、記憶部に格納されている追跡対象物の特徴に基づき、前記追跡対象物を追跡する追跡ステップ(S102)と、を含み、前記物体追跡方法は、現フレームに対して、前記検出ステップ(S101)と、前記追跡ステップ(S102)と、前記追跡対象物の特徴を更新する更新ステップ(S105,S106)と、を行い、次フレームに対しては、更新された前記追跡対象物の特徴を用いて前記追跡ステップ(S102)を行う、ことを特徴とする物体追跡方法。
<Appendix>
(1) An object tracking device (1) for tracking an object included in an image consisting of a plurality of frames,
an image acquisition unit (2) that acquires the image;
a storage unit (6) storing the features of the detection target and the features of the tracking target;
an updating unit (5) for updating the characteristics of the tracked object in the storage unit (6);
a detection unit (3) for detecting the detection object from an acquired image based on the characteristics of the detection object stored in the storage unit (6);
a tracking unit (4) for tracking the tracked object from an acquired image based on the characteristics of the tracked object stored in the storage unit (6);
with
The object tracking device (1) performs both detection of the detection target by the detection unit (3) and tracking of the tracking target by the tracking unit (4) for a current frame,
The updating unit (5) updates the characteristics of the tracked object based on the tracking result and the detection result,
The tracking unit (4) performs the tracking using the updated features of the tracked object for the next frame.
(2) A computer-performed object tracking method for tracking an object included in an image consisting of a plurality of frames, comprising: an image acquisition step of acquiring the image; A detection step (
S101) and a tracking step (S102) of tracking the tracked object based on the characteristics of the tracked object stored in a storage unit, wherein the object tracking method includes, for the current frame, the detection The step (S101), the tracking step (S102), and the updating steps (S105, S106) of updating the characteristics of the tracked object are performed, and for the next frame, the updated tracked object An object tracking method, characterized in that the tracking step (S102) is performed using features.

1:物体追跡装置 2:画像取得部 3:検出部 4:追跡部 5:更新部 6:追跡部 7:出力部 1: Object Tracking Device 2: Image Acquisition Unit 3: Detecting Unit 4: Tracking Unit 5: Update Unit 6: Tracking Unit 7: Output Unit

Claims (18)

複数のフレームからなる画像に含まれる対象物を追跡する物体追跡装置であって、
前記画像を取得する画像取得部と、
検出対象物の特徴と、追跡対象物の特徴を記憶した記憶部と、
前記記憶部の前記追跡対象物の特徴を更新する更新部と、
前記記憶部に記憶された前記検出対象物の特徴に基づき、取得した画像から前記検出対象物を検出する検出部と、
前記記憶部に記憶された前記追跡対象物の特徴に基づき、取得した画像から前記追跡対象物を追跡する追跡部と、
を備え、
前記物体追跡装置は、現フレームに対して、前記検出部による前記検出対象物の検出と、前記追跡部による前記追跡対象物の追跡との両方を行い、
前記更新部は、追跡結果と検出結果に基づいて前記追跡対象物の特徴を更新し、
前記追跡部は、次フレームに対しては、更新された前記追跡対象物の特徴を用いて前記追跡を行う、
ことを特徴とする物体追跡装置。
An object tracking device for tracking an object included in an image consisting of a plurality of frames,
an image acquisition unit that acquires the image;
a storage unit that stores features of a detection target and features of a tracking target;
an updating unit that updates the characteristics of the tracked object in the storage unit;
a detection unit that detects the detection target from an acquired image based on the characteristics of the detection target stored in the storage unit;
a tracking unit that tracks the tracked object from an acquired image based on the characteristics of the tracked object stored in the storage unit;
with
The object tracking device performs both detection of the detection target by the detection unit and tracking of the tracking target by the tracking unit for the current frame,
The updating unit updates the characteristics of the tracked object based on the tracking result and the detection result,
The tracking unit performs the tracking using the updated features of the tracked object for the next frame.
An object tracking device characterized by:
前記更新部は、前記検出部による検出結果と前記追跡部による追跡結果との一致度に応じて更新方法を切り替える
請求項1に記載の物体追跡装置。
2. The object tracking device according to claim 1, wherein the update unit switches the update method according to the degree of matching between the detection result by the detection unit and the tracking result by the tracking unit.
前記更新部は、前記一致度が第1閾値より高い場合には、現フレームに対する前記追跡部による追跡結果および前記検出部による検出結果の少なくとも一方を用いて、前記追跡対象物の特徴を更新する第1更新処理を行い、前記一致度が前記第1閾値以下である場合には、そうでない場合よりも前記検出部による検出結果が大きく影響するように、現フレームに対する前記検出部による検出結果を用いて、前記追跡対象物の特徴を更新する第2更新処理を行う、
請求項2に記載の物体追跡装置。
The updating unit updates the characteristics of the tracked object using at least one of the tracking result of the tracking unit and the detection result of the detecting unit for the current frame when the degree of matching is higher than a first threshold. performing a first update process, and updating the detection result of the current frame by the detection unit so that, when the degree of matching is equal to or less than the first threshold value, the detection result of the detection unit has a greater influence than otherwise; to perform a second update process for updating the characteristics of the tracked object,
3. An object tracking device according to claim 2.
前記追跡部による追跡結果および前記検出部による検出結果は、前記追跡対象物および前記検出対象物の中心位置または大きさに関する情報を含み、前記一致度は、前記追跡結果と前記検出結果における、中心位置の差または大きさの差に基づいて算出される、
請求項3に記載の物体追跡装置。
The tracking result by the tracking unit and the detection result by the detection unit include information about the center position or size of the tracking object and the detection object, and the degree of matching is the center of the tracking result and the detection result. Calculated based on positional or magnitude differences,
4. An object tracking device according to claim 3.
前記更新部は、前記一致度が前記第1閾値より高い場合には、現フレームに対する前記追跡部による追跡結果を用いて前記追跡対象物の特徴を更新し、前記一致度が前記第1閾値以下である場合には、現フレームに対する前記検出部による検出結果を用いて前記追跡対象物の特徴を更新する、
請求項3から4のいずれか一項に記載の物体追跡装置。
The updating unit updates the characteristics of the tracked object using the tracking result of the tracking unit for the current frame when the degree of matching is higher than the first threshold, and the degree of matching is equal to or less than the first threshold. , updating the feature of the tracked object using the detection result of the detection unit for the current frame;
An object tracking device according to any one of claims 3 to 4.
前記更新部は、前記一致度が前記第1閾値以下である場合には、現フレームに対する前記検出部による検出結果を前記追跡対象物の特徴として置き換える、
請求項3から5のいずれか一項に記載の物体追跡装置。
When the degree of matching is equal to or less than the first threshold, the update unit replaces the detection result of the current frame by the detection unit as the feature of the tracked object.
An object tracking device according to any one of claims 3 to 5.
前記更新部は、前記追跡部による追跡結果および前記検出部による検出結果の少なくとも一方について信頼度を判定し、前記信頼度に応じて前記追跡対象物の特徴を更新する方法を切り替える、
請求項3から6のいずれか一項に記載の物体追跡装置。
The updating unit determines the reliability of at least one of the tracking result by the tracking unit and the detection result by the detecting unit, and switches the method of updating the characteristics of the tracked object according to the reliability.
An object tracking device according to any one of claims 3 to 6.
前記更新部は、前記追跡部による追跡結果および前記検出部による検出結果のいずれの信頼度も第2閾値以下である場合には、現フレームにおいて前記追跡対象物の特徴を更新しない、
請求項7に記載の物体追跡装置。
The updating unit does not update the features of the tracked object in the current frame when the reliability of both the tracking result by the tracking unit and the detection result by the detecting unit is equal to or less than a second threshold.
The object tracking device according to claim 7.
前記更新部は、前記追跡部による追跡結果の信頼度は第2閾値より高く、前記検出部による検出結果の信頼度が前記第2閾値以下である場合には、前記第1更新処理を行う、
請求項7または8に記載の物体追跡装置。
The update unit performs the first update process when the reliability of the tracking result by the tracking unit is higher than the second threshold and the reliability of the detection result by the detection unit is equal to or less than the second threshold.
The object tracking device according to claim 7 or 8.
前記更新部は、前記追跡部による追跡結果の信頼度は第2閾値以下であり、前記検出部による検出結果の信頼度が前記第2閾値より高い場合には、前記第2更新処理を行う、
請求項7から9のいずれか一項に記載の物体追跡装置。
The update unit performs the second update process when the reliability of the tracking result by the tracking unit is less than or equal to the second threshold and the reliability of the detection result by the detection unit is higher than the second threshold.
Object tracking device according to any one of claims 7 to 9.
前記更新部は、前記追跡部による追跡結果および前記検出部による検出結果のいずれの信頼度も第2閾値より高い場合には、前記一致度に応じて前記第1更新処理または前記第2更新処理を行う
請求項7から10のいずれか一項に記載の物体追跡装置。
When the reliability of both the tracking result by the tracking unit and the detection result by the detecting unit is higher than a second threshold, the updating unit performs the first updating process or the second updating process according to the degree of matching. The object tracking device according to any one of claims 7 to 10, wherein
前記更新部は、前記検出部による検出結果の信頼度が第3閾値より高い場合には、前記一致度に応じて前記第1更新処理または前記第2更新処理を行い、前記信頼度が前記第3閾値以下である場合には、現フレームにおいて前記追跡対象物の特徴を更新しない
請求項7から11のいずれか一項に記載の物体追跡装置。
The update unit performs the first update process or the second update process according to the degree of matching when the reliability of the detection result by the detection unit is higher than a third threshold, and the reliability is increased to the third threshold. 12. An object tracking apparatus according to any one of claims 7 to 11, wherein if it is less than or equal to 3 thresholds, it does not update the characteristics of the tracked object in the current frame.
前記追跡部による追跡結果の信頼度は、現フレームに対する前記追跡結果と、背景画像との差分に応じて決定され、
前記検出部による検出結果の信頼度は、現フレームに対する前記検出結果と、背景画像との差分に応じて決定される、
請求項7から12のいずれか一項に記載の物体追跡装置。
The reliability of the tracking result by the tracking unit is determined according to the difference between the tracking result for the current frame and the background image,
The reliability of the detection result by the detection unit is determined according to the difference between the detection result for the current frame and the background image.
Object tracking device according to any one of claims 7 to 12.
前記追跡部による追跡結果の信頼度は、フレーム間での追跡位置の差に応じて決定され、
前記検出部による検出結果の信頼度は、フレーム間での検出位置の差に応じて決定される、
請求項7から12のいずれか一項に記載の物体追跡装置。
The reliability of the tracking result by the tracking unit is determined according to the difference in tracking position between frames,
The reliability of the detection result by the detection unit is determined according to the difference in detection position between frames,
Object tracking device according to any one of claims 7 to 12.
前記検出部による検出結果の信頼度は、前記検出部が出力する前記検出結果の確からしさを示すスコアに応じて決定される、
請求項7から12のいずれか一項に記載の物体追跡装置。
The reliability of the detection result by the detection unit is determined according to a score indicating the likelihood of the detection result output by the detection unit.
Object tracking device according to any one of claims 7 to 12.
同一のフレームから複数の前記追跡結果および前記検出結果が得られた場合には、前記追跡結果と前記検出結果の対応付けを行い、対応する前記追跡結果と前記検出結果を用いて、前記追跡対象物の特徴を更新する
請求項1から15のいずれか一項に記載の物体追跡装置。
When a plurality of the tracking results and the detection results are obtained from the same frame, the tracking results and the detection results are associated with each other, and the tracking target is determined using the corresponding tracking results and the detection results. 16. An object tracking device as claimed in any one of claims 1 to 15 for updating object characteristics.
コンピュータが行う、複数のフレームからなる画像に含まれる対象物を追跡する物体追跡方法であって、
前記画像を取得する画像取得ステップと、
記憶部に格納されている検出対象物の特徴に基づき、取得した画像から前記検出対象物を検出する検出ステップと、
前記記憶部に格納されている追跡対象物の特徴に基づき、取得した画像から前記追跡対
象物を追跡する追跡ステップと、を含み、
前記物体追跡方法は、現フレームに対して、前記検出ステップと、前記追跡ステップと、前記追跡対象物の特徴を更新する更新ステップと、を行い、次フレームに対しては、更新された前記追跡対象物の特徴を用いて前記追跡ステップを行う、
ことを特徴とする物体追跡方法。
A computer-performed object tracking method for tracking an object included in an image consisting of a plurality of frames,
an image acquisition step of acquiring the image;
a detection step of detecting the detection target from an acquired image based on the characteristics of the detection target stored in a storage unit;
a tracking step of tracking the tracked object from the acquired image based on the characteristics of the tracked object stored in the storage unit;
The object tracking method performs the detecting step, the tracking step, and the updating step of updating the characteristics of the tracked object for a current frame, and performs the updated tracking for the next frame. performing the tracking step using features of the object;
An object tracking method characterized by:
請求項17に記載の方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to perform the steps of the method of claim 17.
JP2021040762A 2021-03-12 2021-03-12 OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD Active JP7548079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021040762A JP7548079B2 (en) 2021-03-12 2021-03-12 OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021040762A JP7548079B2 (en) 2021-03-12 2021-03-12 OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD

Publications (2)

Publication Number Publication Date
JP2022140105A true JP2022140105A (en) 2022-09-26
JP7548079B2 JP7548079B2 (en) 2024-09-10

Family

ID=83399949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021040762A Active JP7548079B2 (en) 2021-03-12 2021-03-12 OBJECT TRACKING DEVICE AND OBJECT TRACKING METHOD

Country Status (1)

Country Link
JP (1) JP7548079B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024111113A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Information processing device, information processing method, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077164B2 (en) 2008-09-16 2012-11-21 オムロン株式会社 Tracking device and tracking method
WO2013128839A1 (en) 2012-03-02 2013-09-06 日本電気株式会社 Image recognition system, image recognition method and computer program
US11948312B2 (en) 2019-04-17 2024-04-02 Nec Corporation Object detection/tracking device, method, and program recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024111113A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Information processing device, information processing method, and recording medium

Also Published As

Publication number Publication date
JP7548079B2 (en) 2024-09-10

Similar Documents

Publication Publication Date Title
JP4830650B2 (en) Tracking device
US11270108B2 (en) Object tracking method and apparatus
CN111339855B (en) Vision-based target tracking method, system, equipment and storage medium
EP2344983B1 (en) Method, apparatus and computer program product for providing adaptive gesture analysis
JP5035035B2 (en) Object tracking method, object tracking apparatus, and object tracking program
JP5554984B2 (en) Pattern recognition method and pattern recognition apparatus
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
US20190191098A1 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
JP6007682B2 (en) Image processing apparatus, image processing method, and program
JP4844670B2 (en) Video processing apparatus and video processing method
JP2010003117A (en) Object deciding device and program
JP2012133759A (en) Object tracking device capable of detecting intrusion object, object tracking method, and storage medium
US20150205995A1 (en) Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium
US20130243251A1 (en) Image processing device and image processing method
JP2007233871A (en) Image processor, control method for computer, and program
JPWO2018154709A1 (en) Motion learning device, skill discrimination device and skill discrimination system
KR20160054783A (en) Method and device to determine landmark from region of interest of image
US20220207904A1 (en) Image processing apparatus, image processing method, and storage medium
US20200104577A1 (en) Information processing apparatus, authentication system, method of controlling same, and medium
JP5253227B2 (en) Image input device, subject detection method, and program
JP2022140105A (en) Object tracking device and object tracking method
CN111797652A (en) Object tracking method, device and storage medium
WO2013128839A1 (en) Image recognition system, image recognition method and computer program
JP2007510994A (en) Object tracking in video images
JPH0965193A (en) Mobile body within image tracking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240812

R150 Certificate of patent or registration of utility model

Ref document number: 7548079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150