JP2017174305A - Object tracking device, method, and program - Google Patents

Object tracking device, method, and program Download PDF

Info

Publication number
JP2017174305A
JP2017174305A JP2016062076A JP2016062076A JP2017174305A JP 2017174305 A JP2017174305 A JP 2017174305A JP 2016062076 A JP2016062076 A JP 2016062076A JP 2016062076 A JP2016062076 A JP 2016062076A JP 2017174305 A JP2017174305 A JP 2017174305A
Authority
JP
Japan
Prior art keywords
integrated
frame
tracking
detected
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016062076A
Other languages
Japanese (ja)
Other versions
JP6558831B2 (en
Inventor
ホウアリ サビリン
Houari SABIRIN
ホウアリ サビリン
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016062076A priority Critical patent/JP6558831B2/en
Publication of JP2017174305A publication Critical patent/JP2017174305A/en
Application granted granted Critical
Publication of JP6558831B2 publication Critical patent/JP6558831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make robust and high-accuracy tracking possible irrespective of interhuman occlusion.SOLUTION: An ID assignment execution unit 40 correlates an object detected in a preceding frame and an object detected in the latest frame on the basis of their similarity and assigns them an ID. An integrated object division unit 40a divides, from an integrated object consisting of a plurality of integrated objects that are integrated by occlusion, an overlapping range whose depth information resembles each object before the occlusion, as an object to be tracked. An object processing unit 40b includes the functions of: correlating each object divided from the integrated object to each object before the integration; correlating each object divided from the integrated object of the preceding frame to each object divided from the integrated object of the latest frame; and correlating each object divided from the integrated object in the preceding frame to each object after occlusion is canceled.SELECTED DRAWING: Figure 1

Description

本発明は、動画像上で人物のような動くオブジェクトを追跡するオブジェクト追跡装置、方法およびプログラムに係り、特に、人物間オクルージョンにかかわらず頑健かつ高精度の追跡を可能にするオブジェクト追跡装置、方法およびプログラムに関する。   The present invention relates to an object tracking apparatus, method and program for tracking a moving object such as a person on a moving image, and more particularly to an object tracking apparatus and method which enable robust and high-precision tracking regardless of inter-person occlusion. And program.

非特許文献1には、デフス(深度)データの統計的特徴に基づいて背景画像を生成し、フレーム画像か背景画像を減じることでオブジェクトを検知するバックグラウンド減算方法が開示されている。非特許文献2には、オブジェクトの重複の有無に基づいてオクルージョンを判断し、オブジェクトを検知、追跡する方法が開示されている。   Non-Patent Document 1 discloses a background subtraction method in which a background image is generated based on statistical characteristics of depth (depth) data, and an object is detected by subtracting the frame image or the background image. Non-Patent Document 2 discloses a method of detecting and tracking an object by determining occlusion based on the presence or absence of overlapping objects.

特許文献1には、オブジェクトを具体的に識別可能なRGBカラー映像を用いることなく、オブジェクトを具体的に識別できない奥行映像のみを用いてオブジェクトを追跡する技術が開示されている。   Patent Document 1 discloses a technique for tracking an object using only a depth video that cannot specifically identify an object without using an RGB color video that can specifically identify the object.

特許文献2には、各オブジェクトの輪郭に沿ったオブジェクト曲線をフレーム間で比較して各オブジェクトを対応付けることにより、オクルージョン後における各オブジェクトの移動方向がオクルージョン前の移動ベクトルから予測し得ないような場合もオブジェクトの正確な追跡を可能にする技術が開示されている。   In Patent Document 2, the object curve along the contour of each object is compared between the frames, and the objects are associated with each other, so that the movement direction of each object after occlusion cannot be predicted from the movement vector before occlusion. In some cases, a technique that enables accurate tracking of an object is disclosed.

特願2014-198941号Japanese Patent Application No. 2014-198941 特願2015-038594号Japanese Patent Application No. 2015-038594

S. H. Cho, K. Bae, K. M. Kyung, S. Jeong, and T. C. Kim, "Background Subtraction Based Object Extraction for Time-of-Flight Sensor," in Proc. IEEE 2nd Global Conf. on Consumer Electronics, pp. 48-89, 2013.SH Cho, K. Bae, KM Kyung, S. Jeong, and TC Kim, "Background Subtraction Based Object Extraction for Time-of-Flight Sensor," in Proc.IEEE 2nd Global Conf. On Consumer Electronics, pp. 48-89 , 2013. H. Sabirin, H. Sankoh, and S. Naito, "Utilizing attributed graph representation in object detection and tracking for indoor range sensor surveillance cameras," IEICE Transactions on Information and Systems 98 (12), pp. 2299-2307, 2015.H. Sabirin, H. Sankoh, and S. Naito, "Utilizing attributed graph representation in object detection and tracking for indoor range sensor surveillance cameras," IEICE Transactions on Information and Systems 98 (12), pp. 2299-2307, 2015.

上記の従来技術では、図8に示したように、オクルージョンの発生前に検知された各オブジェクトA,Bと発生後に検知された各オブジェクトa,bとの類似度に基づいて追跡が行われる。しかしながら、オブジェクトが人間のような動物体であると、オクルージョン期間中に姿勢や向きが大きく変化することがあり、特にオクルージョン期間が長くなると、その前後で画像特徴が大きく変化してしまい、オクルージョンの前後で同一オブジェクトが抽出されているのみかかわらず両者を対応付けることができず、さらには誤った対応付けが行われ得るという技術課題があった。   In the above conventional technique, as shown in FIG. 8, tracking is performed based on the similarity between the objects A and B detected before the occurrence of occlusion and the objects a and b detected after the occurrence. However, if the object is a human body, the posture and orientation may change greatly during the occlusion period, and especially when the occlusion period is long, the image characteristics change greatly before and after that. Although the same object is extracted before and after, both cannot be associated with each other, and there is a technical problem that incorrect association can be performed.

本発明の目的は、上記の技術課題を解決し、オクルージョン期間中の各オブジェクトの姿勢や向きの変化にかかわらず、オクルージョンの発生前後で各オブジェクトを正確に対応付けられるオブジェクト追跡装置、方法およびプログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above technical problem and to provide an object tracking apparatus, method, and program capable of accurately associating each object before and after the occurrence of occlusion regardless of changes in the posture and orientation of each object during the occlusion period Is to provide.

上記の目的を達成するために、本発明は、各ピクセルが奥行情報を有するフレーム画像上でオブジェクトを追跡するオブジェクト追跡装置において、以下の構成を具備した点に特徴がある。   In order to achieve the above object, the present invention is characterized in that an object tracking apparatus for tracking an object on a frame image in which each pixel has depth information has the following configuration.

(1) 奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手段と、今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手段と、統合オブジェクトから前回フレームで検知されているオブジェクトに類似する部分を追跡対象のオブジェクトとして分割する手段と、フレーム画像間で各オブジェクトをその類似度に基づいて追跡する手段とを具備した。   (1) Means for detecting an object on each frame image based on depth information, means for determining whether or not the object detected in the current frame is an integrated object caused by occlusion, and from the integrated object to the previous frame And a means for dividing a portion similar to the object detected in the above as an object to be tracked, and a means for tracking each object based on its similarity between frame images.

(2) 統合オブジェクトであるか否かを判定する手段は、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定するようにした。   (2) The means for determining whether or not the object is an integrated object is that the ratio of the area of each overlapping range of the object detected in the current frame and the plurality of objects detected in the previous frame is equal to or greater than a predetermined threshold. And the object detected in the current frame is determined as an integrated object.

(3) 分割する手段は、統合オブジェクトから前回フレームで検知された各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割するようにした。   (3) The dividing means divides each overlapping range in which the arrangement of depth information is similar to each object detected in the previous frame from the integrated object as a tracking target object.

本発明によれば、以下のような効果が達成される   According to the present invention, the following effects are achieved.

(1) オクルージョン期間の前後でオブジェクトの向きや姿勢が大きく変化するような場合であっても、フレーム単位でみれば変化量は十分に小さいので類似度判断に与える影響は小さい。したがって、オクルージョン期間中は統合オブジェクトから各オブジェクトに相当する部分を分割し、各部分を一つのオブジェクトとして追跡を継続することにより、オクルージョン期間の長短にかかわらず頑健かつ高精度のオブジェクト追跡が可能になる。   (1) Even when the orientation and orientation of an object change greatly before and after the occlusion period, the amount of change is sufficiently small when viewed in units of frames, so the influence on similarity determination is small. Therefore, by dividing the part corresponding to each object from the integrated object during the occlusion period and continuing tracking as each object, it is possible to track the object robustly and accurately regardless of the length of the occlusion period. Become.

(2) オクルージョンの発生を、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとの重畳範囲の面積の割合に基づいて判断するようにしたので、フレーム間でのオブジェクト数の変化に基づいて判断する従来技術方式に比べて確度の高い判断が可能になる。   (2) Occlusion occurrence is determined based on the ratio of the area of the overlapping range of the object detected in the current frame and the multiple objects detected in the previous frame, so the number of objects between frames This makes it possible to make a judgment with higher accuracy than the conventional method that judges based on the change.

本発明の一実施形態に係るオブジェクト追跡装置の主要部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the principal part of the object tracking device which concerns on one Embodiment of this invention. オブジェクトの検知方法を示した図である。It is the figure which showed the detection method of an object. 矩形領域の設定例を示した図である。It is the figure which showed the example of a setting of a rectangular area. オブジェクトの移動軌跡の表示例を示した図である。It is the figure which showed the example of a display of the movement locus | trajectory of an object. 本発明の一実施形態の動作を示したフローチャートである。It is the flowchart which showed operation | movement of one Embodiment of this invention. オブジェクトの矩形領域の重なり面積に基づいてオクルージョン関係を判定する方法を模式的に示した図である。It is the figure which showed typically the method of determining an occlusion relationship based on the overlapping area of the rectangular area of an object. 統合オブジェクトから分割した部分をオブジェクトとして追跡する方法を模式的に表現した示した図である。It is the figure which represented typically the method of tracking the part divided | segmented from the integrated object as an object. 従来技術の課題を説明するための図である。It is a figure for demonstrating the subject of a prior art.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト追跡装置の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main part of an object tracking apparatus according to an embodiment of the present invention, and here, the configuration unnecessary for the description of the present invention is omitted.

オブジェクト検知部10は、図2に示したように、オブジェクトを具体的に識別できない奥行データのみの映像(奥行映像)の各フレーム画像上で各オブジェクトを検知する。本実施形態では、オブジェクトが存在しない環境下で撮影した背景画像を蓄積しておき、奥行映像の各フレームと前記背景画像との差分が所定の閾値以上となる閉領域がオブジェクトとして検知される。   As illustrated in FIG. 2, the object detection unit 10 detects each object on each frame image of a video of only depth data (depth video) that cannot specifically identify the object. In the present embodiment, background images taken in an environment where no object exists are accumulated, and a closed region where the difference between each frame of the depth video and the background image is greater than or equal to a predetermined threshold is detected as an object.

矩形領域設定部20は、図3に一例を示したように、各オブジェクトに対して、その輪郭に外接する矩形の領域(矩形領域)を設定する。オクルージョン判定部30は重畳面積計算部30aを含み、後に詳述するように、検知された各オブジェクトの矩形領域同士が重なる重畳範囲の面積の割合に基づいてオクルージョンの有無を判定する。   The rectangular area setting unit 20 sets a rectangular area (rectangular area) circumscribing the outline of each object, as shown in FIG. The occlusion determination unit 30 includes an overlapping area calculation unit 30a, and determines the presence / absence of occlusion based on the ratio of the area of the overlapping range in which the detected rectangular regions of the objects overlap, as will be described in detail later.

ID割当実行部40は、統合オブジェクト分割部40aおよびオブジェクト対応付け部処理部40bを含み、前回フレームで検知されたオブジェクトと今回フレームで検知されたオブジェクトとをその類似度に基づいて対応付け、今回フレームのオブジェクトに前回フレームの対応するオブジェクトのIDを割り当てる。   The ID allocation execution unit 40 includes an integrated object dividing unit 40a and an object association unit processing unit 40b, and associates an object detected in the previous frame with an object detected in the current frame based on the similarity. Assign the ID of the corresponding object in the previous frame to the object in the frame.

前記統合オブジェクト分割部40aは、オクルージョンにより複数のオブジェクトが統合したオブジェクト(統合オブジェクト)から、オクルージョン前の各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割する。   The integrated object dividing unit 40a divides each overlapping range in which the arrangement of depth information is similar to each object before occlusion as an object to be tracked from an object (integrated object) obtained by integrating a plurality of objects by occlusion.

前記オブジェクト対応付け部40bは、オクルージョンの新たな発生が検知されると、統合オブジェクトから分割した各オブジェクトを統合前の各オブジェクトと対応付ける第1機能、オクルージョン期間中に前回フレームの統合オブジェクトから分割した各オブジェクトを今回フレームの統合オブジェクトから分割した各オブジェクトと対応付ける第2機能、および前回フレームで統合オブジェクトから分割した各オブジェクトをオクルージョン解消後に各オブジェクトと対応付ける第3機能を備え、対応するオブジェクトに同一IDを割り当てる。   When a new occurrence of occlusion is detected, the object associating unit 40b first divides each object divided from the integrated object with each object before integration, and divides from the integrated object of the previous frame during the occlusion period. A second function for associating each object with each object divided from the integrated object of the current frame, and a third function for associating each object divided from the integrated object in the previous frame with each object after occlusion elimination, the same ID for the corresponding object Assign.

動線表示部50は、図4に示したように、フレーム間で同一IDを割り当てられたオブジェクトを同一オブジェクトとみなして、各オブジェクトの移動軌跡をディスプレイ上に表示する。本実施形態では、各オブジェクトが丸印のシンボルマークで表現され、色を異ならせて表示される。   As shown in FIG. 4, the flow line display unit 50 regards objects assigned the same ID between frames as the same object, and displays the movement trajectory of each object on the display. In the present embodiment, each object is represented by a circle symbol mark and displayed in a different color.

このようなオブジェクト追跡装置は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機としても構成できる。   Such an object tracking device can be configured by mounting an application (program) for realizing each function on a general-purpose computer or server. Alternatively, it can be configured as a dedicated machine or a single-function machine in which a part of the application is hardware or ROMized.

図5は、本発明に係るオブジェクトの追跡方法および追跡プログラムの一実施形態の動作を示したフローチャートであり、ステップS1では、ピクセル単位でデプス値を有する奥行映像がフレーム単位で取り込まれる。なお、奥行映像を撮影するカメラが複数存在する場合には複数のフレーム画像が取り込まれる。   FIG. 5 is a flowchart showing the operation of an embodiment of the object tracking method and the tracking program according to the present invention. In step S1, a depth image having a depth value in pixels is captured in frames. Note that when there are a plurality of cameras that shoot depth videos, a plurality of frame images are captured.

ステップS2では、フレーム画像と予め生成されている背景画像との差分データが2D座標系上に投影される。このとき、複数のカメラからフレーム画像を取得するのであれば、投影マトリックスを生成するためのカメラ較正プロセスが予め実行される。   In step S2, difference data between the frame image and the background image generated in advance is projected onto the 2D coordinate system. At this time, if frame images are acquired from a plurality of cameras, a camera calibration process for generating a projection matrix is executed in advance.

ステップS3では、当該2D座標上でデプス値に基づくクラスタリングがピクセル単位で実行される。ステップS4では、前記クラスタリングの結果に基づいて、今回フレームから各オブジェクトが検知される。ステップS5では、前回フレームで検知された各オブジェクトと今回フレームで検知された各オブジェクトとの類似度が総当たりで計算され、類似度のより高いオブジェクト同士が相互に対応付けられる。   In step S3, clustering based on the depth value on the 2D coordinates is executed in pixel units. In step S4, each object is detected from the current frame based on the clustering result. In step S5, the similarity between each object detected in the previous frame and each object detected in the current frame is calculated brute force, and objects having higher similarity are associated with each other.

ステップS6では、各オブジェクトに外接する矩形領域が設定され、各矩形領域同士の重畳範囲の面積の割合が算出される。ステップS7では、重畳面積の割合が所定の条件を満足するオブジェクト同士がオクルージョン関係にあると判定される。   In step S6, a rectangular area circumscribing each object is set, and the area ratio of the overlapping range between the rectangular areas is calculated. In step S7, it is determined that objects whose overlapping area ratio satisfies a predetermined condition are in an occlusion relationship.

図6は、各オブジェクトの矩形領域の重畳面積の割合に基づいてオクルージョンの発生を判定する方法を模式的に示した図である。   FIG. 6 is a diagram schematically showing a method for determining the occurrence of occlusion based on the ratio of the overlapping area of the rectangular regions of the respective objects.

本実施形態では、前回フレームで検知されたオブジェクトと、今回フレームで検知されたオブジェクトとの矩形領域の重なりが判断される。その結果、同図(a)に示したように、前回フレームで検知されたオブジェクトA,Bの各矩形領域Ka,Kbと、今回フレームで検知されたオブジェクトCの矩形領域Kcとの重畳範囲の面積の割合がいずれも50パーセント以上であれば、オブジェクトCは2つのオブジェクトA,Bのオクルージョンにより生じた統合オブジェクトであると判断される。   In the present embodiment, the overlapping of the rectangular area between the object detected in the previous frame and the object detected in the current frame is determined. As a result, as shown in FIG. 6A, the overlapping range of the rectangular areas Ka and Kb of the objects A and B detected in the previous frame and the rectangular area Kc of the object C detected in the current frame If both of the area ratios are 50% or more, it is determined that the object C is an integrated object generated by the occlusion of the two objects A and B.

これに対して、同図(b)に示したように、前回フレームで検知されたオブジェクトA,Bの各矩形領域Ka,Kbと今回フレームで検知されたオブジェクトCの矩形領域Kcとの重畳が検知されても、重畳範囲の面積の割合が50パーセント以上の組み合わせが一つのみ(ここでは、オブジェクトA,Dの組み合わせのみ)であればオクルージョン状態とは判定されない。   On the other hand, as shown in FIG. 5B, the rectangular areas Ka and Kb of the objects A and B detected in the previous frame and the rectangular area Kc of the object C detected in the current frame are superimposed. Even if it is detected, the occlusion state is not determined if there is only one combination in which the area ratio of the overlapping range is 50% or more (here, only the combination of objects A and D).

また、同図(c)に示したように、前回フレームで検知されたオブジェクトAの矩形領域Kaと今回フレームで検知されたオブジェクトFの矩形領域Kfとの重畳範囲の面積の割合が50パーセント以上であっても、それが一つのみであればオクルージョン状態とは判定されない。   Further, as shown in FIG. 5C, the ratio of the area of the overlapping range of the rectangular area Ka of the object A detected in the previous frame and the rectangular area Kf of the object F detected in the current frame is 50% or more. However, if there is only one, it is not determined as an occlusion state.

以上のオクルージョン判定により、オクルージョン状態ではないと判定された今回フレームのオブジェクトに関してはステップS8へ進み、類似度が高かった前回フレームのオブジェクトのIDが付与される。これに対して、オクルージョン状態であると判定された統合オブジェクトに関してはステップS9へ進み、統合オブジェクトが各ピクセルのデプス値に基づいて分割される。   With respect to the object of the current frame that is determined not to be in the occlusion state by the above occlusion determination, the process proceeds to step S8, and the ID of the object of the previous frame having a high similarity is assigned. On the other hand, for the integrated object determined to be in the occlusion state, the process proceeds to step S9, where the integrated object is divided based on the depth value of each pixel.

本実施形態では、n個のオブジェクトのオクルージョンにより生じた統合オブジェクトであれば、その領域内にデプス値の分布が異なるn個の領域が混在しているとの考察に基づいて、統合オブジェクトから各ピクセルのデプス値に基づいて複数の部分を分割して新たな追跡対象のオブジェクトとする。   In the present embodiment, if an integrated object is generated by occlusion of n objects, each region from the integrated object is considered based on the consideration that n regions having different distributions of depth values are mixed in the region. Based on the pixel depth value, a plurality of parts are divided into new tracking target objects.

ここでは初めに、前回フレームで検知されている統合前の各オブジェクトおよび今回フレームにおける重畳範囲に関して、次式(1)〜(4)で表されるデプスモデルxが生成される。ここで、変数aは統合前の各オブジェクトまたは重畳範囲に外接する矩形領域の幅wおよび高さhの関数であり、変数cは幅wおよび高さhの中心位置(座標)であり、変数dは各ピクセルのデプス値の関数である。   Here, first, a depth model x represented by the following equations (1) to (4) is generated for each object before integration detected in the previous frame and the overlapping range in the current frame. Here, variable a is a function of width w and height h of the rectangular area circumscribing each object or overlapping range before integration, variable c is the center position (coordinates) of width w and height h, and variable d is a function of the depth value of each pixel.

次いで、統合前の各オブジェクトのデプス値に関する分布と今回フレームにおける重畳範囲のデプス値に関する分布との類似性を判断するために、次式(5)のバッタチャリャ距離(Bhattacharyya distance:距離尺度)Bが計算される。   Next, in order to determine the similarity between the distribution related to the depth value of each object before integration and the distribution related to the depth value of the overlapping range in the current frame, the Battery distance (Bhattacharyya distance) in the following equation (5) is Calculated.

ここで、σi,μiは今回フレームにおける重畳範囲のデプス値の分散および算術平均(中央値)であり、σj,μjは前回フレームで検知されたオブジェクトのデプス値の分散および算術平均(中央値)である。そして、今回フレームにおける各重畳範囲のうち、前回フレームで検知されている統合前の各オブジェクトとのバッタチャリャ距離Bの近い重畳範囲が統合オブジェクトから分割されて新たな追跡対象のオブジェクトとされる。   Here, σi and μi are the variance and arithmetic mean (median) of the depth values of the overlapping range in the current frame, and σj and μj are the variance and arithmetic mean (median) of the depth values of the objects detected in the previous frame. It is. Then, among the overlapping ranges in the current frame, the overlapping range near the batcher distance B with each pre-integration object detected in the previous frame is divided from the integrated object to be a new tracking target object.

ステップS10では、前回フレームで検知されている統合前の各オブジェクトと今回フレームにおける各オブジェクトとの類似度が総当たりで比較される。ステップS11では、各オブジェクトに対して、類似度が最も高い統合前の各オブジェクトのIDが割り当てられる。ステップS12では、各オブジェクトの動線(軌跡)が表示出力される。   In step S10, the degree of similarity between each object before integration detected in the previous frame and each object in the current frame is compared brute force. In step S11, the ID of each object before integration having the highest similarity is assigned to each object. In step S12, the flow line (trajectory) of each object is displayed and output.

図7は、統合オブジェクトから分割した部分のオクルージョン発生からその解消までの期間における追跡方法を模式的に表現した示した図である。   FIG. 7 is a diagram schematically showing a tracking method in a period from the occurrence of occlusion of a portion divided from the integrated object to the cancellation thereof.

本実施形態では、時刻t0で検知された2つのオブジェクトA,Bがオクルージョンにより一つのオブジェクトCに統合されると、時刻t1では、この統合オブジェクトCから各オブジェクトA,Bと類似する上側部分Kaと下側部分Kbが分割される。   In the present embodiment, when the two objects A and B detected at time t0 are integrated into one object C by occlusion, the upper portion Ka similar to each object A and B from the integrated object C at time t1. And the lower part Kb are divided.

各部分Ka,Kbは、それぞれ統合前の各オブジェクトA,Bと類似するはずなので、オブジェクトCの各部分Ka,Kbには、それぞれオブジェクトAの識別子IDa,オブジェクトBの識別子IDbが割り当てられて今後の追跡対象とされる。統合オブジェクトCについては追跡対象から除外される。   Since each part Ka and Kb should be similar to each object A and B before integration, each part Ka and Kb of object C is assigned the identifier IDa of object A and the identifier IDb of object B, respectively. To be tracked. The integrated object C is excluded from the tracking target.

次の時刻t2では、今回フレームで検知された統合オブジェクトCから、前回フレームにおいて分割された各部分に相当するオブジェクトKa,Kbと類似する右側部分および左側部分が分割され、それぞれにオブジェクトKaの識別子IDaおよびオブジェクトKbの識別子IDbが割り当てられて今後の追跡対象とされる。統合オブジェクトCについては追跡対象から除外される。   At the next time t2, the right part and the left part similar to the objects Ka and Kb corresponding to the parts divided in the previous frame are divided from the integrated object C detected in the current frame, and the identifier of the object Ka is divided into each. IDa and the identifier IDb of the object Kb are assigned to be tracked in the future. The integrated object C is excluded from the tracking target.

次の時刻t3では、今回フレームで検知された統合オブジェクトCから、前回フレームにおいて分割された各部分に相当するオブジェクトKa,Kbと類似する下側部分および上側部分が分割され、それぞれにオブジェクトKaの識別子IDaおよびオブジェクトKbの識別子IDbが割り当てられて今後の追跡対象とされる。統合オブジェクトCについては追跡対象から除外される。   At the next time t3, the lower part and the upper part similar to the objects Ka and Kb corresponding to the parts divided in the previous frame are divided from the integrated object C detected in the current frame, and each of the objects Ka The identifier IDa and the identifier IDb of the object Kb are assigned to be subject to future tracking. The integrated object C is excluded from the tracking target.

その後、統合オブジェクトCのオクルージョンが解消してオブジェクトA,Bが独立して検知されると、時刻t4では、前回フレームで分割された下側部分に相当するオブジェクトKaおよび上側部分に相当するオブジェクトKbが、それぞれオブジェクトA,Bと対応付けられるので、オブジェクトAには識別子IDa,オブジェクトBには識別子IDbを正しく割り当てることが可能になる。   After that, when the occlusion of the integrated object C is resolved and the objects A and B are detected independently, at time t4, the object Ka corresponding to the lower part and the object Kb corresponding to the upper part divided in the previous frame. Are associated with the objects A and B, respectively, so that it is possible to correctly assign the identifier IDa to the object A and the identifier IDb to the object B.

オブジェクトの追跡は前記デプスモデルxを用いたパーティクルフィルタに基づいて実行される。本実施形態では、次式(6)に示したように、前回フレームのオクルージョン状態ンではないオブジェクトが重み付けされた標準サンプルとされる。   The object tracking is executed based on a particle filter using the depth model x. In the present embodiment, as shown in the following equation (6), an object that is not in the occlusion state of the previous frame is set as a weighted standard sample.

デプス類似モデルの重み要素Δは、観察対象フレームZ0〜Zt-1を用いて次式(7)で与えられる。   The weight element Δ of the depth similarity model is given by the following equation (7) using the observation target frames Z0 to Zt-1.

ここでは、次式(8)に示したように、最大で5つの前回フレームを観察してオブジェクト追跡を行う場合について説明する。   Here, as shown in the following equation (8), a case will be described in which object tracking is performed by observing a maximum of five previous frames.

Dは次式(9)で与えられ、現在のオブジェクトと参照フレームのオブジェクトとの、上式(1)に基づいて計算されるデプスモデルの類似性の計測結果である。類似性は重心のユークリッド距離と各オブジェクトの深さとに基づいて計算される。   D is given by the following equation (9), and is a measurement result of the similarity of the depth model calculated based on the above equation (1) between the current object and the object of the reference frame. Similarity is calculated based on the Euclidean distance of the center of gravity and the depth of each object.

ここでは、追跡において離れた一対のオブジェクトが誤って対応付けられないように重心に高い得点を与えるために、定数α=0.5、β=0.1に決定される。現在のオブジェクトのデプス値の分散σは、検知されたオブジェクト間の距離の範囲内であるように、類似性測定においてデプス値コンポーネントと呼ばれる。このように、追跡はtAVGフレームのオブジェクトの重心との距離が最小となるオブジェクトを現在フレームt内で見つけることである。 Here, constants α = 0.5 and β = 0.1 are determined in order to give a high score to the center of gravity so that a pair of objects that are separated in tracking are not erroneously associated with each other. The variance σ of the depth value of the current object is called the depth value component in the similarity measurement so that it is within the distance between the detected objects. Thus, tracking is to find the object in the current frame t that has the smallest distance from the center of gravity of the object in the t AVG frame.

ここで、Iは基準フレーム内で検知されたオブジェクト数(5つのフレームでの平均)である。したがって、フレームtのj番目のオブジェクトにはフレームtAVG内でcが最小値を与えるオブジェクトのラベルLが割り当てられる。 Here, I is the number of objects detected in the reference frame (average over 5 frames). Therefore, the label L of the object for which c gives the minimum value in the frame t AVG is assigned to the jth object of the frame t.

以上、本発明の実施形態に係るオブジェクト追跡装置について説明したが、本発明はこれのみに限定されるものではなく、当該オブジェクト追跡装置と同様の処理を行うオブジェクト追跡方法であっても良いし、コンピュータに当該追跡方法を実行させるためのオブジェクト追跡プログラムであっても良い。   As described above, the object tracking device according to the embodiment of the present invention has been described, but the present invention is not limited thereto, and may be an object tracking method that performs the same processing as the object tracking device, An object tracking program for causing a computer to execute the tracking method may be used.

10…オブジェクト検知部,20…矩形領域設定部,30…オクルージョン判定部,30a…面積計算部,40…ID割当実行部,40a…統合オブジェクト分割部,40b…オブジェクト対応付け部,50…動線表示部   DESCRIPTION OF SYMBOLS 10 ... Object detection part, 20 ... Rectangular area setting part, 30 ... Occlusion determination part, 30a ... Area calculation part, 40 ... ID allocation execution part, 40a ... Integrated object division part, 40b ... Object matching part, 50 ... Flow line Display section

Claims (11)

各ピクセルが奥行情報を有するフレーム画像上でオブジェクトを追跡するオブジェクト追跡装置において、
奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手段と、
今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手段と、
統合オブジェクトから前回フレームのオブジェクトに類似する部分を追跡対象のオブジェクトとして分割する手段と、
フレーム画像間で各オブジェクトをその類似度に基づいて追跡する手段とを具備したことを特徴とするオブジェクト追跡装置。
In an object tracking device that tracks an object on a frame image in which each pixel has depth information,
Means for detecting an object on each frame image based on depth information;
Means for determining whether the object detected in the current frame is an integrated object caused by occlusion;
Means for dividing a portion similar to the object of the previous frame from the integrated object as an object to be tracked,
An object tracking device comprising means for tracking each object between frame images based on the degree of similarity.
前記統合オブジェクトであるか否かを判定する手段は、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定することを特徴とする請求項1に記載のオブジェクト追跡装置。   The means for determining whether or not the object is an integrated object is that the ratio of the area of each overlapping range of the object detected in the current frame and the plurality of objects detected in the previous frame is equal to or greater than a predetermined threshold. The object tracking device according to claim 1, wherein the object detected in the current frame is determined as an integrated object. 前記分割する手段は、統合オブジェクトから、前回フレームの各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割することを特徴とする請求項1または2に記載のオブジェクト追跡装置。   The object tracking device according to claim 1, wherein the dividing unit divides each overlapping range in which the arrangement of depth information is similar to each object of the previous frame from the integrated object as a tracking target object. . 前記奥行情報の配置の類似が、前回フレームの各オブジェクトの奥行情報と今回フレームにおける各重畳範囲の奥行情報とのバタチャリヤ距離に基づいて判定されることを特徴とする請求項3に記載のオブジェクト追跡装置。   The object tracking according to claim 3, wherein the similarity of the arrangement of the depth information is determined based on a virtual distance between the depth information of each object in the previous frame and the depth information of each overlapping range in the current frame. apparatus. 前記追跡する手段は、フレーム画像間での各オブジェクトの類似度をパーティクルフィルタに基づいて計算することを特徴とする請求項1ないし4のいずれかに記載のオブジェクト追跡装置。   5. The object tracking device according to claim 1, wherein the tracking unit calculates the similarity of each object between frame images based on a particle filter. 各ピクセルが奥行情報を有するフレーム画像上で、コンピュータがオブジェクトを追跡するオブジェクト追跡方法において、
奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手順と、
今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手順と、
統合オブジェクトから前回フレームのオブジェクトに類似する部分を追跡対象のオブジェクトとして分割する手順と、
フレーム画像間で各オブジェクトをその類似度に基づいて追跡する手順とを含むことを特徴とするオブジェクト追跡方法。
In an object tracking method in which a computer tracks an object on a frame image in which each pixel has depth information,
A procedure for detecting an object on each frame image based on the depth information;
A procedure for determining whether or not the object detected in the current frame is an integrated object caused by occlusion;
Procedure to divide the part similar to the object of the previous frame from the integrated object as the object to be tracked,
And a procedure for tracking each object between frame images based on the similarity.
前記統合オブジェクトであるか否かを判定する手順では、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定することを特徴とする請求項6に記載のオブジェクト追跡方法。   In the procedure for determining whether or not the object is an integrated object, if the ratio of the area of each overlapping range of the object detected in the current frame and the plurality of objects detected in the previous frame is equal to or greater than a predetermined threshold, The object tracking method according to claim 6, wherein the object detected in the current frame is determined as an integrated object. 前記分割する手順では、統合オブジェクトから、前回フレームの各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割することを特徴とする請求項6または7に記載のオブジェクト追跡方法。   The object tracking method according to claim 6 or 7, wherein in the dividing step, each overlapping range in which the arrangement of the depth information is similar to each object of the previous frame is divided as an object to be tracked from the integrated object. . 各ピクセルが奥行情報を有するフレーム画像上で、コンピュータにオブジェクトを追跡させるオブジェクト追跡プログラムにおいて、
奥行情報に基づいて各フレーム画像上でオブジェクトを検知する手順と、
今回フレームで検知されたオブジェクトがオクルージョンにより生じた統合オブジェクトであるか否かを判定する手順と、
統合オブジェクトから前回フレームのオブジェクトに類似する部分を追跡対象のオブジェクトとして分割する手順と、
フレーム画像間で各オブジェクトをその類似度に基づいて追跡する手順とを、コンピュータに実行させるためのオブジェクト追跡プログラム。
In an object tracking program that causes a computer to track an object on a frame image in which each pixel has depth information,
A procedure for detecting an object on each frame image based on the depth information;
A procedure for determining whether or not the object detected in the current frame is an integrated object caused by occlusion;
Procedure to divide the part similar to the object of the previous frame from the integrated object as the object to be tracked,
An object tracking program for causing a computer to execute a procedure for tracking each object between frame images based on the degree of similarity.
前記統合オブジェクトであるか否かを判定する手順では、今回フレームで検知されたオブジェクトと前回フレームで検知された複数のオブジェクトとのそれぞれの重畳範囲の面積の割合が所定の閾値以上であると当該今回フレームで検知されたオブジェクトを統合オブジェクトと判定することを特徴とする請求項9に記載のオブジェクト追跡プログラム。   In the procedure for determining whether or not the object is an integrated object, if the ratio of the area of each overlapping range of the object detected in the current frame and the plurality of objects detected in the previous frame is equal to or greater than a predetermined threshold, The object tracking program according to claim 9, wherein the object detected in the current frame is determined as an integrated object. 前記分割する手順では、統合オブジェクトから、前回フレームの各オブジェクトと奥行情報の配置が類似する各重畳範囲を追跡対象のオブジェクトとして分割することを特徴とする請求項9または10に記載のオブジェクト追跡プログラム。   11. The object tracking program according to claim 9, wherein, in the dividing step, each overlapping range in which an arrangement of depth information is similar to each object of the previous frame is divided as a tracking target object from the integrated object. .
JP2016062076A 2016-03-25 2016-03-25 Object tracking apparatus, method and program Active JP6558831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016062076A JP6558831B2 (en) 2016-03-25 2016-03-25 Object tracking apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016062076A JP6558831B2 (en) 2016-03-25 2016-03-25 Object tracking apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2017174305A true JP2017174305A (en) 2017-09-28
JP6558831B2 JP6558831B2 (en) 2019-08-14

Family

ID=59971332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016062076A Active JP6558831B2 (en) 2016-03-25 2016-03-25 Object tracking apparatus, method and program

Country Status (1)

Country Link
JP (1) JP6558831B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110136171A (en) * 2019-05-20 2019-08-16 哈尔滨工程大学 The method blocked is judged in a kind of object tracking process
CN110458861A (en) * 2018-05-04 2019-11-15 佳能株式会社 Object detection and tracking and equipment
WO2023132225A1 (en) * 2022-01-05 2023-07-13 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093295A (en) * 2010-10-28 2012-05-17 Shigenori Tanaka Target region extractor
JP2013058054A (en) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd Moving body tracking device, moving body tracking method, and program
JP2016024534A (en) * 2014-07-17 2016-02-08 日本電気株式会社 Moving body tracking device, moving body tracking method, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093295A (en) * 2010-10-28 2012-05-17 Shigenori Tanaka Target region extractor
JP2013058054A (en) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd Moving body tracking device, moving body tracking method, and program
JP2016024534A (en) * 2014-07-17 2016-02-08 日本電気株式会社 Moving body tracking device, moving body tracking method, and computer program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐竹 純二、三浦 純: ""人物シルエットの重なりを考慮したテンプレートを用いたステレオビジョン複数人物追跡"", 日本ロボット学会誌, vol. 31, no. 3, JPN6019011900, 15 April 2013 (2013-04-15), JP, pages 78 - 86, ISSN: 0004011195 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458861A (en) * 2018-05-04 2019-11-15 佳能株式会社 Object detection and tracking and equipment
CN110458861B (en) * 2018-05-04 2024-01-26 佳能株式会社 Object detection and tracking method and device
CN110136171A (en) * 2019-05-20 2019-08-16 哈尔滨工程大学 The method blocked is judged in a kind of object tracking process
CN110136171B (en) * 2019-05-20 2023-04-18 哈尔滨工程大学 Method for judging occlusion in target tracking process
WO2023132225A1 (en) * 2022-01-05 2023-07-13 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6558831B2 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
US10572736B2 (en) Image processing apparatus, image processing system, method for image processing, and computer program
JP6525453B2 (en) Object position estimation system and program thereof
EP2858008B1 (en) Target detecting method and system
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
US10260862B2 (en) Pose estimation using sensors
US9741130B2 (en) Method and apparatus for detecting object
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US11037325B2 (en) Information processing apparatus and method of controlling the same
EP2450832A1 (en) Image processing apparatus and image processing method
US20190385324A1 (en) Three-dimensional measurement apparatus
JP6474126B2 (en) Object tracking method, apparatus and program
JP6261266B2 (en) Moving body detection device
JP6454984B2 (en) Hand position determination method and device based on depth image
WO2019057197A1 (en) Visual tracking method and apparatus for moving target, electronic device and storage medium
JP6558831B2 (en) Object tracking apparatus, method and program
JP2021060868A5 (en)
JP2017076394A (en) Moving object counter and method
TW201917635A (en) Target tracking method and system adaptable to multi-target tracking
KR20160108979A (en) Method and apparatus of tracking targets
JP6659095B2 (en) Image processing apparatus, image processing method, and program
Jiang et al. Tracking pedestrians using smoothed colour histograms in an interacting multiple model framework
JP2017016356A5 (en)
KR100994366B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
JP2021077177A (en) Operation recognition apparatus, operation recognition method, and operation recognition program
JP6632142B2 (en) Object tracking device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190712

R150 Certificate of patent or registration of utility model

Ref document number: 6558831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150