JP6336872B2 - Object tracking method, apparatus and program - Google Patents

Object tracking method, apparatus and program Download PDF

Info

Publication number
JP6336872B2
JP6336872B2 JP2014198941A JP2014198941A JP6336872B2 JP 6336872 B2 JP6336872 B2 JP 6336872B2 JP 2014198941 A JP2014198941 A JP 2014198941A JP 2014198941 A JP2014198941 A JP 2014198941A JP 6336872 B2 JP6336872 B2 JP 6336872B2
Authority
JP
Japan
Prior art keywords
occlusion
objects
motion vector
size
assigning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014198941A
Other languages
Japanese (ja)
Other versions
JP2016071534A (en
Inventor
ホウアリ サビリン
ホウアリ サビリン
浩嗣 三功
浩嗣 三功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014198941A priority Critical patent/JP6336872B2/en
Publication of JP2016071534A publication Critical patent/JP2016071534A/en
Application granted granted Critical
Publication of JP6336872B2 publication Critical patent/JP6336872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、映像上で人物に代表される動的なオブジェクトを追跡するオブジェクト追跡方法、装置およびプログラムに係り、特に、オブジェクトを個別認識できるRGBカラー画像を利用せず、オブジェクトを個別認識できない奥行データの映像のみを用いて動的なオブジェクトを追跡するオブジェクト追跡方法、装置およびプログラムに関する。   The present invention relates to an object tracking method, apparatus, and program for tracking a dynamic object typified by a person on a video, and particularly to a depth in which an object cannot be individually recognized without using an RGB color image that can individually recognize the object. The present invention relates to an object tracking method, apparatus, and program for tracking a dynamic object using only video of data.

監視カメラ映像や、スポーツ映像を対象としたオブジェクト追跡に関する手法がこれまでに数多く提案されている。これらのほとんどは、一定の撮影条件が満たされることを前提に、映像のカラー情報に基づく追跡を行っている。   Many methods related to object tracking for surveillance camera images and sports images have been proposed. Most of them perform tracking based on video color information on the assumption that certain shooting conditions are satisfied.

一方、防犯やマーケティングの用途において、監視カメラ映像を用いた人物検出・追跡に関する需要が急速に高まっているが、解像度不足や照明条件の観点からカラー情報の利用が困難なケースが少なくない。また、プライバシーの観点から、人物を特定できてしまうカラー情報の利用が制限されており、代わりに人物を特定できない奥行映像のみからオブジェクト追跡を行う技術に対する期待が高まっている。   On the other hand, in crime prevention and marketing applications, the demand for human detection / tracking using surveillance camera images is rapidly increasing, but there are many cases where it is difficult to use color information from the viewpoint of insufficient resolution and lighting conditions. In addition, from the viewpoint of privacy, the use of color information that can specify a person is limited, and instead, there is an increasing expectation for a technology that performs object tracking only from a depth video in which a person cannot be specified.

非特許文献1には、Microsoft Kinectに代表される奥行センサーを用いた奥行データにおけるオブジェクト領域の検出に基づき追跡を行う手法が提案されている。非特許文献2では、カラー情報と奥行データとを組み合わせる形で追跡性能の向上を実現する技術が開示されている。   Non-Patent Document 1 proposes a method of tracking based on detection of an object area in depth data using a depth sensor typified by Microsoft Kinect. Non-Patent Document 2 discloses a technique for realizing improvement in tracking performance by combining color information and depth data.

Parvizi and Wu, " Multiple Bject Tracking Based on Adaptive Depth Segmentation," Canadian conference on Computer and RBot Vision 2008, pp.273-277, 2008Parvizi and Wu, "Multiple Bject Tracking Based on Adaptive Depth Segmentation," Canadian conference on Computer and RBot Vision 2008, pp.273-277, 2008 Tran and Harada, " Depth-Aided Tracking Multiple Bjects under Cclusion," Journal of Signal and Information prCessing, vol. 4, pp.299-307, 2013Tran and Harada, "Depth-Aided Tracking Multiple Bjects under Cclusion," Journal of Signal and Information prCessing, vol. 4, pp.299-307, 2013

非特許文献1では、奥行データのみを用いたオブジェクト追跡手法が提案されているが、オブジェクト同士が重なるオクルージョン時の追跡に関する言及がされておらず、実利用の観点では性能低下が予想される。非特許文献2では、カラー情報との組み合わせ手法であり、奥行データのみを用いるという利用シーンには対応していない。   In Non-Patent Document 1, an object tracking method using only depth data is proposed, but there is no mention of tracking at the time of occlusion in which objects overlap each other, and performance degradation is expected in terms of actual use. Non-Patent Document 2 is a combination method with color information and does not correspond to a use scene in which only depth data is used.

本発明の目的は、上記の技術課題を解決し、奥行映像のみを用いることでオブジェクトのプライバシーを尊重しながら、オクルージョンの有無に関わらずオブジェクトを正確に追跡できるオブジェクト追跡方法、装置およびプログラムを提供することにある。   An object of the present invention is to provide an object tracking method, apparatus, and program capable of solving the above technical problem and accurately tracking an object with or without occlusion while respecting the privacy of the object by using only the depth image. There is to do.

上記の目的を達成するために、本発明は、奥行映像上でオブジェクトを追跡するオブジェクト追跡装置において、以下の構成を具備した点に特徴がある。   In order to achieve the above object, the present invention is characterized in that an object tracking apparatus for tracking an object on a depth image has the following configuration.

(1) 奥行映像の各フレームからオブジェクトを検知する手段と、フレーム間で各オブジェクトの位置、サイズおよび動きベクトルを比較し、同一オブジェクトに同一IDを割り当てるID割当手段と、オブジェクト間のオクルージョンを判定する手段とを具備し、ID割当手段は、オクルージョンが解消した各オブジェクトに対して、オクルージョンの発生前後における各オブジェクトの位置、サイズおよび動きベクトルに基づいて同一IDを割り当てるようにした。   (1) A means for detecting an object from each frame of a depth video, a position assignment, a size, and a motion vector of each object are compared between frames, an ID assigning means for assigning the same ID to the same object, and an occlusion between objects is determined. The ID assigning means assigns the same ID to each object for which occlusion has been resolved based on the position, size, and motion vector of each object before and after the occurrence of occlusion.

(2) 各オブジェクトに外接する矩形のオブジェクト領域を設定する手段を具備し、オクルージョンを判定する手段は、オブジェクト領域の少なくとも一部が重なるオブジェクト間にオクルージョンが生じる可能性があると判定して当該オブジェクトの位置、サイズおよび動きベクトルを蓄積するようにした。   (2) A means for setting a rectangular object area circumscribing each object is provided, and the means for determining occlusion determines that there is a possibility that occlusion occurs between objects in which at least part of the object area overlaps. Accumulated object position, size and motion vector.

本発明によれば、以下のような効果が達成される。
(1) オブジェクトを具体的に識別可能なRGBカラー映像を用いることなく、オブジェクトを具体的に識別できない奥行映像のみを用いてオブジェクトを追跡できるので、各オブジェクトのプライバシーを尊重したオブジェクト追跡が可能になる。
According to the present invention, the following effects are achieved.
(1) Without using RGB color images that can specifically identify objects, it is possible to track objects using only depth images that cannot specifically identify objects, enabling object tracking that respects the privacy of each object. Become.

(2) オクルージョン前後での各オブジェクトの同一性を、各オブジェクトの位置、サイズおよび動きベクトルから計算される類似度に基づいて判断するようにしたので、オクルージョンの発生にかかわらずオブジェクトの正確な追跡が可能になる。   (2) Since the identity of each object before and after occlusion is determined based on the similarity calculated from the position, size and motion vector of each object, accurate tracking of the object regardless of the occurrence of occlusion Is possible.

(3) オクルージョンの有無を、オブジェクト同士が重なって認識できなくなるよりも前に、オブジェクトに外接する矩形オクルージョン領域の重なりの有無に基づいて予測するようにしたので、その後にオクルージョンの関係となるオブジェクトを正確に識別できるようになる。   (3) Presence of occlusion is predicted based on the presence or absence of overlapping rectangular occlusion areas circumscribing objects before objects overlap and cannot be recognized. Can be accurately identified.

本発明の一実施形態に係るオブジェクト追跡装置の機能ブロック図である。It is a functional block diagram of the object tracking device concerning one embodiment of the present invention. 奥行映像の一例を示した図である。It is the figure which showed an example of the depth image | video. 矩形オブジェクト領域の設定例を示した図である。It is the figure which showed the example of a setting of a rectangular object area | region. オクルージョンの判定方法を示した図である。It is the figure which showed the determination method of occlusion. オブジェクト追跡映像の一例を示した図である。It is the figure which showed an example of the object tracking image | video. オブジェクト追跡方法を説明するための図である。It is a figure for demonstrating the object tracking method. 本発明の一実施形態の動作を示したフローチャートである。It is the flowchart which showed operation | movement of one Embodiment of this invention. ID割当処理の動作を示したフローチャートである。It is the flowchart which showed operation | movement of ID allocation processing.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト追跡装置の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main part of an object tracking apparatus according to an embodiment of the present invention, and here, the configuration unnecessary for the description of the present invention is omitted.

オブジェクト検知部10は、図2に示したように、オブジェクトを具体的に識別できない奥行データのみの映像(奥行映像)の各映像フレーム上で各オブジェクトを検知する。本実施形態では、オブジェクトが存在しない環境下で撮影した背景画像を蓄積しておき、奥行映像の各フレームと前記背景画像との差分が所定の閾値以上となる閉領域がオブジェクトとして検知される。   As illustrated in FIG. 2, the object detection unit 10 detects each object on each video frame of a video of only depth data (depth video) that cannot specifically identify the object. In the present embodiment, background images taken in an environment where no object exists are accumulated, and a closed region where the difference between each frame of the depth video and the background image is greater than or equal to a predetermined threshold is detected as an object.

オブジェクト領域設定部20は、図3に示したように、各オブジェクトに対して、その輪郭に外接あるいは包含する矩形のオブジェクト領域を設定する。ID割当処理部30は、映像フレーム間で各オブジェクトの位置、大きさおよび動きベクトルを比較し、これらのオブジェクト情報に基づいて計算される類似度が所定の閾値を上回るオブジェクト同士を同一オブジェクトとみなして同一IDを割り当てる。各オブジェクトの位置は、たとえばオブジェクトの中心座標で代表される。   As shown in FIG. 3, the object area setting unit 20 sets a rectangular object area circumscribing or including the outline of each object. The ID allocation processing unit 30 compares the position, size, and motion vector of each object between video frames, and regards objects whose similarity calculated based on the object information exceeds a predetermined threshold as the same object. Assign the same ID. The position of each object is represented by the center coordinates of the object, for example.

オクルージョン処理部40において、オクルージョン判定部41は、図4に示したように、オブジェクト領域Ka,Kbの少なくとも一部が重なっているオブジェクトA,B間にオクルージョンが生じる可能性があると判定する。そして、各オブジェクトに固有のIDをオクルージョンリスト42へ登録し、さらにオクルージョンフラグ(Foc)43をセットする。   In the occlusion processing unit 40, the occlusion determination unit 41 determines that there is a possibility that occlusion may occur between the objects A and B in which at least part of the object areas Ka and Kb overlap as shown in FIG. Then, an ID unique to each object is registered in the occlusion list 42, and an occlusion flag (Foc) 43 is set.

前記ID割当処理部30において、オクルージョン発生時割当部31は、今回フレームに前回フレームと同一のIDを割り当てられなかった未割当オブジェクトが存在し、かつ前回フレームから今回フレームにかけてオブジェクト数が減少し、かつ未割当オブジェクトの現在位置がオクルージョンリスト42に登録されているオブジェクトA,Bの位置および動きベクトルに基づいて予測される現在位置からの予測誤差範囲内であれば、オブジェクトA,B間にオクルージョンが発生したと判定する。そして、オクルージョン判定されたオブジェクトに固有のIDとして、例えばオブジェクトA,BのIDを前記未割当オブジェクトに割り当てる。   In the ID allocation processing unit 30, the occlusion occurrence allocation unit 31 includes an unallocated object that has not been allocated the same ID as the previous frame in the current frame, and the number of objects decreases from the previous frame to the current frame, If the current position of the unassigned object is within the prediction error range from the current position predicted based on the position and motion vector of the objects A and B registered in the occlusion list 42, the occlusion is performed between the objects A and B. Is determined to have occurred. Then, for example, IDs of the objects A and B are assigned to the unassigned objects as IDs unique to the objects determined to be occluded.

オクルージョン解消時割当部32は、今回フレームに前回フレームと同一のIDを割り当てられなかった未割当オブジェクトが存在し、かつ前回フレームから今回フレームにかけてオブジェクト数が増加し、かつ未割当オブジェクトの大きさがオクルージョンリストに登録されているオブジェクトA,Bに類似し、未割当オブジェクトの現在位置がオクルージョンリストに登録されているオブジェクトA,Bの位置および動きベクトルに基づいて予測される現在位置からの予測誤差範囲内であれば、オブジェクトA,B間のオクルージョンが解消したと判定する。そして、オクルージョンリストに登録されているオブジェクトA,BのIDを当該各未割当オブジェクトに割り当てる。   The allocation unit 32 at the time of occlusion cancellation includes an unallocated object that could not be assigned the same ID as the previous frame in the current frame, the number of objects increases from the previous frame to the current frame, and the size of the unallocated object is Similar to objects A and B registered in the occlusion list, the current position of the unassigned object is predicted based on the position and motion vector of the objects A and B registered in the occlusion list. If it is within the range, it is determined that the occlusion between the objects A and B has been resolved. Then, the IDs of the objects A and B registered in the occlusion list are assigned to the respective unassigned objects.

動線表示部50は、図5に示したように、フレーム間で同一IDを割り当てられたオブジェクトを同一オブジェクトとみなして、各オブジェクトの移動軌跡をディスプレイ上に表示する。本実施形態では、各オブジェクトが丸印のシンボルマークで表現され、色を異ならせて表示される。   As shown in FIG. 5, the flow line display unit 50 regards objects assigned the same ID between frames as the same object, and displays the movement trajectory of each object on the display. In the present embodiment, each object is represented by a circle symbol mark and displayed in a different color.

このようなオブジェクト追跡装置は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機としても構成できる。   Such an object tracking device can be configured by mounting an application (program) for realizing each function on a general-purpose computer or server. Alternatively, it can be configured as a dedicated machine or a single-function machine in which a part of the application is hardware or ROMized.

次いで、図6に示したように、3つのオブジェクトA,B,Cが検知され[同図(a)]、それぞれにオブジェクトIDとしてIDa,IDb,IDcが割り当てられた後、オブジェクトA,B間にオクルージョンが生じ[同図(b)],[同図(c)]、その後、オクルージョンが解消する場合[同図(d)],[同図(e)]のオブジェクト追跡動作を、図7,8のフローチャートに沿って説明する。   Next, as shown in FIG. 6, after three objects A, B, and C are detected [(a) in FIG. 6], IDa, IDb, and IDc are assigned as object IDs, respectively. When the occlusion occurs in [Fig. (B)], [Fig. (C)], and then the occlusion disappears, the object tracking operation of [Fig. (D)], [Fig. , 8 will be described.

初めに図7のフローチャートを参照し、第n周期のステップS1では、図6(a)に示した奥行映像フレームが取り込まれる。ステップS2では、3つのオブジェクトA,B,Cが前記オブジェクト検知部10により検知される。ステップS3では、各オブジェクトA,B,Cに外接する矩形オブジェクト領域Ka,Kb,Kcが、前記オブジェクト領域設定部20によりそれぞれ設定される。ステップS4では、オブジェクトA,B,Cに対して、オブジェクトIDとしてそれぞれIDa,IDb,IDcが割り当てられる。   First, referring to the flowchart of FIG. 7, in the step S1 of the nth cycle, the depth video frame shown in FIG. 6A is captured. In step S2, three objects A, B, and C are detected by the object detection unit 10. In step S3, rectangular object areas Ka, Kb, Kc circumscribing the objects A, B, C are set by the object area setting unit 20, respectively. In step S4, IDa, IDb, and IDc are assigned to objects A, B, and C as object IDs, respectively.

続く第(n+1)周期のステップS1では、図6(b)に示した奥行映像フレームが取り込まれる。このフレームでは、2つのオブジェクトA,Bが近接しているが、未だオブジェクト同士は重なっていないので、ステップS2では、3つのオブジェクトA,B,Cが検知される。   In step S1 of the subsequent (n + 1) period, the depth video frame shown in FIG. 6B is captured. In this frame, the two objects A and B are close to each other, but since the objects have not yet overlapped, the three objects A, B, and C are detected in step S2.

ステップS3では、各オブジェクトA,B,Cに、それぞれ矩形オブジェクト領域Ka,Kb,Kcが設定される。ステップS4では、前記ステップS2で検知されたオブジェクトA,B,Cに対して、全フレームを通じて一貫した追跡用のオブジェクトIDを割り当てるID割当処理が、前記ID割当処理部30により実行される。   In step S3, rectangular object areas Ka, Kb, and Kc are set for the objects A, B, and C, respectively. In step S4, the ID allocation processing unit 30 executes ID allocation processing for allocating a tracking object ID that is consistent throughout all frames to the objects A, B, and C detected in step S2.

図8は、ID割当処理の動作を示したフローチャートであり、ステップS101では、最初のフレームであるか否かが判定される。最初のフレームであればステップS111へ進み、ステップS2で検出された全てのオブジェクトに新規のオブジェクトIDが付与される。   FIG. 8 is a flowchart showing the operation of the ID assignment process. In step S101, it is determined whether or not it is the first frame. If it is the first frame, the process proceeds to step S111, and a new object ID is assigned to all the objects detected in step S2.

これに対して、最初の映像フレームではないと判定されるとステップS102へ進み、前回の映像フレームにおいて検知された各オブジェクトと今回の映像フレームにおいて検知された各オブジェクトとが、オブジェクト間の距離(位置)、オブジェクトサイズおよびオブジェクトの動きベクトルに基づいて計算される類似度に基づいて対応付けられる。本実施形態では、オブジェクトA,B,Cに対して、それぞれ対応するオブジェクトIDa,IDb,IDcが割り当てられる。   On the other hand, if it is determined that it is not the first video frame, the process proceeds to step S102, where each object detected in the previous video frame and each object detected in the current video frame are separated by the distance between objects ( Position), the object size, and the similarity calculated based on the motion vector of the object. In the present embodiment, corresponding objects IDa, IDb, and IDc are assigned to the objects A, B, and C, respectively.

ステップS103では、対応IDの割り当てに成功したオブジェクトA,B,Cに関するオブジェクト情報が更新される。本実施形態では、各オブジェクトの現在位置が更新され、さらにその動きベクトルが、前回フレームから今回フレームまでの各オブジェクトA,B,Cの移動の量及び方向に基づいて更新される。ステップS104では、IDを割り当てられなかった未割当オブジェクトが存在するか否かが判定され、ここでは存在しないと判定されるので当該処理を終了する。   In step S103, the object information regarding the objects A, B, and C for which the corresponding ID has been successfully allocated is updated. In the present embodiment, the current position of each object is updated, and its motion vector is updated based on the amount and direction of movement of each object A, B, C from the previous frame to the current frame. In step S104, it is determined whether or not there is an unassigned object to which an ID has not been assigned, and since it is determined that there is no object here, the process ends.

図7へ戻り、ステップS5では、オクルージョンの有無が判定され、ここではオブジェクトAの矩形オブジェクト領域Kaの一部とオブジェクトBの矩形オブジェクト領域Kbの一部とが重なっているので、オブジェクトA,B間にオクルージョンの生じる可能性があると判定されてステップS6へ進む。   Returning to FIG. 7, in step S5, it is determined whether or not there is occlusion. Here, a part of the rectangular object area Ka of the object A and a part of the rectangular object area Kb of the object B are overlapped. It is determined that there is a possibility of occurrence of occlusion in the middle, and the process proceeds to step S6.

ステップS6では、オブジェクトA,BのオブジェクトID(IDa,IDb)がオクルージョンリスト42へ登録される。ステップS7では、オクルージョンフラグFocがセットされる。ステップS8では、オブジェクトA,B,Cの動線(軌跡)が表示出力される。   In step S 6, object IDs (IDa, IDb) of the objects A and B are registered in the occlusion list 42. In step S7, the occlusion flag Foc is set. In step S8, the flow lines (trajectories) of the objects A, B, and C are displayed and output.

このように、本実施形態ではオブジェクト自身が重なっていなくても、オブジェクト領域の一部が重なっていればオクルージョンの生じる可能性があると判定して各オブジェクトの情報を蓄積するので、その後に各オブジェクトが重なって両者を識別できなくなっても、各オブジェクトのオクルージョン直前の情報を取得できるようになる。   In this way, in this embodiment, even if the objects themselves do not overlap, it is determined that there is a possibility that occlusion occurs if part of the object area overlaps. Even if objects overlap and cannot be identified, information immediately before the occlusion of each object can be acquired.

続く第(n+2)周期のステップS1では、図6(c)に示したような第(n+2)映像フレームが取り込まれる。この映像フレームでは、オブジェクトA,Bが重なって見かけ上一体化しており、各オブジェクトを個別に判別できない。したがって、ステップS2では2つのオブジェクトC,D(=A+B)が検知されることになる。ステップS3では、各オブジェクトC,Dに、それぞれ矩形オブジェクト領域Kc,Ka+bが設定される。ステップS4では、各オブジェクトC,Dに対するID割当処理が実行される。   In step S1 of the subsequent (n + 2) period, the (n + 2) video frame as shown in FIG. 6C is captured. In this video frame, the objects A and B overlap and appear to be integrated, and each object cannot be individually identified. Accordingly, two objects C and D (= A + B) are detected in step S2. In step S3, rectangular object areas Kc and Ka + b are set for the objects C and D, respectively. In step S4, an ID assignment process for each object C, D is executed.

図8へ進み、ステップS101では、最初の映像フレームではないと判定されるとステップS102へ進み、前回の映像フレームにおいて検知された各オブジェクトと今回の映像フレームにおいて検知された各オブジェクトとの類似度が、各オブジェクトの位置、オブジェクトサイズおよびオブジェクトの動きベクトルに基づいて計算され、類似度の高いオブジェクトに同一のIDが割り当てられる。   Proceeding to FIG. 8, if it is determined in step S101 that it is not the first video frame, the process proceeds to step S102, and the degree of similarity between each object detected in the previous video frame and each object detected in the current video frame. Are calculated based on the position of each object, the object size, and the motion vector of the object, and the same ID is assigned to an object having a high degree of similarity.

ここでは、オブジェクトCにIDcが割り当てられるが、オブジェクトDにはIDが未割当となるのでステップS104からステップS105へ進み、オクルージョンフラグFocに基づいてオクルージョン中であるか否かが判定される。ここではオクルージョン中と判定されるのでステップS106へ進む。   Here, IDc is assigned to the object C, but no ID is assigned to the object D. Therefore, the process proceeds from step S104 to step S105, and it is determined based on the occlusion flag Foc whether occlusion is in progress. Here, since it is determined that occlusion is in progress, the process proceeds to step S106.

ステップS106では、前回フレームから今回フレームにかけてオブジェクト数が減少しているか否かが判定される。ここでは、オブジェクト数が「3」から「2」に減少していると判定されるのでステップS107へ進み、前記オクルージョン発生時割当部31により未割当オブジェクトDへのID割当が行われる。   In step S106, it is determined whether or not the number of objects is decreasing from the previous frame to the current frame. Here, since it is determined that the number of objects has decreased from “3” to “2”, the process proceeds to step S107, and the ID allocation to the unallocated object D is performed by the allocation unit 31 when the occlusion occurs.

本実施形態では、未割当オブジェクトDの現在位置が、オクルージョンリスト42に登録されているオブジェクトA,Bの動きベクトルに基づいて予測される現在位置から予測誤差範囲内であるか否かが判断される。その結果、予測誤差範囲内であれば、未割当オブジェクトDをオブジェクトA,Bが一体化したオクルージョン中のオブジェクトであると判断して固有のIDを割り当てる。   In the present embodiment, it is determined whether or not the current position of the unassigned object D is within the prediction error range from the current position predicted based on the motion vectors of the objects A and B registered in the occlusion list 42. The As a result, if it is within the prediction error range, it is determined that the unassigned object D is an object in occlusion in which the objects A and B are integrated, and a unique ID is assigned.

これに対して、未割当オブジェクトDの現在位置が予測誤差範囲外であれば、新規なオブジェクトIDが割り当てられる。ステップS109では、オブジェクトA,Bのオブジェクト情報が更新される。   On the other hand, if the current position of the unassigned object D is outside the prediction error range, a new object ID is assigned. In step S109, the object information of objects A and B is updated.

続く第(n+3)周期のステップS1では、図6(d)に示した映像フレームが取り込まれる。この映像フレームでは、オブジェクトA,B間のオクルージョンが解消し始めており、ステップS2では、オブジェクトA,Bを個別に認識できるので、3つのオブジェクトA,B,Cが改めて検知される。ステップS3では、各オブジェクトA,B,Cに、それぞれ矩形オブジェクト領域Ka,Kb,Kcが設定される。ステップS4では、各オブジェクトA,B,Cに対するID割当処理が実行される。   In step S1 of the subsequent (n + 3) period, the video frame shown in FIG. 6D is captured. In this video frame, the occlusion between the objects A and B has begun to be eliminated, and in step S2, the objects A and B can be individually recognized, so that the three objects A, B and C are detected again. In step S3, rectangular object areas Ka, Kb, and Kc are set for the objects A, B, and C, respectively. In step S4, ID assignment processing for each object A, B, C is executed.

図8のステップS101では、最初の映像フレームではないと判定されるのでステップS102へ進み、前回の映像フレームにおいて検知されていたオブジェクトC,Dと今回の映像フレームにおいて検知されたオブジェクトA,B,Cとの類似度が、各オブジェクトの位置、オブジェクトサイズおよびオブジェクトの動きベクトルに基づいて計算され、類似度の高いオブジェクトに同一IDが割り当てられる。   In step S101 in FIG. 8, since it is determined that the current video frame is not the first video frame, the process proceeds to step S102, and the objects C and D detected in the previous video frame and the objects A, B, detected in the current video frame are detected. The similarity with C is calculated based on the position of each object, the object size, and the motion vector of the object, and the same ID is assigned to an object with a high similarity.

ここでは、オブジェクトCに対してはオブジェクトIDcが割り当てられるが、オブジェクトA,Bについては、ステップS104において、対応するオブジェクトが前回の映像フレームにおいて検知されていないと判定されるのでステップS105へ進む。   Here, the object IDc is assigned to the object C. However, for the objects A and B, since it is determined in step S104 that the corresponding object has not been detected in the previous video frame, the process proceeds to step S105.

ステップS105では、オクルージョンフラグFocがセットされていると判定されるのでステップS106へ進み、ここでは、オブジェクト数が「2」から「3」に増加していると判断されるのでステップS108からステップS110へ進み、前記オクルージョン解消時割当部32により未割当オブジェクトへのID割当が行われる。   In step S105, since it is determined that the occlusion flag Foc is set, the process proceeds to step S106. Here, it is determined that the number of objects has increased from “2” to “3”, and therefore, from step S108 to step S110. The ID allocation to the unallocated object is performed by the occlusion resolution allocation unit 32.

本実施形態では、未割当オブジェクトの大きさがオクルージョンリストに登録されてオブジェクトA,Bに類似し、かつ未割当オブジェクトの現在位置がオクルージョンリストに登録されてオブジェクトA,Bの動きベクトルに基づいて予測される現在位置から予測誤差範囲内であるか否かが判断される。   In this embodiment, the size of the unassigned object is registered in the occlusion list and is similar to the objects A and B, and the current position of the unassigned object is registered in the occlusion list and is based on the motion vectors of the objects A and B. It is determined whether or not the predicted current position is within the prediction error range.

予測誤差範囲内であれば、オクルージョンリストに登録されているオブジェクトID(IDa,IDb)を対応する各未割当オブジェクトに割り当てる。本実施形態では、オブジェクトAにオブジェクトIDaが割り当てられ、オブジェクトBにオブジェクトIDbが割り当てられる。未割当オブジェクトの現在位置が予測誤差範囲外であれば、新規なオブジェクトIDが割り当てられる。   If it is within the prediction error range, the object ID (IDa, IDb) registered in the occlusion list is assigned to each corresponding unassigned object. In the present embodiment, object IDa is assigned to object A, and object IDb is assigned to object B. If the current position of the unassigned object is outside the prediction error range, a new object ID is assigned.

本実施形態によれば、オブジェクトを具体的に識別可能なRGBカラー映像を用いることなく、オブジェクトを具体的に識別できない奥行映像のみを用いてオブジェクトを追跡できるので、各オブジェクトのプライバシーを尊重したオブジェクト追跡が可能になる。   According to the present embodiment, an object that respects the privacy of each object can be tracked without using an RGB color image that can specifically identify the object, and can be tracked using only a depth image that cannot specifically identify the object. Tracking becomes possible.

また、本実施形態によれば、オクルージョン前後での各オブジェクトの同一性を、各オブジェクトの位置、サイズおよび動きベクトルから計算される類似度に基づいて判断するようにしたので、オクルージョンの発生にかかわらずオブジェクトの正確な追跡が可能になる。   In addition, according to the present embodiment, the identity of each object before and after the occlusion is determined based on the similarity calculated from the position, size, and motion vector of each object. This enables accurate tracking of objects.

さらに、本実施形態によれば、オクルージョンの有無を、オブジェクト同士が重なって認識できなくなるよりも前に、オブジェクトに外接する矩形オクルージョン領域の重なりの有無に基づいて予測するようにしたので、その後にオクルージョン関係となる各オブジェクトを正確に識別できるようになる。   Furthermore, according to the present embodiment, the presence / absence of occlusion is predicted based on the presence / absence of overlap of the rectangular occlusion areas circumscribing the objects before the objects overlap and cannot be recognized. Each object in the occlusion relationship can be accurately identified.

10…オブジェクト検知部,20…オブジェクト領域設定部,30…ID割当処理部,31…オクルージョン発生時割当部,32…オクルージョン解消時割当部,40…オクルージョン処理部,50…動線表示部   DESCRIPTION OF SYMBOLS 10 ... Object detection part, 20 ... Object area | region setting part, 30 ... ID allocation process part, 31 ... Occlusion occurrence allocation part, 32 ... Occlusion cancellation allocation part, 40 ... Occlusion process part, 50 ... Flow line display part

Claims (4)

奥行映像上でオブジェクトを追跡するオブジェクト追跡装置において、
奥行映像の各フレームからオブジェクトを検知する手段と、
フレーム間で各オブジェクトの位置、サイズおよび動きベクトルを比較し、同一オブジェクトに同一IDを割り当てるID割当手段と、
各オブジェクトに外接する矩形のオブジェクト領域を設定する手段と、
オブジェクト領域の少なくとも一部が重なるオブジェクト間にオクルージョンが生じる可能性があると判定して当該オブジェクトの位置、サイズおよび動きベクトルをオクルージョンリストに登録する手段とを具備し、
前記ID割当手段は、オクルージョンが解消した各オブジェクトに対して、前記オクルージョンリストおよびオクルージョンの発生後における各オブジェクトの位置、サイズおよび動きベクトルに基づいて同一IDを割り当てることを特徴とするオブジェクト追跡装置。
In an object tracking device that tracks an object on a depth image,
Means for detecting an object from each frame of the depth image;
ID allocation means for comparing the position, size and motion vector of each object between frames and assigning the same ID to the same object;
Means for setting a rectangular object area circumscribing each object;
Means for determining that there is a possibility that occlusion occurs between objects that overlap at least part of the object region, and registering the position, size, and motion vector of the object in the occlusion list ,
The object assigning device, wherein the ID assigning means assigns the same ID to each object for which occlusion has been resolved based on the position, size and motion vector of each object after the occurrence of the occlusion list and occlusion.
前記ID割当手段は、
今回フレームに前回フレームと同一のIDを割り当てられない未割当オブジェクトが存在するか否かを判定する手段と、
今回フレームに未割当オブジェクトが存在し、かつ前回フレームから今回フレームにかけてオブジェクト数が減少し、かつ未割当オブジェクトの現在位置がオクルージョン判定されたオブジェクトの動きベクトルに基づいて予測される現在位置から予測誤差範囲内であれば当該未割当オブジェクトに固有のIDを割り当てる手段と、
今回フレームに未割当オブジェクトが存在し、かつ前回フレームから今回フレームにかけてオブジェクト数が増加し、かつ未割当オブジェクトの大きさがオクルージョン判定されたオブジェクトに類似し、未割当オブジェクトの現在位置がオクルージョン判定されたオブジェクトの動きベクトルに基づいて予測される現在位置から予測誤差範囲内であれば当該未割当オブジェクトに前記オクルージョン判定されたオブジェクトのIDを割り当てる手段とを含むことを特徴とする請求項1に記載のオブジェクト追跡装置。
The ID assigning means is
Means for determining whether there is an unassigned object that cannot be assigned the same ID as the previous frame in the current frame;
There is an unallocated object in the current frame, the number of objects decreases from the previous frame to the current frame, and the current position of the unallocated object is predicted based on the motion vector of the object that is determined to be occluded. Means for assigning a unique ID to the unassigned object if it is within the range;
There is an unallocated object in the current frame, the number of objects increases from the previous frame to the current frame, and the size of the unallocated object is similar to the object that has been occluded, and the current position of the unallocated object is determined as occlusion. 2. An apparatus according to claim 1 , further comprising means for assigning the ID of the object determined to be occluded to the unassigned object if it is within a prediction error range from the current position predicted based on the motion vector of the object. Object tracking device.
奥行映像上でコンピュータがオブジェクトを追跡するオブジェクト追跡方法において、
奥行映像の各フレームからオブジェクトを検知する手順と、
フレーム間で各オブジェクトの位置、サイズおよび動きベクトルを比較し、同一オブジェクトに同一IDを割り当てる手順と
各オブジェクトに外接する矩形のオブジェクト領域を設定する手順と、
オブジェクト領域の少なくとも一部が重なるオブジェクト間にオクルージョンが生じる可能性があると判定して当該オブジェクトの位置、サイズおよび動きベクトルをオクルージョンリストに登録する手順とを含み、
前記IDを割り当てる手順では、オクルージョンが解消した各オブジェクトに対して、前記オクルージョンリストおよびオクルージョンの発生後における各オブジェクトの位置、サイズおよび動きベクトルに基づいて同一IDを割り当てることを特徴とするオブジェクト追跡方法。
In an object tracking method in which a computer tracks an object on a depth image,
The procedure to detect an object from each frame of depth video,
A procedure for comparing the position, size and motion vector of each object between frames and assigning the same ID to the same object ,
To set a rectangular object area that circumscribes each object,
Determining that there is a possibility that occlusion may occur between objects in which at least part of the object region overlaps, and registering the position, size, and motion vector of the object in the occlusion list ,
In the procedure of assigning the ID, an object tracking method characterized in that the same ID is assigned to each object whose occlusion has been resolved based on the position, size and motion vector of each object after the occurrence of the occlusion list and occlusion. .
奥行映像上でコンピュータにオブジェクトを追跡させるオブジェクト追跡プログラムにおいて、
奥行映像の各フレームからオブジェクトを検知する手順と、
フレーム間で各オブジェクトの位置、サイズおよび動きベクトルを比較し、同一オブジェクトに同一IDを割り当てる手順と
各オブジェクトに外接する矩形のオブジェクト領域を設定する手順と、
オブジェクト領域の少なくとも一部が重なるオブジェクト間にオクルージョンが生じる可能性があると判定して当該オブジェクトの位置、サイズおよび動きベクトルをオクルージョンリストに登録する手順とを含み、
前記IDを割り当てる手順では、オクルージョンが解消した各オブジェクトに対して、前記オクルージョンリストおよびオクルージョンの発生後における各オブジェクトの位置、サイズおよび動きベクトルに基づいて同一IDを割り当てることを特徴とするオブジェクト追跡プログラム。
In an object tracking program that causes a computer to track an object on a depth image,
The procedure to detect an object from each frame of depth video,
A procedure for comparing the position, size and motion vector of each object between frames and assigning the same ID to the same object ,
To set a rectangular object area that circumscribes each object,
Determining that there is a possibility that occlusion may occur between objects in which at least part of the object region overlaps, and registering the position, size, and motion vector of the object in the occlusion list ,
In the procedure of assigning the ID, an object tracking program characterized in that the same ID is assigned to each object whose occlusion has been resolved based on the position, size and motion vector of each object after the occurrence of the occlusion list and occlusion. .
JP2014198941A 2014-09-29 2014-09-29 Object tracking method, apparatus and program Active JP6336872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014198941A JP6336872B2 (en) 2014-09-29 2014-09-29 Object tracking method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014198941A JP6336872B2 (en) 2014-09-29 2014-09-29 Object tracking method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2016071534A JP2016071534A (en) 2016-05-09
JP6336872B2 true JP6336872B2 (en) 2018-06-06

Family

ID=55866951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014198941A Active JP6336872B2 (en) 2014-09-29 2014-09-29 Object tracking method, apparatus and program

Country Status (1)

Country Link
JP (1) JP6336872B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6474126B2 (en) * 2015-02-27 2019-02-27 Kddi株式会社 Object tracking method, apparatus and program
CN107820041B (en) * 2016-09-13 2020-09-08 华为数字技术(苏州)有限公司 Privacy blocking method and device
CN106780551B (en) * 2016-11-18 2019-11-08 湖南拓视觉信息技术有限公司 A kind of Three-Dimensional Moving Targets detection method and system
JP6631594B2 (en) * 2017-06-30 2020-01-15 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method for information processing apparatus, and program
JP7006809B2 (en) * 2018-11-02 2022-01-24 日本電気株式会社 Flow line correction device, flow line correction method, and flow line tracking program
CN111241872B (en) * 2018-11-28 2023-09-22 杭州海康威视数字技术股份有限公司 Video image shielding method and device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2452510A (en) * 2007-09-05 2009-03-11 Sony Corp System For Communicating A Three Dimensional Representation Of A Sporting Event
US8462987B2 (en) * 2009-06-23 2013-06-11 Ut-Battelle, Llc Detecting multiple moving objects in crowded environments with coherent motion regions
JP5394952B2 (en) * 2010-03-03 2014-01-22 セコム株式会社 Moving object tracking device
JP5567899B2 (en) * 2010-05-21 2014-08-06 パナソニック株式会社 Flow line creating apparatus and flow line creating method

Also Published As

Publication number Publication date
JP2016071534A (en) 2016-05-09

Similar Documents

Publication Publication Date Title
JP6336872B2 (en) Object tracking method, apparatus and program
JP6474126B2 (en) Object tracking method, apparatus and program
JP6795930B2 (en) Viewpoint tracking method and equipment
JP6655878B2 (en) Image recognition method and apparatus, program
US9355463B1 (en) Method and system for processing a sequence of images to identify, track, and/or target an object on a body of water
JP2018125841A5 (en)
JP2016085487A5 (en)
JP6261266B2 (en) Moving body detection device
US11141557B2 (en) Information processing apparatus, information processing method, and storage medium
WO2017064838A1 (en) Facial detection device, facial detection system provided with same, and facial detection method
US10157327B2 (en) Image processing device, image processing method, and program
KR102474837B1 (en) Foreground area extracting method and apparatus
US20110069155A1 (en) Apparatus and method for detecting motion
US20170148174A1 (en) Object tracking method and object tracking apparatus for performing the method
JP2016178608A5 (en)
KR102374565B1 (en) Method and apparatus of tracking targets
US20200394802A1 (en) Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool
US11210528B2 (en) Information processing apparatus, information processing method, system, and storage medium to determine staying time of a person in predetermined region
JP6558831B2 (en) Object tracking apparatus, method and program
JP2016207185A (en) Movement determination device, movement determination method, and movement determination program
CN111325073B (en) Monitoring video abnormal behavior detection method based on motion information clustering
WO2014033885A1 (en) Image processing device, image processing method, and image processing program
JP6289027B2 (en) Person detection device and program
WO2018155269A1 (en) Image processing device and method, and program
JP6516646B2 (en) Identification apparatus for identifying individual objects from images taken by a plurality of cameras, identification method and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6336872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150