JP2017228303A - Moving object tracking device, method and program - Google Patents

Moving object tracking device, method and program Download PDF

Info

Publication number
JP2017228303A
JP2017228303A JP2017153416A JP2017153416A JP2017228303A JP 2017228303 A JP2017228303 A JP 2017228303A JP 2017153416 A JP2017153416 A JP 2017153416A JP 2017153416 A JP2017153416 A JP 2017153416A JP 2017228303 A JP2017228303 A JP 2017228303A
Authority
JP
Japan
Prior art keywords
movement trajectory
frame
frames
unit
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017153416A
Other languages
Japanese (ja)
Inventor
ヴェトクォク ファン
Viet Quoc Pham
ヴェトクォク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017153416A priority Critical patent/JP2017228303A/en
Publication of JP2017228303A publication Critical patent/JP2017228303A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a moving object tracking system achieving a less calculation cost even for complicated movements of a plurality of moving objects, a method and a program.SOLUTION: A moving object tracking system 1 has: an acquisition part 10 for acquiring a plurality of frames; a detection part 11 for detecting an object from the plurality of frames; an extraction part 12 for extracting a first movement trajectory including a first frame, a second movement trajectory constituted only with other frames before the first frame and a third movement trajectory constituted only with other frames after the first frame for the detected object; and an associating part 16 for associating the second movement trajectory with the third movement trajectory when a similarity between the second movement trajectory and the third movement trajectory comes to be equal to or higher than a similarity between the first movement trajectory and the third movement trajectory.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、移動物体追跡装置、方法及びプログラムに関する。   Embodiments described herein relate generally to a moving object tracking apparatus, method, and program.

画像の時系列において複数のフレームに含まれる複数の移動物体を検出し、同一の物体どうしをフレーム間で対応付けることで、移動物体の追跡を行い、追跡した結果を記録したり、追跡した結果をもとに移動物体を識別したりする移動物体追跡システムが開示されている。   By detecting multiple moving objects included in multiple frames in the time series of images and associating the same objects between frames, tracking of moving objects is performed, and the results of tracking are recorded. A moving object tracking system for identifying a moving object is disclosed.

しかし、時系列の複数画像において検出された顔の出現、消滅、及び検出失敗をそれぞれノードとした枝(パス)の組合せを検討するため、計算コストが増大する。   However, since the combination of branches (paths) with the appearance, disappearance, and detection failure of detected faces in a plurality of time-series images as nodes is considered, the calculation cost increases.

特開2011−170711号公報JP 2011-170711 A

本発明が解決しようとする課題は、複数の移動物体の複雑な動きでも計算コストの少ない移動物体追跡システム及び方法を提供することである。   SUMMARY OF THE INVENTION The problem to be solved by the present invention is to provide a moving object tracking system and method with a low calculation cost even for a complicated movement of a plurality of moving objects.

実施形態の物体追跡装置は、取得部と、検出部と、抽出部と、対応付部を備える。取得部は、複数のフレームを取得する。検出部は、前記複数のフレームから物体を検出する。抽出部は、前記検出された物体について、第1フレームを含む第1移動軌道、前記第1フレームより前のフレームのみで構成される第2移動軌道、及び、前記第1フレーム以降のフレームのみで構成される第3移動軌道を抽出する。対応付部は、前記第2移動軌道と前記第3移動軌道の類似度が、前記第1移動軌道と前記第3移動軌道の類似度以上になる場合、前記第2移動軌道と前記第3移動軌道を対応付ける。   The object tracking device according to the embodiment includes an acquisition unit, a detection unit, an extraction unit, and a correspondence unit. The acquisition unit acquires a plurality of frames. The detection unit detects an object from the plurality of frames. The extraction unit includes, for the detected object, only a first movement trajectory including a first frame, a second movement trajectory including only a frame before the first frame, and only a frame after the first frame. A third movement trajectory configured is extracted. The associating unit is configured such that when the similarity between the second movement trajectory and the third movement trajectory is greater than or equal to the similarity between the first movement trajectory and the third movement trajectory, the second movement trajectory and the third movement trajectory Associate trajectories.

第1の実施形態の移動物体追跡システムの例を示す構成図。1 is a configuration diagram showing an example of a moving object tracking system of a first embodiment. 第1の実施形態の移動物体追跡システムの例を示すフローチャート。The flowchart which shows the example of the moving object tracking system of 1st Embodiment. 移動軌跡の分割の例を示す説明図。Explanatory drawing which shows the example of the division | segmentation of a movement locus | trajectory. ユークリッド距離を用いた計算の例を示す説明図。Explanatory drawing which shows the example of calculation using a Euclidean distance. 第2の実施形態の移動物体追跡システムの例を示す構成図。The block diagram which shows the example of the moving object tracking system of 2nd Embodiment. 第2の実施形態の遮蔽を表す模式図。The schematic diagram showing the shielding of 2nd Embodiment.

以下、添付図面を参照しながら、実施形態を詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、第1の実施形態の移動物体追跡システム1の一例を示す構成図である。図1に示すように、取得部10、検出部11、抽出部12、管理部13、設定部14、分割部15、対応付部16、統合部17、出力部18とを備える。移動物体追跡システムは、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。取得部10が取得する動画像は記憶装置に記憶されたものを用いてもよい。
(First embodiment)
FIG. 1 is a configuration diagram illustrating an example of a moving object tracking system 1 according to the first embodiment. As shown in FIG. 1, an acquisition unit 10, a detection unit 11, an extraction unit 12, a management unit 13, a setting unit 14, a division unit 15, a correspondence unit 16, an integration unit 17, and an output unit 18 are provided. The moving object tracking system may be realized by causing a processing device such as a CPU (Central Processing Unit) to execute a program, that is, by software, or by hardware such as an IC (Integrated Circuit). It may be realized by using software and hardware together. The moving image acquired by the acquisition unit 10 may be one stored in a storage device.

記憶装置は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ROM(Read Only Memory)、メモリカードなどの磁気的、光学的、及び電気的に記憶可能な記憶装置の少なくともいずれかにより実現できる。   The storage device is, for example, at least one of magnetic, optical, and electrical storage devices such as a hard disk drive (HDD), a solid state drive (SSD), a read only memory (ROM), and a memory card. Can be realized.

図2は第1の実施形態の移動物体追跡システム1の処理の手順の流れの一例を示すフローチャートである。   FIG. 2 is a flowchart illustrating an example of a flow of processing of the moving object tracking system 1 according to the first embodiment.

まず移動物体追跡システム1は、撮像装置で撮像された動画像または記憶装置に記憶された動画像を取得する(ステップS101)。動画画像は複数枚のフレーム(画像)を含む。   First, the moving object tracking system 1 acquires a moving image captured by the imaging device or a moving image stored in the storage device (step S101). The moving image includes a plurality of frames (images).

次に検出部11が、取得部が取得した動画像から前記移動物体を複数検出する(ステップS102)。移動物体とはたとえば、人物、車等を指す。以下、移動物体が人物の場合を例に説明する。人物を検出する具体的な処理方法としては、以下の手法が適用できる。例えば、文献(N.Dalal、B.Triggs、“Histograms of Oriented Gradients for Human Detection、”IEEE Computer Vision and Pattern Recognition、pp.886−893、2005)に記載された手法が適用可能である。また、Visual Tracking技術を用い、処理中フレームの直前のフレームで検出された物体を追跡することで処理中のフレームにおける同一物体の位置を推定することにより、人物の検出の精度を高めることが可能である。Visual Tracking技術は、例えば、文献(K.Zhang,L.Zhang,M.H.Yang“,Real−time compressive Tracking”、European Confernce Computer Vision,pp.866−879、2012)に記載された手法が適用可能である。   Next, the detection unit 11 detects a plurality of the moving objects from the moving image acquired by the acquisition unit (step S102). A moving object refers to a person, a car, etc., for example. Hereinafter, a case where the moving object is a person will be described as an example. The following method can be applied as a specific processing method for detecting a person. For example, a method described in the literature (N. Dalal, B. Triggs, “Histograms of Oriented Gradients for Human Detection,” IEEE Computer Vision and Pattern Recognition, pp. 886-893, 2005) is applicable. In addition, it is possible to improve the accuracy of human detection by estimating the position of the same object in the frame being processed by tracking the object detected in the frame immediately before the frame being processed using the Visual Tracking technology. It is. The Visual Tracking technique is described in, for example, a method described in the literature (K. Zhang, L. Zhang, MH Yang “, Real-time compressive tracking”, European Conference Computer Vision, pp. 866-879, 2012). Applicable.

次に抽出部12は各フレームでそれぞれの人物を対応付け、当該対応づけられた人物の移動軌道(tracklet;トラックレット、以下移動軌道をトラックレットと称する)を抽出する(ステップS103)。トラックレットを抽出する方法として、例えば、文献(H.Pirsiavash,D.Ramanan,C.C.Fowlkes“、Globally−Optimal Greedy Algorithms for Tracking a Variable Number of Objects”、IEEE Computer Vision and Pattern Regconition,pp.1201−1208、2012)に記載された手法が適応可能である。   Next, the extraction unit 12 associates each person in each frame, and extracts a movement trajectory (tracklet; hereinafter referred to as a tracklet) of the associated person (step S103). As a method of extracting tracklets, for example, literature (H. Pirsiavash, D. Ramanan, C. C. Fowles “, Globally-Optimal Greedy Algorithm for Revelation of Objet of ObEvE” 1201-1208, 2012) can be applied.

次に、管理部13が人物毎のトラックレットを管理する(ステップS104)。トラックレットは、移動する人物が動画像中のどの時間帯に含まれているか、を管理すればよく、画像のフレーム番号や再生または録画時間等で管理してもよい。また、検出部11が検出した人物の位置や大きさを合わせて記憶してもよい。これらの情報は記憶部19に記憶してもよい。人物毎のトラックレットを人物のIDと共に記憶部19に記憶させてもよい。人物のIDは互いが区別可能なように付与されたものであればよく、人物自体を同定できなくてもよい。   Next, the management unit 13 manages tracklets for each person (step S104). The tracklet only needs to manage in which time zone the moving person is included in the moving image, and may be managed by the frame number of the image, playback or recording time, and the like. Further, the position and size of the person detected by the detection unit 11 may be stored together. These pieces of information may be stored in the storage unit 19. The tracklet for each person may be stored in the storage unit 19 together with the ID of the person. The person IDs need only be assigned so that they can be distinguished from each other, and the person itself may not be identified.

次に設定部14は、位置を算出するフレームを注目フレームとして設定する(ステップS105)。   Next, the setting unit 14 sets a frame whose position is to be calculated as a frame of interest (step S105).

次に、分割部15は前記抽出された複数のトラックレットに対し、前記注目フレームを少なくとも含む第1ブロックと、時系列順で当該第1ブロックより前に位置する第2ブロックと、時系列順で当該第1ブロックより後に位置する第3ブロックとに分割する(ステップS105)。例えば、図3に示すようにN枚フレームの画像中の、時刻t(i番目の)フレームを注目フレームと設定した場合、i番目フレームを含むブロックを第1ブロック、第1ブロックよりも時系列順で前にあるブロックを第2ブロック、第1ブロックよりも時系列順で後にあるブロックを第3ブロックとする。より具体的には下記の数式1を用いる。
Next, the dividing unit 15 performs, for the plurality of extracted tracklets, a first block including at least the frame of interest, a second block positioned before the first block in time series order, and time series order To divide into the third block located after the first block (step S105). For example, as shown in FIG. 3, when a time t (i-th) frame is set as a frame of interest in an image of N frames, a block including the i-th frame is more time-sequential than the first block and the first block. A block preceding in order is a second block, and a block following in time series order than the first block is a third block. More specifically, the following formula 1 is used.

ただし、start(t)はトラックレットtの開始フレームの番号で、end(t)はトラックレットtの終了フレームの番号である。   Here, start (t) is the number of the start frame of tracklet t, and end (t) is the number of the end frame of tracklet t.

次に対応付部16は第2ブロックに含まれるトラックレットを管理部13から取得し、取得したトラックレットと第1ブロック及び第3ブロックに含まれるトラックレットとをトラックレットの類似度に基づいて対応付ける(ステップS106)。   Next, the associating unit 16 acquires the tracklet included in the second block from the management unit 13, and determines the acquired tracklet and the tracklet included in the first block and the third block based on the similarity of the tracklet. Correlate (step S106).

第2ブロックのトラックレット選択と第3ブロックのトラックレット選択の2段階で実行する。   This is executed in two stages, that is, tracklet selection for the second block and tracklet selection for the third block.

まず、第2ブロックのトラックレット選択は、第2ブロックからend(ap)=i-1となるようなapを選択する。iは注目フレームである。より具体的には第2ブロックのトラックレットの長さが所定閾値以内のものを用いるようにするとよい。i-1よりも時系列順で前に終了するトラックレットはこの処理フローより以前に処理済みであることから、除外する。この場合、対応付けの候補数を大分減らすことで処理時間を大幅に節約することが可能になる。   First, the tracklet selection of the second block selects ap such that end (ap) = i−1 from the second block. i is a frame of interest. More specifically, a track block having a length of the second block within a predetermined threshold may be used. Tracklets that end before time sequence in order of i-1 are excluded because they have been processed before this processing flow. In this case, the processing time can be greatly saved by greatly reducing the number of candidates for association.

また、第3ブロックのトラックレット選択は、前段階で選択した{ap}のそれぞれに対し、第3ブロック中から以下の式(2)の条件を満たすトラックレットbqと対応付ける。
In addition, in the third block tracklet selection, each {ap} selected in the previous step is associated with a tracklet bq that satisfies the following expression (2) from the third block.

ただし、D(,)とは2つのトラックレットの対応性を示す、トラックレット間のモーションの類似度とアピアランスの類似度から計算される。
However, D (,) is calculated from the similarity of motion between appearances and the similarity of appearance, which indicates the correspondence between two tracklets.

モーション類似度MotionMatch(t1,t2)は、トラックレットt1とt2間の短時間においてt1を人物が線形な移動を取ることを仮定する。t1がt2の開始時刻までにt1’へ拡張し、図4に示すように、ユークリッド距離を用いて計算する。
The motion similarity MotionMatch (t1, t2) assumes that the person takes a linear movement at t1 in a short time between the tracklets t1 and t2. t1 extends to t1 ′ by the start time of t2, and is calculated using the Euclidean distance as shown in FIG.

また、アピアランスの類似度AppearanceMatch(t1,t2)は、それぞれのトラックレットから人物の代表的な外観を選び、その2つの外観から特徴量を抽出すると比較することにより計算する。代表的な外観の選択に関しては、図4に示すように、トラックレットの間にある人物を選べばよい。また、特徴量の抽出と比較については、文献(K.Zhang,L.Zhang,M.H.Yang“,Real−time compressive Tracking”、European Confernce Computer Vision,pp.866−879、2012)に記載された手法を適用可能である。   The appearance similarity AppearanceMatch (t1, t2) is calculated by selecting a representative appearance of a person from each tracklet, and extracting and comparing feature values from the two appearances. Regarding the selection of a typical appearance, as shown in FIG. 4, a person between tracklets may be selected. Further, extraction and comparison of feature values are described in literature (K. Zhang, L. Zhang, MH Yang “, Real-time compressive tracking”, European Confence Computer Vision, pp. 866-879, 2012). Applied techniques can be applied.

ここで、第2ブロックに人物検出結果と対応するトラックレット抽出結果がない場合には、図2で説明したステップS101〜ステップS104と同様の処理を行うことによって、人物の抽出、トラックレットの抽出が可能になる。   Here, if there is no tracklet extraction result corresponding to the person detection result in the second block, the same processing as Step S101 to Step S104 described in FIG. 2 is performed to extract a person and tracklet. Is possible.

統合部17は対応付部16が対応づけたトラックレットの組を新しいトラックレットとして統合する。管理部14は、検出部12の検出結果と統合部17の統合されたトラックレットを管理する。   The integration unit 17 integrates the set of tracklets associated with the association unit 16 as a new tracklet. The management unit 14 manages the detection result of the detection unit 12 and the integrated tracklet of the integration unit 17.

出力部18は対応付けられた人物とトラックレットの結果を出力する。人物のトラックレットの結果は動画像上に重畳して表示してもよいし、所望の人物のトラックレットの結果のみを出力してもよい。人物のトラックレットの結果を重畳すれば複雑な軌跡もユーザにとって明確になるため良い。また、注目フレームのみに対して、人物のIDと位置を出力してもよい。上述のとおり人物のIDは互いが区別可能なように付与されたものであればよく、人物自体を同定できなくてもよい。   The output unit 18 outputs the associated person and tracklet results. The result of the person's tracklet may be displayed superimposed on the moving image, or only the result of the desired person's tracklet may be output. If the result of a person's tracklet is superimposed, a complicated trajectory becomes clear to the user, which is good. Also, the person ID and position may be output only for the frame of interest. As described above, the person IDs may be assigned so that they can be distinguished from each other, and the person itself may not be identified.

以上のように、第1の実施形態に係わる移動物体追跡システム1によれば、複数の移動物体の複雑な動きでも計算コストの少なくすることが可能になる。特に、対応付部16は第2ブロックのトラックレットを利用し、第1及び第3ブロックのトラックレットと統合するため、トラックレットの対応付におけるいて重複計算が不要になる。また、重複した計算が不要になるため計算コストを少なくすることが可能になる。   As described above, according to the moving object tracking system 1 according to the first embodiment, it is possible to reduce the calculation cost even for complicated movements of a plurality of moving objects. In particular, the associating unit 16 uses the tracklets of the second block and integrates them with the tracklets of the first and third blocks, so that no overlap calculation is required in the association of the tracklets. In addition, it is possible to reduce the calculation cost because redundant calculation is unnecessary.

(第2の実施形態)
図5は、第2の実施形態に係わる移動物体追跡システム2を示すブロック図である。本実施形態に関わる移動物体追跡システム2は、取得部10、設定部11、検出部12、抽出部13、管理部14、分割部15、対応付け部16、補間部20、統合部17、出力部18とを備える。第1の実施形態とは補間部20を備えることが異なる。
(Second Embodiment)
FIG. 5 is a block diagram showing a moving object tracking system 2 according to the second embodiment. The moving object tracking system 2 according to the present embodiment includes an acquisition unit 10, a setting unit 11, a detection unit 12, an extraction unit 13, a management unit 14, a division unit 15, an association unit 16, an interpolation unit 20, an integration unit 17, and an output. Part 18. The difference from the first embodiment is that an interpolation unit 20 is provided.

補間部20は、前記第2ブロックと前記第3ブロックとの間で対応づけられる人物各々のトラックレットから、第1ブロックにおける人物の位置情報を補間する。ここで位置情報とは、人物のフレームにおける位置、人物のフレームにおける大きさ、時系列順で注目フレームより前の移動軌道(トラックレット)のいずれか一つを含むものを指す。   The interpolating unit 20 interpolates the position information of the person in the first block from the tracklets of each person associated with the second block and the third block. Here, the position information indicates information including any one of the position in the person's frame, the size in the person's frame, and the movement trajectory (tracklet) before the target frame in time series order.

具体的には、対応付部16により対応付けられたトラックレット間の時系列における人物の未検出を補間する。対応付けられたトラックレットを(t1,t2)とし、t1の終了時の人物の位置、大きさ及びフレーム番号([x1,y1],[h1,w1],f1)を、t2の開始時の人物の位置、大きさ及びフレーム番号([x2,y2],[h2,w2],f2)とする。df=f2-f1とおくと、[f1+1,…,f1+df-1]における各フレームf1+sに対し、人物の位置・大きさ([xs,ys],[hs,ws])は式5によって推定できる。
Specifically, the non-detection of the person in the time series between the tracklets associated by the associating unit 16 is interpolated. The associated tracklet is (t1, t2), and the position, size and frame number ([x1, y1], [h1, w1], f1) of the person at the end of t1 are The position, size, and frame number ([x2, y2], [h2, w2], f2) of the person are assumed. If df = f2-f1, the position and size of the person ([xs, ys], [hs, ws]) for each frame f1 + s in [f1 + 1, ..., f1 + df-1] Can be estimated by Equation 5.

出力部18は、対応付部16の対応付け結果と補間部20の推定結果を用い、注目フレームにおける人物の位置を出力する。また、大きさと、注目フレームよりも時系列順で前の対応付け結果を合わせて出力してもよい。   The output unit 18 outputs the position of the person in the frame of interest using the association result of the association unit 16 and the estimation result of the interpolation unit 20. Also, the size and the previous association result in chronological order from the frame of interest may be output together.

統合部17は、対応付部16の対応付け結果と補間部20の補間結果を用い、対応付けられたトラックレットと補間された人物の領域とを新しいトラックレットに統合してもよい。   The integration unit 17 may integrate the associated tracklet and the interpolated person area into a new tracklet using the association result of the association unit 16 and the interpolation result of the interpolation unit 20.

ここで、具体的に補間が必要な場合について図6を用いて説明する。   Here, a specific case where interpolation is required will be described with reference to FIG.

図6は、人物が建物の影にかくれる場合(上段)と、人物通しのすれ違いによって生じる遮蔽を表す模式図である。時間軸に沿って、左側の図面から右側へ変化し場合の様子を表す。   FIG. 6 is a schematic diagram illustrating a case where a person hides in the shadow of a building (upper stage) and shielding caused by passing of people. The situation when the drawing changes from the left drawing to the right side along the time axis is shown.

たとえば、人物通しのすれ違いであれば(図6下段)、歩行の速度などから前後の対応付をすることができる。速度は、移動物体が人であるのか、車であるのかを判定し、予め平均的な速度を学習しておくことによって、遮蔽時間を推定することができる。   For example, if people pass each other (the lower part of FIG. 6), the front-rear correspondence can be made based on the walking speed. The speed can be estimated by determining whether the moving object is a person or a car and learning an average speed in advance.

建物による遮蔽(図6上段)も同様であるが、例えば、撮像する周辺に人物を遮蔽する程度の建物、移動物体が車などであれば移動物体を遮蔽する程度の建物の有無、または位置情報などを予め取得しておくことで、遮蔽する時間の推定が可能である。   The same applies to the shielding by the building (upper part of FIG. 6). For example, if there is a building that shields a person around the image to be captured, the presence or absence of a building that shields the moving object if the moving object is a car, etc., or position information Etc. in advance can be used to estimate the shielding time.

推定された遮蔽時間から、想定する遮蔽時間から第1ブロックの適切な長さを設定できるようにしてもよい。例えば、一般の監視映像において、長さMがフレームレートの2倍(すなわち2秒間のフレーム数)と設定するなどする。遮蔽時間の設定によって、建物や通行量などによる環境の変化に適宜対応でき、人物の追跡結果をより頑健に行うことができる。   From the estimated shielding time, an appropriate length of the first block may be set from the assumed shielding time. For example, in a general monitoring video, the length M is set to twice the frame rate (that is, the number of frames for 2 seconds). By setting the occlusion time, it is possible to appropriately respond to changes in the environment due to buildings, traffic, and the like, and the results of tracking a person can be more robust.

以上のように、第2の実施形態に係わる移動物体追跡システム1によれば、複数の移動物体の複雑な動きでも計算コストの少なくすることが可能になる。特に、補間により、全体の追跡結果が分からなくても、注目フレームにおける追跡結果を出力可能になる。   As described above, according to the moving object tracking system 1 according to the second embodiment, it is possible to reduce the calculation cost even for complicated movements of a plurality of moving objects. In particular, the tracking result in the frame of interest can be output by interpolation even if the entire tracking result is unknown.

(ハードウェア構成)
上記実施形態の移動物体追跡システムは、CPU(Central Processing Unit)などの制御装置、ROMやRAMなどの記憶装置、HDDやSSDなどの外部記憶装置、ディスプレイなどの表示装置、マウスやキーボードなどの入力装置、及びカメラなどの撮像装置等を備えており、通常のコンピュータを利用したハードウェア構成で実現可能となっている。
(Hardware configuration)
The moving object tracking system of the above embodiment includes a control device such as a CPU (Central Processing Unit), a storage device such as a ROM and a RAM, an external storage device such as an HDD and an SSD, a display device such as a display, an input such as a mouse and a keyboard. The apparatus includes an image capturing apparatus such as a camera and a camera, and can be realized by a hardware configuration using a normal computer.

上記実施形態の装置で実行されるプログラムは、ROM等に予め組み込んで提供される。   The program executed by the apparatus of the above embodiment is provided by being incorporated in advance in a ROM or the like.

また、上記実施形態の装置で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。   The program executed by the apparatus of the above embodiment can be read by a computer such as a CD-ROM, a CD-R, a memory card, a DVD, and a flexible disk (FD) in an installable or executable file. It may be provided by being stored in a different storage medium.

また、上記実施形態の装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。   The program executed by the apparatus of the above embodiment may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. The program executed by the apparatus of the above embodiment may be provided or distributed via a network such as the Internet.

上記実施形態の装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、制御装置が外部記憶装置からプログラムを記憶装置上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。   The program executed by the apparatus of the above embodiment has a module configuration for realizing the above-described units on a computer. As actual hardware, for example, the control device reads out a program from an external storage device to the storage device and executes the program, whereby the above-described units are realized on a computer.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。   For example, as long as each step in the flowchart of the above embodiment is not contrary to its nature, the execution order may be changed, a plurality of steps may be performed simultaneously, or may be performed in a different order for each execution.

以上のように、実施形態に係わる移動物体追跡システム1によれば、複数の移動物体の複雑な動きでも計算コストの少なくすることが可能になる。特に、対応付部16は第2ブロックのトラックレットを利用し、第1及び第3ブロックのトラックレットと統合するため、トラックレットの対応付におけるいて重複計算が不要になる。   As described above, according to the moving object tracking system 1 according to the embodiment, it is possible to reduce the calculation cost even for complicated movements of a plurality of moving objects. In particular, the associating unit 16 uses the tracklets of the second block and integrates them with the tracklets of the first and third blocks, so that no overlap calculation is required in the association of the tracklets.

1、2・・・移動物体追跡システム、10・・・取得部、11・・・検出部、12・・・抽出部、13・・・管理部、14・・・設定部、15・・・分割部、16・・・対応付部、17・・・統合部、18・・・出力部、19・・・記憶部、20・・・補間部 DESCRIPTION OF SYMBOLS 1, 2 ... Moving object tracking system, 10 ... Acquisition part, 11 ... Detection part, 12 ... Extraction part, 13 ... Management part, 14 ... Setting part, 15 ... Dividing unit, 16 ... corresponding unit, 17 ... integrating unit, 18 ... output unit, 19 ... storage unit, 20 ... interpolating unit

Claims (7)

複数のフレームを取得する取得部と、
前記複数のフレームから物体を検出する検出部と、
前記検出された物体について、第1フレームを含む第1移動軌道、前記第1フレームより前のフレームのみで構成される第2移動軌道、及び、前記第1フレーム以降のフレームのみで構成される第3移動軌道を抽出する抽出部と、
前記第2移動軌道と前記第3移動軌道の類似度が、前記第1移動軌道と前記第3移動軌道の類似度以上になる場合、前記第2移動軌道と前記第3移動軌道を対応付ける対応付部と、
を備える物体追跡装置。
An acquisition unit for acquiring a plurality of frames;
A detection unit for detecting an object from the plurality of frames;
For the detected object, a first moving trajectory including a first frame, a second moving trajectory including only frames before the first frame, and a first moving trajectory including only frames after the first frame. An extraction unit for extracting three moving trajectories;
When the similarity between the second movement trajectory and the third movement trajectory is equal to or higher than the similarity between the first movement trajectory and the third movement trajectory, an association for associating the second movement trajectory with the third movement trajectory And
An object tracking device comprising:
前記対応付部で対応付けられた前記第2移動軌道および前記第3移動軌道から、前記第1フレーム以降における前記物体の位置情報を補間する補間部、
を更に備える請求項1に記載の物体追跡装置。
An interpolation unit that interpolates position information of the object in the first and subsequent frames from the second movement trajectory and the third movement trajectory associated with each other in the association unit;
The object tracking device according to claim 1, further comprising:
前記対応付部は、前記類似度として、物体の類似度と移動軌道の動きを用いる請求項1又は2に記載の物体追跡装置。 The object tracking device according to claim 1, wherein the associating unit uses the similarity of an object and the movement of a moving track as the similarity. 前記対応付部は、前記類似度として、前記物体の類似度と前記移動軌跡の動きの類似度との積を用いる請求項3に記載の物体追跡装置。 The object tracking device according to claim 3, wherein the associating unit uses a product of the similarity of the object and the similarity of movement of the movement locus as the similarity. 前記対応付部で対応付けられた前記第2移動軌道の長さは、所定閾値以内である請求項1乃至4の何れか一項に記載の物体追跡装置。   The object tracking device according to any one of claims 1 to 4, wherein a length of the second movement trajectory associated with the association unit is within a predetermined threshold. 複数のフレームを取得するステップと、
前記複数のフレームから物体を検出するステップと、
前記検出された物体について、第1フレームを含む第1移動軌道、前記第1フレームより前のフレームのみで構成される第2移動軌道、及び、前記第1フレーム以降のフレームのみで構成される第3移動軌道を抽出するステップと、
前記第2移動軌道と前記第3移動軌道の類似度が、前記第1移動軌道と前記第3移動軌道の類似度以上になる場合、前記第2移動軌道と前記第3移動軌道を対応付けるステップと、
を有する物体追跡方法。
Obtaining a plurality of frames;
Detecting an object from the plurality of frames;
For the detected object, a first moving trajectory including a first frame, a second moving trajectory including only frames before the first frame, and a first moving trajectory including only frames after the first frame. Extracting three trajectories; and
Associating the second movement trajectory with the third movement trajectory when the similarity between the second movement trajectory and the third movement trajectory is greater than or equal to the similarity between the first movement trajectory and the third movement trajectory; ,
An object tracking method.
複数のフレームを取得するステップと、
前記複数のフレームから物体を検出するステップと、
前記検出された物体について、第1フレームを含む第1移動軌道、前記第1フレームより前のフレームのみで構成される第2移動軌道、及び、前記第1フレーム以降のフレームのみで構成される第3移動軌道を抽出するステップと、
前記第2移動軌道と前記第3移動軌道の類似度が、前記第1移動軌道と前記第3移動軌道の類似度以上になる場合、前記第2移動軌道と前記第3移動軌道を対応付けるステップと、
をコンピュータに実行させるためのプログラム。
Obtaining a plurality of frames;
Detecting an object from the plurality of frames;
For the detected object, a first moving trajectory including a first frame, a second moving trajectory including only frames before the first frame, and a first moving trajectory including only frames after the first frame. Extracting three trajectories; and
Associating the second movement trajectory with the third movement trajectory when the similarity between the second movement trajectory and the third movement trajectory is greater than or equal to the similarity between the first movement trajectory and the third movement trajectory; ,
A program that causes a computer to execute.
JP2017153416A 2017-08-08 2017-08-08 Moving object tracking device, method and program Pending JP2017228303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017153416A JP2017228303A (en) 2017-08-08 2017-08-08 Moving object tracking device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017153416A JP2017228303A (en) 2017-08-08 2017-08-08 Moving object tracking device, method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013060973A Division JP2014186547A (en) 2013-03-22 2013-03-22 Moving object tracking system, method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019230789A Division JP2020057424A (en) 2019-12-20 2019-12-20 Device and method for tracking mobile object and program

Publications (1)

Publication Number Publication Date
JP2017228303A true JP2017228303A (en) 2017-12-28

Family

ID=60889354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017153416A Pending JP2017228303A (en) 2017-08-08 2017-08-08 Moving object tracking device, method and program

Country Status (1)

Country Link
JP (1) JP2017228303A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461222A (en) * 2020-04-01 2020-07-28 北京爱笔科技有限公司 Method and device for acquiring target object track similarity and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226403A (en) * 2011-04-15 2012-11-15 Nec Corp Image area tracking device, image area tracking method, and computer program
JP2014186547A (en) * 2013-03-22 2014-10-02 Toshiba Corp Moving object tracking system, method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226403A (en) * 2011-04-15 2012-11-15 Nec Corp Image area tracking device, image area tracking method, and computer program
JP2014186547A (en) * 2013-03-22 2014-10-02 Toshiba Corp Moving object tracking system, method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461222A (en) * 2020-04-01 2020-07-28 北京爱笔科技有限公司 Method and device for acquiring target object track similarity and electronic equipment
CN111461222B (en) * 2020-04-01 2023-05-02 北京爱笔科技有限公司 Method and device for obtaining track similarity of target object and electronic equipment

Similar Documents

Publication Publication Date Title
US20210144340A1 (en) Information processing system, information processing method, and program
JP5001260B2 (en) Object tracking method and object tracking apparatus
US8605946B2 (en) Moving object detection apparatus and moving object detection method
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
JP5832910B2 (en) Image monitoring device
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP5722381B2 (en) Video analysis
WO2018198373A1 (en) Video monitoring system
JP2014186547A (en) Moving object tracking system, method and program
JP2008501172A (en) Image comparison method
JP2010072723A (en) Tracking device and tracking method
JP5087037B2 (en) Image processing apparatus, method, and program
KR101750094B1 (en) Method for classification of group behavior by real-time video monitoring
KR101762010B1 (en) Method of modeling a video-based interactive activity using the skeleton posture datset
KR102129771B1 (en) Cctv management system apparatus that recognizes behavior of subject of shooting in video from video taken through cctv camera and operating method thereof
JP4728795B2 (en) Person object determination apparatus and person object determination program
JP2010199865A (en) Abnormality detection system, abnormality detection method, and abnormality detection program
JP2014110020A (en) Image processor, image processing method and image processing program
JP7247133B2 (en) Detection device, detection method and program
JP2017228303A (en) Moving object tracking device, method and program
Villamizar et al. Watchnet: Efficient and depth-based network for people detection in video surveillance systems
US7738009B2 (en) Method for following at least one object in a scene
JP2018088057A (en) Image recognition device and image recognition method
JP5241687B2 (en) Object detection apparatus and object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180803

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181002

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190920