JP2021117635A - Object tracking device and object tracking method - Google Patents
Object tracking device and object tracking method Download PDFInfo
- Publication number
- JP2021117635A JP2021117635A JP2020009676A JP2020009676A JP2021117635A JP 2021117635 A JP2021117635 A JP 2021117635A JP 2020009676 A JP2020009676 A JP 2020009676A JP 2020009676 A JP2020009676 A JP 2020009676A JP 2021117635 A JP2021117635 A JP 2021117635A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- captured
- unit
- behavioral
- partial image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 12
- 238000000605 extraction Methods 0.000 claims abstract description 121
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 239000000284 extract Substances 0.000 claims abstract description 37
- 230000003542 behavioural effect Effects 0.000 claims description 125
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims 2
- 230000006399 behavior Effects 0.000 description 71
- 230000009471 action Effects 0.000 description 48
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、オブジェクト追跡装置及びオブジェクト追跡方法に関する。 The present invention relates to an object tracking device and an object tracking method.
従来、撮像装置が撮像した撮像画像に映る人物等のオブジェクトを追跡することが行われている。例えば、非特許文献1には、オブジェクトの位置に関する特徴を示す位置特徴量と、オブジェクトの見え方を示す見え特徴量と、オブジェクトの行動の特徴を示す行動特徴量を用いてオブジェクトの追跡を行うことが開示されている。
Conventionally, an object such as a person appearing in a captured image captured by an imaging device has been tracked. For example, in Non-Patent
非特許文献1では、撮像画像から行動特徴量を抽出する場合に、当該撮像画像に映るオブジェクトと、他の撮像画像に映るオブジェクトとの関係を考慮していない。しかしながら、行動は、動きを伴った結果判明するものであり、1つの撮像画像から精度良く行動特徴量を抽出することは困難である。したがって、非特許文献1では、位置や見え方が似ているオブジェクトに対する追跡精度が低下してしまうという問題があった。
Non-Patent
そこで、本発明はこれらの点に鑑みてなされたものであり、オブジェクトを精度良く追跡することができるオブジェクト追跡装置及びオブジェクト追跡方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide an object tracking device and an object tracking method capable of accurately tracking an object.
本発明の第1の態様に係るオブジェクト追跡装置は、所定エリアを撮像する撮像装置が3以上の複数の時刻のそれぞれで撮像した3以上の複数の撮像画像を取得する取得部と、前記取得部が取得した前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するオブジェクト検出部と、前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出する行動特徴量抽出部と、前記行動特徴量抽出部が抽出した前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う関連付け部と、を備え、前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出し、前記関連付け部は、前記行動特徴量抽出部により再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを再度行う。 The object tracking device according to the first aspect of the present invention includes an acquisition unit that acquires a plurality of captured images captured by an imaging device that captures a predetermined area at a plurality of time of three or more, and the acquisition unit. Based on an object detection unit that detects an object reflected in the captured image from each of the plurality of captured images acquired by the object, and a partial image of the captured image corresponding to the object detected by the object detection unit. The behavioral feature amount extraction unit that extracts the behavioral feature amount indicating the behavioral feature amount of the above, and the plurality of captured images having different imaging times based on the behavioral feature amount extracted by the behavioral feature amount extraction unit, respectively. The object detection unit includes an association unit that associates the objects detected by the object detection unit, and the behavior feature amount extraction unit corresponds to the object for each of the plurality of objects associated with the association unit. The behavioral feature amount is re-extracted based on the partial image to be performed and the partial image corresponding to each of one or more other objects associated with the object, and the association part is generated by the behavior feature amount extraction unit. Based on the re-extracted behavioral feature amount, the object detected by the object detection unit is associated again from each of the plurality of captured images having different captured times.
前記取得部は、前記撮像装置が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得し、前記オブジェクト追跡装置は、前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部による前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う実行制御部をさらに備えてもよい。 The acquisition unit acquires a plurality of four or more captured images captured by the imaging device at each of the four or more time periods, and the object tracking device reconstructs the behavior feature amount by the behavior feature amount extraction unit. An execution control unit that tracks the objects may be further provided by alternately and repeatedly executing the extraction and the reassociation of the objects by the association unit until a predetermined condition is satisfied.
前記実行制御部は、前記関連付け部によるオブジェクトの関連付けを行った結果、当該関連付けを行った後において関連付けられているオブジェクトの数に対する、当該関連付けを行う前において関連付けられているオブジェクトの数の割合が所定の割合以上となるまで、前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部によるオブジェクトの関連付けとを交互に繰り返し実行させてもよい。 As a result of associating the objects by the association unit, the execution control unit has a ratio of the number of objects associated before the association to the number of objects associated after the association. The re-extraction of the behavioral feature amount by the behavioral feature amount extraction unit and the association of the objects by the association unit may be alternately and repeatedly executed until the ratio becomes a predetermined ratio or more.
前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する前記行動特徴量が示す行動傾向に基づいて、当該オブジェクトの前記行動特徴量の再抽出に用いる他のオブジェクトの数を変化させてもよい。 The behavior feature extraction unit determines the behavior feature of the object based on the behavior tendency indicated by the behavior feature corresponding to the object for each of the plurality of objects associated with the association. You may vary the number of other objects used for re-extraction.
前記オブジェクト検出部は、前記撮像画像に映る前記オブジェクトの位置を示すオブジェクト位置を特定することにより前記オブジェクトを検出し、前記行動特徴量抽出部は、前記オブジェクト検出部が特定した前記オブジェクト位置に対応する前記部分画像に基づいて、前記行動特徴量を抽出してもよい。 The object detection unit detects the object by specifying an object position indicating the position of the object reflected in the captured image, and the action feature amount extraction unit corresponds to the object position specified by the object detection unit. The behavioral feature amount may be extracted based on the partial image.
前記関連付け部は、前記オブジェクト検出部が特定した前記オブジェクト位置にさらに基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行ってもよい。 The association unit may associate the object detected by the object detection unit from each of the plurality of captured images having different captured times, based on the object position specified by the object detection unit. ..
前記オブジェクト追跡装置は、前記オブジェクト検出部が検出した前記オブジェクトの前記撮像画像における見え方を示す見え特徴量を抽出する見え特徴量抽出部をさらに備え、前記関連付け部は、前記見え特徴量抽出部が抽出した前記見え特徴量にさらに基づいて、撮像された時刻が異なる撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行ってもよい。 The object tracking device further includes a visible feature amount extracting unit that extracts a visible feature amount indicating the appearance of the object in the captured image detected by the object detection unit, and the associating unit is the visible feature amount extracting unit. Based on the visible feature amount extracted by the object, the object detected by the object detection unit may be associated with each of the captured images having different captured times.
前記行動特徴量抽出部は、前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の前記部分画像と、当該撮像画像が撮像された時刻の前の時刻又は後の時刻に撮像された撮像画像の前記部分画像との差分に基づいて、前記行動特徴量を抽出してもよい。 The behavioral feature amount extraction unit captures the partial image of the captured image corresponding to the object detected by the object detection unit and an image captured at a time before or after the time at which the captured image is captured. The behavioral feature amount may be extracted based on the difference between the image and the partial image.
前記行動特徴量抽出部は、前記オブジェクト検出部が検出した前記オブジェクトを含む前記部分画像である第1部分画像と、前記オブジェクトを含み、前記第1部分画像より表示領域が大きい前記部分画像である第2部分画像に基づいて、前記行動特徴量を抽出してもよい。 The behavioral feature amount extraction unit is a first partial image that is a partial image including the object detected by the object detection unit, and the partial image that includes the object and has a larger display area than the first partial image. The behavioral feature amount may be extracted based on the second partial image.
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像と、当該オブジェクトとの関連付けが行われた一以上の前記他のオブジェクトに対応する前記部分画像とを入力し、前記ニューラルネットワークから出力された複数の行動特徴量に基づいて、当該オブジェクトの前記行動特徴量を再抽出してもよい。 The behavior feature extraction unit is one or more of the above, in which the partial image corresponding to the object is associated with the object in a neural network that outputs the behavior feature in response to the input of the partial image. The partial image corresponding to the other object may be input, and the behavioral feature of the object may be re-extracted based on the plurality of behavioral features output from the neural network.
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像を入力し、前記ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトの前記行動特徴量を抽出してもよい。 The behavior feature extraction unit inputs the partial image corresponding to the object into the neural network that outputs the behavior feature in response to the input of the partial image, and obtains the feature indicated by the intermediate layer in the neural network. The behavioral feature amount of the object may be extracted based on the acquired feature amount.
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像と、当該オブジェクトとの関連付けが行われた一以上の前記他のオブジェクトに対応する前記部分画像とを入力し、前記ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトの前記行動特徴量を再抽出してもよい。 The behavior feature extraction unit is one or more of the above, in which the partial image corresponding to the object is associated with the object in a neural network that outputs the behavior feature in response to the input of the partial image. The partial image corresponding to the other object may be input, the feature amount indicated by the intermediate layer in the neural network may be acquired, and the behavioral feature amount of the object may be re-extracted based on the acquired feature amount. ..
本発明の第2の態様に係るオブジェクト追跡方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が3以上の複数の時刻のそれぞれで撮像した3以上の複数の撮像画像を取得するステップと、取得された前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するステップと、検出された前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出するステップと、抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを行うステップと、関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出するステップと、再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを再度行うステップと、を有する。 The object tracking method according to the second aspect of the present invention includes a step of acquiring three or more captured images captured by an imaging device that captures a predetermined area at a plurality of times of three or more, which is executed by a computer. , A feature amount of the behavior of the object based on the step of detecting the object reflected in the captured image from each of the acquired plurality of captured images and the partial image of the captured image corresponding to the detected object. The step of extracting the behavioral feature amount indicating the above, and the step of associating the object detected from each of the plurality of captured images having different captured times based on the extracted behavioral feature amount, and the association. For each of the plurality of objects performed, the behavioral feature amount is regenerated based on the partial image corresponding to the object and the partial image corresponding to each of one or more other objects associated with the object. It has a step of extracting and a step of reassociating the objects detected from each of the plurality of captured images having different captured times based on the re-extracted behavioral feature amount.
本発明によれば、オブジェクトを精度良く追跡することができるという効果を奏する。 According to the present invention, there is an effect that an object can be tracked with high accuracy.
[オブジェクト追跡装置1の概要]
図1は、本実施形態に係るオブジェクト追跡装置1の概要を示す図である。オブジェクト追跡装置1は、店舗内等の所定エリアを撮像する撮像装置2が撮像した複数の撮像画像に映る一以上のオブジェクトを関連付けることにより、オブジェクトを追跡する装置である。ここで、オブジェクトは、例えば店舗内を行動する店員や顧客である。
[Overview of Object Tracking Device 1]
FIG. 1 is a diagram showing an outline of the
オブジェクト追跡装置1は、撮像装置2が撮像した時系列の複数の撮像画像を取得する(図1の(1))。オブジェクト追跡装置1は、取得した複数の撮像画像のそれぞれから、撮像画像に映るオブジェクトを検出する(図1の(2))。
The
オブジェクト追跡装置1は、複数の撮像画像のそれぞれについて、検出したオブジェクトの行動の特徴量を示す行動特徴量を抽出する(図1の(3))。オブジェクト追跡装置1は、抽出した行動特徴量に基づいて、複数の撮像画像のそれぞれから検出したオブジェクトの関連付けを行う(図1の(4))。
The
オブジェクト追跡装置1は、複数のオブジェクトのそれぞれについて、当該オブジェクトに対応する撮像画像と、関連付けが行われたオブジェクトが映る他の撮像画像とに基づいて行動特徴量を再抽出する。複数の撮像画像において関連付けられたオブジェクトは、複数の撮像画像が示すオブジェクトの行動に基づいて行動特徴量を抽出できることから、関連付けが行われる前に比べて、行動特徴量の精度が高くなる。
The
オブジェクト追跡装置1は、再抽出した行動特徴量に基づいて、複数の撮像画像のそれぞれから検出したオブジェクトの関連付けを行う。行動特徴量の精度が高くなったことにより、これまでに関連付けられていなかったオブジェクト同士での関連付けが行われることとなる。
The
図2は、オブジェクトの関連付けの例について示す図である。図2(a)〜(d)において、横軸は撮像時刻を示し、縦軸はオブジェクトの位置を示している。また、図2(a)〜(d)において、マークMは、検出されたオブジェクトを示している。図2(a)〜(d)において、同じ時刻に示されるマークMは、オブジェクト追跡装置1が検出した同一のオブジェクトを示している。なお、時刻t3では、マークMが存在していないが、これは、同時刻において、例えば遮蔽等の理由により、オブジェクトが検出できなかったことを示している。また、マークMの中に示すアルファベットは、行動特徴量が示す行動クラスを示すクラス情報を示している。
FIG. 2 is a diagram showing an example of associating objects. In FIGS. 2A to 2D, the horizontal axis represents the imaging time and the vertical axis represents the position of the object. Further, in FIGS. 2A to 2D, the mark M indicates the detected object. In FIGS. 2A to 2D, the marks M shown at the same time indicate the same object detected by the
図2(a)は、オブジェクト追跡装置1が、オブジェクトの関連付けを行う前の状態を示している。図2(b)は、オブジェクト追跡装置1により、初めて関連付けが行われた状態を示している。
FIG. 2A shows a state before the
図2(c)は、初めて関連付けが行われた後、オブジェクト追跡装置1が、オブジェクトの行動特徴量の再抽出を行った状態を示している。関連付けが行われたオブジェクトによって行動特徴量の再抽出が行われた結果、図2(c)に示すように、時刻t2におけるオブジェクトのクラス情報が「b」から「a」に変化しているとともに、時刻t4におけるオブジェクトのクラス情報が「c」から「a」に変化していることが確認できる。
FIG. 2C shows a state in which the
図2(d)は、図2(c)に示すようにオブジェクトの行動特徴量の再抽出が行われた後に、再度、オブジェクトの関連付けが行われた状態を示している。図2(d)に示すように、時刻t2におけるオブジェクトと時刻t4におけるオブジェクトの行動特徴量が再抽出された結果、時刻t2におけるオブジェクトと時刻t4におけるオブジェクトとが関連付けられたことが確認できる。このように、時刻t3においてオブジェクトが検出できなかった場合であっても、時刻t3の前後の時刻t2、t4における行動特徴量の再抽出により、時刻t2、t4におけるオブジェクトのクラス情報が同一のものに修正され、時刻t2、t4におけるオブジェクトを関連付けることができる。 FIG. 2D shows a state in which the object is associated again after the behavioral feature amount of the object is re-extracted as shown in FIG. 2C. As shown in FIG. 2 (d), the result of action feature quantity of an object in the object and the time t 4 at time t 2 is re-extracted, that an object in the object and the time t 4 at time t 2 is associated with You can check. Thus, even if it can not detect objects at time t 3, the action feature quantity at a time t 2, t 4 before and after the time t 3 by the re-extraction of the object at time t 2, t 4 class information is corrected to the same thing, it is possible to associate an object at time t 2, t 4.
図1に説明を戻し、オブジェクト追跡装置1は、図1の(3)の処理と、(4)の処理とを繰り返し実行する。オブジェクト追跡装置1は、行動特徴量の再抽出と、オブジェクトの関連付けとが交互に行うことにより、オブジェクトの関連付けの精度を向上させることができるので、結果として、オブジェクトを精度良く追跡することができる。
以下、オブジェクト追跡装置1の構成を詳細に説明する。
Returning to FIG. 1, the
Hereinafter, the configuration of the
[オブジェクト追跡装置1の構成]
図3は、本実施形態に係るオブジェクト追跡装置1の構成を示す図である。図3に示すように、オブジェクト追跡装置1は、記憶部11と、制御部12とを備える。
[Configuration of object tracking device 1]
FIG. 3 is a diagram showing a configuration of the
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、制御部12を、取得部121、オブジェクト検出部122、見え特徴量抽出部123、行動特徴量抽出部124、関連付け部125、及び実行制御部126として機能させるオブジェクト追跡プログラムを記憶している。
The storage unit 11 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 11 stores a program executed by the
制御部12は、例えばCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)である。制御部12は、記憶部11に記憶されたオブジェクト追跡プログラムを実行することにより、取得部121、オブジェクト検出部122、見え特徴量抽出部123、行動特徴量抽出部124、関連付け部125、及び実行制御部126として機能する。
The
[撮像画像の取得]
取得部121は、所定エリアを撮像する撮像装置2が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得する。ここで、撮像装置2は、複数の時刻のそれぞれで、同じ撮像範囲を撮像するものとする。
[Acquisition of captured image]
The
[オブジェクトの検出]
オブジェクト検出部122は、取得部121が取得した複数の撮像画像のそれぞれから、撮像画像に映るオブジェクトを検出する。具体的には、オブジェクト検出部122は、撮像画像に映るオブジェクトの位置を示すオブジェクト位置を特定することによりオブジェクトを検出する。
[Object detection]
The
例えば、オブジェクト検出部122は、例えば、オブジェクト検出器である。オブジェクト検出部122は、取得部121が取得した撮像画像が入力されると、当該撮像画像に対してオブジェクトの位置の特徴量を示す位置特徴量情報Xlocと、当該オブジェクトが当該位置に存在する確からしさを示すコストCdetとを出力することにより、オブジェクトを検出する。オブジェクト検出器には、例えば、SSD(Single Shot Multibox Detector)が用いられる。
For example, the
位置特徴量情報Xlocは、例えば、4つの変数(x,y,w,h)の組み合わせによって示される。xは撮像画像におけるX軸方向(横方向)上の位置、yは撮像画像におけるX軸と直行するY軸方向(縦方向)上の位置、wはオブジェクトのX軸方向上の長さ(幅)、hはオブジェクトのY軸方向上の長さ(高さ)を示している。位置特徴量情報Xlocにより、検出されたオブジェクトを囲む矩形領域であるバウンディングボックスが特定される。オブジェクト検出部122は、複数の撮像画像のそれぞれにおいて検出されたオブジェクトに対してインデックスiを割り振り、各オブジェクトiに対応する位置特徴量情報Xi loc及びコストCdet(i)を特定する。
The position feature amount information X loc is indicated by, for example, a combination of four variables (x, y, w, h). x is the position on the X-axis direction (horizontal direction) in the captured image, y is the position on the Y-axis direction (vertical direction) orthogonal to the X-axis in the captured image, and w is the length (width) of the object in the X-axis direction. ) And H indicate the length (height) of the object in the Y-axis direction. The position feature amount information X loc identifies a bounding box which is a rectangular area surrounding the detected object. The
[見え特徴量の抽出]
見え特徴量抽出部123は、オブジェクト検出部122が検出したオブジェクトの撮像画像における見え方を示す見え特徴量を抽出する。例えば、見え特徴量抽出部123は、オブジェクト検出部122が撮像画像から検出した位置特徴量情報Xlocに基づいて、撮像画像におけるバウンディングボックスの位置及び大きさを特定する。見え特徴量抽出部123は、当該撮像画像から、オブジェクトを示す部分画像として、特定したバウンディングボックスに囲まれる部分画像を抽出する。
[Extraction of visible features]
The visible feature
見え特徴量抽出部123は、画像の入力に対してオブジェクトの見え方の特徴量を示す複数次元のベクトルである見え特徴量情報Xappを出力する見え特徴量出力プログラムに、抽出した部分画像を入力し、当該プログラムから出力される見え特徴量情報Xappを取得することにより、オブジェクトの見え特徴量を抽出する。見え特徴量出力プログラムは、例えば、深層ニューラルネットワークのプログラムであり、例えば、WRNs(Wide Residual Networks)が用いられる。
The visible feature
見え特徴量抽出部123は、オブジェクト検出部122が検出した各オブジェクトiに対応する部分画像を見え特徴量出力プログラムに入力し、当該プログラムから各オブジェクトiに対応する見え特徴量情報Xi appを取得する。
Feature
[行動特徴量の抽出]
行動特徴量抽出部124は、オブジェクト検出部122が検出した複数のオブジェクトのそれぞれに対応する撮像画像の部分画像に基づいて、複数のオブジェクトのそれぞれの行動の特徴量を示す行動特徴量を抽出する。行動特徴量抽出部124は、オブジェクト検出部122が検出した複数のオブジェクトiのオブジェクト位置を示す位置特徴量情報Xi locに対応する部分画像に基づいて、複数のオブジェクトiのそれぞれに対応する行動特徴量を抽出する。行動特徴量は、複数次元のベクトルであり、次元の数は、例えば、行動クラスの数に対応している。
[Extraction of behavioral features]
The behavioral
[関連付けが行われていない場合の行動特徴量の抽出]
行動特徴量抽出部124は、関連付け部125により、オブジェクトの関連付けが行われていない場合、以下に示すように、オブジェクト検出部122が検出したオブジェクトiの行動特徴量を示す複数次元のベクトルである行動特徴量情報Xi pafを抽出する。図4は、オブジェクトの関連付けが行われていない場合における行動特徴量情報Xi pafの抽出例を示す図である。
[Extraction of behavioral features when no association is made]
The behavior
行動特徴量抽出部124は、オブジェクトiの部分画像の色に基づく行動特徴量情報Xi paf−Cを抽出するとともに、部分画像と、当該部分画像が抽出された撮像画像の前後の撮像画像から抽出した部分画像との差分に基づく行動特徴量情報Xi paf−Fを抽出する。そして、行動特徴量抽出部124は、部分画像の色に基づく行動特徴量情報Xi paf−Cと、部分画像の差分に基づく行動特徴量情報Xi paf−Fとを統合することにより、オブジェクトiの行動特徴量情報Xi pafを抽出する。
Action feature
まず、行動特徴量抽出部124は、オブジェクト検出部122が検出したオブジェクトiの位置特徴量情報Xi locに基づいて、当該オブジェクトが検出された撮像画像から、当該オブジェクトを含む第1部分画像としての局所切出画像ImLと、当該オブジェクトを含み、第1部分画像よりも表示領域が大きい部分画像である第2部分画像としての大域切出画像ImGとを抽出する。
First, the behavior characteristic
局所切出画像ImLは、例えば、オブジェクトiの位置特徴量情報Xi locが示すバウンディングボックスに囲まれる画像であり、大域切出画像ImGは、局所切出画像ImLを含み、局所切出画像ImLよりも数倍の表示領域を有する画像である。そして、行動特徴量抽出部124は、抽出した局所切出画像ImL及び大域切出画像ImGに基づいて行動特徴量情報Xi pafを抽出する。このようにすることで、オブジェクト追跡装置1は、オブジェクトの周りに存在する他のオブジェクトや物体の情報を考慮して、より高精度に行動特徴量を抽出することができる。
Local clipped images Im L is, for example, an image to be surrounded by a bounding box indicating the position feature quantity information X i loc object i, global cut image Im G includes a local clipped images Im L, local switching This is an image having a display area several times larger than that of the output image Im L. Then, the behavior characteristic
なお、本実施形態において、オブジェクト追跡装置1は、局所切出画像ImLと大域切出画像ImGとに基づいて行動特徴量情報Xi pafを抽出することとしたが、これに限らず、局所切出画像ImLと大域切出画像ImGとのいずれか一方に基づいて行動特徴量情報Xi pafを抽出してもよい。
In the present embodiment, the
図4に示す例では、行動特徴量抽出部124は、局所切出画像ImLが示す色情報と、大域切出画像ImGが示す色情報とを、それぞれ、ResNet(Residual Networks)等の深層ニューラルネットワークのベースモデルプログラムに入力し、各ベースモデルプログラムから出力される行動特徴量情報を結合することにより、色に基づく行動特徴量情報Xi paf−Cを抽出する。
In the example shown in FIG. 4, the behavioral feature
また、行動特徴量抽出部124は、オブジェクトiが検出された撮像画像から抽出したオブジェクトiの部分画像(局所切出画像ImL及び大域切出画像ImG)と、当該撮像画像が撮像された時刻の前の時刻又は後の時刻に撮像された撮像画像の部分画像との差分に基づいて、行動特徴量情報Xi paf−Fを抽出する。 In addition, the behavioral feature amount extraction unit 124 captured the partial image (local cutout image Im L and global cutout image Im G ) of the object i extracted from the captured image in which the object i was detected, and the captured image. based on the difference between the partial image of the previous time or after the time the captured image captured at the time, extracts the action feature amount information X i paf-F.
例えば、行動特徴量抽出部124は、オブジェクトiが検出された撮像時刻tiの撮像画像から、位置特徴量情報Xi locに基づいて局所切出画像ImL及び大域切出画像ImGを抽出する。また、行動特徴量抽出部124は、オブジェクトiが検出された撮像時刻tiの直前の撮像時刻ti−1の撮像画像から、位置特徴量情報Xi locに基づいて局所切出画像ImLb及び大域切出画像ImGbを抽出する。そして、行動特徴量抽出部124は、抽出した2つの局所切出画像の差分DL、及び2つの大域切出画像の差分DGに基づいて、行動特徴量情報Xi paf−Fを抽出する。
For example, action feature
図4に示す例では、行動特徴量抽出部124は、局所切出画像の差分DLと、大域切出画像の差分DGとを、それぞれ、ResNet等の深層ニューラルネットワークのベースモデルプログラムに入力し、各ベースモデルプログラムから出力される行動特徴量情報を結合することにより行動特徴量情報Xi paf−Fを抽出する。なお、ベースモデルプログラムは予め学習が行われているものとする。
In the example shown in FIG. 4, the behavior characteristic
そして、行動特徴量抽出部124は、抽出した行動特徴量情報Xi paf−Cと行動特徴量情報Xi paf−Fとを統合することにより、オブジェクトiの行動特徴量情報Xi pafを抽出する。例えば、行動特徴量抽出部124は、抽出した行動特徴量情報Xi paf−Cと行動特徴量情報Xi paf−Fとの平均値をオブジェクトiの行動特徴量情報Xi pafとする。
Then, the behavior characteristic
行動特徴量抽出部124は、行動特徴量情報Xi paf−Cと行動特徴量情報Xi paf−Fとを統合する他の方法として、行動特徴量情報Xi paf−Cと行動特徴量情報Xi paf−Fとを要素ごとに比較し、大きいほうの値で構成されたベクトルを、オブジェクトiの行動特徴量情報Xi pafとしてもよい。例えば、Xi paf−C=(0.1,0.2,0.5,0.6)、Xi paf−F=(0.9,0.6,0.2,0.9)である場合、Xi paf=(0.9,0.6,0.5,0.9)となる。以下、この抽出方法を、最大要素抽出法と呼ぶ。
The behavioral feature
また、行動特徴量抽出部124は、行動特徴量情報Xi pafを抽出すると、当該行動特徴量情報Xi pafが示すベクトル値のうち、最も高いベクトル値に対応する行動クラスを示すクラス情報を抽出する。
Further, the behavior characteristic
なお、行動特徴量抽出部124は、図4に示すように行動特徴量情報Xi pafを抽出したが、これに限らない。行動特徴量抽出部124は、TSN(Temporal Segment Networks)のような深層ニューラルネットワークのプログラムを用いて行動特徴量情報Xi pafを抽出してもよい。
Note that action feature
また、オブジェクトの関連付けが行われていない場合には、抽出した行動特徴量情報Xi paf−Cと行動特徴量情報Xi paf−Fとの平均値が、必ずしもオブジェクトの行動特徴量を反映しているとはいえず、むしろ、行動特徴量にあいまいさを持たせたほうが好ましいとも考えられる。このため、行動特徴量抽出部124は、各ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した複数の特徴量の平均化等を行ったものを、行動特徴量情報Xi pafとして抽出してもよい。このようにすることで、オブジェクト追跡装置1は、オブジェクトの関連付けが行われていない場合に、行動特徴量情報Xi pafにあいまいさを持たせることができる。
Also, if the association between an object is not performed, the average value of the extracted and behavioral characteristic quantity information X i paf-C and behavioral characteristic quantity information X i paf-F is, necessarily reflect the behavioral features of the object Rather, it is considered preferable to give ambiguity to the behavioral features. Therefore, the behavior characteristic
[関連付けが行われている場合の行動特徴量の抽出]
行動特徴量抽出部124は、関連付け部125によりオブジェクトの関連付けが行われている場合、関連付け部125により関連付けが行われた複数のオブジェクトiのそれぞれについて、当該オブジェクトiに対応する部分画像と、当該オブジェクトiに関連付けられた一以上の他のオブジェクトのそれぞれに対応する部分画像とに基づいて行動特徴量を再抽出する。ここで、行動特徴量抽出部124は、オブジェクトiに関連付けられた一以上の他のオブジェクトのうち、オブジェクトiが映る撮像画像の撮像時刻から所定時間(所定のフレーム数)以内に撮像された撮像画像から検出された他のオブジェクトの部分画像に基づいて行動特徴量を再抽出するものとする。以下の説明において、所定のフレーム数によって定められる、オブジェクトiの行動特徴量の抽出に用いる他のオブジェクトの参照範囲をウィンドウサイズという。
[Extraction of behavioral features when association is performed]
When the objects are associated with each other by the
図5は、オブジェクトの関連付けが行われている場合における行動特徴量情報Xi pafの抽出例を示す図である。例えば、時刻tiに検出されたオブジェクトiに対して、時刻ti−1に検出されたオブジェクトと、時刻ti+1に検出されたオブジェクトとが関連付けられたものとする。この場合、行動特徴量抽出部124は、図5に示すように、時刻tiに検出されたオブジェクトiの部分画像に基づいて行動特徴量情報を抽出するとともに、時刻ti−1及び時刻ti+1に検出されたオブジェクトの行動特徴量情報を抽出する。そして、行動特徴量抽出部124は、抽出したこれらの行動特徴量情報の平均値を算出し、活性化させることにより、行動特徴量情報Xi pafを再抽出する。また、行動特徴量抽出部124は、行動特徴量情報Xi paf−Cと行動特徴量情報Xi paf−Fとを統合する方法と同様に、抽出したこれらの行動特徴量情報に最大要素抽出法を適用して行動特徴量情報を算出し、算出した結果を活性化させることにより、行動特徴量情報Xi pafを再抽出してもよい。
Figure 5 is a diagram showing an example of extraction of a behavioral characteristic quantity information X i paf when the association of the object has been performed. For example, with respect to the time t i of the detected object i, and the object detected at time t i-1, and that is the object detected at time t i + 1 associated. In this case, the behavior characteristic
図5に示す例では、時刻ti−1、時刻ti、及び時刻ti+1に検出されたオブジェクトの行動特徴量情報を示すベクトルBt(i−1)、Bti、Bt(i+1)に含まれる行動クラスの値のうち、相対的に値が大きい行動クラスを、他の行動クラスと異なる色で示している。ベクトルBt(i−1)、Bti、Bt(i+1)を統合した結果、行動特徴量情報Xi pafを示すベクトルが、時刻tiのベクトルBti(再抽出前の行動特徴量情報を示すベクトル)から変化していることが確認できる。なお、行動特徴量抽出部124は、時刻tiだけでなく、時刻ti−1及び時刻ti+1に検出されたオブジェクトの行動特徴量情報として、再抽出された行動特徴量情報Xi pafを示すベクトルを用いてもよい。
In the example shown in FIG. 5, the time t i-1, time t i, and the vector B t (i-1) indicating the action feature amount information of the detected object at the time t i + 1, B ti, B t (i + 1) Of the behavior class values included in, the behavior class with a relatively large value is shown in a color different from that of other behavior classes. Vector B t (i-1), B ti, B t (i + 1) results of the integration of the vector indicating the action feature amount information X i paf is vector B ti (re-extraction before behavioral characteristic quantity information of the time t i It can be confirmed that it changes from the vector indicating. Note that action feature
なお、行動特徴量抽出部124は、関連付け部125により関連付けが行われた複数のオブジェクトのそれぞれについて、当該オブジェクトに対応する行動特徴量が示す行動傾向に基づいてウィンドウサイズを変化させることにより、当該オブジェクトの行動特徴量の再抽出に用いる他のオブジェクトの数を変化させてもよい。例えば、行動特徴量抽出部124は、行動傾向が静止等の静的な行動傾向を示す場合、ウィンドウサイズを大きくし、歩行等の動的な行動を示す場合、ウィンドウサイズを小さくしてもよい。このようにすることで、ウィンドウサイズを、行動傾向に対して適切なウィンドウサイズとすることができるので、行動特徴量の抽出精度を向上させることができる。
The behavior
また、行動特徴量抽出部124は、オブジェクトの関連付けが行われている場合においても、再抽出の回数が所定回数以内であることを条件として、ニューラルネットワークの中間層が示す特徴量に基づいて、オブジェクトの行動特徴量を再抽出してもよい。具体的には、行動特徴量抽出部124は、ニューラルネットワークに、検出したオブジェクトiに対応する部分画像と、当該オブジェクトiとの関連付けが行われた一以上の他のオブジェクトに対応する部分画像とを入力し、ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトiの行動特徴量情報Xi pafを再抽出してもよい。
Further, the behavior feature
例えば、行動特徴量抽出部124は、検出したオブジェクトに対応する部分画像をニューラルネットワークに入力した場合における、当該ニューラルネットワークにおける中間層が示す特徴量と、関連するオブジェクトに対応する部分画像をニューラルネットワークに入力した場合における、当該ニューラルネットワークにおける中間層が示す特徴量との平均値を、検出したオブジェクトの行動特徴量情報Xi pafを再抽出してもよい。このようにすることで、オブジェクト追跡装置1は、オブジェクトの関連付けが十分に行われていない場合に、行動特徴量情報Xi pafにあいまいさを持たせることができる。
For example, the behavioral feature
[オブジェクトの関連付け]
関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が抽出した行動特徴量に基づいて、撮像された時刻が異なる複数の撮像画像のそれぞれからオブジェクト検出部122が検出したオブジェクトの関連付けを行う。
[Object Association]
The
関連付け部125は、検出されたオブジェクトiをノードとし、各ノード間のコストを設定して、最小費用流問題を解くことにより、オブジェクトの関連付けを行う。具体的にはまず、関連付け部125は、以下の式(1)に示すように、検出されたオブジェクトiを示すノードyiを定義する。
The
続いて、関連付け部125は、各ノードyiに対するコストを算出する。コストには、観測コストCobsv(i)、遷移コストCtran(i,j)、開始コストCentr(i)、終了コストCexit(i)が含まれる。遷移コストCtran(i,j)に含まれるjは、他のノードyjのインデックスを示している。また、他のノードyjは、オブジェクトiが検出された撮像画像の撮像時刻から所定時間内に撮像された撮像画像から検出したオブジェクトに対応しているものとする。
Subsequently, the
また、開始コストCentr(i)は、予め定数として与えられるものである。開始コストCentr(i)が小さければ小さいほど、ノードyiに対して新たに関連付けが行われる頻度が増加する。終了コストCexit(i)は、予め定数として与えられるものである。終了コストCexit(i)が小さければ小さいほど、ノードyiに対して関連付けが行われない頻度が増加する。 Further, the starting cost Center (i) is given as a constant in advance. The smaller the starting cost Center (i), the more often new associations are made to the node y i. The end cost Exit (i) is given as a constant in advance. The smaller the exit cost EXIT (i), the more often no association is made to the node y i.
関連付け部125は、観測コストCobsv(i)を以下に示す式(2)、(3)に基づいて算出する。
式(2)に示されるbは予め定められる定数である。コストCdet(i)は、オブジェクト検出器の出力(当該オブジェクトが位置特徴量情報Xi locが示す位置に存在する確からしさ)を示している。α、βは、コストCdet(i)に対して最適となる観測コストCobsv(i)を算出するためのパラメータである。α、βは、位置特徴量情報Xi locにおけるコストCdet(i)と、当該オブジェクトの位置が正しいか否かを示す正解データとを組み合わせた教師データに基づいて学習を行うことにより設定される。 B shown in the equation (2) is a predetermined constant. Cost C det (i) shows the output of the object detector (probability that the object is present at a position indicated by the position characteristic amount information X i loc). α and β are parameters for calculating the observation cost Cobsv (i) that is optimal for the cost C det (i). alpha, beta is a cost C det (i) at position feature quantity information X i loc, set by performing learning based on training data obtained by combining the correct data position of the object indicating whether correct or not NS.
関連付け部125は、遷移コストCtran(i,j)を以下に示す式(4)、(5)に基づいて算出する。 The association unit 125 calculates the transition cost C tran (i, j) based on the following equations (4) and (5).
式(4)に示されるCiou(i,j)は、例えば、ノードyiに含まれる位置特徴量情報Xi locによって示されるバウンディングボックスと、ノードyjに含まれる位置特徴量情報Xj locによって示されるバウンディングボックスとの重複率である。式(4)に示されるCapp(i,j)は、ノードyiに含まれる見え特徴量情報Xi appとノードyjに含まれる見え特徴量情報Xj appとのコサイン距離である。式(4)に示されるCpaf(i,j)は、ノードyiに含まれる行動特徴量情報Xi pafとノードyjに含まれる行動特徴量情報Xj pafとのコサイン距離である。 C iou represented by formula (4) (i, j), for example, node y position feature quantity information contained in the i X i and the bounding box indicated by loc, node y j position feature quantity information X j included in The overlap rate with the bounding box indicated by the loc. C app represented by formula (4) (i, j) is the cosine distance between the appearance feature amount information X j app in a node y appearance feature amount information contained in the i X i app and node y j. C paf represented by formula (4) (i, j) is the cosine distance between action feature quantity information X j paf in a node y action feature quantity information contained in the i X i paf and node y j.
関数gは、式(4)にCiou(i,j)、Capp(i,j)、Cpaf(i,j)を入力した結果、最適となる観測コストCtran(i,j)を算出するための非線形関数である。関数gは、予め関連付けが行われている複数のオブジェクトiと、オブジェクト検出部122によって検出された当該複数のオブジェクトiに対応するノードyとを組み合わせた教師データに基づいて学習を行うことにより設定される。なお、関数gは、例えば決定木で表現してもよい。この場合、関数gは、例えばブースティングアルゴリズムによって予めパラメータを学習させておくものとする。
Function g, C iou in equation (4) (i, j) , C app (i, j), C paf (i, j) a result of entering the optimal become observed cost C tran (i, j) It is a non-linear function for calculation. The function g is set by learning based on teacher data that combines a plurality of objects i that are associated in advance and nodes y corresponding to the plurality of objects i detected by the
関連付け部125は、以下の式(6)に示すオブジェクトの関連付けの結果Fを求めることにより、オブジェクトの関連付けを行う。
ここで、fは、関連付けをするか否かを示すものであり、fentr(i)、fobsv(i)、ftran(i,j)、fexit(i)のうち、いずれかが1となり、その他が0となる。fが0である場合は関連付けが行われないことを示し、fが1である場合は関連付けが行われることを示す。 Here, f is, which indicates whether the association, f entr (i), f obsv (i), f tran (i, j), of f exit (i), either 1 And the others are 0. When f is 0, it indicates that the association is not performed, and when f is 1, it indicates that the association is performed.
関連付け部125は、各オブジェクトの最適な関連付けの結果F*を、以下の式(7)に示す目的関数を最適化、すなわち、F*を最小の値にすることによって求める。関連付け部125は、例えばスケーリングプッシュ再ラベルアルゴリズムを用いて式(7)に示す目的関数の最適化を行うことにより、オブジェクトの関連付けを行う。
関連付け部125は、行動特徴量抽出部124により再抽出された行動特徴量に基づいて、撮像された時刻が異なる複数の撮像画像のそれぞれからオブジェクト検出部122が検出したオブジェクトの関連付けを再度行う。関連付け部125が、オブジェクトの関連付けを再度行うときも、上述したように、各ノードyiに対するコストを算出し、式(7)に示す目的関数の最適化を行うことにより、オブジェクトの関連付けを行う。
The
[行動特徴量の再抽出及びオブジェクトの関連付けの繰り返し]
実行制御部126は、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う。例えば、所定の条件は、関連付け部125によるオブジェクトの関連付けが収束したことである。
[Re-extraction of behavioral features and repetition of object association]
The
具体的には、実行制御部126は、関連付け部125によるオブジェクトの関連付けを行った結果、当該関連付けを行った後において関連付けられているオブジェクトの数に対する、当該関連付けを行う前において関連付けられているオブジェクトの数の割合が所定の割合以上(例えば90%以上)となるまで、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させる。すなわち、実行制御部126は、関連付け部125によるオブジェクトの関連付けを行った前後において関連付けられているオブジェクトの数の変化(増分)が小さくなるまで行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させる。このようにすることで、オブジェクト追跡装置1は、オブジェクトの関連付けが収束するまでオブジェクトの関連付けを行うことができる。
Specifically, the
なお、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させる回数を予め定めておき、実行制御部126が、当該回数に基づいて、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させてもよい。
It should be noted that the number of times that the behavioral feature
[オブジェクト追跡装置1における処理の流れ]
続いて、オブジェクト追跡装置1における処理の流れについて説明する。図6は、本実施形態に係るオブジェクト追跡装置1における処理の流れを示すフローチャートである。
[Process flow in object tracking device 1]
Subsequently, the processing flow in the
まず、取得部121は、所定エリアを撮像する撮像装置2が複数の時刻のそれぞれで撮像した複数の撮像画像を取得する(S1)。
続いて、オブジェクト検出部122は、取得部121が取得した複数の撮像画像のそれぞれからオブジェクトに対応する位置特徴量を抽出することにより、複数の撮像画像のそれぞれに映るオブジェクトを検出する(S2)。
First, the
Subsequently, the
続いて、見え特徴量抽出部123は、オブジェクト検出部122が検出したオブジェクトの見え特徴量を抽出する(S3)。
続いて、行動特徴量抽出部124は、オブジェクト検出部122が検出したオブジェクトの行動特徴量を抽出する(S4)。
Subsequently, the visible feature
Subsequently, the behavior feature
続いて、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が抽出した行動特徴量に基づいて、オブジェクト検出部122が検出したオブジェクトの関連付けを行う(S5)。
Subsequently, the
続いて、行動特徴量抽出部124は、関連付け部125により関連付けが行われた複数のオブジェクトのそれぞれについて、当該オブジェクトと、当該オブジェクトに関連付けられた一以上の他のオブジェクトとに基づいて行動特徴量を再抽出する(S6)。
Subsequently, the behavior
続いて、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が再抽出した行動特徴量に基づいて、オブジェクト検出部122が検出したオブジェクトの関連付けを行う(S7)。
Subsequently, the
続いて、実行制御部126は、関連付け部125によるオブジェクトの関連付けが収束したか否かを判定する(S8)。実行制御部126は、オブジェクトの関連付けが収束したと判定すると、本フローチャートに係る処理を終了し、オブジェクトの関連付けが収束していないと判定すると、S6に処理を移す。
Subsequently, the
[本実施形態における効果]
以上説明したように、本実施形態に係るオブジェクト追跡装置1は、所定エリアを複数の時刻のそれぞれで撮像した複数の撮像画像からオブジェクトを検出し、検出したオブジェクトに対応する撮像画像の部分画像に基づいてオブジェクトの行動特徴量を抽出し、抽出した行動特徴量に基づいて撮像時刻が異なる複数の撮像画像のそれぞれから検出されたオブジェクトの関連付けを行う。そして、オブジェクト追跡装置1は、関連付けが行われた複数のオブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた他のオブジェクトに対応する部分画像とに基づいて行動特徴量を再抽出し、再抽出した行動特徴量に基づいて、撮像時刻が異なる複数の撮像画像のそれぞれから検出されたオブジェクトの関連付けを再度行う。
[Effect in this embodiment]
As described above, the
このようにすることで、オブジェクト追跡装置1は、関連付けが行われたオブジェクトのそれぞれに対応するオブジェクトの行動特徴量の精度を高めることができるので、オブジェクトを精度良く追跡することができる。
By doing so, the
また、オブジェクト追跡装置1は、行動特徴量の再抽出と、オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う。これにより、オブジェクト追跡装置1は、関連付けが行われたオブジェクト同士が示す行動特徴量に基づいて、各オブジェクトの行動特徴量の精度をさらに高めることができるので、オブジェクトの追跡精度をさらに向上させることができる。
Further, the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上述の実施形態では、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が抽出した行動特徴量に基づいて、オブジェクトの関連付けを行うこととしたが、これに限らない。
Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, in the above-described embodiment, the
関連付け部125は、行動特徴量抽出部124が抽出した行動特徴量のみに基づいて、オブジェクト検出部122が検出したオブジェクトの関連付けを行ってもよい。また、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量及び見え特徴量抽出部123が抽出した見え特徴量のいずれかと、行動特徴量抽出部124が抽出した行動特徴量とに基づいてオブジェクト検出部122が検出したオブジェクトの関連付けを行ってもよい。
The
また、取得部121は、撮像装置2が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得したが、これに限らない。取得部121は、撮像装置2が3つの時刻のそれぞれで撮像した3つの撮像画像を取得してもよい。この場合には、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125による行動特徴量の再抽出が行われたオブジェクトの関連付けとを、それぞれ1回のみ実行し、行動特徴量の再抽出と、行動特徴量の再抽出が行われたオブジェクトの関連付けとを複数回実行しないようにしてもよい。
Further, the
また、上記の実施の形態では、オブジェクトが、店舗内を行動する店員や顧客等の人物であることを例として説明したが、これに限らない。例えば、撮像画像が、町中を撮像する撮像画像である場合、人物に限らず、車両等の移動物もオブジェクトとしてもよい。この場合、オブジェクト追跡装置1は、オブジェクトの種別に応じた各種特徴量を用いてもよい。
Further, in the above embodiment, the object is described as an example of a person such as a clerk or a customer who acts in the store, but the present invention is not limited to this. For example, when the captured image is a captured image that captures the entire town, not only a person but also a moving object such as a vehicle may be an object. In this case, the
また、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 In addition, all or part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.
1・・・オブジェクト追跡装置、11・・・記憶部、12・・・制御部、121・・・取得部、122・・・オブジェクト検出部、123・・・見え特徴量抽出部、124・・・行動特徴量抽出部、125・・・関連付け部、126・・・実行制御部、2・・・撮像装置
1 ... Object tracking device, 11 ... Storage unit, 12 ... Control unit, 121 ... Acquisition unit, 122 ... Object detection unit, 123 ... Visible feature amount extraction unit, 124 ... -Behavior feature extraction unit, 125 ... association unit, 126 ... execution control unit, 2 ... imaging device
Claims (13)
前記取得部が取得した前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出する行動特徴量抽出部と、
前記行動特徴量抽出部が抽出した前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う関連付け部と、
を備え、
前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出し、
前記関連付け部は、前記行動特徴量抽出部により再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを再度行う、
オブジェクト追跡装置。 An acquisition unit that acquires a plurality of three or more captured images captured by an imaging device that captures a predetermined area at a plurality of three or more times, respectively.
An object detection unit that detects an object reflected in the captured image from each of the plurality of captured images acquired by the acquisition unit, and an object detection unit.
A behavioral feature amount extraction unit that extracts a behavioral feature amount indicating the behavioral feature amount of the object based on a partial image of the captured image corresponding to the object detected by the object detection unit, and a behavioral feature amount extraction unit.
An association unit that associates the object detected by the object detection unit from each of the plurality of captured images having different captured times based on the behavior feature amount extracted by the behavior feature amount extraction unit.
With
The behavior feature extraction unit corresponds to each of the partial image corresponding to the object and one or more other objects associated with the object for each of the plurality of objects associated with the association unit. The behavioral feature amount is re-extracted based on the partial image to be performed.
The association unit associates the object detected by the object detection unit with each of the plurality of captured images having different captured times based on the behavior feature amount re-extracted by the behavior feature amount extraction unit. Do it again
Object tracking device.
前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部による前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う実行制御部をさらに備える、
請求項1に記載のオブジェクト追跡装置。 The acquisition unit acquires a plurality of four or more captured images captured by the imaging device at each of the four or more time periods.
Execution control for tracking an object by alternately and repeatedly executing the re-extraction of the behavior feature amount by the behavior feature amount extraction unit and the re-association of the object by the association unit until a predetermined condition is satisfied. With more parts,
The object tracking device according to claim 1.
請求項2に記載のオブジェクト追跡装置。 As a result of associating the objects by the association unit, the execution control unit has a ratio of the number of objects associated before the association to the number of objects associated after the association. The re-extraction of the behavioral feature amount by the behavioral feature amount extraction unit and the association of the objects by the association unit are alternately and repeatedly executed until the ratio becomes a predetermined ratio or more.
The object tracking device according to claim 2.
請求項2又は3に記載のオブジェクト追跡装置。 The behavior feature extraction unit determines the behavior feature of the object based on the behavior tendency indicated by the behavior feature corresponding to the object for each of the plurality of objects associated with the association. Change the number of other objects used for re-extraction,
The object tracking device according to claim 2 or 3.
前記行動特徴量抽出部は、前記オブジェクト検出部が特定した前記オブジェクト位置に対応する前記部分画像に基づいて、前記行動特徴量を抽出する、
請求項1から4のいずれか1項に記載のオブジェクト追跡装置。 The object detection unit detects the object by specifying an object position indicating the position of the object reflected in the captured image.
The behavior feature amount extraction unit extracts the behavior feature amount based on the partial image corresponding to the object position specified by the object detection unit.
The object tracking device according to any one of claims 1 to 4.
請求項5に記載のオブジェクト追跡装置。 The association unit further associates the object detected by the object detection unit from each of the plurality of captured images having different captured times, based on the object position specified by the object detection unit.
The object tracking device according to claim 5.
前記関連付け部は、前記見え特徴量抽出部が抽出した前記見え特徴量にさらに基づいて、撮像された時刻が異なる撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う、
請求項1から6のいずれか1項に記載のオブジェクト追跡装置。 The object detection unit further includes a visual feature amount extraction unit that extracts a visual feature amount that indicates the appearance of the object in the captured image.
Based on the visible feature amount extracted by the visible feature amount extraction unit, the associating unit further associates the object detected by the object detection unit from each of the captured images having different captured times.
The object tracking device according to any one of claims 1 to 6.
請求項1から7のいずれか1項に記載のオブジェクト追跡装置。 The behavioral feature amount extraction unit captures the partial image of the captured image corresponding to the object detected by the object detection unit and an image captured at a time before or after the time at which the captured image is captured. The behavioral feature amount is extracted based on the difference between the image and the partial image.
The object tracking device according to any one of claims 1 to 7.
請求項1から8のいずれか1項に記載のオブジェクト追跡装置。 The behavioral feature amount extraction unit is a first partial image that is a partial image including the object detected by the object detection unit, and the partial image that includes the object and has a larger display area than the first partial image. The behavioral feature amount is extracted based on the second partial image.
The object tracking device according to any one of claims 1 to 8.
請求項1から9のいずれか1項に記載のオブジェクト追跡装置。 The behavior feature extraction unit is one or more of the above, in which the partial image corresponding to the object is associated with the object in a neural network that outputs the behavior feature in response to the input of the partial image. The partial image corresponding to the other object is input, and the behavioral feature of the object is re-extracted based on the plurality of behavioral features output from the neural network.
The object tracking device according to any one of claims 1 to 9.
請求項1から10のいずれか1項に記載のオブジェクト追跡装置。 The behavior feature extraction unit inputs the partial image corresponding to the object into the neural network that outputs the behavior feature in response to the input of the partial image, and obtains the feature indicated by the intermediate layer in the neural network. Acquire and extract the behavioral feature of the object based on the acquired feature.
The object tracking device according to any one of claims 1 to 10.
請求項1から10のいずれか1項に記載のオブジェクト追跡装置。 The behavior feature extraction unit is one or more of the above, in which the partial image corresponding to the object is associated with the object in a neural network that outputs the behavior feature in response to the input of the partial image. The partial image corresponding to the other object is input, the feature amount indicated by the intermediate layer in the neural network is acquired, and the behavioral feature amount of the object is re-extracted based on the acquired feature amount.
The object tracking device according to any one of claims 1 to 10.
所定エリアを撮像する撮像装置が3以上の複数の時刻のそれぞれで撮像した3以上の複数の撮像画像を取得するステップと、
取得された前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するステップと、
検出された前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出するステップと、
抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを行うステップと、
関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出するステップと、
再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを再度行うステップと、
を有するオブジェクト追跡方法。
Computer runs,
A step of acquiring three or more captured images captured by an imaging device that captures a predetermined area at a plurality of three or more times, respectively.
A step of detecting an object reflected in the captured image from each of the acquired plurality of captured images, and
A step of extracting a behavioral feature amount indicating the behavioral feature amount of the object based on a partial image of the captured image corresponding to the detected object, and a step of extracting the behavioral feature amount.
Based on the extracted behavioral features, a step of associating the objects detected from each of the plurality of captured images having different captured times, and a step of associating the objects.
For each of the plurality of associated objects, the behavioral feature amount is based on the partial image corresponding to the object and the partial image corresponding to each of one or more other objects associated with the object. And the steps to re-extract
A step of reassociating the objects detected from each of the plurality of captured images having different captured times based on the re-extracted behavioral features.
Object tracking method with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020009676A JP7229954B2 (en) | 2020-01-24 | 2020-01-24 | Object tracking device and object tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020009676A JP7229954B2 (en) | 2020-01-24 | 2020-01-24 | Object tracking device and object tracking method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021117635A true JP2021117635A (en) | 2021-08-10 |
JP7229954B2 JP7229954B2 (en) | 2023-02-28 |
Family
ID=77175643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009676A Active JP7229954B2 (en) | 2020-01-24 | 2020-01-24 | Object tracking device and object tracking method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7229954B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117953580A (en) * | 2024-01-29 | 2024-04-30 | 浙江大学 | Behavior recognition method and system based on cross-camera multi-target tracking and electronic equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010273112A (en) * | 2009-05-21 | 2010-12-02 | Fujifilm Corp | Person tracking method, person tracking device, and person tracking program |
JP2017111660A (en) * | 2015-12-17 | 2017-06-22 | 日本電信電話株式会社 | Video pattern learning device, method and program |
JP2018181273A (en) * | 2017-04-21 | 2018-11-15 | キヤノン株式会社 | Image processing apparatus, method thereof, and program |
-
2020
- 2020-01-24 JP JP2020009676A patent/JP7229954B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010273112A (en) * | 2009-05-21 | 2010-12-02 | Fujifilm Corp | Person tracking method, person tracking device, and person tracking program |
JP2017111660A (en) * | 2015-12-17 | 2017-06-22 | 日本電信電話株式会社 | Video pattern learning device, method and program |
JP2018181273A (en) * | 2017-04-21 | 2018-11-15 | キヤノン株式会社 | Image processing apparatus, method thereof, and program |
Non-Patent Citations (3)
Title |
---|
ATIF ILYAS ET AL.: ""A combined motion and appearance model for human tracking in multiple cameras environment"", 2010 6TH INTERNATIONAL CONFERENCE ON EMERGING TECHNOLOGIES (ICET), JPN6022053931, 18 October 2010 (2010-10-18), US, pages 198 - 203, XP031803651, ISSN: 0004988595 * |
GURKIRT SINGH ET AL.: ""Online Real-Time Multiple Spatiotemporal Action Localisation and Prediction"", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022053934, 22 October 2017 (2017-10-22), US, pages 3657 - 3666, ISSN: 0004988596 * |
西村 仁志、外3名: ""基本行動特徴量を用いたオンライン複数人物追跡"", 第34回 画像符号化シンポジウム 第24回 映像メディア処理シンポジウム, JPN6022053935, 18 November 2019 (2019-11-18), JP, pages 168 - 169, ISSN: 0004947525 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117953580A (en) * | 2024-01-29 | 2024-04-30 | 浙江大学 | Behavior recognition method and system based on cross-camera multi-target tracking and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP7229954B2 (en) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10740652B2 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
JP7252188B2 (en) | Image processing system, image processing method and program | |
JP4208898B2 (en) | Object tracking device and object tracking method | |
US9672634B2 (en) | System and a method for tracking objects | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
CN108140291A (en) | Mist detecting device, method and image processing equipment | |
JP2006079272A (en) | Abnormal behavior detection apparatus and abnormal behavior detection method | |
US20230274442A1 (en) | Machine learning feature vector generator using depth image foreground attributes | |
CN108256567B (en) | Target identification method and system based on deep learning | |
JP6525542B2 (en) | Abnormality detection method, abnormality detection device, and program | |
KR20180020123A (en) | Asynchronous signal processing method | |
JP6597914B2 (en) | Image processing apparatus, image processing method, and program | |
KR20210099450A (en) | Far away small drone detection method Using Deep Learning | |
Nghiem et al. | Background subtraction in people detection framework for RGB-D cameras | |
EP2899706B9 (en) | Method and system for analyzing human behavior in an intelligent surveillance system | |
JP2016200971A (en) | Learning apparatus, identification apparatus, learning method, identification method and program | |
JP2021117635A (en) | Object tracking device and object tracking method | |
JP6713422B2 (en) | Learning device, event detection device, learning method, event detection method, program | |
JP6030457B2 (en) | Image detection apparatus, control program, and image detection method | |
Bhattacharyya et al. | Long-term image boundary extrapolation | |
JP4800367B2 (en) | Moving object extraction device, moving object extraction method, and moving object extraction program | |
US20220343112A1 (en) | Learning data generation device, learning data generation method, and learning data generation program | |
JP7349290B2 (en) | Object recognition device, object recognition method, and object recognition program | |
JP2015184743A (en) | Image processor and object recognition method | |
CN108121994B (en) | Method and device for extracting features in detection of target shape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7229954 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |