JP2021149686A - Device, method, and program for tracking mobile object - Google Patents

Device, method, and program for tracking mobile object Download PDF

Info

Publication number
JP2021149686A
JP2021149686A JP2020050234A JP2020050234A JP2021149686A JP 2021149686 A JP2021149686 A JP 2021149686A JP 2020050234 A JP2020050234 A JP 2020050234A JP 2020050234 A JP2020050234 A JP 2020050234A JP 2021149686 A JP2021149686 A JP 2021149686A
Authority
JP
Japan
Prior art keywords
moving object
congestion
degree
candidate
candidate positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020050234A
Other languages
Japanese (ja)
Inventor
豪二 水戸
Goji Mito
豪二 水戸
匠 宗片
Takumi Munekata
匠 宗片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2020050234A priority Critical patent/JP2021149686A/en
Publication of JP2021149686A publication Critical patent/JP2021149686A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a mobile object tracking device that can prevent delay of tracking and reduction of accuracy even when the congestion of mobile objects are heavy.SOLUTION: The mobile object tracking device includes: congestion level estimation means 50 for estimating the congestion level of mobile objects taken in an image; candidate position number allocation means 51 for allocating the candidate position number of each mobile object according to the congestion level; candidate position setting means 52 for determining the same number of candidate positions of the mobile objects at the current time as the number of candidate position numbers allocated to each mobile object, from the positions of the mobile objects in the past; and object position determination means 53 for obtaining the object position of the mobile objects at the current time on the basis of a plurality of candidate positions of each mobile object.SELECTED DRAWING: Figure 2

Description

本発明は、 順次撮影した撮影画像に基づいて移動物体を追跡する技術に関する。 The present invention relates to a technique for tracking a moving object based on captured images taken sequentially.

警備等の目的で、カメラによって順次撮影した撮影画像を解析して人等の移動物体を追跡することが行われ、追跡の処理に用いられる手法のひとつとしてパーティクルフィルタ(Particle Filter)が知られている。パーティクルフィルタによれば、追跡中の移動物体それぞれの移動先の候補(候補位置)を表す多数の仮説を設定し、撮影画像において各候補位置に当該移動物体の特徴が現れている度合いに基づいて当該移動物体の位置を決定する。 For the purpose of security, etc., moving objects such as people are tracked by analyzing the images taken sequentially by the camera, and a particle filter is known as one of the methods used in the tracking process. There is. According to the particle filter, a large number of hypotheses representing the candidates (candidate positions) of the moving destination of each moving object being tracked are set, and the characteristics of the moving object appear at each candidate position in the captured image based on the degree of appearance. Determine the position of the moving object.

例えば、特許文献1には、移動物体を構成するパーツごとに候補位置を設定する移動物体追跡装置が記載されている。この移動物体追跡装置においては、各移動物体に設定する候補位置の総数が予め定められており、各パーツに割り当てる候補位置の個数を当該パーツの過去追跡信頼度に応じて定めることによって、姿勢変動によるオクルージョンが原因で追跡困難となったパーツの仮説を他のパーツに割り当てて追跡に有効な仮説の減少を防止している。 For example, Patent Document 1 describes a moving object tracking device that sets a candidate position for each part constituting a moving object. In this moving object tracking device, the total number of candidate positions to be set for each moving object is predetermined, and the number of candidate positions to be assigned to each part is determined according to the past tracking reliability of the part to change the posture. By assigning the hypothesis of the part that is difficult to track due to occlusion to other parts, the hypothesis that is effective for tracking is prevented from decreasing.

特開2016−170603号公報Japanese Unexamined Patent Publication No. 2016-17603

しかしながら、従来技術においては、1移動物体当たりの候補位置の個数が固定値であったため、イベント会場のように人が多く集まるエリアでの追跡に適用した場合、混雑度が高まると1撮影画像当たりの候補位置の個数が増加しすぎて追跡処理の大幅な遅延を生じさせる問題があった。 However, in the prior art, the number of candidate positions per moving object is a fixed value, so when applied to tracking in an area where many people gather, such as an event venue, if the degree of congestion increases, one captured image will be used. There is a problem that the number of candidate positions of the above increases too much, causing a large delay in the tracking process.

また、遅延防止のために、1撮影画像当たりの候補位置の個数を定め、当該個数を追跡中の移動物体で等分することも考えられる。しかし、その場合、混雑度が高まると1移動物体当たりの候補位置の個数が少なくなり過ぎて追跡精度が低下する問題があった。 Further, in order to prevent delay, it is conceivable to determine the number of candidate positions per captured image and divide the number equally by the moving objects being tracked. However, in that case, when the degree of congestion increases, the number of candidate positions per moving object becomes too small, and there is a problem that the tracking accuracy deteriorates.

本発明は、上記問題を鑑みてなされたものであり、移動物体の混雑度が高くなった場合でも追跡処理の遅延と精度低下を抑制できる移動物体追跡技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving object tracking technique capable of suppressing a delay in tracking processing and a decrease in accuracy even when the degree of congestion of moving objects becomes high.

(1)本発明に係る移動物体追跡装置は、順次撮影した撮影画像に基づいて1又は複数の移動物体を追跡する移動物体追跡装置であって、前記撮影画像に撮影された前記移動物体の混雑度を推定する混雑度推定手段と、前記混雑度に応じて各移動物体の候補位置数を割り当てる候補位置数割当手段と、前記各移動物体に割り当てられた前記候補位置数と同じ数だけ、過去の前記移動物体の位置から現時刻における前記移動物体の候補位置を求める候補位置設定手段と、前記各移動物体における前記複数の候補位置に基づいて、現時刻における前記移動物体の物体位置を求める物体位置判定手段と、を備える。 (1) The moving object tracking device according to the present invention is a moving object tracking device that tracks one or a plurality of moving objects based on sequentially captured images, and is crowded with the moving objects captured in the captured images. Congestion degree estimation means for estimating the degree, candidate position number allocation means for allocating the number of candidate positions of each moving object according to the congestion degree, and the same number of candidate positions as the number of candidate positions assigned to each moving object in the past A candidate position setting means for obtaining a candidate position of the moving object at the current time from the position of the moving object, and an object for obtaining an object position of the moving object at the current time based on the plurality of candidate positions in each moving object. It is provided with a position determination means.

(2)上記(1)に記載する本発明に係る移動物体追跡装置において、前記混雑度推定手段は、前記撮影画像を入力されると当該撮影画像内の任意の位置の前記混雑度を出力するよう予め学習した推定器に前記撮影画像を入力して前記撮影画像内の任意の位置の前記混雑度を推定し、前記候補位置数割当手段は、前記撮影画像上の当該移動物体の物体位置または候補位置の前記混雑度に応じて各移動物体の候補位置数を割り当てる。 (2) In the moving object tracking device according to the present invention described in (1) above, the congestion degree estimation means outputs the congestion degree at an arbitrary position in the photographed image when the photographed image is input. The captured image is input to the estimator learned in advance to estimate the degree of congestion at an arbitrary position in the captured image, and the candidate position number allocation means is the object position of the moving object on the captured image or The number of candidate positions for each moving object is assigned according to the degree of congestion of the candidate positions.

(3)上記(1)または(2)に記載する本発明に係る移動物体追跡装置において、前記候補位置数割当手段は、前記混雑度が高くなるにつれて前記移動物体の候補位置数を多く割り当てる。 (3) In the moving object tracking device according to the present invention according to the above (1) or (2), the candidate position number allocation means allocates a large number of candidate positions of the moving object as the degree of congestion increases.

(4)上記(3)に記載する本発明に係る移動物体追跡装置において、前記候補位置数割当手段は、1時刻における全追跡対象の前記移動物体の前記候補位置の総和が総数上限値に収まるように各移動物体の候補位置数を圧縮する。 (4) In the moving object tracking device according to the present invention described in (3) above, in the candidate position number allocation means, the total sum of the candidate positions of the moving objects to be tracked at one time falls within the upper limit of the total number. The number of candidate positions of each moving object is compressed so as to.

(5)上記(1)〜(4)に記載する本発明に係る移動物体追跡装置において、前記候補位置設定手段は、前記混雑度が小さいほど前記移動物体の前記候補位置を設定する範囲を広くする。 (5) In the moving object tracking device according to the present invention according to the above (1) to (4), the candidate position setting means has a wider range for setting the candidate position of the moving object as the degree of congestion is smaller. do.

(6)上記(1)に記載する本発明に係る移動物体追跡装置において、前記混雑度が一定以上の領域では、前記候補位置数割当手段、前記候補位置設定手段、前記物体位置判定手段での処理を行わず、順次撮影した前記撮影画像上における移動物体群の位置を記憶する。 (6) In the moving object tracking device according to the present invention described in (1) above, in the region where the degree of congestion is a certain level or higher, the candidate position number allocation means, the candidate position setting means, and the object position determination means are used. The position of the moving object group on the captured images sequentially captured without processing is stored.

本発明によれば、移動物体の混雑度が高くなった場合でも追跡処理の遅延と精度低下を抑制できる。 According to the present invention, it is possible to suppress a delay in tracking processing and a decrease in accuracy even when the degree of congestion of a moving object becomes high.

移動物体追跡装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the moving object tracking apparatus. 移動物体追跡装置の概略を示す機能ブロック図である。It is a functional block diagram which shows the outline of the moving object tracking apparatus. 混雑度推定部による処理を示す模式図である。It is a schematic diagram which shows the processing by a congestion degree estimation part. 混雑度に比例した候補位置数の関数を示す図である。It is a figure which shows the function of the number of candidate positions proportional to the degree of congestion. 実施形態に係る移動物体追跡装置の全体的な処理を示す概略のフロー図である。It is a schematic flow chart which shows the overall processing of the moving object tracking apparatus which concerns on embodiment. 変形例における混雑度に応じた候補位置数の関数を示す図である。It is a figure which shows the function of the number of candidate positions according to the degree of congestion in a modification.

以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。本実施形態は、撮影部と表示部とがコンピュータに接続された移動物体追跡装置であり、撮影部により順次撮影された撮影画像をコンピュータが解析して移動物体である人の追跡を行う。 Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings. The present embodiment is a moving object tracking device in which a photographing unit and a display unit are connected to a computer, and the computer analyzes captured images sequentially captured by the photographing unit to track a person who is a moving object.

本実施形態にて一例として示す移動物体追跡装置1は、移動物体ごとに、過去の位置から現時刻における位置の候補を求め、現時刻の撮影画像において候補の位置に当該移動物体の画像特徴が現れている度合いに基づいて現時刻の位置を求めるものである。以下、移動物体の位置の候補を候補位置と称する。候補位置は1時刻、1移動物体当たり複数設定されるものとし、その個数を候補位置数と称する。また、移動物体の位置を物体位置と称する。物体位置は1時刻、1移動物体当たり1つ設定されるものとする。すなわち、候補位置は物体位置の候補であり、複数の候補位置を統合して1つの物体位置が決定される。なお移動物体追跡装置1は混雑度に応じて各移動物体の候補位置数を割り当てることを特徴としている。 The moving object tracking device 1 shown as an example in the present embodiment obtains a candidate for a position at the current time from a past position for each moving object, and the image feature of the moving object is set at the candidate position in the captured image at the current time. The position at the current time is obtained based on the degree of appearance. Hereinafter, the candidate position of the moving object is referred to as a candidate position. It is assumed that a plurality of candidate positions are set for one time and one moving object, and the number of candidate positions is referred to as the number of candidate positions. Further, the position of a moving object is referred to as an object position. It is assumed that one object position is set for one time and one moving object. That is, the candidate position is a candidate for the object position, and one object position is determined by integrating a plurality of candidate positions. The moving object tracking device 1 is characterized in that the number of candidate positions of each moving object is assigned according to the degree of congestion.

図1は移動物体追跡装置1の概略の構成を示すブロック図である。移動物体追跡装置1は撮影部2、通信部3、記憶部4、画像処理部5および表示部6からなる。 FIG. 1 is a block diagram showing a schematic configuration of a moving object tracking device 1. The moving object tracking device 1 includes a photographing unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, and a display unit 6.

撮影部2はいわゆる監視カメラである。撮影部2は通信部3を介して画像処理部5と接続され、監視空間を所定の時間間隔で撮影して画像を生成し、生成した画像を順次、画像処理部5に入力する。例えば、撮影部2は、監視空間であるイベント会場に立てられたポールに当該監視空間に存在する人を俯瞰する固定視野を有して設置され、監視空間を時間間隔1/5秒で撮影してカラー画像を生成する。なお、撮影部2はカラー画像の代わりにモノクロ画像を生成してもよい。 The photographing unit 2 is a so-called surveillance camera. The photographing unit 2 is connected to the image processing unit 5 via the communication unit 3, photographs the monitoring space at predetermined time intervals to generate an image, and sequentially inputs the generated images to the image processing unit 5. For example, the photographing unit 2 is installed on a pole set up at an event venue, which is a monitoring space, with a fixed field of view overlooking a person existing in the monitoring space, and photographs the monitoring space at a time interval of 1/5 second. To generate a color image. The photographing unit 2 may generate a monochrome image instead of the color image.

通信部3は通信回路であり、その一端が画像処理部5に接続され、他端が撮影部2および表示部6と接続される。通信部3は撮影部2から画像を取得して画像処理部5に入力する。また、通信部3は画像処理部5から移動物体の追跡結果を表示部6へ出力する。 The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5 and the other end of which is connected to the photographing unit 2 and the display unit 6. The communication unit 3 acquires an image from the photographing unit 2 and inputs it to the image processing unit 5. Further, the communication unit 3 outputs the tracking result of the moving object from the image processing unit 5 to the display unit 6.

なお、撮影部2、通信部3、記憶部4、画像処理部5および表示部6の間は各部の設置場所に応じた形態で適宜接続される。例えば、撮影部2と通信部3および画像処理部5とが遠隔に設置される場合、撮影部2と通信部3との間をインターネット回線にて接続することができる。また、通信部3と画像処理部5との間はバスで接続する構成とすることができる。その他、接続手段として、LAN(Local Area Network)、各種ケーブルなどを用いることができる。 The photographing unit 2, the communication unit 3, the storage unit 4, the image processing unit 5, and the display unit 6 are appropriately connected in a form according to the installation location of each unit. For example, when the photographing unit 2, the communication unit 3, and the image processing unit 5 are installed remotely, the photographing unit 2 and the communication unit 3 can be connected by an internet line. Further, the communication unit 3 and the image processing unit 5 can be connected by a bus. In addition, a LAN (Local Area Network), various cables, or the like can be used as the connection means.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。例えば、記憶部4は学習用のデータや、学習済みモデルである推定器の情報を記憶し、画像処理部5との間でこれらの情報を入出力する。すなわち、推定器の学習に用いる情報や当該処理の過程で生じた情報などが記憶部4と画像処理部5との間で入出力される。 The storage unit 4 is a memory device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores various programs and various data. For example, the storage unit 4 stores learning data and information of an estimator that is a trained model, and inputs and outputs such information to and from the image processing unit 5. That is, information used for learning the estimator, information generated in the process of the processing, and the like are input / output between the storage unit 4 and the image processing unit 5.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)、GPU(Graphics Processing Unit)等の演算装置で構成される。画像処理部5は記憶部4からプログラムを読み出して実行することにより各種の処理手段・制御手段として動作し、必要に応じて、各種データを記憶部4から読み出し、生成したデータを記憶部4に記憶させる。例えば、画像処理部5は推定器を学習し生成すると共に、生成した推定器を通信部3経由で記憶部4に記憶させる。 The image processing unit 5 is composed of arithmetic units such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an MCU (Micro Control Unit), and a GPU (Graphics Processing Unit). The image processing unit 5 operates as various processing means / control means by reading a program from the storage unit 4 and executing the program, reads various data from the storage unit 4 as necessary, and stores the generated data in the storage unit 4. Remember. For example, the image processing unit 5 learns and generates an estimator, and stores the generated estimator in the storage unit 4 via the communication unit 3.

表示部6は、液晶ディスプレイまたは有機EL(Electro-Luminescence)ディスプレイ等であり、通信部3を経由して画像処理部5から入力される移動物体の追跡結果を表示する。 The display unit 6 is a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like, and displays the tracking result of a moving object input from the image processing unit 5 via the communication unit 3.

図2は移動物体追跡装置1の概略の機能ブロック図であり、記憶部4が混雑度記憶手段40、物体情報記憶手段41として機能し、画像処理部5が混雑度推定手段50、候補位置数割当手段51、候補位置設定手段52、物体位置判定手段53として機能する。また、通信部3が画像処理部5と協働し、画像取得手段30および追跡結果出力手段31として機能する。 FIG. 2 is a schematic functional block diagram of the moving object tracking device 1, in which the storage unit 4 functions as the congestion degree storage means 40 and the object information storage means 41, and the image processing unit 5 has the congestion degree estimation means 50 and the number of candidate positions. It functions as an allocation means 51, a candidate position setting means 52, and an object position determination means 53. Further, the communication unit 3 cooperates with the image processing unit 5 to function as the image acquisition means 30 and the tracking result output means 31.

画像取得手段30は撮影部2から順次撮影した撮影画像を取得して混雑度推定手段50および物体位置判定手段53に出力する。 The image acquisition means 30 acquires captured images sequentially captured from the photographing unit 2 and outputs the captured images to the congestion degree estimating means 50 and the object position determining means 53.

混雑度推定手段50は、撮影画像に撮影された移動物体の混雑度を推定する。混雑度推定手段50は、例えば、1時刻前の物体位置の数を撮影画像全体または撮影画像を複数のブロックに分割したブロックごとに計数することによって現時刻の混雑度(の近似値)を推定してもよい。しかし、追跡結果から混雑度を算出し、その混雑度を追跡に用いた場合、追跡精度が下がると追跡結果に基づいた混雑度の推定精度も低下してしまい、追跡精度の低下が倍化してしまう。そのため、追跡や混雑度推定の誤差が倍化してしまわないよう、追跡とは独立した処理によって混雑度を推定するのが望ましい。 The congestion degree estimation means 50 estimates the congestion degree of a moving object captured in a captured image. The congestion degree estimation means 50 estimates (approximate value) of the congestion degree at the current time by, for example, counting the number of object positions one hour ago for the entire captured image or for each block obtained by dividing the captured image into a plurality of blocks. You may. However, when the degree of congestion is calculated from the tracking result and the degree of congestion is used for tracking, if the tracking accuracy decreases, the estimation accuracy of the degree of congestion based on the tracking result also decreases, and the decrease in tracking accuracy doubles. It ends up. Therefore, it is desirable to estimate the congestion degree by a process independent of tracking so that the error of tracking and congestion degree estimation is not doubled.

すなわち好適には混雑度推定手段50は過去の撮影画像に基づかずに現時刻の撮影画像から現時刻の撮影画像上の任意の位置に撮影された移動物体の混雑度を推定する。本実施形態においては、混雑度推定手段50は、撮影画像を入力されると当該撮影画像内の任意の位置の混雑度を出力するよう予め学習した推定器に撮影画像を入力して撮影画像内の任意の位置の混雑度を推定する。具体的には、混雑度推定手段50は、撮影画像を入力されると各画素の混雑度を推定した混雑度マップを出力するよう予め学習した推定器に、撮影画像を入力して当該撮影画像の混雑度マップを出力させ、得られた混雑度マップを混雑度記憶手段40に記憶させる。 That is, preferably, the congestion degree estimation means 50 estimates the congestion degree of a moving object photographed at an arbitrary position on the photographed image at the current time from the photographed image at the current time without being based on the photographed image in the past. In the present embodiment, the congestion degree estimation means 50 inputs the photographed image into the estimator learned in advance so as to output the congestion degree at an arbitrary position in the photographed image when the photographed image is input, and within the photographed image. Estimate the degree of congestion at any position in. Specifically, the congestion degree estimation means 50 inputs a photographed image into an estimator learned in advance to output a congestion degree map that estimates the congestion degree of each pixel when the photographed image is input, and the photographed image. The congestion degree map of the above is output, and the obtained congestion degree map is stored in the congestion degree storage means 40.

推定器は具体的にはディープラーニングの技術を用いて実現できる。すなわち推定器は撮影画像を入力されると当該撮影画像の混雑度マップを出力するCNN(畳み込みニューラルネット―ワーク;convolutional neural network)でモデル化することができる。学習のために、例えば、群衆が撮影された大量の学習用画像と、学習用画像それぞれにおける各人の頭部の重心位置を平均値とし当該頭部のサイズに応じた分散を有する確率密度関数を設定して頭部ごとの当該関数の値を画素ごとに加算した混雑度マップとが用意される。そして、モデルに学習用画像それぞれを入力したときの出力を当該画像に対応する混雑度マップに近づける学習が事前に行われる。こうして得られた学習済みモデルを混雑度推定手段50のプログラムの一部をなす推定器として記憶部4に記憶させておく。例えば、“Single image crowd counting via multi-column convolutional neural network”, Zhang, Y. ,Zhou他, CVPR 2016に記載されているMCNN(multi-column convolutional neural network)は推定器の一例であり、当該論文に記載されている群衆密度マップ(crowd density map)は混雑度マップの一例である。 The estimator can be specifically realized by using deep learning technology. That is, the estimator can be modeled by a CNN (convolutional neural network) that outputs a congestion degree map of the captured image when the captured image is input. For learning, for example, a large number of learning images taken by a crowd and a probability density function having a variance according to the size of the head, with the position of the center of gravity of each person's head in each of the learning images as the average value. Is set and the value of the function for each head is added for each pixel to prepare a congestion degree map. Then, learning is performed in advance to bring the output when each of the training images is input to the model closer to the congestion degree map corresponding to the image. The trained model thus obtained is stored in the storage unit 4 as an estimator forming a part of the program of the congestion degree estimation means 50. For example, MCNN (multi-column convolutional neural network) described in “Single image crowd counting via multi-column convolutional neural network”, Zhang, Y., Zhou et al., CVPR 2016 is an example of an estimator. The crowd density map described in is an example of a congestion map.

また、混雑度推定手段50は、混雑度が閾値T3以上である超高混雑領域を検出して、超高混雑領域の情報を混雑度記憶手段40に記憶させる。超高混雑領域は俯角が小さな位置(横から撮影したようになる位置)に移動物体が密集した場合に生じる。例えば移動物体が人であれば超高混雑領域では頭と肩付近しか写らなくなる上に頭同士のオクルージョンが生じて追跡困難となる。閾値T3は事前の実験を通じて予め定めておく。 Further, the congestion degree estimating means 50 detects an ultra-high congestion region having a congestion degree of the threshold value T3 or more, and stores the information of the ultra-high congestion region in the congestion degree storage means 40. The ultra-high congestion area occurs when moving objects are densely packed at a position where the depression angle is small (a position as if taken from the side). For example, if the moving object is a human, in an ultra-highly congested area, only the vicinity of the head and shoulders can be seen, and head-to-head occlusion occurs, making tracking difficult. The threshold value T3 is predetermined through a prior experiment.

混雑度記憶手段40は、撮影画像に対して推定された混雑度を記憶する。具体的には最新所定数の混雑度マップを循環記憶する。図3は混雑度推定手段50の処理を示す模式図である。図3(a)の撮影画像に対し、出力された混雑度マップが図3(b)である。また、図3(c)は図3(a)の直線510上の混雑度を示したものである。混雑している場所ほど高い値が出力され、人物501,502,503の位置における混雑度はそれぞれ0.2,1.2,2.8と推定される。 The congestion degree storage means 40 stores the estimated congestion degree with respect to the captured image. Specifically, the latest predetermined number of congestion degree maps are cyclically stored. FIG. 3 is a schematic diagram showing the processing of the congestion degree estimation means 50. The congestion degree map output with respect to the captured image of FIG. 3 (a) is shown in FIG. 3 (b). Further, FIG. 3C shows the degree of congestion on the straight line 510 of FIG. 3A. Higher values are output in more crowded places, and the degree of congestion at the positions of persons 501, 502, and 503 is estimated to be 0.2, 1.2, and 2.8, respectively.

物体情報記憶手段41は、追跡中の移動物体の情報(物体情報)を記憶する。具体的には、追跡中の移動物体それぞれを識別する物体IDと対応付けて、当該移動物体のテンプレート、当該移動物体の物体位置、当該移動物体の仮説を記憶する。また、物体情報記憶手段41は、移動物体の形状モデルを記憶する。 The object information storage means 41 stores information (object information) of a moving object being tracked. Specifically, the template of the moving object, the object position of the moving object, and the hypothesis of the moving object are stored in association with the object ID that identifies each of the moving objects being tracked. Further, the object information storage means 41 stores a shape model of a moving object.

移動物体のテンプレートの一例は撮影画像から該当する人物の領域を切り出したテンプレート画像である。テンプレート画像に代えて、又はそれと併せて、テンプレート画像から算出される色ヒストグラムや輝度勾配等の特徴量などとしてもよい。移動物体の仮説は、物体ID、仮説ID、候補位置及び尤度などを対応付けた情報であり、移動物体と候補位置の組み合わせの数だけ生成される。なお、移動物体の物体位置や候補位置は、撮影画像の水平方向、垂直方向をそれぞれx軸,y軸とし、撮影画像における位置をx座標,y座標の組(x,y)で表す。移動物体の形状モデルの一例は立位の人を近似した楕円の図形データである。楕円に代えて矩形、又は頭部・胴部・脚部をそれぞれ近似した楕円を3つ連結した図形としてもよい。好適には形状モデルは撮影画像内の各位置の人の像の大きさの違いに対応させ、基準の図形データおよび位置と図形データの大きさを対応付けたデータで構成する。 An example of a template of a moving object is a template image obtained by cutting out an area of a corresponding person from a captured image. Instead of or in combination with the template image, a feature amount such as a color histogram or a luminance gradient calculated from the template image may be used. The hypothesis of a moving object is information in which an object ID, a hypothesis ID, a candidate position, a likelihood, and the like are associated with each other, and is generated as many as the number of combinations of the moving object and the candidate position. The object position and candidate position of the moving object are represented by a set of x-coordinates and y-coordinates (x, y), with the horizontal and vertical directions of the captured image as the x-axis and the y-axis, respectively. An example of a shape model of a moving object is graphic data of an ellipse that approximates a standing person. Instead of the ellipse, it may be a rectangle, or a figure in which three ellipses that approximate the head, body, and legs are connected. Preferably, the shape model is composed of reference graphic data and data in which the position and the size of the graphic data are associated with each other in correspondence with the difference in the size of the image of a person at each position in the captured image.

候補位置数割当手段51は混雑度に応じて各移動物体に候補位置数を割り当てる。その一例として、候補位置数割当手段51が、混雑度が高くなるにつれて移動物体の候補位置数を多く割り当てる。 The candidate position number allocation means 51 allocates the number of candidate positions to each moving object according to the degree of congestion. As an example, the candidate position number allocating means 51 allocates a large number of candidate positions of moving objects as the degree of congestion increases.

基本的には、候補位置数を増やせば、真の物体位置からのずれ(位置ずれ)の小さな候補位置が含まれる可能性が高まるため移動物体間の比較を厳格化でき、追跡精度を高めることができる。例えば真の物体位置からずれたテンプレートマッチングは背景の特徴量との比較が混ざるため移動物体の特徴量同士の厳格な比較とならない。 Basically, increasing the number of candidate positions increases the possibility that candidate positions with a small deviation (positional deviation) from the true object position will be included, so comparisons between moving objects can be tightened and tracking accuracy can be improved. Can be done. For example, template matching that deviates from the true object position is not a strict comparison between the features of moving objects because the comparison with the features of the background is mixed.

しかし、候補位置数を増やすほど処理負荷は増加する。そして、混雑度が高まるほど移動物体間の距離は近くなる上に近接移動物体の数も増えるため位置ずれによる追跡精度低下が生じやすくなる。他方、混雑度が低くなるほど移動物体間の距離は遠くなり近接移動物体の数は減るため位置ずれによる追跡精度低下は生じにくくなる。 However, the processing load increases as the number of candidate positions increases. As the degree of congestion increases, the distance between moving objects becomes shorter and the number of moving objects in close proximity increases, so that the tracking accuracy tends to decrease due to misalignment. On the other hand, as the degree of congestion decreases, the distance between moving objects increases and the number of nearby moving objects decreases, so that the tracking accuracy is less likely to decrease due to misalignment.

よって、混雑度が高まるほど各移動物体の候補位置数を増やすことで混雑による追跡精度低下を防止でき、混雑度が低い場合は各移動物体の候補位置数を少なく抑えることで処理負荷を抑えることができるようになる。 Therefore, as the degree of congestion increases, the number of candidate positions for each moving object can be increased to prevent a decrease in tracking accuracy due to congestion, and when the degree of congestion is low, the number of candidate positions for each moving object can be reduced to reduce the processing load. Will be able to.

このようにすることで、例えば、撮影画像全体で一つの混雑度を推定する場合、混雑度が高い期間に処理の遅延が生じてもその後の混雑度が低下した期間に短時間で遅延を解消できる。また、例えば、複数の撮影部で撮影した撮影画像ごとに一つの混雑度を推定する場合、撮影画像間での移動物体の分布の偏りを利用して、混雑による追跡精度低下を防止しつつ処理負荷を抑えることができる。 By doing so, for example, when estimating one congestion degree for the entire captured image, even if a processing delay occurs during the period when the congestion degree is high, the delay is eliminated in a short time during the subsequent period when the congestion degree decreases. can. Further, for example, when estimating one degree of congestion for each image captured by a plurality of imaging units, processing is performed while preventing a decrease in tracking accuracy due to congestion by utilizing the bias of the distribution of moving objects among the captured images. The load can be suppressed.

また、候補位置数割当手段51が、撮影画像における移動物体それぞれの物体位置の混雑度に応じて当該移動物体の候補位置数を割り当てる構成としてもよい。つまり、物体位置における混雑度が高いと予測される移動物体については候補位置数を増やし、物体位置における混雑度が低いと予測される移動物体の候補位置数を少なく抑える。こうすることで、撮影画像内における移動物体の分布の偏りを利用して、混雑による追跡精度低下を防止しつつ処理負荷を抑えることができる。 Further, the candidate position number allocating means 51 may allocate the number of candidate positions of the moving object according to the degree of congestion of the object position of each moving object in the captured image. That is, the number of candidate positions is increased for a moving object that is predicted to have a high degree of congestion at the object position, and the number of candidate positions for a moving object that is predicted to have a low degree of congestion at the object position is suppressed to a small number. By doing so, it is possible to suppress the processing load while preventing the tracking accuracy from being lowered due to congestion by utilizing the bias of the distribution of moving objects in the captured image.

具体的には、候補位置数割当手段51は、混雑度記憶手段40に記憶されている混雑度マップと物体情報記憶手段41に記憶されている各移動物体の物体位置および移動物体の数とを参照して、各移動物体の候補位置数を決定し、決定した候補位置数を候補位置設定手段52に出力する。 Specifically, the candidate position number allocation means 51 sets the congestion degree map stored in the congestion degree storage means 40, the object position of each moving object stored in the object information storage means 41, and the number of moving objects. With reference to this, the number of candidate positions of each moving object is determined, and the determined number of candidate positions is output to the candidate position setting means 52.

候補位置数割当手段51による移動物体それぞれに割り当てる候補位置数の算出方法の具体例を示す。図4に示す関数(a)〜(d)は、混雑度に応じた候補位置数を算出する関数であり、これに基づき混雑度から候補位置数を算出する。 A specific example of a method of calculating the number of candidate positions to be assigned to each moving object by the candidate position number allocation means 51 is shown. The functions (a) to (d) shown in FIG. 4 are functions for calculating the number of candidate positions according to the degree of congestion, and based on this, the number of candidate positions is calculated from the degree of congestion.

(d)は最も単純な候補位置数を算出する関数であり、混雑度に比例して候補位置数が多くなる。これに対して(c)では混雑度が閾値T1未満の場合は候補位置数は一定であり混雑度が閾値T1以上である場合は混雑度に比例して候補位置数が多くなる。混雑度が閾値T1未満の場合の候補位置数は1移動物体に割り当てる候補位置数の最小値であり事前の実験を通じて設定される。最小値を設定することで混雑度推定の誤差の影響で実際には移動物体が存在する位置の混雑度が低い値となり候補位置数が極端に少なく設定されてしまうことを防ぐことができる。一方で、追跡人物が移動可能な範囲は、ある程度限られており、候補位置数を必要以上に増やしても精度の向上は期待できない。このため(b)では候補位置数が一定数(最大値)に到達する閾値T2以上の混雑度である場合は混雑度がさらに上昇したとしても候補位置数を最大値で一定としている。(a)は候補位置数に最小値と最大値の両方が設定されている関数である。また、図4中のT3は超高混雑領域を弁別するための閾値である。 (D) is the simplest function for calculating the number of candidate positions, and the number of candidate positions increases in proportion to the degree of congestion. On the other hand, in (c), when the degree of congestion is less than the threshold value T1, the number of candidate positions is constant, and when the degree of congestion is greater than or equal to the threshold value T1, the number of candidate positions increases in proportion to the degree of congestion. The number of candidate positions when the degree of congestion is less than the threshold value T1 is the minimum value of the number of candidate positions assigned to one moving object, and is set through a prior experiment. By setting the minimum value, it is possible to prevent the number of candidate positions from being set to be extremely small because the degree of congestion at the position where the moving object actually exists becomes a low value due to the influence of the error in estimating the degree of congestion. On the other hand, the range in which the tracked person can move is limited to some extent, and even if the number of candidate positions is increased more than necessary, improvement in accuracy cannot be expected. Therefore, in (b), when the number of candidate positions reaches a certain number (maximum value) and the degree of congestion is equal to or higher than the threshold value T2, the number of candidate positions is kept constant at the maximum value even if the degree of congestion further increases. (A) is a function in which both the minimum value and the maximum value are set for the number of candidate positions. Further, T3 in FIG. 4 is a threshold value for discriminating an ultra-highly congested region.

[総数上限値による候補位置数の圧縮]
上記関数で追跡人物に対する候補位置数を定めた場合、高混雑領域に存在する人物の数が増えてくると、全追跡人物の候補位置数の合計が大きくなり処理に遅延が発生する。
[Compression of the number of candidate positions by the total number upper limit]
When the number of candidate positions for the tracked person is determined by the above function, as the number of people existing in the highly congested area increases, the total number of candidate positions of all the tracked persons becomes large and the processing is delayed.

例えば監視空間が交差点の信号待ち領域である場合、混雑度が信号の周期によって定期的に変動するため、一時的に高混雑状況に伴う遅延が発生しても、混雑解消以降に遅延を復旧することが可能である。一方で、イベント会場の入退場口などでは、混雑が長時間継続する可能性がある。このような監視空間では、遅延が発生すると復旧するのが困難であるため、あらかじめ候補位置数に総数上限値を設け遅延を発生させないことが望ましい。 For example, when the monitoring space is a signal waiting area at an intersection, the degree of congestion changes periodically depending on the signal cycle, so even if a delay due to a high congestion situation occurs temporarily, the delay is restored after the congestion is resolved. It is possible. On the other hand, there is a possibility that congestion will continue for a long time at the entrance and exit of the event venue. In such a monitoring space, it is difficult to recover when a delay occurs. Therefore, it is desirable to set an upper limit of the total number of candidate positions in advance so that the delay does not occur.

具体的には各人物に対し上記処理において1時刻における全追跡対象の移動物体の候補位置の総和が総数上限値に収まるように一度求めた各移動物体の候補位置数を圧縮する。ある追跡人物iに対する候補位置数は、混雑度diと関数f(x)から求まる圧縮前の候補位置数をf(di)とすると以下の(1)式とすることができる。なお、総数上限値は、1時刻に割り当てる候補位置の上限数である。換言すると候補位置数の総和の上限値である。総数上限値は、予め移動物体追跡装置の性能等に応じて処理の遅延が生じない範囲の値に定める。 Specifically, the number of candidate positions of each moving object once obtained for each person so that the sum of the candidate positions of all the moving objects to be tracked at one time falls within the upper limit of the total number is compressed. Number candidate position for a tracking person i can be a congestion degree d i and the function f to the number of candidate positions before compression obtained from (x) f (d i) and the following equation (1). The upper limit of the total number is the upper limit of the candidate positions assigned to one time. In other words, it is the upper limit of the total number of candidate positions. The upper limit of the total number is set in advance to a value within a range in which processing delay does not occur depending on the performance of the moving object tracking device and the like.

Figure 2021149686
Figure 2021149686

ここで、min(1.0,総数上限値/Σjf(dj))は候補位置数の圧縮率であり、1.0を最大値とすることで、総候補位置数Σjf(dj)が総数上限値に到達していない場合は、候補位置数を維持している。これは、圧縮前の候補位置数が必要十分数であるということを前提にしているためである。このように総数上限値を設けることで、総数上限値を超えない範囲で混雑度に応じた候補位置数の割り当てが可能となるため、混雑が長時間継続する監視空間であっても追跡精度低下を防止しつつ遅延の発生を防止できる。 Here, min (1.0, upper limit of total number / Σ j f (d j )) is the compression rate of the number of candidate positions, and by setting 1.0 as the maximum value, the total number of candidate positions Σ j f ( If d j ) does not reach the upper limit of the total number, the number of candidate positions is maintained. This is because it is premised that the number of candidate positions before compression is a necessary and sufficient number. By setting the upper limit of the total number in this way, it is possible to allocate the number of candidate positions according to the degree of congestion within the range not exceeding the upper limit of the total number, so that the tracking accuracy is lowered even in the monitoring space where congestion continues for a long time. It is possible to prevent the occurrence of delay while preventing the occurrence of delay.

[各追跡人物に対する候補位置数の下限数]
総数上限値を用いて候補位置数を圧縮する場合、圧縮された候補位置数が著しく少ない数となり、極端に低混雑領域での追跡性能が低下する可能性がある。これを防ぐため、追跡人物に対する候補位置数の下限数を設定してもよい。(2)式は各移動物体に下限数を割り当てたうえで、総数上限値から割り当て済みの候補位置数を減じ残余数とし、各移動物体の圧縮前の候補位置数から下限数を除いた数の比に応じて分配する。なお、下限数は、1移動物体に割り当てる候補位置の下限数である。下限数は、予めの実験を通じ、混雑度が低い状態で目標値以上の追跡精度が得られる最小の割当数に定める。
[Minimum number of candidate positions for each tracked person]
When the number of candidate positions is compressed using the upper limit of the total number, the number of compressed candidate positions becomes extremely small, and the tracking performance in an extremely low congestion area may deteriorate. In order to prevent this, the lower limit of the number of candidate positions for the tracked person may be set. In equation (2), after assigning the lower limit to each moving object, the number of candidate positions already assigned is subtracted from the upper limit of the total number to obtain the residual number, and the number of candidate positions before compression of each moving object is subtracted from the lower limit. Distribute according to the ratio of. The lower limit is the lower limit of the candidate positions assigned to one moving object. The lower limit is set to the minimum number of allocations that can obtain tracking accuracy higher than the target value in a low congestion state through prior experiments.

Figure 2021149686
Figure 2021149686

候補位置数割当手段51は、各移動物体について、当該移動物体の物体位置から当該移動物体が存在し得る領域を求め、混雑度マップから当該領域の混雑度を取得して当該移動物体が存在し得る領域についての混雑度とする。本実施形態においては、候補位置数割当手段51は、人物ごとに、物体情報記憶手段41に記憶されている過去の物体位置に現時刻の物体位置を外挿し、外挿した現時刻の物体位置の混雑度を取得する。ただし、過去の物体位置が2つ以上存在しない人物については1時刻前の物体位置の混雑度を取得する。その場合は混雑度マップも1時刻前のものを用いることが望ましい。別の実施形態においては、候補位置数割当手段51は、人物ごとに、外挿した現時刻の物体位置とその周囲の混雑度を読み取ってそれらの代表値を移動物体が存在し得る領域についての混雑度とする。代表値は平均値、最頻値または最大値とすることができる。ただし、過去の物体位置が2つ以上存在しない人物については1時刻前の物体位置とその周囲の混雑度の代表値とする。さらに、1時刻前の混雑度マップに1時刻前の候補位置を適用して混雑度を取得しても良い。その場合、1時刻前の混雑度を1時刻前の候補位置の尤度で重み付け平均して移動物体の混雑度を算出する。 For each moving object, the candidate position number allocation means 51 obtains an area where the moving object can exist from the object position of the moving object, acquires the degree of congestion of the area from the congestion degree map, and the moving object exists. It is the degree of congestion for the area to be obtained. In the present embodiment, the candidate position number allocation means 51 extrapolates the object position at the current time to the past object position stored in the object information storage means 41 for each person, and the extrapolated object position at the current time. Get the degree of congestion. However, for a person whose past object position does not exist more than once, the degree of congestion of the object position one time ago is acquired. In that case, it is desirable to use the congestion map one hour ago. In another embodiment, the candidate position number allocation means 51 reads the extrapolated current time object position and the degree of congestion around it for each person, and sets their representative values as the area in which the moving object can exist. The degree of congestion. The representative value can be an average value, a mode value, or a maximum value. However, for a person who does not have two or more object positions in the past, the representative value of the object position one time ago and the degree of congestion around it is used. Further, the congestion degree may be acquired by applying the candidate position one hour ago to the congestion degree map one hour ago. In that case, the degree of congestion of the moving object is calculated by weighting and averaging the degree of congestion one hour ago with the likelihood of the candidate position one hour ago.

候補位置設定手段52は、各移動物体に割り当てられた候補位置数と同じ数だけ、過去の移動物体の位置から現時刻における移動物体の候補位置を求める。すなわち、追跡中の各移動物体について、当該移動物体の過去の物体位置、または、過去の候補位置、または、過去の物体位置および候補位置から当該移動物体の現時刻の候補位置を当該移動物体に割り当てられた候補位置数と同数だけ設定し、当該移動物体の各候補位置を含んだ仮説を設定する。 The candidate position setting means 52 obtains the candidate positions of the moving object at the current time from the positions of the moving objects in the past by the same number as the number of candidate positions assigned to each moving object. That is, for each moving object being tracked, the past object position or the past candidate position of the moving object, or the past object position and the candidate position of the current time of the moving object from the past object position and the candidate position are used as the moving object. Set as many as the number of assigned candidate positions, and set a hypothesis that includes each candidate position of the moving object.

具体的には、候補位置数割当手段51から入力された候補位置数と物体情報記憶手段41に記憶されている各移動物体の過去の物体位置または/および過去の仮説を必要に応じて参照して、各移動物体に対する現時刻の仮説を設定し、設定した仮説を物体情報記憶手段41に記憶させる。さらに、混雑度記憶手段40から混雑度マップを入力して、それを参照してもよい。 Specifically, the number of candidate positions input from the candidate position number allocation means 51 and the past object position or / and past hypothesis of each moving object stored in the object information storage means 41 are referred to as necessary. Then, a hypothesis of the current time is set for each moving object, and the set hypothesis is stored in the object information storage means 41. Further, a congestion degree map may be input from the congestion degree storage means 40 and referred to.

候補位置設定手段52は、移動物体のそれぞれについて、現時刻において移動物体の存在が予測される候補位置を設定する。現時刻tにおける第i番の候補位置Pi,tは過去の物体位置又は過去の候補位置に基づき、次の3つの方法のいずれかにより算出することができる。 The candidate position setting means 52 sets, for each of the moving objects, the candidate positions where the existence of the moving object is predicted at the current time. The i-th candidate position Pi, t at the current time t can be calculated by any of the following three methods based on the past object position or the past candidate position.

〔第1方法〕
一時刻前の物体位置Qt-1を中心に候補位置Pi,tを分布させる方法である。候補位置設定手段52は、移動物体ごとに、乱数に基づいて拡散量Δ0を設定しては物体位置Qt-1に拡散量Δ0を加算して候補位置Pi,tとする処理(Pi,t=Qt-1+Δ0)を候補位置数と同じ回数だけ行う。
[First method]
This is a method of distributing candidate positions P i and t around the object position Q t-1 one time ago. The candidate position setting means 52 sets the diffusion amount Δ0 based on a random number for each moving object, and adds the diffusion amount Δ0 to the object position Q t-1 to obtain the candidate positions P i and t (P i). , T = Q t-1 + Δ0) is performed as many times as the number of candidate positions.

〔第2方法〕
現在の物体位置を予測した予測値qtを中心に候補位置Pi,tを分布させる方法である。候補位置設定手段52は、移動物体ごとに、まず過去の複数の物体位置に等速運動モデル等の運動モデル又はカルマンフィルタ等の予測フィルタを適用して予測値qtを予測し、次に乱数に基づいて拡散量Δ1を設定しては予測値qtに拡散量Δ1を加算して候補位置Pi,tとする処理(Pi,t=qt+Δ1)を候補位置数と同じ回数だけ行う。
[Second method]
This is a method of distributing candidate positions P i and t around a predicted value q t that predicts the current object position. The candidate position setting means 52 first applies a motion model such as a constant velocity motion model or a prediction filter such as a Kalman filter to a plurality of past object positions for each moving object to predict a predicted value q t , and then converts it into a random number. Based on this, the diffusion amount Δ1 is set, and the process of adding the diffusion amount Δ1 to the predicted value q t to obtain the candidate positions P i, t (P i, t = q t + Δ1) is performed as many times as the number of candidate positions. ..

〔第3方法〕
過去の候補位置から現在の候補位置を予測する方法である。まず、候補位置設定手段52は、移動物体ごとに、候補位置数と同数の仮説を、重複を許容して1時刻前の仮説の中から乱数に基づいて選出する。1時刻前の各仮説の当選確率は、例えば、当該移動物体の1時刻前の仮説の尤度の総和に対する当該仮説の尤度の比とする。次に、候補位置設定手段52は、移動物体ごとに、選出した各仮説について、当該仮説および当該仮説に対応する過去の複数の仮説の候補位置に上記運動モデル又は上記予測フィルタを適用して予測値qi,tを算出するとともに乱数に基づいて拡散量Δ2を設定し、予測値qi,tに拡散量Δ2を加算して候補位置Pi,tとする(Pi,t=qi,t+Δ2)。
[Third method]
This is a method of predicting the current candidate position from the past candidate position. First, the candidate position setting means 52 selects the same number of hypotheses as the number of candidate positions for each moving object based on random numbers from the hypotheses one hour ago, allowing duplication. The winning probability of each hypothesis one hour ago is, for example, the ratio of the likelihood of the hypothesis to the sum of the likelihoods of the hypotheses one hour ago of the moving object. Next, the candidate position setting means 52 predicts each hypothesis selected for each moving object by applying the motion model or the prediction filter to the candidate positions of the hypothesis and a plurality of past hypotheses corresponding to the hypothesis. The value q i, t is calculated and the diffusion amount Δ2 is set based on the random number, and the diffusion amount Δ2 is added to the predicted value q i, t to obtain the candidate position P i, t (P i, t = q i). , T + Δ2).

本実施形態においては、速度が算出可能になるまでは第1方法(物体位置判定手段53が新規移動物体として登録した時刻を含め2時刻〜5時刻)で候補位置が算出され、速度が算出可能になって以降は第3方法で候補位置が算出される。 In the present embodiment, the candidate position is calculated by the first method (2 hours to 5 hours including the time registered as a new moving object by the object position determination means 53) until the speed can be calculated, and the speed can be calculated. After that, the candidate position is calculated by the third method.

また、混雑度が小さいほど移動物体の候補位置を設定する範囲を広くしてもよい。すなわち、候補位置設定手段52は、上記第1方法から第3方法に記載された拡散量Δ0〜Δ2を混雑度が小さいほど大きな量とする。例えば、拡散量Δ0〜Δ2は、混雑度の高い領域にいる人物に対しては0cm〜60cmの範囲に設定され、混雑度の低い領域にいる人物に対しては、30cm〜100cmの範囲に設定される。このようにする理由は以下の通りである。すなわち混雑度が小さいと移動物体が動き得る範囲が広くなるため候補位置を広い範囲に設定しなければ対応づけのし損ねが生じやすくなる。そこで候補位置を設定する範囲を混雑度に基づいて制御することで混雑度が小さい場合の対応付けのし損ねを防止できる。特に、追跡とは独立して推定した混雑度で追跡のパラメータを制御できるため、信頼性の高い制御が可能となる。 Further, the smaller the degree of congestion, the wider the range for setting the candidate position of the moving object may be. That is, the candidate position setting means 52 sets the diffusion amount Δ0 to Δ2 described in the first to third methods as a larger amount as the degree of congestion is smaller. For example, the diffusion amount Δ0 to Δ2 is set in the range of 0 cm to 60 cm for a person in a highly congested area and in the range of 30 cm to 100 cm for a person in a less congested area. Will be done. The reason for doing this is as follows. That is, if the degree of congestion is small, the range in which the moving object can move becomes wide, so if the candidate positions are not set in a wide range, it is easy for the matching to fail. Therefore, by controlling the range in which the candidate position is set based on the degree of congestion, it is possible to prevent a failure in associating when the degree of congestion is small. In particular, since the tracking parameters can be controlled by the congestion degree estimated independently of the tracking, highly reliable control becomes possible.

物体位置判定手段53は、各移動物体における複数の候補位置に基づいて、現時刻における移動物体の物体位置を求める。すなわち、追跡中の各移動物体について、当該移動物体に対して現時刻に設定された複数の仮説それぞれが示す候補位置に対応する現時刻の撮影画像上の位置に当該移動物体の特徴量が現れている度合いを仮説の尤度として算出し、複数の仮説が示す候補位置を当該仮説の尤度の高さに応じて統合することによって当該移動物体の現時刻における物体位置を算出する。ただし、撮影画像外に位置している仮説および超高混雑度領域に位置している仮説については、尤度の信頼性が低くなるため予め算出対象から除外する。 The object position determining means 53 obtains the object position of the moving object at the current time based on a plurality of candidate positions in each moving object. That is, for each moving object being tracked, the feature amount of the moving object appears at the position on the captured image at the current time corresponding to the candidate position indicated by each of the plurality of hypotheses set at the current time for the moving object. The degree of this is calculated as the likelihood of the hypothesis, and the object position at the current time of the moving object is calculated by integrating the candidate positions indicated by the plurality of hypotheses according to the high likelihood of the hypothesis. However, the hypothesis located outside the captured image and the hypothesis located in the ultra-high congestion region are excluded from the calculation target in advance because the reliability of the likelihood is low.

具体的には、物体位置判定手段53は、物体情報記憶手段41に記憶されている各移動物体の現時刻の仮説と形状モデルとテンプレートとを読み出し、各移動物体について、当該移動物体の仮説が示す候補位置に形状モデルを配置して形状モデルと重なる領域の部分画像を撮影画像から抽出し、部分画像の画像特徴と当該移動物体のテンプレートの画像特徴との類似度を算出し、類似度に応じた尤度を算出する。また、物体位置判定手段53は物体情報記憶手段41に尤度を仮説に対応付けて追加記憶させる。 Specifically, the object position determination means 53 reads out the current time hypothesis, the shape model, and the template of each moving object stored in the object information storage means 41, and for each moving object, the hypothesis of the moving object is obtained. A shape model is placed at the indicated candidate position, a partial image of the area overlapping the shape model is extracted from the captured image, the similarity between the image feature of the partial image and the image feature of the template of the moving object is calculated, and the similarity is calculated. Calculate the corresponding likelihood. Further, the object position determination means 53 additionally stores the likelihood in the object information storage means 41 in association with the hypothesis.

その際、物体位置判定手段53は、さらに、背景画像と撮影画像との差分処理を行って背景差分領域を検出し、各移動物体について、当該移動物体の部分画像において背景差分領域が占める割合に応じた補正値で尤度を補正してもよい。背景画像は後述する新規移動物体の検出処理のために記憶部4に記憶されている。 At that time, the object position determining means 53 further performs subtraction processing between the background image and the captured image to detect the background subtraction region, and for each moving object, the ratio of the background subtraction region to the partial image of the moving object is set. The likelihood may be corrected with a corresponding correction value. The background image is stored in the storage unit 4 for the detection process of a new moving object, which will be described later.

物体位置判定手段53は、移動物体ごとに、当該移動物体の仮説が示す候補位置を当該仮説の尤度に基づいて統合して当該移動物体の物体位置を算出する。好適には、当該移動物体の仮説が示す候補位置を当該仮説の尤度で重みづけて平均した重み付け平均値を当該移動物体の物体位置とする。また、予め設定された閾値TL以上の尤度を複数選出し、選出された尤度と組をなしている候補位置を当該尤度で重み付けて平均した重み付け平均値を物体位置と判定することもできる。また、尤度の高い順に上位所定個数の尤度を選出し、選出された尤度と組をなしている候補位置を当該尤度で重み付けて平均した重み付け平均値を物体位置と判定することもできる。また、各移動物体について最大の尤度を選出するとともに当該尤度と閾値TLとを比較し、最大の尤度が閾値TL以上であれば当該尤度と組をなしている候補位置を物体位置と判定してもよい。 The object position determining means 53 calculates the object position of the moving object by integrating the candidate positions indicated by the hypothesis of the moving object for each moving object based on the likelihood of the hypothesis. Preferably, the weighted average value obtained by weighting the candidate positions indicated by the hypothesis of the moving object with the likelihood of the hypothesis and averaging them is used as the object position of the moving object. It is also possible to select a plurality of likelihoods having a threshold value TL or more set in advance, and determine the weighted average value obtained by weighting and averaging the candidate positions paired with the selected likelihoods as the object position. can. It is also possible to select the top predetermined number of likelihoods in descending order of likelihood, and determine the weighted average value obtained by weighting and averaging the candidate positions paired with the selected likelihood as the object position. can. In addition, the maximum likelihood is selected for each moving object, the likelihood is compared with the threshold TL, and if the maximum likelihood is equal to or higher than the threshold TL, the candidate position paired with the likelihood is set as the object position. May be determined.

算出した尤度を仮説に対応付けて物体情報記憶手段41に記憶させ、算出した物体位置を移動物体と対応付けて物体情報記憶手段41に記憶させる。 The calculated likelihood is associated with the hypothesis and stored in the object information storage means 41, and the calculated object position is associated with the moving object and stored in the object information storage means 41.

また、物体位置判定手段53は、追跡中の移動物体について、物体位置やテンプレートの更新処理を行うと共に、新規移動物体の存在を判定し、当該新規移動物体について物体情報を登録する処理、及び消失移動物体についての処理を行う。以下、追跡中の移動物体についての処理、新規移動物体についての処理、及び消失移動物体についての処理を順次、説明する。 Further, the object position determination means 53 updates the object position and the template of the moving object being tracked, determines the existence of the new moving object, registers the object information for the new moving object, and disappears. Performs processing on moving objects. Hereinafter, the processing for the moving object being tracked, the processing for the new moving object, and the processing for the disappearing moving object will be sequentially described.

〔追跡中の移動物体〕
物体位置判定手段53は物体位置が判定された移動物体について、物体情報記憶手段41に、当該判定された物体位置を追加記憶させ、当該移動物体のテンプレートを現時刻の画像特徴により更新する。更新は、抽出された画像特徴を、記憶されている画像特徴と置き換えてもよいし、抽出された画像特徴と記憶されている画像特徴とを重み付け平均してもよい。
[Moving object being tracked]
The object position determination means 53 additionally stores the determined object position in the object information storage means 41 for the moving object whose object position has been determined, and updates the template of the moving object according to the image feature at the current time. The update may replace the extracted image features with the stored image features, or the extracted image features and the stored image features may be weighted and averaged.

〔新規移動物体〕
物体位置判定手段53は、監視空間に移動物体が存在しないときに撮影された背景画像と撮影画像との差分処理を行って背景差分領域を検出するとともに、現時刻の物体位置それぞれに形状モデルを配置していずれの形状モデルとも重ならない背景差分領域を抽出する。そして、物体位置判定手段53は、非重複の背景差分領域が移動物体(人)として有効な面積を有していれば、非重複の背景差分領域に新規移動物体が存在すると判定する。物体位置判定手段53は、非重複の背景差分領域に形状モデルを当てはめて新規移動物体の物体位置および領域を決定し、物体IDと対応付けて当該移動物体のテンプレート、当該移動物体の物体位置を物体情報記憶手段41に記憶させる。また、物体位置判定手段53は、移動物体が存在しないときの撮影画像を背景画像として記憶部4に記憶させ、背景差分領域が検出されなかった領域の撮影画像で背景画像を更新する。なお尤度の算出に際して背景差分領域を検出する場合は改めての検出を行わずに流用すればよい。
[New moving object]
The object position determining means 53 detects the background subtraction region by performing subtraction processing between the background image captured when there is no moving object in the monitoring space and the captured image, and creates a shape model for each object position at the current time. Place and extract background subtraction areas that do not overlap with any shape model. Then, the object position determination means 53 determines that a new moving object exists in the non-overlapping background subtraction region if the non-overlapping background subtraction region has an area effective as a moving object (person). The object position determining means 53 applies a shape model to a non-overlapping background subtraction region to determine an object position and region of a new moving object, and associates the object ID with an object ID to determine a template of the moving object and an object position of the moving object. It is stored in the object information storage means 41. Further, the object position determination means 53 stores the captured image when the moving object does not exist as a background image in the storage unit 4, and updates the background image with the captured image in the region where the background subtraction region is not detected. When the background subtraction region is detected when calculating the likelihood, it may be diverted without detecting it again.

〔消失移動物体〕
物体位置判定手段53は、全候補位置の尤度が閾値TL以下となった移動物体を消失移動物体と判定し、当該移動物体の物体情報を削除する。遮蔽物により全体が隠蔽された移動物体や撮影画像外に移動した移動物体や超高混雑領域に移動した移動物体が消失移動物体と判定される。そして、追跡対象外の移動物体群として超高混雑領域記憶手段(図示省略)に記憶する。なお、当該移動物体は超高混雑領域から抜け出たときに新規移動物体として改めて追跡される。
[Disappearing moving object]
The object position determination means 53 determines that a moving object whose likelihood of all candidate positions is equal to or less than the threshold value TL is a disappearing moving object, and deletes the object information of the moving object. A moving object that is entirely concealed by a shield, a moving object that has moved outside the captured image, or a moving object that has moved to an ultra-highly congested area is determined to be a disappearing moving object. Then, it is stored in the ultra-high congestion area storage means (not shown) as a group of moving objects not to be tracked. The moving object is tracked again as a new moving object when it escapes from the ultra-highly congested area.

追跡結果出力手段31は、例えば、追跡中の移動物体ごとの物体位置の系列をプロットした軌跡画像を生成するとともに、予め混雑度に対応する色を定めておき、混雑度マップの各画素と対応する画素に当該画素の混雑度に対応する色の画素値を設定した混雑度画像を生成して、軌跡画像と混雑度画像とを透過合成した画像を表示部6に出力する。さらに現時刻の撮影画像を重畳してもよい。 The tracking result output means 31 generates, for example, a locus image in which a series of object positions for each moving object being tracked is plotted, and a color corresponding to the degree of congestion is determined in advance to correspond to each pixel of the degree of congestion map. A congestion degree image in which pixel values of colors corresponding to the congestion degree of the pixel are set for the pixel is generated, and an image obtained by transparently synthesizing the locus image and the congestion degree image is output to the display unit 6. Further, the captured image at the current time may be superimposed.

[動作例]
以下、移動物体追跡装置1の動作を説明する。図5は移動物体追跡装置1の動作の全体フロー図である。移動物体追跡装置1の動作が開始されると、撮影部2は予め規定したフレームレートで撮影画像を取得し、画像処理部5に撮影画像を出力する。画像処理部5は撮影画像が入力されるたびに(ステップS1)、ステップS2〜S11の一連の処理を繰り返す。
[Operation example]
Hereinafter, the operation of the moving object tracking device 1 will be described. FIG. 5 is an overall flow chart of the operation of the moving object tracking device 1. When the operation of the moving object tracking device 1 is started, the photographing unit 2 acquires the photographed image at a predetermined frame rate, and outputs the photographed image to the image processing unit 5. The image processing unit 5 repeats a series of processes of steps S2 to S11 each time a captured image is input (step S1).

画像処理部5は撮影部2で取得した撮影画像に対し混雑度推定手段50により混雑度マップを出力する。さらに物体情報記憶手段41に記録された各追跡対象の移動物体の混雑度を追跡対象の現時刻の移動物体の物体位置を予測した位置に対応する混雑度マップの値を参照することにより求める。また、追跡が困難となる超高混雑領域を抽出する(ステップS2)。 The image processing unit 5 outputs a congestion degree map to the photographed image acquired by the photographing unit 2 by the congestion degree estimating means 50. Further, the congestion degree of each moving object of the tracking target recorded in the object information storage means 41 is obtained by referring to the value of the congestion degree map corresponding to the predicted position of the moving object of the moving object at the current time of the tracking target. In addition, an ultra-highly congested area that is difficult to track is extracted (step S2).

画像処理部5は各追跡対象の人物の混雑度から人物ごとの候補位置数の割り当てを候補位置数割当手段51にて行う(ステップS3)。 The image processing unit 5 allocates the number of candidate positions for each person based on the degree of congestion of each person to be tracked by the candidate position number allocating means 51 (step S3).

画像処理部5は追跡対象の人物について追跡処理を行い現在の物体位置を推定する(ステップS4〜S9)。画像処理部5は物体情報記憶手段41に記録されている人物を順次、注目人物に設定して注目人物の追跡処理を行い、全ての人物について追跡処理が完了した場合は、画像処理部5は処理をステップS10に進め、一方、未処理の人物が存在する場合は追跡処理を継続する(ステップS9)。 The image processing unit 5 performs tracking processing on the person to be tracked and estimates the current object position (steps S4 to S9). The image processing unit 5 sequentially sets the person recorded in the object information storage means 41 as the person of interest and performs the tracking process of the person of interest. When the tracking process is completed for all the persons, the image processing unit 5 performs the tracking process. The process proceeds to step S10, while the tracking process is continued if there is an unprocessed person (step S9).

以下、ステップS4〜S9の追跡処理をさらに詳しく説明する。画像処理部5は候補位置設定手段52として機能し、注目人物についてステップS3で割り当てられた候補位置数に基づき仮説の設定を行う(ステップS4)。すなわち、候補位置設定手段52は、注目人物の過去の物体位置に現在の物体位置を外挿してその近傍に、割り当てられた個数と同じ数だけの候補位置を設定し、各候補位置を含んだ仮説を設定する。その後、候補位置が撮影画像外またはステップS2にて抽出された超高混雑領域内となっている仮説は削除する。 Hereinafter, the tracking process of steps S4 to S9 will be described in more detail. The image processing unit 5 functions as the candidate position setting means 52, and sets a hypothesis for the person of interest based on the number of candidate positions assigned in step S3 (step S4). That is, the candidate position setting means 52 extrapolates the current object position to the past object position of the person of interest, sets the same number of candidate positions as the assigned number in the vicinity thereof, and includes each candidate position. Set a hypothesis. After that, the hypothesis that the candidate position is outside the captured image or within the ultra-highly congested region extracted in step S2 is deleted.

画像処理部5は物体位置判定手段53として機能し、物体位置判定手段53はステップS4で設定された各仮説に対して尤度の算出を行う(ステップS5)。 The image processing unit 5 functions as the object position determination means 53, and the object position determination means 53 calculates the likelihood for each hypothesis set in step S4 (step S5).

その後、物体位置判定手段53は注目物体が消失移動物体か否かを判定し(ステップS6)、消失移動物体と判定した場合は追跡終了処理を行う(ステップS7)。すなわち物体位置判定手段53はステップS4で削除されずに残った仮説においてすべての仮説の尤度が閾値TL未満であれば注目人物を消失移動物体と判定して物体情報記憶手段41から注目人物に関する情報を削除する。 After that, the object position determining means 53 determines whether or not the object of interest is a disappearing moving object (step S6), and if it is determined to be a disappearing moving object, the tracking end process is performed (step S7). That is, in the hypothesis that remains without being deleted in step S4, if the likelihood of all the hypotheses is less than the threshold value TL, the object position determining means 53 determines that the person of interest is a disappearing moving object, and the object information storage means 41 relates to the person of interest. Delete the information.

ステップS6にて追跡の継続が可能と判断された場合は、物体位置判定手段53は、ステップS4で設定された仮説群の候補位置およびステップS5で算出された尤度に基づいて追跡人物の物体位置を推定する(ステップS8)。 When it is determined in step S6 that the tracking can be continued, the object position determination means 53 determines the object of the tracking person based on the candidate position of the hypothesis group set in step S4 and the likelihood calculated in step S5. The position is estimated (step S8).

上述の追跡処理S4〜S9が物体情報記憶手段41に登録された全ての人物に対して行われると、既に述べたように画像処理部5は処理をステップS10に進め、物体位置判定手段53により、撮影画像にてまだ追跡設定されていない人物の検出を行い、検出された場合は新規の追跡人物として追加する(ステップS10)。 When the above-mentioned tracking processes S4 to S9 are performed on all the persons registered in the object information storage means 41, the image processing unit 5 advances the process to step S10 as described above, and the object position determination means 53 advances the process. , A person who has not yet been tracked is detected in the captured image, and if it is detected, it is added as a new tracked person (step S10).

ステップS1で入力された撮影画像に対し上述した処理S2〜S10により人物の追跡が完了すると、画像処理部5は追跡結果を表示部6へ出力する(ステップS11)。例えば、画像処理部5は追跡結果として全人物の推定位置を表示部6の表示装置等に表示させる。 When the tracking of the person is completed by the above-mentioned processes S2 to S10 for the captured image input in step S1, the image processing unit 5 outputs the tracking result to the display unit 6 (step S11). For example, the image processing unit 5 causes the display device or the like of the display unit 6 to display the estimated positions of all the persons as the tracking result.

[変形例]
(1)上記実施形態では、混雑度推定手段50が連続値を出力する推定器を用いた例を示したが、離散的な混雑度を出力する推定器を用いることもできる。
[Modification example]
(1) In the above embodiment, an example in which the congestion degree estimating means 50 uses an estimator that outputs a continuous value is shown, but an estimator that outputs a discrete degree of congestion can also be used.

例えば、推定器を多クラスSVM(Support Vector Machine)でモデル化し、混雑度の度合いに応じて「背景(無人)」、「低混雑度」、「中混雑度」、「高混雑度」、「超高混雑度」の5クラスに分類してラベル付けされた学習用画像を用いて当該モデルを学習させておく。そして、混雑度推定手段50は、撮影画像の各画素を中心とする窓を設定して窓内の画像の特徴量を推定器に入力し、各画素のクラスを識別する。このように、混雑度推定手段50で離散的な混雑度を推定した場合、候補位置数割当手段51は、例えば図6に示す関数により候補位置数を算出する。図6は混雑度が5段階の離散的に推定される場合を想定したものであり、それぞれの混雑度の段階に応じて候補位置数も離散的に変化する。 For example, the estimator is modeled with a multi-class SVM (Support Vector Machine), and depending on the degree of congestion, "background (unmanned)", "low congestion", "medium congestion", "high congestion", " The model is trained using the learning images classified into 5 classes of "ultra-high congestion" and labeled. Then, the congestion degree estimation means 50 sets a window centered on each pixel of the captured image, inputs the feature amount of the image in the window into the estimator, and identifies the class of each pixel. In this way, when the congestion degree estimation means 50 estimates the discrete congestion degree, the candidate position number allocation means 51 calculates the number of candidate positions by, for example, the function shown in FIG. FIG. 6 assumes a case where the degree of congestion is estimated discretely in five stages, and the number of candidate positions also changes discretely according to each stage of the degree of congestion.

また、多クラスSVM以外にも、決定木型のランダムフォレスト法、多クラスのアダブースト(AdaBoost)法または多クラスロジスティック回帰法などにて学習した種々の多クラス識別器によっても推定器を実現できる。或いは識別型のCNNによっても推定器を実現できる(CNNの場合、窓走査は不要)。また、クラス分類された学習用画像を用いる場合でも特徴量から混雑度を回帰する回帰型のモデルとすることによって連続値の混雑度を出力する推定器を実現することもできる。その場合、リッジ回帰法、サポートベクターリグレッション法、回帰木型のランダムフォレスト法またはガウス過程回帰(Gaussian Process Regression)などによって、特徴量から混雑度を求めるための回帰関数のパラメータを学習させる。或いは回帰型のCNNを用いた推定器とすることもできる(CNNの場合、窓走査は不要)。 In addition to the multi-class SVM, the estimator can also be realized by various multi-class discriminators learned by the decision tree type random forest method, the multi-class AdaBoost method, the multi-class logistic regression method, or the like. Alternatively, an estimator can be realized by an identification type CNN (in the case of CNN, window scanning is unnecessary). Further, even when a class-classified learning image is used, it is possible to realize an estimator that outputs a continuous value of the congestion degree by using a regression type model that returns the congestion degree from the feature amount. In that case, the parameters of the regression function for obtaining the degree of congestion from the features are learned by the ridge regression method, the support vector regression method, the random forest method of the regression tree type, or the Gaussian process regression. Alternatively, it can be an estimator using a regression type CNN (in the case of CNN, window scanning is unnecessary).

(2)上記各実施形態およびその各変形例においては、物体位置判定手段53が背景差分処理に基づき新規移動物体を検出する例を示したが、その代わりに、追跡対象とする移動物体の画像を不特定多数機械学習した(例えば不特定多数の人の画像を深層学習した)学習済みモデルを用いて新規移動物体を検出してもよい。その場合、物体位置判定手段53は、撮影画像を学習済みモデルに入力して移動物体の領域を検出し、いずれの形状モデルとも重複しない領域が閾値TD以上の大きさである移動物体の領域に新規移動物体が存在すると判定する。 (2) In each of the above-described embodiments and modifications thereof, an example in which the object position determining means 53 detects a new moving object based on background subtraction processing is shown, but instead, an image of the moving object to be tracked is shown. A new moving object may be detected using a trained model obtained by machine learning an unspecified number of people (for example, deep learning of images of an unspecified number of people). In that case, the object position determination means 53 inputs the captured image into the trained model to detect the region of the moving object, and the region that does not overlap with any of the shape models is the region of the moving object having a size equal to or larger than the threshold value TD. It is determined that a new moving object exists.

(3)上記実施形態およびその各変形例では1台の撮影部による追跡を例示したが、視野を共有した複数の撮影部を用いて追跡を行うこともできる。 (3) In the above-described embodiment and each modification thereof, tracking by one imaging unit is illustrated, but tracking can also be performed by using a plurality of imaging units having a shared field of view.

まず、複数の撮影部に共通の3次元座標系を定義し、共通3次元座標系での各撮影部の位置と姿勢の関係を求め、3次元座標系から各撮影部の画像座標系への座標変換に必要なパラメータを算出する。物体位置および候補位置は、監視空間の地面等の水平平面上で直交するX軸、Y軸と鉛直方向のZ軸とで表される3次元座標系におけるX座標、Y座標、Z座標の組(X,Y,Z)で表される。 First, a three-dimensional coordinate system common to a plurality of shooting units is defined, the relationship between the position and orientation of each shooting unit in the common three-dimensional coordinate system is obtained, and the three-dimensional coordinate system is transferred to the image coordinate system of each shooting unit. Calculate the parameters required for coordinate transformation. The object position and the candidate position are a set of X-coordinate, Y-coordinate, and Z-coordinate in a three-dimensional coordinate system represented by the X-axis, the Y-axis, and the Z-axis in the vertical direction, which are orthogonal to each other on a horizontal plane such as the ground in the monitoring space. It is represented by (X, Y, Z).

混雑度推定手段50は、まずすべての撮影部の撮影画像に対して混雑度マップを推定する。そして、共通3次元座標系での移動物体に対する混雑度を統合混雑度とし、各撮影部の混雑度マップに基づき算出する。具体的には、移動物体ごとに、共通3次元座標系での物体位置を各撮影部の画像座標系に変換し、各撮影部の混雑度マップ上での位置を求め、それぞれの撮影部の撮影画像上における混雑度を算出する。そして、移動物体ごとに、撮影部毎の混雑度のうち最も高い値を当該移動物体の総合混雑度とする。総合混雑度を撮影部毎の混雑度の最も高い値とするのは、総合混雑度に基づき候補位置数の配分を行う際に、最も候補位置数が多く必要となる混雑度の高い撮影部に合わせることで、いずれの撮影部についても追跡精度の維持に必要な候補位置数を満たすことができるためである。 The congestion degree estimation means 50 first estimates the congestion degree map for the captured images of all the photographing units. Then, the degree of congestion for moving objects in the common three-dimensional coordinate system is defined as the integrated degree of congestion, and is calculated based on the degree of congestion map of each photographing unit. Specifically, for each moving object, the object position in the common three-dimensional coordinate system is converted into the image coordinate system of each imaging unit, the position of each imaging unit on the congestion map is obtained, and the position of each imaging unit is obtained. Calculate the degree of congestion on the captured image. Then, the highest value among the congestion degrees of each photographing unit for each moving object is set as the total congestion degree of the moving object. The highest value of the degree of congestion for each shooting unit is set to the shooting part with the highest degree of congestion, which requires the largest number of candidate positions when allocating the number of candidate positions based on the total degree of congestion. This is because the number of candidate positions required to maintain the tracking accuracy can be satisfied for any of the photographing units by combining them.

なお、混雑度推定時点では現時刻の物体位置が不明であるが、混雑度推定手段50は、各移動物体について、現時刻の物体位置を過去の物体位置、速度等から予測し、予測した現時刻の物体位置を用いて、各移動物体の総合混雑度を求める。 Although the object position at the current time is unknown at the time of estimating the congestion degree, the congestion degree estimating means 50 predicts the object position at the current time from the past object position, speed, etc. for each moving object, and predicts the present. The total congestion degree of each moving object is obtained by using the object position at the time.

候補位置数割当手段51は総合混雑度を用いて上記実施形態と同様に移動物体に対する候補位置数の割り当てを行い、候補位置設定手段52は割り当て数に基づいて共通3次元座標系の候補位置を設定する。候補位置の尤度は総合混雑度の算出と同様に、各候補位置を撮影画像上の位置に撮影部毎に座標変換し、算出された撮影画像上の位置でテンプレートと特徴量の比較を行うことで撮影部毎の尤度を算出し、平均することで最終的な仮説(候補位置)の尤度とする。現時刻の物体位置は、各仮説(候補位置)の尤度から実施形態と同様に算出する。 The candidate position number assigning means 51 allocates the number of candidate positions to the moving object by using the total congestion degree as in the above embodiment, and the candidate position setting means 52 assigns the candidate positions of the common three-dimensional coordinate system based on the assigned number. Set. Like the calculation of the total congestion degree, the likelihood of the candidate position is coordinate-converted for each shooting unit to the position on the captured image, and the template and the feature amount are compared at the calculated position on the captured image. By doing so, the likelihood of each imaging unit is calculated and averaged to obtain the likelihood of the final hypothesis (candidate position). The object position at the current time is calculated from the likelihood of each hypothesis (candidate position) in the same manner as in the embodiment.

(4)本発明は、車両、動物等、混雑状態をなし得る人以外の移動物体にも適用できる。 (4) The present invention can be applied to moving objects other than humans, such as vehicles and animals, which can be in a congested state.

1…移動物体追跡装置、2…撮影部、3…通信部、4…記憶部、5…画像処理部、6…表示部、30…画像取得部、31…追跡結果出力手段、40…混雑度記憶手段、41…物体情報記憶手段、50…混雑度推定手段、51…候補位置数割当手段、52…候補位置設定手段、53…物体位置判定手段 1 ... Moving object tracking device, 2 ... Shooting unit, 3 ... Communication unit, 4 ... Storage unit, 5 ... Image processing unit, 6 ... Display unit, 30 ... Image acquisition unit, 31 ... Tracking result output means, 40 ... Congestion degree Storage means, 41 ... Object information storage means, 50 ... Congestion degree estimation means, 51 ... Candidate position number allocation means, 52 ... Candidate position setting means, 53 ... Object position determination means

Claims (8)

順次撮影した撮影画像に基づいて1又は複数の移動物体を追跡する移動物体追跡装置であって、
前記撮影画像に撮影された前記移動物体の混雑度を推定する混雑度推定手段と、
前記混雑度に応じて各移動物体の候補位置数を割り当てる候補位置数割当手段と、
前記各移動物体に割り当てられた前記候補位置数と同じ数だけ、過去の前記移動物体の位置から現時刻における前記移動物体の候補位置を求める候補位置設定手段と、
前記各移動物体における前記複数の候補位置に基づいて、現時刻における前記移動物体の物体位置を求める物体位置判定手段と、
を備えたことを特徴とする移動物体追跡装置。
A moving object tracking device that tracks one or more moving objects based on captured images taken sequentially.
Congestion degree estimation means for estimating the congestion degree of the moving object captured in the captured image, and
Candidate position number allocation means for allocating the number of candidate positions of each moving object according to the degree of congestion, and
Candidate position setting means for obtaining the candidate position of the moving object at the current time from the position of the moving object in the past by the same number as the number of candidate positions assigned to each moving object.
An object position determining means for obtaining an object position of the moving object at the current time based on the plurality of candidate positions of the moving object.
A moving object tracking device characterized by being equipped with.
前記混雑度推定手段は、前記撮影画像を入力されると当該撮影画像内の任意の位置の前記混雑度を出力するよう予め学習した推定器に前記撮影画像を入力して前記撮影画像内の任意の位置の前記混雑度を推定し、
前記候補位置数割当手段は、前記撮影画像上の当該移動物体の物体位置または候補位置の前記混雑度に応じて各移動物体の候補位置数を割り当てることを特徴とする請求項1記載の移動物体追跡装置。
The congestion degree estimating means inputs the photographed image into an estimator learned in advance to output the congestion degree at an arbitrary position in the photographed image when the photographed image is input, and arbitrarily in the photographed image. Estimate the degree of congestion at the position of
The moving object according to claim 1, wherein the candidate position number allocation means allocates the number of candidate positions of each moving object according to the object position of the moving object on the captured image or the degree of congestion of the candidate position. Tracking device.
前記候補位置数割当手段は、前記混雑度が高くなるにつれて前記移動物体の候補位置数を多く割り当てることを特徴とする請求項1または2記載の移動物体追跡装置。 The moving object tracking device according to claim 1 or 2, wherein the candidate position number allocation means allocates a larger number of candidate positions of the moving object as the degree of congestion increases. 前記候補位置数割当手段は、1時刻における全追跡対象の前記移動物体の前記候補位置の総和が総数上限値に収まるように各移動物体の候補位置数を圧縮することを特徴とする請求項3記載の移動物体追跡装置。 3. The candidate position number allocation means is characterized in that the number of candidate positions of each moving object is compressed so that the sum of the candidate positions of the moving objects to be tracked at one time falls within the upper limit of the total number. The moving object tracking device described. 前記候補位置設定手段は、前記混雑度が小さいほど前記移動物体の前記候補位置を設定する範囲を広くすることを特徴とする請求項1〜4のうち何れかに記載の移動物体追跡装置。 The moving object tracking device according to any one of claims 1 to 4, wherein the candidate position setting means widens the range in which the candidate position of the moving object is set as the degree of congestion decreases. 前記混雑度が一定以上の領域では、前記候補位置数割当手段、前記候補位置設定手段、前記物体位置判定手段での処理を行わず、
順次撮影した前記撮影画像上における移動物体群の位置を記憶することを特徴とする請求項1記載の移動物体追跡装置。
In the region where the degree of congestion is above a certain level, the processing by the candidate position number allocation means, the candidate position setting means, and the object position determination means is not performed.
The moving object tracking device according to claim 1, wherein the position of the moving object group on the captured images sequentially photographed is memorized.
順次撮影した撮影画像に基づいて1又は複数の移動物体を追跡する移動物体追跡装置による移動物体追跡方法であって、
前記撮影画像に撮影された前記移動物体の混雑度を推定し、
前記混雑度に応じて各移動物体の候補位置数を割り当て、
前記各移動物体に割り当てられた前記候補位置数と同じ数だけ、過去の前記移動物体の位置から現時刻における前記移動物体の候補位置を求め、
前記各移動物体における前記複数の候補位置に基づいて、現時刻における前記移動物体の物体位置を求める
ことを特徴とする移動物体追跡方法。
A moving object tracking method using a moving object tracking device that tracks one or more moving objects based on sequentially captured images.
The degree of congestion of the moving object captured in the captured image is estimated, and the degree of congestion is estimated.
The number of candidate positions for each moving object is assigned according to the degree of congestion.
The candidate positions of the moving object at the current time are obtained from the positions of the moving objects in the past by the same number as the number of candidate positions assigned to each moving object.
A moving object tracking method, characterized in that an object position of the moving object at the current time is obtained based on the plurality of candidate positions of the moving object.
順次撮影した撮影画像に基づいて1又は複数の移動物体を追跡する移動物体追跡装置において実行される移動物体追跡プログラムであって、
前記撮影画像に撮影された前記移動物体の混雑度を推定する処理と、
前記混雑度に応じて各移動物体の候補位置数を割り当てる処理と、
前記各移動物体に割り当てられた前記候補位置数と同じ数だけ、過去の前記移動物体の位置から現時刻における前記移動物体の候補位置を求める処理と、
前記各移動物体における前記複数の候補位置に基づいて、現時刻における前記移動物体の物体位置を求める処理と、
を実行させることを特徴とする移動物体追跡プログラム。
A moving object tracking program executed in a moving object tracking device that tracks one or more moving objects based on sequentially captured images.
A process of estimating the degree of congestion of the moving object captured in the captured image, and
The process of allocating the number of candidate positions for each moving object according to the degree of congestion,
A process of obtaining the candidate positions of the moving object at the current time from the past positions of the moving objects by the same number as the number of candidate positions assigned to each moving object.
A process of obtaining an object position of the moving object at the current time based on the plurality of candidate positions of the moving object.
A moving object tracking program characterized by running.
JP2020050234A 2020-03-19 2020-03-19 Device, method, and program for tracking mobile object Pending JP2021149686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020050234A JP2021149686A (en) 2020-03-19 2020-03-19 Device, method, and program for tracking mobile object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050234A JP2021149686A (en) 2020-03-19 2020-03-19 Device, method, and program for tracking mobile object

Publications (1)

Publication Number Publication Date
JP2021149686A true JP2021149686A (en) 2021-09-27

Family

ID=77849031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050234A Pending JP2021149686A (en) 2020-03-19 2020-03-19 Device, method, and program for tracking mobile object

Country Status (1)

Country Link
JP (1) JP2021149686A (en)

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
US10007850B2 (en) System and method for event monitoring and detection
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
Scheutz et al. Fast, reliable, adaptive, bimodal people tracking for indoor environments
JP6406241B2 (en) Information processing system, information processing method, and program
US10110801B2 (en) Methods and systems for controlling a camera to perform a task
EP2131328A2 (en) Method for automatic detection and tracking of multiple objects
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
JP2009508450A (en) System and method for object tracking and activity analysis
Al-Najdawi et al. An automated real-time people tracking system based on KLT features detection.
JP6280020B2 (en) Moving object tracking device
Tang et al. Multiple-kernel adaptive segmentation and tracking (MAST) for robust object tracking
US20220366570A1 (en) Object tracking device and object tracking method
JPWO2019220589A1 (en) Video analysis device, video analysis method, and program
CN116434325A (en) Method, device, equipment and storage medium for detecting specific action
CN109508657B (en) Crowd gathering analysis method, system, computer readable storage medium and device
JP6708368B2 (en) Method and system for partial concealment processing in vehicle tracking using deformable partial model
Fehr et al. Counting people in groups
JP2021149687A (en) Device, method and program for object recognition
CN107665495B (en) Object tracking method and object tracking device
JP2021149686A (en) Device, method, and program for tracking mobile object
JP6893812B2 (en) Object detector
Cho et al. Robust centroid target tracker based on new distance features in cluttered image sequences
CN112580633B (en) Public transport passenger flow statistics device and method based on deep learning
Chen et al. Mode-based multi-hypothesis head tracking using parametric contours

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507