JP2014211846A - Target tracking apparatus and target tracking program - Google Patents

Target tracking apparatus and target tracking program Download PDF

Info

Publication number
JP2014211846A
JP2014211846A JP2013089204A JP2013089204A JP2014211846A JP 2014211846 A JP2014211846 A JP 2014211846A JP 2013089204 A JP2013089204 A JP 2013089204A JP 2013089204 A JP2013089204 A JP 2013089204A JP 2014211846 A JP2014211846 A JP 2014211846A
Authority
JP
Japan
Prior art keywords
target
observation data
process noise
luminance
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013089204A
Other languages
Japanese (ja)
Other versions
JP6186834B2 (en
Inventor
学 中尾
Manabu Nakao
学 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013089204A priority Critical patent/JP6186834B2/en
Publication of JP2014211846A publication Critical patent/JP2014211846A/en
Application granted granted Critical
Publication of JP6186834B2 publication Critical patent/JP6186834B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

PROBLEM TO BE SOLVED: To appropriately track an irregularly moving target.SOLUTION: A target tracking apparatus comprises: observation data extraction means extracting observation data that serves as a target candidate from image data acquired from an imaging sensor; gating processing means narrowing down the extracted observation data to observation data in a gate area near a prediction position in a next frame of a target; correlation processing means associating each tracked target with any of the observation data obtained by narrowing down the extracted observation data; tracking filter means estimating a position of the target and dispersion in a current frame on the basis of the observation data associated with the target and process noise, and predicting a position of the target and dispersion in a next frame; and process noise determination means making the process noise greater if a luminance value of the target is higher. The gate area is set wider as the process noise is greater, and the gating processing means narrows down the extracted observation data to observation data exceeding a luminance threshold corresponding to the luminance value of the target in the gate area.

Description

本発明は,目標追尾装置及び目標追尾プログラムに関する。   The present invention relates to a target tracking device and a target tracking program.

目標追尾装置は,撮像素子が撮像した画像データ内の目標を追尾する装置である。例えば,航空機は,他の航空機である目標が遠距離から接近してくるのを監視する。そのために,目標追尾装置は,赤外センサなどの撮像センサを用いて遠距離にある複数の目標を撮影し,その目標の運動を追尾する。撮像された画像データ内の輝度の高い1個の画素が点目標として観測され,その点目標の画素は接近するにつれてその輝度が徐々に上昇する。   The target tracking device is a device that tracks a target in image data captured by an image sensor. For example, an aircraft monitors the arrival of a target that is another aircraft from a long distance. For this purpose, the target tracking device images a plurality of targets at a long distance using an imaging sensor such as an infrared sensor, and tracks the movement of the target. One pixel with high luminance in the captured image data is observed as a point target, and the luminance of the point target pixel gradually increases as it approaches.

目標追尾方法については,例えば,特許文献1,2などに記載されている。   The target tracking method is described in Patent Documents 1 and 2, for example.

目標追尾装置では,撮像素子で撮像した画像データから,目標候補となる点目標の画像内の位置とその輝度等を含む観測データを抽出し,各目標それぞれにおいて,前フレームで予測した目標の予測位置を中心とするゲート領域内の観測データを関連付け対象の観測データとして絞り込む。そして,前フレームで推定されている各目標それぞれに対して,現フレームで抽出され絞り込まれた観測データとの関連付け行う。この関連づけでは,観測データが重複しないように各目標に割当を行い,複数の割当の組み合わせのうち,尤度が最大になる割り当ての組み合わせを選択する。最後に,カルマンフィルタなどの追尾フィルタが,各目標と観測データとの関連付けに基づいて,目標の予測位置と現フレームでの観測データから,各目標の位置,速度,バラツキを推定し,それらの情報に基づいて次のフレームにおける目標の予測位置を予測する。そして,次のフレームでは,この目標の予測位置に基づいて,ゲート領域による観測データの絞り込みと,関連づけと,追尾フィルタによる推定と予測を行い,これらの処理が,毎フレーム毎に繰り返される。   In the target tracking device, observation data including the position in the target target image and its brightness are extracted from the image data captured by the image sensor, and the target prediction predicted in the previous frame for each target is extracted. The observation data in the gate region centered on the position is narrowed down as the observation data to be correlated. Then, each target estimated in the previous frame is associated with the observation data extracted and narrowed down in the current frame. In this association, assignment is made to each target so that the observation data does not overlap, and the combination of assignments that maximizes the likelihood is selected from a plurality of assignment combinations. Finally, a tracking filter such as a Kalman filter estimates the position, velocity, and variation of each target from the predicted position of the target and the observed data in the current frame based on the association between each target and the observed data. Based on the above, the predicted position of the target in the next frame is predicted. In the next frame, based on the predicted position of the target, the observation data is narrowed down, correlated, and estimated and predicted by the tracking filter, and these processes are repeated for each frame.

特開2012−127890号公報JP 2012-127890 A 特開平5−303624号公報JP-A-5-303624

不規則な運動をする目標を追跡するためには,カルマンフィルタのプロセスノイズを大きくして目標の不規則な運動に対応させて追尾する必要が有る。プロセスノイズを大きくすると,次のフレームでの観測データ絞り込みのためのゲート領域が広くなる。これは,ゲート領域がプロセスノイズに基づいて求められるマハラノビス距離という正規化した距離の尺度に基づいて決められるからである。   In order to track an irregularly moving target, it is necessary to increase the process noise of the Kalman filter and track the irregular target. When the process noise is increased, the gate area for narrowing the observation data in the next frame becomes wider. This is because the gate region is determined based on a normalized distance measure called Mahalanobis distance obtained based on process noise.

しかしながら,ゲート領域が広くなると,目標に対する観測データ以外に,ノイズにより発生する輝度が高い観測データもゲート領域に入りやすくなり,関連付けの候補となる観測データ数が増大し関連付けの計算量が増大すると共に,目標に対応する観測データとノイズにより発生する観測データとの分別が困難になり,関連付けの誤りが増加する。したがって,ゲート領域を広くすることと,関連付けの計算量を少なくし及び関連付けの精度を高くすることとの間には,トレードオフの関係がある。   However, if the gate area becomes wider, observation data with high brightness generated by noise is likely to enter the gate area in addition to the observation data for the target, and the number of observation data that are candidates for association increases and the amount of computation for association increases. At the same time, it becomes difficult to separate the observation data corresponding to the target from the observation data generated by noise, and the number of errors in association increases. Therefore, there is a trade-off between widening the gate region and reducing the amount of calculation of association and increasing the accuracy of association.

そこで,本発明の目的は,プロセスノイズを大きくしても候補の観測データの数が増大しないようにして計算量の増大を抑制し検出精度を上げることができる目標追尾装置及び目標追尾プログラムを提供することにある。   Therefore, an object of the present invention is to provide a target tracking device and a target tracking program that can suppress the increase in the amount of calculation and increase the detection accuracy so that the number of candidate observation data does not increase even if the process noise is increased. There is to do.

実施の形態による目標追尾装置の第1の側面は,
撮像センサから取得した画像データから目標候補となる観測データを抽出する観測データ抽出手段と,
前記抽出した観測データから,目標の次のフレームでの予測位置近辺のゲート領域内の観測データに絞り込むゲーティング処理手段と,
追尾している各目標を前記絞り込んだ観測データのいずれかに関連付ける相関処理手段と,
前記目標と関連付けされた観測データと,プロセスノイズとに基づいて,現フレームにおける前記目標の位置とばらつきとを推定し,次のフレームにおける前記目標の位置ばらつきを予測する追尾フィルタ手段と,
前記目標の輝度値が高いほど前記プロセスノイズを大きくするプロセスノイズ決定手段とを有し,
前記プロセスノイズが大きいほど前記ゲート領域が広く設定され,
前記ゲーティング処理手段は,前記ゲート領域内にある前記目標の輝度値に対応する輝度閾値を超える観測データに絞り込む。
The first aspect of the target tracking device according to the embodiment is as follows:
Observation data extraction means for extracting observation data as target candidates from image data acquired from an image sensor;
Gating processing means for narrowing down the extracted observation data to observation data in the gate region near the predicted position in the next frame of the target;
Correlation processing means for associating each tracking target with one of the narrowed observation data;
Tracking filter means for estimating the position and variation of the target in the current frame based on observation data associated with the target and process noise, and predicting the variation in position of the target in the next frame;
Process noise determining means for increasing the process noise as the target luminance value is higher,
The larger the process noise, the wider the gate region is set.
The gating processing means narrows down to observation data exceeding a luminance threshold value corresponding to the target luminance value in the gate region.

第1の側面によれば,プロセスノイズを大きくしても計算量の増大を抑制し検出精度を上げることができる。   According to the first aspect, even if the process noise is increased, an increase in calculation amount can be suppressed and detection accuracy can be increased.

本実施の形態における目標追尾装置の構成図である。It is a block diagram of the target tracking apparatus in this Embodiment. 目標追尾装置の概略構成を示す図である。It is a figure which shows schematic structure of a target tracking apparatus. 目標追尾プログラムの処理の概略を示すフローチャート図である。It is a flowchart figure which shows the outline of a process of a target tracking program. 観測データの例を示す図である。It is a figure which shows the example of observation data. ゲーティング処理手段のフローチャート図である。It is a flowchart figure of a gating process means. ゲーティング処理手段と相関処理手段による処理を説明する図である。It is a figure explaining the process by a gating process means and a correlation process means. 追尾フィルタ手段244の処理のフローチャート図である。It is a flowchart figure of the process of the tracking filter means 244. 追尾フィルタ手段の処理を説明する図である。It is a figure explaining the process of a tracking filter means. 観測位置z(t)と観測予測位置Hx-(t)の残差d(t)を示す図である。FIG. 6 is a diagram showing a residual d (t) between an observation position z (t) and an observation prediction position Hx− (t). 本実施の形態における目標追尾装置の構成図である。It is a block diagram of the target tracking apparatus in this Embodiment. 本実施の形態における目標追尾プログラムのフローチャート図である。It is a flowchart figure of the target tracking program in this Embodiment. 輝度予測フィルタ手段による処理のフローチャート図である。It is a flowchart figure of the process by a brightness | luminance prediction filter means. 輝度閾値の決定手段による輝度閾値Vthの決定を説明する図である。It is a figure explaining the determination of the brightness | luminance threshold value Vth by the determination means of a brightness | luminance threshold value. プロセスノイズ決定手段による処理のフローチャート図である。It is a flowchart figure of the process by a process noise determination means. 観測データが輝度閾値Vthを超える確率P(Vth)の計算を説明する図である。It is a figure explaining calculation of the probability P (Vth) that observation data exceeds the brightness | luminance threshold value Vth. 本実施の形態におけるゲーティング処理手段の処理のフローチャート図である。It is a flowchart figure of the process of the gating process means in this Embodiment.

図1は,本実施の形態における目標追尾装置の構成図である。目標追尾装置20は,赤外線さなどの撮像センサから画像データを取得し,画像データ内の目標を追尾し,表示装置30に目標を表示する。目標追尾装置20は,プロセッサであるCPU21と,メモリ22と,入出力装置23と,目標追尾プログラムを格納する記録媒体24とが,バスを介して接続される。   FIG. 1 is a configuration diagram of a target tracking device according to the present embodiment. The target tracking device 20 acquires image data from an imaging sensor such as an infrared ray, tracks a target in the image data, and displays the target on the display device 30. In the target tracking device 20, a CPU 21, which is a processor, a memory 22, an input / output device 23, and a recording medium 24 for storing a target tracking program are connected via a bus.

CPU21は,目標追尾プログラムを実行し,画像データを分析して目標を追尾する処理を実行する。   The CPU 21 executes the target tracking program, analyzes the image data, and executes processing for tracking the target.

図2は,目標追尾装置の概略構成を示す図である。また,図3は,目標追尾プログラムの処理の概略を示すフローチャート図である。これらを参照して目標追尾処理の概略を説明する。   FIG. 2 is a diagram showing a schematic configuration of the target tracking device. FIG. 3 is a flowchart showing an outline of the processing of the target tracking program. The outline of the target tracking process will be described with reference to these.

撮像センサ10は,遠距離から近づいてくる複数の目標を撮像してフレーム毎に画像データを出力する。この画像データは,複数の画素の輝度値を有する。目標は1画素の大きさで観測され,目標が存在する画素の輝度は高く,点目標と称される。点目標は接近するにつれて輝度が徐々に上昇する。また,点目標は画素の位置が変化しながら接近してくる。   The imaging sensor 10 captures a plurality of targets approaching from a long distance and outputs image data for each frame. This image data has luminance values of a plurality of pixels. The target is observed with a size of one pixel, and the luminance of the pixel where the target exists is high, and is called a point target. As the point target approaches, the brightness gradually increases. The point target approaches as the pixel position changes.

図2に示されるとおり,目標追尾装置は,観測データ抽出手段241と,ゲーティング処理手段242と,相関処理手段243と,追尾フィルタ手段244とを有する。観測データ抽出手段241は,撮像センサ10が撮像した画像データを取得し,目標の候補となる点目標の画像上の位置とその輝度を観測データとして抽出する。点目標は,前述のとおり輝度が高い明るい画素である。ただし,抽出された観測データには,実際の目標の点目標と,ノイズにより発生している点目標とが含まれる。   As shown in FIG. 2, the target tracking device includes observation data extraction means 241, gating processing means 242, correlation processing means 243, and tracking filter means 244. The observation data extraction unit 241 acquires the image data captured by the image sensor 10, and extracts the position of the point target image on the target candidate image and its luminance as observation data. The point target is a bright pixel with high luminance as described above. However, the extracted observation data includes actual target point targets and point targets generated by noise.

図4は,観測データの例を示す図である。観測データには,X,Y軸の二次元平面の画像中に,複数の明るい輝度の画素Zが含まれている。そして,図4には,目標候補となる輝度の高い画素の点目標の画素Z1-Z7と,輝度の低い画素Znとが含まれている。観測データ抽出手段241は,これらの画素のうち,点目標Z1-Z7を抽出する。また,図4には,前フレームで検出されている目標T1(t),T2(t)が示されている。   FIG. 4 is a diagram illustrating an example of observation data. The observation data includes a plurality of bright pixels Z in a two-dimensional image of the X and Y axes. FIG. 4 includes point target pixels Z1 to Z7 of high luminance pixels that are target candidates and low luminance pixels Zn. The observation data extraction means 241 extracts point targets Z1-Z7 from these pixels. FIG. 4 shows target T1 (t) and T2 (t) detected in the previous frame.

次に,これらの前フレームで検出された目標T1(t),T2(t)に対する現フレーム画像内の目標を,抽出された目標候補の点目標Z1-Z7から選択して,前フレーム画像内の目標と現フレーム画像内の目標候補との関連付けを行う。ただし,各目標それぞれに対して全ての観測データと関連付けを行うと,目標候補である点目標の数が多くなり,関連付けのための計算量が大きくなる。そこで,ゲーティング手段により抽出した観測データの絞り込みを行って,目標候補の数を減らすことが行われる。   Next, a target in the current frame image for the targets T1 (t) and T2 (t) detected in these previous frames is selected from the extracted target target point targets Z1-Z7, and Are associated with target candidates in the current frame image. However, if each target is associated with all observation data, the number of point targets that are target candidates increases, and the amount of calculation for the association increases. Therefore, the number of target candidates is reduced by narrowing down observation data extracted by the gating means.

図5は,ゲーティング処理手段のフローチャート図である。また,図6は,ゲーティング処理手段と相関処理手段による処理を説明する図である。図5に示すとおり,ゲーティング処理手段242は,各目標T1(t),T2(t)毎に,抽出した観測データZ1-Z7から,目標に対する予測位置を中心とするゲート領域G内の観測データに絞り込む処理を行う(図5のS11,S12)。   FIG. 5 is a flowchart of the gating processing means. FIG. 6 is a diagram for explaining processing by the gating processing means and the correlation processing means. As shown in FIG. 5, the gating processing means 242 performs observation in the gate region G centered on the predicted position with respect to the target from the extracted observation data Z1-Z7 for each target T1 (t), T2 (t). A process of narrowing down to data is performed (S11, S12 in FIG. 5).

図6に示されるように,前フレームでの目標T1(t)に対する現フレーム(t+1)での目標候補は,目標T1(t)に対する予測位置T1(t+1)を中心とするゲート領域G1内の観測データの点目標Z1,Z2,Z3に絞られる。また,目標T2(t)に対する目標候補は,目標T2(t)に対する予測位置T2(t+1)を中心とするゲート領域G2内の観測データの点目標Z2,Z3に絞られる。そして,点目標Z4-Z7は,目標候補から外される。予測位置T1(t+1),T2(t+1)は,後述する追尾フィルタ手段244が,例えば等速直線運動に基づいて前フレーム(t)で推定した目標T1(t),T2(t)から計算により求める。また,ゲート領域G1,G2の大きさは,後述するプロセスノイズQから求めた残差共分散行列Sにより求められるマハラノビス距離がある閾値以下となる領域として求められる。図6に示されたゲート領域G1,G2は,真円ではなく,楕円形である。   As shown in FIG. 6, the target candidate in the current frame (t + 1) with respect to the target T1 (t) in the previous frame is a gate centered on the predicted position T1 (t + 1) with respect to the target T1 (t). It is narrowed down to point targets Z1, Z2, and Z3 of observation data in region G1. Further, the target candidates for the target T2 (t) are narrowed down to the point targets Z2 and Z3 of the observation data in the gate region G2 centered on the predicted position T2 (t + 1) with respect to the target T2 (t). Then, the point targets Z4-Z7 are excluded from the target candidates. The predicted positions T1 (t + 1) and T2 (t + 1) are obtained by using the target filter T1 (t), T2 (t) estimated by the tracking filter unit 244 described later in the previous frame (t) based on, for example, constant velocity linear motion. ) By calculation. The sizes of the gate regions G1 and G2 are obtained as regions where the Mahalanobis distance obtained from the residual covariance matrix S obtained from the process noise Q, which will be described later, is below a certain threshold. The gate regions G1 and G2 shown in FIG. 6 are not a perfect circle but an ellipse.

相関処理手段243は,ゲート領域内の観測データの目標候補Z1,Z2,Z3の位置と予測位置の位置関係から,現フレーム(t+1)での複数の観測データの目標候補Z1,Z2,Z3を前フレーム(t)でのどの目標に関連付けるかを決定する。図6の例では,目標T1(t)に対する目標候補の観測データZ1,Z2,Z3の中から尤度が最も高い観測データを選択し,目標T1(t)と関連付けまたは対応付けを行う。同様に,目標T2(t)に対する目標候補の観測データZ2,Z3の中から尤度が最も高い観測データを選択し,目標T2(t)と関連付けまたは対応付けを行う。   The correlation processing means 243 determines the target candidates Z1, Z2, Z2 of the plurality of observation data in the current frame (t + 1) from the positional relationship between the positions of the target candidates Z1, Z2, Z3 of the observation data in the gate region and the predicted positions. Decide which target in the previous frame (t) to associate with Z3. In the example of FIG. 6, the observation data with the highest likelihood is selected from the observation data Z1, Z2, and Z3 of the target candidate for the target T1 (t), and is associated or associated with the target T1 (t). Similarly, the observation data with the highest likelihood is selected from the observation data Z2 and Z3 of the target candidate for the target T2 (t), and is associated with or associated with the target T2 (t).

相関処理手段243は,前フレームでの各目標T1(t),T2(t)に対して,現フレーム(t+1)での絞り込んだ観測データZ1,Z2,Z3が重複しないように,そして,1つの観測データを割り当てる。即ち,各目標に対して割り当てられる観測データの組み合わせを複数計算して求め,その複数の組み合わせの中から尤度が最大の組み合わせを選択する。この選択は,各目標に対して各観測データが観測される尤度をそれぞれ計算し,目標と観測データの割当の組み合わせの中で,この尤度が最大になるものを選択することで行われる。この尤度は,予測位置と観測データの位置との間の距離(マハラノビス距離)が小さいほど尤度が高くなる。   The correlation processing means 243 ensures that the narrowed observation data Z1, Z2, and Z3 in the current frame (t + 1) do not overlap with each target T1 (t) and T2 (t) in the previous frame, and , One observation data is assigned. That is, a plurality of combinations of observation data assigned to each target are obtained by calculation, and the combination with the maximum likelihood is selected from the plurality of combinations. This selection is performed by calculating the likelihood that each observation data is observed for each target, and selecting the one that maximizes the likelihood among the combinations of target and observation data assignments. . The likelihood increases as the distance between the predicted position and the position of the observation data (Mahalanobis distance) decreases.

相関処理には,GNN,JPDA,MHT等の手法がよく用いられる。例えば,MHT(Multiple Hypothesis Tracking)では,ゲート領域内の観測データを目標に割り当てる仮説を生成する。そして,これらの仮説を連続する数ステップの時刻(数フレーム)にわたり保持する。どの仮説を選択するかは,予め指定したステップ数だけ観測データを取得した後,時刻を遡って決定する。   For correlation processing, methods such as GNN, JPDA, and MHT are often used. For example, MHT (Multiple Hypothesis Tracking) generates hypotheses that assign observation data in the gate region to the target. These hypotheses are held for several consecutive times (several frames). Which hypothesis to select is determined retrospectively after obtaining observation data for the number of steps specified in advance.

新しい観測データが絞られて入力されたら,前回の観測データについて生成し保持していた複数の仮説のもとでそれぞれさらに複数の仮説を生成し,それらを保持する。新しい観測データが入力されるたびに上記の処理を実行すると,仮説の数は観測データの入力回数の増加にしたがい指数関数的に増加していく。そこで,観測データの入力回数が予め決めていた回数nに達したら,n-1回だけ時刻(フレーム)を遡って仮説を選択し,選択されなかった仮説は破棄する。仮説の選択は,前述のとおり,最新の観測データを入力した後の仮説の尤度から算出した尤度を,n-1回前に生成した複数の仮説の間で比較し,最大の尤度を有する仮説を選択することで行われる。   When new observation data is narrowed down and input, a plurality of hypotheses are further generated under the plurality of hypotheses generated and held for the previous observation data, and these are held. When the above processing is executed every time new observation data is input, the number of hypotheses increases exponentially as the number of input observation data increases. Therefore, when the number of observation data inputs reaches a predetermined number n, a hypothesis is selected by going back the time (frame) n-1 times, and the hypothesis that has not been selected is discarded. Hypothesis selection, as described above, compares the likelihood calculated from the hypothesis likelihood after inputting the latest observation data among multiple hypotheses generated n-1 times earlier, and calculates the maximum likelihood. This is done by selecting a hypothesis having

このように,MHTによる相関処理では,(1)観測データを目標に割り当てる(関連付ける)複数の仮説の生成,(2)前回生成した仮説の尤度を用いて,各仮説の尤度を計算,(3)それまで生成してきた仮説の履歴をnステップ遡って仮説を選択し,非選択の仮説を破棄,という処理を実行する。具体的な処理の説明は,良く知られているので省略する。   In this way, in the correlation processing by MHT, (1) generation of a plurality of hypotheses to assign (associate) observation data to a target, (2) the likelihood of each hypothesis is calculated using the likelihood of the hypothesis generated last time, (3) A process of selecting a hypothesis by going back the history of hypotheses generated so far by n steps and discarding a non-selected hypothesis is executed. A detailed description of the processing is well known and will be omitted.

図7は,追尾フィルタ手段244の処理のフローチャート図である。また,図8は,追尾フィルタ手段の処理を説明する図である。追尾フィルタ手段244は,図7に示されるように,前フレーム(時刻t)での各目標T1(t),T2(t)と現フレーム(最新フレーム,時刻t+1)の観測データとの対応付けの結果に対して,例えばカルマンフィルタを用いて,現フレーム(t+1)での目標の位置,速度,ばらつき(共分散行列)を推定する(S21)。この推定は,現フレームへの繊維,更新(または予測値の補正)とも称される。さらに,追尾フィルタ手段は,推定した情報を用いて,次のフレーム(t+2)での目標の予測位置,予測速度,ばらつき(共分散行列)を計算して予測する(S22)。   FIG. 7 is a flowchart of processing of the tracking filter unit 244. FIG. 8 is a diagram for explaining the processing of the tracking filter means. As shown in FIG. 7, the tracking filter unit 244 calculates the difference between the target data T1 (t) and T2 (t) in the previous frame (time t) and the observation data of the current frame (latest frame, time t + 1). The target position, velocity, and variation (covariance matrix) in the current frame (t + 1) are estimated using the Kalman filter, for example, for the association result (S21). This estimation is also referred to as fiber to current frame, update (or correction of predicted value). Further, the tracking filter means uses the estimated information to calculate and predict the target predicted position, predicted speed, and variation (covariance matrix) in the next frame (t + 2) (S22).

カルマンフィルタが目標は等速で直線運動をするという等速モデルを用いる場合は,次のようにモデル化され,予測処理と推定(更新)処理とが行われる。   When the Kalman filter uses a constant velocity model in which the target moves linearly at a constant velocity, the model is modeled as follows, and prediction processing and estimation (update) processing are performed.

等速モデルを用いる場合は,次の遷移モデル(状態量を画像座標とし画像座標上でモデル化され,目標の状態量(位置,速度)とばらつき(誤差共分散行列)がフレーム毎に遷移するモデル)と,観測モデル(観測量を画像座標とし画像座標上でモデル化され,状態量から求められる観測量(位置)のモデル)とを有する。カルマンフィルタは,状態量と観測量にそれぞれノイズが乗っている中で,取得した観測量をもとに状態量を推定するアルゴリズムであり,推移モデルと観測モデルの2つのモデルを用いている。
遷移モデル:x(t+1)=Fx(t)+w(t) (11)
観測モデル:z(t)=Hx(t)+v(t) (12)
ここで,各変数は以下のように定義される。
x(t):状態量(位置,速度)
When using the constant velocity model, the following transition model (modeled on the image coordinates with the state quantity as the image coordinate, the target state quantity (position, velocity) and variation (error covariance matrix) transition from frame to frame. Model) and an observation model (a model of an observation amount (position) modeled on the image coordinate and obtained from the state quantity, with the observation amount as an image coordinate). The Kalman filter is an algorithm for estimating a state quantity based on the obtained observation quantity while noise is on each of the state quantity and the observation quantity, and uses two models, a transition model and an observation model.
Transition model: x (t + 1) = Fx (t) + w (t) (11)
Observation model: z (t) = Hx (t) + v (t) (12)
Here, each variable is defined as follows.
x (t): State quantity (position, speed)

Figure 2014211846
Figure 2014211846

z(t):観測量(位置) z (t): Observed quantity (position)

Figure 2014211846
Figure 2014211846

w(t):プロセスノイズ(遷移ノイズ)(平均値が0,共分散行列をQ(t)とする正規分布)
v(t):観測ノイズ(平均値が0,共分散行列をR(t)とする正規分布)
F:状態遷移行列,状態遷移行列Fは状態量x(t)を状態量x(t+1)に遷移する。ここで遷移とは時間遷移の意味である。
w (t): Process noise (transition noise) (normal distribution with mean value 0 and covariance matrix Q (t))
v (t): Observation noise (normal distribution with mean value 0 and covariance matrix R (t))
F: State transition matrix, state transition matrix F transitions state quantity x (t) to state quantity x (t + 1). Here, transition means time transition.

Figure 2014211846
Figure 2014211846

H:観測行列,観測行列Hは状態量x(t)を観測量z(t)に写像する。 H: Observation matrix, observation matrix H maps state quantity x (t) to observation quantity z (t).

Figure 2014211846
Figure 2014211846

したがって,式(11)の遷移モデルと,式(12)の観測モデルは,以下のとおりになる。   Therefore, the transition model of Equation (11) and the observation model of Equation (12) are as follows.

Figure 2014211846
Figure 2014211846

Figure 2014211846
Figure 2014211846

さらに,等速運動でのプロセスノイズQのモデルは以下のとおりである。   Furthermore, the model of process noise Q in constant speed motion is as follows.

Figure 2014211846
Figure 2014211846

ここで,dtは時間ステップ,qx, qyはそれぞれX方向,Y方向のプロセスノイズの大きさである。 Here, dt is a time step, and qx and qy are process noise magnitudes in the X and Y directions, respectively.

図7に示した追尾フィルタ手段の予測処理S22は,現フレーム(t)の状態推定値から次のフレーム(t+1)の状態予測値を求める処理である。具体的には,以下の式(1)で,現のフレーム(t)の状態量x(t)の推定値に状態遷移行列Fを乗じて,次のフレーム(t+1)の状態量x(t+1)の予測値を求め,式(2)で,現フレーム(t)での誤差共分散行列P(t)とプロセスノイズQとから,次のフレーム(t+1)での誤差共分散行列P(t+1)の予測値を求める。なお,誤差共分散行列P(t)は,状態量の共分散を示すものであり,状態量がどれだけばらついているかを示す。   The tracking filter means prediction process S22 shown in FIG. 7 is a process for obtaining the state prediction value of the next frame (t + 1) from the state estimation value of the current frame (t). Specifically, in the following equation (1), the estimated value of the state quantity x (t) of the current frame (t) is multiplied by the state transition matrix F to obtain the state quantity x of the next frame (t + 1). The prediction value of (t + 1) is obtained, and the error in the next frame (t + 1) is calculated from the error covariance matrix P (t) and the process noise Q in the current frame (t) using Equation (2). A predicted value of the covariance matrix P (t + 1) is obtained. Note that the error covariance matrix P (t) indicates the covariance of the state quantity and indicates how much the state quantity varies.

Figure 2014211846
Figure 2014211846

次に,追尾フィルタ手段の推定(更新)処理S21では,現フレーム(t)の観測データと前フレームから予測した予測値から現フレームの推定値を次の通りの式で求める処理である。   Next, the tracking filter means estimation (update) process S21 is a process for obtaining the estimated value of the current frame from the observation data of the current frame (t) and the predicted value predicted from the previous frame by the following equation.

Figure 2014211846
Figure 2014211846

具体的には,上記の式(3)では,誤差共分散行列の予測値と観測ノイズの共分散行列Rとから現フレーム(t)での残差共分散行列S(t)を求める。残差共分散行列S(t)は,残差d(t)の共分散行列であり,観測量の予測される観測量からの誤差のばらつきを示し,状態量の共分散行列の予測値を観測量の空間に写像したものに観測ノイズの共分散行列を加算して求められる。更に,式(4)ではカルマンゲインKを求める。   Specifically, in the above equation (3), the residual covariance matrix S (t) at the current frame (t) is obtained from the predicted value of the error covariance matrix and the covariance matrix R of the observed noise. The residual covariance matrix S (t) is the covariance matrix of the residual d (t), which shows the variation in error from the observed observable, and the predicted value of the state variable covariance matrix It is obtained by adding the covariance matrix of the observation noise to the one mapped to the observation space. Further, the Kalman gain K is obtained from Equation (4).

そして,式(5)では,現フレーム(t)での状態予測値x-(t)に,観測位置z(t)と観測予測位置Hx-(t)の残差(d(t))にカルマンゲインKを乗じた値を加算して,状態推定値x^(t)を更新する。更に,式(6)で,現フレーム(t)での誤差共分散行列の予測値P-(t)から,その観測予測値HP-(t)にカルマンゲインKを乗じた値を減算して,誤差共分散行列P(t)を求める。 Then, in Formula (5), the state estimated value x of the current frame (t) - a (t), the observation position z (t) and the observed predicted position Hx - the residuals (t) (d (t)) The state estimated value x ^ (t) is updated by adding the value multiplied by the Kalman gain K. Furthermore, in equation (6), the predicted value P of the error covariance matrix of the current frame (t) - from (t), the observation prediction value HP - by subtracting the value obtained by multiplying the Kalman gain K in (t) , Find the error covariance matrix P (t).

図9は,観測位置z(t)と観測予測位置Hx-(t)の残差d(t)を示す図である。式(5)に示したとおり,この残差d(t)にカルマンゲインKを乗じて予測値x-(t)に加算することで,状態推定値x^(t)が求められる。 9, the observation position z (t) and observation prediction position Hx - is a diagram showing a residual d (t) of (t). As shown in the equation (5), by multiplying the residual d (t) by the Kalman gain K and adding it to the predicted value x (t), the state estimated value x ^ (t) is obtained.

図7に示されるとおり,追尾フィルタ手段は,先ず,前フレームの目標に関連付けされた現フレームの観測データz(t)と,前フレームから予測された現フレームの予測値x-(t)とから推定値を求める推定(更新)処理S21を行う。そして,その推定値から次のフレーム(t+1)でのゲーティング処理で使用する予測値x-(t+1),P-(t+1)を生成する予測処理S22を行う。 As shown in FIG. 7, the tracking filter means firstly, the observation data z (t) of the current frame associated with the target of the previous frame, and the predicted value x (t) of the current frame predicted from the previous frame. Then, an estimation (update) process S21 for obtaining an estimated value is performed. Then, a prediction process S22 for generating predicted values x (t + 1) and P (t + 1) used in the gating process in the next frame (t + 1) from the estimated value is performed.

図8の追尾フィルタ手段の処理を説明する図を参照すると,上記の追尾フィルタ手段による推定(更新)処理S21と予測処理S22が明らかになる。即ち,前フレーム(t-1)での予測処理により,前フレーム(t-1)での目標T1(t-1)についての状態推定値x^(t-1)と誤差共分散行列の推定値P(t-1)とから,現フレーム(t)での状態予測値x-(t)と誤差共分散行列の予測値P-(t)が求められている。 Referring to the drawing explaining the processing of the tracking filter means in FIG. 8, the estimation (update) processing S21 and the prediction processing S22 by the tracking filter means described above will be clarified. That is, the state estimation value x ^ (t-1) and the error covariance matrix for the target T1 (t-1) in the previous frame (t-1) are estimated by the prediction process in the previous frame (t-1). From the value P (t−1), the state predicted value x (t) and the error covariance matrix predicted value P (t) at the current frame (t) are obtained.

そして,現フレーム(t)での推定(更新)処理により,前フレームの目標T1(t-1)に関連付けされた現フレーム(t)の観測データz(t)と,前フレームから予測された現フレームの状態予測値x-(t)及び誤差共分散行列の予測値P-(t)とから,状態推定値x^(t),誤差共分散行列の推定値P(t)を求める。そして,同時に予測処理を行い,その推定値x^(t),P(t)から次のフレーム(t+1)でのゲーティング処理等で使用する予測値x-(t+1),P-(t+1)を生成する。 And by the estimation (update) processing in the current frame (t), the observation data z (t) of the current frame (t) associated with the target T1 (t-1) of the previous frame and the prediction from the previous frame state estimated value x of the present frame - (t) predicted value P and the error covariance matrix - since (t), the state estimate x ^ (t), obtaining an estimate of the error covariance matrix P (t). Then, prediction processing is performed at the same time, and prediction values x (t + 1), P used for gating processing etc. in the next frame (t + 1) from the estimated values x ^ (t), P (t) -Generate (t + 1).

さらに,次のフレーム(t+1)でも,同様の推定処理を行い,次々のフレーム(t+2)での予測値を求める予測処理を行う。   Further, the same estimation process is performed for the next frame (t + 1), and the prediction process for obtaining the predicted value for the next frame (t + 2) is performed.

図3に示した目標追尾プログラムのフローチャート図を参照して,再度目標追尾処理の概略を整理すると,次のとおりである。まず,最初のフレーム(時刻)で,観測データが抽出され,高い輝度の点目標から目標が設定されている(S1)。そして,次のフレーム(時刻+1)で(S2),観測データが抽出され(S3),ゲーティング処理により候補となる観測データがゲート領域内の観測データに絞られ(S4),相関処理により目標と観測データの関連付けが行われる(S5)。さらに,追尾フィルタ手段が,現フレームでの状態量x(t),誤差共分散行列P(t)を推定し,次のフレームでの状態量x(t+1),誤差共分散行列P(t+1)を予測する(S6)。そして,その次のフレーム(時刻t+1)で(S2),前フレーム(t)で求めた予測値を利用して上記の処理を繰り返す。   With reference to the flowchart of the target tracking program shown in FIG. 3, the outline of the target tracking process is again organized as follows. First, observation data is extracted in the first frame (time), and a target is set from a point target with high brightness (S1). Then, in the next frame (time +1) (S2), observation data is extracted (S3), candidate observation data is narrowed down to observation data in the gate region by gating processing (S4), and target processing is performed by correlation processing. And observation data are associated (S5). Further, the tracking filter means estimates the state quantity x (t) and error covariance matrix P (t) in the current frame, and the state quantity x (t + 1) and error covariance matrix P ( t + 1) is predicted (S6). Then, in the next frame (time t + 1) (S2), the above processing is repeated using the predicted value obtained in the previous frame (t).

上記のカルマンフィルタについては,一般的に知られている技術であり,例えば,以下の文献にも記載されている。
http://ja.wikipedia.org/wiki/%E3%82%AB%E3%83%AB%E3%83%9E%E3%83%B3%E3%83%95%E3%82%A3%E3%83%AB%E3%82%BF%E3%83%BC
[本実施の形態における目標追尾処理]
本実施の形態における目標追尾装置は,運動が不規則な目標を適切に追尾できるように,追尾フィルタを構成するカルマンフィルタのプロセスノイズQを大きくする。つまり,前述の遷移モデル,観測モデル,予測処理,推定(更新)処理に示されるように,プロセスノイズQを大きくすることで,不規則性な動きの目標を追尾することができる。
The above Kalman filter is a generally known technique, and is described in, for example, the following documents.
http://en.wikipedia.org/wiki/%E3%82%AB%E3%83%AB%E3%83%9E%E3%83%B3%E3%83%95%E3%82%A3%E3 % 83% AB% E3% 82% BF% E3% 83% BC
[Target tracking processing in this embodiment]
The target tracking device in the present embodiment increases the process noise Q of the Kalman filter that constitutes the tracking filter so that a target with irregular motion can be properly tracked. That is, as shown in the transition model, observation model, prediction process, and estimation (update) process described above, the target of irregular motion can be tracked by increasing the process noise Q.

ただし,プロセスノイズQを大きくすると,ゲート領域が広くなる。その結果,(1)次のフレームで予測位置近辺のゲート領域により絞り込まれる観測データの数が多くなり,相関処理での候補となる観測データの数の増大は,関連付けのための計算量が増大し,(2)ノイズから発生する観測データと目標との分別が困難になり,関連付けの誤りが増大する。このように,不規則な運動をする目標を追尾する場合,プロセスノイズQを大きくすると,計算量の増大と誤りの増大が発生する。   However, increasing the process noise Q increases the gate area. As a result, (1) in the next frame, the number of observation data narrowed down by the gate area near the predicted position increases, and the increase in the number of observation data that can be candidates for correlation processing increases the amount of calculation for association However, (2) it becomes difficult to discriminate between observation data generated from noise and the target, and errors in association increase. In this way, when tracking a target that moves irregularly, increasing the process noise Q increases the amount of computation and errors.

以下,プロセスノイズQとゲート領域との関係について説明する。   Hereinafter, the relationship between the process noise Q and the gate region will be described.

カルマンフィルタでは,次のフレームの目標は,以下の予測位置(式(7))の中心と,残差共分散行列をS(t)とする正規分布のばらつきにしたがって観測されると仮定する。そこで,観測位置z(t)と予測位置(式(7))の残差を以下のd(t)(式(8))とすると,以下のマハラノビス距離(式(9))が予測位置(式(7))への近さを表す尺度となる。それ故,マハラノビス距離(式(9))が閾値T以下になる領域を,ゲート領域として用いる。つまり,ゲート領域の境界は,中心の予測位置(式(7))からマハラノビス距離(式(9))が閾値Tになる楕円形になる。この楕円形は,図9に示されるとおりである。   In the Kalman filter, it is assumed that the target of the next frame is observed according to the center of the following predicted position (formula (7)) and the normal distribution variation with the residual covariance matrix as S (t). Therefore, if the residual between the observation position z (t) and the predicted position (formula (7)) is d (t) (formula (8)) below, the following Mahalanobis distance (formula (9)) is It is a scale that represents the proximity to equation (7). Therefore, a region where the Mahalanobis distance (equation (9)) is equal to or less than the threshold value T is used as the gate region. That is, the boundary of the gate region becomes an ellipse whose Mahalanobis distance (Equation (9)) is the threshold T from the predicted center position (Equation (7)). This ellipse is as shown in FIG.

Figure 2014211846
Figure 2014211846

このように,マハラノビス距離(式(9))は,残差共分散行列S(t)を用いて計算される。そして,残差共分散行列S(t)は,式(2)(3)に示されるとおり,プロセスノイズの共分散行列Qに基づいて計算される。したがって,プロセスノイズの共分散行列Qが大きくなると,式(2)により誤差共分散行列P(t)の予測値も大きくなり,式(3)により残差共分散行列S(t)も大きくなる(逆数S(t)-1は小さくなる)。マハラノビス距離(式(9))は,距離の残差d(t)を残差共分散行列S(t)で正規化したのもであるので,残差共分散行列S(t)が大きい場合には,マハラノビス距離(式(9))は小さくなる。その結果,マハラノビス距離(式(9))が閾値T以下となるゲート領域は広くなる。 As described above, the Mahalanobis distance (formula (9)) is calculated using the residual covariance matrix S (t). The residual covariance matrix S (t) is calculated based on the process noise covariance matrix Q as shown in equations (2) and (3). Therefore, when the process noise covariance matrix Q increases, the prediction value of the error covariance matrix P (t) also increases according to equation (2), and the residual covariance matrix S (t) also increases according to equation (3). (The reciprocal S (t) -1 becomes smaller). The Mahalanobis distance (Equation (9)) is obtained by normalizing the residual d (t) of the distance with the residual covariance matrix S (t), so if the residual covariance matrix S (t) is large, , Mahalanobis distance (equation (9)) becomes smaller. As a result, the gate region where the Mahalanobis distance (equation (9)) is equal to or smaller than the threshold value T is widened.

そこで,本実施の形態における目標追尾装置は,不規則な運動をする目標を適切に追尾するために,目標の輝度値の大きさに応じて,プロセスノイズQを次のように調整する。
(1)目標の輝度値が大きい場合は,プロセスノイズQを大きくする。それに伴いゲート領域が広くなる。目標の輝度値が小さい場合は,プロセスノイズQを小さくする。それに伴いゲート領域が狭くなる。望ましくは,プロセスノイズQの大きさは,ゲート領域内でノイズにより発生する観測データのうち,関連付け対象の観測データの数が一定数以下になるように決定する。
(2)追尾している目標の輝度値からある一定値以上の差がある低輝度値(輝度閾値Vth以下)の観測データは,関連付け対象の観測データから除外する。
Therefore, the target tracking device in the present embodiment adjusts the process noise Q as follows in accordance with the magnitude of the target luminance value in order to appropriately track a target that performs irregular motion.
(1) If the target luminance value is large, increase the process noise Q. As a result, the gate region becomes wider. If the target luminance value is small, the process noise Q is reduced. Accordingly, the gate region becomes narrower. Desirably, the magnitude of the process noise Q is determined so that the number of observation data to be associated among the observation data generated by noise in the gate region is equal to or less than a certain number.
(2) Observation data having a low luminance value (below the luminance threshold Vth) having a certain difference or more from the target luminance value being tracked is excluded from the observation data to be associated.

一般に,目標は,近づくほど輝度値が大きくなる。そして,輝度値が大きければその輝度値からある一定値以上の差がある低輝度値(輝度閾値Vth以下)を関連付け候補から除外しても追尾に誤りが生じることは少ない。そこで,目標の輝度値が大きい場合は,プロセスノイズQを大きくして不規則運動をする目標を適切に追尾できるようにする。ただし,ゲート領域が広くなるので,ゲート領域内の観測データから目標の輝度値からある一定値以上の差がある低輝度値(輝度閾値Vth以下)の観測データを除外して,関連付け処理を行う。これにより,プロセスノイズQを大きくしたことによるゲート領域が広くなることの弊害を抑制する。   In general, the brightness value increases as the target gets closer. If the luminance value is large, even if a low luminance value (below the luminance threshold Vth) having a difference of a certain value or more from the luminance value is excluded from the association candidates, there is little error in tracking. Therefore, when the target luminance value is large, the process noise Q is increased so that the target that performs irregular motion can be appropriately tracked. However, since the gate area becomes wide, the observation data in the gate area is excluded from the observation data with a low luminance value (below the luminance threshold Vth) that differs from the target luminance value by a certain value or more, and the association process is performed. . As a result, the adverse effect of widening the gate region due to the increased process noise Q is suppressed.

図10は,本実施の形態における目標追尾装置の構成図である。図10の目標追尾装置は,図2の目標追尾装置の概略構成に示した観測データ抽出手段241と,ゲーティング処理手段242と,相関処理手段243と,追尾フィルタ手段244に加えて,輝度予測フィルタ手段245と,輝度閾値の決定手段246と,プロセスノイズの決定手段247とを有する。そして,輝度予測フィルタ手段245が,追尾フィルタ手段244と同様のカルマンフィルタにより,次のフレームでの目標の予測輝度値Vとその分散(ばらつき)σ(V)を予測し,輝度閾値決定手段246が,予測輝度値Vとその分散σ(V)とから輝度閾値Vthを決定し,プロセスノイズ決定手段247が,予測輝度値Vと輝度閾値VthとからプロセスノイズQを決定し,追尾フィルタ手段244にそのプロセスノイズQを設定する。   FIG. 10 is a configuration diagram of the target tracking device according to the present embodiment. The target tracking device of FIG. 10 is a luminance predictor in addition to the observation data extraction means 241, the gating processing means 242, the correlation processing means 243, and the tracking filter means 244 shown in the schematic configuration of the target tracking device of FIG. Filter means 245, luminance threshold value determining means 246, and process noise determining means 247 are provided. Then, the brightness prediction filter means 245 predicts the target predicted brightness value V and its variance (variation) σ (V) in the next frame by the same Kalman filter as the tracking filter means 244, and the brightness threshold value determination means 246 , The luminance threshold value Vth is determined from the predicted luminance value V and its variance σ (V), and the process noise determining unit 247 determines the process noise Q from the predicted luminance value V and the luminance threshold value Vth, and sends it to the tracking filter unit 244. Set the process noise Q.

前述のとおり,プロセスノイズ決定手段247は,目標の輝度値が大きい場合はプロセスノイズQを大きくして追尾フィルタ手段244による不規則な運動をする目標を追尾可能にする。つまり,追尾フィルタ手段244は,プロセスノイズ決定手段247が決定したプロセスノイズQに対応してフィルタ処理を行う。ただし,プロセスノイズQを大きくしたことでゲート領域が大きくなるので,ゲーティング処理手段242は,輝度閾値Vth以下の観測データを関連づけ処理対象となる候補の観測データから除外して,関連づけ処理対象の観測データが過度に増大しないように,好ましくは一定数になるようにする。   As described above, the process noise determination unit 247 increases the process noise Q when the target luminance value is large, and enables the tracking filter unit 244 to track a target that performs irregular motion. That is, the tracking filter unit 244 performs a filter process corresponding to the process noise Q determined by the process noise determination unit 247. However, since the gate area is increased by increasing the process noise Q, the gating processing unit 242 excludes the observation data below the luminance threshold Vth from the candidate observation data to be associated with the association processing target, Preferably, the number of observation data should be constant so that it does not increase excessively.

図10の観測データ抽出手段241と,ゲーティング処理手段242と,相関処理手段243と,追尾フィルタ手段244とは,図2で説明した処理と同様の処理をそれぞれ行う。但し,追尾フィルタ手段244が,プロセスノイズ決定手段247が決定したプロセスノイズQに対応してフィルタ処理を行う点で,図2とは異なり,ゲーティング手段242が,輝度閾値Vth以下の観測データを候補の観測データから除外する点で,図2とは異なる。   The observation data extraction unit 241, the gating processing unit 242, the correlation processing unit 243, and the tracking filter unit 244 in FIG. 10 perform the same processes as those described in FIG. However, unlike FIG. 2, the tracking filter means 244 performs the filtering process corresponding to the process noise Q determined by the process noise determination means 247, and the gating means 242 transmits the observation data below the luminance threshold Vth. It differs from Fig. 2 in that it is excluded from the candidate observation data.

図11は,本実施の形態における目標追尾プログラムのフローチャート図である。図11のフローチャートの処理S1,S2,S3,S5は,図2の各処理S1,S2,S3,S5と同じであるが,図11の処理S7,S8,S9は,図2に追加された処理であり,図11の処理S4X,S6Xは,図2の処理S4,S6と一部異なる処理である。   FIG. 11 is a flowchart of the target tracking program in the present embodiment. The processes S1, S2, S3, and S5 in the flowchart of FIG. 11 are the same as the processes S1, S2, S3, and S5 of FIG. 2, but the processes S7, S8, and S9 of FIG. 11 are added to FIG. The processes S4X and S6X in FIG. 11 are partially different from the processes S4 and S6 in FIG.

図11の目標追尾プログラムによる目標追尾処理では,まず,最初のフレーム(時刻)で,観測データが抽出され,高い輝度の点目標から目標が設定される(S1)。そして,次のフレーム(時刻+1)で(S2),観測データが抽出され(S3),ゲーティング処理によりゲート領域内の観測データであって輝度閾値Vthより高い輝度値を有する観測データに候補が絞られ(S4X),相関処理により目標と絞られた観測データの関連付けが行われる(S5)。   In the target tracking process by the target tracking program of FIG. 11, first, observation data is extracted at the first frame (time), and a target is set from a point target with high luminance (S1). Then, in the next frame (time +1) (S2), the observation data is extracted (S3), and the observation data in the gate region by the gating process has a candidate for the observation data having a luminance value higher than the luminance threshold Vth. It is narrowed down (S4X), and correlation of observation data narrowed down to the target is performed by correlation processing (S5).

次に,輝度予測フィルタ手段245により,追尾フィルタのカルマンフィルタと同様の方法で,前フレームで予測した予測輝度値と現フレームで観測した輝度値から輝度値を推定し,次のフレームでの輝度値を予測する(S7)。この推定と予測は,輝度値の変化量と輝度値の分散(ばらつき)σ(V)についても行われる。そして,輝度閾値の決定手段246により,輝度閾値Vthを決定する。また,プロセスノイズ決定手段247により,予測輝度値Vと輝度閾値Vthを用いて,プロセスノイズQを決定する(S9)。望ましくは,ゲーティング手段242が輝度閾値Vthを超える輝度値の観測データを絞り込む場合のゲート領域の面積Aが,絞り込む観測データの数がある一定数になるような面積になるようにプロセスノイズQを決定する。   Next, the luminance prediction filter means 245 estimates the luminance value from the predicted luminance value predicted in the previous frame and the luminance value observed in the current frame in the same manner as the Kalman filter of the tracking filter, and the luminance value in the next frame Is predicted (S7). This estimation and prediction is also performed for the amount of change in the luminance value and the variance (variation) σ (V) of the luminance value. Then, the luminance threshold Vth is determined by the luminance threshold determining means 246. Further, the process noise determining means 247 determines the process noise Q using the predicted luminance value V and the luminance threshold value Vth (S9). Desirably, the process noise Q is set so that the area A of the gate region when the gating means 242 narrows down the observation data having a luminance value exceeding the luminance threshold Vth is an area where the number of observation data to be narrowed down is a certain number. To decide.

さらに,追尾フィルタ手段が,決定されたプロセスノイズQに基づいて,現フレームでの状態量(位置と速度),誤差共分散行列を推定し,次のフレームでの状態量,誤差共分散行列を予測する(S6X)。そして,その次のフレーム(時刻)で(S2),前フレームで求めた予測値を利用して上記の処理を繰り返す。   Further, the tracking filter means estimates the state quantity (position and velocity) and error covariance matrix in the current frame based on the determined process noise Q, and obtains the state quantity and error covariance matrix in the next frame. Predict (S6X). Then, in the next frame (time) (S2), the above processing is repeated using the predicted value obtained in the previous frame.

図12は,輝度予測フィルタ手段による処理のフローチャート図である。輝度予測フィルタ手段245は,追尾フィルタ手段244での状態量が目標の輝度値と輝度変化速度に置き換えられたカルマンフィルタである。したがって,輝度予測フィルタ手段は,目標の予測輝度値と目標に関連づけられた観測輝度値とから,現フレームでの目標の輝度値を推定する(S31)。輝度値に加えて,輝度変化速度とばらつきも推定する。さらに,輝度予測フィルタ手段は,推定した目標の輝度値と輝度変化速度から,次のフレームの予測輝度値と予測輝度変化速度と輝度値のばらつき(分散σ(V))を予測する(S32)。   FIG. 12 is a flowchart of processing by the luminance prediction filter means. The luminance prediction filter unit 245 is a Kalman filter in which the state quantity in the tracking filter unit 244 is replaced with a target luminance value and a luminance change rate. Therefore, the luminance prediction filter means estimates the target luminance value in the current frame from the target predicted luminance value and the observed luminance value associated with the target (S31). In addition to the luminance value, the luminance change speed and variation are also estimated. Further, the brightness prediction filter means predicts the predicted brightness value, predicted brightness change speed, and variation in brightness value (variance σ (V)) of the next frame from the estimated target brightness value and brightness change speed (S32). .

図13は,輝度閾値の決定手段による輝度閾値Vthの決定を説明する図である。図13には,次のフレームでの目標の輝度値の分布が示され,横軸が輝度,縦軸が横軸の輝度が発生する確率を示している。輝度閾値決定手段246は,次のフレームで目標と関連づける観測データの輝度閾値Vthを決定する。そして,次のフレームでは,ゲーティング手段242が,ゲート領域内の観測データであって輝度閾値Vthを超える観測データを,目標と関連づける候補の観測データとして絞り込む。   FIG. 13 is a diagram for explaining determination of the luminance threshold Vth by the luminance threshold determination means. FIG. 13 shows the distribution of target luminance values in the next frame, with the horizontal axis representing the luminance and the vertical axis representing the probability of the luminance on the horizontal axis. The luminance threshold value determining means 246 determines the luminance threshold value Vth of the observation data associated with the target in the next frame. In the next frame, the gating means 242 narrows the observation data in the gate region that exceeds the luminance threshold Vth as candidate observation data associated with the target.

図13に示すとおり,輝度閾値決定手段246は,輝度予測フィルタ手段245が予測した予測輝度Vを平均値とし,輝度の予測ばらつきを分散σ(V)とする正規分布を想定し,その正規分布内の上側確率が99%となる輝度閾値Vthを計算により求める。すなわち,輝度閾値Vthは,次のとおりになる。
Vth=V−2.32×σ(V)
このように予測輝度Vの大きさに応じた輝度閾値Vthを定めることで,次のフレームで観測される観測データから絞り込まれる観測データには,予測輝度Vを平均値としσ(V)の分散を有する正規分布内の輝度値が99%含まれることになる。この絞り込まれる観測データの数を一定のN個に固定することが,望ましい。
As shown in FIG. 13, the luminance threshold value determining unit 246 assumes a normal distribution in which the predicted luminance V predicted by the luminance prediction filter unit 245 is an average value, and the predicted luminance variation is variance σ (V), and the normal distribution A luminance threshold Vth at which the upper probability is 99% is calculated. That is, the brightness threshold value Vth is as follows.
Vth = V−2.32 × σ (V)
By defining the brightness threshold Vth according to the magnitude of the predicted brightness V in this way, the observed data narrowed down from the observed data observed in the next frame is used as the average value of the predicted brightness V and the variance of σ (V) 99% of luminance values in the normal distribution having It is desirable to fix the number of observation data to be narrowed to a constant N.

図14は,プロセスノイズ決定手段による処理のフローチャート図である。プロセスノイズ決定手段247は,予測輝度値Vと輝度閾値Vthを用いて,プロセスノイズQを決定する(S9)。すなわち,予測輝度値Vが高くなるにしたがい,プロセスノイズQ(qx,qy)を大きくするように決定する。それに伴い,追尾フィルタ手段244は,大きいプロセスノイズQに基づいて,推定(更新)と,予測を行うので,不規則な動きをする目標を追尾することができる。ただし,プロセスノイズQを大きくすると,ゲート領域が大きくなるので,ゲーティング手段242が,ゲート領域内にある観測データから輝度閾値Vthを超える観測データを候補の観測データとして絞り込む。   FIG. 14 is a flowchart of processing by the process noise determining means. The process noise determining means 247 determines the process noise Q using the predicted luminance value V and the luminance threshold value Vth (S9). That is, the process noise Q (qx, qy) is determined to increase as the predicted luminance value V increases. Accordingly, the tracking filter unit 244 performs estimation (update) and prediction based on the large process noise Q, and therefore can track a target that moves irregularly. However, if the process noise Q is increased, the gate region becomes larger, so the gating means 242 narrows the observation data that exceeds the luminance threshold Vth from the observation data in the gate region as candidate observation data.

プロセスノイズ決定手段247は,望ましくは,ゲーティング手段242が輝度閾値Vthを超える輝度値の観測データを絞り込む場合のゲート領域の面積Aが,絞り込む観測データの数がある一定数になるような面積になるようにプロセスノイズQを決定する。以下,図14のフローチャートにしたがって,この望ましい方法でプロセスノイズを決定する処理について説明する。   Preferably, the process noise determining unit 247 preferably has an area where the area A of the gate region when the gating unit 242 narrows down observation data having a luminance value exceeding the luminance threshold Vth is a certain number. Determine the process noise Q to be Hereinafter, the process for determining the process noise by this desirable method will be described with reference to the flowchart of FIG.

プロセスノイズ決定手段247は,プロセスノイズqx,qyを,最大値qxmax,qymaxに設定する(S41)。次に,プロセスノイズ決定手段は,ノイズに基づいて発生する観測データが輝度閾値Vthを超える確率P(Vth)を計算する(S42)。   The process noise determining means 247 sets the process noise qx, qy to the maximum values qxmax, qymax (S41). Next, the process noise determining means calculates a probability P (Vth) that the observation data generated based on the noise exceeds the luminance threshold value Vth (S42).

図15は,観測データが輝度閾値Vthを超える確率P(Vth)の計算を説明する図である。ノイズが白色雑音であるモデルを仮定する。雑音が白色雑音である場合,そのモデルは,白色雑音がない理想的な輝度である背景輝度Vbgを中心として,分散Isの正規分布となる。つまり,撮像センサにより撮像される全観測データの輝度値の分布は,図15の正規分布になる。一方,このような輝度値の分布モデルにおいて,輝度閾値Vthを超える確率P(Vth)は,正規分布で(Vth-Vbg)/Is以上となる上側確率で与えられる。   FIG. 15 is a diagram for explaining the calculation of the probability P (Vth) that the observation data exceeds the luminance threshold Vth. Assume a model where the noise is white noise. When the noise is white noise, the model has a normal distribution with the variance Is centered on the background luminance Vbg, which is an ideal luminance without white noise. That is, the distribution of luminance values of all observation data imaged by the imaging sensor is the normal distribution of FIG. On the other hand, in such a luminance value distribution model, the probability P (Vth) exceeding the luminance threshold Vth is given as an upper probability that is (Vth−Vbg) / Is or higher in the normal distribution.

次に,プロセスノイズ決定手段は,ノイズから発生する観測データのうち輝度閾値Vthを超える観測データの数の期待値が一定値Nとなるゲート領域の面積Aを,次の通り計算する(S43)。
P(Vth)×A=N
よって,A=N/P(Vth)
そして,プロセスノイズ決定手段は,現在設定されているプロセスノイズqx,qyからゲート領域の面積Bを求める(S44)。この計算では,式(2)(3)にしたがい,プロセスノイズQ(qx,qy)から共分散行列S(t)を求め,マハラノビス距離を求め,そのマハラノビス距離が閾値Tになるゲート領域の面積を求める。
Next, the process noise determining means calculates the area A of the gate region where the expected value of the number of observation data exceeding the luminance threshold Vth among the observation data generated from the noise is a constant value N (S43). .
P (Vth) × A = N
Therefore, A = N / P (Vth)
Then, the process noise determining means obtains the area B of the gate region from the currently set process noises qx and qy (S44). In this calculation, the covariance matrix S (t) is obtained from the process noise Q (qx, qy) according to Equations (2) and (3), the Mahalanobis distance is obtained, and the area of the gate region where the Mahalanobis distance is the threshold T Ask for.

プロセスノイズ決定手段は,面積Bが面積Aよりも小さくなるまで(S45のYES),プロセスノイズqx,qyに1未満の係数を乗算してqx,qyを小さくし(S46),処理S44,S45を繰り返す。そして,面積B<面積Aになると(S45のYES),プロセスノイズ決定手段は,現在のプロセスノイズqx,qyをプロセスノイズとして決定して出力する(S47)。   The process noise determining means multiplies the process noise qx, qy by a coefficient less than 1 to reduce qx, qy until the area B becomes smaller than the area A (YES in S45) (S46), and processes S44, S45. repeat. When area B <area A (YES in S45), the process noise determining means determines and outputs the current process noise qx, qy as process noise (S47).

図15に示した処理において,予測輝度値Vが大きいほど,輝度閾値Vthも大きくなり,図15において輝度閾値Vthを超える確率P(Vth)は小さくなり,その結果,ゲート領域の面積Aは大きくなる。それに伴い,ゲート領域の面積Aに対応する面積BのプロセスノイズQ(qx,qy)も大きく決定される。逆に,予測輝度値Vが小さいほど,輝度閾値Vthも小さくなり,確率P(Vth)は大きくなり,その結果,ゲート領域の面積Aは小さくなる。それに伴い,ゲート領域の面積Aに対応する面積BのプロセスノイズQ(qx,qy)も小さく決定される。   In the processing shown in FIG. 15, the larger the predicted luminance value V, the larger the luminance threshold Vth, and the probability P (Vth) exceeding the luminance threshold Vth in FIG. 15 decreases, and as a result, the area A of the gate region increases. Become. Accordingly, the process noise Q (qx, qy) of the area B corresponding to the area A of the gate region is also largely determined. Conversely, the smaller the predicted luminance value V is, the smaller the luminance threshold Vth is, and the probability P (Vth) is increased. As a result, the area A of the gate region is decreased. Accordingly, the process noise Q (qx, qy) of the area B corresponding to the area A of the gate region is also determined to be small.

つまり,プロセスノイズ決定手段は,予測輝度値Vが大きくなるとプロセスノイズQ(qx,qy)を大きい値に決定し,予測輝度値Vが小さくなるとプロセスノイズQ(qx,qy)を小さい値に決定する。   That is, the process noise determining means determines the process noise Q (qx, qy) to be a large value when the predicted luminance value V increases, and determines the process noise Q (qx, qy) to be a small value when the predicted luminance value V decreases. To do.

さらに,プロセスノイズ決定手段は,望ましくは,ゲーティング処理手段により絞られる候補の観測データの数を一定値Nに固定するために,図13の白色雑音の輝度値の分布モデルを利用して,プロセスノイズを決定する。   Furthermore, the process noise determining means preferably uses the distribution model of the luminance value of white noise in FIG. 13 in order to fix the number of candidate observation data narrowed down by the gating processing means to a constant value N, Determine process noise.

図16は,本実施の形態におけるゲーティング処理手段の処理のフローチャート図である。ゲーティング処理手段は,撮像センサが取得した観測データから,目標に対する予測位置を中心とし,決定されたプロセスノイズに対応する面積のゲート領域内にある輝度閾値Vthを超える輝度値の観測データに絞る(S51)。この処理は,全ての目標に対して行われる(S52)。   FIG. 16 is a flowchart of processing of the gating processing means in the present embodiment. The gating processing means narrows down the observation data acquired by the imaging sensor to observation data having a luminance value exceeding the luminance threshold Vth in the gate region having an area corresponding to the determined process noise centered on the predicted position with respect to the target. (S51). This process is performed for all targets (S52).

予測輝度値Vが高ければ,輝度閾値Vthも高くなり,プロセスノイズQ(qx,qy)が大きく設定されてゲート領域が広くなっても,ゲーティング処理手段により絞り込まれる候補の観測データの数が過剰に大きくなることはない。逆に,予測輝度値Vが低ければ,輝度閾値Vthも低くなり,プロセスノイズQ(qx,qy)が小さく設定されてゲート領域が狭くなると,ゲーティング処理手段にて輝度閾値Vthにより絞られる程度は低く,十分な候補の観測データの数になる。   If the predicted brightness value V is high, the brightness threshold Vth is also increased, and even if the process noise Q (qx, qy) is set large and the gate area is widened, the number of candidate observation data to be narrowed down by the gating processing means is small. It won't be too big. Conversely, if the predicted luminance value V is low, the luminance threshold Vth is also low, and if the process noise Q (qx, qy) is set small and the gate area becomes narrow, the gate processing means is narrowed down by the luminance threshold Vth. Is low and the number of candidate observation data is sufficient.

図7に示した追尾フィルタ手段の処理は,本実施の形態においても同様に行われる。追尾フィルタ手段による推定(更新)と予測は,プロセスノイズQに基づいて求められる誤差共分散行列P(t)により行われるので,プロセスノイズQが大きく設定されれば,誤差共分散行列P(t)のばらつきも大きく設定され,式(1)−(6)による推定と予測処理により,不規則な動きを伴う目標の追尾を適切に行うことができる。   The processing of the tracking filter unit shown in FIG. 7 is similarly performed in the present embodiment. Since the estimation (update) and prediction by the tracking filter means are performed by the error covariance matrix P (t) obtained based on the process noise Q, if the process noise Q is set large, the error covariance matrix P (t ) Is set to be large, and the target tracking with irregular motion can be appropriately performed by the estimation and prediction processing according to equations (1) to (6).

上記の実施の形態では,追尾フィルタ手段として目標が線型移動するカルマンフィルタを例にして説明したが,目標が非線形移動する拡張カルマンフィルタを用いても良いことは言うまでもない。   In the above embodiment, the Kalman filter in which the target moves linearly as an example of the tracking filter means has been described, but it goes without saying that an extended Kalman filter in which the target moves nonlinearly may be used.

以上の通り,本実施の形態の目標追尾装置と目標追尾プログラムによれば,不規則な動きを伴う目標の追尾を,計算量の増大を抑制しつつ誤判定の確率を抑制しつつ行うことができる。   As described above, according to the target tracking device and the target tracking program of the present embodiment, target tracking with irregular movement can be performed while suppressing an increase in the amount of calculation while suppressing the probability of erroneous determination. it can.

以上の実施の形態をまとめると,次の付記のとおりである。   The above embodiment is summarized as follows.

(付記1)
撮像センサから取得した画像データから目標候補となる観測データを抽出する観測データ抽出手段と,
前記抽出した観測データから,目標の次のフレームでの予測位置近辺のゲート領域内の観測データに絞り込むゲーティング処理手段と,
追尾している各目標を前記絞り込んだ観測データのいずれかに関連付ける相関処理手段と,
前記目標と関連付けされた観測データと,プロセスノイズとに基づいて,現フレームにおける前記目標の位置とばらつきとを推定し,次のフレームにおける前記目標の位置とばらつきを予測する追尾フィルタ手段と,
前記目標の輝度値が高いほど前記プロセスノイズを大きくするプロセスノイズ決定手段とを有し,
前記プロセスノイズが大きいほど前記ゲート領域が広く設定され,
前記ゲーティング処理手段は,前記ゲート領域内にある前記目標の輝度値に対応する輝度閾値を超える観測データに絞り込む目標追尾装置。
(Appendix 1)
Observation data extraction means for extracting observation data as target candidates from image data acquired from an image sensor;
Gating processing means for narrowing down the extracted observation data to observation data in the gate region near the predicted position in the next frame of the target;
Correlation processing means for associating each tracking target with one of the narrowed observation data;
Tracking filter means for estimating the position and variation of the target in a current frame based on the observation data associated with the target and process noise, and predicting the position and variation of the target in the next frame;
Process noise determining means for increasing the process noise as the target luminance value is higher,
The larger the process noise, the wider the gate region is set.
The target tracking device, wherein the gating processing means narrows down observation data exceeding a luminance threshold corresponding to the target luminance value in the gate area.

(付記2)
付記1において,
前記プロセスノイズ決定手段は,前記輝度閾値に基づいて,前記輝度閾値が変化しても前記絞り込む観測データの数が一定になるよう前記プロセスノイズを決定する目標追尾装置。
(Appendix 2)
In Appendix 1,
The process noise determination unit is a target tracking device that determines the process noise based on the luminance threshold value so that the number of observation data to be narrowed is constant even when the luminance threshold value changes.

(付記3)
付記2において,さらに,
前記目標の輝度値を予測する輝度値予測フィルタ手段と,
前記予測した輝度値が高いほど前記輝度閾値を高く決定する輝度閾値決定手段とを有し,
前記プロセスノイズ決定手段は,前記予測した輝度値が高いほど前記プロセスノイズを大きくする目標追尾装置。
(Appendix 3)
In Appendix 2,
Brightness value prediction filter means for predicting the target brightness value;
Brightness threshold determination means for determining the brightness threshold higher as the predicted brightness value is higher,
The process noise determination means is a target tracking device that increases the process noise as the predicted luminance value increases.

(付記4)
撮像センサから取得した画像データについて目標を追尾する目標追尾処理をコンピュータに実行させる目標追尾プログラムであって,
前記目標追尾処理は,
撮像センサから取得した画像データから目標候補となる観測データを抽出する観測データ抽出工程と,
前記抽出した観測データから,目標の次のフレームでの予測位置近辺のゲート領域内の観測データに絞り込むゲーティング処理工程と,
追尾している各目標を前記絞り込んだ観測データのいずれかに関連付ける相関処理工程と,
前記目標と関連付けされた観測データと,プロセスノイズとに基づいて,現フレームにおける前記目標の位置とばらつきとを推定し,次のフレームにおける前記目標の位置とばらつきを予測する追尾フィルタ工程と,
前記目標の輝度値が高いほど前記プロセスノイズを大きくするプロセスノイズ決定工程とを有し,
前記プロセスノイズが大きいほど前記ゲート領域が広く設定され,
前記ゲーティング処理工程では,前記ゲート領域内にある前記目標の輝度値に対応する輝度閾値を超える観測データに絞り込む目標追尾プログラム。
(Appendix 4)
A target tracking program for causing a computer to execute target tracking processing for tracking a target for image data acquired from an imaging sensor,
The target tracking process is:
An observation data extraction process for extracting observation data as target candidates from image data acquired from an image sensor;
A gating process that narrows down the extracted observation data to observation data in the gate region near the predicted position in the next frame of the target;
Correlating each tracking target with one of the narrowed observation data;
A tracking filter step of estimating the position and variation of the target in the current frame based on the observation data associated with the target and process noise, and predicting the position and variation of the target in the next frame;
A process noise determination step of increasing the process noise as the target luminance value is higher,
The larger the process noise, the wider the gate region is set.
In the gating processing step, a target tracking program that narrows down to observation data that exceeds a luminance threshold corresponding to the target luminance value in the gate region.

(付記5)
付記4において,
前記プロセスノイズ決定工程では,前記輝度閾値に基づいて,前記輝度閾値が変化しても前記絞り込む観測データの数が一定になるよう前記プロセスノイズを決定する目標追尾プログラム。
(Appendix 5)
In Appendix 4,
In the process noise determination step, a target tracking program for determining the process noise based on the luminance threshold value so that the number of observation data to be narrowed is constant even if the luminance threshold value changes.

(付記6)
付記5において,さらに,
前記目標の輝度値を予測する輝度値予測フィルタ工程と,
前記予測した輝度値が高いほど前記輝度閾値を高く決定する輝度閾値決定工程と,
前記プロセスノイズ決定工程では,前記予測した輝度値が高いほど前記プロセスノイズを大きくする目標追尾プログラム。
(Appendix 6)
In Appendix 5,
A luminance value prediction filter step for predicting the target luminance value;
A luminance threshold value determining step of determining the luminance threshold value higher as the predicted luminance value is higher;
In the process noise determination step, a target tracking program for increasing the process noise as the predicted luminance value increases.

241:観測データ抽出手段
242:ゲーティング処理手段
243:相関処理手段
244:追尾フィルタ手段
245:輝度予測フィルタ手段
246:輝度閾値決定手段
247:プロセスノイズ決定手段
241: Observation data extracting means 242: Gating processing means 243: Correlation processing means 244: Tracking filter means 245: Luminance prediction filter means 246: Luminance threshold determining means 247: Process noise determining means

Claims (4)

撮像センサから取得した画像データから目標候補となる観測データを抽出する観測データ抽出手段と,
前記抽出した観測データから,目標の次のフレームでの予測位置近辺のゲート領域内の観測データに絞り込むゲーティング処理手段と,
追尾している各目標を前記絞り込んだ観測データのいずれかに関連付ける相関処理手段と,
前記目標と関連付けされた観測データと,プロセスノイズとに基づいて,現フレームにおける前記目標の位置とばらつきとを推定し,次のフレームにおける前記目標の位置とばらつきを予測する追尾フィルタ手段と,
前記目標の輝度値が高いほど前記プロセスノイズを大きくするプロセスノイズ決定手段とを有し,
前記プロセスノイズが大きいほど前記ゲート領域が広く設定され,
前記ゲーティング処理手段は,前記ゲート領域内にある前記目標の輝度値に対応する輝度閾値を超える観測データに絞り込む目標追尾装置。
Observation data extraction means for extracting observation data as target candidates from image data acquired from an image sensor;
Gating processing means for narrowing down the extracted observation data to observation data in the gate region near the predicted position in the next frame of the target;
Correlation processing means for associating each tracking target with one of the narrowed observation data;
Tracking filter means for estimating the position and variation of the target in a current frame based on the observation data associated with the target and process noise, and predicting the position and variation of the target in the next frame;
Process noise determining means for increasing the process noise as the target luminance value is higher,
The larger the process noise, the wider the gate region is set.
The target tracking device, wherein the gating processing means narrows down observation data exceeding a luminance threshold corresponding to the target luminance value in the gate area.
請求項1において,
前記プロセスノイズ決定手段は,前記輝度閾値に基づいて,前記輝度閾値が変化しても前記絞り込む観測データの数が一定になるよう前記プロセスノイズを決定する目標追尾装置。
In claim 1,
The process noise determination unit is a target tracking device that determines the process noise based on the luminance threshold value so that the number of observation data to be narrowed is constant even when the luminance threshold value changes.
請求項2において,さらに,
前記目標の輝度値を予測する輝度値予測フィルタ手段と,
前記予測した輝度値が高いほど前記輝度閾値を高く決定する輝度閾値決定手段とを有し,
前記プロセスノイズ決定手段は,前記予測した輝度値が高いほど前記プロセスノイズを大きくする目標追尾装置。
In claim 2, further,
Brightness value prediction filter means for predicting the target brightness value;
Brightness threshold determination means for determining the brightness threshold higher as the predicted brightness value is higher,
The process noise determination means is a target tracking device that increases the process noise as the predicted luminance value increases.
撮像センサから取得した画像データについて目標を追尾する目標追尾処理をコンピュータに実行させる目標追尾プログラムであって,
前記目標追尾処理は,
撮像センサから取得した画像データから目標候補となる観測データを抽出する観測データ抽出工程と,
前記抽出した観測データから,目標の次のフレームでの予測位置近辺のゲート領域内の観測データに絞り込むゲーティング処理工程と,
追尾している各目標を前記絞り込んだ観測データのいずれかに関連付ける相関処理工程と,
前記目標と関連付けされた観測データと,プロセスノイズとに基づいて,現フレームにおける前記目標の位置とばらつきとを推定し,次のフレームにおける前記目標の位置とばらつきを予測する追尾フィルタ工程と,
前記目標の輝度値が高いほど前記プロセスノイズを大きくするプロセスノイズ決定工程とを有し,
前記プロセスノイズが大きいほど前記ゲート領域が広く設定され,
前記ゲーティング処理工程では,前記ゲート領域内にある前記目標の輝度値に対応する輝度閾値を超える観測データに絞り込む目標追尾プログラム。
A target tracking program for causing a computer to execute target tracking processing for tracking a target for image data acquired from an imaging sensor,
The target tracking process is:
An observation data extraction process for extracting observation data as target candidates from image data acquired from an image sensor;
A gating process that narrows down the extracted observation data to observation data in the gate region near the predicted position in the next frame of the target;
Correlating each tracking target with one of the narrowed observation data;
A tracking filter step of estimating the position and variation of the target in the current frame based on the observation data associated with the target and process noise, and predicting the position and variation of the target in the next frame;
A process noise determination step of increasing the process noise as the target luminance value is higher,
The larger the process noise, the wider the gate region is set.
In the gating processing step, a target tracking program that narrows down to observation data that exceeds a luminance threshold corresponding to the target luminance value in the gate region.
JP2013089204A 2013-04-22 2013-04-22 Target tracking device and target tracking program Expired - Fee Related JP6186834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013089204A JP6186834B2 (en) 2013-04-22 2013-04-22 Target tracking device and target tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013089204A JP6186834B2 (en) 2013-04-22 2013-04-22 Target tracking device and target tracking program

Publications (2)

Publication Number Publication Date
JP2014211846A true JP2014211846A (en) 2014-11-13
JP6186834B2 JP6186834B2 (en) 2017-08-30

Family

ID=51931538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013089204A Expired - Fee Related JP6186834B2 (en) 2013-04-22 2013-04-22 Target tracking device and target tracking program

Country Status (1)

Country Link
JP (1) JP6186834B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110333A (en) * 2014-12-04 2016-06-20 富士通株式会社 Input control method, input control program, and information processing device
JP2017016356A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018088233A (en) * 2016-11-24 2018-06-07 株式会社リコー Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
CN110533694A (en) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 Image processing method, device, terminal and storage medium
JP2020052676A (en) * 2018-09-26 2020-04-02 Ntn株式会社 State monitor and wind power generator using the same
WO2020157844A1 (en) * 2019-01-30 2020-08-06 三菱電機株式会社 Measurement device, measurement method, and measurement program
JP2021096120A (en) * 2019-12-16 2021-06-24 株式会社デンソー Distance measuring device, distance measuring method, and distance measuring program
US11553125B2 (en) 2018-09-13 2023-01-10 Sony Corporation Camera system and cables
CN115823951A (en) * 2023-01-09 2023-03-21 中国兵器装备集团自动化研究所有限公司 Search and tracking track fusion method, device, equipment and storage medium
CN117170418A (en) * 2023-11-02 2023-12-05 杭州华橙软件技术有限公司 Cloud deck control method, device, equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149640B (en) * 2020-10-23 2022-03-04 北京嘀嘀无限科技发展有限公司 Method, device, computer equipment and medium for determining position of target object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012127890A (en) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp Estimation device, computer program, and estimation method
JP2012189585A (en) * 2011-02-25 2012-10-04 Toshiba Corp Target tracking device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012127890A (en) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp Estimation device, computer program, and estimation method
JP2012189585A (en) * 2011-02-25 2012-10-04 Toshiba Corp Target tracking device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110333A (en) * 2014-12-04 2016-06-20 富士通株式会社 Input control method, input control program, and information processing device
JP2017016356A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018088233A (en) * 2016-11-24 2018-06-07 株式会社リコー Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
US11553125B2 (en) 2018-09-13 2023-01-10 Sony Corporation Camera system and cables
JP2020052676A (en) * 2018-09-26 2020-04-02 Ntn株式会社 State monitor and wind power generator using the same
JP7098494B2 (en) 2018-09-26 2022-07-11 Ntn株式会社 Condition monitoring device and wind power generation device using it
WO2020157844A1 (en) * 2019-01-30 2020-08-06 三菱電機株式会社 Measurement device, measurement method, and measurement program
WO2020158020A1 (en) * 2019-01-30 2020-08-06 三菱電機株式会社 Measuring device, measuring method, and measuring program
JPWO2020158020A1 (en) * 2019-01-30 2021-03-25 三菱電機株式会社 Measuring device, measuring method and measuring program
CN113396339A (en) * 2019-01-30 2021-09-14 三菱电机株式会社 Measurement device, measurement method, and measurement program
CN110533694B (en) * 2019-08-30 2024-02-09 腾讯科技(深圳)有限公司 Image processing method, device, terminal and storage medium
CN110533694A (en) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 Image processing method, device, terminal and storage medium
JP2021096120A (en) * 2019-12-16 2021-06-24 株式会社デンソー Distance measuring device, distance measuring method, and distance measuring program
JP7310587B2 (en) 2019-12-16 2023-07-19 株式会社デンソー Ranging device, ranging method, and ranging program
CN115823951B (en) * 2023-01-09 2023-04-18 中国兵器装备集团自动化研究所有限公司 Search and tracking track fusion method, device, equipment and storage medium
CN115823951A (en) * 2023-01-09 2023-03-21 中国兵器装备集团自动化研究所有限公司 Search and tracking track fusion method, device, equipment and storage medium
CN117170418A (en) * 2023-11-02 2023-12-05 杭州华橙软件技术有限公司 Cloud deck control method, device, equipment and storage medium
CN117170418B (en) * 2023-11-02 2024-02-20 杭州华橙软件技术有限公司 Cloud deck control method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP6186834B2 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
JP6186834B2 (en) Target tracking device and target tracking program
CN109670474B (en) Human body posture estimation method, device and equipment based on video
JP6455113B2 (en) Object tracking method and apparatus
CN104424648B (en) Method for tracing object and equipment
JP5166102B2 (en) Image processing apparatus and method
KR101380628B1 (en) Method and apparatus for object tracking using multiple cameras
JP2010244549A5 (en)
KR101703515B1 (en) Apparatus and method for target tracking of image
KR101885839B1 (en) System and Method for Key point Selecting for Object Tracking
KR102295183B1 (en) object tracking method for CCTV video by use of CCTV projection model
KR100994367B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
JP6412819B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012181710A (en) Object tracking device, method and program
JP4836065B2 (en) Edge tracking method and computer program therefor
JP2014211330A (en) Target tracking device and target tracking method
JP2019120577A (en) Position estimation device, position estimation method and computer program for position estimation
JP7199974B2 (en) Parameter selection device, parameter selection method, and parameter selection program
JP5452307B2 (en) Tracking device
KR102190297B1 (en) Method for tracking air-targets using correlation filter and system thereof
KR100994366B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
JP2017174305A (en) Object tracking device, method, and program
KR101280348B1 (en) Multiple target tracking method
JP2016004382A (en) Motion information estimation device
JP2019207607A (en) Moving body tracking device
JP6291763B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R150 Certificate of patent or registration of utility model

Ref document number: 6186834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees