JP2020154526A - Mobile object state quantity estimation device and program - Google Patents

Mobile object state quantity estimation device and program Download PDF

Info

Publication number
JP2020154526A
JP2020154526A JP2019051017A JP2019051017A JP2020154526A JP 2020154526 A JP2020154526 A JP 2020154526A JP 2019051017 A JP2019051017 A JP 2019051017A JP 2019051017 A JP2019051017 A JP 2019051017A JP 2020154526 A JP2020154526 A JP 2020154526A
Authority
JP
Japan
Prior art keywords
moving object
state quantity
detection
unit
detection frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019051017A
Other languages
Japanese (ja)
Other versions
JP7207050B2 (en
Inventor
亮裕 中村
Akihiro Nakamura
亮裕 中村
吉紘 大濱
Yoshiko Ohama
吉紘 大濱
邦博 後藤
Kunihiro Goto
邦博 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2019051017A priority Critical patent/JP7207050B2/en
Publication of JP2020154526A publication Critical patent/JP2020154526A/en
Application granted granted Critical
Publication of JP7207050B2 publication Critical patent/JP7207050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To accurately calculate a state quantity of a mobile object while taking a detection frequency into consideration even in a case where the number of multiple asynchronous sensors is undefined.SOLUTION: A sensing result acquisition section (14) acquires a detection result of detecting multiple mobile objects by an undefined number of multiple sensors. A mobile object state quantity prediction section (18) predicts, for each of the multiple mobile objects, a state quantity of the mobile object using state quantities stored in a mobile object state quantity storage section (16). A mobile object state quantity alignment section (20) makes the predicted state quantity of the mobile object correspond to the detection result of each of the multiple mobile objects each time the detection result is received by the sensing result acquisition section (14). A mobile object detection frequency prediction section (21) predicts detection frequencies of the mobile objects which are detected by the multiple sensors. A mobile object state quantity erasure section (22) erases a state quantity smaller than the detection frequencies which are predicted by the mobile object detection frequency prediction section (21).SELECTED DRAWING: Figure 2

Description

本発明は、移動物状態量推定装置及びプログラムに関する。 The present invention relates to a moving object state quantity estimation device and a program.

従来より、各々非同期でありセンサ数が不定の複数のセンサによって歩行者の動きを捉えるために、特定のセンサからの検出結果を得る毎に、検出結果と歩行者の位置及び速度などを示す移動物の状態量とを対応付け、該状態量と最後に観測した時刻を更新して、検出結果と一定時間以上対応付けられなかった移動物の状態量を消去する技術が知られている(特許文献1)。 Conventionally, in order to capture the movement of a pedestrian by a plurality of sensors that are asynchronous and have an indefinite number of sensors, each time a detection result is obtained from a specific sensor, the detection result and the movement indicating the position and speed of the pedestrian are shown. A technique is known in which a state quantity of an object is associated with the state quantity, the last observed time is updated, and the state quantity of a moving object that has not been associated with the detection result for a certain period of time is erased (patented). Document 1).

また、複数のカメラ映像を用いて、各カメラの検出結果を統合して物体を検出する際に、物体と各カメラの位置関係を元にして画像中の検出範囲を予め限定することにより、物体の誤検出を抑制することで、追跡精度を向上することができる物体追跡装置が知られている(特許文献2)。 In addition, when detecting an object by integrating the detection results of each camera using a plurality of camera images, the detection range in the image is limited in advance based on the positional relationship between the object and each camera. There is known an object tracking device capable of improving tracking accuracy by suppressing false detection of (Patent Document 2).

特開2018−92368号公報Japanese Unexamined Patent Publication No. 2018-92368 特開2016ー71830号公報Japanese Unexamined Patent Publication No. 2016-71830

上記特許文献1の技術では、最後に観測されてから一定時間を経過した場合に、移動物の状態量を消去することで誤検出を抑制している。
しかしながら、例えば、センサ性能に応じて観測する時間間隔が変化したり移動物の周辺の明るさ等の検出環境が変化したりする場合、誤検出される検出頻度が変化する。特に、一定時間より短い時間に誤検出される検出頻度が増加した場合、正検出と誤検出との区別が困難であり、誤検出を抑制するには、改善の余地がある。
In the technique of Patent Document 1, erroneous detection is suppressed by erasing the state quantity of a moving object when a certain time has passed since the last observation.
However, for example, when the observation time interval changes according to the sensor performance or the detection environment such as the brightness around a moving object changes, the detection frequency of erroneous detection changes. In particular, when the frequency of false detections increases in a time shorter than a certain period of time, it is difficult to distinguish between positive detections and false positives, and there is room for improvement in suppressing false positives.

また、上記特許文献2では、物体とカメラの位置関係を基にして検出範囲を予め制限して誤検出を抑制するが、例えばセンサ性能が異なる複数センサの各々における誤検出の検出頻度は異なるので、物体とカメラの位置関係を基にして検出範囲を制限しても、誤検出を抑制することが困難な場合がある。 Further, in Patent Document 2, the detection range is limited in advance based on the positional relationship between the object and the camera to suppress erroneous detection. However, for example, the detection frequency of erroneous detection is different in each of a plurality of sensors having different sensor performances. Even if the detection range is limited based on the positional relationship between the object and the camera, it may be difficult to suppress erroneous detection.

本発明は、上記の事情に鑑みてなされたもので、非同期の複数センサのセンサ数が不定であっても、検出頻度を考慮して複数センサの結果を統合して、移動物の状態量を精度良く求めることができる移動物状態量推定装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and even if the number of sensors of a plurality of asynchronous sensors is indefinite, the results of the plurality of sensors are integrated in consideration of the detection frequency to obtain the state quantity of a moving object. It is an object of the present invention to provide a moving object state quantity estimation device and a program that can be obtained with high accuracy.

上記の目的を達成するために第1態様に係る移動物状態量推定装置は、複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶部と、前記複数の移動物それぞれについて、前記移動物状態量記憶部に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測部と、数不定の複数センサの何れかから、複数の移動物を検出した検出結果、及び検出性能情報を受け取るセンシング結果獲得部と、前記センシング結果獲得部によって前記検出結果を受け取る毎に、前記検出結果の時刻に対応して前記移動物状態量予測部によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶部に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合部と、前記複数センサそれぞれの検出性能情報に基づいて、前記複数の移動物それぞれについて前記複数のセンサのうち検出可能なセンサによって検出される検出頻度を予測する移動物検出頻度予測部と、前記移動物状態量整合部によって前記検出結果と対応付かなかった前記移動物の状態量であって、複数の移動物を検出した検出結果により定まる検出頻度が前記移動物検出頻度予測部によって予測された検出頻度より小さい前記移動物の状態量を、前記移動物状態量記憶部から消去する移動物状態量消去部と、を含む移動物状態量推定装置である。 In order to achieve the above object, the moving object state quantity estimating device according to the first aspect includes a moving object state quantity storage unit that stores the state quantity and the last observed time of each of the plurality of moving objects, and the plurality of moving object state quantity storage units. For each moving object, either a moving object state quantity predicting unit that predicts the state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage unit, or a plurality of sensors having an indefinite number. From the detection result of detecting a plurality of moving objects, and the sensing result acquisition unit that receives the detection performance information, and each time the detection result is received by the sensing result acquisition unit, the moving object corresponds to the time of the detection result. The state amount of the moving object predicted for each of the plurality of moving objects by the state quantity predicting unit is associated with the detection result of each of the plurality of moving objects, and stored in the moving object state quantity storage unit. , The plurality of moving objects for each of the plurality of moving objects based on the state quantity and the moving object state quantity matching unit for updating the last observed time of each of the plurality of moving objects and the detection performance information of each of the plurality of sensors. Among the sensors, the moving object detection frequency predicting unit that predicts the detection frequency detected by the detectable sensor, and the moving object state quantity matching unit that does not correspond to the detection result by the moving object state quantity matching unit. The moving object state in which the detection frequency determined by the detection results of detecting a plurality of moving objects is smaller than the detection frequency predicted by the moving object detection frequency predicting unit is deleted from the moving object state quantity storage unit. It is a moving object state quantity estimation device including a quantity erasing unit.

第2態様は、第1態様に記載の移動物状態量推定装置において、前記複数センサは、各々異なる移動体に搭載されたセンサを含む。 The second aspect is the moving object state quantity estimation device according to the first aspect, wherein the plurality of sensors include sensors mounted on different moving bodies.

第3態様は、第1態様又は第2態様に記載の移動物状態量推定装置において、前記複数の移動物それぞれの存在確率を記憶する移動物存在確率記憶部と、前記移動物状態量整合部による前記検出結果との対応付けの結果、又は前記センサについて予め定められた検出精度に応じて、前記移動物の存在確率を、前記移動物存在確率記憶部に設定し、又は前記移動物存在確率記憶部に記憶されている前記複数の移動物それぞれの存在確率を、前記移動物状態量整合部による前記検出結果との対応付けの結果、前記最後に観測した時刻からの経過時間、又は前記センサについて予め定められた検出精度若しくは前記移動物検出頻度予測部による前記検出頻度に応じて増減させる移動物存在確率更新部と、を更に含み、前記移動物状態量消去部は、前記移動物存在確率記憶部に記憶されている前記複数の移動物それぞれの存在確率に基づいて、前記移動物の状態量を、前記移動物状態量記憶部から消去する。 In the third aspect, in the moving object state quantity estimating device according to the first aspect or the second aspect, a moving object existence probability storage unit that stores the existence probability of each of the plurality of moving objects and the moving object state quantity matching unit. The existence probability of the moving object is set in the moving object existence probability storage unit, or the moving object existence probability is set according to the result of the association with the detection result by the above or the detection accuracy predetermined for the sensor. As a result of associating the existence probability of each of the plurality of moving objects stored in the storage unit with the detection result by the moving object state quantity matching unit, the elapsed time from the last observed time, or the sensor. Further includes a moving object existence probability updating unit that increases or decreases according to a predetermined detection accuracy or the detection frequency by the moving object detection frequency prediction unit, and the moving object state quantity erasing unit includes the moving object existence probability. Based on the existence probability of each of the plurality of moving objects stored in the storage unit, the state quantity of the moving object is deleted from the moving object state quantity storage unit.

第4態様は、請求項3に記載の移動物状態量推定装置において、前記移動物検出頻度予測部は、前記複数センサそれぞれの前記検出性能情報を記憶する検出性能情報記憶部と、前記検出性能情報記憶部に記憶された前記複数センサそれぞれの前記検出性能情報、移動物の検出可能範囲が記録されている移動物検出可能範囲情報、及び前記移動物状態量整合部によって更新された前記移動物の状態量に基づいて、前記検出頻度を算出する検出頻度算出部と、を含む。 A fourth aspect is the moving object state quantity estimation device according to claim 3, wherein the moving object detection frequency prediction unit includes a detection performance information storage unit that stores the detection performance information of each of the plurality of sensors, and the detection performance. The detection performance information of each of the plurality of sensors stored in the information storage unit, the moving object detectable range information in which the detectable range of the moving object is recorded, and the moving object updated by the moving object state quantity matching unit. Includes a detection frequency calculation unit that calculates the detection frequency based on the state quantity of.

第5態様は、請求項3に記載の移動物状態量推定装置において、前記移動物検出頻度予測部は、前記移動物検出頻度予測部によって予測された移動物の検出位置毎の検出頻度を示す情報を記憶する検出頻度記憶部と、前記センシング結果獲得部によって受け取った前記検出性能情報、及び移動物の検出可能範囲が記録されている移動物検出可能範囲情報に基づいて、前記検出頻度記憶部に記憶された前記移動物の検出位置毎の検出頻度を更新する検出頻度更新部と、前記検出頻度記憶部から、前記移動物の状態量に対応する検出頻度を抽出する検出頻度抽出部と、を含む。 A fifth aspect is the moving object state quantity estimation device according to claim 3, wherein the moving object detection frequency prediction unit indicates a detection frequency for each moving object detection position predicted by the moving object detection frequency prediction unit. The detection frequency storage unit is based on the detection frequency storage unit that stores information, the detection performance information received by the sensing result acquisition unit, and the moving object detectable range information in which the detectable range of the moving object is recorded. A detection frequency update unit that updates the detection frequency for each detection position of the moving object stored in the storage unit, a detection frequency extraction unit that extracts the detection frequency corresponding to the state amount of the moving object from the detection frequency storage unit, and a detection frequency extraction unit. including.

第6態様は、第4態様又は第5態様に記載の移動物状態量推定装置において、前記複数センサは、複数の車両に搭載された、又はインフラセンサに用いられた、歩行者又は車両を検出する複数の検出器であって、前記移動物の状態量は、歩行者又は車両の位置及び速度であって、前記移動物検出可能範囲情報は、センサ検出可能範囲を削減する構造物の位置を示す地図である。 A sixth aspect is the moving object state quantity estimation device according to the fourth or fifth aspect, wherein the plurality of sensors detect a pedestrian or a vehicle mounted on a plurality of vehicles or used as an infrastructure sensor. The state quantity of the moving object is the position and speed of a pedestrian or a vehicle, and the moving object detectable range information is the position of a structure that reduces the sensor detectable range. It is a map to show.

第7態様は、複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶部を含むコンピュータを、前記複数の移動物それぞれについて、前記移動物状態量記憶部に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測部、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得部、前記センシング結果獲得部によって前記検出結果を受け取る毎に、前記検出結果の時刻に対応して前記移動物状態量予測部によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶部に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合部、前記複数センサそれぞれの検出性能情報に基づいて、前記複数の移動物それぞれについて前記複数のセンサのうち検出可能なセンサによって検出される検出頻度を予測する移動物検出頻度予測部、および前記移動物状態量整合部によって前記検出結果と対応付かなかった前記移動物の状態量であって、複数の移動物を検出した検出結果により定まる検出頻度が前記移動物検出頻度予測部によって予測された検出頻度より小さい前記移動物の状態量を、前記移動物状態量記憶部から消去する移動物状態量消去部、として機能させるためのプログラムである。 In the seventh aspect, a computer including a moving object state quantity storage unit that stores the state quantity and the last observed time of each of the plurality of moving objects is installed in the moving object state quantity storage unit for each of the plurality of moving objects. Sensing that receives the detection result of detecting a plurality of moving objects from either the moving object state quantity predicting unit that predicts the state quantity of the moving object at the next time using the stored state quantity or a plurality of sensors of an indefinite number. Each time the result acquisition unit and the sensing result acquisition unit receive the detection result, the state of the moving object predicted by the moving object state quantity prediction unit for each of the plurality of moving objects corresponding to the time of the detection result. The amount is associated with the detection result of each of the plurality of moving objects, and the state quantity and the last observed time of each of the plurality of moving objects stored in the moving object state quantity storage unit are updated. Moving object detection frequency prediction that predicts the detection frequency detected by the detectable sensor among the plurality of sensors for each of the plurality of moving objects based on the detection performance information of the moving object state quantity matching unit and the plurality of sensors. The moving object detection frequency prediction unit determines the detection frequency determined by the detection results of detecting a plurality of moving objects, which is the state quantity of the moving object that does not correspond to the detection result by the moving object state quantity matching unit. This is a program for functioning as a moving object state quantity erasing unit that erases the state quantity of the moving object that is smaller than the detection frequency predicted by the above from the moving object state quantity storage unit.

また、本開示のプログラムは、記録媒体に格納して提供することも可能である。 Further, the program of the present disclosure can also be provided by storing it in a recording medium.

以上説明したように、本開示によれば、非同期の複数センサのセンサ数が不定であっても、検出頻度を考慮して複数センサの結果を統合して、移動物の状態量を精度良く求めることができる、という効果が得られる。 As described above, according to the present disclosure, even if the number of sensors of a plurality of asynchronous sensors is indefinite, the results of the plurality of sensors are integrated in consideration of the detection frequency to accurately obtain the state quantity of a moving object. The effect of being able to do it is obtained.

第1実施形態に係る歩行者状態量推定システムを示すブロック図である。It is a block diagram which shows the pedestrian state quantity estimation system which concerns on 1st Embodiment. 第1実施形態に係る歩行者状態量推定装置を示すブロック図である。It is a block diagram which shows the pedestrian state quantity estimation apparatus which concerns on 1st Embodiment. 非同期の複数センサからの検出結果を用いた検出頻度に基づくセンシング結果統合のイメージ図である。It is an image diagram of sensing result integration based on the detection frequency using the detection result from a plurality of asynchronous sensors. 第1実施形態に係る歩行者状態量推定装置における歩行者状態量推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pedestrian state quantity estimation processing routine in the pedestrian state quantity estimation apparatus which concerns on 1st Embodiment. 第2実施形態に係る歩行者状態量推定装置を示すブロック図である。It is a block diagram which shows the pedestrian state quantity estimation apparatus which concerns on 2nd Embodiment. 非同期の複数センサからの検出結果を用いた検出頻度に基づくセンシング結果統合のイメージ図である。It is an image diagram of sensing result integration based on the detection frequency using the detection result from a plurality of asynchronous sensors. 第2実施形態に係る歩行者状態量推定装置における歩行者状態量推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pedestrian state quantity estimation processing routine in the pedestrian state quantity estimation apparatus which concerns on 2nd Embodiment. 第3実施形態に係る歩行者状態量推定装置における移動物検出頻度予測部を示すブロック図である。It is a block diagram which shows the moving object detection frequency prediction part in the pedestrian state quantity estimation apparatus which concerns on 3rd Embodiment. 第4実施形態に係る歩行者状態量推定装置における移動物検出頻度予測部を示すブロック図である。It is a block diagram which shows the moving object detection frequency prediction part in the pedestrian state quantity estimation apparatus which concerns on 4th Embodiment. 頻度マップを示すイメージ図である。It is an image diagram which shows the frequency map.

以下、図面を参照して本開示の技術を実現する実施形態を詳細に説明する。 Hereinafter, embodiments that realize the technique of the present disclosure will be described in detail with reference to the drawings.

<実施形態の概要>
本開示の技術を実現する実施形態は、複数のセンサ間でフレーム同期をしないアプローチをとっている。或るセンサからのセンシング結果を受け取ったタイミングで、歩行者位置の状態量(仮説)と受け取ったセンシング結果とを対応付けて、誤差を計算し、仮説の歩行者位置を補正しながら、歩行者を検出・追従する。この処理を各センサからセンシング結果が統合処理装置に届く毎に行う。
<Outline of Embodiment>
The embodiment that realizes the technique of the present disclosure takes an approach that does not synchronize frames between a plurality of sensors. At the timing when the sensing result from a certain sensor is received, the state quantity (hypothesis) of the pedestrian position is associated with the received sensing result, the error is calculated, and the pedestrian is corrected while correcting the hypothetical pedestrian position. Detects and follows. This process is performed every time the sensing result arrives at the integrated processing device from each sensor.

しかしながら、本アプローチは、1台のセンサの結果だけを使って逐次上記処理を行うため、例えば、センサの検出精度等の検出性能が低い場合(歩行者が存在しない所に誤って歩行者が存在すると結果を出す頻度が高い場合)には、誤検出による存在しない歩行者の仮説が増えてしまい、歩行者数を誤って推定する場合がある。 However, since this approach sequentially performs the above processing using only the results of one sensor, for example, when the detection performance such as the detection accuracy of the sensor is low (there is a pedestrian erroneously in a place where there is no pedestrian). Then, when the frequency of producing results is high), the hypothesis of non-existent pedestrians due to false detection increases, and the number of pedestrians may be estimated incorrectly.

このために、各センサの検出頻度を考慮して、誤検出の可能性が高い歩行者の検出結果を棄却する。 Therefore, in consideration of the detection frequency of each sensor, the detection result of a pedestrian with a high possibility of erroneous detection is rejected.

[第1実施形態] [First Embodiment]

第1実施形態では、車両に搭載された歩行者の検出器やインフラセンサとしての歩行者の検出器の検出結果を統合して歩行者の状態量を推定する歩行者状態量推定装置に本開示の技術を適用した場合を例に説明する。 In the first embodiment, the present disclosure applies to a pedestrian state amount estimation device that estimates the state amount of a pedestrian by integrating the detection results of a pedestrian detector mounted on a vehicle and a pedestrian detector as an infrastructure sensor. The case where the above technique is applied will be described as an example.

<歩行者状態量推定システムのシステム構成>
図1に示すように、第1実施形態に係る歩行者状態量推定システム100は、歩行者状態量推定装置10と、基地局50と、複数の車両に搭載された複数の検出器60と、インフラセンサとしての検出器62とを備え、基地局50と歩行者状態量推定装置10とは、インターネットなどのネットワーク70で接続されており、基地局50と検出器60、62とは、無線通信により接続されている。
<System configuration of pedestrian state quantity estimation system>
As shown in FIG. 1, the pedestrian state quantity estimation system 100 according to the first embodiment includes a pedestrian state quantity estimation device 10, a base station 50, a plurality of detectors 60 mounted on a plurality of vehicles, and a plurality of detectors 60. A detector 62 as an infrastructure sensor is provided, and the base station 50 and the pedestrian state amount estimation device 10 are connected by a network 70 such as the Internet, and the base station 50 and the detectors 60 and 62 communicate wirelessly. Is connected by.

検出器60、62は、カメラやレーダを用いて歩行者を随時検出し、検出する度に、検出結果を、基地局50を介して、歩行者状態量推定装置10へ送信する。 The detectors 60 and 62 detect pedestrians at any time using a camera or radar, and each time they detect a pedestrian, the detectors 60 and 62 transmit the detection result to the pedestrian state amount estimation device 10 via the base station 50.

例えば、検出器60は、自車両の前方を撮像するカメラによって撮像された前方の道路画像から、スライディングウィンドウ毎に、画像特徴量(SIFT,FIND、HOGなど)を抽出し、スライディングウィンドウ毎の画像特徴量と、歩行者検出モデル(SVM、AdaBoost)とを用いて、歩行者を検出し、検出された歩行者位置を表す画像座標を求める。また、検出器60は、歩行者位置を表す画像座標を、3次元位置に変換する。この際に、検出された歩行者の高さに応じて誤差分散行列を求める。また、検出器60は、自車両に搭載されたGPSにより計測された自車両の絶対座標と、求められた3次元位置とに基づいて、歩行者の絶対的な3次元位置を求める。 For example, the detector 60 extracts an image feature amount (SIFT, FIND, HOG, etc.) for each sliding window from the road image in front captured by a camera that images the front of the own vehicle, and an image for each sliding window. A pedestrian is detected using a feature amount and a pedestrian detection model (SVM, AdaBoost), and image coordinates representing the detected pedestrian position are obtained. Further, the detector 60 converts the image coordinates representing the pedestrian position into a three-dimensional position. At this time, the error variance matrix is obtained according to the detected height of the pedestrian. Further, the detector 60 obtains the absolute three-dimensional position of the pedestrian based on the absolute coordinates of the own vehicle measured by the GPS mounted on the own vehicle and the obtained three-dimensional position.

上記の歩行者の3次元位置及び誤差分散行列を、検出された歩行者毎に求め、車両Cの検出器60において検出した歩行者の3次元位置のセットY={yi,1,…yi,m}と、観測誤差分散行列のセットR={ri,1,…,ri,m}とを、観測毎に、歩行者状態量推定装置10へ送信する。また、検出器60は、検出性能情報を含むセンサ情報を送信可能になっている。センサ情報の検出性能情報の一例には、検出時刻、検出器60の検出範囲(検出時点における検出器の位置を含む)、動作周期、及び移動物の未検出率を示す情報が挙げられる。 The three-dimensional position and the error variance matrix of the pedestrian, determined for each detected pedestrian, a set of three-dimensional position of the pedestrian detected at the detector 60 of the vehicle C i Y i = {y i , 1, ... y i, m } and a set of observation error variance matrix Ri = {ri , 1 , ..., ri , m } are transmitted to the pedestrian state amount estimation device 10 for each observation. Further, the detector 60 can transmit sensor information including detection performance information. Examples of the detection performance information of the sensor information include information indicating the detection time, the detection range of the detector 60 (including the position of the detector at the time of detection), the operation cycle, and the undetected rate of moving objects.

検出器62は、検出器60と同様に、検出した歩行者の3次元位置のセットと、観測誤差分散行列のセットとを、観測毎に、歩行者状態量推定装置10へ送信する。 Similar to the detector 60, the detector 62 transmits the detected three-dimensional position set of the pedestrian and the set of the observation error variance matrix to the pedestrian state quantity estimation device 10 for each observation.

複数の検出器60、62は、非同期に、歩行者を検出している。また、複数の検出器60は、各々異なる車両に搭載されているため、歩行者状態量推定装置10へ検出結果を送信する検出器60、62の数は、不定となる。 The plurality of detectors 60 and 62 asynchronously detect pedestrians. Further, since the plurality of detectors 60 are mounted on different vehicles, the number of detectors 60 and 62 for transmitting the detection result to the pedestrian state quantity estimation device 10 is indefinite.

歩行者状態量推定装置10は、例えば、サーバで構成され、歩行者状態量推定装置10は、CPUと、RAMと、後述する歩行者状態量推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。図2に示すように、歩行者状態量推定装置10は、通信部12と、センシング結果獲得部14と、移動物状態量記憶部16と、移動物状態量予測部18と、移動物状態量整合部20と、移動物検出頻度予測部21と、移動物状態量消去部22と、移動物状態量更新部24とを備えている。 The pedestrian state quantity estimation device 10 is composed of, for example, a server, and the pedestrian state quantity estimation device 10 stores a CPU, a RAM, and a program for executing a pedestrian state quantity estimation processing routine described later. It is functionally configured as shown below. As shown in FIG. 2, the pedestrian state amount estimation device 10 includes a communication unit 12, a sensing result acquisition unit 14, a moving object state amount storage unit 16, a moving object state amount prediction unit 18, and a moving object state amount. It includes a matching unit 20, a moving object detection frequency prediction unit 21, a moving object state quantity erasing unit 22, and a moving object state quantity updating unit 24.

センシング結果獲得部14は、検出器60、62の何れかから送信された歩行者の座標のセット及び観測誤差分散行列のセットを、通信部12により受信する毎に、歩行者の座標のセット及び観測誤差分散行列のセットを取得する。また、センシング結果獲得部14は、検出器60、62それぞれのセンサ情報を取得可能になっている。 The sensing result acquisition unit 14 receives the pedestrian coordinate set and the observation error dispersion matrix set transmitted from any of the detectors 60 and 62 by the communication unit 12, each time the pedestrian coordinate set and the pedestrian coordinate set are received. Get a set of observation error variance matrices. Further, the sensing result acquisition unit 14 can acquire the sensor information of each of the detectors 60 and 62.

移動物状態量記憶部16は、観測された複数の歩行者それぞれの、移動物状態量更新部24により更新された状態量(歩行者の位置及び速度)、及び最後に観測した時刻を記憶する。 The moving object state quantity storage unit 16 stores the state quantity (position and speed of the pedestrian) updated by the moving object state quantity updating unit 24 of each of the observed pedestrians, and the last observed time. ..

移動物状態量予測部18は、センシング結果獲得部14により取得した最新のデータの時刻に合わせて、複数の歩行者それぞれについて、カルマンフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、当該最新のデータの時刻における歩行者の状態量のセットX={x,…x}、および、状態量の分散共分散行列V={v,…,v}を求める。例えば、等速予測などにより、次の時刻の歩行者の状態量を予測する。 The moving object state quantity prediction unit 18 is stored in the moving object state quantity storage unit 16 by the prediction step of the Kalman filter for each of the plurality of pedestrians in accordance with the time of the latest data acquired by the sensing result acquisition unit 14. Using the state quantity to repeatedly predict the state quantity of the pedestrian at the next time, the set X = {x 1 , ... x n } of the state quantity of the pedestrian at the time of the latest data, and the state quantity. The dispersion co-dispersion matrix V = {v 1 , ..., v n } of. For example, the state quantity of a pedestrian at the next time is predicted by constant velocity prediction or the like.

移動物状態量整合部20は、センシング結果獲得部14により最新のデータを受け取る毎に、当該最新のデータの時刻に対応して移動物状態量予測部18によって複数の歩行者それぞれについて予測された状態量と、当該最新のデータが表す複数の歩行者それぞれの検出結果との対応付けを行う。 Each time the moving object state quantity matching unit 20 receives the latest data from the sensing result acquisition unit 14, the moving object state quantity predicting unit 18 predicts each of the plurality of pedestrians in accordance with the time of the latest data. The state quantity is associated with the detection results of each of the plurality of pedestrians represented by the latest data.

具体的には、当該最新のデータの時刻における歩行者の状態量のセットX={x,…x}と、当該最新のデータにおいて検出した歩行者の3次元位置のセットY={yi,1,…yi,m}との対応付けを行う。例えば、対応付けられた状態量xと検出された歩行者の3次元位置yi,jとの組み合わせの確率p(yi,j|x)の積を最大にする対応付けを、ハンガリアン法などの手法により高速に計算する。 Specifically, a set X = {x 1 , ... x n } of the pedestrian state quantity at the time of the latest data and a set Y i = {of the three-dimensional position of the pedestrian detected in the latest data. Correspondence with y i, 1 , ... y i, m }. For example, a Hungarian association that maximizes the product of the probability p (y i, j | x k ) of the combination of the associated state quantity x k and the detected three-dimensional position y i, j of the pedestrian. Calculate at high speed by a method such as a method.

なお、状態量xと検出された歩行者の3次元位置yi,jとの組み合わせの確率p(yi,j|x)は、状態量xを中心とし、対応するカルマンフィルタの分散vと、3次元位置yi,jに対応する観測誤差分散行列ri,jとの和を、分散とした多次元正規分布における、3次元位置yi,jの確率に基づいて、確率p(yi,j|x)を求めればよい。 The probability p (y i, j | x k ) of the combination of the state quantity x k and the detected three-dimensional position y i, j of the pedestrian is the variance of the corresponding Kalman filter centered on the state quantity x k. Probability based on the probability of 3D position y i, j in a multidimensional normal distribution with the sum of v k and the observation error variance matrix r i, j corresponding to the 3D position y i, j as the variance p (y i, j | x k ) may be obtained.

また、対応付けない確率を設定値として与え、この設定値より小さい確率の組み合わせは、対応付けられないようにする。 In addition, the probability of not being associated is given as a set value, and a combination of probabilities smaller than this set value is not associated.

移動物状態量更新部24は、移動物状態量整合部20により最新のデータの検出結果と対応付けられた状態量の各々について、対応する3次元位置yi,jを観測値として、その誤差分散行列ri,jと、予測ステップで得られた歩行者の状態量及び分散共分散行列と用いて、カルマンフィルタのフィルタリングステップにより、状態量を更新すると共に、最後に観測した時刻を更新する。 The moving object state quantity updating unit 24 uses the corresponding three-dimensional positions y i and j as observation values for each of the state quantities associated with the detection result of the latest data by the moving object state quantity matching unit 20, and the error thereof. Using the variance matrices r i and j and the pedestrian state quantity and the covariance matrix obtained in the prediction step, the state quantity is updated and the last observed time is updated by the filtering step of the Kalman filter.

また、移動物状態量更新部24は、移動物状態量整合部20による検出結果との対応付けの結果に基づいて、最新のデータの検出結果のうち、状態量と対応付かなかった歩行者の検出結果から、新たな状態量xを生成し、最後に観測した時刻として、現在時刻を、移動物状態量記憶部16に格納する。なお、新たな状態量xは観測された歩行者の3次元位置yと同じ座標、誤差分散行列を持つこととする。 Further, the moving object state quantity updating unit 24 is based on the result of associating with the detection result by the moving object state quantity matching unit 20, among the detection results of the latest data, the pedestrians who did not correspond to the state quantity. A new state quantity x is generated from the detection result, and the current time is stored in the moving object state quantity storage unit 16 as the last observed time. It is assumed that the new state quantity x has the same coordinates and error variance matrix as the observed three-dimensional position y of the pedestrian.

移動物検出頻度予測部21は、複数の歩行者それぞれについて、共通する時刻間の所定時間内において、複数の検出器60、62のうち検出可能な検出器により検出される検出頻度を予測する。すなわち、複数の検出器60、62それぞれのセンサ情報である検出時刻、検出範囲(検出時点における検出器の位置を含む)、動作周期、及び移動物の未検出率を用いて、複数の歩行者それぞれについて共通する時刻間の所定時間内における検出頻度を求めることにより、検出頻度を予測する。 The moving object detection frequency prediction unit 21 predicts the detection frequency detected by the detectable detector among the plurality of detectors 60 and 62 within a predetermined time between a common time for each of the plurality of pedestrians. That is, a plurality of pedestrians are used by using the detection time, the detection range (including the position of the detector at the time of detection), the operation cycle, and the undetected rate of moving objects, which are the sensor information of each of the plurality of detectors 60 and 62. The detection frequency is predicted by obtaining the detection frequency within a predetermined time between the common times for each.

具体的には、センシング結果獲得部14により取得した検出器60、62それぞれのセンサ情報を用いて、共通する時刻間の所定時間内において或る歩行者を共通に検出可能な検出器60、62を特定し、特定された検出器それぞれの検出頻度の総和を、予測検出頻度とする。この場合、観測された歩行者の3次元位置yと同じ座標を検出範囲とする検出器を特定すればよい。例えば、図3に示すように、複数の検出器60、62として、カメラを利用し、歩行者を検出する状況を考える。図3に示す例では、全てのカメラについて、検出性能として、未検出率が5%(0.05)であり、カメラ1の動作周期が10Hzであり、カメラ2の動作周期が1Hzであるとすると、カメラ1により1度の観測によって歩行者を検出する場合、9.5回/秒の頻度で歩行者が検出されると予測し、カメラ2により1度の観測によって歩行者を検出する場合、0.95回/秒の頻度で歩行者が検出されると予測する。2台のカメラ1及びカメラ2の観測では、検出タイミングが異なるが、共通する時刻間の所定時間内に検出された検出頻度の合計、この場合、10.45回/秒の頻度で歩行者が検出されると予測する。換言すれば、或る位置に存在する歩行者を複数台のカメラで観測した場合、共通する時刻間の所定時間内では、複数台のカメラそれぞれの検出頻度の合計した検出頻度で歩行者が検出される。 Specifically, the detectors 60 and 62 that can commonly detect a certain pedestrian within a predetermined time between common times by using the sensor information of each of the detectors 60 and 62 acquired by the sensing result acquisition unit 14 Is specified, and the sum of the detection frequencies of each of the identified detectors is defined as the predicted detection frequency. In this case, a detector whose detection range is the same as the observed three-dimensional position y of the pedestrian may be specified. For example, as shown in FIG. 3, consider a situation in which a camera is used as a plurality of detectors 60 and 62 to detect a pedestrian. In the example shown in FIG. 3, as the detection performance, the undetected rate is 5% (0.05), the operating cycle of the camera 1 is 10 Hz, and the operating cycle of the camera 2 is 1 Hz for all the cameras. Then, when the camera 1 detects a pedestrian by one observation, it is predicted that the pedestrian is detected at a frequency of 9.5 times / second, and the camera 2 detects the pedestrian by one observation. It is predicted that pedestrians will be detected at a frequency of 0.95 times / second. In the observations of the two cameras 1 and 2, the detection timings are different, but the total detection frequency detected within the predetermined time between the common times, in this case, the pedestrian has a frequency of 10.45 times / second. Predict to be detected. In other words, when a pedestrian existing at a certain position is observed by a plurality of cameras, the pedestrian is detected by the total detection frequency of the detection frequencies of the multiple cameras within a predetermined time between common times. Will be done.

移動物状態量消去部22は、移動物状態量整合部20によって検出結果と対応付かなった歩行者の状態量のうち、観測された検出頻度が移動物検出頻度予測部21によって予測された検出頻度より小さい検出頻度の移動物の状態量を、移動物状態量記憶部16から消去する。移動物状態量消去部22は、移動物検出頻度予測部21によって予測された検出頻度により定まる閾値を、移動物として存在する可能性が低い検出頻度として設定する。従って、移動物状態量消去部22は、移動物状態量整合部20によって検出結果と対応付かなった歩行者の状態量のうち、移動物検出頻度予測部21によって予測された検出頻度が閾値より小さい移動物の状態量を、移動物状態量記憶部16から消去する。例えば、閾値を、予測した検出頻度の例えば50%の検出頻度と設定した場合、図3に示す例では、カメラ1により観測された検出頻度が1回/秒の歩行者は、予測された検出頻度が9.5回/秒より定まる閾値より小さい歩行者の状態量を消去する。なお、閾値は、検出性能情報を含むセンサ情報によって適宜設定すればよい。 The moving object state quantity erasing unit 22 detects that the observed detection frequency of the pedestrian state quantities associated with the detection result by the moving object state quantity matching unit 20 is predicted by the moving object detection frequency predicting unit 21. The state quantity of the moving object having a detection frequency lower than the frequency is deleted from the moving object state quantity storage unit 16. The moving object state quantity erasing unit 22 sets a threshold value determined by the detection frequency predicted by the moving object detection frequency prediction unit 21 as a detection frequency that is unlikely to exist as a moving object. Therefore, in the moving object state quantity erasing unit 22, the detection frequency predicted by the moving object detection frequency prediction unit 21 is less than the threshold value among the pedestrian state quantities associated with the detection result by the moving object state quantity matching unit 20. The state quantity of a small moving object is erased from the moving object state quantity storage unit 16. For example, when the threshold value is set to, for example, 50% of the predicted detection frequency, in the example shown in FIG. 3, a pedestrian whose detection frequency observed by the camera 1 is 1 time / sec is the predicted detection. Eliminate the amount of pedestrian status that is less than the threshold value determined by the frequency of 9.5 times / sec. The threshold value may be appropriately set according to the sensor information including the detection performance information.

なお、移動物状態量消去部22は、簡易的な処理として、移動物状態量整合部20によって検出結果と対応付かなった歩行者の状態量のうち、最後に観測した時刻から一定時間以上経過している歩行者の状態量を、移動物状態量記憶部16から消去する機能を有することも可能である。 As a simple process, the moving object state quantity erasing unit 22 elapses for a certain period of time or more from the last observed time among the pedestrian state quantities that correspond to the detection result by the moving object state quantity matching unit 20. It is also possible to have a function of erasing the state amount of the pedestrian who is moving from the moving object state amount storage unit 16.

歩行者状態量推定装置10は、上記の一連の処理により更新された状態量のセットXを、歩行者の検出結果の統合結果として出力する。 The pedestrian state quantity estimation device 10 outputs the set X of the state quantity updated by the above series of processes as the integrated result of the pedestrian detection result.

<歩行者状態量推定システム100の動作>
次に、第1実施形態に係る歩行者状態量推定システム100の動作について説明する。まず、複数の車両に搭載された複数の検出器60、及びインフラセンサとしての検出器62の各々によって、歩行者が逐次検出され、検出される毎に、検出結果が、基地局50を介して、歩行者状態量推定装置10に送信されているときに、歩行者状態量推定装置10において、図4に示す歩行者状態量推定処理ルーチンが実行される。
<Operation of pedestrian state quantity estimation system 100>
Next, the operation of the pedestrian state quantity estimation system 100 according to the first embodiment will be described. First, pedestrians are sequentially detected by each of the plurality of detectors 60 mounted on the plurality of vehicles and the detector 62 as an infrastructure sensor, and each time the pedestrian is detected, the detection result is transmitted via the base station 50. , The pedestrian state amount estimation processing routine shown in FIG. 4 is executed in the pedestrian state amount estimation device 10 while being transmitted to the pedestrian state amount estimation device 10.

ステップS100において、複数の検出器60及び検出器62の何れかから、歩行者の検出結果として、歩行者の3次元位置のセットY={yi,1,…yi,m}と、観測誤差分散行列のセットR={ri,1,…,ri,m}とを受信すると、ステップS102へ進む。 In step S100, as a result of detecting the pedestrian from any of the plurality of detectors 60 and 62, a set of three-dimensional positions of the pedestrian Y i = {y i, 1 , ... y i, m }. Upon receiving the set Ri = {ri , 1 , ..., Ri , m } of the observation error variance matrix, the process proceeds to step S102.

ステップS102では、上記ステップS100で受信した検出結果の時刻に合わせて、複数の歩行者それぞれについて、カルマンフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、上記ステップS100で受信した検出結果の時刻における歩行者の状態量のセットX={x,…x}、および、その分散共分散行列V={v,…,v}を求める。 In step S102, according to the time of the detection result received in step S100, for each of the plurality of pedestrians, the next time using the state amount stored in the moving object state amount storage unit 16 by the prediction step of the Kalman filter. The pedestrian state quantity is repeatedly predicted, and the set X = {x 1 , ... x n } of the pedestrian state quantity at the time of the detection result received in step S100, and the variance-covariance matrix V thereof. = {V 1 , ..., v n } is obtained.

ステップS104では、上記ステップS100で受信した検出結果の時刻に対応して上記ステップS102で複数の歩行者それぞれについて予測された状態量と、上記ステップS100で受信した検出結果が表す複数の歩行者それぞれの3次元位置との対応付けを行う。 In step S104, the state quantity predicted for each of the plurality of pedestrians in step S102 corresponding to the time of the detection result received in step S100, and the plurality of pedestrians represented by the detection result received in step S100, respectively. Corresponds to the three-dimensional position of.

ステップS105では、上記ステップS100で受信した検出結果の時刻に対応して上記ステップS102で複数の歩行者それぞれについて、共通する時刻間の所定時間内において、複数の検出器のうち検出可能な検出器により検出される検出頻度を予測する。 In step S105, for each of the plurality of pedestrians in step S102 corresponding to the time of the detection result received in step S100, among the plurality of detectors, the detectors can be detected within a predetermined time between common times. Predict the detection frequency detected by.

ステップS106では、上記ステップS104で検出結果と対応付かなった歩行者の状態量のうち、観測した検出頻度が上記ステップS105で予測した検出頻度が閾値より小さい歩行者の状態量を、移動物状態量記憶部16から消去する。 In step S106, among the pedestrian state quantities that correspond to the detection results in step S104, the pedestrian state quantity whose observed detection frequency is smaller than the threshold value predicted in step S105 is the moving object state. Erase from the quantity storage unit 16.

ステップS108では、上記ステップS104で検出結果と対応付けられた状態量の各々について、対応する3次元位置yi,jを観測値として、その誤差分散行列ri,jと上記ステップS102で得られた歩行者の状態量及び分散共分散行列とを用いて、カルマンフィルタのフィルタリングステップにより、状態量を更新すると共に、最後に観測した時刻を更新する。また、上記ステップS100で受信した検出結果のうち、状態量と対応付かなかった歩行者の検出結果に基づき、新たな状態量xを生成し、最後に観測した時刻として、現在時刻を、移動物状態量記憶部16に格納する。 In step S108, for each of the state quantities associated with the detection result in step S104, the error variance matrix ri , j and the error variance matrix ri , j are obtained in step S102, with the corresponding three-dimensional positions y i, j as observed values. Using the state quantity of the pedestrian and the variance-covariance matrix, the state quantity is updated and the last observed time is updated by the filtering step of the Kalman filter. Further, among the detection results received in step S100, a new state quantity x is generated based on the detection result of the pedestrian that does not correspond to the state quantity, and the current time is set as the last observed time of the moving object. It is stored in the state quantity storage unit 16.

そして、ステップS110では、更新された状態量のセットXを、歩行者の検出結果の統合結果として出力し、上記ステップS100へ戻る。 Then, in step S110, the updated state quantity set X is output as the integrated result of the pedestrian detection result, and the process returns to step S100.

以上説明したように、第1実施形態に係る歩行者状態量推定システムによれば、非同期の複数センサのセンサ数が不定であっても、検出頻度を考慮して複数センサの結果を統合して、歩行者の状態量を精度良く求めることができる。 As described above, according to the pedestrian state quantity estimation system according to the first embodiment, even if the number of sensors of the asynchronous plurality of sensors is indefinite, the results of the plurality of sensors are integrated in consideration of the detection frequency. , The state quantity of pedestrians can be obtained accurately.

また、非同期に不特定の複数センサからセンシング結果が来る場合に、検出頻度を考慮して削除することにより、信頼できない検出結果の影響が状態量として残らないようにすることで、各センサの誤検出にロバストになる。このように、非同期に来る複数センサからのセンシング結果をリアルタイムに統合処理をする場合に、各センサの誤検出にロバストになる。 In addition, when sensing results come from multiple unspecified sensors asynchronously, by deleting them in consideration of the detection frequency, the influence of unreliable detection results does not remain as a state quantity, so that each sensor is erroneous. Become robust to detection. In this way, when the sensing results from a plurality of sensors that come asynchronously are integrated in real time, it becomes robust to false detection of each sensor.

[第2実施形態]
<歩行者状態量推定システムのシステム構成>
次に、第2実施形態に係る歩行者状態量推定システムについて説明する。なお、第1実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Second Embodiment]
<System configuration of pedestrian state quantity estimation system>
Next, the pedestrian state quantity estimation system according to the second embodiment will be described. The parts having the same configuration as that of the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

第2実施形態では、複数の歩行者それぞれの存在確率を保持し、検出結果と状態量との対応付けに基づいて、複数の歩行者それぞれの存在確率を更新している点と、状態量を消去する際に、予測された検出頻度に応じて変化する存在確率を考慮している点とが第1実施形態と異なっている。 In the second embodiment, the existence probabilities of each of the plurality of pedestrians are held, and the existence probabilities of each of the plurality of pedestrians are updated based on the correspondence between the detection result and the state quantity, and the state quantity is determined. It differs from the first embodiment in that the existence probability that changes according to the predicted detection frequency is taken into consideration when erasing.

図5に示すように、第2実施形態に係る歩行者状態量推定装置210は、通信部12と、センシング結果獲得部14と、移動物状態量記憶部16と、移動物状態量予測部18と、移動物状態量整合部20と、移動物検出頻度予測部21と、移動物状態量消去部22と、移動物状態量更新部24と、移動物存在確率更新部220と、移動物存在確率記憶部222と、を備えている。 As shown in FIG. 5, the pedestrian state amount estimation device 210 according to the second embodiment includes a communication unit 12, a sensing result acquisition unit 14, a moving object state amount storage unit 16, and a moving object state amount prediction unit 18. , The moving object state quantity matching unit 20, the moving object detection frequency prediction unit 21, the moving object state quantity erasing unit 22, the moving object state quantity updating unit 24, the moving object existence probability updating unit 220, and the moving object existence. It includes a probability storage unit 222.

移動物存在確率記憶部222は、移動物状態量記憶部16に記憶されている複数の歩行者それぞれの存在確率を記憶する。 The moving object existence probability storage unit 222 stores the existence probabilities of each of the plurality of pedestrians stored in the moving object state quantity storage unit 16.

移動物存在確率更新部220は、移動物状態量整合部20による検出結果との対応付けの結果に基づいて、最新のデータの検出結果のうち、状態量と対応付かなかった歩行者の検出結果に対し、当該歩行者の存在確率として、設定値を移動物存在確率記憶部222に格納する。設定値は、検出器60、62について予め定められた検出精度に応じて定めればよい。 The moving object existence probability updating unit 220 is based on the result of associating with the detection result by the moving object state quantity matching unit 20, and among the detection results of the latest data, the detection result of the pedestrian who did not correspond to the state quantity. On the other hand, as the existence probability of the pedestrian, a set value is stored in the moving object existence probability storage unit 222. The set value may be set according to the detection accuracy predetermined for the detectors 60 and 62.

また、移動物存在確率更新部220は、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、移動物状態量整合部20により最新のデータの検出結果と対応付けられた歩行者の存在確率の各々について、検出器60、62について検出頻度に応じて増加させるように更新する(図6参照)。 Further, the moving object existence probability updating unit 220 corresponds to the detection result of the latest data by the moving object state quantity matching unit 20 among the existence probabilities of each of the plurality of pedestrians stored in the moving object existence probability storage unit 222. For each of the attached pedestrian existence probabilities, the detectors 60 and 62 are updated so as to increase according to the detection frequency (see FIG. 6).

また、移動物存在確率更新部220は、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、移動物状態量整合部20により最新のデータの検出結果と対応付けられなかった歩行者の存在確率の各々について、検出頻度に応じた存在確率となるように減衰させて更新する(図6参照)。 Further, the moving object existence probability updating unit 220 corresponds to the detection result of the latest data by the moving object state quantity matching unit 20 among the existence probabilities of each of the plurality of pedestrians stored in the moving object existence probability storage unit 222. Each of the pedestrians' existence probabilities that were not attached is attenuated and updated so that the existence probabilities correspond to the detection frequency (see FIG. 6).

移動物状態量消去部22は、移動物状態量整合部20によって検出結果と対応付かなった歩行者の状態量のうち、移動物検出頻度予測部21によって予測された検出頻度が第1閾値(第1実施形態における閾値)より小さい歩行者の状態量に対応する、移動物存在確率記憶部222に記憶されている存在確率が第2閾値より小さい歩行者の状態量を消去する。なお、第2閾値は、移動物として存在する可能性が低い確率として予め定めた歩行者の存在確率に対応した値とする。 In the moving object state quantity erasing unit 22, the detection frequency predicted by the moving object detection frequency predicting unit 21 is the first threshold value among the pedestrian state quantities associated with the detection result by the moving object state quantity matching unit 20. The state amount of the pedestrian whose existence probability stored in the moving object existence probability storage unit 222 corresponding to the state amount of the pedestrian smaller than the threshold value in the first embodiment is smaller than the second threshold value is erased. The second threshold value is a value corresponding to the existence probability of a pedestrian, which is predetermined as the probability of being unlikely to exist as a moving object.

ここで、移動物存在確率更新部220で、存在確率を検出頻度に応じて更新することについてさらに説明する。ここでは、複数の検出器60、62として、カメラを利用し、歩行者を検出する場合を考える。 Here, it will be further described that the moving object existence probability updating unit 220 updates the existence probability according to the detection frequency. Here, consider a case where a camera is used as a plurality of detectors 60 and 62 to detect a pedestrian.

或る移動物の状態量について、前回時刻からの経過時間をΔtで表し、存在確率の減少速度をνで表すと、存在確率の変化量Δpは、次の式で表すことができる。
Δp=−νΔt
When the elapsed time from the previous time is expressed by Δt and the decrease rate of the existence probability is expressed by ν for the state quantity of a certain moving object, the change amount Δp of the existence probability can be expressed by the following equation.
Δp = −νΔt

歩行者状態量推定装置210としてN台のカメラが存在する場合、i番目のカメラ(i=1、2、・・・、N)の時刻tにおける動作周波数をf、カメラの撮影可能範囲を削減する構造物により不可視の予め定めた領域(例えば、壁などによる死角)を考慮したカメラiの視野をR(t)とする。さらに、或る場所xがカメラiの視野内に含まれるか否かを示す関数σ(x、t)を、次の式で表す。
If the N cameras exist as a pedestrian state quantity estimating unit 210, i-th camera (i = 1,2, ···, N ) the operating frequency at time t of the f i, the imaging range of the camera Let Ri (t) be the field of view of the camera i in consideration of a predetermined area (for example, a blind spot due to a wall or the like) that is invisible due to the structure to be reduced. Further, the function σ i (x, t) indicating whether or not a certain place x is included in the field of view of the camera i is expressed by the following equation.

また、場所xにおけるカメラiによる物体の未検出率をpFN,i(x、t)と表す。移動物の未検出率は検出器からの距離、日照条件、などから導出すればよい。すると、位置xに移動物が存在した場合、N台のカメラによる総検出頻度f(x、t)は、次の式により計算可能である。
Further, the undetected rate of the object by the camera i at the place x is expressed as pFN, i (x, t). The undetected rate of moving objects may be derived from the distance from the detector, sunshine conditions, and the like. Then, when a moving object exists at the position x, the total detection frequency f (x, t) by the N cameras can be calculated by the following formula.

従って、時刻tで場所x、j番目の移動物の存在確率の減少量ν(t)を、次の式で表すことが可能である。
ν(t)=ν・f(x、t)
このようにすることで、存在確率を検出頻度に応じて更新することが可能である。
Therefore, it is possible to express the decrease amount ν j (t) of the existence probability of the place x j and the j-th moving object at time t by the following equation.
ν j (t) = ν 0 · f (x, t)
By doing so, it is possible to update the existence probability according to the detection frequency.

また、各センサの検出頻度を各移動物の存在確率の更新のたびに計算する代わりに、各検出器について算出した検出頻度を予め格納しておき、移動物の位置に応じた値を抽出してもよい。検出頻度の分布に変化があった検出器のみ格納した情報を更新することで、検出器及び移動物の数が増加した場合に効率よく算出可能となる。 Further, instead of calculating the detection frequency of each sensor each time the existence probability of each moving object is updated, the detection frequency calculated for each detector is stored in advance, and a value corresponding to the position of the moving object is extracted. You may. By updating the information stored only in the detectors whose distribution of the detection frequency has changed, it becomes possible to efficiently calculate when the number of detectors and moving objects increases.

なお、第2実施形態に係る歩行者状態量推定システムの他の構成は、第1実施形態と同様であるため、説明を省略する。 Since other configurations of the pedestrian state quantity estimation system according to the second embodiment are the same as those of the first embodiment, the description thereof will be omitted.

<歩行者状態量推定システムの動作>
次に、第2実施形態に係る歩行者状態量推定システムの動作について説明する。まず、複数の車両に搭載された複数の検出器60、及びインフラセンサとしての検出器62の各々によって、歩行者が逐次検出され、検出結果が、基地局50を介して、歩行者状態量推定装置10に送信されているときに、歩行者状態量推定装置210において、図7に示す歩行者状態量推定処理ルーチンが実行される。なお、第1実施形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of pedestrian state quantity estimation system>
Next, the operation of the pedestrian state quantity estimation system according to the second embodiment will be described. First, pedestrians are sequentially detected by each of the plurality of detectors 60 mounted on the plurality of vehicles and the detector 62 as an infrastructure sensor, and the detection result is estimated by the pedestrian state quantity via the base station 50. The pedestrian state quantity estimation processing routine shown in FIG. 7 is executed in the pedestrian state quantity estimation device 210 while being transmitted to the device 10. The same processing as that of the first embodiment is designated by the same reference numerals and detailed description thereof will be omitted.

ステップS100において、複数の検出器60及び検出器62の何れかから、歩行者の検出結果として、歩行者の3次元位置のセットY={yi,1,…yi,m}と、観測誤差分散行列のセットR={ri,1,…,ri,m}とを受信すると、ステップS200へ進む。 In step S100, as a result of detecting the pedestrian from any of the plurality of detectors 60 and 62, a set of three-dimensional positions of the pedestrian Y i = {y i, 1 , ... y i, m }. Upon receiving the set Ri = {ri , 1 , ..., ri , m } of the observation error variance matrix, the process proceeds to step S200.

ステップS102では、上記ステップS100で受信した検出結果の時刻に合わせて、複数の歩行者それぞれについて、カルマンフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、上記ステップS100で受信した検出結果の時刻における歩行者の状態量のセットX={x,…x}、および、その分散共分散行列V={v,…,v}を求める。 In step S102, according to the time of the detection result received in step S100, for each of the plurality of pedestrians, the next time using the state amount stored in the moving object state amount storage unit 16 by the prediction step of the Kalman filter. The pedestrian state quantity is repeatedly predicted, and the set X = {x 1 , ... x n } of the pedestrian state quantity at the time of the detection result received in step S100, and the variance-covariance matrix V thereof. = {V 1 , ..., v n } is obtained.

ステップS104では、上記ステップS100で受信した検出結果の時刻に対応して上記ステップS102で複数の歩行者それぞれについて予測された状態量と、上記ステップS100で受信した検出結果が表す複数の歩行者それぞれの3次元位置との対応付けを行う。 In step S104, the state quantity predicted for each of the plurality of pedestrians in step S102 corresponding to the time of the detection result received in step S100, and the plurality of pedestrians represented by the detection result received in step S100, respectively. Corresponds to the three-dimensional position of.

ステップS105では、上記ステップS100で受信した検出結果の時刻に対応して上記ステップS102で複数の歩行者それぞれについて、共通する時刻間の所定時間内において、複数の検出器のうち検出可能な検出器により検出される検出頻度を予測する。 In step S105, for each of the plurality of pedestrians in step S102 corresponding to the time of the detection result received in step S100, among the plurality of detectors, the detectors can be detected within a predetermined time between common times. Predict the detection frequency detected by.

ステップS106では、上記ステップS104で検出結果と対応付かなった歩行者の状態量のうち、観測した検出頻度が上記ステップS105で予測した検出頻度が閾値より小さい歩行者の状態量を、移動物状態量記憶部16から消去する。 In step S106, among the pedestrian state quantities that correspond to the detection results in step S104, the pedestrian state quantity whose observed detection frequency is smaller than the threshold value predicted in step S105 is the moving object state. Erase from the quantity storage unit 16.

ステップS202では、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、上記ステップS104により最新のデータの検出結果と対応付けられた歩行者の存在確率の各々について、検出器60、62についてステップS105で予測した検出頻度に応じて増加させるように更新する。また、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、上記ステップS104により最新のデータの検出結果と対応付けられなかった歩行者の存在確率の各々について、ステップS105で予測した検出頻度に応じた存在確率となるように減衰させて更新する。 In step S202, among the existence probabilities of each of the plurality of pedestrians stored in the moving object existence probability storage unit 222, each of the pedestrian existence probabilities associated with the detection result of the latest data in step S104 is , The detectors 60 and 62 are updated so as to increase according to the detection frequency predicted in step S105. Further, among the existence probabilities of each of the plurality of pedestrians stored in the moving object existence probability storage unit 222, each of the existence probabilities of pedestrians not associated with the detection result of the latest data in step S104 is described. It is attenuated and updated so that the existence probability corresponds to the detection frequency predicted in step S105.

ステップS204では、上記ステップS104で検出結果と対応付かなった歩行者の状態量のうち、移動物存在確率記憶部222に記憶されている存在確率が第2閾値より小さい歩行者の状態量を消去する。 In step S204, among the pedestrian state quantities associated with the detection result in step S104, the pedestrian state quantity whose existence probability stored in the moving object existence probability storage unit 222 is smaller than the second threshold value is deleted. To do.

ステップS108では、上記ステップS104で検出結果と対応付けられた状態量の各々について、対応する3次元位置yi,jを観測値として、その誤差分散行列ri,jと上記ステップS200で得られた歩行者の状態量及び分散共分散行列とを用いて、カルマンフィルタのフィルタリングステップにより、状態量を更新すると共に、最後に観測した時刻を更新する。また、上記ステップS100で受信した検出結果のうち、状態量と対応付かなかった歩行者の検出結果に基づき、新たな状態量xを生成し、最後に観測した時刻として、現在時刻を、移動物状態量記憶部16に格納する。また、所定の存在確率を、移動物存在確率記憶部222に格納する。 In step S108, for each of the state quantities associated with the detection result in step S104, the error variance matrix ri , j and the error variance matrix ri , j are obtained in step S200, with the corresponding three-dimensional positions y i, j as observed values. Using the state quantity of the pedestrian and the variance-covariance matrix, the state quantity is updated and the last observed time is updated by the filtering step of the Kalman filter. Further, among the detection results received in step S100, a new state quantity x is generated based on the detection result of the pedestrian that does not correspond to the state quantity, and the current time is set as the last observed time of the moving object. It is stored in the state quantity storage unit 16. Further, a predetermined existence probability is stored in the moving object existence probability storage unit 222.

そして、ステップS110では、更新された状態量のセットXを、歩行者の検出結果の統合結果として出力し、上記ステップS100へ戻る。 Then, in step S110, the updated state quantity set X is output as the integrated result of the pedestrian detection result, and the process returns to step S100.

以上説明したように、第2実施形態に係る歩行者状態量推定システムによれば、非同期に不特定の複数センサからセンシング結果が来る場合に、検出された状態量を、検出頻度から定まる存在確率に基づいて削除することにより、信頼できない検出結果の影響が状態量として残らないようにすることで、各センサの誤検出にロバストになる。 As described above, according to the pedestrian state quantity estimation system according to the second embodiment, when sensing results come from a plurality of unspecified sensors asynchronously, the detected state quantity is determined by the detection frequency. By deleting based on the above, the influence of the unreliable detection result does not remain as a state quantity, so that the false detection of each sensor becomes robust.

[第3実施形態]
<歩行者状態量推定システムのシステム構成>
次に、第3実施形態に係る歩行者状態量推定システムについて説明する。なお、第1実施形態及び第2実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Third Embodiment]
<System configuration of pedestrian state quantity estimation system>
Next, the pedestrian state quantity estimation system according to the third embodiment will be described. The parts having the same configurations as those of the first embodiment and the second embodiment are designated by the same reference numerals and the description thereof will be omitted.

第3実施形態は、移動物の検出頻度を予測した結果から歩行者の存在確率を更新する際に、予め記憶されている検出器60、62それぞれの最新のセンサ情報、及び壁などの構造物の位置を示す地図を用いて、移動物の検出頻度を予測する点が第2実施形態と異なっている。 In the third embodiment, when updating the existence probability of a pedestrian from the result of predicting the detection frequency of a moving object, the latest sensor information of each of the detectors 60 and 62 stored in advance, and a structure such as a wall It is different from the second embodiment in that the detection frequency of moving objects is predicted by using a map showing the position of.

図8に示すように、第3実施形態に係る歩行者状態量推定装置における移動物検出頻度予測部321は、センサログ記憶部322と、地図323と、検出頻度算出部324と、を備えている。 As shown in FIG. 8, the moving object detection frequency prediction unit 321 in the pedestrian state quantity estimation device according to the third embodiment includes a sensor log storage unit 322, a map 323, and a detection frequency calculation unit 324. ..

センサログ記憶部322は、検出器60、62それぞれの最新のセンサ情報を記憶する。また、地図323は、検出器60、62の検出可能範囲を削減する壁などの構造物の位置を示す地図情報を記憶する。 The sensor log storage unit 322 stores the latest sensor information of each of the detectors 60 and 62. Further, the map 323 stores map information indicating the position of a structure such as a wall that reduces the detectable range of the detectors 60 and 62.

検出頻度算出部324は、センサログ記憶部322は、検出器60、62それぞれの最新のセンサ情報と、地図323は、検出器60、62の検出可能範囲を削減する壁などの構造物の位置を示す地図情報とを用いて検出頻度を算出する。 In the detection frequency calculation unit 324, the sensor log storage unit 322 displays the latest sensor information of the detectors 60 and 62, respectively, and the map 323 indicates the position of a structure such as a wall that reduces the detectable range of the detectors 60 and 62. The detection frequency is calculated using the map information shown.

具体的には、例えば、複数の検出器60、62として、カメラを利用し、歩行者を検出する場合、検出頻度算出部324は、カメラそれぞれの検出位置(検出方向を含む)及び検出範囲と、壁などの構造物の位置とから、壁などの構造物により生じる死角または検出不可領域(構造物により検出器では検出不可の領域)を求める。この検出不可領域を除く領域を、カメラiの視野R(t)とし、或る場所xがカメラiの視野内に含まれるか否かを示す関数σ(x、t)を定める。 Specifically, for example, when a camera is used as a plurality of detectors 60 and 62 to detect a pedestrian, the detection frequency calculation unit 324 sets the detection position (including the detection direction) and the detection range of each camera. , The blind spot or undetectable area (area undetectable by the detector due to the structure) caused by the structure such as the wall is obtained from the position of the structure such as the wall. The area excluding the undetectable area is defined as the field of view Ri (t) of the camera i, and a function σ i (x, t) indicating whether or not a certain place x is included in the field of view of the camera i is defined.

また、センサ情報による最新の未検出率pFN,i(x、t)用いて、N台のカメラによる総検出頻度f(x、t)を算出する。従って、時刻tで場所x、j番目の移動物の存在確率の減少量ν(t)を、上記の式により求めることで、存在確率を検出頻度に応じて更新することが可能である。 Further, the total detection frequency f (x, t) by N cameras is calculated by using the latest undetected rate p FN, i (x, t) based on the sensor information. Therefore, it is possible to update the existence probability according to the detection frequency by obtaining the decrease amount ν j (t) of the existence probability of the place x j and the jth moving object at the time t by the above equation. ..

なお、第3実施形態に係る歩行者状態量推定システムの他の構成及び作用は、第2実施形態と同様であるため、説明を省略する。 Since other configurations and operations of the pedestrian state quantity estimation system according to the third embodiment are the same as those of the second embodiment, the description thereof will be omitted.

このように、地図により定まる検出器により検出が不可能な範囲を制約として用いて、歩行者の存在確率を更新することにより、存在しない歩行者の状態量を適切に消去することができる。 In this way, by updating the existence probability of the pedestrian by using the range that cannot be detected by the detector determined by the map as a constraint, the state quantity of the non-existent pedestrian can be appropriately erased.

[第4実施形態]
<歩行者状態量推定システムのシステム構成>
次に、第4実施形態に係る歩行者状態量推定システムについて説明する。なお、第1実施形態及び第2実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Fourth Embodiment]
<System configuration of pedestrian state quantity estimation system>
Next, the pedestrian state quantity estimation system according to the fourth embodiment will be described. The parts having the same configurations as those of the first embodiment and the second embodiment are designated by the same reference numerals and the description thereof will be omitted.

第4実施形態は、位置毎に予測された移動物の検出頻度を記憶しておき、記憶されている検出頻度を用いて、移動物の検出頻度を予測する点が第2実施形態と異なっている。 The fourth embodiment is different from the second embodiment in that the detected frequency of moving objects predicted for each position is stored and the detected frequency of moving objects is predicted using the stored detection frequency. There is.

図9に示すように、第4実施形態に係る歩行者状態量推定装置における移動物検出頻度予測部421は、頻度マップ更新部422と、地図323と、頻度マップ423と、検出頻度算出部424と、を備えている。 As shown in FIG. 9, the moving object detection frequency prediction unit 421 in the pedestrian state quantity estimation device according to the fourth embodiment includes a frequency map update unit 422, a map 323, a frequency map 423, and a detection frequency calculation unit 424. And have.

頻度マップ423は、地図323に記憶されている地図情報、及び検出器60、62それぞれの最新のセンサ情報を用いて、歩行者の検出可能範囲における位置毎の検出頻度を記憶する。具体的には、例えば、複数の検出器60、62を、2台のカメラ1及びカメラ2とした場合、図10に示すように、カメラ1及びカメラ2それぞれのカメラ位置で、センサ情報による検出可能範囲とする。また、地図情報により壁が検出可能範囲に存在するとする。この場合、歩行者が存在する可能性のある全体領域は、カメラ1及びカメラ2により歩行者を検出不可能な領域(カメラ台数Nc=0)、カメラ1またはカメラ2でのみ歩行者を検出可能な領域(カメラ台数Nc=1)、及びカメラ1及びカメラ2の両方で歩行者を検出可能な領域(カメラ台数Nc=2)に分類される。従って、歩行者の位置に応じて、検出可能なカメラの台数が異なり、検出可能なカメラの台数に応じて検出頻度が変化する。従って、図10に示すように位置毎にカメラ台数を示す領域を頻度マップとする。この頻度マップは、各領域に該当するカメラの動作周期からカメラそれぞれの検出頻度を算出可能であり、台数分を加算することで、該当領域の検出頻度を導出可能である。従って、頻度マップ更新部422は、センサ情報及び地図323に記憶された地図情報を用いて、頻度マップを最新の状態に更新する。 The frequency map 423 stores the detection frequency for each position in the detectable range of the pedestrian by using the map information stored in the map 323 and the latest sensor information of each of the detectors 60 and 62. Specifically, for example, when a plurality of detectors 60 and 62 are two cameras 1 and 2, as shown in FIG. 10, detection by sensor information is performed at each camera position of the camera 1 and the camera 2. It is within the possible range. Further, it is assumed that the wall exists in the detectable range based on the map information. In this case, the entire area where pedestrians may exist is an area where pedestrians cannot be detected by cameras 1 and 2 (number of cameras Nc = 0), and pedestrians can be detected only by camera 1 or camera 2. Areas (number of cameras Nc = 1) and areas where pedestrians can be detected by both cameras 1 and 2 (number of cameras Nc = 2). Therefore, the number of detectable cameras differs depending on the position of the pedestrian, and the detection frequency changes according to the number of detectable cameras. Therefore, as shown in FIG. 10, the area showing the number of cameras for each position is used as the frequency map. In this frequency map, the detection frequency of each camera can be calculated from the operation cycle of the cameras corresponding to each area, and the detection frequency of the corresponding area can be derived by adding the number of cameras. Therefore, the frequency map update unit 422 updates the frequency map to the latest state by using the sensor information and the map information stored in the map 323.

検出頻度算出部424は、頻度マップ423に記憶されている検出頻度のうち歩行者の状態量で示される位置の検出頻度を抽出することで、検出頻度を算出して出力する。 The detection frequency calculation unit 424 calculates and outputs the detection frequency by extracting the detection frequency of the position indicated by the state quantity of the pedestrian from the detection frequencies stored in the frequency map 423.

なお、第4実施形態に係る歩行者状態量推定システムの他の構成及び作用は、第2実施形態と同様であるため、説明を省略する。 Since other configurations and operations of the pedestrian state quantity estimation system according to the fourth embodiment are the same as those of the second embodiment, the description thereof will be omitted.

このように、地図により定まる検出器により検出が不可能な範囲を制約として用いて、センサ情報から頻度マップを更新することにより、歩行者の状態量による位置に対応する検出頻度を迅速に求めることが可能になり、存在しない歩行者の状態量を適切に消去することができる。 In this way, by updating the frequency map from the sensor information using the range that cannot be detected by the detector determined by the map as a constraint, the detection frequency corresponding to the position according to the state quantity of the pedestrian can be quickly obtained. Is possible, and the state quantity of a non-existent pedestrian can be appropriately erased.

なお、上記の実施の形態では、検出対象となる移動物として歩行者を対象とする場合を例に説明したが、これに限定されるものではなく、例えば車両などの他の移動体を検出対象としてもよい。 In the above embodiment, the case where a pedestrian is targeted as a moving object to be detected has been described as an example, but the present invention is not limited to this, and other moving objects such as vehicles are to be detected. May be.

また、複数の車両に搭載された複数の検出器及びインフラセンサとしての検出器を、非同期の複数センサとする場合を例に説明したが、これに限定されるものではなく、インフラセンサとしての検出器を用いないように構成してもよい。 Further, the case where a plurality of detectors mounted on a plurality of vehicles and a detector as an infrastructure sensor are used as a plurality of asynchronous sensors has been described as an example, but the present invention is not limited to this, and detection as an infrastructure sensor is performed. It may be configured not to use a vessel.

また、単一の車両に搭載され、かつ、カメラ及びレーダを含む複数の計測器を用いた、複数の検出器を、非同期の複数センサとしてもよい。例えば、異なる計測器を用いた検出器が、後付けで当該車両に追加される場合には、複数センサの数が不定になることが想定される。 Further, a plurality of detectors mounted on a single vehicle and using a plurality of measuring instruments including a camera and a radar may be used as a plurality of asynchronous sensors. For example, when a detector using a different measuring instrument is added to the vehicle as a retrofit, it is assumed that the number of a plurality of sensors is indefinite.

なお、本開示のプログラムは、記録媒体に格納して提供することができる。 The program of the present disclosure can be provided by storing it in a recording medium.

10、210 歩行者状態量推定装置
12 通信部
14 センシング結果獲得部
16 移動物状態量記憶部
18 移動物状態量予測部
20 移動物状態量整合部
21 移動物検出頻度予測部
22 移動物状態量消去部
24 移動物状態量更新部
50 基地局
60、62 検出器
70 ネットワーク
100 歩行者状態量推定システム
210 歩行者状態量推定装置
220 移動物存在確率更新部
222 移動物存在確率記憶部
321 移動物検出頻度予測部
322 センサログ記憶部
323 地図
324 検出頻度算出部
421 移動物検出頻度予測部
422 頻度マップ更新部
423 頻度マップ
424 検出頻度算出部
10, 210 Pedestrian state quantity estimation device 12 Communication unit 14 Sensing result acquisition unit 16 Moving object state quantity storage unit 18 Moving object state quantity prediction unit 20 Moving object state quantity matching unit 21 Moving object detection frequency prediction unit 22 Moving object state quantity Erasing unit 24 Moving object state quantity updating unit 50 Base station 60, 62 Detector 70 Network 100 Pedestrian state quantity estimating system 210 Pedestrian state quantity estimating device 220 Moving object existence probability updating unit 222 Moving object existence probability storage unit 321 Moving object Detection frequency prediction unit 322 Sensor log storage unit 323 Map 324 Detection frequency calculation unit 421 Moving object detection frequency prediction unit 422 Frequency map update unit 423 Frequency map 424 Detection frequency calculation unit

Claims (7)

複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶部と、
前記複数の移動物それぞれについて、前記移動物状態量記憶部に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測部と、
数不定の複数センサの何れかから、複数の移動物を検出した検出結果、及び検出性能情報を受け取るセンシング結果獲得部と、
前記センシング結果獲得部によって前記検出結果を受け取る毎に、前記検出結果の時刻に対応して前記移動物状態量予測部によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶部に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合部と、
前記複数センサそれぞれの検出性能情報に基づいて、前記複数の移動物それぞれについて前記複数のセンサのうち検出可能なセンサによって検出される検出頻度を予測する移動物検出頻度予測部と、
前記移動物状態量整合部によって前記検出結果と対応付かなかった前記移動物の状態量であって、複数の移動物を検出した検出結果により定まる検出頻度が前記移動物検出頻度予測部によって予測された検出頻度より小さい前記移動物の状態量を、前記移動物状態量記憶部から消去する移動物状態量消去部と、
を含む移動物状態量推定装置。
A moving object state quantity storage unit that stores the state quantity and the last observed time of each of the plurality of moving objects,
For each of the plurality of moving objects, a moving object state quantity predicting unit that predicts the state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage unit.
A detection result that detects a plurality of moving objects from any of a plurality of sensors having an indefinite number, and a sensing result acquisition unit that receives detection performance information.
Each time the detection result is received by the sensing result acquisition unit, the state amount of the moving object predicted by the moving object state amount prediction unit for each of the plurality of moving objects corresponding to the time of the detection result, and a plurality of states. The moving object state quantity that is associated with the detection result of each moving object and updates the state quantity and the last observed time of each of the plurality of moving objects stored in the moving object state quantity storage unit. Matching part and
A moving object detection frequency prediction unit that predicts the detection frequency detected by a detectable sensor among the plurality of sensors for each of the plurality of moving objects based on the detection performance information of each of the plurality of sensors.
The moving object detection frequency predicting unit predicts the detection frequency of the moving object state quantity that does not correspond to the detection result by the moving object state quantity matching unit and is determined by the detection results of detecting a plurality of moving objects. A moving object state quantity erasing unit that erases the state quantity of the moving object that is less than the detection frequency from the moving object state quantity storage unit.
A moving object state quantity estimation device including.
前記複数センサは、各々異なる移動体に搭載されたセンサを含む請求項1に記載の移動物状態量推定装置。 The moving object state quantity estimation device according to claim 1, wherein the plurality of sensors include sensors mounted on different moving bodies. 前記複数の移動物それぞれの存在確率を記憶する移動物存在確率記憶部と、
前記移動物状態量整合部による前記検出結果との対応付けの結果、又は前記センサについて予め定められた検出精度に応じて、前記移動物の存在確率を、前記移動物存在確率記憶部に設定し、又は
前記移動物存在確率記憶部に記憶されている前記複数の移動物それぞれの存在確率を、前記移動物状態量整合部による前記検出結果との対応付けの結果、前記最後に観測した時刻からの経過時間、又は前記センサについて予め定められた検出精度若しくは前記移動物検出頻度予測部による前記検出頻度に応じて増減させる移動物存在確率更新部と、
を更に含み、
前記移動物状態量消去部は、前記移動物存在確率記憶部に記憶されている前記複数の移動物それぞれの存在確率に基づいて、前記移動物の状態量を、前記移動物状態量記憶部から消去する請求項1又は請求項2に記載の移動物状態量推定装置。
A moving object existence probability storage unit that stores the existence probabilities of each of the plurality of moving objects,
The existence probability of the moving object is set in the moving object existence probability storage unit according to the result of association with the detection result by the moving object state quantity matching unit or the detection accuracy predetermined for the sensor. Or, as a result of associating the existence probabilities of each of the plurality of moving objects stored in the moving object existence probability storage unit with the detection result by the moving object state quantity matching unit, from the last observed time. The elapsed time of the sensor, the detection accuracy predetermined for the sensor, or the moving object existence probability updating unit that increases or decreases according to the detection frequency by the moving object detection frequency prediction unit.
Including
The moving object state quantity erasing unit obtains the state quantity of the moving object from the moving object state quantity storage unit based on the existence probability of each of the plurality of moving objects stored in the moving object existence probability storage unit. The moving object state quantity estimation device according to claim 1 or 2, which is to be erased.
前記移動物検出頻度予測部は、
前記複数センサそれぞれの前記検出性能情報を記憶する検出性能情報記憶部と、
前記検出性能情報記憶部に記憶された前記複数センサそれぞれの前記検出性能情報、移動物の検出可能範囲が記録されている移動物検出可能範囲情報、及び前記移動物状態量整合部によって更新された前記移動物の状態量に基づいて、前記検出頻度を算出する検出頻度算出部と、
を含む請求項3に記載の移動物状態量推定装置。
The moving object detection frequency prediction unit
A detection performance information storage unit that stores the detection performance information of each of the plurality of sensors,
It was updated by the detection performance information of each of the plurality of sensors stored in the detection performance information storage unit, the moving object detectable range information in which the detectable range of the moving object is recorded, and the moving object state quantity matching unit. A detection frequency calculation unit that calculates the detection frequency based on the state quantity of the moving object,
The moving object state quantity estimation device according to claim 3.
前記移動物検出頻度予測部は、
前記移動物検出頻度予測部によって予測された移動物の検出位置毎の検出頻度を示す情報を記憶する検出頻度記憶部と、
前記センシング結果獲得部によって受け取った前記検出性能情報、及び移動物の検出可能範囲が記録されている移動物検出可能範囲情報に基づいて、前記検出頻度記憶部に記憶された前記移動物の検出位置毎の検出頻度を更新する検出頻度更新部と、
前記検出頻度記憶部から、前記移動物の状態量に対応する検出頻度を抽出する検出頻度抽出部と、
を含む請求項3に記載の移動物状態量推定装置。
The moving object detection frequency prediction unit
A detection frequency storage unit that stores information indicating the detection frequency for each detection position of a moving object predicted by the moving object detection frequency prediction unit, and a detection frequency storage unit.
The detection position of the moving object stored in the detection frequency storage unit based on the detection performance information received by the sensing result acquisition unit and the moving object detectable range information in which the detectable range of the moving object is recorded. A detection frequency update unit that updates the detection frequency for each
A detection frequency extraction unit that extracts the detection frequency corresponding to the state quantity of the moving object from the detection frequency storage unit,
The moving object state quantity estimation device according to claim 3.
前記複数センサは、複数の車両に搭載された、又はインフラセンサに用いられた、歩行者又は車両を検出する複数の検出器であって、
前記移動物の状態量は、歩行者又は車両の位置及び速度であって、
前記移動物検出可能範囲情報は、センサ検出可能範囲を削減する構造物の位置を示す地図である請求項4又は請求項5に記載の移動物状態量推定装置。
The plurality of sensors are a plurality of detectors mounted on a plurality of vehicles or used as an infrastructure sensor to detect a pedestrian or a vehicle.
The state quantity of the moving object is the position and speed of a pedestrian or a vehicle.
The moving object state quantity estimation device according to claim 4 or 5, wherein the moving object detectable range information is a map showing the position of a structure that reduces the sensor detectable range.
複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶部を含むコンピュータを、
前記複数の移動物それぞれについて、前記移動物状態量記憶部に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測部、
数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得部、
前記センシング結果獲得部によって前記検出結果を受け取る毎に、前記検出結果の時刻に対応して前記移動物状態量予測部によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶部に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合部、
前記複数センサそれぞれの検出性能情報に基づいて、前記複数の移動物それぞれについて前記複数のセンサのうち検出可能なセンサによって検出される検出頻度を予測する移動物検出頻度予測部、および
前記移動物状態量整合部によって前記検出結果と対応付かなかった前記移動物の状態量であって、複数の移動物を検出した検出結果により定まる検出頻度が前記移動物検出頻度予測部によって予測された検出頻度より小さい前記移動物の状態量を、前記移動物状態量記憶部から消去する移動物状態量消去部、
として機能させるためのプログラム。
A computer including a moving object state quantity storage unit that stores the state quantity and the last observed time of each of the plurality of moving objects.
For each of the plurality of moving objects, a moving object state quantity predicting unit that predicts the state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage unit.
Sensing result acquisition unit that receives detection results of detecting multiple moving objects from any of multiple sensors of indefinite number.
Each time the detection result is received by the sensing result acquisition unit, the state amount of the moving object predicted by the moving object state amount prediction unit for each of the plurality of moving objects corresponding to the time of the detection result, and a plurality of states. The moving object state quantity that is associated with the detection result of each moving object and updates the state quantity and the last observed time of each of the plurality of moving objects stored in the moving object state quantity storage unit. Matching part,
A moving object detection frequency prediction unit that predicts the detection frequency detected by a detectable sensor among the plurality of sensors for each of the plurality of moving objects based on the detection performance information of each of the plurality of sensors, and the moving object state. The state quantity of the moving object that does not correspond to the detection result by the quantity matching unit, and the detection frequency determined by the detection results of detecting a plurality of moving objects is higher than the detection frequency predicted by the moving object detection frequency prediction unit. A moving object state quantity erasing unit that erases a small state quantity of the moving object from the moving object state quantity storage unit,
A program to function as.
JP2019051017A 2019-03-19 2019-03-19 Moving object state quantity estimation device and program Active JP7207050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019051017A JP7207050B2 (en) 2019-03-19 2019-03-19 Moving object state quantity estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051017A JP7207050B2 (en) 2019-03-19 2019-03-19 Moving object state quantity estimation device and program

Publications (2)

Publication Number Publication Date
JP2020154526A true JP2020154526A (en) 2020-09-24
JP7207050B2 JP7207050B2 (en) 2023-01-18

Family

ID=72559117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051017A Active JP7207050B2 (en) 2019-03-19 2019-03-19 Moving object state quantity estimation device and program

Country Status (1)

Country Link
JP (1) JP7207050B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092368A (en) * 2016-12-02 2018-06-14 株式会社豊田中央研究所 Moving object state amount estimation device and program
JP2018147157A (en) * 2017-03-03 2018-09-20 株式会社豊田中央研究所 Movable matter quantity-of-state prediction unit and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092368A (en) * 2016-12-02 2018-06-14 株式会社豊田中央研究所 Moving object state amount estimation device and program
JP2018147157A (en) * 2017-03-03 2018-09-20 株式会社豊田中央研究所 Movable matter quantity-of-state prediction unit and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中村 亮裕 他: "ローカルダイナミックマップ生成のための複数カメラを用いたリアルタイム多物体追跡システム", FIT2018 第17回情報科学技術フォーラム 講演論文集 第4分冊 選奨論文・一般論文・既発表論文, JPN6022051750, 12 September 2018 (2018-09-12), ISSN: 0004936730 *

Also Published As

Publication number Publication date
JP7207050B2 (en) 2023-01-18

Similar Documents

Publication Publication Date Title
CN109298389B (en) Indoor pedestrian combination pose estimation method based on multi-particle swarm optimization
TWI500003B (en) Positioning and mapping based on virtual landmarks
US9989626B2 (en) Mobile robot and sound source position estimation system
EP2428817B1 (en) Motion tracking techniques for RFID tags
US8320613B2 (en) Detecting and tracking targets in images based on estimated target geometry
US9794519B2 (en) Positioning apparatus and positioning method regarding a position of mobile object
JP4874607B2 (en) Object positioning device
CN112041848A (en) People counting and tracking system and method
US11061102B2 (en) Position estimating apparatus, position estimating method, and terminal apparatus
JP2019168953A (en) State estimation device and program
CN109343051A (en) A kind of multi-Sensor Information Fusion Approach driven for advanced auxiliary
US20220026557A1 (en) Spatial sensor system with background scene subtraction
CN110879598A (en) Information fusion method and device of multiple sensors for vehicle
CN112598715A (en) Multi-sensor-based multi-target tracking method, system and computer readable medium
CN112381853A (en) Apparatus and method for person detection, tracking and identification using wireless signals and images
JP6169146B2 (en) Object recognition integration apparatus and object recognition integration method
JP6866621B2 (en) Moving object state quantity estimation device and program
JP6903955B2 (en) Moving object state quantity estimation device and program
JP7052404B2 (en) State estimator and program
JP7207050B2 (en) Moving object state quantity estimation device and program
EP3598175B1 (en) Object detection system
KR101280348B1 (en) Multiple target tracking method
JP2019133332A (en) Association device, object tracking device, and program
JP2019174910A (en) Information acquisition device and information aggregation system and information aggregation device
Brahmi et al. Reference systems for environmental perception: Requirements, validation and metric-based evaluation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7207050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150