JP2018147157A - Movable matter quantity-of-state prediction unit and program - Google Patents

Movable matter quantity-of-state prediction unit and program Download PDF

Info

Publication number
JP2018147157A
JP2018147157A JP2017040385A JP2017040385A JP2018147157A JP 2018147157 A JP2018147157 A JP 2018147157A JP 2017040385 A JP2017040385 A JP 2017040385A JP 2017040385 A JP2017040385 A JP 2017040385A JP 2018147157 A JP2018147157 A JP 2018147157A
Authority
JP
Japan
Prior art keywords
moving object
state quantity
moving
pedestrian
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017040385A
Other languages
Japanese (ja)
Other versions
JP6903955B2 (en
Inventor
吉紘 大濱
Yoshiko Ohama
吉紘 大濱
峻 田口
Shun Taguchi
峻 田口
貴克 吉村
Takakatsu Yoshimura
貴克 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017040385A priority Critical patent/JP6903955B2/en
Publication of JP2018147157A publication Critical patent/JP2018147157A/en
Application granted granted Critical
Publication of JP6903955B2 publication Critical patent/JP6903955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to precisely obtain a movable matter quantity-of-state by integrating results of a plurality of sensors even when the number of a plurality of asynchronous sensors is undefined.SOLUTION: A sensing results acquisition unit 14 receives detection results of detecting a plurality of movable matters from any of a plurality of sensors which are indefinite in number. A movable matter quantity-of-state prediction unit 18 predicts a movable matter quantity-of-state of next time using the quantity-of-state stored in a movable matter quantity-of-state storage unit 16 relative to the respective plurality of movable matters. A movable matter quantity-of-state matching unit 20 matches the movable matter quantity-of-state predicted relative to the respective plurality of movable matters by the movable matter quantity-of-state prediction unit 18 according to time of detection results using a movable matter movable range map 30 each time the detection result is received by the sensing results acquisition unit 14 with the detection results of the respective plurality of movable matters to update the quantity-of-state and the latest observation time of the respective plurality of movable matters stored in the movable matter quantity-of-state storage unit 16.SELECTED DRAWING: Figure 2

Description

本発明は、移動物状態量推定装置及びプログラムに関する。   The present invention relates to a moving object state quantity estimation device and a program.

従来より、複数のカメラ映像を用いて、複数の歩行者が歩いているシーンから隠れ(オクルージョン)ている歩行者の動きを捉えるために、複数カメラの配置・向き情報と複数のカメラ映像から抽出した歩行者の足領域情報を利用して時空間トラッキングをしながら、歩行者を分離・追跡する技術が知られている(非特許文献1)。   Conventionally, using multiple camera images, to capture the movement of a pedestrian that is hidden (occluded) from a scene where multiple pedestrians are walking, extracted from multiple camera placement / orientation information and multiple camera images A technique for separating and tracking pedestrians while performing spatiotemporal tracking using the pedestrian's foot area information is known (Non-Patent Document 1).

また、複数のカメラ映像を用いて、車両領域を表すテンプレート位置を抽出し、テンプレート位置情報に対して、多視点的処理と時系列処理を施し、複数のカメラで検出された車両の対応付けを行うことで、走行車両の運動軌道を高精度に計算することができる走行車両検出装置が知られている(特許文献1)。   In addition, a template position representing a vehicle region is extracted using a plurality of camera images, multi-view processing and time-series processing are performed on the template position information, and association of vehicles detected by the plurality of cameras is performed. A traveling vehicle detection device that can calculate the motion trajectory of a traveling vehicle with high accuracy by performing the method is known (Patent Document 1).

S.M. Khan, et. al., “A multiview approach to tracking people in crowded scenes using a planar homography constraint,” Proceedings of the 9th European conference on Computer Vision, ECCV06, Vol. 4, pp133-146.S.M.Khan, et.al., “A multiview approach to tracking people in crowded scenes using a planar homography constraint,” Proceedings of the 9th European conference on Computer Vision, ECCV06, Vol. 4, pp133-146.

特開2001-357489号公報JP 2001-357489

上記非特許文献1及び特許文献1の技術は、共にビデオフレームが一定間隔で、複数のカメラ(センサ)間でフレーム同期がとれることを前提としている。   The techniques of Non-Patent Document 1 and Patent Document 1 are based on the premise that video frames can be synchronized between a plurality of cameras (sensors) at regular intervals.

しかしながら、通信遅延やセンサの仕様で複数のセンサ間でフレーム同期(検出結果送信タイミングの同期)がとれない場合は、一定時間のフレームを、結果を統合する装置上で蓄積し、データ補間等の同期処理を行う必要があり、さらにはセンサ数が不定の場合は、同期するセンサが不定ということであるため、同期処理が困難である。   However, if frame synchronization (synchronization of detection result transmission timing) cannot be achieved between multiple sensors due to communication delays or sensor specifications, frames of a certain time are accumulated on the device that integrates the results, and data interpolation, etc. It is necessary to perform the synchronization process. Further, when the number of sensors is indefinite, it is difficult to perform the synchronization process because the synchronized sensor is indefinite.

また、センシング結果から得られる観測量が、障害物の内側などとして明らかに誤っている場合に、既存の状態量と対応づかないと、新規の状態量を生成してしまう。   In addition, when the observation amount obtained from the sensing result is clearly wrong as inside the obstacle, a new state amount is generated unless it corresponds to the existing state amount.

本発明は、上記の事情に鑑みてなされたもので、非同期の複数センサのセンサ数が不定であっても、複数センサの結果を統合して、移動物の状態量を精度良く求めることができる移動物状態量推定装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and even if the number of asynchronous multiple sensors is indefinite, the results of the multiple sensors can be integrated to accurately determine the state quantity of the moving object. It is an object of the present invention to provide a moving object state quantity estimation device and a program.

上記の目的を達成するために第1の発明に係る移動物状態量推定装置は、複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段と、前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段と、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段と、前記センシング結果獲得手段によって前記検出結果を受け取る毎に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合手段と、を含んで構成されている。   In order to achieve the above object, a moving object state quantity estimation device according to a first invention comprises a moving object state quantity storage means for storing a state quantity and the last observed time of each of a plurality of moving objects; For each of the moving objects, any one of the moving object state quantity predicting means for predicting the state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage means, and a plurality of indefinite number of sensors. Sensing result acquisition means for receiving detection results obtained by detecting a plurality of moving objects, and each time the detection result is received by the sensing result acquisition means, the movable object movable range information in which the movable range of the moving object is recorded. Using the state quantity of the moving object predicted for each of the plurality of moving objects by the moving object state quantity predicting unit corresponding to the time of the detection result, and before each of the plurality of moving objects A moving object state quantity matching unit that associates with a detection result and updates a state quantity and the last observed time of each of the plurality of moving objects stored in the moving object state quantity storage unit. It consists of

第2の発明に係るプログラムは、複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段を含むコンピュータを、前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段、及び前記センシング結果獲得手段によって前記検出結果を受け取る毎に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合手段として機能させるためのプログラムである。   According to a second aspect of the present invention, there is provided a program including a moving object state quantity storage unit that stores a state quantity and a last observed time for each of a plurality of moving objects. Detection by detecting a plurality of moving objects from either a moving object state quantity predicting means for predicting a state quantity of the moving object at the next time using a state quantity stored in the quantity storage means, or an indefinite number of sensors. Sensing result acquisition means for receiving a result, and each time the detection result is received by the sensing result acquisition means, the moving object movable range information in which the movable range of the moving object is recorded is used to correspond to the time of the detection result. Correspondence between the state quantity of the moving object predicted for each of the plurality of moving objects by the moving object state quantity predicting means and the detection result of each of the plurality of moving objects Only performed, stored in said moving object state quantity storing means, of each of the plurality of moving object is a program for functioning as a moving object state quantity matching means for updating the state variable and finally the observed time.

第1の発明及び第2の発明によれば、センシング結果獲得手段によって、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取る。移動物状態量予測手段によって、前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する。   According to the first and second aspects of the invention, the sensing result acquisition means receives detection results obtained by detecting a plurality of moving objects from any of a plurality of indefinite number of sensors. For each of the plurality of moving objects, the moving object state quantity predicting means predicts the state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage means.

そして、移動物状態量整合手段によって、前記センシング結果獲得手段によって前記検出結果を受け取る毎に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する。   Then, every time the detection result is received by the sensing result acquisition means by the moving object state quantity matching means, the moving object movable range information in which the movable range of the moving object is recorded is used to correspond to the time of the detection result. The moving object state quantity predicting unit associates the state quantity of the moving object predicted for each of the plurality of moving objects with the detection result of each of the plurality of moving objects, and stores the moving object state quantity The state quantity and the last observed time of each of the plurality of moving objects stored in the means are updated.

このように、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取る毎に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、検出結果の時刻に対応して複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、複数の移動物それぞれの、状態量及び最後に観測した時刻を更新することにより、非同期の複数センサのセンサ数が不定であっても、複数センサの結果を統合して、移動物の状態量を精度良く求めることができる。   In this way, every time receiving a detection result of detecting a plurality of moving objects from any of a plurality of indefinite number of sensors, using the moving object movable range information in which the movable range of the moving object is recorded, The state quantity of the moving object predicted for each of the plurality of moving objects corresponding to the time is associated with the detection result of each of the plurality of moving objects, and the state quantity of each of the plurality of moving objects and finally By updating the observed time, even if the number of sensors of the asynchronous multiple sensors is indefinite, the results of the multiple sensors can be integrated and the state quantity of the moving object can be obtained with high accuracy.

第3の発明に係る移動物状態量推定装置は、複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段と、前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段と、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段と、前記センシング結果獲得手段によって前記検出結果を受け取った場合に、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新し、前記センシング結果獲得手段によって前記検出結果を受け取らなかった場合に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量を修正し、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量を更新する移動物状態量整合手段と、を含んで構成されている。   The moving object state quantity estimation device according to a third aspect of the present invention is the moving object state quantity storage means for storing the state quantity and the last observed time of each of the plurality of moving objects, and the moving object A moving object state quantity predicting means for predicting a state quantity of the moving object at the next time using the state quantity stored in the object state quantity storing means, and a plurality of moving objects from any of a plurality of indefinite number of sensors. Sensing result acquisition means for receiving the detected detection result, and when the detection result is received by the sensing result acquisition means, each of the plurality of moving objects by the moving object state quantity prediction means corresponding to the time of the detection result The plurality of movements stored in the moving object state quantity storage unit, in which the state quantity of the moving object predicted for the moving object is associated with the detection results of the plurality of moving objects. Renew each state quantity and the last observed time, and when the detection result is not received by the sensing result acquisition means, using the moving object movable range information in which the movable range of the moving object is recorded, The state quantity of each of the plurality of moving objects stored in the moving object state quantity storage means after correcting the state quantity of the moving object predicted for each of the plurality of moving objects by the moving object state quantity prediction means. And moving object state quantity matching means for updating.

第4の発明に係るプログラムは、複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段を含むコンピュータを、前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段、及び前記センシング結果獲得手段によって前記検出結果を受け取った場合に、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新し、前記センシング結果獲得手段によって前記検出結果を受け取らなかった場合に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量を修正し、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量を更新する移動物状態量整合手段として機能させるためのプログラムである。   According to a fourth aspect of the present invention, there is provided a program including a moving object state quantity storage unit that stores a state quantity and a last observed time for each of a plurality of moving objects, the moving object state for each of the plurality of moving objects. Detection by detecting a plurality of moving objects from either a moving object state quantity predicting means for predicting a state quantity of the moving object at the next time using a state quantity stored in the quantity storage means, or an indefinite number of sensors. When the detection result is received by the sensing result acquisition means for receiving the result and the sensing result acquisition means, each of the plurality of moving objects is predicted by the moving object state quantity prediction means corresponding to the time of the detection result. The state quantity of the moving object is associated with the detection results of each of the plurality of moving objects, and the compound stored in the moving object state quantity storage unit is stored. When the state quantity and the last observed time of each moving object are updated, and the detection result is not received by the sensing result acquisition means, the moving object movable range information in which the movable range of the moving object is recorded is recorded. And correcting the state quantity of the moving object predicted for each of the plurality of moving objects by the moving object state quantity predicting means, and storing each of the plurality of moving objects stored in the moving object state quantity storage means. This is a program for functioning as a moving object state quantity matching means for updating the state quantity.

第3の発明及び第4の発明によれば、センシング結果獲得手段によって、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取る。移動物状態量予測手段によって、前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する。   According to the third and fourth aspects of the invention, the sensing result acquisition means receives detection results obtained by detecting a plurality of moving objects from any of a plurality of indefinite number of sensors. For each of the plurality of moving objects, the moving object state quantity predicting means predicts the state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage means.

そして、移動物状態量整合手段によって、前記センシング結果獲得手段によって前記検出結果を受け取った場合に、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する。   Then, when the detection result is received by the sensing result acquisition means by the moving object state quantity matching means, each of the plurality of moving objects is predicted by the moving object state quantity prediction means corresponding to the time of the detection result. The state quantity and the last of each of the plurality of moving objects stored in the moving object state quantity storage means are associated with the detected state quantity of the moving object and the detection results of each of the plurality of moving objects. Update the observed time.

また、移動物状態量整合手段によって、前記センシング結果獲得手段によって前記検出結果を受け取らなかった場合に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量を修正し、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量を更新する。   Further, when the detection result is not received by the sensing result acquisition means by the moving object state quantity matching means, the moving object state quantity is recorded using the moving object movable range information in which the movable range of the moving object is recorded. The state quantity of the moving object predicted for each of the plurality of moving objects by the prediction unit is corrected, and the state quantity of each of the plurality of moving objects stored in the moving object state quantity storage unit is updated.

このように、数不定の複数センサの何れかからも、複数の移動物を検出した検出結果を受け取らなかった場合には、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、複数の移動物それぞれについて予測された前記移動物の状態量を修正し、数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取った場合に、検出結果の時刻に対応して複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、複数の移動物それぞれの、状態量及び最後に観測した時刻を更新することにより、非同期の複数センサのセンサ数が不定であっても、複数センサの結果を統合して、移動物の状態量を精度良く求めることができる。   As described above, when the detection result of detecting a plurality of moving objects is not received from any of a plurality of indefinite number of sensors, the moving object moving range information in which the moving range of the moving object is recorded is used. The state quantity of the moving object predicted for each of the plurality of moving objects is corrected, and when the detection result of detecting the plurality of moving objects is received from any of a plurality of indefinite number of sensors, the time of the detection result is Correspondingly, the state quantity of the moving object predicted for each of the plurality of moving objects is associated with the detection result of each of the plurality of moving objects, and the state quantity and the last observation of each of the plurality of moving objects are performed. By updating the time, even if the number of sensors of the asynchronous multiple sensors is indefinite, the results of the multiple sensors can be integrated to obtain the state quantity of the moving object with high accuracy.

また、上記発明のプログラムは、記録媒体に格納して提供することも可能である。   Moreover, the program of the said invention can also be stored in a recording medium and provided.

以上説明したように、本発明の移動物状態量推定装置及びプログラムによれば、非同期の複数センサのセンサ数が不定であっても、複数センサの結果を統合して、移動物の状態量を精度良く求めることができる、という効果が得られる。   As described above, according to the moving object state quantity estimation device and the program of the present invention, even if the number of sensors of the asynchronous plural sensors is indefinite, the results of the plural sensors are integrated to obtain the moving object state quantity. The effect that it can obtain | require with sufficient precision is acquired.

本発明の第1の実施の形態に係る歩行者状態量推定システムを示すブロック図である。It is a block diagram which shows the pedestrian state quantity estimation system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る局地サーバを示すブロック図である。It is a block diagram which shows the local server which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る局地サーバにおける歩行者状態量推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pedestrian state quantity estimation process routine in the local server which concerns on the 1st Embodiment of this invention. 歩行者の可動範囲を考慮して複数センサの結果を統合する方法を説明するための図である。It is a figure for demonstrating the method to integrate the result of multiple sensors in consideration of the movable range of a pedestrian. 歩行者状態量推定システムでのデータの送受信を示す図である。It is a figure which shows transmission / reception of the data in a pedestrian state quantity estimation system. 歩行者の可動範囲を考慮して複数センサの結果を統合する方法の効果を説明するための図である。It is a figure for demonstrating the effect of the method of integrating the result of multiple sensors in consideration of the movable range of a pedestrian. 歩行者の可動範囲を考慮して状態量の予測結果を修正する方法を説明するための図である。It is a figure for demonstrating the method of correcting the prediction result of a state quantity in consideration of the movable range of a pedestrian. 本発明の第2の実施の形態に係る局地サーバを示すブロック図である。It is a block diagram which shows the local server which concerns on the 2nd Embodiment of this invention. 非同期の複数センサからの検出結果を用いた存在確率に基づくセンシング結果統合のイメージ図である。It is an image figure of sensing result integration based on existence probability using the detection result from a plurality of asynchronous sensors. 本発明の第2の実施の形態に係る局地サーバにおける歩行者状態量推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pedestrian state quantity estimation process routine in the local server which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る局地サーバを示すブロック図である。It is a block diagram which shows the local server which concerns on the 3rd Embodiment of this invention.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<本発明の実施の形態の概要>
本発明の実施の形態は、複数のセンサ間でフレーム同期をしないアプローチをとっている。あるセンサからのセンシング結果を受け取ったタイミングで、歩行者位置の状態量(仮説)と受け取ったセンシング結果を対応付けて、誤差を計算し、仮説の歩行者位置を補正しながら、歩行者を検出・追従する。この処理を各センサからセンシング結果が統合処理装置に届く毎に行う。
<Outline of Embodiment of the Present Invention>
The embodiment of the present invention takes an approach in which frame synchronization is not performed between a plurality of sensors. At the timing when the sensing result from a sensor is received, the state quantity (hypothesis) of the pedestrian position is associated with the received sensing result, the error is calculated, and the pedestrian is detected while correcting the hypothetical pedestrian position.・ Follow. This process is performed every time the sensing result reaches the integrated processing device from each sensor.

しかしながら、本アプローチは、1台のセンサの結果だけを使って逐次上記処理を行うため、センサの検出率が悪い場合(歩行者がいない所に誤って歩行者がいると結果を出す頻度が高い場合)には、いない歩行者の仮説が増えてしまい、歩行者数の推定を間違ってしまう問題がある。   However, since this approach sequentially performs the above processing using only the result of one sensor, if the detection rate of the sensor is bad (the frequency of the result is high if there is a pedestrian accidentally where there is no pedestrian) Case), there is a problem that hypotheses of pedestrians that do not exist increase and the number of pedestrians is estimated incorrectly.

この問題を解決するために、各センサの検出率や最後に観測されてからの経過時間、地図情報などを利用して、誤検出の可能性が高い歩行者の検出結果を棄却する。   In order to solve this problem, a detection result of a pedestrian with a high possibility of erroneous detection is rejected using the detection rate of each sensor, the elapsed time since the last observation, map information, and the like.

また、各センサから非同期に到達した情報から生成した観測量と、その空間的な移動可能性(可動範囲)と、既に保持している状態量の移動予測との近さに応じて、整合処理(対応付けと状態量の修正)を行い、適切な対応付けがない場合には、観測量周辺に可動範囲を鑑みて状態量を生成する。観測量が到来しない間も、可動範囲による状態量の修正は継続する。これにより、通信途絶によって観測量が得られない間も、例えば歩行者は歩道上を進行するなど、常識的な予測が実現されるので、通信復帰後の観測量と既存の状態量とを適切に対応付けることができる。既に保持している状態量は、最後に対応付けられてからの経過時間で削除するので、極めて長期間の途絶に対してのロバスト性は維持される。   In addition, matching processing is performed according to the observation amount generated from information that arrived asynchronously from each sensor, its spatial movement possibility (movable range), and the proximity of the state prediction that has already been held. (Association and correction of state quantity) are performed, and when there is no appropriate association, a state quantity is generated around the observation quantity in consideration of the movable range. Even when the observation amount does not arrive, the correction of the state amount by the movable range continues. As a result, common sense predictions such as pedestrians traveling on the sidewalk can be realized even when the observation amount is not obtained due to communication interruption, so the observation amount after communication return and the existing state amount are appropriately Can be associated. Since the state quantity already held is deleted in the elapsed time since the last correspondence, the robustness against the extremely long-term interruption is maintained.

[第1の実施の形態]
本発明の第1の実施の形態では、車両に搭載された歩行者の検出器やインフラセンサとしての歩行者の検出器の検出結果を統合して歩行者の状態量を推定する局地サーバに本発明を適用した場合を例に説明する。
[First Embodiment]
In the first embodiment of the present invention, a local server that estimates the amount of state of a pedestrian by integrating detection results of a pedestrian detector mounted on a vehicle or a pedestrian detector as an infrastructure sensor. A case where the present invention is applied will be described as an example.

<歩行者状態量推定システムのシステム構成>
図1に示すように、第1の実施の形態に係る歩行者状態量推定システム100は、局地サーバ10と、基地局50と、複数の車両に搭載された複数の検出器60と、インフラセンサとしての検出器62とを備え、基地局50と局地サーバ10とは、インターネットなどのネットワーク70で接続されており、基地局50と検出器60、62とは、無線通信により接続されている。なお、局地サーバ10は、移動物状態量推定装置の一例である。
<System configuration of pedestrian state quantity estimation system>
As shown in FIG. 1, the pedestrian state quantity estimation system 100 according to the first embodiment includes a local server 10, a base station 50, a plurality of detectors 60 mounted on a plurality of vehicles, an infrastructure The base station 50 and the local server 10 are connected by a network 70 such as the Internet, and the base station 50 and the detectors 60 and 62 are connected by wireless communication. Yes. The local server 10 is an example of a moving object state quantity estimation device.

検出器60、62は、カメラやレーダを用いて歩行者を随時検出し、検出する度に、検出結果を、基地局50を介して、局地サーバ10へ送信する。   The detectors 60 and 62 detect a pedestrian at any time using a camera or a radar, and transmit a detection result to the local server 10 via the base station 50 each time it is detected.

例えば、検出器60は、自車両の前方を撮像するカメラによって撮像された前方の道路画像から、スライディングウィンドウ毎に、画像特徴量(SIFT,FIND、HOGなど)を抽出し、スライディングウィンドウ毎の画像特徴量と、歩行者検出モデル(SVM、AdaBoost)とを用いて、歩行者を検出し、検出された歩行者位置を表す画像座標を求める。また、検出器60は、歩行者位置を表す画像座標を、3次元位置に変換する。この際に、検出された歩行者の高さに応じて誤差分散行列を求める。また、検出器60は、自車両に搭載されたGPSにより計測された自車両の絶対座標と、求められた3次元位置とに基づいて、歩行者の絶対的な3次元位置を求める。   For example, the detector 60 extracts image feature quantities (SIFT, FIND, HOG, etc.) for each sliding window from the road image in front captured by a camera that images the front of the host vehicle, and images for each sliding window. A pedestrian is detected using the feature amount and a pedestrian detection model (SVM, AdaBoost), and image coordinates representing the detected pedestrian position are obtained. In addition, the detector 60 converts the image coordinates representing the pedestrian position into a three-dimensional position. At this time, an error variance matrix is obtained according to the detected height of the pedestrian. Moreover, the detector 60 calculates | requires the absolute three-dimensional position of a pedestrian based on the absolute coordinate of the own vehicle measured by GPS mounted in the own vehicle, and the calculated | required three-dimensional position.

上記の歩行者の3次元位置及び誤差分散行列を、検出された歩行者毎に求め、車両Cの検出器60において検出した歩行者の3次元位置のセットY={yi,1,…yi,m}と、観測誤差分散行列のセットR={ri,1,…,ri,m}とからなる観測O={Y,R}を、観測毎に、局地サーバ10へ送信する。 The three-dimensional position and the error variance matrix of the pedestrian, determined for each detected pedestrian, a set of three-dimensional position of the pedestrian detected at the detector 60 of the vehicle C i Y i = {y i , 1, ... y i, m } and observation O i = {Y i , R i } consisting of observation error variance matrix set R i = {ri , 1 , ..., ri , m } for each observation, Transmit to the local server 10.

検出器62は、検出器60と同様に、検出した歩行者の3次元位置のセットと、観測誤差分散行列のセットとからなる観測を、観測毎に、局地サーバ10へ送信する。   Similarly to the detector 60, the detector 62 transmits an observation made up of a set of the detected three-dimensional position of the pedestrian and an observation error variance matrix to the local server 10 for each observation.

複数の検出器60、62は、非同期に、歩行者を検出している。また、複数の検出器60は、各々異なる車両に搭載されているため、局地サーバ10へ検出結果を送信する検出器60、62の数は、不定となる。   The plurality of detectors 60 and 62 detect pedestrians asynchronously. Since the plurality of detectors 60 are mounted on different vehicles, the number of detectors 60 and 62 that transmit detection results to the local server 10 is indefinite.

局地サーバ10は、CPUと、RAMと、後述する歩行者状態量推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。図2に示すように、局地サーバ10は、通信部12と、センシング結果獲得部14と、移動物状態量記憶部16と、移動物状態量予測部18と、移動物状態量消去部19と、移動物状態量整合部20と、移動物状態量更新部24と、移動物可動範囲地図30とを備えている。   The local server 10 includes a CPU, a RAM, and a ROM that stores a program for executing a pedestrian state quantity estimation processing routine described later, and is functionally configured as follows. As shown in FIG. 2, the local server 10 includes a communication unit 12, a sensing result acquisition unit 14, a moving object state quantity storage unit 16, a moving object state quantity prediction unit 18, and a moving object state quantity deletion unit 19. A moving object state quantity matching unit 20, a moving object state quantity updating unit 24, and a moving object movable range map 30.

移動物可動範囲地図30には、障害物や標識表示による歩行者の可動範囲地図を表わす尤度場mが格納されている。尤度場mは、例えば遠隔サーバ80から取得され、所定の周期で移動物可動範囲地図30の尤度場mが更新される。例えば、信号機による変化を想定した場合、1秒〜10秒の周期で、移動物可動範囲地図30の尤度場mが更新される。整備工事(補修、植栽剪定等)による規制を想定した場合には、1時間の周期で、移動物可動範囲地図30の尤度場mが更新される。また、道路構造の変更(道路の撤去/新設、建物の築造・増築/撤去)を想定した場合には、1日の周期で、移動物可動範囲地図30の尤度場mが更新される。   The moving object movable range map 30 stores a likelihood field m representing a movable range map of a pedestrian by an obstacle or a sign display. The likelihood field m is acquired from, for example, the remote server 80, and the likelihood field m of the moving object movable range map 30 is updated at a predetermined cycle. For example, assuming a change caused by a traffic light, the likelihood field m of the moving object movable range map 30 is updated at a period of 1 to 10 seconds. When the restriction by the maintenance work (repair, planting pruning, etc.) is assumed, the likelihood field m of the moving object movable range map 30 is updated at a cycle of 1 hour. In addition, when it is assumed that the road structure is changed (road removal / new construction, building construction / extension / removal), the likelihood field m of the moving object movable range map 30 is updated in a cycle of one day.

センシング結果獲得部14は、検出器60、62の何れかから送信された歩行者の座標のセット及び観測誤差分散行列のセットからなる観測を、通信部12により受信する毎に、歩行者の座標のセット及び観測誤差分散行列のセットからなる観測を取得する。   The sensing result acquisition unit 14 receives the pedestrian coordinates transmitted from any of the detectors 60 and 62 and the observation error variance matrix every time the communication unit 12 receives an observation made up of the coordinates of the pedestrians. Obtain an observation consisting of a set of and a set of observation error variance matrices.

移動物状態量記憶部16は、観測された複数の歩行者それぞれの、移動物状態量更新部24により更新された状態量(歩行者の位置及び速度)、及び最後に観測した時刻を記憶する。具体的には、歩行者の状態量のセットX={x,…x}、および、状態量の分散共分散行列V={v,…,v}、最後に観測した時刻のセットT={t,…t}とを記憶している。なお、本実施の形態では、

を、信念空間上の仮説と呼び、その構成要素

を追跡器と呼ぶこととする。
The moving object state quantity storage unit 16 stores the state quantity (position and speed of the pedestrian) updated by the moving object state quantity update unit 24 and the last observed time for each of the observed plurality of pedestrians. . Specifically, the pedestrian state quantity set X = {x 1 ,... X n }, and the state quantity variance-covariance matrix V = {v 1 ,..., V n }, the last observed time The set T = {t 1 ,... T n } is stored. In this embodiment,

Is called a hypothesis in belief space and its components

Is called a tracker.

移動物状態量予測部18は、現時刻に合わせて、複数の歩行者それぞれについて、パーティクルフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、現時刻における歩行者の状態量のセットX={x,…x}、および、状態量の分散共分散行列V={v,…,v}を求める。例えば、等速予測などにより、次の時刻の歩行者の状態量を予測する。 The moving object state quantity prediction unit 18 walks at the next time using a state quantity stored in the moving object state quantity storage unit 16 for each of a plurality of pedestrians according to the prediction step of the particle filter in accordance with the current time. Predicting the state quantity of the pedestrian, the set of state quantities of the pedestrian at the current time X = {x 1 ,... X n }, and the variance-covariance matrix V = {v 1 ,. n }. For example, the state quantity of the pedestrian at the next time is predicted by constant speed prediction or the like.

具体的には、仮説

に対して、現時刻の状態に関する予測

を生成する。
Specifically, hypothesis

For the current time state

Is generated.

移動物状態量整合部20は、センシング結果獲得部14により最新の観測Oを受け取った場合に、移動物可動範囲地図30の尤度場mを用いて、現時刻に対応して移動物状態量予測部18によって複数の歩行者それぞれについて予測された状態量と、当該最新の観測Oが表す複数の歩行者それぞれの検出結果との対応付けを行う。 When the moving object state quantity matching unit 20 receives the latest observation O i from the sensing result acquisition unit 14, the moving object state quantity matching unit 20 uses the likelihood field m of the moving object movable range map 30 to correspond to the current time. The state quantity predicted for each of the plurality of pedestrians by the quantity prediction unit 18 is associated with the detection results of each of the plurality of pedestrians represented by the latest observation O i .

具体的には、移動物可動範囲地図30の尤度場mを用いて、現時刻における歩行者の状態量のセットX={x,…x}と、当該最新の観測Oにおいて検出した歩行者の3次元位置のセットY={yi,1,…yi,m}との対応付けを行う。例えば、観測Oに対する、追跡器

のあてはまりのよさを意味する観測尤度

を、尤度場m(xn)を含めて以下のように計算する。
Specifically, using the likelihood field m of the moving object movable range map 30, the pedestrian state quantity set X = {x 1 ,... X n } at the current time and the latest observation O i are detected. Is associated with the set Y i = {y i, 1 ,... Y i, m } of the three-dimensional position of the pedestrian. For example, a tracker for observation O i

Observation likelihood means goodness of fit

Including the likelihood field m (x n ) as follows.

そして、対応付けられた追跡器

と検出された歩行者の3次元位置yi,jとの組み合わせの観測尤度θi,jの積を最大にする対応付けを、ハンガリアン法などの手法により高速に計算する。
And the associated tracker

The correlation that maximizes the product of the observation likelihood θ i, j of the combination with the detected three-dimensional position y i, j of the pedestrian is calculated at high speed by a technique such as the Hungarian method.

また、対応付けない観測尤度を設定値として与え、この設定値より小さい観測尤度の組み合わせは、対応付けられないようにする。   In addition, an observation likelihood that is not associated is set as a set value, and combinations of observation likelihoods that are smaller than the set value are not associated.

移動物状態量整合部20は、センシング結果獲得部14により最新の観測Oを受け取らなかった場合に、現時刻に対応して移動物状態量予測部18によって複数の追跡器それぞれについて予測された状態量に基づいてサンプリングして得られる、歩行者の状態量を表す複数のパーティクルを、追跡器ぞれぞれに対して生成し、パーティクルの各々に対し、移動物可動範囲地図30の尤度場mを用いて、地図尤度ωを算出する。 When the moving object state quantity matching unit 20 does not receive the latest observation O i from the sensing result acquisition unit 14, the moving object state quantity matching unit 20 is predicted for each of the plurality of trackers by the moving object state quantity prediction unit 18 corresponding to the current time. A plurality of particles representing the pedestrian's state quantity obtained by sampling based on the state quantity are generated for each of the trackers, and the likelihood of the moving object movable range map 30 for each of the particles. A map likelihood ω is calculated using the field m.

具体的には、状態予測

に関して、シグマポイント

によるサンプリングを行う。
Specifically, state prediction

With respect to sigma points

Sampling by.

ここで、α、кはシグマポイントの平均値からのひろがりを調整する設定パラメータである。また、dはxnの次元である。一つの追跡器に対して、例えば、3つのパーティクルψn,1、ψn,2、ψn,3を生成する。 Here, α and к are setting parameters for adjusting the spread from the average value of the sigma points. D is the dimension of x n . For example, three particles ψ n, 1 , ψ n, 2 , ψ n, 3 are generated for one tracker.

そして、シグマポイントψに関する地図尤度

を、尤度場m(ψn)から以下のように算出する。
And the map likelihood for sigma point ψ

Is calculated from the likelihood field m (ψ n ) as follows.

移動物状態量更新部24は、センシング結果獲得部14により最新の観測Oを受け取った場合に、移動物状態量整合部20により最新の観測Oと対応付けられた追跡器の各々について、対応する3次元位置yi,jを観測値として、その誤差分散行列ri,jと、予測ステップで得られた歩行者の状態量及び分散共分散行列と用いて、パーティクルフィルタのフィルタリングステップにより、状態量を更新すると共に、最後に観測した時刻を更新する。 When the moving object state quantity update unit 24 receives the latest observation O i from the sensing result acquisition unit 14, the moving object state quantity update unit 24 performs tracking for each of the trackers associated with the latest observation O i by the moving object state quantity matching unit 20. By using the corresponding three-dimensional position y i, j as an observation value, the error variance matrix r i, j , the pedestrian state quantity and the variance covariance matrix obtained in the prediction step, and the filtering step of the particle filter The state quantity is updated, and the last observed time is updated.

また、移動物状態量更新部24は、移動物状態量整合部20による最新の観測Oの検出結果との対応付けの結果に基づいて、最新の観測Oのうち、追跡器と対応付かなかった歩行者の検出結果から、新たな状態量xを含む追跡器を生成し、最後に観測した時刻として、現在時刻を、移動物状態量記憶部16に格納する。なお、新たな状態量xを含む追跡器は、観測された歩行者の3次元位置yと同じ座標、誤差分散行列を持つこととする。 Also, the moving object state quantity updating unit 24, based on the association of the results of the detection results of the most recent observation O i by the moving object state quantity matching unit 20, among the latest observation O i, either with and corresponding tracker A tracker including a new state quantity x is generated from the detection result of the pedestrian that did not exist, and the current time is stored in the moving object state quantity storage unit 16 as the last observed time. The tracker including the new state quantity x has the same coordinates and error variance matrix as the observed three-dimensional position y of the pedestrian.

移動物状態量更新部24は、センシング結果獲得部14により最新の観測Oを受け取らなかった場合に、追跡器の各々について、移動物状態量整合部20により求められた地図尤度ωを重みとする重み付き平均によって、追跡器

の状態量及び分散共分散行列を更新する。
The moving object state quantity updating unit 24 weights the map likelihood ω obtained by the moving object state quantity matching unit 20 for each of the trackers when the sensing result acquisition unit 14 does not receive the latest observation O i. Tracker by weighted average with

Update the state quantity and the variance-covariance matrix.

移動物状態量消去部19は、最後に観測した時刻から一定時間以上経過している歩行者の状態量を含む追跡器を、移動物状態量記憶部16から消去する。   The moving object state quantity deleting unit 19 deletes the tracker including the state quantity of the pedestrian who has passed a predetermined time or more from the last observed time from the moving object state quantity storage unit 16.

局地サーバ10は、上記の一連の処理により更新された状態量のセットXを、歩行者の検出結果の統合結果として出力する。   The local server 10 outputs the state quantity set X updated by the above series of processes as an integrated result of the detection results of the pedestrians.

<歩行者状態量推定システム100の動作>
次に、第1の実施の形態に係る歩行者状態量推定システム100の動作について説明する。まず、複数の車両に搭載された複数の検出器60、及びインフラセンサとしての検出器62の各々によって、歩行者が逐次検出され、検出される毎に、検出結果が、基地局50を介して、局地サーバ10に送信されているときに、局地サーバ10において、図3に示す歩行者状態量推定処理ルーチンが実行される。
<Operation of Pedestrian State Quantity Estimation System 100>
Next, the operation of the pedestrian state quantity estimation system 100 according to the first embodiment will be described. First, a pedestrian is sequentially detected by each of a plurality of detectors 60 mounted on a plurality of vehicles and a detector 62 as an infrastructure sensor, and each time a pedestrian is detected, a detection result is obtained via the base station 50. When the data is transmitted to the local server 10, the local server 10 executes a pedestrian state quantity estimation processing routine shown in FIG.

ステップS100において、以下のように仮説を空集合に初期化する。   In step S100, the hypothesis is initialized to an empty set as follows.

ステップS102は、前回のステップS104での処理時刻と現時刻との差分を算出する。   In step S102, a difference between the processing time in the previous step S104 and the current time is calculated.

そして、ステップS104において、上記ステップS102で算出した差分時刻の分だけ、複数の歩行者に対応する複数の追跡器それぞれについて、パーティクルフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、現時刻における歩行者の状態量のセットX={x,…x}、および、その分散共分散行列V={v,…,v}を求める。 In step S104, the moving object state quantity storage unit 16 stores each of the plurality of trackers corresponding to the plurality of pedestrians by the particle filter prediction step by the difference time calculated in step S102. It repeats predicting the pedestrian's state quantity at the next time using the state quantity, and sets the pedestrian's state quantity at the current time X = {x 1 ,... X n } and its variance-covariance matrix V = {V 1 ,..., V n } is obtained.

ステップS106では、最後に観測した時刻から一定時間以上経過している歩行者の状態量を含む追跡器を、移動物状態量記憶部16から消去する(図4参照)。   In step S106, the tracker including the state quantity of the pedestrian who has passed a certain time or more from the last observed time is deleted from the moving object state quantity storage unit 16 (see FIG. 4).

そして、ステップS108では、複数の検出器60及び検出器62の何れかから、歩行者の検出結果として、歩行者の3次元位置のセットY={yi,1,…yi,m}と、観測誤差分散行列のセットR={ri,1,…,ri,m}とからなる最新の観測Oを受信したか否かを判定する。最新の観測Oを受信した場合には、ステップS110へ移行し、最新の観測を受信しなかった場合には、ステップS120へ移行する。 In step S108, a pedestrian three-dimensional position set Y i = {y i, 1 ,... Y i, m } as a pedestrian detection result from any of the plurality of detectors 60 and 62. Then, it is determined whether or not the latest observation O i composed of the set of observation error variance matrices R i = {ri , 1 ,... Ri , m } has been received. If the latest observation O i has been received, the process proceeds to step S110, and if the latest observation has not been received, the process proceeds to step S120.

ステップS110では、上記ステップS100で受信した最新の観測Oに含まれる歩行者の3次元位置を、センサ座標系から世界座標系に変換する。 In step S110, the three-dimensional position of the pedestrian included in the latest observation O i received in step S100 is converted from the sensor coordinate system to the world coordinate system.

ステップS112では、最新の観測Oと、上記ステップS104で予測された予測結果と、移動物可動範囲地図30の尤度場mとに基づいて、追跡器

の各々に対し、当該追跡器のあてはまりのよさを意味する観測尤度θiを計算する。
In step S112, based on the latest observation O i , the prediction result predicted in step S104, and the likelihood field m of the moving object movable range map 30, the tracker

For each of the above, an observation likelihood θ i indicating the goodness of fit of the tracker is calculated.

ステップS114では、上記ステップS112で計算された観測尤度θiに基づいて、追跡器

と最新の観測Oで検出された歩行者の3次元位置との対応付けを行う。
In step S114, based on the observation likelihood θ i calculated in step S112, the tracker

Is associated with the three-dimensional position of the pedestrian detected by the latest observation O i .

ステップS116では、上記ステップS114で最新の観測Oで検出された歩行者の3次元位置と対応付けられた追跡器の各々について、対応する3次元位置yi,jを観測値として、その誤差分散行列ri,jと上記ステップS104で得られた当該追跡器の歩行者の状態量及び分散共分散行列とを用いて、パーティクルフィルタのフィルタリングステップにより、状態量を更新すると共に、最後に観測した時刻を更新する。また、最新の観測Oで検出された歩行者の3次元位置のうち、追跡器と対応付かなかった歩行者の3次元位置に基づき、新たな状態量xを含む追跡器を生成し(図4参照)、最後に観測した時刻として、現在時刻を、移動物状態量記憶部16に格納する。 In step S116, for each of the trackers associated with the three-dimensional position of the pedestrian detected by the latest observation O i in step S114, the corresponding three-dimensional position y i, j is used as an observation value, and the error is determined. Using the variance matrix r i, j and the pedestrian's state quantity and variance covariance matrix obtained in step S104, the state quantity is updated by the filtering step of the particle filter, and finally observed. Update the time. In addition, a tracker including a new state quantity x is generated based on the three-dimensional position of the pedestrian not associated with the tracker among the three-dimensional positions of the pedestrian detected by the latest observation O i (see FIG. 4), the current time is stored in the moving object state quantity storage unit 16 as the last observed time.

そして、ステップS118では、更新された状態量のセットXを、歩行者の検出結果の統合結果として出力し、上記ステップS102へ戻る。例えば、歩行者の検出結果の統合結果が、遠隔サーバ80へ送信される(図5参照)。   In step S118, the updated set X of state quantities is output as an integrated result of the pedestrian detection results, and the process returns to step S102. For example, the integration result of the detection result of the pedestrian is transmitted to the remote server 80 (see FIG. 5).

ステップS120では、現時刻に対応して移動物状態量予測部18によって追跡器について予測された状態量に基づいてサンプリングして得られる、歩行者の状態量を表す複数のパーティクルを、複数の追跡器ぞれぞれに対して生成する。   In step S120, a plurality of particles representing a pedestrian's state quantity obtained by sampling based on the state quantity predicted for the tracker by the moving object state quantity prediction unit 18 corresponding to the current time are tracked. Generate for each instrument.

ステップS122において、複数の追跡器毎に、上記ステップS120で生成されたパーティクルの各々に対し、移動物可動範囲地図30の尤度場mを用いて、地図尤度ωを算出する。   In step S122, the map likelihood ω is calculated for each of the plurality of trackers using the likelihood field m of the moving object movable range map 30 for each of the particles generated in step S120.

ステップS124では、追跡器の各々について、上記ステップS120で生成されたパーティクルの各々と、上記ステップS122で求められた地図尤度ωとに基づいて、地図尤度ωを重みとする重み付き平均によって、当該追跡器の状態量を更新し、上記ステップS102へ戻る。   In step S124, for each of the trackers, based on each of the particles generated in step S120 and the map likelihood ω obtained in step S122, a weighted average with the map likelihood ω as a weight is used. The state quantity of the tracker is updated, and the process returns to step S102.

以上説明したように、第1の実施の形態に係る歩行者状態量推定システムによれば、数不定の複数の検出器の何れかから、複数の歩行者を検出した検出結果を受け取る毎に、移動物可動範囲地図を用いて、検出結果の時刻に対応して複数の歩行者それぞれについて予測された歩行者の状態量と、複数の歩行者それぞれの検出結果との対応付けを行い、複数の歩行者それぞれの、状態量及び最後に観測した時刻を更新することにより、非同期の複数センサのセンサ数が不定であっても、複数センサの結果を統合して、歩行者の状態量を精度良く求めることができる。   As described above, according to the pedestrian state quantity estimation system according to the first embodiment, every time a detection result of detecting a plurality of pedestrians is received from any of a plurality of indefinite number of detectors, Using the moving object movable range map, the state quantity of the pedestrian predicted for each of the plurality of pedestrians corresponding to the time of the detection result and the detection result of each of the plurality of pedestrians are associated, By updating the state quantity and the last observed time of each pedestrian, even if the number of sensors of asynchronous multiple sensors is indefinite, the results of multiple sensors are integrated and the pedestrian state quantity is accurately determined. Can be sought.

また、数不定の複数の検出器の何れかからも、複数の歩行者を検出した検出結果を受け取らなかった場合には、移動物可動範囲地図を用いて、複数の歩行者それぞれについて予測された歩行者の状態量を修正し、数不定の複数の検出器の何れかから、複数の歩行者を検出した検出結果を受け取った場合に、検出結果の時刻に対応して複数の歩行者それぞれについて予測された歩行者の状態量と、複数の歩行者それぞれの検出結果との対応付けを行い、複数の歩行者それぞれの、状態量及び最後に観測した時刻を更新することにより、非同期の複数センサのセンサ数が不定であっても、複数センサの結果を統合して、歩行者の状態量を精度良く求めることができる。   Moreover, when the detection result which detected the several pedestrian was not received from any of several indefinite number of detectors, it was estimated about each of several pedestrians using a moving object movable range map. When the detection result of detecting a plurality of pedestrians is received from any of a plurality of indefinite number of detectors after correcting the state quantity of the pedestrian, each of the plurality of pedestrians corresponding to the time of the detection result By associating the predicted state quantity of the pedestrian with the detection results of each of the plurality of pedestrians, and updating the state quantity and the last observed time of each of the plurality of pedestrians, the plurality of asynchronous sensors Even if the number of sensors is indefinite, the results of multiple sensors can be integrated to determine the pedestrian's state quantity with high accuracy.

また、非同期に不特定の複数センサからセンシング結果が来る場合に、一つのセンサ情報から追加した状態量を、検出からの経過時間に基づいて削除することにより、信頼できない検出結果の影響が状態量として残らないようにすることで、各センサの誤検出にロバストになる。このように、非同期に来る複数センサからのセンシング結果をリアルタイムに統合処理をする場合に、各センサの誤検出にロバストになる。   Also, when sensing results come from multiple unspecified sensors asynchronously, the state quantity added from one sensor information is deleted based on the elapsed time since detection, so that the influence of unreliable detection results As a result, the detection error of each sensor is robust. As described above, when the sensing results from a plurality of sensors coming asynchronously are integrated in real time, the detection error of each sensor is robust.

また、歩行者の可動範囲を、整合処理に直接組み込むことで、観測が誤っていても適切に追跡器と検出結果とを対応付けることができる(図6参照)。また、センシング結果が到達する度に、歩行者の位置・速度等の状態量(仮説)と対応付けて近さ(誤差)を計算し、仮説の状態量を補正しながら追跡することができる。観測量が到達しない間、既存の状態量は、歩行者の可動範囲を参照して継続的に移動予測がなされる。さらに、歩行者の可動範囲が整合処理に直接組み込まれることで、障害物の内部など、明らかに歩行者が存在し得ない位置に状態量を生成することも防ぐことができる。   Further, by directly incorporating the movable range of the pedestrian into the matching process, it is possible to appropriately associate the tracker with the detection result even if the observation is incorrect (see FIG. 6). Further, every time the sensing result arrives, it is possible to calculate the proximity (error) in association with the state quantity (hypothesis) such as the position / velocity of the pedestrian and to track it while correcting the hypothetical state quantity. While the observation amount does not reach, the existing state amount is continuously predicted for movement with reference to the movable range of the pedestrian. Furthermore, since the movable range of the pedestrian is directly incorporated into the matching process, it is possible to prevent a state quantity from being generated at a position where a pedestrian cannot clearly exist, such as the inside of an obstacle.

また、センシング結果から歩行者か車両かといった大まかな情報が判っていれば、整合処理内で移動予測結果が修正されるので、移動物に関する詳細な移動制御モデルがなくても、妥当な予測が可能となる(図7参照)。   Moreover, if rough information such as whether a pedestrian or a vehicle is known from the sensing result, the movement prediction result is corrected within the matching process, so a reasonable prediction can be made without a detailed movement control model for moving objects. This is possible (see FIG. 7).

また、センシング結果から移動物の属性を認識し、移動物の属性によって異なる尤度場を用いるようにしてもよい。例えば、以下の表1に示すように、歩行者用尤度場、自動車用尤度場、自転車用尤度場を用意し、パーティクルの属性に応じて、異なる尤度場に切り替えてフィルタリングすることもできる。   Further, the attribute of the moving object may be recognized from the sensing result, and the likelihood field that varies depending on the attribute of the moving object may be used. For example, as shown in Table 1 below, a pedestrian likelihood field, an automobile likelihood field, and a bicycle likelihood field are prepared, and filtering is performed by switching to a different likelihood field according to the attribute of the particle. You can also.

また、ネットワークを介して非同期に到達する複数センサからのセンシング結果をリアルタイムに統合処理をする場合に、一時的な通信途絶や誤検出・未検出に対してロバストになる。   Also, when sensing results from a plurality of sensors that arrive asynchronously via a network are integrated in real time, the system is robust against temporary communication interruptions and erroneous detection / non-detection.

[第2の実施の形態]
<歩行者状態量推定システムのシステム構成>
次に、第2の実施の形態に係る歩行者状態量推定システムについて説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Second Embodiment]
<System configuration of pedestrian state quantity estimation system>
Next, a pedestrian state quantity estimation system according to the second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、複数の歩行者それぞれの存在確率を保持し、検出結果と状態量との対応付けに基づいて、複数の歩行者それぞれの存在確率を更新している点と、状態量を予測する際に、歩行者の可動範囲を考慮している点とが第1の実施の形態と異なっている。   In the second embodiment, the existence probability of each of the plurality of pedestrians is held, and the existence probability of each of the plurality of pedestrians is updated based on the association between the detection result and the state quantity, and the state The point which considers the movable range of a pedestrian when estimating quantity differs from 1st Embodiment.

図8に示すように、第2の実施の形態に係る局地サーバ210は、通信部12と、センシング結果獲得部14と、移動物状態量記憶部16と、移動物状態量予測部218と、移動物状態量消去部19と、移動物状態量整合部20と、移動物状態量更新部24と、移動物存在確率更新部220と、移動物存在確率記憶部222と、移動物可動範囲地図30とを備えている。   As shown in FIG. 8, the local server 210 according to the second embodiment includes a communication unit 12, a sensing result acquisition unit 14, a moving object state quantity storage unit 16, and a moving object state quantity prediction unit 218. , The moving object state quantity erasing unit 19, the moving object state quantity matching unit 20, the moving object state quantity updating unit 24, the moving object existence probability updating unit 220, the moving object existence probability storage unit 222, and the moving object movable range. And a map 30.

移動物存在確率記憶部222は、移動物状態量記憶部16に記憶されている複数の追跡器に対応する複数の歩行者それぞれの存在確率を記憶する。   The moving object existence probability storage unit 222 stores the existence probabilities of the plurality of pedestrians corresponding to the plurality of trackers stored in the moving object state quantity storage unit 16.

移動物存在確率更新部220は、移動物状態量整合部20による最新の観測との対応付けの結果に基づいて、最新の観測のうち、追跡器と対応付かなかった歩行者の検出結果に対し、当該歩行者の存在確率として、設定値を移動物存在確率記憶部222に格納する。設定値は、検出器60、62について予め定められた検出精度に応じて定めればよい。   The moving object existence probability update unit 220 determines the detection result of the pedestrian that has not been associated with the tracker among the latest observations based on the result of the association with the latest observation by the moving object state quantity matching unit 20. The set value is stored in the moving object existence probability storage unit 222 as the existence probability of the pedestrian. The set value may be determined according to the detection accuracy predetermined for the detectors 60 and 62.

また、移動物存在確率更新部220は、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、移動物状態量整合部20により最新の観測の検出結果と対応付けられた追跡器の歩行者の存在確率の各々について、検出器60、62について予め定められた検出精度に応じて増加させるように更新する(図9参照)。   The moving object existence probability update unit 220 corresponds to the latest observation detection result by the moving object state quantity matching unit 20 among the existence probabilities of the plurality of pedestrians stored in the moving object existence probability storage unit 222. Each of the presence probability of the pedestrian of the attached tracker is updated so as to increase according to the detection accuracy predetermined for the detectors 60 and 62 (see FIG. 9).

また、移動物存在確率更新部220は、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、移動物状態量整合部20により最新の観測の検出結果と対応付けられなかった追跡器の歩行者の存在確率の各々について、最後に観測した時刻からの経過時間に応じた存在確率となるように減衰させて更新する(図9参照)。   The moving object existence probability update unit 220 corresponds to the latest observation detection result by the moving object state quantity matching unit 20 among the existence probabilities of the plurality of pedestrians stored in the moving object existence probability storage unit 222. Each of the pedestrian presence probabilities of the tracker that is not attached is updated by being attenuated so as to have an existence probability corresponding to the elapsed time from the last observed time (see FIG. 9).

移動物状態量消去部19は、移動物存在確率記憶部222に記憶されている存在確率が閾値を下回った歩行者の状態量を含む追跡器を消去する(図9参照)。なお、閾値は、最後に観測した時刻から一定時間以上経過している歩行者の存在確率に対応した値とする。   The moving object state quantity elimination unit 19 erases the tracker including the state quantity of the pedestrian whose existence probability stored in the moving object existence probability storage unit 222 is below the threshold (see FIG. 9). Note that the threshold value is a value corresponding to the existence probability of a pedestrian who has passed a certain time since the last observed time.

移動物状態量予測部218は、現時刻に合わせて、複数の歩行者それぞれについて、パーティクルフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、現時刻における歩行者の状態量のセットX={x,…x}、および、その分散共分散行列V={v,…,v}を求める。このとき、歩行者の状態量に含まれる位置が、移動物可動範囲地図30が定める歩行者が位置することが可能な範囲外である場合には、歩行者の状態量に含まれる位置が、移動物可動範囲地図30が定める歩行者が位置することが可能な範囲内となるように、当該歩行者の状態量を修正する。 The moving object state quantity prediction unit 218 uses the state quantity stored in the moving object state quantity storage unit 16 for each of a plurality of pedestrians according to the prediction step of the particle filter in accordance with the current time. repeatedly predicting a state quantity of persons, set X = {x 1, ... x n} of the state of the pedestrian at the current time, and its variance-covariance matrix V = {v 1, ..., v n} Ask for. At this time, when the position included in the pedestrian's state quantity is outside the range where the pedestrian determined by the moving object movable range map 30 can be located, the position included in the pedestrian's state quantity is The state quantity of the pedestrian is corrected so that the pedestrian defined by the moving object movable range map 30 is within a range where the pedestrian can be located.

なお、第2の実施の形態に係る歩行者状態量推定システムの他の構成は、第1の実施の形態と同様であるため、説明を省略する。   In addition, since the other structure of the pedestrian state quantity estimation system which concerns on 2nd Embodiment is the same as that of 1st Embodiment, description is abbreviate | omitted.

<歩行者状態量推定システムの動作>
次に、第2の実施の形態に係る歩行者状態量推定システムの動作について説明する。まず、複数の車両に搭載された複数の検出器60、及びインフラセンサとしての検出器62の各々によって、歩行者が逐次検出され、検出結果が、基地局50を介して、局地サーバ210に送信されているときに、局地サーバ210において、図10に示す歩行者状態量推定処理ルーチンが実行される。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of pedestrian state quantity estimation system>
Next, the operation of the pedestrian state quantity estimation system according to the second embodiment will be described. First, a pedestrian is sequentially detected by each of a plurality of detectors 60 mounted on a plurality of vehicles and a detector 62 as an infrastructure sensor, and the detection result is sent to the local server 210 via the base station 50. During transmission, the local server 210 executes a pedestrian state quantity estimation processing routine shown in FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップS100において、仮説を空集合に初期化する。   In step S100, the hypothesis is initialized to an empty set.

ステップS102は、前回のステップS200での処理時刻と現時刻との差分を算出する。   In step S102, a difference between the processing time in the previous step S200 and the current time is calculated.

そして、ステップS200において、上記ステップS102で算出した差分時刻の分だけ、複数の歩行者に対応する複数の追跡器それぞれについて、パーティクルフィルタの予測ステップにより、移動物状態量記憶部16に記憶された状態量を用いて次の時刻の歩行者の状態量を予測することを繰り返し、現時刻における複数の歩行者の状態量のセットX={x,…x}、および、その分散共分散行列V={v,…,v}を求める。そして、歩行者の状態量に含まれる位置が、移動物可動範囲地図30が定める歩行者が位置することが可能な範囲外である場合には、歩行者の状態量に含まれる位置が、移動物可動範囲地図30が定める歩行者が位置することが可能な範囲内となるように、当該歩行者の状態量を修正する。 In step S200, the moving object state quantity storage unit 16 stores each of the plurality of trackers corresponding to the plurality of pedestrians by the particle filter prediction step for the difference time calculated in step S102. It repeats predicting the pedestrian's state quantity at the next time using the state quantity, a set of state quantities of a plurality of pedestrians at the current time X = {x 1 ,... X n }, and its variance covariance A matrix V = {v 1 ,..., V n } is obtained. And when the position included in the pedestrian's state quantity is outside the range where the pedestrian determined by the moving object movable range map 30 can be located, the position included in the pedestrian's state quantity moves The state quantity of the pedestrian is corrected so that the pedestrian determined by the object movable range map 30 is within a range where the pedestrian can be located.

ステップS202では、移動物存在確率記憶部222に記憶されている存在確率が閾値を下回った歩行者の状態量を含む追跡器を、移動物状態量記憶部16から消去する。   In step S <b> 202, the tracker including the state quantity of the pedestrian whose existence probability stored in the moving object existence probability storage unit 222 falls below the threshold is deleted from the moving object state quantity storage unit 16.

そして、ステップS108では、複数の検出器60及び検出器62の何れかから、最新の観測Oを受信したか否かを判定する。最新の観測Oを受信した場合には、ステップS110へ移行し、最新の観測を受信しなかった場合には、ステップS120へ移行する。 In step S108, it is determined whether or not the latest observation O i is received from any of the plurality of detectors 60 and 62. If the latest observation O i has been received, the process proceeds to step S110, and if the latest observation has not been received, the process proceeds to step S120.

ステップS110では、上記ステップS100で受信した最新の観測Oに含まれる歩行者の3次元位置を、センサ座標系から世界座標系に変換する。 In step S110, the three-dimensional position of the pedestrian included in the latest observation O i received in step S100 is converted from the sensor coordinate system to the world coordinate system.

ステップS112では、最新の観測Oと、上記ステップS104で予測された予測結果と、移動物可動範囲地図30の尤度場mとに基づいて、追跡器

の各々に対し、当該追跡器のあてはまりのよさを意味する観測尤度θiを計算する。
In step S112, based on the latest observation O i , the prediction result predicted in step S104, and the likelihood field m of the moving object movable range map 30, the tracker

For each of the above, an observation likelihood θ i indicating the goodness of fit of the tracker is calculated.

ステップS114では、上記ステップS112で計算された観測尤度θiに基づいて、追跡器

と最新の観測Oで検出された歩行者の3次元位置との対応付けを行う。
In step S114, based on the observation likelihood θ i calculated in step S112, the tracker

Is associated with the three-dimensional position of the pedestrian detected by the latest observation O i .

ステップS204では、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、上記ステップS114により最新の観測の検出結果と対応付けられた追跡器に対応する歩行者の存在確率の各々について、検出器60、62について予め定められた検出精度に応じて増加させるように更新する。また、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、上記ステップS114により最新の観測の検出結果と対応付けられなかった追跡器に対応する歩行者の存在確率の各々について、最後に観測した時刻からの経過時間に応じた存在確率となるように減衰させて更新する。   In step S204, among the existence probabilities of the plurality of pedestrians stored in the moving object existence probability storage unit 222, the pedestrian corresponding to the tracker associated with the latest observation detection result in step S114 is used. For each of the existence probabilities, the detectors 60 and 62 are updated so as to increase in accordance with a predetermined detection accuracy. In addition, among the existence probabilities of the plurality of pedestrians stored in the moving object existence probability storage unit 222, the presence of pedestrians corresponding to the tracker that is not associated with the latest observation detection result in step S114. Each of the probabilities is updated by being attenuated so as to have an existence probability corresponding to the elapsed time from the last observed time.

ステップS116では、上記ステップS114で最新の観測Oで検出された歩行者の3次元位置と対応付けられた追跡器の各々について、対応する3次元位置yi,jを観測値として、その誤差分散行列ri,jと上記ステップS200で得られた当該追跡器の歩行者の状態量及び分散共分散行列とを用いて、パーティクルフィルタのフィルタリングステップにより、状態量を更新すると共に、最後に観測した時刻を更新する。また、最新の観測Oで検出された歩行者の3次元位置のうち、追跡器と対応付かなかった歩行者の3次元位置に基づき、新たな状態量xを含む追跡器を生成し、最後に観測した時刻として、現在時刻を、移動物状態量記憶部16に格納する。また、所定の存在確率を、移動物存在確率記憶部222に格納する。 In step S116, for each of the trackers associated with the three-dimensional position of the pedestrian detected by the latest observation O i in step S114, the corresponding three-dimensional position y i, j is used as an observation value, and the error is determined. Using the variance matrix r i, j and the walker's state quantity and variance covariance matrix obtained in step S200, the state quantity is updated by the filtering step of the particle filter and finally observed. Update the time. Further, a tracker including a new state quantity x is generated based on the three-dimensional position of the pedestrian that has not been associated with the tracker among the three-dimensional positions of the pedestrian detected by the latest observation O i. The current time is stored in the moving object state quantity storage unit 16 as the observed time. Further, the predetermined existence probability is stored in the moving object existence probability storage unit 222.

そして、ステップS118では、更新された状態量のセットXを、歩行者の検出結果の統合結果として出力し、上記ステップS102へ戻る。   In step S118, the updated set X of state quantities is output as an integrated result of the pedestrian detection results, and the process returns to step S102.

ステップS120では、現時刻に対応して移動物状態量予測部18によって複数の追跡器それぞれについて予測された状態量に基づいてサンプリングして得られる、歩行者の状態量を表す複数のパーティクルを、追跡器ぞれぞれに対して生成する。   In step S120, a plurality of particles representing a pedestrian's state quantity obtained by sampling based on the state quantity predicted for each of the plurality of trackers by the moving object state quantity prediction unit 18 corresponding to the current time, Generate for each tracker.

ステップS122において、複数の追跡器毎に、上記ステップS120で生成されたパーティクルの各々に対し、移動物可動範囲地図30の尤度場mを用いて、地図尤度ωを算出する。   In step S122, the map likelihood ω is calculated for each of the plurality of trackers using the likelihood field m of the moving object movable range map 30 for each of the particles generated in step S120.

ステップS124では、追跡器の各々について、上記ステップS120で生成されたパーティクルの各々と、上記ステップS122で求められた地図尤度ωとに基づいて、地図尤度ωを重みとする重み付き平均によって、当該追跡器の状態量を更新し、上記ステップS102へ戻る。   In step S124, for each of the trackers, based on each of the particles generated in step S120 and the map likelihood ω obtained in step S122, a weighted average with the map likelihood ω as a weight is used. The state quantity of the tracker is updated, and the process returns to step S102.

以上説明したように、第2の実施の形態に係る歩行者状態量推定システムによれば、非同期に不特定の複数センサからセンシング結果が来る場合に、一つのセンサ情報から追加した状態量を、センサ性能等から決めた存在確率に基づいて削除することにより、信頼できない検出結果の影響が状態量として残らないようにすることで、各センサの誤検出にロバストになる。   As described above, according to the pedestrian state quantity estimation system according to the second embodiment, when a sensing result comes from a plurality of unspecified sensors asynchronously, a state quantity added from one sensor information, By deleting based on the existence probability determined from the sensor performance or the like, the influence of the unreliable detection result does not remain as a state quantity, so that it is robust against erroneous detection of each sensor.

また、移動物可動範囲地図が、歩行者に関する精緻な情報を持つ場合には、移動物可動範囲地図が定める歩行者が位置することが可能な範囲を制約として用いて、予測された歩行者の状態量を修正する。このように、移動物可動範囲情報を移動物状態量の予測に直接反映させることで、より精度の高い整合処理が可能となる。   In addition, when the moving object movable range map has precise information on the pedestrian, the predicted range of the pedestrian is determined using the range in which the pedestrian defined by the moving object movable range map can be located as a restriction. Correct the state quantity. As described above, the moving object movable range information is directly reflected in the prediction of the moving object state quantity, thereby enabling a more accurate matching process.

[第3の実施の形態]
<歩行者状態量推定システムのシステム構成>
次に、第3の実施の形態に係る歩行者状態量推定システムについて説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Third Embodiment]
<System configuration of pedestrian state quantity estimation system>
Next, a pedestrian state quantity estimation system according to the third embodiment will be described. In addition, about the part which becomes the same structure as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態では、歩行者の存在確率を更新する際に、歩行者の可動範囲を考慮している点が第2の実施の形態と異なっている。   The third embodiment is different from the second embodiment in that the pedestrian existence probability is updated when the movable range of the pedestrian is taken into consideration.

図11に示すように、第3の実施の形態に係る局地サーバ310は、通信部12と、センシング結果獲得部14と、移動物状態量記憶部16と、移動物状態量予測部18と、移動物状態量消去部19と、移動物状態量整合部20と、移動物状態量更新部24と、移動物存在確率更新部320と、移動物存在確率記憶部222と、移動物可動範囲地図30とを備えている。   As shown in FIG. 11, the local server 310 according to the third embodiment includes a communication unit 12, a sensing result acquisition unit 14, a moving object state quantity storage unit 16, and a moving object state quantity prediction unit 18. The moving object state quantity erasing unit 19, the moving object state quantity matching unit 20, the moving object state quantity updating unit 24, the moving object existence probability updating unit 320, the moving object existence probability storage unit 222, and the moving object movable range. And a map 30.

移動物存在確率更新部320は、移動物状態量整合部20による追跡器と最新の観測の検出結果との対応付けの結果に基づいて、最新の観測の検出結果のうち、追跡器と対応付かなかった歩行者の検出結果に対し、上記第2の実施の形態と同様に、当該歩行者の存在確率として、設定値を移動物存在確率記憶部222に格納する。   The moving object existence probability update unit 320 associates the tracker with the tracker out of the latest observation detection results based on the result of the association between the tracker and the latest observation detection result by the moving object state quantity matching unit 20. For the detection result of the pedestrian that did not exist, the setting value is stored in the moving object existence probability storage unit 222 as the existence probability of the pedestrian, as in the second embodiment.

また、移動物存在確率更新部320は、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、移動物状態量整合部20により最新の観測の検出結果と対応付けられた追跡器に対応する歩行者の存在確率の各々について、上記第2の実施の形態と同様に、検出器60、62について予め定められた検出精度に応じて増加させるように更新する。   In addition, the moving object existence probability update unit 320 corresponds to the detection result of the latest observation by the moving object state quantity matching unit 20 among the existence probabilities of the plurality of pedestrians stored in the moving object existence probability storage unit 222. For each of the pedestrian existence probabilities corresponding to the attached trackers, the detectors 60 and 62 are updated so as to increase in accordance with the predetermined detection accuracy, as in the second embodiment.

また、移動物存在確率更新部320は、移動物存在確率記憶部222に記憶されている複数の歩行者それぞれの存在確率のうち、移動物状態量整合部20により最新の観測の検出結果と対応付けられなかった追跡器に対応する歩行者の存在確率の各々について、上記第2の実施の形態と同様に、最後に観測した時刻からの経過時間に応じた存在確率となるように減衰させて更新する。   In addition, the moving object existence probability update unit 320 corresponds to the detection result of the latest observation by the moving object state quantity matching unit 20 among the existence probabilities of the plurality of pedestrians stored in the moving object existence probability storage unit 222. For each of the pedestrian existence probabilities corresponding to the trackers not attached, as in the second embodiment, the pedestrian existence probabilities are attenuated so as to become the existence probabilities corresponding to the elapsed time from the last observed time. Update.

また、移動物存在確率更新部320は、移動物状態量記憶部16に記憶されている歩行者の状態量に含まれる位置が、移動物可動範囲地図30が定める歩行者が位置することが可能な範囲外である場合には、当該歩行者の存在確率を減少させるように更新する。   In addition, the moving object existence probability update unit 320 can be located at a position included in the pedestrian state quantity stored in the moving object state quantity storage unit 16 by a pedestrian determined by the moving object movable range map 30. If it is out of the range, it is updated so as to reduce the existence probability of the pedestrian.

なお、第3の実施の形態に係る歩行者状態量推定システムの他の構成及び作用は、第2の実施の形態と同様であるため、説明を省略する。   In addition, since the other structure and effect | action of the pedestrian state quantity estimation system which concern on 3rd Embodiment are the same as that of 2nd Embodiment, description is abbreviate | omitted.

このように、移動物可動範囲地図が定める歩行者が位置することが可能な範囲を制約として用いて、歩行者の存在確率を更新することにより、いない歩行者の状態量を適切に消去することができる。   In this way, by using the range in which the pedestrian defined by the moving object movable range map can be located as a restriction, by updating the existence probability of the pedestrian, appropriately eliminating the state quantity of the pedestrian that is not Can do.

なお、上記の実施の形態では、検出対象となる移動物として歩行者を対象とする場合を例に説明したが、これに限定されるものではなく、例えば車両などの他の移動体を検出対象としてもよい。   In the above-described embodiment, the case where a pedestrian is targeted as a moving object to be detected has been described as an example. However, the present invention is not limited to this. For example, another moving object such as a vehicle is detected. It is good.

また、複数の車両に搭載された複数の検出器及びインフラセンサとしての検出器を、非同期の複数センサとする場合を例に説明したが、これに限定されるものではなく、インフラセンサとしての検出器を用いないように構成してもよい。   Moreover, although the case where a plurality of detectors mounted on a plurality of vehicles and a detector as an infrastructure sensor is an asynchronous plurality of sensors has been described as an example, the present invention is not limited to this, and detection as an infrastructure sensor You may comprise so that a container may not be used.

また、単一の車両に搭載され、かつ、カメラ及びレーダを含む複数の計測器を用いた、複数の検出器を、非同期の複数センサとしてもよい。例えば、異なる計測器を用いた検出器が、後付けで当該車両に追加される場合には、複数センサの数が不定になることが想定される。   A plurality of detectors that are mounted on a single vehicle and that use a plurality of measuring devices including a camera and a radar may be asynchronous multiple sensors. For example, when a detector using a different measuring instrument is added to the vehicle as a retrofit, the number of multiple sensors is assumed to be indefinite.

また、パーティクルフィルタを用いて、状態量の予測及び更新を行う場合を例に説明したが、これに限定されるものではなく、カルマンフィルタを用いて、状態量の予測及び更新を行うようにしてもよい。   Further, the case where the state quantity is predicted and updated using the particle filter has been described as an example. However, the present invention is not limited to this, and the state quantity may be predicted and updated using the Kalman filter. Good.

なお、本発明のプログラムは、記録媒体に格納して提供することができる。   The program of the present invention can be provided by being stored in a recording medium.

10、210、310 局地サーバ
12 通信部
14 センシング結果獲得部
16 移動物状態量記憶部
18、218 移動物状態量予測部
19 移動物状態量消去部
20 移動物状態量整合部
24 移動物状態量更新部
30 移動物可動範囲地図
50 基地局
60、62 検出器
70 ネットワーク
100 歩行者状態量推定システム
220、320 移動物存在確率更新部
222 移動物存在確率記憶部
10, 210, 310 Local server 12 Communication unit 14 Sensing result acquisition unit 16 Moving object state quantity storage unit 18, 218 Moving object state quantity prediction unit 19 Moving object state quantity elimination unit 20 Moving object state quantity matching unit 24 Moving object state Quantity updating unit 30 Moving object movable range map 50 Base station 60, 62 Detector 70 Network 100 Pedestrian state quantity estimation system 220, 320 Moving object existence probability updating unit 222 Moving object existence probability storage unit

Claims (12)

複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段と、
前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段と、
数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段と、
前記センシング結果獲得手段によって前記検出結果を受け取る毎に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合手段と、
を含む移動物状態量推定装置。
A moving object state quantity storage means for storing a state quantity and the last observed time of each of the plurality of moving objects;
For each of the plurality of moving objects, a moving object state quantity prediction unit that predicts a state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage unit;
Sensing result acquisition means for receiving detection results obtained by detecting a plurality of moving objects from any of a plurality of indeterminate sensors;
Each time the detection result is received by the sensing result acquisition means, the moving object state amount prediction means corresponding to the time of the detection result using the moving object movable range information in which the movable range of the moving object is recorded. The plurality of movements stored in the moving object state quantity storage means by associating the state quantities of the moving objects predicted for the plurality of moving objects with the detection results of the plurality of moving objects, respectively. Moving object state quantity matching means for updating the state quantity and the last observed time of each object;
A moving object state quantity estimation device.
複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段と、
前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段と、
数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段と、
前記センシング結果獲得手段によって前記検出結果を受け取った場合に、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新し、
前記センシング結果獲得手段によって前記検出結果を受け取らなかった場合に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量を修正し、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量を更新する移動物状態量整合手段と、
を含む移動物状態量推定装置。
A moving object state quantity storage means for storing a state quantity and the last observed time of each of the plurality of moving objects;
For each of the plurality of moving objects, a moving object state quantity prediction unit that predicts a state quantity of the moving object at the next time using the state quantity stored in the moving object state quantity storage unit;
Sensing result acquisition means for receiving detection results obtained by detecting a plurality of moving objects from any of a plurality of indeterminate sensors;
When the detection result is received by the sensing result acquisition means, the state quantity of the moving object predicted for each of the plurality of moving objects by the moving object state quantity prediction means corresponding to the time of the detection result; Associating with the detection results of each of a plurality of moving objects, updating the state quantities and the last observed time of each of the plurality of moving objects stored in the moving object state quantity storage means,
When the detection result is not received by the sensing result acquisition unit, the moving object state amount prediction unit uses the moving object moving range information in which the moving range of the moving object is recorded for each of the plurality of moving objects. A moving object state quantity matching unit that corrects the predicted state quantity of the moving object and updates the state quantity of each of the plurality of moving objects stored in the moving object state quantity storage unit;
A moving object state quantity estimation device.
前記移動物状態量整合手段は、前記センシング結果獲得手段によって前記検出結果を受け取らなかった場合に、前記複数の移動物それぞれについて、前記移動物状態量予測手段によって前記移動物について予測された前記移動物の状態量に基づいてサンプリングして得られる、前記移動物の状態量を表す複数のパーティクルを生成し、前記複数のパーティクルと、前記移動物可動範囲情報とに基づいて、前記移動物について予測された前記移動物の状態量を修正し、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量を更新する請求項2記載の移動物状態量推定装置。   The moving object state quantity matching means, for each of the plurality of moving objects, when the moving object state quantity prediction means predicts the moving object for each of the plurality of moving objects when the sensing result acquisition means does not receive the detection result. Generating a plurality of particles representing the state quantity of the moving object obtained by sampling based on the state quantity of the object, and predicting the moving object based on the plurality of particles and the moving object movable range information The moving object state quantity estimation apparatus according to claim 2, wherein the state quantity of each of the plurality of moving objects stored in the moving object state quantity storage unit is updated by correcting the state quantity of the moving object. 前記複数センサは、各々異なる移動体に搭載されたセンサを含む請求項1〜請求項3の何れか1項記載の移動物状態量推定装置。   The moving object state quantity estimation device according to claim 1, wherein the plurality of sensors include sensors mounted on different moving bodies. 前記移動物状態量整合手段によって前記検出結果と対応付かなった前記移動物の状態量であって、前記最後に観測した時刻から一定時間以上経過している前記移動物の状態量を、前記移動物状態量記憶手段から消去する移動物状態量消去手段を更に含む請求項1〜請求項4の何れか1項記載の移動物状態量推定装置。   The state quantity of the moving object that has not been associated with the detection result by the moving object state quantity matching unit, and the state quantity of the moving object that has passed a predetermined time or more from the last observed time, The moving object state quantity estimation device according to any one of claims 1 to 4, further comprising a moving object state quantity erasing means for erasing from the object state quantity storage means. 前記複数の移動物それぞれの存在確率を記憶する移動物存在確率記憶手段と、
前記移動物状態量整合手段による前記検出結果との対応付けの結果、又は前記センサについて予め定められた検出精度に応じて、前記移動物の存在確率を、前記移動物存在確率記憶手段に設定し、又は
前記移動物存在確率記憶手段に記憶されている前記複数の移動物それぞれの存在確率を、前記移動物状態量整合手段による前記検出結果との対応付けの結果、前記最後に観測した時刻からの経過時間、又は前記センサについて予め定められた検出精度に応じて増減させる移動物存在確率更新手段と、
を更に含み、
前記移動物状態量消去手段は、前記移動物存在確率記憶手段に記憶されている前記複数の移動物それぞれの存在確率に基づいて、前記移動物の状態量を、前記移動物状態量記憶手段から消去する請求項5記載の移動物状態量推定装置。
Moving object existence probability storage means for storing the existence probability of each of the plurality of moving objects;
The moving object existence probability is set in the moving object existence probability storage means according to the result of association with the detection result by the moving object state quantity matching means or the detection accuracy predetermined for the sensor. Or the existence probability of each of the plurality of moving objects stored in the moving object existence probability storage means, as a result of the association with the detection result by the moving object state quantity matching means, from the last observed time Moving object existence probability update means for increasing or decreasing according to the elapsed time of the above, or detection accuracy predetermined for the sensor,
Further including
The moving object state quantity erasure unit is configured to extract the state quantity of the moving object from the moving object state quantity storage unit based on the existence probability of each of the plurality of moving objects stored in the moving object existence probability storage unit. The moving object state quantity estimation device according to claim 5 to be erased.
前記移動物状態量予測手段は、前記移動物可動範囲情報を制約として用いて、次の時刻の前記移動物の状態量を予測する請求項1〜請求項6の何れか1項記載の移動物状態量推定装置。   The moving object according to any one of claims 1 to 6, wherein the moving object state quantity predicting unit predicts a state quantity of the moving object at a next time using the moving object movable range information as a constraint. State quantity estimation device. 前記移動物存在確率更新手段は、前記移動物可動範囲情報を制約として用いて、前記移動物存在確率記憶手段に記憶されている前記複数の移動物それぞれの存在確率を増減させる請求項6記載の移動物状態量推定装置。   The moving object existence probability update means increases or decreases each existence probability of the plurality of moving objects stored in the moving object existence probability storage means, using the moving object movable range information as a constraint. Moving object state quantity estimation device. 前記複数センサは、複数の車両に搭載された、又はインフラセンサに用いられた、歩行者又は車両を検出する複数の検出器であって、
前記移動物の状態量は、歩行者又は車両の位置及び速度であって、
前記移動物可動範囲情報は、道路又は歩道を表す地図である請求項1〜請求項8の何れか1項記載の移動物状態量推定装置。
The plurality of sensors are a plurality of detectors for detecting a pedestrian or a vehicle mounted on a plurality of vehicles or used for an infrastructure sensor,
The state quantity of the moving object is the position and speed of a pedestrian or vehicle,
The moving object state estimation device according to claim 1, wherein the moving object movable range information is a map representing a road or a sidewalk.
前記複数センサは、単一の車両に搭載された、カメラ及びレーダを含む複数の計測器を用いた、歩行者又は車両を検出する複数の検出器であって、
前記移動物の状態量は、歩行者又は車両の位置及び速度であって、
前記移動物可動範囲情報は、道路又は歩道を表す地図である請求項1〜請求項8の何れか1項記載の移動物状態量推定装置。
The plurality of sensors are a plurality of detectors for detecting a pedestrian or a vehicle using a plurality of measuring devices including a camera and a radar mounted on a single vehicle,
The state quantity of the moving object is the position and speed of a pedestrian or vehicle,
The moving object state estimation device according to claim 1, wherein the moving object movable range information is a map representing a road or a sidewalk.
複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段を含むコンピュータを、
前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段、
数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段、及び
前記センシング結果獲得手段によって前記検出結果を受け取る毎に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新する移動物状態量整合手段
として機能させるためのプログラム。
A computer including moving object state quantity storage means for storing the state quantity and the last observed time of each of the plurality of moving objects,
For each of the plurality of moving objects, a moving object state quantity predicting unit that predicts a state quantity of the moving object at the next time using a state quantity stored in the moving object state quantity storage unit;
Sensing result acquisition means for receiving detection results obtained by detecting a plurality of moving objects from any of a plurality of indefinite sensors, and each time the detection result is received by the sensing result acquisition means, the movable range of the moving object is recorded. Using the moving object movable range information, the state quantity of the moving object predicted for each of the plurality of moving objects by the moving object state quantity prediction unit corresponding to the time of the detection result, and each of the plurality of moving objects Functioning as a moving object state quantity matching means for updating the state quantity and the last observed time of each of the plurality of moving objects stored in the moving object state quantity storage means. Program to let you.
複数の移動物それぞれの、状態量及び最後に観測した時刻を記憶する移動物状態量記憶手段を含むコンピュータを、
前記複数の移動物それぞれについて、前記移動物状態量記憶手段に記憶された状態量を用いて次の時刻の前記移動物の状態量を予測する移動物状態量予測手段、
数不定の複数センサの何れかから、複数の移動物を検出した検出結果を受け取るセンシング結果獲得手段、及び
前記センシング結果獲得手段によって前記検出結果を受け取った場合に、前記検出結果の時刻に対応して前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量と、複数の移動物それぞれの前記検出結果との対応付けを行い、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量及び最後に観測した時刻を更新し、
前記センシング結果獲得手段によって前記検出結果を受け取らなかった場合に、移動物の可動範囲が記録されている移動物可動範囲情報を用いて、前記移動物状態量予測手段によって前記複数の移動物それぞれについて予測された前記移動物の状態量を修正し、前記移動物状態量記憶手段に格納された、前記複数の移動物それぞれの、状態量を更新する移動物状態量整合手段
として機能させるためのプログラム。
A computer including moving object state quantity storage means for storing the state quantity and the last observed time of each of the plurality of moving objects,
For each of the plurality of moving objects, a moving object state quantity predicting unit that predicts a state quantity of the moving object at the next time using a state quantity stored in the moving object state quantity storage unit;
Sensing result acquisition means for receiving detection results obtained by detecting a plurality of moving objects from any of a plurality of indeterminate sensors, and when the detection result is received by the sensing result acquisition means, corresponds to the time of the detection results. The moving object state quantity predicting unit associates the state quantity of the moving object predicted for each of the plurality of moving objects with the detection result of each of the plurality of moving objects, and the moving object state quantity storing unit Update the state quantity and the last observed time of each of the plurality of moving objects stored in
When the detection result is not received by the sensing result acquisition unit, the moving object state amount prediction unit uses the moving object moving range information in which the moving range of the moving object is recorded for each of the plurality of moving objects. A program for correcting the predicted state quantity of the moving object and functioning as a moving object state quantity matching means for updating the state quantity of each of the plurality of moving objects stored in the moving object state quantity storage means .
JP2017040385A 2017-03-03 2017-03-03 Moving object state quantity estimation device and program Active JP6903955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017040385A JP6903955B2 (en) 2017-03-03 2017-03-03 Moving object state quantity estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040385A JP6903955B2 (en) 2017-03-03 2017-03-03 Moving object state quantity estimation device and program

Publications (2)

Publication Number Publication Date
JP2018147157A true JP2018147157A (en) 2018-09-20
JP6903955B2 JP6903955B2 (en) 2021-07-14

Family

ID=63592195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040385A Active JP6903955B2 (en) 2017-03-03 2017-03-03 Moving object state quantity estimation device and program

Country Status (1)

Country Link
JP (1) JP6903955B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095925A1 (en) * 2018-11-06 2020-05-14 株式会社スマートドライブ Information processing device, information processing system, and program
JP2020154526A (en) * 2019-03-19 2020-09-24 株式会社豊田中央研究所 Mobile object state quantity estimation device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172053A (en) * 2004-12-15 2006-06-29 Nissan Motor Co Ltd Travel support device for vehicle
JP2010108168A (en) * 2008-10-29 2010-05-13 Toyota Motor Corp Collision prediction device
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172053A (en) * 2004-12-15 2006-06-29 Nissan Motor Co Ltd Travel support device for vehicle
JP2010108168A (en) * 2008-10-29 2010-05-13 Toyota Motor Corp Collision prediction device
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095925A1 (en) * 2018-11-06 2020-05-14 株式会社スマートドライブ Information processing device, information processing system, and program
JP2020154526A (en) * 2019-03-19 2020-09-24 株式会社豊田中央研究所 Mobile object state quantity estimation device and program
JP7207050B2 (en) 2019-03-19 2023-01-18 株式会社豊田中央研究所 Moving object state quantity estimation device and program

Also Published As

Publication number Publication date
JP6903955B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
CN113269098B (en) Multi-target tracking positioning and motion state estimation method based on unmanned aerial vehicle
KR101647370B1 (en) road traffic information management system for g using camera and radar
JP6760114B2 (en) Information processing equipment, data management equipment, data management systems, methods, and programs
CN111174781B (en) Inertial navigation positioning method based on wearable device combined target detection
KR102400452B1 (en) Context-aware object detection in aerial photographs/videos using travel path metadata
JP5162849B2 (en) Fixed point position recorder
US8781732B2 (en) Apparatus and method for recognizing position of moving object
EP2858008A2 (en) Target detecting method and system
JP4984659B2 (en) Own vehicle position estimation device
KR102226846B1 (en) System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera
CN113678079A (en) Generating structured map data from vehicle sensors and camera arrays
CN102565832A (en) Method of augmenting GPS or gps/sensor vehicle positioning using additional in-vehicle vision sensors
KR20140009737A (en) Hybrid map based localization method of robot
CN112731371B (en) Laser radar and vision fusion integrated target tracking system and method
KR102221817B1 (en) Mobile terminal for providing location information, method and system for measuring the location information
CN111044036A (en) Remote positioning method based on particle filtering
Papaioannou et al. Tracking people in highly dynamic industrial environments
US20140355869A1 (en) System and method for preventing aircrafts from colliding with objects on the ground
JP6903955B2 (en) Moving object state quantity estimation device and program
Henriques Abreu et al. Using Kalman filters to reduce noise from RFID location system
JP6866621B2 (en) Moving object state quantity estimation device and program
JP7052404B2 (en) State estimator and program
Rieken et al. Sensor scan timing compensation in environment models for automated road vehicles
CN109000634B (en) Navigation object traveling route reminding method and system
CN115808170A (en) Indoor real-time positioning method integrating Bluetooth and video analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6903955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150