JP2021167770A - Target tracking device - Google Patents
Target tracking device Download PDFInfo
- Publication number
- JP2021167770A JP2021167770A JP2020071227A JP2020071227A JP2021167770A JP 2021167770 A JP2021167770 A JP 2021167770A JP 2020071227 A JP2020071227 A JP 2020071227A JP 2020071227 A JP2020071227 A JP 2020071227A JP 2021167770 A JP2021167770 A JP 2021167770A
- Authority
- JP
- Japan
- Prior art keywords
- target
- value
- reliability
- sensor
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 63
- 238000012545 processing Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 17
- 239000013598 vector Substances 0.000 description 8
- 230000015654 memory Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本開示は、複数のセンサから得られる物標の位置情報を用いて、物標を追跡する技術に関する。 The present disclosure relates to a technique for tracking a target using the position information of the target obtained from a plurality of sensors.
物標を検知する複数種類のセンサによる検知結果をインテリジェントに組み合わせることで、検知された物標の情報を利用するシステムの性能向上、及び機能実現を図ることが行われている。このようなシステムでは、物標を追跡する際、センサにて検知された物標位置の瞬時値の時系列観測情報を利用して、物標位置の推定精度を向上させている。但し、センサの検知エリアの限界近傍では、観測誤差及び誤検知が増大することにより物標の追跡精度が低下することが知られている。 By intelligently combining the detection results of a plurality of types of sensors that detect a target, the performance of the system that uses the detected target information is improved and the functions are realized. In such a system, when tracking a target, the time-series observation information of the instantaneous value of the target position detected by the sensor is used to improve the estimation accuracy of the target position. However, it is known that in the vicinity of the limit of the detection area of the sensor, the tracking accuracy of the target is lowered due to the increase in observation error and false detection.
特許文献1には、このような追跡精度の低下を抑制するために、複数センサを、互いの検知エリアの一部が重複するように配置することで、センサの検知エリアの境界付近に観測の冗長性を持たせる技術が提案されている。
In
しかしながら、発明者の詳細な検討の結果、上記従来技術では、以下の課題があることが見出された。すなわち、システムを構成する複数のセンサの中に、車載センサ等、検知エリアが移動するセンサが含まれている場合、検知エリアの境界付近に必ずしも冗長性を持たせることができず、観測誤差の抑制効果を十分に得られないという課題があった。 However, as a result of detailed examination by the inventor, it has been found that the above-mentioned prior art has the following problems. That is, when a plurality of sensors constituting the system include a sensor such as an in-vehicle sensor whose detection area moves, it is not always possible to provide redundancy in the vicinity of the boundary of the detection area, resulting in an observation error. There was a problem that the suppressive effect could not be sufficiently obtained.
本開示の1つの局面では、センサの検知エリアの限界近傍での物標の追跡精度を向上させる技術を提供する。 In one aspect of the present disclosure, there is provided a technique for improving the tracking accuracy of a target near the limit of the detection area of the sensor.
本開示の一態様は、物標追跡装置であって、情報取得部(5:S110)と、信頼度設定部(5:S140)と、推定値更新部(5:S190)と、エリア設定部(5:S130)と、信頼度調整部(5:S180)と、を備える。 One aspect of the present disclosure is a target tracking device, which includes an information acquisition unit (5: S110), a reliability setting unit (5: S140), an estimated value updating unit (5: S190), and an area setting unit. (5: S130) and a reliability adjusting unit (5: S180) are provided.
情報取得部は、複数のセンサから、センサの位置情報及びセンサの検知エリアを含むセンサ情報、並びに検出した物標の位置を含む物標情報を取得する。信頼度設定部は、処理サイクル毎に推定される物標の位置を推定値とし、前回の処理サイクルでの推定値から予測される物標の位置を予測値とし、情報取得部で取得された物標情報に示された物標の位置を観測値として、予測値及び観測値の信頼度をそれぞれ設定する。推定値更新部は、同一物標を表す予測値及び観測値である対応値ペア、及び対応値ペアについて信頼度設定部にて設定された信頼度を用いて、対応値ペアに対応づけられる物標の推定値を更新する。エリア設定部は、センサ情報に示された検知エリアの境界の一部を少なくとも含み、検知エリアにおける他のエリアより検知精度が低下するつなぎエリアを設定する。信頼度調整部は、観測値がつなぎエリアにある場合、観測値と対応値ペアを形成する予測値の信頼度を、信頼度が高くなるように調整する。 The information acquisition unit acquires the position information of the sensor, the sensor information including the detection area of the sensor, and the target information including the position of the detected target from the plurality of sensors. The reliability setting unit uses the position of the target estimated for each processing cycle as the estimated value, and the position of the target predicted from the estimated value in the previous processing cycle as the predicted value, and is acquired by the information acquisition unit. The position of the target indicated in the target information is used as the observed value, and the predicted value and the reliability of the observed value are set respectively. The estimated value update unit is associated with the corresponding value pair, which is the predicted value and the observed value representing the same target, and the reliability set by the reliability setting unit for the corresponding value pair. Update the target estimate. The area setting unit includes at least a part of the boundary of the detection area shown in the sensor information, and sets a connecting area in which the detection accuracy is lower than other areas in the detection area. When the observed value is in the connecting area, the reliability adjusting unit adjusts the reliability of the predicted value forming a pair of the observed value and the corresponding value so that the reliability is high.
このような構成によれば、センサの検出誤差、すなわち観測値の誤差が増大することによる、物標位置の推定精度、ひいては物標の追跡精度が低下することを抑制できる。 According to such a configuration, it is possible to suppress a decrease in the estimation accuracy of the target position and, by extension, the tracking accuracy of the target due to an increase in the detection error of the sensor, that is, the error of the observed value.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.全体構成]
図1に示す交通管制システム1は、交通環境下に存在する複数のセンサから取得した観測情報を統合して物標位置・運動等を推定し、交通環境にある各端末に推定結果を通知することで、自動運転及び運転支援の精度を向上させる。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. overall structure]
The
交通管制システム1は、車載端末2と、インフラセンサ3と、サーバ5とを備える。サーバ5が物標追跡装置に相当する。
[1−1.車載端末]
車載端末2は、車両に搭載される。図2に示すように、車載端末2は、車内通信器21と、車外通信器22と、処理部23とを備える。車内通信器21は、当該車載端末2を搭載する車両(以下、自車両)の車載ネットワークを介して、種々の情報を取得する。車外通信器22は、無線通信によって、サーバ5との通信を実行する。処理部23は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。
The
[1-1. In-vehicle terminal]
The in-
車載端末2は、処理部23が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部231と、統合情報提供部232とを備える。
情報収集部231は、車内通信器21を介して、物標情報、センサ情報、及び車両状態情報を繰り返し収集し、車外通信器22を介してサーバ5に送信する。
The in-
The
物標情報は、車両に搭載された周辺監視センサ群100にて検知される物標に関する観測情報である。周辺監視センサ群100には、ミリ波レーダ101、ライダー102、超音波センサ103、及びカメラ104等が含まれてもよい。以下では、周辺監視センサ群100に属するこれらの構成を、単にセンサ101〜104ともいう。物標情報は、情報生成源となるセンサ101〜104によって含まれる情報が異なるが、いずれの場合も、検知した物標の位置が少なくとも含まれる。物標情報には、物標の位置の他、物標までの距離、物標の移動速度及び移動方向、物標の大きさ、及び物標の種類等が含まれてもよい。なお、物標の位置、物標までの距離、物標の移動速度及び移動方向は、車載端末2を基準とした相対値によって表されてもよい。
The target information is observation information related to the target detected by the peripheral
センサ情報には、個々のセンサ101〜104の性能に関する性能情報、及び自車両に対する取付状態を表す取付情報が含まれる。取付情報には、路面からの高さ、車両の直進方向及び水平方向に対する取付角度が含まれる。性能情報には、センサ種別、検知距離範囲、及び検知角度範囲が含まれる。検知距離範囲は、一定の条件下で、物標の検知を許容精度で行うことができる距離の範囲である。検知角度範囲は、一定の条件下で、物標の検知を許容精度で行うことができる角度の範囲である。一定条件には、例えば、照度値や反射率等を用いてもよい。また、許容精度は、検知確率が一定値(例えば、95%)以上であることを用いてもよい。ここでは、検知距離範囲及び検知角度範囲によって決まる検知エリアAの中心方向をセンサ正面方向として、取付角度は、センサ正面方向の向きを表す。また、検知角度範囲は、センサ正面方向を基準(すなわち、0°)として表す。
The sensor information includes performance information relating to the performance of the
車両状態情報には、車両に搭載された位置センサ110にて検出される車両の位置及び進行方向が少なくとも含まれる。位置センサ110は、GNSS(すなわち、全地球航法衛星システム)を利用して情報を得る装置であってもよい。つまり、車両状態情報とセンサ情報に含まれる取付情報とを組み合わせることで、グローバル座標系におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The vehicle state information includes at least the position and the traveling direction of the vehicle detected by the
統合情報提供部232は、サーバ5から自車両の周辺に存在する物標等に関する統合情報を、車外通信器22を介して受信し、受信した統合情報を、車内通信器21を介して、自動運転及び運転支援に関わる車両制御を実行する各ECUに提供する。
The integrated
[1−2.インフラセンサ]
インフラセンサ3は、道路標識、信号機等の交通インフラの他、道路脇の建造物等に設置される。図3に示すように、インフラセンサ3は、センサ本体31と、通信器32と、処理部33と、を備える。
[1-2. Infrastructure sensor]
The
センサ本体31は、例えば、カメラ311及びレーダ312等を備える。センサ本体31は、カメラ311及びレーダ312におけるセンサ正面方向の向き(すなわち、センサ本体31の姿勢)を処理部33からの指示によって変化可能に構成される。以下では、カメラ311及びレーダ312を、単にセンサ311,312ともいう。
The
通信器32は、有線通信網又は無線通信網を介したサーバ5との通信を実行する。
処理部33は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。インフラセンサ3は、処理部33が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部331と、姿勢制御部332とを備える。
The
The
情報収集部331は、センサ本体31から物標情報を繰り返し収集し、収集した物標情報を、センサ情報及び姿勢情報と共に、通信器32を介してサーバ5に送信する。
物標情報及びセンサ情報は、基本的には、車載端末2の情報収集部231で収集される物標情報及びセンサ情報と同様である。但し、センサ情報に含まれる取付情報は、センサが予め設定された基準姿勢にあるときのセンサ正面方向の向き(以下、基準正面方向)が含まれる。姿勢情報は、姿勢制御部332によって決まるセンサ本体31の姿勢、すなわち、基準正面方向に対するセンサ正面方向の向きが含まれる。つまり、センサ情報に含まれる取付情報と、姿勢情報とを組み合わせることで、グローバル座標系におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The
The target information and the sensor information are basically the same as the target information and the sensor information collected by the
なお、インフラセンサ3が、センサ本体31の姿勢を変更できないように構成されている場合は、姿勢制御部332及び姿勢情報は省略されてもよい。
ここでは、インフラセンサ3において物標情報を生成してサーバ5に提供する場合について説明したが、物標情報の代わりに、センサ本体31から得られる生データをサーバ5に提供するように構成されてもよい。この場合、サーバ5は、インフラセンサ3から取得する生データから物標情報を生成する機能を必要とする。
If the
Here, the case where the
以下では、周辺監視センサ群100に属するセンサ101〜104、及びセンサ本体31に属するセンサ311,312を一括してフィールドセンサSと呼び、個々のフィールドセンサSを識別する必要がある場合はSiで示す。iは正整数である。図1では、車両に搭載された周辺監視センサ群100に属するセンサ101〜104のいずれかをS1,S2とし、インフラセンサ3が有するセンサ本体31に属するセンサ311,312のいずれかをS3とする。また、各フィールドセンサS1〜S3の検知エリアをA1〜A3で表す。
In the following, the
[1−3.サーバ]
サーバ5は、交通環境下に存在する複数のフィールドセンサSiから情報を取得し、取得した情報を統合することで、単一センサの検知に比べ高精度かつロバストな検出を実現する。その検出結果である統合情報を、車載端末2に提供する。
[1-3. server]
The
図4に示すように、サーバ5は、通信器51と、処理部52と、記憶部53とを備える。
通信器51は、車載端末2、インフラセンサ3との通信を実行する。
As shown in FIG. 4, the
The
処理部52は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。
サーバ5は、処理部52が実行する処理によって実現される機能を表す機能ブロックとして、情報生成部521と、情報配信部522とを備える。
The
The
情報生成部521は、通信器51を介して複数のフィールドセンサSから取得されるセンサ情報及び物標情報を用いて、対象エリアに存在する物標の情報を統合した統合情報を生成する。対象エリアは、サーバ5での処理の対象となるエリアであり、あらかじめサーバ5に割り当てられる。統合情報には、少なくとも物標の位置情報が含まれる。物標を追跡して位置情報を逐次更新する追跡処理の詳細については後述する。
The
情報配信部522は、情報生成部521で生成された統合情報を、対象エリアに存在する車載端末2に、通信器51を介して配信する。
記憶部53には、対象エリアの地図、及び対象エリア内で過去一定期間内に検出された物標の位置の時系列情報が少なくとも記憶される。
The
The
[2.追跡処理]
次に、サーバ5が情報生成部521としての機能の一部を実現するために実行する追跡処理を、図5のフローチャートを用いて説明する。
[2. Tracking process]
Next, the tracking process executed by the
本処理は、サーバ5が起動している間、一定周期で繰り返し実行される。
S110では、サーバ5は、前回の処理サイクルから今回の処理サイクルまでの間に通信器51を介して受信された、物標情報及びセンサ情報を取得する。
This process is repeatedly executed at regular intervals while the
In S110, the
続くS120では、サーバ5は、S110にて取得したセンサ情報に基づき、対象エリアを示す地図上に、フィールドセンサSの位置及び検知エリアを示したセンサマップを生成する。
In the following S120, the
続くS130では、サーバ5は、センサマップに示されたフィールドセンサSの検知エリアAに基づき、フィールドセンサSの検知性能が低下するつなぎエリアCXを設定する。例えば、図6に示すように、検知エリアの境界を基準として内側X[m]から外側Y[m]の範囲をつなぎエリアCXとしてもよい。また、つなぎエリアCXのうち、他のフィールドセンサSの検知エリアの非つなぎエリアと重複する場合、その重複部分は非つなぎエリアとする。ここでの非つなぎエリアは、検知エリアAからつなぎエリアCXを除いた範囲をいう。
In the subsequent S130, the
続くS140では、サーバ5は、前回の処理サイクルまでに検出されている物標(以下、追跡物標)についての予測値と、S110で取得した物標情報に示された物標(以下、観測物標)の位置である観測値のそれぞれについて、信頼度を設定する。信頼度は、位置の検出に用いられたセンサの種類、スペック、外部環境(すなわち、対象エリアの環境)、追跡物標の種類及び速度などうち、少なくとも1つの要素に基づいて設定される。
In the following S140, the
例えば、観測値の生成元となったフィールドセンサSが、天気の影響を受け易いライダー102である場合、観測値の信頼度を、晴れの場合は高く、雨や雪の場合は低く設定してもよい。また、予測値との一致度が高いほど観測値の信頼度を高く設定してもよい。また、予測値の場合、例えば、予測値に対応づけられる追跡物標が物標として最初に認識されてからの経過時間が長いほど信頼度を高く設定してもよい。また、予測値に対応づけられる追跡物標の種類が、走行中の車両など、位置を予測し易い物標である場合、予測値の信頼度を高く設定してもよい。
For example, when the field sensor S from which the observed value is generated is the
続くS150では、サーバ5は、追跡物標のうち、後述するS160〜S190の処理が未だ実施されていない、いずれか一つを、対象物標として選択する。
続くS160では、サーバ5は、対象物標と履歴接続を有する観測物標が存在するか否かを判定し、存在すれば処理をS170に移行し、存在しなければ処理をS180に移行する。なお、履歴接続の有無は、例えば、対象物標と観測物標との距離で判定することが考えられるが、これに限定されるものではなく、履歴接続の有無を判定する公知の手法を用いることができる。以下では、履歴接続があると判定された予測値と観測値との組み合わせを対応値ペアという。
In the subsequent S150, the
In the following S160, the
S170では、サーバ5は、対象物標の予測値と対応値ペアを構成する観測値に基づき、観測値がつなぎエリアCX内にあるか否かを判定し、つなぎエリアCX内にあればS180に移行し、つなぎエリアCX内になければ処理をS190に移行する。
In S170, the
S180では、サーバ5は、対象物標の予測値の信頼度が高くなるように、該信頼度を調整して処理をS190に進める。
S190では、サーバ5は、対応値ペアと、対応値ペアについてS140にて設定された信頼度、又はS180にて調整された信頼度と、に従って、対象物標の位置(すなわち、推定値)を更新する。具体的には、例えば、信頼度を重みとする対応値ペアの重みづけ加算によって推定値を算出してもよい。また、対応値ペアのうち、いずれか信頼度の高い方の値をそのまま推定値としてもよい。対象物標の予測値と対応値ペアを構成する観測値が抽出されなかった場合、予測値をそのまま推定値としてもよい。なお、あらかじめ設定された上限回連続して履歴接続のある観測物標が抽出されなかった対象物標は、ロストしたものとして追跡物標から削除してもよい。
In S180, the
In S190, the
続く、S200では、サーバ5は、すべての追跡物標が先のS150で対象物標として選択されたか否かを判定する。サーバ5は、未選択の追跡物標が存在すると判定した場合は、処理をS150に戻し、全ての追跡物標が選択済みであると判定した場合は、処理をS210へ移行する。
Subsequently, in S200, the
S210では、サーバ5は、追跡物標の更新を行って処理を終了する。具体的には、既に登録されている追跡物標については、S190で更新された推定値を用いて、次回の処理サイクルで使用する予測値を算出する。いずれの追跡物標とも履歴接続が確認されなかった観測物標は、あらたな追跡物標として登録すると共に、観測値に基づいて次回の処理サイクルで使用する予測値を算出する。
In S210, the
なお、追跡処理において、S110が情報取得部に相当し、S130がエリア設定部に相当し、S140が信頼度設定部に相当し、S180が信頼度調整部に相当し、S190が推定値更新部に相当する。 In the tracking process, S110 corresponds to the information acquisition unit, S130 corresponds to the area setting unit, S140 corresponds to the reliability setting unit, S180 corresponds to the reliability adjustment unit, and S190 corresponds to the estimated value updating unit. Corresponds to.
[3.動作例]
図7は、フィールドセンサS1,S2の検知エリアA1,A2にエリアの重複がない場合を示す。物標が、検知エリアA1から検知エリアA2に移動する場合、検知エリアA1,A2の境界付近及び検知エリアA1,A2のいずれにも属さない範囲では、観測値の精度が低下する。このようなエリアがつなぎエリアCXとなる。図7では、便宜上、つなぎエリアCXを長方形で示す。
[3. Operation example]
FIG. 7 shows a case where the detection areas A1 and A2 of the field sensors S1 and S2 do not overlap. When the target moves from the detection area A1 to the detection area A2, the accuracy of the observed value is lowered in the vicinity of the boundary between the detection areas A1 and A2 and in the range not belonging to any of the detection areas A1 and A2. Such an area becomes a connecting area CX. In FIG. 7, for convenience, the connecting area CX is shown as a rectangle.
つなぎエリアCXでは、図7中の黒四角印で示された対象物標の観測値より、図7中の白抜き三角印で示された追跡物標の予測値の方が、図7中の黒四角印で示された対象物標の観測値より、信頼度が高く設定される。このため、つなぎエリアCXでは、位置精度が低下した観測値より、予測値を重視して推定値が算出される。 In the connecting area CX, the predicted value of the tracking target indicated by the white triangle mark in FIG. 7 is higher than the observed value of the target target indicated by the black square mark in FIG. 7. The reliability is set higher than the observed value of the object target indicated by the black square mark. Therefore, in the connecting area CX, the estimated value is calculated with more emphasis on the predicted value than the observed value whose position accuracy is lowered.
図8に示すように、つなぎエリアCXが設定されない場合、物標が検知エリアA1,A2を跨いで移動する際に、検知エリアの境界付近での観測値の検出誤差が増大するため、このような観測値を用いて算出される推定値は、実際の位置から大きく外れたものとなる。その結果、物標が検知エリアA1,A2を跨いだときに、フィールドセンサS1で最後に検出される観測値と、フィールドセンサS2で際初に検出される観測値とは、大きく異なったものとなる場合がある。その結果、両検知エリアA1,A2で検出された物標は同一であるにも関わらず、別の物標として認識されてしまう。これに対して つなぎエリアCXが設定される場合、つなぎエリアCXでは、予測値が重視されるように信頼度が調整される。このため、物標の移動の仕方が大きく変化をしない限り、推定値が真値から大きく外れることがなく、物標の追跡精度が維持される。 As shown in FIG. 8, when the connecting area CX is not set, when the target moves across the detection areas A1 and A2, the detection error of the observed value near the boundary of the detection area increases. The estimated value calculated by using various observed values deviates greatly from the actual position. As a result, when the target straddles the detection areas A1 and A2, the last observed value detected by the field sensor S1 and the first observed value detected by the field sensor S2 are significantly different. May become. As a result, although the targets detected in both detection areas A1 and A2 are the same, they are recognized as different targets. On the other hand, when the connecting area CX is set, the reliability is adjusted in the connecting area CX so that the predicted value is emphasized. Therefore, as long as the way of moving the target does not change significantly, the estimated value does not deviate significantly from the true value, and the tracking accuracy of the target is maintained.
[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(4a)本実施形態では、観測値の精度が低下するエリアであるつなぎエリアCXを設定し、つなぎエリアCXでは、予測値の信頼度が高くなるように調整する。従って、つなぎエリアCXにおいて、センサの検出誤差が増大することによる物標位置の推定精度、ひいては、物標の追跡精度が低下することを抑制できる。更には、つなぎエリアCXにて物標の誤検知及び未検知が発生すること抑制できる。
[4. effect]
According to the embodiment described in detail above, the following effects are obtained.
(4a) In the present embodiment, the connecting area CX, which is an area where the accuracy of the observed value is lowered, is set, and the connecting area CX is adjusted so that the reliability of the predicted value is high. Therefore, in the connecting area CX, it is possible to suppress a decrease in the estimation accuracy of the target position due to an increase in the detection error of the sensor, and eventually a decrease in the tracking accuracy of the target. Further, it is possible to suppress the occurrence of false detection and non-detection of the target in the connecting area CX.
[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[5. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.
(5a)上記実施形態では、フィールドセンサSの検知エリアAの境界付近の所定範囲がつなぎエリアCXとして設定されているが、本開示は、これに限定されるものではない。例えば、図9に示すように、上記実施形態で設定された検知エリアAの非つなぎエリア以外のすべてがつなぎエリアCXとして設定されてもよい。 (5a) In the above embodiment, a predetermined range near the boundary of the detection area A of the field sensor S is set as the connecting area CX, but the present disclosure is not limited to this. For example, as shown in FIG. 9, all of the detection area A other than the non-connecting area set in the above embodiment may be set as the connecting area CX.
(5b)上記実施形態では、検知エリアA毎に個別につなぎエリアCXが設定されているが、本開示は、これに限定されるものではない。例えば、図10に示すように、2つのフィールドセンサS1,S2をつなぐ直線上につなぎエリアCXを設定してもよい。この場合、つなぎエリアCXとして、上記直線上にエリア中心を有し、ベクトルV12と平行で辺長がE1の辺と、ベクトルABと直交し辺長がE2の辺とで形成される矩形状のエリアを設定してもよい。なお、つなぎエリアCXのエリア中心がフィールドセンサS1から距離D1だけ離れているとした場合、距離D1は、(1)式を満たすように設定されてもよい。但し、DはフィールドセンサS1,S2間の距離、R1はフィールドセンサS1の検知距離、R2はフィールドセンサS2の検知距離である。 (5b) In the above embodiment, the connecting area CX is individually set for each detection area A, but the present disclosure is not limited to this. For example, as shown in FIG. 10, the connecting area CX may be set on a straight line connecting the two field sensors S1 and S2. In this case, as the connecting area CX, a rectangular shape having an area center on the straight line and formed by a side parallel to the vector V12 and having a side length of E1 and a side orthogonal to the vector AB and having a side length of E2. You may set the area. If the center of the connecting area CX is separated from the field sensor S1 by a distance D1, the distance D1 may be set so as to satisfy the equation (1). However, D is the distance between the field sensors S1 and S2, R1 is the detection distance of the field sensor S1, and R2 is the detection distance of the field sensor S2.
D1/D=R1/(R1+R2) (1)
(5c)上記実施形態では、追跡物標の状態に関わらずつなぎエリアCXが設定されるが、本開示は、これに限定されるものではない。例えば、隣接する二つのフィールドセンサS1,S2の検知エリアA1,A2を跨いで移動する可能性がある追跡物標が存在する場合に、それら二つのフィールドセンサS1,S2の間にだけつなぎエリアCXを設定してもよい。例えば、追跡物標の移動方向を示すベクトルを移動ベクトルと、フィールドセンサS1からフィールドセンサS2を見た方向を示す位置ベクトルとが、一定の平行度を有する場合に、追跡物標は検知エリアA1,A2を跨いで移動する可能性があると判定してもよい。なお、移動ベクトルと位置ベクトルの平行度は、例えば、正規化された二つのベクトルの内積が一定値以上であるか否かによって判定してもよい。
D1 / D = R1 / (R1 + R2) (1)
(5c) In the above embodiment, the connecting area CX is set regardless of the state of the tracking target, but the present disclosure is not limited to this. For example, when there is a tracking target that may move across the detection areas A1 and A2 of two adjacent field sensors S1 and S2, the connecting area CX is provided only between the two field sensors S1 and S2. May be set. For example, when the movement vector of the vector indicating the moving direction of the tracking target and the position vector indicating the direction of viewing the field sensor S2 from the field sensor S1 have a certain degree of parallelism, the tracking target has the detection area A1. , It may be determined that there is a possibility of moving across A2. The parallelism between the movement vector and the position vector may be determined, for example, by whether or not the inner product of the two normalized vectors is equal to or greater than a certain value.
(5d)本開示に記載の処理部23,33,52及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部23,33,52及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部23,33,52及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。処理部23,33,52に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(5d) The
(5e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (5e) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
(5f)上述した物標追跡装置としてのサーバ5の他、当該物標追跡装置を構成要素とするシステム、当該物標追跡装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、位置推定方法など、種々の形態で本開示を実現することもできる。
(5f) In addition to the
1…交通管制システム、2…車載端末、3…インフラセンサ、5…サーバ、51…通信器、52…処理部、53…記憶部、521…情報生成部、522…情報配信部、A…検知エリア、CX…つなぎエリア、S…フィールドセンサ。 1 ... Traffic control system, 2 ... In-vehicle terminal, 3 ... Infrastructure sensor, 5 ... Server, 51 ... Communication device, 52 ... Processing unit, 53 ... Storage unit, 521 ... Information generation unit, 522 ... Information distribution unit, A ... Detection Area, CX ... Connecting area, S ... Field sensor.
Claims (4)
処理サイクル毎に推定される前記物標の位置を推定値とし、前回の処理サイクルでの前記推定値から予測される前記物標の位置を予測値とし、前記情報取得部で取得された前記物標情報に示された物標の位置を観測値として、前記予測値及び前記観測値の信頼度をそれぞれ設定するように構成された信頼度設定部(5:S140)と、
同一物標を表す前記予測値及び前記観測値である対応値ペア、及び該対応値ペアについて前記信頼度設定部にて設定された前記信頼度を用いて、前記対応値ペアに対応づけられる前記物標の前記推定値を更新するように構成された推定値更新部(5:S190)と、
前記センサ情報に示された前記検知エリアの境界の一部を少なくとも含み、前記検知エリアにおける他のエリアより検知精度が低下するつなぎエリアを設定するように構成されたエリア設定部(5:S130)と、
前記観測値が前記つなぎエリアにある場合、該観測値と前記対応値ペアを形成する前記予測値の信頼度を、該信頼度が高くなるように調整するように構成された信頼度調整部(5:S180)と、
を備える物標追跡装置。 An information acquisition unit (5: S110) configured to acquire the position information of the sensor, the sensor information including the detection area of the sensor, and the target information including the detected position of the target from the plurality of sensors. ,
The target position estimated for each processing cycle is used as an estimated value, the target position predicted from the estimated value in the previous processing cycle is used as a predicted value, and the target acquired by the information acquisition unit is used as a predicted value. A reliability setting unit (5: S140) configured to set the predicted value and the reliability of the observed value, respectively, using the position of the target indicated in the target information as the observed value.
The predicted value representing the same target, the corresponding value pair which is the observed value, and the reliability set in the reliability setting unit for the corresponding value pair are used to associate the corresponding value pair with the corresponding value pair. An estimated value updating unit (5: S190) configured to update the estimated value of the target, and
An area setting unit (5: S130) that includes at least a part of the boundary of the detection area shown in the sensor information and is configured to set a connecting area whose detection accuracy is lower than that of other areas in the detection area. When,
When the observed value is in the connecting area, the reliability adjusting unit (reliability adjusting unit) configured to adjust the reliability of the predicted value forming the corresponding value pair with the observed value so as to increase the reliability. 5: S180) and
A target tracking device equipped with.
前記信頼度調整部は、前記対応値ペアを形成する前記観測値が存在しない前記予測値の信頼度を、該信頼度が高くなるように調整するように構成された
物標追跡装置。 The target tracking device according to claim 1.
The reliability adjusting unit is a target tracking device configured to adjust the reliability of the predicted value in which the observed value forming the corresponding value pair does not exist so that the reliability becomes high.
前記信頼度設定部は、前記つなぎエリア内での前記観測値の位置、前記観測値と前記予測値との一致度、前記予測値に対応づけられる前記物標の種類及び速度、該物標が最初に検出されてからの経過時間、前記観測値の生成元となった前記センサの種類及びスペック、前記観測値が取得されたときの外部環境のうち、少なくとも一つを用いて前記信頼度を設定するように構成された
物標追跡装置。 The target tracking device according to claim 1 or 2.
The reliability setting unit includes the position of the observed value in the connecting area, the degree of agreement between the observed value and the predicted value, the type and speed of the target associated with the predicted value, and the target. The reliability is determined using at least one of the elapsed time since the first detection, the type and specifications of the sensor from which the observed value was generated, and the external environment when the observed value was acquired. A target tracking device configured to set.
前記エリア設定部は、隣接する二つの前記センサの前記検知エリアの間に、前記つなぎエリアを設定するように構成された、
物標追跡装置。 The target tracking device according to any one of claims 1 to 3.
The area setting unit is configured to set the connecting area between the detection areas of two adjacent sensors.
Target tracking device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071227A JP7277412B2 (en) | 2020-04-10 | 2020-04-10 | Target tracker |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071227A JP7277412B2 (en) | 2020-04-10 | 2020-04-10 | Target tracker |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021167770A true JP2021167770A (en) | 2021-10-21 |
JP7277412B2 JP7277412B2 (en) | 2023-05-18 |
Family
ID=78079627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020071227A Active JP7277412B2 (en) | 2020-04-10 | 2020-04-10 | Target tracker |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7277412B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023210147A1 (en) * | 2022-04-27 | 2023-11-02 | トヨタ自動車株式会社 | Foreign object detection system and vehicle |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006349603A (en) * | 2005-06-20 | 2006-12-28 | Alpine Electronics Inc | Radar system |
JP2007024590A (en) * | 2005-07-13 | 2007-02-01 | Toyota Motor Corp | Object detector |
JP2007041788A (en) * | 2005-08-02 | 2007-02-15 | Nissan Motor Co Ltd | Obstacle determining apparatus and method |
JP2007093543A (en) * | 2005-09-30 | 2007-04-12 | Alpine Electronics Inc | Method and instrument for measuring position of target |
JP2011123535A (en) * | 2009-12-08 | 2011-06-23 | Toyota Motor Corp | Obstacle detection device |
JP2018054405A (en) * | 2016-09-28 | 2018-04-05 | 日産自動車株式会社 | Object detection method and object detection apparatus |
JP2019078554A (en) * | 2017-10-20 | 2019-05-23 | 株式会社Soken | Object detector |
-
2020
- 2020-04-10 JP JP2020071227A patent/JP7277412B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006349603A (en) * | 2005-06-20 | 2006-12-28 | Alpine Electronics Inc | Radar system |
JP2007024590A (en) * | 2005-07-13 | 2007-02-01 | Toyota Motor Corp | Object detector |
JP2007041788A (en) * | 2005-08-02 | 2007-02-15 | Nissan Motor Co Ltd | Obstacle determining apparatus and method |
JP2007093543A (en) * | 2005-09-30 | 2007-04-12 | Alpine Electronics Inc | Method and instrument for measuring position of target |
JP2011123535A (en) * | 2009-12-08 | 2011-06-23 | Toyota Motor Corp | Obstacle detection device |
JP2018054405A (en) * | 2016-09-28 | 2018-04-05 | 日産自動車株式会社 | Object detection method and object detection apparatus |
JP2019078554A (en) * | 2017-10-20 | 2019-05-23 | 株式会社Soken | Object detector |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023210147A1 (en) * | 2022-04-27 | 2023-11-02 | トヨタ自動車株式会社 | Foreign object detection system and vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP7277412B2 (en) | 2023-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10346683B2 (en) | Method and apparatus for object identification and location correlation based on received images | |
JP2022113746A (en) | Determination device | |
US11315420B2 (en) | Moving object and driving support system for moving object | |
JPWO2018212346A1 (en) | Control device, scanning system, control method, and program | |
KR102086270B1 (en) | Control method and traveling control device of the traveling control device | |
JP6865521B2 (en) | Navigation signal processing device, navigation signal processing method and navigation signal processing program | |
JP2015108604A (en) | Vehicle position estimation system, device, method, and camera device | |
JP6973351B2 (en) | Sensor calibration method and sensor calibration device | |
JP6806891B2 (en) | Information processing equipment, control methods, programs and storage media | |
JP2017138660A (en) | Object detection method, object detection device and program | |
WO2020085062A1 (en) | Measurement accuracy calculation device, host position estimation device, control method, program, and storage medium | |
JP2023101820A (en) | Self-location estimation device, control method, program, and storage medium | |
US11993289B2 (en) | Vehicle control system and vehicle control method | |
JP2021167770A (en) | Target tracking device | |
JP2019174191A (en) | Data structure, information transmitting device, control method, program, and storage medium | |
US11754403B2 (en) | Self-position correction method and self-position correction device | |
US20230039735A1 (en) | Map update device and storage medium | |
JP2019132713A (en) | Velocity computation device, velocity computation method, and program | |
US11475713B2 (en) | Apparatus and method for estimating own vehicle behavior | |
WO2019188874A1 (en) | Data structure, information processing device, and map data generation device | |
WO2018212290A1 (en) | Information processing device, control method, program and storage medium | |
JP2021189062A (en) | Information integrating device | |
JP7452349B2 (en) | Traffic detection device and traffic detection method | |
WO2021112177A1 (en) | Information processing apparatus, control method, program, and storage medium | |
US20240210178A1 (en) | Map generation/self-position estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7277412 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |