JP2021189062A - Information integrating device - Google Patents
Information integrating device Download PDFInfo
- Publication number
- JP2021189062A JP2021189062A JP2020095555A JP2020095555A JP2021189062A JP 2021189062 A JP2021189062 A JP 2021189062A JP 2020095555 A JP2020095555 A JP 2020095555A JP 2020095555 A JP2020095555 A JP 2020095555A JP 2021189062 A JP2021189062 A JP 2021189062A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- value
- sensor
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 claims abstract description 43
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 49
- 230000010354 integration Effects 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000003068 static effect Effects 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 238000000034 method Methods 0.000 description 39
- 238000004891 communication Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 23
- 238000012544 monitoring process Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本開示は、複数のセンサから得られる情報を統合する技術に関する。 The present disclosure relates to a technique for integrating information obtained from a plurality of sensors.
車両等の移動体に搭載されたセンサを含む複数種類のセンサの検出情報をインテリジェントに組み合わせてシステムの性能向上、及び機能実現を図ることが行われている。このようなシステムでは、センサから取得した情報を、それぞれのセンサで使用されるローカルな座標から、システムで共通に使用されるグローバルな座標に変換してから情報を統合する必要がある。この場合、移動体の位置や向きが正確にわかっていないと、物標の位置情報に大きな誤差が生じる。 The detection information of a plurality of types of sensors including the sensor mounted on a moving body such as a vehicle is intelligently combined to improve the performance and realize the function of the system. In such a system, it is necessary to convert the information acquired from the sensors from the local coordinates used by each sensor to the global coordinates commonly used by the system before integrating the information. In this case, if the position and orientation of the moving body are not accurately known, a large error will occur in the position information of the target.
特許文献1には、全球測位衛星システム(以下、GNSS)によって検出されるセンサの位置情報を用いて、センサによって検出される物標の位置情報を補正する技術が記載されている。
しかしながら、発明者の詳細な検討の結果、特許文献1に記載の従来技術では以下の課題が見出された。すなわち、市街地の遮蔽、悪天候等の影響によりGNSSの精度が低下する場合、補正精度が劣化するという課題があった。
However, as a result of detailed examination by the inventor, the following problems have been found in the prior art described in
また、GNSS情報は、移動体の急激な状態の変化、例えば、スリップによる進行方向の変化等に対する応答性が低いという課題もあった。
本開示の一つの局面では、複数のセンサから得られる情報を統合することで得られる統合情報の誤差を抑制する技術を提供する。
Further, the GNSS information has a problem that the responsiveness to a sudden change in the state of the moving body, for example, a change in the traveling direction due to slipping, is low.
One aspect of the present disclosure is to provide a technique for suppressing an error in the integrated information obtained by integrating the information obtained from a plurality of sensors.
本開示の一態様は、情報統合装置であって、情報取得部(521:S130)と、基準抽出部(523)と、誤差算出部(521:S140)と、補正部(521:S150〜S170)と、統合処理部(522)と、を備える。 One aspect of the present disclosure is an information integration device, which is an information acquisition unit (521: S130), a reference extraction unit (523), an error calculation unit (521: S140), and a correction unit (521: S150 to S170). ) And an integrated processing unit (522).
情報取得部は、複数のフィールドセンサから、センサ情報及び物標情報を繰り返し取得するように構成される。センサ情報は、グローバル座標で表されるフィールドセンサの位置及び向きを含む情報である。物標情報は、フィールドセンサにより検出され、フィールドセンサを基準としたローカル座標で表される物標の位置を含む情報である。基準抽出部は、あらかじめ設定された対象領域に存在し、グローバル座標で表される停止物の位置を基準値として抽出するように構成される。誤差算出部は、フィールドセンサ毎に、フィールドセンサから得られるセンサ情報及び物標情報から算出されグローバル座標で表される物標の位置を瞬時値として、瞬時値と基準値とを比較することで、センサ情報が有する誤差の大きさを算出するように構成される。補正部は、誤差算出部での算出結果に従って、誤差が小さくなるよう瞬時値を補正するように構成される。統合処理部は、補正部により補正された瞬時値を用いて、複数のフィールドセンサから得られる情報を統合した統合情報を生成するように構成される。 The information acquisition unit is configured to repeatedly acquire sensor information and target information from a plurality of field sensors. The sensor information is information including the position and orientation of the field sensor represented by global coordinates. The target information is information that is detected by the field sensor and includes the position of the target expressed in local coordinates with respect to the field sensor. The reference extraction unit exists in a preset target area and is configured to extract the position of a stop object represented by global coordinates as a reference value. The error calculation unit compares the instantaneous value with the reference value for each field sensor, using the position of the target calculated from the sensor information obtained from the field sensor and the target information and expressed in global coordinates as the instantaneous value. , It is configured to calculate the magnitude of the error that the sensor information has. The correction unit is configured to correct the instantaneous value so that the error becomes small according to the calculation result of the error calculation unit. The integrated processing unit is configured to generate integrated information that integrates information obtained from a plurality of field sensors by using the instantaneous value corrected by the correction unit.
このような構成によれば、フィールドセンサから取得される情報に基づく瞬時値と、停止物の位置を表す基準値とを比較することで、センサ情報に含まれる誤差の大きさを算出し、その誤差が小さくなるように瞬時値を補正する。従って、フィールドセンサの位置や向き、ひいてはフィールドセンサを搭載する移動体の移動に起因する誤差を効率よく抑制できる。また、このように補正された瞬時値を用いることで、他のセンサの瞬時値と統合することで生成される統合情報の精度を向上させることができる。 According to such a configuration, the magnitude of the error included in the sensor information is calculated by comparing the instantaneous value based on the information acquired from the field sensor with the reference value indicating the position of the stationary object, and the magnitude of the error is calculated. Correct the instantaneous value so that the error becomes small. Therefore, it is possible to efficiently suppress an error caused by the position and orientation of the field sensor and, by extension, the movement of the moving body on which the field sensor is mounted. Further, by using the instantaneous value corrected in this way, the accuracy of the integrated information generated by integrating with the instantaneous value of another sensor can be improved.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す交通管制システム1は、交通環境下に存在する複数のセンサから取得した観測情報を統合して物標位置・運動等を推定し、交通環境にある各端末に推定結果を通知することで、自動運転及び運転支援の精度を向上させる。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. composition]
The
交通管制システム1は、車載端末2と、インフラセンサ3と、携帯端末4と、サーバ5とを備える。サーバ5が情報統合装置に相当する。
[1−1.車載端末]
図2に示すように、車載端末2は、車両に搭載される。車載端末2は、車内通信器21と、車外通信器22と、処理部23とを備える。車内通信器21は、当該車載端末2を搭載する車両(以下、自車両)の車載ネットワークを介して、種々の情報を取得する。車外通信器22は、無線通信によって、サーバ5との通信を実行する。処理部23は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。
The
[1-1. In-vehicle terminal]
As shown in FIG. 2, the in-
車載端末2は、処理部23が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部231と、統合情報提供部232とを備える。
情報収集部231は、車内通信器21を介して、物標情報、センサ情報、及び車両状態情報を繰り返し収集し、車外通信器22を介してサーバ5に送信する。
The in-
The
物標情報は、車両に搭載された周辺監視センサ群100にて検知される物標に関する観測情報である。周辺監視センサ群100には、ミリ波レーダ101、ライダー102、超音波センサ103、及びカメラ104等が含まれてもよい。以下では、周辺監視センサ群100に属するこれらの構成を、単にセンサ101〜104ともいう。物標情報は、情報生成源となるセンサ101〜104によって含まれる情報が異なるが、いずれの場合も、検知した物標の位置が少なくとも含まれる。物標情報には、物標の位置の他、物標までの距離、物標の移動速度及び移動方向、物標の大きさ、及び物標の種類等が含まれてもよい。なお、物標の位置、物標までの距離、物標の移動速度及び移動方向は、車載端末2を基準とした相対値、すなわち、ローカルな座標を用いて表される。
The target information is observation information related to the target detected by the peripheral
センサ情報には、個々のセンサ101〜104の性能に関する性能情報、及び自車両に対する取付状態を表す取付情報が含まれる。取付情報には、路面からの高さ、車両の直進方向及び水平方向に対する取付角度が含まれる。性能情報には、センサ種別、検知距離範囲、及び検知角度範囲が含まれる。検知距離範囲は、物標の検知を許容精度で行うことができる距離の範囲である。検知角度範囲は、物標の検知を許容精度で行うことができる角度の範囲である。ここでは、検知距離範囲及び検知角度範囲によって決まる検知エリアの中心方向をセンサ正面方向として、取付角度は、センサ正面方向の向きを表す。また、検知角度範囲は、センサ正面方向を基準(すなわち、0°)として表す。
The sensor information includes performance information regarding the performance of the
車両状態情報には、車両に搭載された位置センサ110にて検出される車両の位置及び進行方向が少なくとも含まれる。位置センサ110には、車両に搭載されたセンサから取得される情報だけを用いて自位置を推定する自律航法を実現するための各種センサが少なくとも含まれる。位置センサ110には、GNSSを利用して情報を得る装置が含まれてもよい。なお、位置センサ110の検出結果は、グローバル座標を用いて表される。つまり、車両状態情報とセンサ情報に含まれる取付情報とを組み合わせることで、グローバル座標におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The vehicle state information includes at least the position and the traveling direction of the vehicle detected by the
統合情報提供部232は、サーバ5から自車両の周辺に存在する物標等に関する統合情報を、車外通信器22を介して受信し、受信した統合情報を、車内通信器21を介して、自動運転及び運転支援に関わる車両制御を実行する各ECUに提供する。
The integrated
[1−2.インフラセンサ]
インフラセンサ3は、道路標識、信号機等の交通インフラの他、道路脇の建造物等に設置される。図3に示すように、インフラセンサ3は、センサ本体31と、通信器32と、処理部33と、を備える。
[1-2. Infrastructure sensor]
The
センサ本体31は、例えば、カメラ311及びレーダ312等を備える。センサ本体31は、カメラ311及びレーダ312におけるセンサ正面方向の向き(すなわち、センサ本体31の姿勢)を処理部33からの指示によって変化可能に構成される。以下では、カメラ311及びレーダ312を、単にセンサ311,312ともいう。
The
通信器32は、有線通信網又は無線通信網を介したサーバ5との通信を実行する。
処理部33は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。インフラセンサ3は、処理部33が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部331と、姿勢制御部332とを備える。
The
The
情報収集部331は、センサ本体31から物標情報を繰り返し収集し、収集した物標情報を、センサ情報及び姿勢情報と共に、通信器32を介してサーバ5に送信する。
物標情報及びセンサ情報は、基本的には、車載端末2の情報収集部231で収集される物標情報及びセンサ情報と同様である。但し、センサ情報に含まれる取付情報は、センサが予め設定された基準姿勢にあるときのセンサ正面方向の向き(以下、基準正面方向)が含まれる。姿勢情報は、姿勢制御部332によって決まるセンサ本体31の姿勢、すなわち、基準正面方向に対するセンサ正面方向の向きが含まれる。つまり、センサ情報に含まれる取付情報と、姿勢情報とを組み合わせることで、グローバル座標におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The
The target information and the sensor information are basically the same as the target information and the sensor information collected by the
なお、インフラセンサ3が、センサ本体31の姿勢を変更できないように構成されている場合は、姿勢制御部332及び姿勢情報は省略されてもよい。
ここでは、インフラセンサ3において物標情報を生成してサーバ5に提供する場合について説明したが、物標情報の代わりに、センサ本体31から得られる生データをサーバ5に提供するように構成されてもよい。この場合、サーバ5は、インフラセンサ3から取得する生データから物標情報を生成する機能を必要とする。
If the
Here, the case where the
[1−3.携帯端末]
携帯端末4は、歩行者等に携帯される端末である。図4に示すように、携帯端末4は、状況監視センサ群41と、位置センサ42と、通信器43と、処理部44とを備える。
[1-3. Mobile terminal]
The mobile terminal 4 is a terminal carried by a pedestrian or the like. As shown in FIG. 4, the mobile terminal 4 includes a status
状況監視センサ群41は、例えば、振動センサ411及び加速度センサ412等が含まれてもよい。状況監視センサ群41は、携帯端末4に加わる振動や加速度を介して携帯端末4を保持する端末保持者の状態を検出する。以下では、振動センサ411及び加速度センサ412を、単にセンサ411,412ともいう。
The situation
位置センサ42は、GNSSを利用して携帯端末4、ひいては端末保持者の位置及び移動方向を表す位置情報を生成する。なお、携帯端末4の場合、センサの位置を表す位置情報は、携帯端末4を携帯する歩行者等、すなわち、物標の位置情報を表す。
The
通信器43は、無線通信によって、サーバ5との通信を実行する。
処理部44は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。
The
The
携帯端末4は、処理部44が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部441、及び報知実行部442を備える。
情報収集部441は、状況監視センサ群41での検知結果から、端末保持者の状態を推定した状態情報を生成する。情報収集部441は、生成した状態情報を、状況監視センサ群41に関するセンサ情報、及び位置センサ42にて検出される位置情報と共に、通信器43を介してサーバ5に送信する。但し、センサ情報には、少なくとも性能情報が含まれる。
The mobile terminal 4 includes an
The
報知実行部442は、端末保持者の周辺に存在する物標等に関する統合情報を、通信器43を介してサーバ5から受信し、受信した統合情報の内容に従って、必要に応じて端末保持者への報知を行う。報知内容には、端末保持者に接近する物標の存在、及び端末保持者の進行方向における危険の存在等が含まれてもよい。報知方法は、音声による報知、及び振動による報知が含まれてもよい。
The
以下では、周辺監視センサ群100に属するセンサ101〜104、センサ本体31に属するセンサ311,312、及び状況監視センサ群41に属するセンサ411,412を一括してフィールドセンサSと呼び、個々のフィールドセンサをSiで識別する。iは正整数である。図1では、車両に搭載された周辺監視センサ群100に属するセンサ101〜104のいずれかをS1,S2とし、インフラセンサ3が有するセンサ本体31に属するセンサ311,312のいずれかをS3とする。また、各フィールドセンサS1〜S3の検知エリアをA1〜A3で表す。
In the following, the
[1−4.サーバ]
サーバ5は、交通環境下に存在する複数のフィールドセンサSiから情報を取得し、取得した情報を統合することで、単一センサの検知に比べ高精度かつロバストな検出を実現する。その検出結果である統合情報を、車載端末2及び携帯端末4に提供する。
[1-4. server]
The
図5に示すように、サーバ5は、通信器51と、処理部52と、記憶部53とを備える。
通信器51は、車載端末2、インフラセンサ3、及び携帯端末4との通信を実行する。
処理部52は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。
As shown in FIG. 5, the
The
The
サーバ5は、処理部52が実行する処理によって実現される機能を表す機能ブロックとして、データ補正部521と、情報統合部522と、基準抽出部523とを備える。
データ補正部521は、通信器51を介して取得するセンサ情報及び物標情報から特定されるグローバル座標における物標の位置(以下、瞬時値)を、瞬時値に含まれる誤差が低減されるように補正する。データ補正部521での処理の詳細は後述する。
The
The
情報統合部522は、サーバ5での処理の対象となる対象エリアにて検出される物標のそれぞれについて、データ補正部521にて補正された瞬時値の情報を用いて統合情報を生成する。統合情報は、複数のフィールドセンサSiから取得した情報を統合することで生成される物標情報である。更に、情報統合部522は、対象エリアに存在する車載端末2及び携帯端末4に、通信器51を介して統合情報を提供する。
The
基準抽出部523は、情報統合部522にて生成される統合情報から、データ補正部521での処理で使用する基準情報を抽出する。以下、基準情報が示す物標の位置を基準値という。基準抽出部523での処理の詳細は後述する。
The
記憶部53には、対象エリアの地図データ、情報統合部522で生成された統合情報の時系列データ、及びデータ補正部521にて瞬時値の位置を補正する際に使用する変換情報が少なくとも記憶される。
The
[2.処理]
[2−1.データ補正処理]
次に、サーバ5がデータ補正部521としての機能を実現するために実行するデータ補正処理を、図6のフローチャートを用いて説明する。本処理は、一定周期で繰り返し実行される。
[2. process]
[2-1. Data correction processing]
Next, the data correction process executed by the
S110では、サーバ5は、記憶部53から基準抽出部523によって抽出された所定個の基準情報に基づき、基準情報にて表される物標が今回の処理サイクルで検出される位置を推定し、その推定された位置を基準値とする。基準情報は、前回の処理サイクルまでに検出されている静止物である可能性の高い物標についての物標情報である。
In S110, the
続くS120では、サーバ5は、前回の処理サイクルから今回の処理サイクルまでの間に通信器51を介して取得された情報の提供元となったフィールドセンサSのうち、後述のS130からS180の処理が未実施であるいずれか一つを対象センサとして選択する。なお、必ずしもすべてのフィールドセンサSを選択対象とする必要はなく、例えば、車両等の自律的に移動する移動体に搭載されたフィールドセンサSのみを選択対象としてもよい。
In the subsequent S120, the
続くS130では、サーバ5は、対象センサから取得した情報に基づいて、対象センサにて検出された物標情報が示す物標のグローバル座標での位置を示す瞬時値を生成する。
続くS140では、サーバ5は、S130で生成された瞬時値の中から、S110で取得した基準値に対応づけられる瞬時値(以下、対応瞬時値)を抽出し、抽出された対応瞬時値と基準値とを用いて誤差ε及び相関値γを算出する。なお、対応瞬時値には、例えば、基準値に最も近い瞬時値が採用される。
In the following S130, the
In the following S140, the
図7に示すように、誤差εは、基準値と対応瞬時値との距離を、全ての基準値について求めて平均した値である。相関値γは、瞬時値から基準値を見た向き及び基準値までの距離を表すベクトルを誤差ベクトルとして、基準値のそれぞれについて算出される誤差ベクトル間の相関性が高いほど、つまり、誤差の大きさや向きに共通の傾向、すなわち規則性があるほど、大きな値となる。 As shown in FIG. 7, the error ε is a value obtained by calculating and averaging the distance between the reference value and the corresponding instantaneous value for all the reference values. The correlation value γ uses a vector representing the direction from the instantaneous value to the reference value and the distance to the reference value as an error vector, and the higher the correlation between the error vectors calculated for each of the reference values, that is, the error. The more common the tendency of size and orientation, that is, the regularity, the larger the value.
続くS150では、サーバ5は、誤差εが閾値TH1より大きいか否かを判定する。閾値TH1は、瞬時値に許容される誤差の上限値以下に設定される。サーバ5は、ε>TH1であると判定した場合は、瞬時値の補正が必要であるとして処理をS160に移行し、ε≦TH1であると判定した場合は、瞬時値の補正は不要であるとして、処理をS190に移行する。
In the following S150, the
S160では、サーバ5は、相関値γが閾値TH2により大きいか否かを判定する。閾値TH2は、瞬時値を補正した場合に、誤差εを閾値TH1以下に抑えることができるよう実験的に決定される。サーバ5は、γ>TH2であると判定した場合は、誤差ベクトル間の相関性を利用した実効性のある補正が可能であるとして、処理をS170に移行し、γ≦TH2であると判定した場合は、実効性のある補正が不能であるとして、処理をS180に移行する。
In S160, the
S170では、サーバ5は、誤差ベクトル間の相関性を利用して、各瞬時値の位置を補正して、処理をS190に進める。具体的には、例えば、センサ情報が示す対象センサの位置及び向きを変数Xとし、変数Xを補正するために、変数に作用させる変換行列Aを算出する。このとき、変換行列Aを作用させた後の変数AXと、ローカル座標で表された物標の位置Cを用いて瞬時値f(AX,C)を算出する。fは、瞬時値の算出に用いる関数である。更に、瞬時値f(AX,C)と基準値Yとの間の誤差(すなわち、距離)E=|f(AX,C)−Y|を、すべての基準値について算出し、その合計値が最小となるような変換行列Aを算出する。換言すれば、誤差Eの合計値を算出する誤差関数の値が最小となるように変換行列Aを算出する。変換行列Aの算出には、例えば、公知の正規方程式を用いることができる。このようにして算出された変換行列Aを用いて算出される瞬時値f(AX,C)を、補正された瞬時値とする。
In S170, the
つまり、誤差ベクトルの相関値γが高い場合、各瞬時値には、同じ法則に従った誤差が付加されていると考えることができ、その法則を表す変換行列Aを算出する。変換行列Aを規定するパラメータは、変数X(すなわち、対象センサの位置及び向き)に対する最適な補正量を意味する。 That is, when the correlation value γ of the error vector is high, it can be considered that an error according to the same law is added to each instantaneous value, and the transformation matrix A representing the law is calculated. The parameter defining the transformation matrix A means the optimum correction amount for the variable X (that is, the position and orientation of the target sensor).
S180では、サーバ5は、対象センサから取得した情報に基づく瞬時値を破棄して、処理をS190に進める。なお、瞬時値を破棄する代わりに、瞬時値に、位置の精度が低下していることを表すフラグを付与して、瞬時値の扱いを後段の処理に決めさせるようにしてもよい。
In S180, the
S190では、サーバ5は、全てのフィールドセンサSを対象センサとして選択済みであるか否かを判定し、未選択のフィールドセンサSがある場合は処理をS120に戻し、全てのフィールドセンサSが選択済みである場合は、処理を終了する。
In S190, the
なお、S130が情報取得部に相当し、S140が誤差算出部及び相関算出部に相当し、S150〜S170が補正部に相当する。
[2−2.基準抽出処理]
サーバ5が基準抽出部523としての機能を実現するために実行する基準抽出処理を、図8フローチャートを用いて説明する。本処理は、情報統合部522としての機能を実現するための処理である統合処理の実行後に実行される。なお、統合処理では、トラッキング等の処理が行われるほか、複数のセンサで検出された物標情報を統合した統合情報が生成される。統合情報には、物標の位置、移動速度、及び移動方向の他、物標の種類(例えば、車両、人、及び建造物等)を表す情報が付与されてもよい。統合処理によって生成された統合情報は、順次、記憶部53に記憶される。
Note that S130 corresponds to the information acquisition unit, S140 corresponds to the error calculation unit and the correlation calculation unit, and S150 to S170 correspond to the correction unit.
[2-2. Criteria extraction process]
The reference extraction process executed by the
S210では、サーバ5は、統合処理によって位置が特定され、停止しているとみなすことができる物標(以下、停止物)の一つを、対象物標として選択する。ここでは、移動速度の絶対値が所定値以下の場合を停止しているとみなす。
In S210, the
続くS220では、サーバ5は、対象物標が静止した物標であることの信頼度を表す静止信頼度Lの初期値を設定する。静止信頼度Lの初期値は、すべての物標で同じ値であってもよいし、例えば、トラッキングにより、過去の処理サイクルでの検出頻度が多い物標又は連続して検出された回数が多い物標ほど静止信頼度Lを高い値に設定してもよい。
In the following S220, the
続くS230では、サーバ5は、記憶部53に記憶された対象物標に関する時系列データに基づき、検出される位置のばらつき度σを算出する。なお、位置のばらつき度σだけでなく、速度のばらつき度を算出してもよい。
In the following S230, the
続くS240では、サーバ5は、S230で算出されたばらつき度σが閾値TH3より小さいか否かを判定する。閾値TH3は、例えば、フィールドセンサSの測定誤差の上限値以下に設定される。サーバ5は、σ<TH3であると判定した場合は、処理をS250に移行し、σ≧TH3であると判定した場合は、処理をS260に移行する。
In the following S240, the
S250では、サーバ5は、対象物標の静止信頼度Lを増加させて、処理をS260に進める。なお、静止信頼度Lの増加量は、固定値であってもよいし、例えば、バラツキ度Vが小さいほど大きな値となる可変値であってもよい。
In S250, the
S260では、サーバ5は、対象物標の種類がランドマークとして良く知られた建造物であるか否か、すなわち、静止物であることが確実な物標であるか否かを判定する。サーバ5は、ランドマークであると判定した場合は、処理をS270に移行し、ランドマークでないと判定した場合は、処理をS280に移行する。
In S260, the
S270では、サーバ5は、対象物標の静止信頼度Lを増加させて、処理をS280に進める。なお、静止信頼度Lの増加量は、固定値であってもよいし、例えば、ランドマークの種類、及びランドマークまでの距離のうち少なくとも一方に応じて異なる値となる可変値であってもよい。
In S270, the
S280では、サーバ5は、静止信頼度Lが閾値TH4より大きいか否かを判定し、L>TH4であると判定した場合は、処理をS290に移行し、L≦TH4であると判定した場合は、処理をS300に移行する。閾値TH4は、基準情報が適度な数だけ抽出されるように実験的に設定される。
In S280, the
S290では、サーバ5は、対象物標についての統合情報を基準情報として抽出し、処理をS300に進める。
S300では、サーバ5は、情報統合処理で位置情報が算出されたすべての停止物が対象物標として選択されたか否かを判定し、未選択の停止物が存在する場合は、処理をS210に戻し、全ての停止物が選択されていれば処理を終了する。
In S290, the
In S300, the
[3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(3a)サーバ5では、フィールドセンサSの検出結果に基づく瞬時値を、静止信頼度Lが高い物標の位置である基準値と比較し、誤差εが閾値TH1より大きく、かつ相関値γがTH2より大きい場合に、誤差ベクトル間の相関性を利用して、瞬時値を補正する。
[3. effect]
According to the embodiment described in detail above, the following effects are obtained.
(3a) In the
つまり、移動体に搭載されたフィールドセンサSの検出値には、移動体の移動に起因する誤差が含まれる。例えば、図9に示すように、車両がスリップすることにより、実際には実線で示す状態にあるにも関わらず、点線で示す状態にあると誤認識すると、検出した物標の位置をグローバル座標に変換したときに大きな誤差が生じる。但し、その誤差は、真値(すなわち、基準値)に対して固有な相関性を有する。 That is, the detected value of the field sensor S mounted on the moving body includes an error due to the movement of the moving body. For example, as shown in FIG. 9, when the vehicle slips and it is erroneously recognized that the vehicle is in the state shown by the dotted line even though it is actually in the state shown by the solid line, the position of the detected target is set to the global coordinates. A large error occurs when converting to. However, the error has an inherent correlation with the true value (that is, the reference value).
従って、その相関性を利用して瞬時値を補正することで、瞬時値の誤差が的確に抑制され、その結果、他のセンサの瞬時値と統合することで生成される統合情報の精度を向上させることができる。 Therefore, by correcting the instantaneous value using the correlation, the error of the instantaneous value is accurately suppressed, and as a result, the accuracy of the integrated information generated by integrating with the instantaneous value of other sensors is improved. Can be made to.
例えば、図10の上段に示すように、基準値と瞬時値との平均値を用いて統合値を生成した場合、瞬時値が有する誤差の半分が統合値の誤差として残り、しかもその誤差は、遠距離であるほど大きくなる。これに対して、図10の下段に示すように、相関性を利用した補正を行うことで、距離に関わらず、すべての瞬時値を同じ程度で真値に近づけることができ、統合値の誤差を抑制できる。 For example, as shown in the upper part of FIG. 10, when an integrated value is generated using the average value of the reference value and the instantaneous value, half of the error of the instantaneous value remains as an error of the integrated value, and the error is The farther the distance, the larger the size. On the other hand, as shown in the lower part of FIG. 10, by performing correction using correlation, all instantaneous values can be brought closer to the true value to the same extent regardless of the distance, and the error of the integrated value can be obtained. Can be suppressed.
(3b)サーバ5では、処理サイクル毎に、瞬時値と基準値とを比較して、その都度、補正量を算出するため、車両のスリップ等の瞬時的に発生する誤差に速やかに対応できる。しかも、瞬時値を時間平均することで誤差の影響を軽減させる場合と比較して、複数の処理サイクルに渡って誤差が残留することを抑制できる。
(3b) Since the
(3c)サーバ5では、瞬時値との比較に使用される基準値が、複数のフィールドセンサSの結果を統合した統合情報から抽出される。このため、いずれかのフィールドセンサSが誤作動したとしても、その誤作動の影響を小さく抑えることができ、システムの性能をロバストに維持できる。
(3c) In the
[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[4. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be variously modified and implemented.
(4a)上記実施携帯では、瞬時値を補正する際に用いる誤差εの閾値TH1、及び相関値γの閾値TH2が、フィールドセンサSの性能等に基づいて設定される例を示したが、本開示はこれに限定されるものではない。例えば、閾値TH1,TH2は、物標情報を利用するアプリケーションに必要な性能を満たすように設定されてもよい。具体的には、車両のルート案内用のナビゲーションでは、閾値TH1,TH2を高く設定することで、瞬時値が補正される頻度を抑制することで処理負荷を軽減してもよい。また、高精度追尾システム、又は事故防止システムは、閾値TH1,TH2を低く設定することで、統合情報の精度が高く維持されるようにしてもよい。 (4a) In the above-mentioned mobile phone, an example is shown in which the threshold value TH1 of the error ε used when correcting the instantaneous value and the threshold value TH2 of the correlation value γ are set based on the performance of the field sensor S and the like. Disclosure is not limited to this. For example, the threshold values TH1 and TH2 may be set so as to satisfy the performance required for the application that uses the target information. Specifically, in the navigation for vehicle route guidance, the processing load may be reduced by suppressing the frequency of correction of the instantaneous value by setting the threshold values TH1 and TH2 high. Further, the high-precision tracking system or the accident prevention system may set the threshold values TH1 and TH2 low so that the accuracy of the integrated information is maintained high.
(4b)上記実施形態では、瞬時値の補正に、正規方程式を用いて算出される変換行列Aを用いる例を示したが、本開示は、これに限定されるものではない。例えば、誤差εと相関値γの組み合わせパターンと、瞬時値の補正量とを対応づけた補正テーブルを予め作成しておき、算出された誤差ε及び相関値γを用いて補正テーブルから得られる補正量を用いて、瞬時値を補正してもよい。この場合、瞬時値の補正に必要な処理負荷を大幅に軽減できる。 (4b) In the above embodiment, an example in which the transformation matrix A calculated by using the normal equation is used for the correction of the instantaneous value is shown, but the present disclosure is not limited to this. For example, a correction table in which the combination pattern of the error ε and the correlation value γ and the correction amount of the instantaneous value are associated with each other is created in advance, and the correction obtained from the correction table using the calculated error ε and the correlation value γ is used. The quantity may be used to correct the instantaneous value. In this case, the processing load required for correcting the instantaneous value can be significantly reduced.
(4c)上記実施形態では、物標の検出頻度、検出される位置のばらつき、及び物標の種類に基づいて静止信頼度Lを算出し、静止信頼度Lを用いて基準値を抽出しているが、本開示は、これに限定されるものではない。例えば、位置の検出精度が高いフィールドセンサSからの取得される物標の位置(すなわち、瞬時値)を、そのまま基準値として用いてもよい。 (4c) In the above embodiment, the static reliability L is calculated based on the detection frequency of the target, the variation in the detected position, and the type of the target, and the reference value is extracted using the static reliability L. However, this disclosure is not limited to this. For example, the position (that is, the instantaneous value) of the target acquired from the field sensor S having high position detection accuracy may be used as it is as a reference value.
(4d)本開示に記載の処理部52及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部52及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部52及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。処理部52に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(4d) The
(4e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4e) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
(4f)上述したサーバ5として実現される情報統合装置の他、当該情報統合装置を構成要素とするシステム、当該情報統合装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、情報補正方法など、種々の形態で本開示を実現することもできる。
(4f) In addition to the information integration device realized as the
5…サーバ、51…通信器、52…処理部、53…記憶部、521…データ補正部、522…情報統合部、523…基準抽出部。 5 ... Server, 51 ... Communication device, 52 ... Processing unit, 53 ... Storage unit, 521 ... Data correction unit, 522 ... Information integration unit, 523 ... Reference extraction unit.
Claims (7)
あらかじめ設定された対象領域に存在し、前記グローバル座標で表される停止物の位置を基準値として抽出するように構成された基準抽出部(523)と、
前記フィールドセンサ毎に、該フィールドセンサから得られる前記センサ情報及び前記物標情報から算出され前記グローバル座標で表される前記物標の位置を瞬時値として、前記瞬時値と前記基準値とを比較することで、前記センサ情報が有する誤差の大きさを算出するように構成された誤差算出部(521:S140)と、
前記誤差算出部での算出結果に従って、前記誤差が小さくなるように前記瞬時値を補正するように構成された補正部(521:S150〜S170)と、
前記補正部により補正された瞬時値を用いて、前記複数のフィールドセンサから得られる情報を統合した統合情報を生成するように構成された統合処理部(522)と、
を備える情報統合装置。 From a plurality of field sensors, sensor information including the position and orientation of the field sensor represented by global coordinates, and the position of a target detected by the field sensor and represented by local coordinates with respect to the field sensor. An information acquisition unit (521: S130) configured to repeatedly acquire the target information including the target information, and
A reference extraction unit (523) that exists in a preset target area and is configured to extract the position of a stationary object represented by the global coordinates as a reference value.
For each field sensor, the instantaneous value and the reference value are compared with the position of the target calculated from the sensor information obtained from the field sensor and the target information and represented by the global coordinates as an instantaneous value. By doing so, an error calculation unit (521: S140) configured to calculate the magnitude of the error possessed by the sensor information, and
A correction unit (521: S150 to S170) configured to correct the instantaneous value so that the error becomes smaller according to the calculation result of the error calculation unit.
An integrated processing unit (522) configured to generate integrated information by integrating information obtained from the plurality of field sensors using the instantaneous value corrected by the correction unit.
Information integration device equipped with.
前記基準抽出部は、前記統合処理部で生成される前記統合情報のそれぞれについて、静止していることの信頼度を表す静止信頼度を算出し、該静止信頼度を用いて前記基準値を抽出する
情報統合装置。 The information integration device according to claim 1.
The reference extraction unit calculates a quiescent reliability indicating the reliability of being stationary for each of the integrated information generated by the integrated processing unit, and extracts the reference value using the quiescent reliability. Information integration device.
前記基準抽出部は、過去の処理サイクルでの前記統合情報が示す物標の検出頻度、及び検出される位置のばらつきのうち、少なくとも一方を用い、前記検出頻度が高いほど、前記ばらつきが小さいほど、前記静止信頼度を高くする
情報統合装置。 The information integration device according to claim 2.
The reference extraction unit uses at least one of the variation in the detection frequency and the detection position of the target indicated by the integrated information in the past processing cycle, and the higher the detection frequency and the smaller the variation. , The information integration device that enhances the static reliability.
前記統合処理部が生成する前記統合情報には、前記物標の種類を表す情報が含まれ、
前記基準抽出部は、前記物標の種類によって前記静止信頼度を変化させる
情報統合装置。 The information integration device according to claim 2 or 3.
The integrated information generated by the integrated processing unit includes information indicating the type of the target.
The reference extraction unit is an information integration device that changes the static reliability depending on the type of the target.
前記基準値に対する前記瞬時値のずれ方に規則性があるほど大きな値となる相関値を算出するように構成された相関算出部(521:S140)を更に備え、
前記補正部は、前記誤差及び前記相関値がいずれも予め設定された閾値より大きい場合に補正を実行する
情報統合装置。 The information integration device according to any one of claims 1 to 4.
Further, a correlation calculation unit (521: S140) configured to calculate a correlation value having a regularity in the deviation of the instantaneous value with respect to the reference value is provided.
The correction unit is an information integration device that executes correction when both the error and the correlation value are larger than a preset threshold value.
前記補正部は、前記フィールドセンサの位置及び向きを変数として表した前記瞬時値と前記基準値との誤差を表す誤差関数によって、前記基準値毎に算出される誤差の合計値が最小となるように、前記変数を変換する変換行列を算出し、該変換行列を用いて前記瞬時値を補正する
情報統合装置。 The information integration device according to claim 5.
The correction unit minimizes the total value of the errors calculated for each reference value by the error function representing the error between the instantaneous value and the reference value, which expresses the position and orientation of the field sensor as variables. An information integration device that calculates a transformation matrix that transforms the variables and corrects the instantaneous value using the transformation matrix.
前記誤差と前記相関値との値の組み合わせと、前記瞬時値に対する補正量とを対応づけた補正テーブルを記憶する記憶部(53)を更に備え、
前記補正部は、前記記憶部に記憶された補正テーブルを用いて取得される前記補正量に従って前記瞬時値を補正する
情報統合装置。 The information integration device according to claim 5.
A storage unit (53) for storing a correction table in which the combination of the error and the correlation value and the correction amount for the instantaneous value are associated with each other is further provided.
The correction unit is an information integration device that corrects the instantaneous value according to the correction amount acquired by using the correction table stored in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020095555A JP2021189062A (en) | 2020-06-01 | 2020-06-01 | Information integrating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020095555A JP2021189062A (en) | 2020-06-01 | 2020-06-01 | Information integrating device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021189062A true JP2021189062A (en) | 2021-12-13 |
Family
ID=78849415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020095555A Pending JP2021189062A (en) | 2020-06-01 | 2020-06-01 | Information integrating device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021189062A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038640A (en) * | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | External recognition device for vehicle |
US20100191391A1 (en) * | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
JP2015087352A (en) * | 2013-11-01 | 2015-05-07 | 株式会社東芝 | Traveling speed estimation device, still object classification device and traveling speed estimation method |
JP2017040530A (en) * | 2015-08-19 | 2017-02-23 | 株式会社日立製作所 | Moving body measurement system |
JP2020067402A (en) * | 2018-10-25 | 2020-04-30 | 株式会社デンソー | Sensor calibration method and sensor calibration apparatus |
-
2020
- 2020-06-01 JP JP2020095555A patent/JP2021189062A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038640A (en) * | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | External recognition device for vehicle |
US20100191391A1 (en) * | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
JP2015087352A (en) * | 2013-11-01 | 2015-05-07 | 株式会社東芝 | Traveling speed estimation device, still object classification device and traveling speed estimation method |
JP2017040530A (en) * | 2015-08-19 | 2017-02-23 | 株式会社日立製作所 | Moving body measurement system |
JP2020067402A (en) * | 2018-10-25 | 2020-04-30 | 株式会社デンソー | Sensor calibration method and sensor calibration apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9952597B2 (en) | Apparatus for correcting vehicle location | |
US20220215673A1 (en) | Device, system, and method for generating occupancy grid map | |
US9767372B2 (en) | Target detection apparatus and target detection method | |
JP2018036067A (en) | Own vehicle position recognition device | |
CN113419258B (en) | Positioning abnormality detection method and related equipment thereof | |
JP7155284B2 (en) | Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium | |
CN114111820B (en) | Infrastructure sensor device, system, position correction method, and storage medium | |
JP2017138660A (en) | Object detection method, object detection device and program | |
WO2018212292A1 (en) | Information processing device, control method, program and storage medium | |
JPWO2018212294A1 (en) | Self-position estimation device, control method, program, and storage medium | |
JP2017067727A (en) | Position estimation device | |
US11754403B2 (en) | Self-position correction method and self-position correction device | |
JP2016197280A (en) | Image processing device | |
JP2018179926A (en) | Object recognition processing apparatus, object recognition processing method, and vehicle control system | |
JP2021189062A (en) | Information integrating device | |
US11740103B2 (en) | Map creation device, map creation system, map creation method, and storage medium | |
KR101364047B1 (en) | Method for estimating location based on object recognition using kalman filter | |
WO2022065045A1 (en) | Automatic driving device | |
JP6820762B2 (en) | Position estimator | |
JP2020046411A (en) | Data structure, storage device, terminal device, server device, control method, program, and storage medium | |
WO2022230449A1 (en) | Degree of movement estimation device, degree of movement estimation method, and degree of movement estimation program | |
JP7277412B2 (en) | Target tracker | |
JP2022098635A (en) | Device and method for operating reliability of position of owned vehicle, vehicle controller, and method for controlling vehicle | |
JP2020046413A (en) | Data structure, storage device, terminal device, server device, control method, program, and storage medium | |
US11994582B2 (en) | Inverse radar sensor model and evidential grid mapping processors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240109 |