JP2021189062A - Information integrating device - Google Patents

Information integrating device Download PDF

Info

Publication number
JP2021189062A
JP2021189062A JP2020095555A JP2020095555A JP2021189062A JP 2021189062 A JP2021189062 A JP 2021189062A JP 2020095555 A JP2020095555 A JP 2020095555A JP 2020095555 A JP2020095555 A JP 2020095555A JP 2021189062 A JP2021189062 A JP 2021189062A
Authority
JP
Japan
Prior art keywords
information
target
value
sensor
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020095555A
Other languages
Japanese (ja)
Inventor
健 亢
Jian Kang
充啓 夏目
Mitsuhiro Natsume
規史 神田
Norifumi Kanda
亮 田村
Akira Tamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2020095555A priority Critical patent/JP2021189062A/en
Publication of JP2021189062A publication Critical patent/JP2021189062A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

To provide technology that suppresses errors of integrated information that is objected by integrating information pieces obtained from a plurality of sensors.SOLUTION: A reference extraction unit 523 extracts the positions of stopped objects existing in an area of interest and represented by global coordinates. A data correction unit 521 repeatedly acquires sensor information represented by global coordinates and target information represented by local coordinates from a plurality of field sensors. Further, the data correction unit 521 compares an instantaneous value calculated from the sensor information and target information and represented by global coordinates with a reference value, thereby detecting the magnitude of an error that the sensor information has and correcting the instantaneous value in accordance with detection results so that the error becomes smaller.SELECTED DRAWING: Figure 5

Description

本開示は、複数のセンサから得られる情報を統合する技術に関する。 The present disclosure relates to a technique for integrating information obtained from a plurality of sensors.

車両等の移動体に搭載されたセンサを含む複数種類のセンサの検出情報をインテリジェントに組み合わせてシステムの性能向上、及び機能実現を図ることが行われている。このようなシステムでは、センサから取得した情報を、それぞれのセンサで使用されるローカルな座標から、システムで共通に使用されるグローバルな座標に変換してから情報を統合する必要がある。この場合、移動体の位置や向きが正確にわかっていないと、物標の位置情報に大きな誤差が生じる。 The detection information of a plurality of types of sensors including the sensor mounted on a moving body such as a vehicle is intelligently combined to improve the performance and realize the function of the system. In such a system, it is necessary to convert the information acquired from the sensors from the local coordinates used by each sensor to the global coordinates commonly used by the system before integrating the information. In this case, if the position and orientation of the moving body are not accurately known, a large error will occur in the position information of the target.

特許文献1には、全球測位衛星システム(以下、GNSS)によって検出されるセンサの位置情報を用いて、センサによって検出される物標の位置情報を補正する技術が記載されている。 Patent Document 1 describes a technique for correcting the position information of a target detected by the sensor by using the position information of the sensor detected by the global positioning satellite system (hereinafter referred to as GNSS).

特表2017−513020号公報Special Table 2017-513020

しかしながら、発明者の詳細な検討の結果、特許文献1に記載の従来技術では以下の課題が見出された。すなわち、市街地の遮蔽、悪天候等の影響によりGNSSの精度が低下する場合、補正精度が劣化するという課題があった。 However, as a result of detailed examination by the inventor, the following problems have been found in the prior art described in Patent Document 1. That is, there is a problem that the correction accuracy deteriorates when the accuracy of GNSS deteriorates due to the influence of the shielding of the urban area, bad weather, and the like.

また、GNSS情報は、移動体の急激な状態の変化、例えば、スリップによる進行方向の変化等に対する応答性が低いという課題もあった。
本開示の一つの局面では、複数のセンサから得られる情報を統合することで得られる統合情報の誤差を抑制する技術を提供する。
Further, the GNSS information has a problem that the responsiveness to a sudden change in the state of the moving body, for example, a change in the traveling direction due to slipping, is low.
One aspect of the present disclosure is to provide a technique for suppressing an error in the integrated information obtained by integrating the information obtained from a plurality of sensors.

本開示の一態様は、情報統合装置であって、情報取得部(521:S130)と、基準抽出部(523)と、誤差算出部(521:S140)と、補正部(521:S150〜S170)と、統合処理部(522)と、を備える。 One aspect of the present disclosure is an information integration device, which is an information acquisition unit (521: S130), a reference extraction unit (523), an error calculation unit (521: S140), and a correction unit (521: S150 to S170). ) And an integrated processing unit (522).

情報取得部は、複数のフィールドセンサから、センサ情報及び物標情報を繰り返し取得するように構成される。センサ情報は、グローバル座標で表されるフィールドセンサの位置及び向きを含む情報である。物標情報は、フィールドセンサにより検出され、フィールドセンサを基準としたローカル座標で表される物標の位置を含む情報である。基準抽出部は、あらかじめ設定された対象領域に存在し、グローバル座標で表される停止物の位置を基準値として抽出するように構成される。誤差算出部は、フィールドセンサ毎に、フィールドセンサから得られるセンサ情報及び物標情報から算出されグローバル座標で表される物標の位置を瞬時値として、瞬時値と基準値とを比較することで、センサ情報が有する誤差の大きさを算出するように構成される。補正部は、誤差算出部での算出結果に従って、誤差が小さくなるよう瞬時値を補正するように構成される。統合処理部は、補正部により補正された瞬時値を用いて、複数のフィールドセンサから得られる情報を統合した統合情報を生成するように構成される。 The information acquisition unit is configured to repeatedly acquire sensor information and target information from a plurality of field sensors. The sensor information is information including the position and orientation of the field sensor represented by global coordinates. The target information is information that is detected by the field sensor and includes the position of the target expressed in local coordinates with respect to the field sensor. The reference extraction unit exists in a preset target area and is configured to extract the position of a stop object represented by global coordinates as a reference value. The error calculation unit compares the instantaneous value with the reference value for each field sensor, using the position of the target calculated from the sensor information obtained from the field sensor and the target information and expressed in global coordinates as the instantaneous value. , It is configured to calculate the magnitude of the error that the sensor information has. The correction unit is configured to correct the instantaneous value so that the error becomes small according to the calculation result of the error calculation unit. The integrated processing unit is configured to generate integrated information that integrates information obtained from a plurality of field sensors by using the instantaneous value corrected by the correction unit.

このような構成によれば、フィールドセンサから取得される情報に基づく瞬時値と、停止物の位置を表す基準値とを比較することで、センサ情報に含まれる誤差の大きさを算出し、その誤差が小さくなるように瞬時値を補正する。従って、フィールドセンサの位置や向き、ひいてはフィールドセンサを搭載する移動体の移動に起因する誤差を効率よく抑制できる。また、このように補正された瞬時値を用いることで、他のセンサの瞬時値と統合することで生成される統合情報の精度を向上させることができる。 According to such a configuration, the magnitude of the error included in the sensor information is calculated by comparing the instantaneous value based on the information acquired from the field sensor with the reference value indicating the position of the stationary object, and the magnitude of the error is calculated. Correct the instantaneous value so that the error becomes small. Therefore, it is possible to efficiently suppress an error caused by the position and orientation of the field sensor and, by extension, the movement of the moving body on which the field sensor is mounted. Further, by using the instantaneous value corrected in this way, the accuracy of the integrated information generated by integrating with the instantaneous value of another sensor can be improved.

交通管制システムの構成を示すブロック図である。It is a block diagram which shows the structure of a traffic control system. 車載端末の構成を示すブロック図である。It is a block diagram which shows the structure of an in-vehicle terminal. インフラセンサの構成を示すブロック図である。It is a block diagram which shows the structure of an infrastructure sensor. 携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of a mobile terminal. サーバの構成を示すブロック図である。It is a block diagram which shows the configuration of a server. サーバが実行するデータ補正処理のフローチャートである。It is a flowchart of the data correction process executed by a server. データ補正処理で使用する誤差ε及び相関値γについての説明図である。It is explanatory drawing about the error ε and the correlation value γ used in the data correction processing. サーバが実行する基準抽出処理のフローチャートである。It is a flowchart of the standard extraction process executed by a server. 車両がスリップ等することによって生じる誤差についての説明図である。It is explanatory drawing of the error caused by slipping of a vehicle. 瞬時値の補正に平均を用いた場合と、相関性を利用した場合とでの効果の差を示す説明図である。It is explanatory drawing which shows the difference of the effect between the case where the average is used for the correction of the instantaneous value, and the case where the correlation is used.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す交通管制システム1は、交通環境下に存在する複数のセンサから取得した観測情報を統合して物標位置・運動等を推定し、交通環境にある各端末に推定結果を通知することで、自動運転及び運転支援の精度を向上させる。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. composition]
The traffic control system 1 shown in FIG. 1 integrates observation information acquired from a plurality of sensors existing in a traffic environment to estimate a target position, motion, etc., and notifies each terminal in the traffic environment of the estimation result. This will improve the accuracy of automatic driving and driving support.

交通管制システム1は、車載端末2と、インフラセンサ3と、携帯端末4と、サーバ5とを備える。サーバ5が情報統合装置に相当する。
[1−1.車載端末]
図2に示すように、車載端末2は、車両に搭載される。車載端末2は、車内通信器21と、車外通信器22と、処理部23とを備える。車内通信器21は、当該車載端末2を搭載する車両(以下、自車両)の車載ネットワークを介して、種々の情報を取得する。車外通信器22は、無線通信によって、サーバ5との通信を実行する。処理部23は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。
The traffic control system 1 includes an in-vehicle terminal 2, an infrastructure sensor 3, a mobile terminal 4, and a server 5. The server 5 corresponds to an information integration device.
[1-1. In-vehicle terminal]
As shown in FIG. 2, the in-vehicle terminal 2 is mounted on the vehicle. The in-vehicle terminal 2 includes an in-vehicle communication device 21, an out-of-vehicle communication device 22, and a processing unit 23. The in-vehicle communication device 21 acquires various information via the in-vehicle network of the vehicle (hereinafter referred to as own vehicle) on which the in-vehicle terminal 2 is mounted. The out-of-vehicle communication device 22 executes communication with the server 5 by wireless communication. The processing unit 23 is composed of a microcomputer including a CPU and a memory such as a ROM and a RAM, and executes processing for realizing various functions.

車載端末2は、処理部23が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部231と、統合情報提供部232とを備える。
情報収集部231は、車内通信器21を介して、物標情報、センサ情報、及び車両状態情報を繰り返し収集し、車外通信器22を介してサーバ5に送信する。
The in-vehicle terminal 2 includes an information collecting unit 231 and an integrated information providing unit 232 as a functional block representing a function realized by a process executed by the processing unit 23.
The information collecting unit 231 repeatedly collects target information, sensor information, and vehicle state information via the in-vehicle communication device 21, and transmits the target information, sensor information, and vehicle state information to the server 5 via the out-of-vehicle communication device 22.

物標情報は、車両に搭載された周辺監視センサ群100にて検知される物標に関する観測情報である。周辺監視センサ群100には、ミリ波レーダ101、ライダー102、超音波センサ103、及びカメラ104等が含まれてもよい。以下では、周辺監視センサ群100に属するこれらの構成を、単にセンサ101〜104ともいう。物標情報は、情報生成源となるセンサ101〜104によって含まれる情報が異なるが、いずれの場合も、検知した物標の位置が少なくとも含まれる。物標情報には、物標の位置の他、物標までの距離、物標の移動速度及び移動方向、物標の大きさ、及び物標の種類等が含まれてもよい。なお、物標の位置、物標までの距離、物標の移動速度及び移動方向は、車載端末2を基準とした相対値、すなわち、ローカルな座標を用いて表される。 The target information is observation information related to the target detected by the peripheral monitoring sensor group 100 mounted on the vehicle. Peripheral monitoring sensor group 100 may include a millimeter wave radar 101, a lidar 102, an ultrasonic sensor 103, a camera 104, and the like. Hereinafter, these configurations belonging to the peripheral monitoring sensor group 100 are also simply referred to as sensors 101 to 104. The target information includes different information depending on the sensors 101 to 104 that are information generation sources, but in each case, at least the position of the detected target is included. In addition to the position of the target, the target information may include the distance to the target, the moving speed and direction of the target, the size of the target, the type of the target, and the like. The position of the target, the distance to the target, the moving speed of the target, and the moving direction are represented by using relative values with respect to the in-vehicle terminal 2, that is, local coordinates.

センサ情報には、個々のセンサ101〜104の性能に関する性能情報、及び自車両に対する取付状態を表す取付情報が含まれる。取付情報には、路面からの高さ、車両の直進方向及び水平方向に対する取付角度が含まれる。性能情報には、センサ種別、検知距離範囲、及び検知角度範囲が含まれる。検知距離範囲は、物標の検知を許容精度で行うことができる距離の範囲である。検知角度範囲は、物標の検知を許容精度で行うことができる角度の範囲である。ここでは、検知距離範囲及び検知角度範囲によって決まる検知エリアの中心方向をセンサ正面方向として、取付角度は、センサ正面方向の向きを表す。また、検知角度範囲は、センサ正面方向を基準(すなわち、0°)として表す。 The sensor information includes performance information regarding the performance of the individual sensors 101 to 104, and mounting information indicating the mounting state for the own vehicle. The mounting information includes the height from the road surface, the mounting angle with respect to the straight direction and the horizontal direction of the vehicle. Performance information includes sensor type, detection distance range, and detection angle range. The detection distance range is a range of distances at which the target can be detected with an allowable accuracy. The detection angle range is a range of angles at which the target can be detected with an allowable accuracy. Here, the center direction of the detection area determined by the detection distance range and the detection angle range is the sensor front direction, and the mounting angle represents the direction in the sensor front direction. Further, the detection angle range is expressed with the front direction of the sensor as a reference (that is, 0 °).

車両状態情報には、車両に搭載された位置センサ110にて検出される車両の位置及び進行方向が少なくとも含まれる。位置センサ110には、車両に搭載されたセンサから取得される情報だけを用いて自位置を推定する自律航法を実現するための各種センサが少なくとも含まれる。位置センサ110には、GNSSを利用して情報を得る装置が含まれてもよい。なお、位置センサ110の検出結果は、グローバル座標を用いて表される。つまり、車両状態情報とセンサ情報に含まれる取付情報とを組み合わせることで、グローバル座標におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。 The vehicle state information includes at least the position and the traveling direction of the vehicle detected by the position sensor 110 mounted on the vehicle. The position sensor 110 includes at least various sensors for realizing autonomous navigation that estimates its own position using only the information acquired from the sensor mounted on the vehicle. The position sensor 110 may include a device for obtaining information using GNSS. The detection result of the position sensor 110 is represented using global coordinates. That is, by combining the vehicle state information and the mounting information included in the sensor information, it is possible to specify the sensor position in the global coordinates and the orientation in the front direction of the sensor.

統合情報提供部232は、サーバ5から自車両の周辺に存在する物標等に関する統合情報を、車外通信器22を介して受信し、受信した統合情報を、車内通信器21を介して、自動運転及び運転支援に関わる車両制御を実行する各ECUに提供する。 The integrated information providing unit 232 receives integrated information about targets and the like existing around the own vehicle from the server 5 via the external communication device 22, and automatically receives the received integrated information via the in-vehicle communication device 21. It is provided to each ECU that executes vehicle control related to driving and driving support.

[1−2.インフラセンサ]
インフラセンサ3は、道路標識、信号機等の交通インフラの他、道路脇の建造物等に設置される。図3に示すように、インフラセンサ3は、センサ本体31と、通信器32と、処理部33と、を備える。
[1-2. Infrastructure sensor]
The infrastructure sensor 3 is installed in a traffic infrastructure such as a road sign and a traffic light, as well as in a building on the side of the road. As shown in FIG. 3, the infrastructure sensor 3 includes a sensor main body 31, a communication device 32, and a processing unit 33.

センサ本体31は、例えば、カメラ311及びレーダ312等を備える。センサ本体31は、カメラ311及びレーダ312におけるセンサ正面方向の向き(すなわち、センサ本体31の姿勢)を処理部33からの指示によって変化可能に構成される。以下では、カメラ311及びレーダ312を、単にセンサ311,312ともいう。 The sensor body 31 includes, for example, a camera 311 and a radar 312. The sensor main body 31 is configured so that the orientation of the camera 311 and the radar 312 in the front direction of the sensor (that is, the posture of the sensor main body 31) can be changed by an instruction from the processing unit 33. Hereinafter, the camera 311 and the radar 312 are also simply referred to as sensors 311, 312.

通信器32は、有線通信網又は無線通信網を介したサーバ5との通信を実行する。
処理部33は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。インフラセンサ3は、処理部33が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部331と、姿勢制御部332とを備える。
The communication device 32 executes communication with the server 5 via a wired communication network or a wireless communication network.
The processing unit 33 is composed of a microcomputer including a CPU and a memory such as a ROM and a RAM, and executes processing for realizing various functions. The infrastructure sensor 3 includes an information collecting unit 331 and a posture control unit 332 as functional blocks representing functions realized by the processing executed by the processing unit 33.

情報収集部331は、センサ本体31から物標情報を繰り返し収集し、収集した物標情報を、センサ情報及び姿勢情報と共に、通信器32を介してサーバ5に送信する。
物標情報及びセンサ情報は、基本的には、車載端末2の情報収集部231で収集される物標情報及びセンサ情報と同様である。但し、センサ情報に含まれる取付情報は、センサが予め設定された基準姿勢にあるときのセンサ正面方向の向き(以下、基準正面方向)が含まれる。姿勢情報は、姿勢制御部332によって決まるセンサ本体31の姿勢、すなわち、基準正面方向に対するセンサ正面方向の向きが含まれる。つまり、センサ情報に含まれる取付情報と、姿勢情報とを組み合わせることで、グローバル座標におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The information collecting unit 331 repeatedly collects the target target information from the sensor main body 31, and transmits the collected target target information together with the sensor information and the attitude information to the server 5 via the communication device 32.
The target information and the sensor information are basically the same as the target information and the sensor information collected by the information collecting unit 231 of the in-vehicle terminal 2. However, the mounting information included in the sensor information includes the orientation in the front direction of the sensor (hereinafter referred to as the reference front direction) when the sensor is in the preset reference posture. The posture information includes the posture of the sensor main body 31 determined by the posture control unit 332, that is, the direction in the front direction of the sensor with respect to the reference front direction. That is, by combining the mounting information included in the sensor information and the attitude information, it is possible to specify the sensor position in the global coordinates and the orientation in the front direction of the sensor.

なお、インフラセンサ3が、センサ本体31の姿勢を変更できないように構成されている場合は、姿勢制御部332及び姿勢情報は省略されてもよい。
ここでは、インフラセンサ3において物標情報を生成してサーバ5に提供する場合について説明したが、物標情報の代わりに、センサ本体31から得られる生データをサーバ5に提供するように構成されてもよい。この場合、サーバ5は、インフラセンサ3から取得する生データから物標情報を生成する機能を必要とする。
If the infrastructure sensor 3 is configured so that the posture of the sensor main body 31 cannot be changed, the posture control unit 332 and the posture information may be omitted.
Here, the case where the infrastructure sensor 3 generates the target information and provides it to the server 5 has been described, but instead of the target information, the raw data obtained from the sensor main body 31 is provided to the server 5. You may. In this case, the server 5 needs a function to generate target information from the raw data acquired from the infrastructure sensor 3.

[1−3.携帯端末]
携帯端末4は、歩行者等に携帯される端末である。図4に示すように、携帯端末4は、状況監視センサ群41と、位置センサ42と、通信器43と、処理部44とを備える。
[1-3. Mobile terminal]
The mobile terminal 4 is a terminal carried by a pedestrian or the like. As shown in FIG. 4, the mobile terminal 4 includes a status monitoring sensor group 41, a position sensor 42, a communication device 43, and a processing unit 44.

状況監視センサ群41は、例えば、振動センサ411及び加速度センサ412等が含まれてもよい。状況監視センサ群41は、携帯端末4に加わる振動や加速度を介して携帯端末4を保持する端末保持者の状態を検出する。以下では、振動センサ411及び加速度センサ412を、単にセンサ411,412ともいう。 The situation monitoring sensor group 41 may include, for example, a vibration sensor 411, an acceleration sensor 412, and the like. The situation monitoring sensor group 41 detects the state of the terminal holder holding the mobile terminal 4 via vibration or acceleration applied to the mobile terminal 4. Hereinafter, the vibration sensor 411 and the acceleration sensor 412 are also simply referred to as sensors 411 and 412.

位置センサ42は、GNSSを利用して携帯端末4、ひいては端末保持者の位置及び移動方向を表す位置情報を生成する。なお、携帯端末4の場合、センサの位置を表す位置情報は、携帯端末4を携帯する歩行者等、すなわち、物標の位置情報を表す。 The position sensor 42 uses GNSS to generate position information indicating the position and moving direction of the mobile terminal 4, and thus the terminal holder. In the case of the mobile terminal 4, the position information indicating the position of the sensor represents the position information of a pedestrian or the like carrying the mobile terminal 4, that is, a target.

通信器43は、無線通信によって、サーバ5との通信を実行する。
処理部44は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。
The communication device 43 executes communication with the server 5 by wireless communication.
The processing unit 44 is composed of a microcomputer including a CPU and a memory such as a ROM and a RAM, and executes processing for realizing various functions.

携帯端末4は、処理部44が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部441、及び報知実行部442を備える。
情報収集部441は、状況監視センサ群41での検知結果から、端末保持者の状態を推定した状態情報を生成する。情報収集部441は、生成した状態情報を、状況監視センサ群41に関するセンサ情報、及び位置センサ42にて検出される位置情報と共に、通信器43を介してサーバ5に送信する。但し、センサ情報には、少なくとも性能情報が含まれる。
The mobile terminal 4 includes an information collecting unit 441 and a notification executing unit 442 as functional blocks representing functions realized by processing executed by the processing unit 44.
The information collecting unit 441 generates state information in which the state of the terminal holder is estimated from the detection result of the situation monitoring sensor group 41. The information collecting unit 441 transmits the generated state information to the server 5 via the communication device 43 together with the sensor information regarding the status monitoring sensor group 41 and the position information detected by the position sensor 42. However, the sensor information includes at least performance information.

報知実行部442は、端末保持者の周辺に存在する物標等に関する統合情報を、通信器43を介してサーバ5から受信し、受信した統合情報の内容に従って、必要に応じて端末保持者への報知を行う。報知内容には、端末保持者に接近する物標の存在、及び端末保持者の進行方向における危険の存在等が含まれてもよい。報知方法は、音声による報知、及び振動による報知が含まれてもよい。 The notification execution unit 442 receives integrated information about targets and the like existing around the terminal holder from the server 5 via the communication device 43, and sends the terminal holder as necessary according to the contents of the received integrated information. Is notified. The content of the notification may include the existence of a target approaching the terminal holder, the existence of a danger in the traveling direction of the terminal holder, and the like. The notification method may include voice notification and vibration notification.

以下では、周辺監視センサ群100に属するセンサ101〜104、センサ本体31に属するセンサ311,312、及び状況監視センサ群41に属するセンサ411,412を一括してフィールドセンサSと呼び、個々のフィールドセンサをSiで識別する。iは正整数である。図1では、車両に搭載された周辺監視センサ群100に属するセンサ101〜104のいずれかをS1,S2とし、インフラセンサ3が有するセンサ本体31に属するセンサ311,312のいずれかをS3とする。また、各フィールドセンサS1〜S3の検知エリアをA1〜A3で表す。 In the following, the sensors 101 to 104 belonging to the peripheral monitoring sensor group 100, the sensors 311, 312 belonging to the sensor main body 31, and the sensors 411 and 412 belonging to the situation monitoring sensor group 41 are collectively referred to as a field sensor S, and are referred to as individual fields. Identify the sensor with Si. i is a positive integer. In FIG. 1, any of the sensors 101 to 104 belonging to the peripheral monitoring sensor group 100 mounted on the vehicle is referred to as S1 and S2, and any of the sensors 311, 312 belonging to the sensor main body 31 of the infrastructure sensor 3 is referred to as S3. .. Further, the detection areas of the field sensors S1 to S3 are represented by A1 to A3.

[1−4.サーバ]
サーバ5は、交通環境下に存在する複数のフィールドセンサSiから情報を取得し、取得した情報を統合することで、単一センサの検知に比べ高精度かつロバストな検出を実現する。その検出結果である統合情報を、車載端末2及び携帯端末4に提供する。
[1-4. server]
The server 5 acquires information from a plurality of field sensors Si existing in a traffic environment and integrates the acquired information to realize highly accurate and robust detection as compared with the detection of a single sensor. The integrated information which is the detection result is provided to the in-vehicle terminal 2 and the mobile terminal 4.

図5に示すように、サーバ5は、通信器51と、処理部52と、記憶部53とを備える。
通信器51は、車載端末2、インフラセンサ3、及び携帯端末4との通信を実行する。
処理部52は、CPUと、ROM及びRAM等のメモリと、を備えるマイクロコンピュータにより構成され、種々の機能を実現するための処理を実行する。
As shown in FIG. 5, the server 5 includes a communication device 51, a processing unit 52, and a storage unit 53.
The communication device 51 executes communication with the vehicle-mounted terminal 2, the infrastructure sensor 3, and the mobile terminal 4.
The processing unit 52 is composed of a microcomputer including a CPU and a memory such as a ROM and a RAM, and executes processing for realizing various functions.

サーバ5は、処理部52が実行する処理によって実現される機能を表す機能ブロックとして、データ補正部521と、情報統合部522と、基準抽出部523とを備える。
データ補正部521は、通信器51を介して取得するセンサ情報及び物標情報から特定されるグローバル座標における物標の位置(以下、瞬時値)を、瞬時値に含まれる誤差が低減されるように補正する。データ補正部521での処理の詳細は後述する。
The server 5 includes a data correction unit 521, an information integration unit 522, and a reference extraction unit 523 as functional blocks representing functions realized by the processing executed by the processing unit 52.
The data correction unit 521 reduces the error included in the instantaneous value of the position of the target (hereinafter referred to as the instantaneous value) in the global coordinates specified from the sensor information and the target information acquired via the communication device 51. Correct to. The details of the processing in the data correction unit 521 will be described later.

情報統合部522は、サーバ5での処理の対象となる対象エリアにて検出される物標のそれぞれについて、データ補正部521にて補正された瞬時値の情報を用いて統合情報を生成する。統合情報は、複数のフィールドセンサSiから取得した情報を統合することで生成される物標情報である。更に、情報統合部522は、対象エリアに存在する車載端末2及び携帯端末4に、通信器51を介して統合情報を提供する。 The information integration unit 522 generates integrated information using the instantaneous value information corrected by the data correction unit 521 for each of the targets detected in the target area to be processed by the server 5. The integrated information is target information generated by integrating information acquired from a plurality of field sensors Si. Further, the information integration unit 522 provides integrated information to the in-vehicle terminal 2 and the mobile terminal 4 existing in the target area via the communication device 51.

基準抽出部523は、情報統合部522にて生成される統合情報から、データ補正部521での処理で使用する基準情報を抽出する。以下、基準情報が示す物標の位置を基準値という。基準抽出部523での処理の詳細は後述する。 The reference extraction unit 523 extracts the reference information used in the processing by the data correction unit 521 from the integrated information generated by the information integration unit 522. Hereinafter, the position of the target indicated by the reference information is referred to as a reference value. Details of the processing in the reference extraction unit 523 will be described later.

記憶部53には、対象エリアの地図データ、情報統合部522で生成された統合情報の時系列データ、及びデータ補正部521にて瞬時値の位置を補正する際に使用する変換情報が少なくとも記憶される。 The storage unit 53 stores at least map data of the target area, time-series data of the integrated information generated by the information integration unit 522, and conversion information used when the data correction unit 521 corrects the position of the instantaneous value. Will be done.

[2.処理]
[2−1.データ補正処理]
次に、サーバ5がデータ補正部521としての機能を実現するために実行するデータ補正処理を、図6のフローチャートを用いて説明する。本処理は、一定周期で繰り返し実行される。
[2. process]
[2-1. Data correction processing]
Next, the data correction process executed by the server 5 to realize the function as the data correction unit 521 will be described with reference to the flowchart of FIG. This process is repeatedly executed at regular intervals.

S110では、サーバ5は、記憶部53から基準抽出部523によって抽出された所定個の基準情報に基づき、基準情報にて表される物標が今回の処理サイクルで検出される位置を推定し、その推定された位置を基準値とする。基準情報は、前回の処理サイクルまでに検出されている静止物である可能性の高い物標についての物標情報である。 In S110, the server 5 estimates the position where the target represented by the reference information is detected in the current processing cycle based on the predetermined reference information extracted from the storage unit 53 by the reference extraction unit 523. The estimated position is used as a reference value. The reference information is target information about a target that is likely to be a stationary object that has been detected up to the previous processing cycle.

続くS120では、サーバ5は、前回の処理サイクルから今回の処理サイクルまでの間に通信器51を介して取得された情報の提供元となったフィールドセンサSのうち、後述のS130からS180の処理が未実施であるいずれか一つを対象センサとして選択する。なお、必ずしもすべてのフィールドセンサSを選択対象とする必要はなく、例えば、車両等の自律的に移動する移動体に搭載されたフィールドセンサSのみを選択対象としてもよい。 In the subsequent S120, the server 5 processes S130 to S180, which will be described later, among the field sensors S that are the sources of the information acquired via the communication device 51 between the previous processing cycle and the current processing cycle. Select any one that has not been implemented as the target sensor. It should be noted that it is not always necessary to select all the field sensors S, and for example, only the field sensors S mounted on an autonomously moving moving body such as a vehicle may be selected.

続くS130では、サーバ5は、対象センサから取得した情報に基づいて、対象センサにて検出された物標情報が示す物標のグローバル座標での位置を示す瞬時値を生成する。
続くS140では、サーバ5は、S130で生成された瞬時値の中から、S110で取得した基準値に対応づけられる瞬時値(以下、対応瞬時値)を抽出し、抽出された対応瞬時値と基準値とを用いて誤差ε及び相関値γを算出する。なお、対応瞬時値には、例えば、基準値に最も近い瞬時値が採用される。
In the following S130, the server 5 generates an instantaneous value indicating the position of the target in the global coordinates indicated by the target information detected by the target sensor based on the information acquired from the target sensor.
In the following S140, the server 5 extracts the instantaneous value associated with the reference value acquired in S110 (hereinafter referred to as the corresponding instantaneous value) from the instantaneous values generated in S130, and the extracted corresponding instantaneous value and the reference. The error ε and the correlation value γ are calculated using the value. As the corresponding instantaneous value, for example, the instantaneous value closest to the reference value is adopted.

図7に示すように、誤差εは、基準値と対応瞬時値との距離を、全ての基準値について求めて平均した値である。相関値γは、瞬時値から基準値を見た向き及び基準値までの距離を表すベクトルを誤差ベクトルとして、基準値のそれぞれについて算出される誤差ベクトル間の相関性が高いほど、つまり、誤差の大きさや向きに共通の傾向、すなわち規則性があるほど、大きな値となる。 As shown in FIG. 7, the error ε is a value obtained by calculating and averaging the distance between the reference value and the corresponding instantaneous value for all the reference values. The correlation value γ uses a vector representing the direction from the instantaneous value to the reference value and the distance to the reference value as an error vector, and the higher the correlation between the error vectors calculated for each of the reference values, that is, the error. The more common the tendency of size and orientation, that is, the regularity, the larger the value.

続くS150では、サーバ5は、誤差εが閾値TH1より大きいか否かを判定する。閾値TH1は、瞬時値に許容される誤差の上限値以下に設定される。サーバ5は、ε>TH1であると判定した場合は、瞬時値の補正が必要であるとして処理をS160に移行し、ε≦TH1であると判定した場合は、瞬時値の補正は不要であるとして、処理をS190に移行する。 In the following S150, the server 5 determines whether or not the error ε is larger than the threshold value TH1. The threshold value TH1 is set to be equal to or lower than the upper limit of the error allowed for the instantaneous value. If the server 5 determines that ε> TH1, the process shifts to S160 because the instantaneous value needs to be corrected, and if it determines that ε ≦ TH1, the instantaneous value correction is unnecessary. As a result, the process shifts to S190.

S160では、サーバ5は、相関値γが閾値TH2により大きいか否かを判定する。閾値TH2は、瞬時値を補正した場合に、誤差εを閾値TH1以下に抑えることができるよう実験的に決定される。サーバ5は、γ>TH2であると判定した場合は、誤差ベクトル間の相関性を利用した実効性のある補正が可能であるとして、処理をS170に移行し、γ≦TH2であると判定した場合は、実効性のある補正が不能であるとして、処理をS180に移行する。 In S160, the server 5 determines whether or not the correlation value γ is larger than the threshold value TH2. The threshold value TH2 is experimentally determined so that the error ε can be suppressed to the threshold value TH1 or less when the instantaneous value is corrected. When the server 5 determines that γ> TH2, the server 5 shifts the processing to S170 and determines that γ≤TH2, assuming that effective correction using the correlation between the error vectors is possible. In that case, it is assumed that effective correction is impossible, and the process is shifted to S180.

S170では、サーバ5は、誤差ベクトル間の相関性を利用して、各瞬時値の位置を補正して、処理をS190に進める。具体的には、例えば、センサ情報が示す対象センサの位置及び向きを変数Xとし、変数Xを補正するために、変数に作用させる変換行列Aを算出する。このとき、変換行列Aを作用させた後の変数AXと、ローカル座標で表された物標の位置Cを用いて瞬時値f(AX,C)を算出する。fは、瞬時値の算出に用いる関数である。更に、瞬時値f(AX,C)と基準値Yとの間の誤差(すなわち、距離)E=|f(AX,C)−Y|を、すべての基準値について算出し、その合計値が最小となるような変換行列Aを算出する。換言すれば、誤差Eの合計値を算出する誤差関数の値が最小となるように変換行列Aを算出する。変換行列Aの算出には、例えば、公知の正規方程式を用いることができる。このようにして算出された変換行列Aを用いて算出される瞬時値f(AX,C)を、補正された瞬時値とする。 In S170, the server 5 corrects the position of each instantaneous value by utilizing the correlation between the error vectors, and advances the processing to S190. Specifically, for example, the position and orientation of the target sensor indicated by the sensor information are set as the variable X, and the transformation matrix A acting on the variable is calculated in order to correct the variable X. At this time, the instantaneous value f (AX, C) is calculated using the variable AX after the transformation matrix A is applied and the position C of the target represented by the local coordinates. f is a function used for calculating the instantaneous value. Further, an error (that is, a distance) E = | f (AX, C) -Y | between the instantaneous value f (AX, C) and the reference value Y is calculated for all the reference values, and the total value is The transformation matrix A that is the minimum is calculated. In other words, the transformation matrix A is calculated so that the value of the error function for calculating the total value of the error E is minimized. For the calculation of the transformation matrix A, for example, a known normal equation can be used. The instantaneous value f (AX, C) calculated by using the transformation matrix A calculated in this way is defined as the corrected instantaneous value.

つまり、誤差ベクトルの相関値γが高い場合、各瞬時値には、同じ法則に従った誤差が付加されていると考えることができ、その法則を表す変換行列Aを算出する。変換行列Aを規定するパラメータは、変数X(すなわち、対象センサの位置及び向き)に対する最適な補正量を意味する。 That is, when the correlation value γ of the error vector is high, it can be considered that an error according to the same law is added to each instantaneous value, and the transformation matrix A representing the law is calculated. The parameter defining the transformation matrix A means the optimum correction amount for the variable X (that is, the position and orientation of the target sensor).

S180では、サーバ5は、対象センサから取得した情報に基づく瞬時値を破棄して、処理をS190に進める。なお、瞬時値を破棄する代わりに、瞬時値に、位置の精度が低下していることを表すフラグを付与して、瞬時値の扱いを後段の処理に決めさせるようにしてもよい。 In S180, the server 5 discards the instantaneous value based on the information acquired from the target sensor and proceeds to the process in S190. Instead of discarding the instantaneous value, a flag indicating that the accuracy of the position is deteriorated may be added to the instantaneous value so that the handling of the instantaneous value is decided in the subsequent processing.

S190では、サーバ5は、全てのフィールドセンサSを対象センサとして選択済みであるか否かを判定し、未選択のフィールドセンサSがある場合は処理をS120に戻し、全てのフィールドセンサSが選択済みである場合は、処理を終了する。 In S190, the server 5 determines whether or not all the field sensors S have been selected as the target sensors, and if there is an unselected field sensor S, the process is returned to S120, and all the field sensors S select. If it has already been completed, the process ends.

なお、S130が情報取得部に相当し、S140が誤差算出部及び相関算出部に相当し、S150〜S170が補正部に相当する。
[2−2.基準抽出処理]
サーバ5が基準抽出部523としての機能を実現するために実行する基準抽出処理を、図8フローチャートを用いて説明する。本処理は、情報統合部522としての機能を実現するための処理である統合処理の実行後に実行される。なお、統合処理では、トラッキング等の処理が行われるほか、複数のセンサで検出された物標情報を統合した統合情報が生成される。統合情報には、物標の位置、移動速度、及び移動方向の他、物標の種類(例えば、車両、人、及び建造物等)を表す情報が付与されてもよい。統合処理によって生成された統合情報は、順次、記憶部53に記憶される。
Note that S130 corresponds to the information acquisition unit, S140 corresponds to the error calculation unit and the correlation calculation unit, and S150 to S170 correspond to the correction unit.
[2-2. Criteria extraction process]
The reference extraction process executed by the server 5 in order to realize the function as the reference extraction unit 523 will be described with reference to the flowchart of FIG. This process is executed after the execution of the integrated process, which is a process for realizing the function as the information integration unit 522. In the integrated process, in addition to processing such as tracking, integrated information is generated by integrating the target information detected by a plurality of sensors. In addition to the position, moving speed, and moving direction of the target, the integrated information may be provided with information indicating the type of the target (for example, a vehicle, a person, a building, etc.). The integrated information generated by the integration process is sequentially stored in the storage unit 53.

S210では、サーバ5は、統合処理によって位置が特定され、停止しているとみなすことができる物標(以下、停止物)の一つを、対象物標として選択する。ここでは、移動速度の絶対値が所定値以下の場合を停止しているとみなす。 In S210, the server 5 selects one of the targets (hereinafter, stopped objects) whose position is specified by the integration process and can be regarded as stopped as the target target. Here, when the absolute value of the moving speed is equal to or less than the predetermined value, it is considered to be stopped.

続くS220では、サーバ5は、対象物標が静止した物標であることの信頼度を表す静止信頼度Lの初期値を設定する。静止信頼度Lの初期値は、すべての物標で同じ値であってもよいし、例えば、トラッキングにより、過去の処理サイクルでの検出頻度が多い物標又は連続して検出された回数が多い物標ほど静止信頼度Lを高い値に設定してもよい。 In the following S220, the server 5 sets an initial value of the static reliability L indicating the reliability that the target target is a stationary target. The initial value of the quiescent reliability L may be the same value for all targets, for example, a target frequently detected in the past processing cycle or a large number of consecutive detections by tracking. The static reliability L may be set to a higher value as the target is.

続くS230では、サーバ5は、記憶部53に記憶された対象物標に関する時系列データに基づき、検出される位置のばらつき度σを算出する。なお、位置のばらつき度σだけでなく、速度のばらつき度を算出してもよい。 In the following S230, the server 5 calculates the degree of variation σ of the detected position based on the time-series data regarding the object target stored in the storage unit 53. It should be noted that not only the degree of variation in position σ but also the degree of variation in speed may be calculated.

続くS240では、サーバ5は、S230で算出されたばらつき度σが閾値TH3より小さいか否かを判定する。閾値TH3は、例えば、フィールドセンサSの測定誤差の上限値以下に設定される。サーバ5は、σ<TH3であると判定した場合は、処理をS250に移行し、σ≧TH3であると判定した場合は、処理をS260に移行する。 In the following S240, the server 5 determines whether or not the variation degree σ calculated in S230 is smaller than the threshold value TH3. The threshold value TH3 is set, for example, to be equal to or lower than the upper limit of the measurement error of the field sensor S. If it is determined that σ <TH3, the server 5 shifts the process to S250, and if it determines that σ ≧ TH3, the server 5 shifts the process to S260.

S250では、サーバ5は、対象物標の静止信頼度Lを増加させて、処理をS260に進める。なお、静止信頼度Lの増加量は、固定値であってもよいし、例えば、バラツキ度Vが小さいほど大きな値となる可変値であってもよい。 In S250, the server 5 increases the static reliability L of the target target and advances the process to S260. The amount of increase in the static reliability L may be a fixed value, or may be, for example, a variable value that becomes larger as the degree of variation V is smaller.

S260では、サーバ5は、対象物標の種類がランドマークとして良く知られた建造物であるか否か、すなわち、静止物であることが確実な物標であるか否かを判定する。サーバ5は、ランドマークであると判定した場合は、処理をS270に移行し、ランドマークでないと判定した場合は、処理をS280に移行する。 In S260, the server 5 determines whether or not the type of the target object is a building well known as a landmark, that is, whether or not it is a target that is sure to be a stationary object. If the server 5 determines that it is a landmark, it shifts the process to S270, and if it determines that it is not a landmark, it shifts the process to S280.

S270では、サーバ5は、対象物標の静止信頼度Lを増加させて、処理をS280に進める。なお、静止信頼度Lの増加量は、固定値であってもよいし、例えば、ランドマークの種類、及びランドマークまでの距離のうち少なくとも一方に応じて異なる値となる可変値であってもよい。 In S270, the server 5 increases the static reliability L of the target target and advances the process to S280. The amount of increase in the static reliability L may be a fixed value, or may be a variable value that is different depending on at least one of the type of landmark and the distance to the landmark, for example. good.

S280では、サーバ5は、静止信頼度Lが閾値TH4より大きいか否かを判定し、L>TH4であると判定した場合は、処理をS290に移行し、L≦TH4であると判定した場合は、処理をS300に移行する。閾値TH4は、基準情報が適度な数だけ抽出されるように実験的に設定される。 In S280, the server 5 determines whether or not the quiesce reliability L is larger than the threshold value TH4, and if it is determined that L> TH4, the process shifts to S290 and it is determined that L ≦ TH4. Shifts the process to S300. The threshold value TH4 is set experimentally so that an appropriate number of reference information is extracted.

S290では、サーバ5は、対象物標についての統合情報を基準情報として抽出し、処理をS300に進める。
S300では、サーバ5は、情報統合処理で位置情報が算出されたすべての停止物が対象物標として選択されたか否かを判定し、未選択の停止物が存在する場合は、処理をS210に戻し、全ての停止物が選択されていれば処理を終了する。
In S290, the server 5 extracts the integrated information about the target target as the reference information, and proceeds to the process in S300.
In S300, the server 5 determines whether or not all the stopped objects whose position information has been calculated in the information integration process has been selected as the target target, and if there are unselected stopped objects, the process is set to S210. Return, and if all the stopped objects are selected, the process ends.

[3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(3a)サーバ5では、フィールドセンサSの検出結果に基づく瞬時値を、静止信頼度Lが高い物標の位置である基準値と比較し、誤差εが閾値TH1より大きく、かつ相関値γがTH2より大きい場合に、誤差ベクトル間の相関性を利用して、瞬時値を補正する。
[3. effect]
According to the embodiment described in detail above, the following effects are obtained.
(3a) In the server 5, the instantaneous value based on the detection result of the field sensor S is compared with the reference value which is the position of the target having a high static reliability L, the error ε is larger than the threshold value TH1 and the correlation value γ is. When it is larger than TH2, the instantaneous value is corrected by using the correlation between the error vectors.

つまり、移動体に搭載されたフィールドセンサSの検出値には、移動体の移動に起因する誤差が含まれる。例えば、図9に示すように、車両がスリップすることにより、実際には実線で示す状態にあるにも関わらず、点線で示す状態にあると誤認識すると、検出した物標の位置をグローバル座標に変換したときに大きな誤差が生じる。但し、その誤差は、真値(すなわち、基準値)に対して固有な相関性を有する。 That is, the detected value of the field sensor S mounted on the moving body includes an error due to the movement of the moving body. For example, as shown in FIG. 9, when the vehicle slips and it is erroneously recognized that the vehicle is in the state shown by the dotted line even though it is actually in the state shown by the solid line, the position of the detected target is set to the global coordinates. A large error occurs when converting to. However, the error has an inherent correlation with the true value (that is, the reference value).

従って、その相関性を利用して瞬時値を補正することで、瞬時値の誤差が的確に抑制され、その結果、他のセンサの瞬時値と統合することで生成される統合情報の精度を向上させることができる。 Therefore, by correcting the instantaneous value using the correlation, the error of the instantaneous value is accurately suppressed, and as a result, the accuracy of the integrated information generated by integrating with the instantaneous value of other sensors is improved. Can be made to.

例えば、図10の上段に示すように、基準値と瞬時値との平均値を用いて統合値を生成した場合、瞬時値が有する誤差の半分が統合値の誤差として残り、しかもその誤差は、遠距離であるほど大きくなる。これに対して、図10の下段に示すように、相関性を利用した補正を行うことで、距離に関わらず、すべての瞬時値を同じ程度で真値に近づけることができ、統合値の誤差を抑制できる。 For example, as shown in the upper part of FIG. 10, when an integrated value is generated using the average value of the reference value and the instantaneous value, half of the error of the instantaneous value remains as an error of the integrated value, and the error is The farther the distance, the larger the size. On the other hand, as shown in the lower part of FIG. 10, by performing correction using correlation, all instantaneous values can be brought closer to the true value to the same extent regardless of the distance, and the error of the integrated value can be obtained. Can be suppressed.

(3b)サーバ5では、処理サイクル毎に、瞬時値と基準値とを比較して、その都度、補正量を算出するため、車両のスリップ等の瞬時的に発生する誤差に速やかに対応できる。しかも、瞬時値を時間平均することで誤差の影響を軽減させる場合と比較して、複数の処理サイクルに渡って誤差が残留することを抑制できる。 (3b) Since the server 5 compares the instantaneous value with the reference value for each processing cycle and calculates the correction amount each time, it is possible to quickly deal with an error that occurs instantaneously such as a vehicle slip. Moreover, it is possible to suppress the residual error over a plurality of processing cycles as compared with the case where the influence of the error is reduced by averaging the instantaneous values over time.

(3c)サーバ5では、瞬時値との比較に使用される基準値が、複数のフィールドセンサSの結果を統合した統合情報から抽出される。このため、いずれかのフィールドセンサSが誤作動したとしても、その誤作動の影響を小さく抑えることができ、システムの性能をロバストに維持できる。 (3c) In the server 5, the reference value used for comparison with the instantaneous value is extracted from the integrated information in which the results of the plurality of field sensors S are integrated. Therefore, even if any of the field sensors S malfunctions, the influence of the malfunction can be suppressed to a small extent, and the performance of the system can be maintained robustly.

[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[4. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be variously modified and implemented.

(4a)上記実施携帯では、瞬時値を補正する際に用いる誤差εの閾値TH1、及び相関値γの閾値TH2が、フィールドセンサSの性能等に基づいて設定される例を示したが、本開示はこれに限定されるものではない。例えば、閾値TH1,TH2は、物標情報を利用するアプリケーションに必要な性能を満たすように設定されてもよい。具体的には、車両のルート案内用のナビゲーションでは、閾値TH1,TH2を高く設定することで、瞬時値が補正される頻度を抑制することで処理負荷を軽減してもよい。また、高精度追尾システム、又は事故防止システムは、閾値TH1,TH2を低く設定することで、統合情報の精度が高く維持されるようにしてもよい。 (4a) In the above-mentioned mobile phone, an example is shown in which the threshold value TH1 of the error ε used when correcting the instantaneous value and the threshold value TH2 of the correlation value γ are set based on the performance of the field sensor S and the like. Disclosure is not limited to this. For example, the threshold values TH1 and TH2 may be set so as to satisfy the performance required for the application that uses the target information. Specifically, in the navigation for vehicle route guidance, the processing load may be reduced by suppressing the frequency of correction of the instantaneous value by setting the threshold values TH1 and TH2 high. Further, the high-precision tracking system or the accident prevention system may set the threshold values TH1 and TH2 low so that the accuracy of the integrated information is maintained high.

(4b)上記実施形態では、瞬時値の補正に、正規方程式を用いて算出される変換行列Aを用いる例を示したが、本開示は、これに限定されるものではない。例えば、誤差εと相関値γの組み合わせパターンと、瞬時値の補正量とを対応づけた補正テーブルを予め作成しておき、算出された誤差ε及び相関値γを用いて補正テーブルから得られる補正量を用いて、瞬時値を補正してもよい。この場合、瞬時値の補正に必要な処理負荷を大幅に軽減できる。 (4b) In the above embodiment, an example in which the transformation matrix A calculated by using the normal equation is used for the correction of the instantaneous value is shown, but the present disclosure is not limited to this. For example, a correction table in which the combination pattern of the error ε and the correlation value γ and the correction amount of the instantaneous value are associated with each other is created in advance, and the correction obtained from the correction table using the calculated error ε and the correlation value γ is used. The quantity may be used to correct the instantaneous value. In this case, the processing load required for correcting the instantaneous value can be significantly reduced.

(4c)上記実施形態では、物標の検出頻度、検出される位置のばらつき、及び物標の種類に基づいて静止信頼度Lを算出し、静止信頼度Lを用いて基準値を抽出しているが、本開示は、これに限定されるものではない。例えば、位置の検出精度が高いフィールドセンサSからの取得される物標の位置(すなわち、瞬時値)を、そのまま基準値として用いてもよい。 (4c) In the above embodiment, the static reliability L is calculated based on the detection frequency of the target, the variation in the detected position, and the type of the target, and the reference value is extracted using the static reliability L. However, this disclosure is not limited to this. For example, the position (that is, the instantaneous value) of the target acquired from the field sensor S having high position detection accuracy may be used as it is as a reference value.

(4d)本開示に記載の処理部52及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部52及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部52及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。処理部52に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (4d) The processing unit 52 and methods thereof described in the present disclosure are dedicated provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a computer. Alternatively, the processing unit 52 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the processing unit 52 and its method described in the present disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by. The computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer. The method for realizing the functions of each unit included in the processing unit 52 does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware.

(4e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4e) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.

(4f)上述したサーバ5として実現される情報統合装置の他、当該情報統合装置を構成要素とするシステム、当該情報統合装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、情報補正方法など、種々の形態で本開示を実現することもできる。 (4f) In addition to the information integration device realized as the server 5 described above, a system having the information integration device as a component, a program for operating a computer as the information integration device, a semiconductor memory recording this program, and the like. The present disclosure can also be realized in various forms such as a non-transitional substantive recording medium and an information correction method.

5…サーバ、51…通信器、52…処理部、53…記憶部、521…データ補正部、522…情報統合部、523…基準抽出部。 5 ... Server, 51 ... Communication device, 52 ... Processing unit, 53 ... Storage unit, 521 ... Data correction unit, 522 ... Information integration unit, 523 ... Reference extraction unit.

Claims (7)

複数のフィールドセンサから、グローバル座標で表される前記フィールドセンサの位置及び向きを含むセンサ情報、並びに前記フィールドセンサにより検出され、該フィールドセンサを基準としたローカル座標で表される物標の位置を含む物標情報を繰り返し取得するように構成された情報取得部(521:S130)と、
あらかじめ設定された対象領域に存在し、前記グローバル座標で表される停止物の位置を基準値として抽出するように構成された基準抽出部(523)と、
前記フィールドセンサ毎に、該フィールドセンサから得られる前記センサ情報及び前記物標情報から算出され前記グローバル座標で表される前記物標の位置を瞬時値として、前記瞬時値と前記基準値とを比較することで、前記センサ情報が有する誤差の大きさを算出するように構成された誤差算出部(521:S140)と、
前記誤差算出部での算出結果に従って、前記誤差が小さくなるように前記瞬時値を補正するように構成された補正部(521:S150〜S170)と、
前記補正部により補正された瞬時値を用いて、前記複数のフィールドセンサから得られる情報を統合した統合情報を生成するように構成された統合処理部(522)と、
を備える情報統合装置。
From a plurality of field sensors, sensor information including the position and orientation of the field sensor represented by global coordinates, and the position of a target detected by the field sensor and represented by local coordinates with respect to the field sensor. An information acquisition unit (521: S130) configured to repeatedly acquire the target information including the target information, and
A reference extraction unit (523) that exists in a preset target area and is configured to extract the position of a stationary object represented by the global coordinates as a reference value.
For each field sensor, the instantaneous value and the reference value are compared with the position of the target calculated from the sensor information obtained from the field sensor and the target information and represented by the global coordinates as an instantaneous value. By doing so, an error calculation unit (521: S140) configured to calculate the magnitude of the error possessed by the sensor information, and
A correction unit (521: S150 to S170) configured to correct the instantaneous value so that the error becomes smaller according to the calculation result of the error calculation unit.
An integrated processing unit (522) configured to generate integrated information by integrating information obtained from the plurality of field sensors using the instantaneous value corrected by the correction unit.
Information integration device equipped with.
請求項1に記載の情報統合装置であって、
前記基準抽出部は、前記統合処理部で生成される前記統合情報のそれぞれについて、静止していることの信頼度を表す静止信頼度を算出し、該静止信頼度を用いて前記基準値を抽出する
情報統合装置。
The information integration device according to claim 1.
The reference extraction unit calculates a quiescent reliability indicating the reliability of being stationary for each of the integrated information generated by the integrated processing unit, and extracts the reference value using the quiescent reliability. Information integration device.
請求項2に記載の情報統合装置であって、
前記基準抽出部は、過去の処理サイクルでの前記統合情報が示す物標の検出頻度、及び検出される位置のばらつきのうち、少なくとも一方を用い、前記検出頻度が高いほど、前記ばらつきが小さいほど、前記静止信頼度を高くする
情報統合装置。
The information integration device according to claim 2.
The reference extraction unit uses at least one of the variation in the detection frequency and the detection position of the target indicated by the integrated information in the past processing cycle, and the higher the detection frequency and the smaller the variation. , The information integration device that enhances the static reliability.
請求項2又は請求項3に記載の情報統合装置であって、
前記統合処理部が生成する前記統合情報には、前記物標の種類を表す情報が含まれ、
前記基準抽出部は、前記物標の種類によって前記静止信頼度を変化させる
情報統合装置。
The information integration device according to claim 2 or 3.
The integrated information generated by the integrated processing unit includes information indicating the type of the target.
The reference extraction unit is an information integration device that changes the static reliability depending on the type of the target.
請求項1から請求項4までのいずれか1項に記載の情報統合装置であって、
前記基準値に対する前記瞬時値のずれ方に規則性があるほど大きな値となる相関値を算出するように構成された相関算出部(521:S140)を更に備え、
前記補正部は、前記誤差及び前記相関値がいずれも予め設定された閾値より大きい場合に補正を実行する
情報統合装置。
The information integration device according to any one of claims 1 to 4.
Further, a correlation calculation unit (521: S140) configured to calculate a correlation value having a regularity in the deviation of the instantaneous value with respect to the reference value is provided.
The correction unit is an information integration device that executes correction when both the error and the correlation value are larger than a preset threshold value.
請求項5に記載の情報統合装置であって、
前記補正部は、前記フィールドセンサの位置及び向きを変数として表した前記瞬時値と前記基準値との誤差を表す誤差関数によって、前記基準値毎に算出される誤差の合計値が最小となるように、前記変数を変換する変換行列を算出し、該変換行列を用いて前記瞬時値を補正する
情報統合装置。
The information integration device according to claim 5.
The correction unit minimizes the total value of the errors calculated for each reference value by the error function representing the error between the instantaneous value and the reference value, which expresses the position and orientation of the field sensor as variables. An information integration device that calculates a transformation matrix that transforms the variables and corrects the instantaneous value using the transformation matrix.
請求項5に記載の情報統合装置であって、
前記誤差と前記相関値との値の組み合わせと、前記瞬時値に対する補正量とを対応づけた補正テーブルを記憶する記憶部(53)を更に備え、
前記補正部は、前記記憶部に記憶された補正テーブルを用いて取得される前記補正量に従って前記瞬時値を補正する
情報統合装置。
The information integration device according to claim 5.
A storage unit (53) for storing a correction table in which the combination of the error and the correlation value and the correction amount for the instantaneous value are associated with each other is further provided.
The correction unit is an information integration device that corrects the instantaneous value according to the correction amount acquired by using the correction table stored in the storage unit.
JP2020095555A 2020-06-01 2020-06-01 Information integrating device Pending JP2021189062A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020095555A JP2021189062A (en) 2020-06-01 2020-06-01 Information integrating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020095555A JP2021189062A (en) 2020-06-01 2020-06-01 Information integrating device

Publications (1)

Publication Number Publication Date
JP2021189062A true JP2021189062A (en) 2021-12-13

Family

ID=78849415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020095555A Pending JP2021189062A (en) 2020-06-01 2020-06-01 Information integrating device

Country Status (1)

Country Link
JP (1) JP2021189062A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (en) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd External recognition device for vehicle
US20100191391A1 (en) * 2009-01-26 2010-07-29 Gm Global Technology Operations, Inc. multiobject fusion module for collision preparation system
JP2015041265A (en) * 2013-08-22 2015-03-02 株式会社デンソー Target detection device and program
JP2015087352A (en) * 2013-11-01 2015-05-07 株式会社東芝 Traveling speed estimation device, still object classification device and traveling speed estimation method
JP2017040530A (en) * 2015-08-19 2017-02-23 株式会社日立製作所 Moving body measurement system
JP2020067402A (en) * 2018-10-25 2020-04-30 株式会社デンソー Sensor calibration method and sensor calibration apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (en) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd External recognition device for vehicle
US20100191391A1 (en) * 2009-01-26 2010-07-29 Gm Global Technology Operations, Inc. multiobject fusion module for collision preparation system
JP2015041265A (en) * 2013-08-22 2015-03-02 株式会社デンソー Target detection device and program
JP2015087352A (en) * 2013-11-01 2015-05-07 株式会社東芝 Traveling speed estimation device, still object classification device and traveling speed estimation method
JP2017040530A (en) * 2015-08-19 2017-02-23 株式会社日立製作所 Moving body measurement system
JP2020067402A (en) * 2018-10-25 2020-04-30 株式会社デンソー Sensor calibration method and sensor calibration apparatus

Similar Documents

Publication Publication Date Title
US9952597B2 (en) Apparatus for correcting vehicle location
US20220215673A1 (en) Device, system, and method for generating occupancy grid map
US9767372B2 (en) Target detection apparatus and target detection method
JP2018036067A (en) Own vehicle position recognition device
CN113419258B (en) Positioning abnormality detection method and related equipment thereof
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
CN114111820B (en) Infrastructure sensor device, system, position correction method, and storage medium
JP2017138660A (en) Object detection method, object detection device and program
WO2018212292A1 (en) Information processing device, control method, program and storage medium
JPWO2018212294A1 (en) Self-position estimation device, control method, program, and storage medium
JP2017067727A (en) Position estimation device
US11754403B2 (en) Self-position correction method and self-position correction device
JP2016197280A (en) Image processing device
JP2018179926A (en) Object recognition processing apparatus, object recognition processing method, and vehicle control system
JP2021189062A (en) Information integrating device
US11740103B2 (en) Map creation device, map creation system, map creation method, and storage medium
KR101364047B1 (en) Method for estimating location based on object recognition using kalman filter
WO2022065045A1 (en) Automatic driving device
JP6820762B2 (en) Position estimator
JP2020046411A (en) Data structure, storage device, terminal device, server device, control method, program, and storage medium
WO2022230449A1 (en) Degree of movement estimation device, degree of movement estimation method, and degree of movement estimation program
JP7277412B2 (en) Target tracker
JP2022098635A (en) Device and method for operating reliability of position of owned vehicle, vehicle controller, and method for controlling vehicle
JP2020046413A (en) Data structure, storage device, terminal device, server device, control method, program, and storage medium
US11994582B2 (en) Inverse radar sensor model and evidential grid mapping processors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240109