JP2020169901A - Position estimating device and driving assistance device - Google Patents

Position estimating device and driving assistance device Download PDF

Info

Publication number
JP2020169901A
JP2020169901A JP2019071603A JP2019071603A JP2020169901A JP 2020169901 A JP2020169901 A JP 2020169901A JP 2019071603 A JP2019071603 A JP 2019071603A JP 2019071603 A JP2019071603 A JP 2019071603A JP 2020169901 A JP2020169901 A JP 2020169901A
Authority
JP
Japan
Prior art keywords
vehicle
road
map information
detection unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019071603A
Other languages
Japanese (ja)
Other versions
JP7275783B2 (en
Inventor
悠太 藤井
Yuta Fujii
悠太 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019071603A priority Critical patent/JP7275783B2/en
Publication of JP2020169901A publication Critical patent/JP2020169901A/en
Application granted granted Critical
Publication of JP7275783B2 publication Critical patent/JP7275783B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a technology with which it is possible to estimate the position of a vehicle in which the technology is implemented, with good accuracy even under a condition where it is difficult to visually detect the position of the vehicle.SOLUTION: An ECU as a position estimating device comprises: a map information acquisition unit 51 for acquiring the map information of a road that a vehicle 10 travels; an acceleration sensor 23 and a yaw rate sensor 24 as inertial sensors mounted in the vehicle; a lateral gradient detection unit 55, a vertical gradient detection unit 56, a curvature detection unit 57 and a joint detection unit 58 as shape detection units that detect the road surface shape of the road that the vehicle travels, on the basis of the traveling state of the vehicle detected by at least one of vehicle speed sensors 21; a relative position detection unit 53 for detecting the relative position of the vehicle to the road surface shape; and a vehicle position estimation unit 60 for comparing the road surface shape detected by the shape detection unit with the road surface shape included in the map information, specifying the position of the road surface shape in the map position, and estimating the position of the vehicle on the basis of the specified position of the road surface shape and the relative position.SELECTED DRAWING: Figure 1

Description

本発明は、車両の位置を推定する位置推定装置と、位置推定装置により推定された車両の位置に基づいて運転支援を実行する運転支援装置に関する。 The present invention relates to a position estimation device that estimates the position of a vehicle and a driving support device that executes driving assistance based on the position of the vehicle estimated by the position estimation device.

特許文献1に、自車に搭載されたカメラセンサにより検出した自車の周囲の標識位置と、地図情報から読み出した標識位置とを照合することによって、自車の現在位置を推定するが記載されている。 Patent Document 1 describes that the current position of the own vehicle is estimated by collating the sign position around the own vehicle detected by the camera sensor mounted on the own vehicle with the sign position read from the map information. ing.

米国特許第9623905号明細書U.S. Pat. No. 9623905

特許文献1では、カメラセンサにより取得される視覚的情報に基づいて、自車の周囲の標識位置を検出する。このため、雨天や濃霧などの悪天候時、周囲の明暗差、自車の振動、自車の周囲の遮蔽物等の要因により、視覚的に標識位置の検出が困難な場合には、自車の現在位置を正確に推定することが困難であった。 In Patent Document 1, the sign position around the own vehicle is detected based on the visual information acquired by the camera sensor. For this reason, in bad weather such as rainy weather or thick fog, if it is difficult to visually detect the sign position due to factors such as the difference in brightness around the vehicle, vibration of the vehicle, and obstacles around the vehicle, the vehicle's own vehicle It was difficult to accurately estimate the current position.

上記を鑑み、本発明は、視覚的に自車の位置を検出することが困難な状況下でも、自車の位置を精度よく推定できる技術を提供することを目的とする。 In view of the above, an object of the present invention is to provide a technique capable of accurately estimating the position of the own vehicle even in a situation where it is difficult to visually detect the position of the own vehicle.

本発明に係る第1の位置推定装置は、自車が走行する道路の地図情報を取得する地図情報取得部と、前記自車に搭載された慣性センサと車速センサのうちの少なくともいずれか1つにより検出される前記自車の走行状態に基づいて、前記自車が走行する道路の路面形状を検出する形状検出部と、前記路面形状に対する前記自車の相対位置を検出する相対位置検出部と、前記形状検出部により検出された路面形状を前記地図情報に含まれる路面形状と照合して前記地図情報内の前記路面形状の位置を特定し、前記特定された路面形状の位置および前記相対位置に基づいて前記自車の位置を推定する自車位置推定部と、を備える。 The first position estimation device according to the present invention includes a map information acquisition unit that acquires map information of the road on which the vehicle travels, and at least one of an inertial sensor and a vehicle speed sensor mounted on the vehicle. A shape detection unit that detects the road surface shape of the road on which the own vehicle travels based on the traveling state of the own vehicle detected by the vehicle, and a relative position detection unit that detects the relative position of the own vehicle with respect to the road surface shape. The road surface shape detected by the shape detection unit is collated with the road surface shape included in the map information to specify the position of the road surface shape in the map information, and the position of the specified road surface shape and the relative position. It is provided with a own vehicle position estimation unit that estimates the position of the own vehicle based on the above.

第1の位置推定装置によれば、形状検出部によって、慣性センサと車速センサのうちの少なくともいずれか1つにより検出される自車の走行状態に基づいて、自車が走行する道路の路面形状を検出する。例えば、自車の振動、加速度、速度、ヨー角等の走行状態に基づいて道路の起伏や勾配等の路面形状を検出する。また、相対位置検出部によって、検出した路面形状に対する自車の相対位置を検出する。そして、自車位置推定部によって、形状検出部により検出された路面形状を、地図情報取得部が取得した地図情報における路面形状と照合して、地図情報における路面形状の位置を特定する。さらに、路面形状の位置と、検出した自車の相対位置とに基づいて、地図情報における自車の位置を推定することができる。第1の位置推定装置によれば、視覚的情報を用いることなく、慣性センサと車速センサのうちの少なくともいずれか1つにより検出される自車の走行状態に基づいて自車の位置を推定することができる。このため、視覚的に自車の位置を検出することが困難な状況下でも、自車の位置を精度よく推定できる。 According to the first position estimation device, the road surface shape of the road on which the vehicle travels is based on the traveling condition of the vehicle detected by the shape detection unit by at least one of the inertial sensor and the vehicle speed sensor. Is detected. For example, the road surface shape such as undulations and slopes of the road is detected based on the traveling state such as vibration, acceleration, speed, and yaw angle of the own vehicle. In addition, the relative position detection unit detects the relative position of the own vehicle with respect to the detected road surface shape. Then, the vehicle position estimation unit collates the road surface shape detected by the shape detection unit with the road surface shape in the map information acquired by the map information acquisition unit, and specifies the position of the road surface shape in the map information. Further, the position of the own vehicle in the map information can be estimated based on the position of the road surface shape and the detected relative position of the own vehicle. According to the first position estimation device, the position of the own vehicle is estimated based on the running state of the own vehicle detected by at least one of the inertial sensor and the vehicle speed sensor without using visual information. be able to. Therefore, even in a situation where it is difficult to visually detect the position of the own vehicle, the position of the own vehicle can be estimated accurately.

本発明に係る第2の位置推定装置は、自車が走行する道路の地図情報を取得する地図情報取得部と、前記自車に搭載され、前記自車の外部との間で信号を授受する外部通信装置の感度に基づいて、前記自車が走行する道路の路上構造物を検出する路上構造物検出部と、前記路上構造物に対する前記自車の相対位置を検出する相対位置検出部と、前記路上構造物検出部により検出された路上構造物を前記地図情報に含まれる路上構造物と照合して前記地図情報内の前記路上構造物の位置を特定し、前記特定された路上構造物の位置および前記相対位置に基づいて前記自車の位置を推定する自車位置推定部と、を備える。 The second position estimation device according to the present invention is mounted on the own vehicle and transmits / receives a signal between the map information acquisition unit that acquires the map information of the road on which the own vehicle travels and the outside of the own vehicle. A road structure detection unit that detects a road structure on the road on which the vehicle travels based on the sensitivity of the external communication device, and a relative position detection unit that detects the relative position of the vehicle with respect to the road structure. The road structure detected by the road structure detection unit is collated with the road structure included in the map information to identify the position of the road structure in the map information, and the specified road structure is specified. The vehicle includes a vehicle position estimation unit that estimates the position of the vehicle based on the position and the relative position.

第2の位置推定装置によれば、路上構造物検出部によって、外部通信装置の感度に基づいて、自車が走行する道路の路上構造物を検出する。例えば、外部通信装置における通信が遮断されている場合に、その通信を妨げる遮蔽物を路上構造物として検出することができる。そして、路上構造物に対する自車の相対位置と、また、相対位置検出部によって、検出した路上構造物に対する自車の相対位置を検出する。そして、自車位置推定部によって、路上構造物検出部により検出された路上構造物を、地図情報取得部が取得した地図情報における路上構造物と照合して、地図情報内における路上構造物の位置を特定する。さらに、路上構造物の位置と、検出した自車の相対位置とに基づいて、地図情報内における自車の位置を推定することができる。このため、視覚的に自車の位置を検出することが困難な状況下でも、自車の位置を精度よく推定できる。 According to the second position estimation device, the road structure detection unit detects the road structure on the road on which the own vehicle travels, based on the sensitivity of the external communication device. For example, when communication in an external communication device is interrupted, a shield that interferes with the communication can be detected as a road structure. Then, the relative position of the own vehicle with respect to the road structure and the relative position of the own vehicle with respect to the detected road structure are detected by the relative position detection unit. Then, the vehicle position estimation unit collates the road structure detected by the road structure detection unit with the road structure in the map information acquired by the map information acquisition unit, and the position of the road structure in the map information is collated. To identify. Further, the position of the own vehicle in the map information can be estimated based on the position of the road structure and the detected relative position of the own vehicle. Therefore, even in a situation where it is difficult to visually detect the position of the own vehicle, the position of the own vehicle can be estimated accurately.

本発明に係る第3の位置推定装置は、自車が走行する道路の地図情報を取得する地図情報取得部と、前記自車に搭載され、探査波の反射波を用いて前記自車が走行する道路の路上構造物を検出する路上構造物検出部と、前記路上構造物に対する前記自車の相対位置を検出する相対位置検出部と、前記路上構造物検出部により検出された路上構造物を前記地図情報に含まれる路上構造物と照合して前記地図情報内の前記路上構造物の位置を特定し、前記特定された路上構造物の位置および前記相対位置に基づいて前記自車の位置を推定する自車位置推定部と、を備える。 The third position estimation device according to the present invention has a map information acquisition unit that acquires map information of the road on which the own vehicle travels, and the own vehicle that is mounted on the own vehicle and travels by using the reflected wave of the exploration wave. The road structure detection unit that detects the road structure of the road, the relative position detection unit that detects the relative position of the own vehicle with respect to the road structure, and the road structure detected by the road structure detection unit. The position of the road structure in the map information is specified by collating with the road structure included in the map information, and the position of the own vehicle is determined based on the position of the specified road structure and the relative position. It is provided with a vehicle position estimation unit for estimating.

第3の位置推定装置によれば、路上構造物検出部によって、探査波の反射波を用いて前記自車が走行する道路の路上構造物を検出することができる。そして、第2の位置推定装置と同様に、自車位置推定部によって、検出された路上構造物を、地図情報における路上構造物と照合して、地図情報内における路上構造物の位置と、路上構造物に対する自車の相対位置とに基づいて、地図情報内における自車の位置を推定することができる。このため、視覚的に自車の位置を検出することが困難な状況下でも、自車の位置を精度よく推定できる。 According to the third position estimation device, the road structure detection unit can detect the road structure on the road on which the own vehicle travels by using the reflected wave of the exploration wave. Then, as in the second position estimation device, the road structure detected by the own vehicle position estimation unit is collated with the road structure in the map information, and the position of the road structure in the map information and the road surface are checked. The position of the own vehicle in the map information can be estimated based on the relative position of the own vehicle with respect to the structure. Therefore, even in a situation where it is difficult to visually detect the position of the own vehicle, the position of the own vehicle can be estimated accurately.

本発明は、また、上記の第1〜第3の位置推定装置により推定された車両の位置に基づいて運転支援を実行する運転支援装置を提供する。本発明に係る運転支援装置によれば、第1〜第3の位置推定装置により推定された自車の位置に基づいて、自車の走行経路となる道路の地図情報である経路地図情報を取得し、この経路地図情報に基づいて、自車の走行を制御することができる。このため、視覚的に自車の位置を検出することが困難な状況下でも、精度よく推定された自車の位置に基づいて、適切な運転支援を実行することができる。 The present invention also provides a driving support device that executes driving support based on the position of the vehicle estimated by the above-mentioned first to third position estimation devices. According to the driving support device according to the present invention, the route map information which is the map information of the road which is the traveling route of the own vehicle is acquired based on the position of the own vehicle estimated by the first to third position estimation devices. However, the traveling of the own vehicle can be controlled based on this route map information. Therefore, even in a situation where it is difficult to visually detect the position of the own vehicle, it is possible to execute appropriate driving support based on the accurately estimated position of the own vehicle.

第1実施形態に係る位置推定装置および運転支援装置として機能するECUが搭載された車両の概要図。FIG. 3 is a schematic view of a vehicle equipped with an ECU that functions as a position estimation device and a driving support device according to the first embodiment. 道路とそのジョイントを示す図。Diagram showing roads and their joints. 車両が道路のジョイントを通過する場合を示す図。The figure which shows the case where a vehicle passes a joint of a road. 図4(a)は加速度センサから得られる鉛直方向加速度を示す図。図4(b)は図4(a)から算出した振動スコアを示す図。FIG. 4A is a diagram showing vertical acceleration obtained from the acceleration sensor. FIG. 4B is a diagram showing a vibration score calculated from FIG. 4A. 自車の走行車線の基準線に対して設定されたx軸およびy軸を示す図。The figure which shows the x-axis and the y-axis set with respect to the reference line of the traveling lane of the own vehicle. ジョイントに対する自車の相対位置を示す図。The figure which shows the relative position of the own vehicle with respect to a joint. 横方向制御部が実行する制御を示す制御ブロック図。A control block diagram showing the control executed by the lateral control unit. 縦方向制御部が実行する制御を示す制御ブロック図。A control block diagram showing the control executed by the vertical control unit. 複数の基準線について設定された複数の同期ポイントを示す図。The figure which shows a plurality of synchronization points set for a plurality of reference lines. 第1実施形態に係るECUが実行する位置推定処理および運転支援処理を示すフローチャート。The flowchart which shows the position estimation process and the driving support process which the ECU which concerns on 1st Embodiment execute. 図11(a)は道路の曲率を示す図。図10(b)は道路の横勾配を示す図。図11(c)は道路の縦勾配を示す図。図10(d)は図10(b)を所定区間毎に直線近似して得られた道路の横勾配を示す図。FIG. 11A is a diagram showing the curvature of the road. FIG. 10B is a diagram showing the lateral slope of the road. FIG. 11C is a diagram showing the vertical slope of the road. FIG. 10D is a diagram showing a lateral gradient of a road obtained by linearly approximating FIG. 10B for each predetermined section. 図12(a)は基準線に沿って区切られた所定区間を示す図。図12(b)は所定区間ごとに直線近似された道路の曲率を示す図。図12(c)は所定区間ごとに直線近似された道路の横勾配を示す図。図12(d)は所定区間ごとに直線近似された道路の縦勾配を示す図。FIG. 12A is a diagram showing a predetermined section divided along a reference line. FIG. 12B is a diagram showing the curvature of the road linearly approximated for each predetermined section. FIG. 12C is a diagram showing the lateral slope of the road linearly approximated for each predetermined section. FIG. 12D is a diagram showing the vertical slope of the road linearly approximated for each predetermined section. 図12に示す位置と曲率、横勾配、縦勾配を紐付けて格納する地図情報DBを示す概念図。The conceptual diagram which shows the map information DB which stores the position shown in FIG. 12, the curvature, the horizontal gradient, and the vertical gradient in association with each other. 第2実施形態に係るECUが実行する位置推定処理および運転支援処理を示すフローチャート。The flowchart which shows the position estimation process and driving support process which the ECU which concerns on 2nd Embodiment executes. 第3実施形態に係るECUが実行する位置推定処理および運転支援処理を示すフローチャート。The flowchart which shows the position estimation process and the driving support process which the ECU which concerns on 3rd Embodiment executes. 外部との通信を遮蔽する遮蔽物である路上構造物に対する自車の相対位置を示す図。The figure which shows the relative position of the own vehicle with respect to the road structure which is a shield which shields communication with the outside. 第4実施形態に係るECUが実行する位置推定処理および運転支援処理を示すフローチャート。The flowchart which shows the position estimation process and the driving support process which the ECU which concerns on 4th Embodiment executes. 図18(a)は走行経路における複数の遮蔽物と、複数の人工衛星の位置関係を示す図。図18(b)および図18(c)は複数の人工衛星における送受信履歴パターンをそれぞれ示す図。FIG. 18A is a diagram showing the positional relationship between a plurality of shields in a traveling path and a plurality of artificial satellites. 18 (b) and 18 (c) are diagrams showing transmission / reception history patterns of a plurality of artificial satellites, respectively. レーダセンサにより検出される路上構造物に対する自車の相対位置を示す図。The figure which shows the relative position of the own vehicle with respect to the road structure detected by a radar sensor. 第4実施形態に係るECUが実行する位置推定処理および運転支援処理を示すフローチャート。The flowchart which shows the position estimation process and the driving support process which the ECU which concerns on 4th Embodiment executes.

(第1実施形態)
図1に示すように、自車10は、センサ群20と、外部通信装置30と、ECU40と、制御対象80とを備える車両である。ECU40は、自車10の位置を推定する位置推定装置として機能するとともに、位置推定装置によって推定された自車10の位置に基づいて自車の運転支援を実行する運転支援装置として機能する。
(First Embodiment)
As shown in FIG. 1, the own vehicle 10 is a vehicle including a sensor group 20, an external communication device 30, an ECU 40, and a controlled object 80. The ECU 40 functions as a position estimation device that estimates the position of the own vehicle 10, and also functions as a driving support device that executes driving support of the own vehicle based on the position of the own vehicle 10 estimated by the position estimation device.

センサ群20は、車速センサ21と、操舵角センサ22と、加速度センサ23と、ヨーレートセンサ24と、レーダセンサ25とを備えている。 The sensor group 20 includes a vehicle speed sensor 21, a steering angle sensor 22, an acceleration sensor 23, a yaw rate sensor 24, and a radar sensor 25.

車速センサ21は、例えば、車輪のホイール部分に取り付けられており、車両の車輪速度に応じた車速信号をECU40に出力する。車速センサ21が複数の車輪に設置されている場合には、複数の車速センサ21の検出値の平均値や中間値等を自車10の車速Vとして用いてもよい。例えば、4つの車輪に車速センサ21がそれぞれ設置されている場合には、4つの検出値のうち速い方から2番目の検出値を用いるようにしてもよい。 The vehicle speed sensor 21 is attached to, for example, a wheel portion of a wheel, and outputs a vehicle speed signal corresponding to the wheel speed of the vehicle to the ECU 40. When the vehicle speed sensors 21 are installed on a plurality of wheels, the average value, the intermediate value, or the like of the detected values of the plurality of vehicle speed sensors 21 may be used as the vehicle speed V of the own vehicle 10. For example, when the vehicle speed sensor 21 is installed on each of the four wheels, the second detection value from the fastest of the four detection values may be used.

操舵角センサ22は、例えば、車両のステアリングロッドに取り付けられており、運転者の操作に伴うステアリングホイールの操舵角の変化に応じた操舵角信号をECU40に出力する。 The steering angle sensor 22 is attached to the steering rod of the vehicle, for example, and outputs a steering angle signal to the ECU 40 according to a change in the steering angle of the steering wheel due to the operation of the driver.

加速度センサ23は、自車10を中心に定義される直交する3軸まわりの加速度を検出し、加速度信号をECU40に出力する。加速度センサ23は、Gセンサと称されることもある。 The acceleration sensor 23 detects the acceleration around three orthogonal axes defined around the own vehicle 10 and outputs an acceleration signal to the ECU 40. The acceleration sensor 23 is sometimes referred to as a G sensor.

ヨーレートセンサ24は、自車10の操舵量の変化速度に応じたヨーレート信号をECU40に出力する。ヨーレートセンサ24は、1つのみ設置されていてもよいし、複数設置されていてもよい。1つのみ設置する場合には、例えば、自車10の中央位置に設けられる。ヨーレートセンサ24が複数設置されている場合には、複数のヨーレートセンサ24の検出値の平均値や中間値等を検出値として用いてもよい。 The yaw rate sensor 24 outputs a yaw rate signal to the ECU 40 according to the change speed of the steering amount of the own vehicle 10. Only one yaw rate sensor 24 may be installed, or a plurality of yaw rate sensors 24 may be installed. When only one is installed, for example, it is installed at the center position of the own vehicle 10. When a plurality of yaw rate sensors 24 are installed, an average value, an intermediate value, or the like of the detected values of the plurality of yaw rate sensors 24 may be used as the detection value.

加速度センサ23およびヨーレートセンサ24は、慣性センサである。慣性センサとし、上記の他に、ジャイロセンサ等を備えていてもよい。ジャイロセンサは、自車10を中心に定義される直交する3軸まわりの回転角を検出することができる。 The acceleration sensor 23 and the yaw rate sensor 24 are inertial sensors. The inertial sensor may be provided with a gyro sensor or the like in addition to the above. The gyro sensor can detect the rotation angles around three orthogonal axes defined around the own vehicle 10.

レーダセンサ25は、探査波の反射波を用いて自車10の周囲の物体を検出できるセンサである。より具体的には、レーダセンサ25は、例えば、ミリ波帯の高周波信号を送信波とする公知のミリ波レーダである。レーダセンサ25は、自車10に1つのみ設置されていてもよいし、複数設置されていてもよい。レーダセンサ25は、例えば、自車10の前端部に設けられ、所定の検出角に入る領域を物体検出可能な検出範囲とし、検出範囲内の物体の位置を検出することができる。具体的には、所定周期で探査波を送信し、複数のアンテナにより反射波を受信する。この探査波の送信時刻と反射波の受信時刻とにより、物体との距離を算出することができる。 The radar sensor 25 is a sensor capable of detecting an object around the own vehicle 10 by using the reflected wave of the exploration wave. More specifically, the radar sensor 25 is, for example, a known millimeter-wave radar that uses a high-frequency signal in the millimeter-wave band as a transmission wave. Only one radar sensor 25 may be installed in the own vehicle 10, or a plurality of radar sensors 25 may be installed in the own vehicle 10. The radar sensor 25 is provided at the front end of the own vehicle 10, for example, and has a detection range in which an object can be detected in a region within a predetermined detection angle, and can detect the position of an object within the detection range. Specifically, the exploration wave is transmitted at a predetermined cycle, and the reflected wave is received by a plurality of antennas. The distance to the object can be calculated from the transmission time of the exploration wave and the reception time of the reflected wave.

また、レーダセンサ25によれば、物体に反射された反射波の、ドップラー効果により変化した周波数により、相対速度を算出することができる。加えて、複数のアンテナが受信した反射波の位相差により、物体の方位を算出することができる。なお、物体の位置および方位が算出できれば、その物体と、自車10との相対位置を特定することができる。 Further, according to the radar sensor 25, the relative velocity of the reflected wave reflected by the object can be calculated from the frequency changed by the Doppler effect. In addition, the orientation of the object can be calculated from the phase difference of the reflected waves received by the plurality of antennas. If the position and orientation of the object can be calculated, the relative position between the object and the own vehicle 10 can be specified.

レーダセンサ25と同様に探査波の反射波を用いて自車10の周囲の物体を検出できるセンサとして、超音波センサ、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等のセンサを備えていてもよい。 Similar to the radar sensor 25, it is equipped with a sensor such as an ultrasonic sensor and LIDAR (Light Detection and Ranger / Laser Imaging Detection and Ranger) as a sensor that can detect an object around the own vehicle 10 by using the reflected wave of the search wave. You may.

レーダセンサ25等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果を、センシング情報としてECU40へ逐次出力する。レーダセンサ25等の探査波を送信するセンサは、反射電力が大きい物体を検出することに好適に用いることができる。レーダセンサ25等の探査波を送信するセンサは、自車10の前方の物体に限らず、後方や側方の物体を検出して利用してもよい。 The sensor that transmits the exploration wave, such as the radar sensor 25, sequentially outputs the scanning result based on the received signal obtained when the reflected wave reflected by the obstacle is received to the ECU 40 as sensing information. A sensor that transmits an exploration wave, such as a radar sensor 25, can be suitably used for detecting an object having a large reflected power. The sensor that transmits the exploration wave, such as the radar sensor 25, is not limited to the object in front of the own vehicle 10, and may detect and use an object in the rear or side.

外部通信装置30は、電波通信装置31と、GNSS(Global Navigation Satellite System)受信装置32とを備えている。ECU40は、外部通信装置30によって、自車10の外部に設置された外部サーバ12と通信することができる。外部サーバ12は、外部地図情報データベース(DB)13を備えている。 The external communication device 30 includes a radio wave communication device 31 and a GNSS (Global Navigation Satellite System) receiving device 32. The ECU 40 can communicate with the external server 12 installed outside the own vehicle 10 by the external communication device 30. The external server 12 includes an external map information database (DB) 13.

外部地図情報DB13には、自車10の走行案内や経路探索に使用される地図情報が格納されている。地図情報は、経路案内及び地図表示に必要な各種情報から構成されており、例えば、各新設道路を特定するための新設道路情報、地図を表示するための地図表示データ、各交差点に関する交差点データ、道路に関する道路データ、経路を探索するための探索データ、施設の一種である店舗等のPOI(Point of Interest)に関する施設データ、地点を検索するための検索データ等を含んでいる。 The external map information DB 13 stores map information used for traveling guidance and route search of the own vehicle 10. Map information is composed of various information necessary for route guidance and map display. For example, new road information for identifying each new road, map display data for displaying a map, intersection data for each intersection, and so on. It includes road data related to roads, search data for searching routes, facility data related to POI (Point of Information) such as stores, which is a type of facility, and search data for searching points.

また、道路データとしては、道路の長さ、横幅、位置(例えば、緯度と経度によって表される位置)、車線数、道路の勾配に関する勾配情報(例えば、横勾配情報、縦勾配情報)、道路の曲率に関する曲率情報、道路ジョイントに関するジョイント情報、路上構造物に関する路上構造物情報を例示することができる。 The road data includes road length, width, position (for example, position represented by latitude and longitude), number of lanes, slope information regarding road slope (for example, horizontal slope information, vertical slope information), and road. The curvature information regarding the curvature of the road joint, the joint information regarding the road joint, and the road structure information regarding the road structure can be exemplified.

勾配情報は、道路の勾配の大きさ、位置の他、その道路勾配をセンサ類により検出した際の検出データ(検出値や検出波形)等に関する情報を含む。縦勾配情報は、自車10の縦方向(走行方向)の勾配に関する情報であり、横勾配情報は、自車10の横方向(走行方向に直交する横幅方向)の勾配に関する情報である。曲率情報は、道路の曲率の大きさ、向き、位置の他、その曲率をセンサ類により検出した際の検出データ等に関する情報を含む。 The slope information includes information on the magnitude and position of the road slope, as well as information on detection data (detection value and detection waveform) when the road slope is detected by sensors. The vertical gradient information is information on the gradient in the vertical direction (traveling direction) of the own vehicle 10, and the horizontal gradient information is information on the gradient in the lateral direction (horizontal width direction orthogonal to the traveling direction) of the own vehicle 10. The curvature information includes information on the magnitude, direction, and position of the curvature of the road, as well as information on detection data when the curvature is detected by sensors.

ジョイント情報は、ジョイントの位置、大きさの他、そのジョイントをセンサ類により検出した際の検出データ等に関する情報を含む。図2に示すように、ジョイント100は、道路90の継目に設けられている接続部材である。ジョイント100の矩形状の嵌合部や、ジョイント100と道路90との接続部は起伏しており、その起伏により、ジョイント100を通過する際に、自車10は振動する。図3(a)(b)に示すように、自車10の走行方向において道路90に設けられたジョイント101,102において、道路90に起伏が生じる。このため、ジョイント101,102を通過する際に、自車10は縦方向に振動する。この振動に関する検出データがジョイント情報として含まれている。 The joint information includes information on the position and size of the joint, as well as detection data when the joint is detected by sensors. As shown in FIG. 2, the joint 100 is a connecting member provided at the joint of the road 90. The rectangular fitting portion of the joint 100 and the connecting portion between the joint 100 and the road 90 are undulating, and the undulations cause the vehicle 10 to vibrate when passing through the joint 100. As shown in FIGS. 3A and 3B, the road 90 has undulations at the joints 101 and 102 provided on the road 90 in the traveling direction of the own vehicle 10. Therefore, when passing through the joints 101 and 102, the own vehicle 10 vibrates in the vertical direction. Detection data related to this vibration is included as joint information.

路上構造物情報は、路上構造物の種別、大きさ、位置の他、その路上構造物をセンサ類により検出した際の検出データ等に関する情報を含む。 The road structure information includes information on the type, size, and position of the road structure, as well as detection data when the road structure is detected by sensors.

地図情報に含まれる検出データは、その道路を実際に走行して得られた際にセンサ類によって検出されたデータである。検出データは、その検出対象について1つのみ格納されてもよいし、複数格納されていてもよい。また、検出データは、位置や距離に対応する検出値の変化がパターン化された状態で外部地図情報DB13に格納されていてもよい。 The detection data included in the map information is the data detected by the sensors when actually traveling on the road. Only one detection data may be stored for the detection target, or a plurality of detection data may be stored. Further, the detected data may be stored in the external map information DB 13 in a state in which changes in the detected values corresponding to the position and the distance are patterned.

電波通信装置31は、自車10が外部と電波の送受信により通信するための装置である。電波通信装置31としては、ワイファイ(WiFi(登録商標))電波、携帯基地局電波、道路交通情報通信システム(Vehicle Information and Communication System;VICS(登録商標))電波、V2X(vehicle to X)電波による通信を行う装置を例示できる。 The radio wave communication device 31 is a device for the own vehicle 10 to communicate with the outside by transmitting and receiving radio waves. The radio wave communication device 31 is based on Wifi (registered trademark) radio waves, mobile base station radio waves, vehicle information and communication system (VICS (registered trademark)) radio waves, and V2X (Vehicle to X) radio waves. An example of a device that performs communication can be illustrated.

GNSS受信装置32は、人工衛星から発射される信号を用いて位置測定・航法・時刻配信を行うシステムにおける受信装置である。GNSS機能を提供する衛星システムとしては、GPS(Global positioning system)の他に、GLO(Global Navigation Satellite System;GLONASS),GAL(Galileo),QZS(準天頂衛星システム,Quasi−Zenith Satellite System;QZSS),BDS(北斗衛星導航系統,BeiDou Navigation Satellite System)を例示することができる。GNSS受信装置32は、所定周期毎に測位信号を受信する。GNSS受信装置32により、人工衛星から測位信号を逐次受信することで、自車10の位置を逐次推定できる。 The GNSS receiving device 32 is a receiving device in a system that performs position measurement, navigation, and time distribution using signals emitted from artificial satellites. As satellite systems that provide GNSS functions, in addition to GPS (Global positioning system), GLO (Global Navigation Satellite System; GLONASS), GAL (Galileo), QZS (Quasi-Zenith Satellite System, Quasi-Zenith) , BDS (Hokuto Satellite Navigation System, BeiDou Navigation Satellite System) can be exemplified. The GNSS receiving device 32 receives the positioning signal at predetermined intervals. The position of the own vehicle 10 can be estimated sequentially by sequentially receiving the positioning signal from the artificial satellite by the GNSS receiving device 32.

ECU40は、CPU、ROM、RAM、バックアップRAM、I/O等(いずれも図示せず)よりなるマイクロコンピュータを主体として構成され、ROMに記憶された各種の制御プログラムを実行することで、本明細書で説明する各機能を実現することができる。 The ECU 40 is mainly composed of a microcomputer including a CPU, ROM, RAM, backup RAM, I / O, etc. (none of which are shown), and by executing various control programs stored in the ROM, the present specification Each function explained in the book can be realized.

ECU40は、車載地図情報DB41と、位置推定部50と、運転支援部70とを備えている。車載地図情報DB41は、外部地図情報DB13から取得した地図情報を格納する。車載地図情報DB41は、外部地図情報DB13から取得可能な地図情報のうち、自車10の走行路に関する地図情報のみを格納するように構成されていてもよい。または、車載地図情報DB41は、外部地図情報DB13から取得した地図情報を近似する等により軽量化した状態で格納するように構成されていてもよい。 The ECU 40 includes an in-vehicle map information DB 41, a position estimation unit 50, and a driving support unit 70. The in-vehicle map information DB 41 stores the map information acquired from the external map information DB 13. The in-vehicle map information DB 41 may be configured to store only the map information related to the travel path of the own vehicle 10 among the map information that can be acquired from the external map information DB 13. Alternatively, the in-vehicle map information DB 41 may be configured to be stored in a lightweight state by approximating the map information acquired from the external map information DB 13.

位置推定部50は、自車10の走行する道路である走行路における所定の特徴的要素を検出し、その特徴的要素を、地図情報に含まれる1以上の特徴的要素と照合する。そして、照合された地図情報における特徴的要素の位置を、検出した特徴的要素の位置として特定する。そして、その特徴的要素に対する自車10の相対位置を検出して、自車10の位置を推定する。所定の特徴的要素としては、限定されないが、走行路の横勾配、縦勾配、曲率、起伏等の路面形状、路上構造物等を例示することができる。 The position estimation unit 50 detects a predetermined characteristic element on the traveling road which is the road on which the own vehicle 10 travels, and collates the characteristic element with one or more characteristic elements included in the map information. Then, the position of the characteristic element in the collated map information is specified as the position of the detected characteristic element. Then, the relative position of the own vehicle 10 with respect to the characteristic element is detected, and the position of the own vehicle 10 is estimated. The predetermined characteristic element may be, but is not limited to, a road surface shape such as a horizontal slope, a vertical slope, a curvature, and undulations of a traveling road, a road structure, and the like.

位置推定部50は、地図情報取得部51と、送受信履歴取得部52と、相対位置検出部53と、振動検出部54と、横勾配検出部55と、縦勾配検出部56と、曲率検出部57と、ジョイント検出部58と、路上構造物検出部59と、自車位置推定部60と、誤差補正部61と、記憶部62とを備えている。 The position estimation unit 50 includes a map information acquisition unit 51, a transmission / reception history acquisition unit 52, a relative position detection unit 53, a vibration detection unit 54, a horizontal gradient detection unit 55, a vertical gradient detection unit 56, and a curvature detection unit. It includes 57, a joint detection unit 58, a road structure detection unit 59, a vehicle position estimation unit 60, an error correction unit 61, and a storage unit 62.

地図情報取得部51は、地図情報に含まれる走行路の特徴的要素に関する情報を取得する。具体的には、走行路の勾配に関する勾配情報、走行路の曲率に関する曲率情報、道路ジョイントに関するジョイント情報、路上構造物に関する路上構造物情報等を取得する。より具体的には、走行路における勾配、曲率、ジョイント、路上構造物について、その種別、位置、形状、大きさ、検出データ等に関する情報等を取得する。地図情報取得部51は、外部通信装置30を介して、外部地図情報DB13から地図情報を取得してもよいし、車載地図情報DB41から地図情報を取得してもよい。 The map information acquisition unit 51 acquires information on characteristic elements of the travel path included in the map information. Specifically, gradient information regarding the slope of the travel path, curvature information regarding the curvature of the travel path, joint information regarding the road joint, road structure information regarding the road structure, and the like are acquired. More specifically, information on the type, position, shape, size, detection data, etc. of the gradient, curvature, joint, and on-road structure on the traveling road is acquired. The map information acquisition unit 51 may acquire map information from the external map information DB 13 or may acquire map information from the vehicle-mounted map information DB 41 via the external communication device 30.

地図情報取得部51は、自車10の近傍の地図情報のみを取得するように構成されていてもよい。例えば、GNSS受信装置32を用いて測位信号により推定した自車10の凡その位置から所定の範囲内について、地図情報を取得するように構成されていてもよい。取得した地図情報は、後述する記憶部62によって、車載地図情報DB41に記憶されてもよい。 The map information acquisition unit 51 may be configured to acquire only map information in the vicinity of the own vehicle 10. For example, it may be configured to acquire map information within a predetermined range from the approximate position of the own vehicle 10 estimated by the positioning signal using the GNSS receiving device 32. The acquired map information may be stored in the vehicle-mounted map information DB 41 by the storage unit 62 described later.

送受信履歴取得部52は、外部通信装置30の送受信履歴を取得する。送受信履歴としては、例えば、外部通信装置30の感度の経時変化を取得する。取得した送受信履歴は、後述する記憶部62によって、ECU40に記憶されるように構成されていてもよい。 The transmission / reception history acquisition unit 52 acquires the transmission / reception history of the external communication device 30. As the transmission / reception history, for example, the time-dependent change in the sensitivity of the external communication device 30 is acquired. The acquired transmission / reception history may be configured to be stored in the ECU 40 by the storage unit 62 described later.

相対位置検出部53は、自車10の走行路における所定の特徴的要素に対する自車10の相対位置xrを検出する。相対位置検出部53は、後述する横勾配検出部55、縦勾配検出部56、曲率検出部57、ジョイント検出部58、路上構造物検出部59により検出された特徴的要素に対する自車10の相対位置xrを検出する。 The relative position detection unit 53 detects the relative position xr of the own vehicle 10 with respect to a predetermined characteristic element in the traveling path of the own vehicle 10. The relative position detection unit 53 is the relative of the own vehicle 10 to the characteristic elements detected by the horizontal gradient detection unit 55, the vertical gradient detection unit 56, the curvature detection unit 57, the joint detection unit 58, and the road structure detection unit 59, which will be described later. The position xr is detected.

振動検出部54は、加速度センサ23等の慣性センサの検出値を取得し、取得した検出値に基づいて自車10の鉛直方向の振動を検出する。例えば、図4(a)に示す自車10の鉛直方向の加速度の変化から、図4(b)に示す振動スコアを算出する。なお、図4(a)(b)において横軸に示す自車10の位置は同じである。図4(a)(b)に示すように、鉛直方向の重力加速度が正負に大きく変化する区間において、振動スコアが大きくなっている。 The vibration detection unit 54 acquires the detection value of the inertial sensor such as the acceleration sensor 23, and detects the vibration of the own vehicle 10 in the vertical direction based on the acquired detection value. For example, the vibration score shown in FIG. 4B is calculated from the change in the vertical acceleration of the own vehicle 10 shown in FIG. 4A. The positions of the own vehicle 10 shown on the horizontal axis in FIGS. 4A and 4B are the same. As shown in FIGS. 4A and 4B, the vibration score is large in the section where the gravitational acceleration in the vertical direction changes greatly in the positive and negative directions.

具体的には、図4(a)に示すような鉛直方向加速度の検出値Gz1にハイパスフィルタ(例えば3次フィルタ)を適用し、信号のバイアス成分を除去する。これにより、信号値S1を取得する。さらに、下記式(1)により、取得した信号値S1の絶対値であるabs(S1)から所定値S0を減算し、信号値S2を取得する。なお、加速度センサ23の検出性能に基づいて、所定値S0は適宜調整することが好ましい。 Specifically, a high-pass filter (for example, a third-order filter) is applied to the detection value Gz1 of the vertical acceleration as shown in FIG. 4A to remove the bias component of the signal. As a result, the signal value S1 is acquired. Further, the predetermined value S0 is subtracted from the abs (S1) which is the absolute value of the acquired signal value S1 by the following equation (1) to acquire the signal value S2. It is preferable that the predetermined value S0 is appropriately adjusted based on the detection performance of the acceleration sensor 23.

S2=abs(S1)−S0 … (1) S2 = abs (S1) -S0 ... (1)

さらに、信号値S2に基づいて、信号値S3を設定する。S2<0の場合には、S3=0に設定し、S2≧0の場合には、S3=S2に設定する。これにより、小さ過ぎる信号値S2をキャンセルすることができる。 Further, the signal value S3 is set based on the signal value S2. When S2 <0, it is set to S3 = 0, and when S2 ≧ 0, it is set to S3 = S2. As a result, the signal value S2 that is too small can be canceled.

そして、自車10の走行路において得られた複数の正の信号値S3について、重み付き移動平均を適用する。例えば、現時点から過去において取得されたn個の正の信号値S3について算出した重み付き移動平均値を、信号値S4とする。図4(b)は、上記の手順により算出された信号値S4を示している。 Then, the weighted moving average is applied to the plurality of positive signal values S3 obtained on the traveling path of the own vehicle 10. For example, the weighted moving average value calculated for n positive signal values S3 acquired from the present time to the past is defined as the signal value S4. FIG. 4B shows the signal value S4 calculated by the above procedure.

横勾配検出部55、縦勾配検出部56、曲率検出部57、ジョイント検出部58は、自車10の走行路の路面形状を検出する形状検出部の具体例である。横勾配検出部55、縦勾配検出部56、曲率検出部57がそれぞれ検出する横勾配、縦勾配、曲率は、自車10の走行距離や走行時間に対応する横勾配の変化としてECU40に記憶されてもよい。 The horizontal gradient detection unit 55, the vertical gradient detection unit 56, the curvature detection unit 57, and the joint detection unit 58 are specific examples of the shape detection unit that detects the road surface shape of the traveling path of the own vehicle 10. The horizontal gradient, vertical gradient, and curvature detected by the horizontal gradient detecting unit 55, the vertical gradient detecting unit 56, and the curvature detecting unit 57 are stored in the ECU 40 as changes in the horizontal gradient corresponding to the mileage and traveling time of the own vehicle 10. You may.

以下、図5に示すように自車10の走行路の基準線Bに沿ってx軸を設定し、x軸に垂直な横方向にy軸を設定して、説明する。基準線Bは、図3に示す道路90における自車10の走行車線91の車線幅方向の中央に位置する線である。本明細書では、図5に示すx軸方向を、自車10の走行方向または縦方向と称することがある。また、図5に示すy方向を、横方向と称することがある。また、横勾配とは、横方向の勾配であり、y方向の勾配を示す。横勾配は、カント、横断勾配等と称されることもある。縦勾配とは、縦方向の勾配であり、x方向の勾配を示す。縦勾配は、スロープ、縦断勾配等と称されることもある。 Hereinafter, as shown in FIG. 5, the x-axis is set along the reference line B of the traveling path of the own vehicle 10, and the y-axis is set in the lateral direction perpendicular to the x-axis for description. The reference line B is a line located at the center of the traveling lane 91 of the own vehicle 10 on the road 90 shown in FIG. 3 in the lane width direction. In the present specification, the x-axis direction shown in FIG. 5 may be referred to as a traveling direction or a vertical direction of the own vehicle 10. Further, the y direction shown in FIG. 5 may be referred to as a lateral direction. Further, the lateral gradient is a gradient in the lateral direction, and indicates a gradient in the y direction. The lateral gradient is sometimes referred to as a cant, a transverse gradient, or the like. The vertical gradient is a gradient in the vertical direction, and indicates a gradient in the x direction. The vertical gradient is sometimes referred to as a slope, a vertical gradient, or the like.

横勾配検出部55は、車速センサ21による自車10の車速の検出値Vと、加速度センサ23による横方向加速度の検出値Ayと、ヨーレートセンサ24によるヨーレートの検出値YRとに基づいて、自車10の走行路の横勾配Syを検出する。 The lateral gradient detection unit 55 itself is based on the vehicle speed detection value V of the own vehicle 10 by the vehicle speed sensor 21, the lateral acceleration detection value Ay by the acceleration sensor 23, and the yaw rate detection value YR by the yaw rate sensor 24. The lateral gradient Sy of the traveling path of the vehicle 10 is detected.

具体的には、ローパスフィルタ(LPF)により各検出値を平滑化し、平滑化した車速Vsmo、横方向加速度Ay_smo、ヨーレートYRsmoを用いて、下記式(2)から、横勾配Syを算出する。なお、gは、重力加速度を示す。 Specifically, each detected value is smoothed by a low-pass filter (LPF), and the lateral gradient Sy is calculated from the following equation (2) using the smoothed vehicle speed Vsmo, lateral acceleration Ay_smo, and yaw rate YRsmo. In addition, g represents the gravitational acceleration.

Sy=(Ay_smo+Vsmo×YRsmo)/g … (2) Sy = (Ay_smo + Vsmo x YRsmo) / g ... (2)

縦勾配検出部56は、車速センサ21による自車10の車速の検出値Vと、加速度センサ23による縦方向加速度の検出値Axとに基づいて、自車10の走行路の縦勾配を検出する。 The vertical gradient detection unit 56 detects the vertical gradient of the traveling path of the own vehicle 10 based on the detection value V of the vehicle speed of the own vehicle 10 by the vehicle speed sensor 21 and the detection value Ax of the vertical acceleration by the acceleration sensor 23. ..

具体的には、まず、LPFにより各検出値を平滑化する。そして、平滑化した車速Vsmoについて、下記式(3)に示すように、前進差分による微分値dVsmoを算出する。なお、dtは時間刻み間隔であり、Vsmo(i)は現在(現刻み時間)の車速であり、Vsmo(i−1)は前回(直前の刻み時間)の車速である。 Specifically, first, each detected value is smoothed by LPF. Then, for the smoothed vehicle speed Vsmo, the differential value dVsmo based on the forward difference is calculated as shown in the following equation (3). Note that dt is the time step interval, Vsmo (i) is the current (current step time) vehicle speed, and Vsmo (i-1) is the previous (previous step time) vehicle speed.

dVsmo=(Vsmo(i)−Vsmo(i−1))/dt … (3) dVsmo = (Vsmo (i) -Vsmo (i-1)) / dt ... (3)

そして、微分値dVsmoと、縦方向加速度Ax_smoを用いて、下記式(4)から、縦勾配Sxを算出する。 Then, the vertical gradient Sx is calculated from the following equation (4) using the differential value dVsmo and the vertical acceleration Ax_smo.

Sx=−(Ax_smo+dVsmo)/g … (4) Sx =-(Ax_smo + dVsmo) / g ... (4)

曲率検出部57は、車速センサ21、操舵角センサ22、加速度センサ23、ヨーレートセンサ24等の検出値に基づいて、自車10の走行路の曲率Cuを検出する。例えば、ヨーレートYRと車速Vとを用いて、下記式(5)から曲率Cuを算出する。 The curvature detection unit 57 detects the curvature Cu of the traveling path of the own vehicle 10 based on the detected values of the vehicle speed sensor 21, the steering angle sensor 22, the acceleration sensor 23, the yaw rate sensor 24, and the like. For example, the curvature Cu is calculated from the following equation (5) using the yaw rate YR and the vehicle speed V.

Cu=YR/V … (5) Cu = YR / V ... (5)

ジョイント検出部58は、自車10の走行路に設けられたジョイントに起因する路面の起伏を検出する。図3(a)(b)に示すように、自車10が道路90を走行中、道路90に設けられたジョイント101,102を通過する際に、自車10は鉛直方向に振動する。この振動は、振動検出部54によって検出され、図4(b)に示す振動スコアを得ることができる。 The joint detection unit 58 detects the undulations of the road surface caused by the joints provided on the traveling path of the own vehicle 10. As shown in FIGS. 3A and 3B, when the own vehicle 10 is traveling on the road 90 and passes through the joints 101 and 102 provided on the road 90, the own vehicle 10 vibrates in the vertical direction. This vibration is detected by the vibration detection unit 54, and the vibration score shown in FIG. 4B can be obtained.

ジョイント検出部58は、図4(b)に示す振動スコアに対してスコア閾値Fthを設定し、振動スコアが閾値Fth以上である場合に、ジョイントがあると検出する。図4(b)においては、1つのジョイントが存在することが検出される。スコア閾値Fthは、ジョイントに由来する振動スコアであると認められる下限値として設定される。スコア閾値Fthを設定することにより、ジョイント以外の路面の起伏による振動や、ノイズを除外することができる。 The joint detection unit 58 sets a score threshold value Fth for the vibration score shown in FIG. 4B, and detects that there is a joint when the vibration score is equal to or higher than the threshold value Fth. In FIG. 4B, the presence of one joint is detected. The score threshold value Fth is set as a lower limit value recognized as a vibration score derived from the joint. By setting the score threshold value Fth, vibration and noise due to undulations of the road surface other than the joint can be excluded.

路上構造物検出部59は、送受信履歴取得部52が取得する送受信履歴や、レーダセンサ25によって検出された物体情報に基づいて、路上構造物を検出する。例えば、自車10がトンネルを通過中には、GNSS受信装置32の受信感度が低下する。このため、路上構造物検出部59は、取得した送受信履歴から、GNSS受信装置32の受信感度が低下する区間を抽出する。これによって、自車10の走行路におけるトンネル等を検出でき、その大きさ等を推定することができる。 The road structure detection unit 59 detects the road structure based on the transmission / reception history acquired by the transmission / reception history acquisition unit 52 and the object information detected by the radar sensor 25. For example, while the own vehicle 10 is passing through the tunnel, the reception sensitivity of the GNSS receiving device 32 decreases. Therefore, the road structure detection unit 59 extracts a section in which the reception sensitivity of the GNSS receiving device 32 decreases from the acquired transmission / reception history. As a result, it is possible to detect a tunnel or the like in the traveling path of the own vehicle 10 and estimate its size or the like.

また、例えば、レーダセンサ25が出力する探査波は、ガードレール、中央分離帯、道路標識、看板等の金属構造物に反射される場合、強い反射波となってレーダセンサ25により受信される。このため、路上構造物検出部59は、レーダセンサ25により強い反射波が検出された区間を抽出する。これによって、路上構造物を検出でき、その大きさ等を推定することができる。 Further, for example, when the exploration wave output by the radar sensor 25 is reflected by a metal structure such as a guardrail, a median strip, a road sign, or a signboard, it becomes a strong reflected wave and is received by the radar sensor 25. Therefore, the road structure detection unit 59 extracts a section in which a strong reflected wave is detected by the radar sensor 25. As a result, the road structure can be detected and its size and the like can be estimated.

自車位置推定部60は、検出された走行路の特徴的要素(例えば、路面形状や路上構造物)を地図情報に含まれる走行路の特徴的要素と照合して、照合された地図情報における特徴的要素の位置を、検出した特徴的要素の位置として特定する。そして、下記式(6)に基づいて、特定された特徴的要素の位置xbと、検出された特徴的要素に対する自車10の相対位置xr(相対位置検出部53により検出される)から、地図情報における自車10の位置xcを推定する。なお、相対位置xrは、検出された特徴的要素に対して自車10が走行方向側(走行方向前方側)である場合を正の値とする。 The own vehicle position estimation unit 60 collates the detected characteristic elements of the travel path (for example, road surface shape and road structure) with the characteristic elements of the travel path included in the map information, and in the collated map information. The position of the characteristic element is specified as the position of the detected characteristic element. Then, based on the following equation (6), the map is obtained from the position xb of the specified characteristic element and the relative position xr (detected by the relative position detection unit 53) of the own vehicle 10 with respect to the detected characteristic element. The position xc of the own vehicle 10 in the information is estimated. The relative position xr is set to a positive value when the own vehicle 10 is on the traveling direction side (traveling direction forward side) with respect to the detected characteristic element.

xc=xb+xr … (6) xc = xb + xr ... (6)

具体的には、例えば、図6に示すように、自車10の走行路である道路90に設けられたジョイント101,102を通過した場合に、地図情報に基づいて、ジョイント101の位置Pj1と、ジョイント102の位置Pj2とが特定される。相対位置検出部53は、位置Pj1またはPj2に対して、自車10の相対位置xrを算出することができる。ジョイント102に対する自車10の相対位置xrは、ジョイント102と、自車10との距離Lc2によって表される正の値である。また、ジョイント101に対する自車10の相対位置は、ジョイント101と、自車10との距離(Lj2+Lc2)によって表される正の値である。 Specifically, for example, as shown in FIG. 6, when the joints 101 and 102 provided on the road 90, which is the traveling path of the own vehicle 10, are passed, the position Pj1 of the joint 101 is determined based on the map information. , The position Pj2 of the joint 102 is specified. The relative position detection unit 53 can calculate the relative position xr of the own vehicle 10 with respect to the position Pj1 or Pj2. The relative position xr of the own vehicle 10 with respect to the joint 102 is a positive value represented by the distance Lc2 between the joint 102 and the own vehicle 10. The relative position of the own vehicle 10 with respect to the joint 101 is a positive value represented by the distance (Lj2 + Lc2) between the joint 101 and the own vehicle 10.

例えば、地図情報から、ジョイント102の位置Pj2を特定し、自車10の車速V等に基づいて、ジョイント102に対する自車10の相対位置Lc2を算出する。そして、上記式(6)において、xb=Pj2、xr=Lc2とすることにより、地図情報に基づいた自車10の位置Pcを推定することができる。 For example, the position Pj2 of the joint 102 is specified from the map information, and the relative position Lc2 of the own vehicle 10 with respect to the joint 102 is calculated based on the vehicle speed V and the like of the own vehicle 10. Then, in the above equation (6), by setting xb = Pj2 and xr = Lc2, the position Pc of the own vehicle 10 can be estimated based on the map information.

誤差補正部61は、地図情報取得部51により取得された自車10の周囲の路面形状に基づいて、自車10に搭載された慣性センサ(例えば、加速度センサ23、ヨーレートセンサ24)と車速センサ21のうちの少なくともいずれか1つについて検出誤差を補正する。 The error correction unit 61 has an inertial sensor (for example, an acceleration sensor 23, a yaw rate sensor 24) and a vehicle speed sensor mounted on the vehicle 10 based on the road surface shape around the vehicle 10 acquired by the map information acquisition unit 51. The detection error is corrected for at least one of 21.

記憶部62は、外部サーバ12の外部地図情報DB13から取得した地図情報、センサ群20から取得した検出値およびその検出値に基づいて算出した算出値等をECU40に備えられた記憶手段(RAM等)に記憶する。地図情報は、車載地図情報DB41に格納される。記憶部62は、地図情報取得部51が取得する走行路の勾配または曲率等に関する地図情報を、走行路の所定区間毎に直線近似する等により、車載地図情報DB41に記憶させるように構成されていてもよい。このように地図情報を近似して記憶することにより、ECU40の記憶容量における負荷を軽減することができる。 The storage unit 62 stores map information acquired from the external map information DB 13 of the external server 12, detected values acquired from the sensor group 20, and calculated values calculated based on the detected values, as a storage means (RAM or the like) provided in the ECU 40. ). The map information is stored in the in-vehicle map information DB 41. The storage unit 62 is configured to store the map information regarding the slope or curvature of the travel path acquired by the map information acquisition unit 51 in the vehicle-mounted map information DB 41 by linearly approximating each predetermined section of the travel path. You may. By storing the map information in an approximate manner in this way, the load on the storage capacity of the ECU 40 can be reduced.

運転支援部70は、位置推定部50により推定された自車10の位置に基づいて、自車10の運転支援に関する処理を実行する。運転支援として、例えば、制御対象80を制御するための制御指令信号を出力する。運転支援部70は、経路地図情報取得部71と、走行制御部72とを備えている。 The driving support unit 70 executes a process related to driving support of the own vehicle 10 based on the position of the own vehicle 10 estimated by the position estimation unit 50. As driving support, for example, a control command signal for controlling the control target 80 is output. The driving support unit 70 includes a route map information acquisition unit 71 and a travel control unit 72.

経路地図情報取得部71は、位置推定部50により推定された自車10の位置に基づいて、自車10がこれから走行する走行経路における地図情報を取得する。経路地図情報取得部71は、外部通信装置30を介して、外部地図情報DB13から地図情報を取得してもよいし、車載地図情報DB41から地図情報を取得してもよい。 The route map information acquisition unit 71 acquires map information on the travel route on which the vehicle 10 is about to travel, based on the position of the vehicle 10 estimated by the position estimation unit 50. The route map information acquisition unit 71 may acquire map information from the external map information DB 13 or may acquire map information from the vehicle-mounted map information DB 41 via the external communication device 30.

走行制御部72は、横方向制御部73と、縦方向制御部74とを備えている。走行制御部72は、横方向制御部73と、縦方向制御部74とを備えることにより、走行計画等に従って自車10の自動運転および自動駐車を実行可能に構成されている。走行制御部72は、自動運転に際し、LKA(Lane Keeping Assist)、LCA(Lane Change Assist)、ACC(Adaptive Cruise Control)等として機能する。LKAとは、走行区画線への接近を阻む方向への操舵力を発生させることで、走行中の車線を維持して車両を走行させる機能である。また、LCAとは、隣接車線へと車両を自動で移動させる機能である。また、ACCとは、駆動力及び制動力を調整することで、先行車両との目標車間距離を維持するように自車両の走行速度を制御する機能である。 The travel control unit 72 includes a lateral control unit 73 and a vertical control unit 74. The travel control unit 72 includes a lateral control unit 73 and a vertical control unit 74, so that the vehicle 10 can be automatically driven and parked according to a travel plan or the like. The travel control unit 72 functions as an LKA (Lane Keeping Assist), an LCA (Lane Change Assist), an ACC (Adaptive Cruise Control), or the like during automatic driving. LKA is a function of maintaining a running lane and driving a vehicle by generating a steering force in a direction that prevents the vehicle from approaching the traveling lane. LCA is a function of automatically moving a vehicle to an adjacent lane. Further, ACC is a function of controlling the traveling speed of the own vehicle so as to maintain the target inter-vehicle distance from the preceding vehicle by adjusting the driving force and the braking force.

走行制御部72は、さらに、上記以外の機能を有するように構成されていてもよい。例えば、車両の周囲に位置する物体に対して、車両に対する衝突の有無を判定し、その物体との衝突を回避すべく、若しくは衝突被害を軽減すべく制御を行うPCS(Pre−Crash Safety)システムとしての機能等を有するように構成されていてもよい。なお、自車10の周囲の物体は、レーダセンサ25等により検出することができる。 The travel control unit 72 may be further configured to have a function other than the above. For example, a PCS (Pre-Crash Safety) system that determines the presence or absence of a collision with an object located around a vehicle and controls the object to avoid a collision with the object or to reduce collision damage. It may be configured to have such a function as. Objects around the own vehicle 10 can be detected by a radar sensor 25 or the like.

横方向制御部73は、曲率情報および横勾配情報に基づいて算出した自車10の舵角目標値を用いて、自車10の操舵制御を行う。横方向制御部73によって、自車10の横位置yを制御できる。縦方向制御部74は、縦勾配情報に基づいて算出した加減速目標値を用いて、自車10の駆動制御および制動制御を行う。縦方向制御部74によって、自車10の車速Vを制御できる。 The lateral control unit 73 controls the steering of the own vehicle 10 by using the steering angle target value of the own vehicle 10 calculated based on the curvature information and the lateral gradient information. The lateral control unit 73 can control the lateral position y of the own vehicle 10. The vertical control unit 74 performs drive control and braking control of the own vehicle 10 by using the acceleration / deceleration target value calculated based on the vertical gradient information. The vehicle speed V of the own vehicle 10 can be controlled by the vertical control unit 74.

横方向(y軸方向)と縦方向(x軸方向)の制御ブロック図を、それぞれ図7,8に示す。図7に示す横方向制御ブロック図は、ECU40側で実行される処理と、制御対象80側で実行される処理とを含む。ECU40側で実行される横方向制御処理は、横方向制御部73によって実行される。横方向制御部73は、舵角演算部111と、横位置フィードバック(FB)制御部112と、舵角FB制御部113とを備えている。制御対象80は、舵角ダイナミクス114と、車両・車輪ダイナミクス115とを備えている。 The control block diagrams in the horizontal direction (y-axis direction) and the vertical direction (x-axis direction) are shown in FIGS. 7 and 8, respectively. The lateral control block diagram shown in FIG. 7 includes a process executed on the ECU 40 side and a process executed on the controlled target 80 side. The lateral control process executed on the ECU 40 side is executed by the lateral control unit 73. The lateral control unit 73 includes a steering angle calculation unit 111, a lateral position feedback (FB) control unit 112, and a steering angle FB control unit 113. The control target 80 includes a steering angle dynamics 114 and a vehicle / wheel dynamics 115.

舵角演算部111は、車速センサ21から取得される自車10の車速Vと、地図情報から取得される自車10の走行路の曲率Cuおよび横勾配(カント)Syの入力に基づいて、舵角フィードフォワード(FF)項Dffを算出する。 The steering angle calculation unit 111 is based on the input of the vehicle speed V of the own vehicle 10 acquired from the vehicle speed sensor 21, the curvature Cu of the traveling path of the own vehicle 10 acquired from the map information, and the lateral gradient (cant) Sy. The steering angle feed forward (FF) term Dff is calculated.

横位置FB制御部112は、横位置目標値yobおよびヨー角目標値θobと、車両・車輪ダイナミクス115が出力する現在の自車10の横位置yおよびヨー角θとの入力に基づいて、舵角FB項Dfbを出力する。自車10を基準線Bに沿って走行させるために、横位置目標値yobおよびヨー角目標値θobは、零に設定されることが好ましい。舵角FB項Dfbは、例えば、下記式(7)により算出できる。なお、kpyは、比例制御定数であり、kdyは、微分制御定数である。 The lateral position FB control unit 112 steers based on the inputs of the lateral position target value yob and the yaw angle target value θob and the current lateral position y and yaw angle θ of the current own vehicle 10 output by the vehicle / wheel dynamics 115. The angle FB term Dfb is output. In order to drive the own vehicle 10 along the reference line B, the lateral position target value yob and the yaw angle target value θob are preferably set to zero. The rudder angle FB term Dfb can be calculated by, for example, the following equation (7). In addition, kpy is a proportional control constant, and kdy is a differential control constant.

Dfb=kpy×(yob−y)+kdy×(θob−θ) … (7) Dfb = kpy × (yoby) + kdy × (θob-θ)… (7)

舵角FB項Dfbと、舵角FF項Dffとは、加算されて、舵角指令値Dcとして、舵角FB制御部に入力される。なお、舵角指令値Dcは、舵角目標値に相当する。舵角FB制御部113は、舵角指令値Dcと、舵角ダイナミクス114が出力する現在の自車10の舵角Dmとの入力に基づいて、操舵トルクTqを出力する。操舵トルクTqは、舵角Dmを舵角指令値Dcに制御するために要求される操舵トルクとして算出される。 The rudder angle FB term Dfb and the rudder angle FF term Dff are added and input to the rudder angle FB control unit as a rudder angle command value Dc. The rudder angle command value Dc corresponds to the rudder angle target value. The steering angle FB control unit 113 outputs the steering torque Tq based on the input of the steering angle command value Dc and the steering angle Dm of the current own vehicle 10 output by the steering angle dynamics 114. The steering torque Tq is calculated as the steering torque required to control the steering angle Dm to the steering angle command value Dc.

舵角ダイナミクス114は、舵角に関する自車10の制御対象であり、操舵装置83に相当する。すなわち、操舵装置83は、入力された操舵トルクTqに基づいて操舵制御される。車両・車輪ダイナミクス115は、車両・車輪に関する自車10の制御対象であり、操舵トルクTqにより操舵装置83が操舵された場合における自車10の横位置yおよびヨー角θを出力する。 The steering angle dynamics 114 is a control target of the own vehicle 10 regarding the steering angle, and corresponds to the steering device 83. That is, the steering device 83 is steered and controlled based on the input steering torque Tq. The vehicle / wheel dynamics 115 is a control target of the own vehicle 10 with respect to the vehicle / wheel, and outputs the lateral position y and the yaw angle θ of the own vehicle 10 when the steering device 83 is steered by the steering torque Tq.

図8に示す縦方向制御ブロック図は、ECU40側で実行される処理と、制御対象80側で実行される処理とを含む。ECU40側で実行される縦方向制御処理は、縦方向制御部74によって実行される。縦方向制御部74は、加速度演算部121と、車速フィードバック(FB)制御部122と、エンジン/ブレーキ(E/B)FB制御部123とを備えている。制御対象80は、E/Bダイナミクス124と、車両・車輪ダイナミクス125とを備えている。 The vertical control block diagram shown in FIG. 8 includes a process executed on the ECU 40 side and a process executed on the controlled object 80 side. The vertical control process executed on the ECU 40 side is executed by the vertical control unit 74. The vertical control unit 74 includes an acceleration calculation unit 121, a vehicle speed feedback (FB) control unit 122, and an engine / brake (E / B) FB control unit 123. The control target 80 includes E / B dynamics 124 and vehicle / wheel dynamics 125.

加速度演算部121は、車速センサ21から取得される自車10の車速Vと、ヨーレートセンサ24から取得される自車10の走行路の縦勾配Sxとの入力に基づいて、加速度FF項Affを算出する。 The acceleration calculation unit 121 sets the acceleration FF term Aff based on the input of the vehicle speed V of the own vehicle 10 acquired from the vehicle speed sensor 21 and the vertical gradient Sx of the traveling path of the own vehicle 10 acquired from the yaw rate sensor 24. calculate.

車速FB制御部122は、車速目標値Vobと、車両・車輪ダイナミクス125が出力する現在の自車10の車速Vとの入力に基づいて、加速度FB項Afbを出力する。加速度FB項Afbは、例えば、下記式(8)により算出できる。 The vehicle speed FB control unit 122 outputs the acceleration FB term Afb based on the input of the vehicle speed target value Vob and the vehicle speed V of the current own vehicle 10 output by the vehicle / wheel dynamics 125. The acceleration FB term Afb can be calculated by, for example, the following equation (8).

Afb=kpx×(Vob−V) … (8) Afb = kpx × (Vob-V)… (8)

加速度FB項Afbと、加速度FF項Affとは、加算されて、加速度指令値Acとして、E/B・FB制御部123に入力される。なお、加速度指令値Acは、加減速目標値に相当する。E/B・FB制御部123は、加速度指令値Acと、E/Bダイナミクス124が出力する現在の自車10の加速度Amとの入力に基づいて、E/B制御値EBを出力する。E/B制御値EBは、加速度Amを加速度指令値Acに制御するためのエンジンまたはブレーキの制御値であり、具体的には、エンジン開度、ブレーキシリンダ圧等の制御値である。 The acceleration FB term Afb and the acceleration FF term Aff are added and input to the E / B / FB control unit 123 as an acceleration command value Ac. The acceleration command value Ac corresponds to the acceleration / deceleration target value. The E / B / FB control unit 123 outputs the E / B control value EB based on the input of the acceleration command value Ac and the current acceleration Am of the own vehicle 10 output by the E / B dynamics 124. The E / B control value EB is a control value of the engine or the brake for controlling the acceleration Am to the acceleration command value Ac, and specifically, is a control value of the engine opening degree, the brake cylinder pressure, and the like.

E/Bダイナミクス124は、エンジン・ブレーキに関する自車10の制御対象であり、駆動装置81および制動装置82に相当する。駆動装置81および制動装置82は、E/B制御値EBに基づいて制御される。車両・車輪ダイナミクス125は、E/B制御値EBにより駆動装置81および制動装置82が制御された場合における自車10の車速Vを出力する。 The E / B dynamics 124 is a control target of the own vehicle 10 regarding the engine brake, and corresponds to the drive device 81 and the braking device 82. The drive device 81 and the braking device 82 are controlled based on the E / B control value EB. The vehicle / wheel dynamics 125 outputs the vehicle speed V of the own vehicle 10 when the drive device 81 and the braking device 82 are controlled by the E / B control value EB.

横方向制御部73、縦方向制御部74によれば、経路地図情報として取得される自車10の走行経路における横勾配情報、縦勾配情報、曲率情報に基づいて、FF項である舵角FF項Dff、加速度FF項Affを算出することができる。このFF項を、それぞれ、FB項である舵角FB項Dfb、加速度FB項Afbに加算して、その和として得られる舵角指令値Dc、加速度指令値Acに基づいて、自車10を的確に制御できる。このため、自車10の走行制御性が向上する。 According to the lateral control unit 73 and the vertical control unit 74, the steering angle FF, which is an FF term, is based on the lateral gradient information, the longitudinal gradient information, and the curvature information in the traveling route of the own vehicle 10 acquired as the route map information. The term Dff and the acceleration FF term Aff can be calculated. This FF term is added to the steering angle FB term Dfb and the acceleration FB term Afb, which are the FB terms, respectively, and the own vehicle 10 is accurately based on the steering angle command value Dc and the acceleration command value Ac obtained as the sum. Can be controlled. Therefore, the traveling controllability of the own vehicle 10 is improved.

特に、カーブ路を通過する際において、自車10の走行制御性が著しく向上する。例えば、撮像装置によりカーブ路の曲率を検出し、検出した曲率に応じて車両の走行制御を行う場合には、撮像装置による曲率の検出が遅く、操舵制御が遅れる懸念があった。これに対して、運転支援部70によれば、位置推定部50により精度よく推定された自車10の位置に基づいて、地図情報としてカーブ路の曲率を迅速に取得することができる。このため、カーブ路における操舵制御の遅れが解消でき、自車10の操舵制御を的確に実行することができる。 In particular, when passing through a curved road, the traveling controllability of the own vehicle 10 is remarkably improved. For example, when the curvature of a curved road is detected by an imaging device and the vehicle travel control is performed according to the detected curvature, there is a concern that the detection of the curvature by the imaging device is slow and the steering control is delayed. On the other hand, according to the driving support unit 70, the curvature of the curved road can be quickly acquired as map information based on the position of the own vehicle 10 accurately estimated by the position estimation unit 50. Therefore, the delay in the steering control on the curved road can be eliminated, and the steering control of the own vehicle 10 can be accurately executed.

運転支援部70は、さらに、LCAに関する機能として、車線変更時に、現在の走行車線の基準線における縦方向の位置を、車線変更後の走行車線の基準線に対応させる機能を有するように構成されていてもよい。 Further, as a function related to LCA, the driving support unit 70 is configured to have a function of making the vertical position of the current driving lane reference line correspond to the reference line of the traveling lane after the lane change when the lane is changed. You may be.

例えば、図3に示すような片側3車線の道路90に対して、図9に示すように、車線ごとに基準線B1〜B3が設定される。基準線B2に沿って走行する自車10については、基準線B2における縦方向の位置は推定されるが、基準線B1,B3における縦方向の位置は推定されない。そこで、自車10が車線変更する際に、基準線B2における自車10の縦方向の位置と、車線変更後の基準線(基準線B1または基準線B3)における縦方向の位置とを対応付けする。 For example, for a road 90 having three lanes on each side as shown in FIG. 3, reference lines B1 to B3 are set for each lane as shown in FIG. For the own vehicle 10 traveling along the reference line B2, the vertical position on the reference line B2 is estimated, but the vertical position on the reference lines B1 and B3 is not estimated. Therefore, when the own vehicle 10 changes lanes, the vertical position of the own vehicle 10 on the reference line B2 is associated with the vertical position on the reference line (reference line B1 or reference line B3) after the lane change. To do.

具体的には、図9に示すように、基準線B1〜B3上に、同期ポイントMP1〜MP4を設定する。そして、主となる基準線として例えば基準線B2を選択し、同期ポイント毎に、前の同期ポイントからの現同期ポイントまでの基準線B2の長さLmp1を算出する。また、前の同期ポイントからの現同期ポイントまでの基準線B1、B3の長さLmp2,Lmp3を算出する。そして、長さLmp2と長さLmp1との差であるdLmp1(=Lmp1−Lmp2),長さLmp2と長さLmp3との差であるdLmp3(=Lmp3−Lmp2)とを算出する。同期ポイント毎に算出したLmp2、dLmp1、dLmp3を地図情報として含む地図情報DBを準備する。 Specifically, as shown in FIG. 9, synchronization points MP1 to MP4 are set on the reference lines B1 to B3. Then, for example, the reference line B2 is selected as the main reference line, and the length Lmp1 of the reference line B2 from the previous synchronization point to the current synchronization point is calculated for each synchronization point. Further, the lengths Lmp2 and Lmp3 of the reference lines B1 and B3 from the previous synchronization point to the current synchronization point are calculated. Then, dLmp1 (= Lmp1-Lmp2), which is the difference between the length Lmp2 and the length Lmp1, and dLmp3 (= Lmp3-Lmp2), which is the difference between the length Lmp2 and the length Lmp3, are calculated. A map information DB including Lmp2, dLmp1 and dLmp3 calculated for each synchronization point as map information is prepared.

経路地図情報取得部71は、同期ポイントMP1〜MP4毎に記憶されたLmp2、dLmp1、dLmp3を含む地図情報を取得する。例えば、自車10が車線変更し、自車10の走行路の基準線が基準線B2から基準線B1に変更された場合には、自車10の現在位置から最も近い同期ポイントにおけるLmp2、dLmp1、dLmp3を用いて、基準線B2において推定された自車10の縦方向の位置を、基準線B1において推定された縦方向の位置に変換することができる。 The route map information acquisition unit 71 acquires map information including Lmp2, dLmp1, and dLmp3 stored for each synchronization point MP1 to MP4. For example, when the own vehicle 10 changes lanes and the reference line of the traveling path of the own vehicle 10 is changed from the reference line B2 to the reference line B1, Lmp2 and dLmp1 at the synchronization point closest to the current position of the own vehicle 10 , DLmp3 can be used to convert the vertical position of the vehicle 10 estimated on the reference line B2 to the vertical position estimated on the reference line B1.

なお、同期ポイントは、基準線の形態に応じて設定間隔や個数を調整することが好ましい。例えば、曲率が大きいカーブ路等の基準線間で距離の差が大きくなる領域では、例えば同期ポイントMP2〜MP4に示すように、同期ポイント数を多くし、間隔を狭く設定する。他方、略直行する道路等の基準線間で距離の差が小さくなる領域おいては、同期ポイントMP1〜MP2に示すように、同期ポイント数を少なくし、間隔を広く設定する。また、道路の接続点や分離点には同期ポイントを設定し、基準線間の位置関係を更新可能とすることが好ましい。 It is preferable to adjust the setting interval and the number of synchronization points according to the form of the reference line. For example, in a region where the difference in distance between reference lines is large, such as a curved road having a large curvature, the number of synchronization points is increased and the interval is set narrow, as shown in, for example, synchronization points MP2 to MP4. On the other hand, in an area where the difference in distance between reference lines such as a substantially orthogonal road is small, the number of synchronization points is reduced and the interval is set wide as shown in synchronization points MP1 to MP2. Further, it is preferable to set synchronization points at the connection points and separation points of the road so that the positional relationship between the reference lines can be updated.

制御対象80は、駆動装置81と、制動装置82と、操舵装置83と、警報装置84と、表示装置85とを備えている。制御対象80は、ECU40からの制御指令に基づいて作動するともに、運転者の操作入力によって作動するように構成されている。なお、運転者の操作入力は、ECU40によって適宜処理された後に、ECU40への制御指令信号として制御対象80に入力されてもよい。 The control target 80 includes a drive device 81, a braking device 82, a steering device 83, an alarm device 84, and a display device 85. The control target 80 is configured to operate based on a control command from the ECU 40 and to operate according to an operation input of the driver. The driver's operation input may be input to the control target 80 as a control command signal to the ECU 40 after being appropriately processed by the ECU 40.

駆動装置81は、車両を駆動するための装置であり、運転者のアクセル等の操作またはECU40の運転支援部70からの指令によって制御される。具体的には、内燃機関やモータ、蓄電池等の車両の駆動源と、それに関連する各構成を駆動装置81として挙げることができる。ECU40は、自車10の走行計画や車両状態に応じて駆動装置81を自動で制御する機能を有している。 The drive device 81 is a device for driving the vehicle, and is controlled by the driver's operation of the accelerator or the like or a command from the driving support unit 70 of the ECU 40. Specifically, the drive source of the vehicle such as an internal combustion engine, a motor, and a storage battery, and each configuration related thereto can be mentioned as the drive device 81. The ECU 40 has a function of automatically controlling the drive device 81 according to the travel plan of the own vehicle 10 and the vehicle state.

制動装置82は、自車10を制動するための装置であり、運転者のブレーキ操作またはECU40の運転支援部70からの指令によって制御される。ECU40は、物体との衝突回避又は衝突被害の軽減のためのブレーキ機能として、運転者のブレーキ操作による制動力を増強して補助するブレーキアシスト機能、及び運転者のブレーキ操作がない場合に自動制動を行う自動ブレーキ機能を有していてもよい。制動装置82は、ECU40からの制御指令信号に基づき、これらの機能によるブレーキ制御を実施することができる。 The braking device 82 is a device for braking the own vehicle 10, and is controlled by a driver's braking operation or a command from the driving support unit 70 of the ECU 40. The ECU 40 has a brake assist function that enhances and assists the braking force by the driver's brake operation as a brake function for avoiding a collision with an object or reducing collision damage, and automatic braking when there is no driver's brake operation. It may have an automatic braking function to perform the above. The braking device 82 can perform brake control by these functions based on the control command signal from the ECU 40.

操舵装置83は、自車10を操舵するための装置であり、運転者の操舵操作またはECU40の運転支援部70からの指令によって制御される。ECU40は、衝突回避または車線変更のために、操舵装置83を自動で制御する機能を有している。 The steering device 83 is a device for steering the own vehicle 10, and is controlled by a steering operation of the driver or a command from the driving support unit 70 of the ECU 40. The ECU 40 has a function of automatically controlling the steering device 83 for collision avoidance or lane change.

警報装置84は、聴覚的に運転者等に報知するための装置であり、例えば自車10の車室内に設置されたスピーカやブザー等である。警報装置84は、ECU40からの制御指令信号に基づき警報音等を発することにより、例えば、運転者に対し、危険が及んでいること等を報知する。 The alarm device 84 is a device for aurally notifying the driver or the like, for example, a speaker or a buzzer installed in the vehicle interior of the own vehicle 10. The alarm device 84 issues an alarm sound or the like based on the control command signal from the ECU 40 to notify the driver, for example, that a danger is present.

表示装置85は、視覚的に運転者等に報知するための装置であり、例えば自車10の車室内に設置されたディスプレイ、計器類である。表示装置85は、ECU40からの制御指令信号に基づき警報メッセージ等を表示することにより、例えば、運転者に対し、危険が及んでいること等を通知する。 The display device 85 is a device for visually notifying the driver and the like, and is, for example, a display and instruments installed in the vehicle interior of the own vehicle 10. The display device 85 displays an alarm message or the like based on the control command signal from the ECU 40 to notify, for example, the driver that there is a danger.

図10に、路面形状としてジョイントによる起伏を検出して自車位置を推定し、運転支援を実行する場合を例示して、ECU40が実行する位置推定処理および運転支援処理を示すフローチャートを示す。図10に示す処理は、自車10の運転時に所定の周期で繰り返し実行される。 FIG. 10 shows a flowchart showing the position estimation process and the driving support process executed by the ECU 40 by exemplifying a case where the undulations due to the joints are detected as the road surface shape to estimate the position of the own vehicle and the driving support is executed. The process shown in FIG. 10 is repeatedly executed at a predetermined cycle when the own vehicle 10 is driven.

ステップS101では、地図情報として、自車10の走行路におけるジョイント情報を取得する。具体的には、ジョイントの位置、ジョイント上を走行した際の車両の振動波形等を含む地図情報を取得する。地図情報に含まれる振動波形は、その道路を実際に走行して得られた際に加速度センサ23によって検出された振動波形である。ステップS102に進む。 In step S101, the joint information on the traveling path of the own vehicle 10 is acquired as the map information. Specifically, map information including the position of the joint, the vibration waveform of the vehicle when traveling on the joint, and the like is acquired. The vibration waveform included in the map information is a vibration waveform detected by the acceleration sensor 23 when actually traveling on the road. The process proceeds to step S102.

ステップS102では、センサ群20から、自車10の加速度、車速等と含む検出値を取得し、ステップS104に進む。 In step S102, the detection values including the acceleration, vehicle speed, etc. of the own vehicle 10 are acquired from the sensor group 20, and the process proceeds to step S104.

ステップS104では、例えば図4(a)に示すような加速度センサ23が検出した鉛直方向の加速度から、図4(b)に示すような振動スコアを算出する。その後、ステップS105に進む。 In step S104, for example, the vibration score as shown in FIG. 4B is calculated from the vertical acceleration detected by the acceleration sensor 23 as shown in FIG. 4A. Then, the process proceeds to step S105.

ステップS105では、振動スコアに基づいて、自車10の走行路においてジョイントが検出されたか否かを判定する。具体的には、算出した振動スコアFsに対して、スコア閾値Fthを設定する。そして、Fs≧Fthである場合に、ジョイントが検出されたと判定する。また、Fs<Fthである場合に、ジョイントが検出されないと判定する。ジョイントが検出された場合には、ステップS106〜S114の処理を実行する。ジョイントが検出されなかった場合には、ステップS122〜S124の処理を実行する。 In step S105, it is determined whether or not a joint is detected in the traveling path of the own vehicle 10 based on the vibration score. Specifically, the score threshold value Fth is set for the calculated vibration score Fs. Then, when Fs ≧ Fth, it is determined that the joint has been detected. Further, when Fs <Fth, it is determined that the joint is not detected. When the joint is detected, the processes of steps S106 to S114 are executed. If the joint is not detected, the processes of steps S122 to S124 are executed.

ステップS106〜ステップS114の処理は、自車10の位置推定に係るステップS106〜ステップS111までの処理と、車速センサ21の誤差補正に係るステップS112〜ステップS114の処理とを含む。 The processes of steps S106 to S114 include the processes of steps S106 to S111 related to the position estimation of the own vehicle 10 and the processes of steps S112 to S114 related to the error correction of the vehicle speed sensor 21.

まず、ステップS106では、検出したジョイントの振動スコアの波形(振動波形)を、検出波形Jdとして取得する。その後、ステップS107に進む。 First, in step S106, the waveform (vibration waveform) of the detected joint vibration score is acquired as the detected waveform Jd. Then, the process proceeds to step S107.

ステップS107では、ステップS101で取得した地図情報から、ジョイント上を走行した際の車両の振動波形を、地図波形Jmとして取得する。地図波形Jmは、過去に推定した自車10の位置から、自車10の走行経路に沿って所定の範囲内に位置するジョイントについての振動波形を複数抽出したものであることが好ましい。自車10のその後、ステップS108に進む。 In step S107, from the map information acquired in step S101, the vibration waveform of the vehicle when traveling on the joint is acquired as the map waveform Jm. It is preferable that the map waveform Jm is obtained by extracting a plurality of vibration waveforms of joints located within a predetermined range along the traveling path of the own vehicle 10 from the positions of the own vehicle 10 estimated in the past. After the own vehicle 10, the process proceeds to step S108.

ステップS108では、検出波形Jdと、複数の地図波形Jmとを照合し、検出波形Jdと一致度が最も高い地図波形Jmを選定する。その後、ステップS109に進む。 In step S108, the detected waveform Jd is collated with a plurality of map waveforms Jm, and the map waveform Jm having the highest degree of coincidence with the detected waveform Jd is selected. After that, the process proceeds to step S109.

ステップS109では、選定した地図波形Jmの位置を地図情報から取得し、検出したジョイントの位置xjmとして特定する。その後、ステップS110に進む。 In step S109, the position of the selected map waveform Jm is acquired from the map information and specified as the detected joint position xjm. After that, the process proceeds to step S110.

ステップS110では、特定したジョイントの位置xjmに対する自車10の相対位置xrを検出する。相対位置xrは、ジョイントを検出した時点から、現在までに走行した自車10の走行距離として算出することができる。例えば、ステップS102においてセンサ検出値を取得した時点から、ステップS110までの処理に要する平均的な処理時間Tlと、ステップS102において取得した自車10の車速Vとの積(V×Tl)を相対位置xrとして算出してもよい。その後、ステップS111に進む。 In step S110, the relative position xr of the own vehicle 10 with respect to the specified joint position xjm is detected. The relative position xr can be calculated as the mileage of the own vehicle 10 that has traveled from the time when the joint is detected to the present. For example, the product (V × Tl) of the average processing time Tl required for the processing from the time when the sensor detection value is acquired in step S102 to step S110 and the vehicle speed V of the own vehicle 10 acquired in step S102 is relative. It may be calculated as the position xr. After that, the process proceeds to step S111.

ステップS111では、ステップS109において特定したジョイントの位置xjmと、相対位置xrとに基づいて、下記式(9)により、自車10の位置xcを推定する。その後、ステップS112に進む。 In step S111, the position xc of the own vehicle 10 is estimated by the following equation (9) based on the joint position xjm specified in step S109 and the relative position xr. Then, the process proceeds to step S112.

xc=xjm+xr … (9) xc = xjm + xr ... (9)

ステップS112では、過去に推定した自車10の位置を取得する。例えば、現周期以前にジョイントを検出した周期において、推定した自車位置xcbを取得する。その後、ステップS113に進む。 In step S112, the position of the own vehicle 10 estimated in the past is acquired. For example, the estimated own vehicle position xcb is acquired in the cycle in which the joint is detected before the current cycle. After that, the process proceeds to step S113.

ステップS113では、過去に推定した自車位置xcbと、現周期で推定した自車位置xcとの差分として得られる推定走行距離xp1(x=xc−xb)を算出する。また、過去の自車位置xcbを推定した時点から現在の自車位置xcを推定した時点までの経過時間Tpasと、経過時間Tpasの間の車速Vの変化から、算出走行距離xp2とを算出する。その後、ステップS114に進む。 In step S113, the estimated mileage xp1 (x = xc−xb) obtained as the difference between the own vehicle position xcb estimated in the past and the own vehicle position xc estimated in the current cycle is calculated. Further, the calculated mileage xp2 is calculated from the elapsed time Tpas from the time when the past own vehicle position xcb is estimated to the time when the current own vehicle position xc is estimated and the change in the vehicle speed V between the elapsed time Tpas. .. Then, the process proceeds to step S114.

ステップS114では、推定走行距離xp1と、算出走行距離xp2との差に基づいて、車速センサ21の誤差を補正する。その後、ステップS130に進む。 In step S114, the error of the vehicle speed sensor 21 is corrected based on the difference between the estimated mileage xp1 and the calculated mileage xp2. Then, the process proceeds to step S130.

他方、ステップS122では、ステップS112と同様に、過去に推定した自車位置xcbを取得し、ステップS123に進む。ステップS123では、過去の自車位置xcbを推定した時点から現在の自車位置xcを推定した時点までの経過時間Tpasと、経過時間Tpasの間の車速センサ21の検出値の変化から、算出走行距離xp2とを算出する。そして、下記式(10)により、過去の自車位置xcbと、算出走行距離xp2から、現在の自車位置xccを推定する。その後、ステップS130に進む。 On the other hand, in step S122, as in step S112, the own vehicle position xcb estimated in the past is acquired, and the process proceeds to step S123. In step S123, the vehicle is calculated from the change in the detected value of the vehicle speed sensor 21 between the elapsed time Tpas from the time when the past vehicle position xcb is estimated to the time when the current vehicle position xc is estimated and the elapsed time Tpas. The distance xp2 is calculated. Then, the current own vehicle position xcc is estimated from the past own vehicle position xcc and the calculated mileage xp2 by the following equation (10). Then, the process proceeds to step S130.

xcc=xcb+xp2 … (10) xcc = xcb + xp2 ... (10)

ステップS130では、ステップS111またはステップS124において推定した自車位置に基づいて、自車10がこれから走行する走行経路についての地図情報(経路地図情報)を取得する。経路地図情報は、曲率Cu,横勾配Sy,縦勾配Sxに関する情報を含む。その後、ステップS131に進む。 In step S130, map information (route map information) about the traveling route that the own vehicle 10 is about to travel is acquired based on the own vehicle position estimated in step S111 or step S124. The route map information includes information on the curvature Cu, the horizontal gradient Sy, and the vertical gradient Sx. After that, the process proceeds to step S131.

ステップS131では、経路地図情報として取得した曲率Cu,横勾配Syに基づいて、舵角指令値Dcを算出する。舵角指令値Dcの算出は、例えば、図7の制御ブロック図に示す処理によって算出できる。その後、ステップS132に進む。 In step S131, the steering angle command value Dc is calculated based on the curvature Cu and the lateral gradient Sy acquired as the route map information. The rudder angle command value Dc can be calculated, for example, by the process shown in the control block diagram of FIG. 7. After that, the process proceeds to step S132.

ステップS132では、経路地図情報として取得した縦勾配Sxに基づいて、加速度指令値Acを算出する。加速度指令値Acの算出は、例えば、図8の制御ブロック図に示す処理によって算出できる。その後、ステップS133に進む。 In step S132, the acceleration command value Ac is calculated based on the vertical gradient Sx acquired as the route map information. The acceleration command value Ac can be calculated, for example, by the process shown in the control block diagram of FIG. After that, the process proceeds to step S133.

ステップS133では、算出した舵角指令値Dcおよび加速度指令値Acに基づいて、駆動装置81、制動装置82、操舵装置83等に対して、運転支援を実行し、処理を終了する。 In step S133, driving support is executed for the drive device 81, the braking device 82, the steering device 83, and the like based on the calculated steering angle command value Dc and the acceleration command value Ac, and the process ends.

本実施形態によれば、ECU40は、車両に搭載されている加速度センサ23の検出値を利用して、自車10が、その走行路に設けられたジョイントを通過する際に発生する自車10の振動を検出することができる。そして、自車10が、検出した自車10の振動に基づいて、ジョイントを検出することができる。さらには、そのジョイントを検出した際の振動波形を、地図情報に含まれるジョイント毎の振動波形と照合することにより、検出したジョイントの位置を特定することができる。さらに、特定したジョイントの位置と、そのジョイントに対する自車10の相対位置とに基づいて、自車10の位置を推定することができる。 According to the present embodiment, the ECU 40 uses the detection value of the acceleration sensor 23 mounted on the vehicle to generate the own vehicle 10 when the own vehicle 10 passes through a joint provided in the traveling path. Vibration can be detected. Then, the own vehicle 10 can detect the joint based on the detected vibration of the own vehicle 10. Furthermore, the position of the detected joint can be specified by collating the vibration waveform when the joint is detected with the vibration waveform for each joint included in the map information. Further, the position of the own vehicle 10 can be estimated based on the position of the specified joint and the relative position of the own vehicle 10 with respect to the joint.

ECU40によれば、車両に搭載されている加速度センサ23を利用して、ジョイントを検出することによって、自車10の位置を地図情報に基づいて推定することができる。このため、視覚的に自車10の位置を検出することが困難な状況下でも、自車10の位置を精度よく推定できる。 According to the ECU 40, the position of the own vehicle 10 can be estimated based on the map information by detecting the joint by using the acceleration sensor 23 mounted on the vehicle. Therefore, the position of the own vehicle 10 can be estimated accurately even in a situation where it is difficult to visually detect the position of the own vehicle 10.

例えば、撮像装置を用いて道路標識等を認識することにより、自車10の位置を推定する場合には、雨天や濃霧等の天候、昼夜や逆光等の明暗差、振動による画像ブレ、隣接車等による遮蔽等の視覚的に阻害された環境条件では、標識の形状を検出できなくなる場合がある。これに対し、本実施形態では、ジョイントの通過に伴う振動を検出するため、上記のような視覚的に阻害された環境条件下においても、検出が阻害されることがない。このため、本実施形態によれば、環境条件により自車10の位置推定が妨害されることが少ない。 For example, when estimating the position of the own vehicle 10 by recognizing a road sign or the like using an imaging device, the weather such as rainy weather or dense fog, the difference in brightness such as day and night or backlight, image blurring due to vibration, and an adjacent vehicle Under visually impaired environmental conditions such as shielding by, etc., the shape of the sign may not be detected. On the other hand, in the present embodiment, since the vibration accompanying the passage of the joint is detected, the detection is not hindered even under the above-mentioned visually hindered environmental conditions. Therefore, according to the present embodiment, the position estimation of the own vehicle 10 is less likely to be hindered by the environmental conditions.

また、撮像装置を用いて道路標識等を認識することにより、自車10の位置を推定する場合には、周囲の紛らわしい形状を誤認識することが懸念される。本実施形態によれば、ジョイントの通過に伴う自車10の振動を検出して自車10の位置を推定するため、撮像装置を用いる従来技術よりも、ジョイントの検出誤差による自車10の位置推定における誤差の発生を抑制することができる。 Further, when estimating the position of the own vehicle 10 by recognizing a road sign or the like using an image pickup device, there is a concern that the confusing shape of the surroundings may be erroneously recognized. According to the present embodiment, in order to estimate the position of the own vehicle 10 by detecting the vibration of the own vehicle 10 due to the passage of the joint, the position of the own vehicle 10 due to the detection error of the joint is compared with the conventional technique using the imaging device. The occurrence of errors in estimation can be suppressed.

また、ジョイントの位置や形状等は、大幅な道路構造の改変工事を行わない限り変わるものではないため、道路標識の位置や種類が変更される頻度と比較して、ジョイントの位置や形状が変更される頻度は著しく低い。このため、ジョイントに関する地図情報を更新する頻度を低くすることができる。 In addition, since the position and shape of the joint will not change unless the road structure is significantly modified, the position and shape of the joint will change compared to the frequency with which the position and type of road signs are changed. The frequency of being done is extremely low. Therefore, the frequency of updating the map information regarding the joint can be reduced.

また、本実施形態によれば、ジョイントを検出するために新たにセンサを追加することなく、一般に車両に搭載されている加速度センサ23を利用して、ジョイントを検出できる。このため、低コスト性、車両の小型軽量性を確保しつつ、自車10の位置を精度よく推定することができる。 Further, according to the present embodiment, the joint can be detected by using the acceleration sensor 23 generally mounted on the vehicle without adding a new sensor to detect the joint. Therefore, the position of the own vehicle 10 can be estimated accurately while ensuring low cost and small size and light weight of the vehicle.

また、本実施形態によれば、撮像装置や、GNSS受信装置32により自車10の位置を推定する場合よりも高精度に自車10の走行方向(縦方向、x軸方向)における位置を推定できる。加速度センサ23の検出性能により、ジョイントの検出性能は変化するが、一般に用いられる加速度センサ23の性能を考慮しても、撮像装置や、GNSS受信装置32を用いる場合よりも、自車10の位置を高精度に推定できる。 Further, according to the present embodiment, the position of the own vehicle 10 in the traveling direction (vertical direction, x-axis direction) is estimated with higher accuracy than when the position of the own vehicle 10 is estimated by the imaging device or the GNSS receiving device 32. it can. The detection performance of the joint changes depending on the detection performance of the acceleration sensor 23, but even considering the performance of the generally used acceleration sensor 23, the position of the own vehicle 10 is higher than that when the imaging device or the GNSS receiving device 32 is used. Can be estimated with high accuracy.

例えば、本実施形態に係るジョイント検出による自車10の位置推定の精度は、自車10が100km/hで走行中において、加速度センサ23のサンプリング周期が60Hzである場合に1〜2m程度、1kHz程度である場合に10cm程度、10kHz程度である場合に1cm程度であると見込まれる。 For example, the accuracy of the position estimation of the own vehicle 10 by the joint detection according to the present embodiment is about 1 to 2 m and 1 kHz when the own vehicle 10 is traveling at 100 km / h and the sampling period of the acceleration sensor 23 is 60 Hz. When it is about 10 cm, it is expected to be about 1 cm when it is about 10 kHz.

これに対し、ステレオカメラ等の撮像装置により検出した画像を使用して自車10の位置を推定する場合、フレームレート(FPS)が100であるときに、自車10が100km/hで走行中である場合の自車10の位置推定の精度は数m程度である。さらには、撮像装置に比べて、加速度センサは低コストであり、サンプリング周期を高くすることも容易であるため、本実施形態によれば、自車10の位置推定をより精度よく実行可能に設計することができる。 On the other hand, when the position of the own vehicle 10 is estimated using an image detected by an image pickup device such as a stereo camera, the own vehicle 10 is traveling at 100 km / h when the frame rate (FPS) is 100. In this case, the accuracy of the position estimation of the own vehicle 10 is about several meters. Further, since the acceleration sensor has a lower cost and the sampling cycle can be easily increased as compared with the imaging device, the position estimation of the own vehicle 10 can be performed more accurately according to the present embodiment. can do.

また、一般的なGNSS測位信号による自車10の位置推定の精度は、10m程度以上である。また、本実施形態によれば、自車10がトンネルを走行中など、GNSS受信装置32による通信ができない状況下でも、自車10の位置を推定することができる。 Further, the accuracy of the position estimation of the own vehicle 10 by the general GNSS positioning signal is about 10 m or more. Further, according to the present embodiment, the position of the own vehicle 10 can be estimated even in a situation where communication by the GNSS receiving device 32 is not possible, such as when the own vehicle 10 is traveling in a tunnel.

また、撮像装置により得られる画像情報は、2次元であるため、検出および処理の負荷が大きい。これに対し、本実施形態によれば、加速度センサ23により取得される検出値は、1次元データであり、ジョイントの通過に伴う振動を検出するのみである。このため、撮像装置を用いる従来技術よりも、検出および処理の負荷をより小さくすることができる。 Further, since the image information obtained by the image pickup device is two-dimensional, the load of detection and processing is large. On the other hand, according to the present embodiment, the detected value acquired by the acceleration sensor 23 is one-dimensional data, and only detects the vibration accompanying the passage of the joint. Therefore, the load of detection and processing can be made smaller than that of the conventional technique using an imaging device.

また、本実施形態によれば、図7,8に示すように、経路地図情報として取得される自車10の走行経路における横勾配情報、縦勾配情報、曲率情報に基づいて、舵角FF項Dff、加速度FF項Affを算出し、それぞれ、舵角FB項Dfb、加速度FB項Afbに加算する。そして、その和として得られる舵角指令値Dc、加速度指令値Acに基づいて、自車10を的確に制御できる。このため、自車10の走行制御性が向上する。特に、カーブ路を通過する際において、自車10の走行制御性が著しく向上する。 Further, according to the present embodiment, as shown in FIGS. 7 and 8, the steering angle FF term is based on the lateral gradient information, the vertical gradient information, and the curvature information in the traveling route of the own vehicle 10 acquired as the route map information. Dff and acceleration FF term Aff are calculated and added to the rudder angle FB term Dfb and acceleration FB term Afb, respectively. Then, the own vehicle 10 can be accurately controlled based on the steering angle command value Dc and the acceleration command value Ac obtained as the sum. Therefore, the traveling controllability of the own vehicle 10 is improved. In particular, when passing through a curved road, the traveling controllability of the own vehicle 10 is remarkably improved.

(第2実施形態)
第2実施形態では、路面形状として、道路の勾配または曲率を検出して自車位置を推定し、運転支援を実行する場合を例示して説明する。図11は、自車10の走行路における路面形状の変化を、基準線上の位置に対して示した図である。図11(a)は曲率の変化を示し、図11(b)(d)は横勾配の変化を示し、図11(c)は縦勾配の変化を示している。
(Second Embodiment)
In the second embodiment, a case where the slope or curvature of the road is detected to estimate the position of the own vehicle and the driving support is executed as the road surface shape will be described as an example. FIG. 11 is a diagram showing changes in the road surface shape on the traveling path of the own vehicle 10 with respect to the position on the reference line. 11 (a) shows the change in curvature, FIGS. 11 (b) and 11 (d) show the change in the horizontal gradient, and FIG. 11 (c) shows the change in the vertical gradient.

図11(a)に示すように、外部サーバ12の外部地図情報DB13から地図情報取得部51により地図情報として取得された曲率の変化は、記憶部62によって、所定の走行区間ごとにECU40に記憶される。同様に、図11(b)(c)に示すように、地図情報として取得された横勾配の変化および縦勾配の変化は、記憶部62によって、所定の走行区間ごとにECU40の車載地図情報DB41に格納される。 As shown in FIG. 11A, the change in curvature acquired as map information by the map information acquisition unit 51 from the external map information DB 13 of the external server 12 is stored in the ECU 40 by the storage unit 62 for each predetermined traveling section. Will be done. Similarly, as shown in FIGS. 11B and 11C, the change in the horizontal gradient and the change in the vertical gradient acquired as the map information are stored in the storage unit 62 for each predetermined traveling section of the ECU 40 in-vehicle map information DB 41. Stored in.

図11(d)は、図11(b)に示す横勾配に関する地図情報を、縦方向に延びる破線によって区切られた道路の所定区間毎に直線近似したものである。なお、比較のため、図11(d)中には、図11(b)に示す横勾配の変化が破線によって示されている。区切られた各区間において、実線により示された直線によって近似されることにより、横勾配の情報量を削減することができる。所定区間は、直線近似するデータに応じて任意に設定できる。所定区間内において、データの直線近似が可能となるように、その所定区間の区間幅は適宜調整される。 FIG. 11 (d) is a linear approximation of the map information regarding the lateral gradient shown in FIG. 11 (b) for each predetermined section of the road separated by the broken line extending in the vertical direction. For comparison, the change in the lateral gradient shown in FIG. 11 (b) is shown by a broken line in FIG. 11 (d). The amount of information on the lateral gradient can be reduced by being approximated by the straight line indicated by the solid line in each of the divided sections. The predetermined section can be arbitrarily set according to the data for linear approximation. The section width of the predetermined section is appropriately adjusted so that the data can be linearly approximated within the predetermined section.

記憶部62は、曲率、横勾配、縦勾配の各情報について、図11(d)に示すような近似を行った上でECU40の車載地図情報DB41に格納されるように構成されていてもよい。これによって、ECU40の記憶容量における負荷を大幅に軽減することができる。 The storage unit 62 may be configured to be stored in the in-vehicle map information DB 41 of the ECU 40 after approximating each information of the curvature, the horizontal gradient, and the vertical gradient as shown in FIG. 11D. .. As a result, the load on the storage capacity of the ECU 40 can be significantly reduced.

例えば、図12(a)に示すような基準線Bに沿って自車10が走行している場合に、図12(b)〜(d)に示すように、曲率、横勾配、縦勾配を位置BP1〜BP5において区切られた区間ごとに直線近似することができる。図13に示すように、記憶部62は、位置BP1〜BP5毎に、曲率、横勾配、縦勾配を定数として車載地図情報DB41に格納することができる。図13の右側の5つの四角形において囲まれた情報は、互いに紐付けられて、車載地図情報DB41に格納されている。例えば、「位置BP1」について、同じ四角形内に示された「曲率;零、横勾配;Sy1、縦勾配;Sx1」という情報が紐付けられて、車載地図情報DB41に格納される。 For example, when the own vehicle 10 is traveling along the reference line B as shown in FIG. 12 (a), the curvature, the horizontal gradient, and the vertical gradient are determined as shown in FIGS. 12 (b) to 12 (d). A linear approximation can be performed for each section divided at positions BP1 to BP5. As shown in FIG. 13, the storage unit 62 can store the curvature, the horizontal gradient, and the vertical gradient as constants in the vehicle-mounted map information DB 41 for each of the positions BP1 to BP5. The information enclosed in the five squares on the right side of FIG. 13 is associated with each other and stored in the vehicle-mounted map information DB 41. For example, regarding the "position BP1", the information "curvature; zero, horizontal gradient; Sy1, vertical gradient; Sx1" shown in the same quadrangle is associated and stored in the in-vehicle map information DB 41.

第2実施形態では、自車位置推定部60は、横勾配検出部55と、縦勾配検出部56と、曲率検出部57により検出された路面形状の所定区間内での変化を、図11〜13に示すような地図情報に含まれる路面形状の所定区間内の変化と照合することにより、路面形状の位置を特定する。自車10の走行路上のある地点における検出値ではなく、所定区間内で自車10の走行方向に沿ってパターン化された路面形状の変化として照合することにより、照合ミスによる路面形状の誤検出を抑制することができる。パターン化を行う所定区間は、任意に設定することができる。 In the second embodiment, the own vehicle position estimation unit 60 shows changes in the road surface shape detected by the horizontal gradient detection unit 55, the vertical gradient detection unit 56, and the curvature detection unit 57 within a predetermined section in FIGS. The position of the road surface shape is specified by collating with the change in the road surface shape within a predetermined section included in the map information as shown in 13. False detection of the road surface shape due to a collation error by collating as a change in the road surface shape patterned along the traveling direction of the own vehicle 10 within a predetermined section instead of the detected value at a certain point on the traveling road of the own vehicle 10. Can be suppressed. A predetermined section for patterning can be arbitrarily set.

図14に、第2実施形態において、ECU40が実行する位置推定処理および運転支援処理を示すフローチャートを示す。図14に示す処理は、自車10の運転時に所定の周期で繰り返し実行される。 FIG. 14 shows a flowchart showing a position estimation process and a driving support process executed by the ECU 40 in the second embodiment. The process shown in FIG. 14 is repeatedly executed at a predetermined cycle when the own vehicle 10 is driven.

ステップS201では、地図情報として、自車10の走行路における横勾配情報および縦勾配情報を取得する。例えば、自車10の走行路の基準線上の位置に対する横勾配および縦勾配の大きさの変化等を地図情報として取得する。取得した横勾配および縦勾配の大きさの変化は、図13に示すように所定区間ごとに直線近似されて、区間開始位置と紐づけされてECU40の車載地図情報DB41に記憶される。 In step S201, the horizontal gradient information and the vertical gradient information in the traveling path of the own vehicle 10 are acquired as the map information. For example, changes in the magnitude of the horizontal gradient and the vertical gradient with respect to the position on the reference line of the traveling path of the own vehicle 10 are acquired as map information. As shown in FIG. 13, the acquired changes in the magnitudes of the horizontal gradient and the vertical gradient are linearly approximated for each predetermined section, linked with the section start position, and stored in the vehicle-mounted map information DB 41 of the ECU 40.

ステップS202では、センサ群20から、自車10の加速度、車速、ヨーレート等と含む検出値を取得し、ステップS203に進む。 In step S202, the detection values including the acceleration, vehicle speed, yaw rate, etc. of the own vehicle 10 are acquired from the sensor group 20, and the process proceeds to step S203.

ステップS203では、取得した検出値についてLPFによる平滑化を行い、上記式(2)〜(4)に基づいて、横勾配の検出値Sydおよび縦勾配の検出値Sxdを算出する。その後、ステップS204に進む。 In step S203, the acquired detected value is smoothed by LPF, and the horizontal gradient detected value Syd and the vertical gradient detected value Sxd are calculated based on the above equations (2) to (4). Then, the process proceeds to step S204.

ステップS204では、ステップS201において取得した地図情報について直線近似された横勾配Symおよび縦勾配Sxmを取得し、ステップS205に進む。 In step S204, the horizontal gradient Sym and the vertical gradient Sxm linearly approximated to the map information acquired in step S201 are acquired, and the process proceeds to step S205.

ステップS205では、検出した横勾配Sydおよび縦勾配Sxdと、地図情報における横勾配Symおよび縦勾配Sxmとを照合し、一致度が最も高い横勾配Symおよび縦勾配Sxmを選定する。その後、ステップS206に進む。 In step S205, the detected horizontal gradient Sid and vertical gradient Sxd are collated with the horizontal gradient Sym and vertical gradient Sxm in the map information, and the horizontal gradient Sym and vertical gradient Sxm having the highest degree of coincidence are selected. Then, the process proceeds to step S206.

ステップS206では、選定した横勾配Symおよび縦勾配Sxmに紐づけられた位置を地図情報から取得し、検出した横勾配Sydおよび縦勾配Sxdの位置xsmとして特定する。その後、ステップS207に進む。 In step S206, the positions associated with the selected horizontal gradient Sym and vertical gradient Sxm are acquired from the map information, and are specified as the detected horizontal gradient Syd and vertical gradient Sxd positions xsm. Then, the process proceeds to step S207.

ステップS207では、特定した横勾配Sydおよび縦勾配Sxdの位置xsmに対する自車10の相対位置xrを検出する。相対位置xrは、横勾配Sydおよび縦勾配Sxdを検出した時点から、現在までに走行した自車10の走行距離として算出することができる。例えば、ステップS202においてセンサ検出値を取得した時点から、ステップS207までの処理に要する平均的な処理時間Tlと、ステップS202において取得した自車10の車速Vとの積(V×Tl)を相対位置xrとして算出してもよい。その後、ステップS208に進む。 In step S207, the relative position xr of the own vehicle 10 with respect to the position xsm of the specified horizontal gradient Sid and vertical gradient Sxd is detected. The relative position xr can be calculated as the mileage of the own vehicle 10 that has traveled from the time when the horizontal gradient Syd and the vertical gradient Sxd are detected to the present. For example, the product (V × Tl) of the average processing time Tl required for processing from the time when the sensor detection value is acquired in step S202 to step S207 and the vehicle speed V of the own vehicle 10 acquired in step S202 is relative. It may be calculated as the position xr. Then, the process proceeds to step S208.

ステップS208では、ステップS206において特定した横勾配および縦勾配の位置xsmと、相対位置xrとに基づいて、自車10の位置xcを推定する。例えば、上記式(9)において、xjmをxsmに置き換えることにより、xcを算出できる。その後、ステップS230に進む。 In step S208, the position xc of the own vehicle 10 is estimated based on the positions xsm of the horizontal and vertical gradients specified in step S206 and the relative positions xr. For example, in the above equation (9), xc can be calculated by replacing xjm with xsm. Then, the process proceeds to step S230.

ステップS230〜S233に示す処理は、図10のステップS130〜S133に示す処理と同様であるため、説明を省略する。ステップS233の後、ステップS234に進む。ステップS234では、自車10の位置xcにおける横勾配Sycを地図情報として取得し、横勾配Sycに基づいて、ヨーレートセンサ24等の誤差を補正する。その後、処理を終了する。 Since the processes shown in steps S230 to S233 are the same as the processes shown in steps S130 to S133 of FIG. 10, the description thereof will be omitted. After step S233, the process proceeds to step S234. In step S234, the lateral gradient Sys at the position xc of the own vehicle 10 is acquired as map information, and the error of the yaw rate sensor 24 or the like is corrected based on the lateral gradient Sys. After that, the process ends.

本実施形態によれば、ECU40は、車両に搭載されている車速センサ21、加速度センサ23、ヨーレートセンサ24の検出値を利用して、自車10の走行路の勾配を検出することができる。そして、検出した自車10の勾配を、地図情報に含まれる勾配と照合することにより、検出した勾配の位置を特定することができる。さらに、特定した勾配の位置と、その勾配に対する自車10の相対位置とに基づいて、自車10の位置を推定することができる。 According to the present embodiment, the ECU 40 can detect the gradient of the traveling path of the own vehicle 10 by using the detection values of the vehicle speed sensor 21, the acceleration sensor 23, and the yaw rate sensor 24 mounted on the vehicle. Then, by collating the detected gradient of the own vehicle 10 with the gradient included in the map information, the position of the detected gradient can be specified. Further, the position of the own vehicle 10 can be estimated based on the position of the specified slope and the relative position of the own vehicle 10 with respect to the slope.

ECU40によれば、車両に搭載されている車速センサ21、加速度センサ23、ヨーレートセンサ24を利用して、自車10の走行路の勾配を検出することによって、自車10の位置を地図情報に基づいて推定することができる。このため、視覚的に自車10の位置を検出することが困難な状況下でも、自車10の位置を精度よく推定できる。本実施形態によれば、第1実施形態と同様に、視覚的に阻害された環境条件下においても検出が阻害されることがないため、環境条件により自車10の位置推定が妨害されることが少ない。 According to the ECU 40, the position of the own vehicle 10 is converted into map information by detecting the slope of the traveling path of the own vehicle 10 by using the vehicle speed sensor 21, the acceleration sensor 23, and the yaw rate sensor 24 mounted on the vehicle. It can be estimated based on. Therefore, the position of the own vehicle 10 can be estimated accurately even in a situation where it is difficult to visually detect the position of the own vehicle 10. According to the present embodiment, as in the first embodiment, the detection is not hindered even under the visually impaired environmental conditions, so that the position estimation of the own vehicle 10 is hindered by the environmental conditions. Less is.

また、勾配や曲率等の路面形状は、大幅な道路構造の改変工事を行わない限り変わるものではないため、道路標識の位置や種類が変更される頻度と比較して、その位置や大きさが変更される頻度は著しく低い。このため、勾配や曲率等の路面形状に関する地図情報を更新する頻度を低くすることができる。 In addition, the road surface shape such as slope and curvature does not change unless the road structure is significantly modified. Therefore, the position and size of the road sign are different from the frequency of change of the position and type of the road sign. It is changed very infrequently. Therefore, it is possible to reduce the frequency of updating the map information regarding the road surface shape such as the gradient and the curvature.

また、本実施形態では、自車10の走行路の勾配を検出するため、第1実施形態のように、ジョイントが存在しないことにより、地図情報におけるジョイントの位置xjmに基づいて自車10の位置を推定できなくなることがない。このため、図10のステップS122〜S124に示すような、走行路の特徴的要素が検出できなかった場合を補完するための自車位置推定処理の必要性が低い。 Further, in the present embodiment, in order to detect the slope of the traveling path of the own vehicle 10, the position of the own vehicle 10 is based on the position xjm of the joint in the map information because the joint does not exist as in the first embodiment. Can not be estimated. Therefore, there is little need for the own vehicle position estimation process to supplement the case where the characteristic element of the traveling path cannot be detected as shown in steps S122 to S124 of FIG.

(第3実施形態)
本実施形態では、自車10の車速Vに基づいて、自車10の位置推定処理の内容を切り替える。図15は、本実施形態において、ECU40が実行する位置推定処理および運転支援処理を示すフローチャートである。図15に示す処理は、自車10の運転時に所定の周期で繰り返し実行される。
(Third Embodiment)
In the present embodiment, the content of the position estimation process of the own vehicle 10 is switched based on the vehicle speed V of the own vehicle 10. FIG. 15 is a flowchart showing a position estimation process and a driving support process executed by the ECU 40 in the present embodiment. The process shown in FIG. 15 is repeatedly executed at a predetermined cycle when the own vehicle 10 is driven.

ステップS301では、ステップS101およびステップS201と同様に、地図情報として、自車10の走行路におけるジョイント情報と、横勾配情報と、縦勾配情報とを含む地図情報を取得する。取得した横勾配および縦勾配の大きさの変化は、図13に示すように所定区間ごとに直線近似されて、区間開始位置と紐づけされてECU40の車載地図情報DB41に記憶される。 In step S301, similarly to step S101 and step S201, as map information, map information including joint information, horizontal gradient information, and vertical gradient information in the traveling path of the own vehicle 10 is acquired. As shown in FIG. 13, the acquired changes in the magnitudes of the horizontal gradient and the vertical gradient are linearly approximated for each predetermined section, linked with the section start position, and stored in the vehicle-mounted map information DB 41 of the ECU 40.

ステップS302では、センサ群20から、自車10の自車10の加速度、車速、ヨーレート等を含む検出値を取得し、ステップS303に進む。 In step S302, the detection values including the acceleration, vehicle speed, yaw rate, etc. of the own vehicle 10 of the own vehicle 10 are acquired from the sensor group 20, and the process proceeds to step S303.

ステップS303では、自車10の車速Vが、所定の速度閾値Vth以上であるか否かを判定する。自車10の速度Vが速い場合には、自車10の振動が大きくなるため、ジョイントを精度よく検出できる。このため、速度閾値Vthは、例えば、自車10の振動の検出感度が、ジョイントの検出において十分大きくなるような自車10の車速に設定することができる。V≧Vthである場合には、ステップS304〜S311に示すジョイント検出による位置推定処理を実行する。V<Vthである場合には、ステップS323〜S328に示す勾配検出による位置推定処理を実行する。 In step S303, it is determined whether or not the vehicle speed V of the own vehicle 10 is equal to or higher than a predetermined speed threshold value Vth. When the speed V of the own vehicle 10 is high, the vibration of the own vehicle 10 becomes large, so that the joint can be detected accurately. Therefore, the speed threshold value Vth can be set, for example, to the vehicle speed of the own vehicle 10 so that the detection sensitivity of the vibration of the own vehicle 10 becomes sufficiently large in the detection of the joint. When V ≧ Vth, the position estimation process by joint detection shown in steps S304 to S311 is executed. When V <Vth, the position estimation process by the gradient detection shown in steps S323 to S328 is executed.

ステップS304では、ステップS104と同様に、加速度センサ23が検出した縦方向加速度から振動スコアを算出し、ステップS305に進む。 In step S304, similarly to step S104, the vibration score is calculated from the longitudinal acceleration detected by the acceleration sensor 23, and the process proceeds to step S305.

ステップS305では、ステップS105と同様に、振動スコアに基づいて、自車10の走行路においてジョイントが検出されたか否かを判定する。具体的には、算出した振動スコアFsに対して、スコア閾値Fthを設定する。そして、Fs≧Fthである場合に、ジョイントが検出されたと判定する。また、Fs<Fthである場合に、ジョイントが検出されないと判定する。 In step S305, as in step S105, it is determined whether or not a joint is detected in the traveling path of the own vehicle 10 based on the vibration score. Specifically, the score threshold value Fth is set for the calculated vibration score Fs. Then, when Fs ≧ Fth, it is determined that the joint has been detected. Further, when Fs <Fth, it is determined that the joint is not detected.

ステップS305では、ジョイントが検出された場合には、ステップS306〜S311,S330〜S333の処理を実行する。ステップS306〜S311,S330〜S333の処理は、図10のステップS106〜S111,S130〜S133に示す処理と同様であるため、説明を省略する。 In step S305, when the joint is detected, the processes of steps S306 to S311 and S330 to S333 are executed. Since the processes of steps S306 to S311 and S330 to S333 are the same as the processes shown in steps S106 to S111 and S130 to S133 of FIG. 10, the description thereof will be omitted.

ステップS305において、ジョイントが検出されなかった場合には、ステップS323〜S328に示す勾配検出による位置推定処理を実行する。すなわち、ステップS303において、V<Vthであると判定された場合と、ステップS305において、ジョイントが検出されなかったと判定された場合に、ステップS323〜S328に示す勾配検出による位置推定の各処理を実行する。ステップS323〜S328に示す処理は、図14のステップS223〜S228に示す処理と同様であるため、説明を省略する。 If the joint is not detected in step S305, the position estimation process by the gradient detection shown in steps S323 to S328 is executed. That is, when it is determined in step S303 that V <Vth and in step S305 it is determined that the joint is not detected, each process of position estimation by gradient detection shown in steps S323 to S328 is executed. To do. Since the processes shown in steps S323 to S328 are the same as the processes shown in steps S223 to S228 of FIG. 14, the description thereof will be omitted.

自車10の速度Vが速い場合には、自車10の振動が大きくなるため、ジョイントを精度よく検出できる。本実施形態によれば、速度閾値Vthは、自車10の振動の検出感度が、ジョイントの検出において十分大きくなるような自車10の車速に設定されている。そして、ECU40は、速度Vが所定の速度閾値Vth以上である場合に、ジョイント検出を利用する自車位置の推定処理を選択するように構成されている。このため、自車10の走行状態に応じて、適切な推定方法により自車10の位置を推定できる。 When the speed V of the own vehicle 10 is high, the vibration of the own vehicle 10 becomes large, so that the joint can be detected accurately. According to the present embodiment, the speed threshold value Vth is set to the vehicle speed of the own vehicle 10 so that the detection sensitivity of the vibration of the own vehicle 10 becomes sufficiently large in the detection of the joint. Then, the ECU 40 is configured to select the own vehicle position estimation process using the joint detection when the speed V is equal to or higher than a predetermined speed threshold value Vth. Therefore, the position of the own vehicle 10 can be estimated by an appropriate estimation method according to the traveling state of the own vehicle 10.

また、ECU40は、自車10の速度Vが低く、ジョイントの検出が困難である場合や、ジョイントが存在しない等によりジョイントを検出できなかった場合においては、走行路の勾配検出を利用する自車位置の推定処理を選択する。このため、ジョイントの検出が困難または不能である場合にも、走行路の勾配検出によって精度よく自車位置を推定できる。 Further, the ECU 40 uses the gradient detection of the traveling path when the speed V of the own vehicle 10 is low and it is difficult to detect the joint, or when the joint cannot be detected due to the absence of the joint or the like. Select the position estimation process. Therefore, even when it is difficult or impossible to detect the joint, the position of the own vehicle can be estimated accurately by detecting the gradient of the traveling path.

(第4実施形態)
第4実施形態では、外部通信装置30の送受信感度の履歴に基づいて、路上構造物を検出して自車位置を推定し、運転支援を実行する場合を例示して説明する。
(Fourth Embodiment)
In the fourth embodiment, a case where the road structure is detected, the position of the own vehicle is estimated, and the driving support is executed based on the history of the transmission / reception sensitivity of the external communication device 30 will be described as an example.

図16に示すように、走行路である道路90上にトンネル103等が存在する場合には、トンネル103内を走行中の自車10aにおいては、外部通信装置30の通信電波が遮断される。このため、送受信履歴取得部52により外部通信装置30の送受信感度の履歴を取得し、通信電波が遮断され、送受信が行われなかった送受信ロス期間を検出することにより、トンネル103等の遮蔽物の存在を検出することができる。 As shown in FIG. 16, when the tunnel 103 or the like exists on the road 90 which is the traveling path, the communication radio wave of the external communication device 30 is blocked in the own vehicle 10a traveling in the tunnel 103. Therefore, the transmission / reception history acquisition unit 52 acquires the transmission / reception sensitivity history of the external communication device 30, and detects the transmission / reception loss period during which the communication radio wave is cut off and the transmission / reception is not performed, so that the shield such as the tunnel 103 is shielded. The presence can be detected.

路上構造物検出部59は、送受信ロス期間において車速Vについて時間積分を行うことにより、遮蔽物が存在する区間(遮蔽区間)の長さHdを検出することができる。遮蔽区間の長さHdは、自車10の走行方向における遮蔽物(トンネル103)の開始位置Pssから終了位置Pseまでの距離によって表すことができる。 The road structure detection unit 59 can detect the length Hd of the section (shielded section) in which the shield exists by performing time integration with respect to the vehicle speed V during the transmission / reception loss period. The length Hd of the shielded section can be represented by the distance from the start position Pss of the shield (tunnel 103) to the end position Pse in the traveling direction of the own vehicle 10.

自車位置推定部60は、例えば、検出した遮蔽区間の長さHdと、地図情報における遮蔽区間の長さHmとを照合することにより、検出した遮蔽物の位置を特定することができる。さらに、特定した遮蔽物による遮蔽区間の終了位置Pseを地図情報から取得し、相対位置検出部53により、終了位置Pseに対する自車10の相対位置Lceを算出することができる。そして、上記式(6)において、xb=Pse、xr=Lceとすることにより、地図情報に基づいた自車10の位置Pcを推定することができる。 The own vehicle position estimation unit 60 can specify the position of the detected shield by, for example, collating the detected length Hd of the shield section with the length Hm of the shield section in the map information. Further, the end position Pse of the shielded section by the specified shield can be acquired from the map information, and the relative position Lce of the own vehicle 10 with respect to the end position Pse can be calculated by the relative position detection unit 53. Then, in the above equation (6), by setting xb = Pse and xr = Lce, the position Pc of the own vehicle 10 can be estimated based on the map information.

図17は、第4実施形態において、ECU40が実行する位置推定処理および運転支援処理を示すフローチャートである。図17に示す処理は、自車10の運転時に所定の周期で繰り返し実行される。 FIG. 17 is a flowchart showing a position estimation process and a driving support process executed by the ECU 40 in the fourth embodiment. The process shown in FIG. 17 is repeatedly executed at a predetermined cycle when the own vehicle 10 is driven.

ステップS401では、地図情報として、自車10の走行路における路上構造物情報を取得する。具体的には、遮蔽物の種別および位置と、その遮蔽物が存在する遮蔽区間の長さHmを含む地図情報を取得する。次いで、ステップS402では、外部通信装置30から、送受信感度の履歴を取得し、ステップS403に進む。 In step S401, the road structure information in the traveling path of the own vehicle 10 is acquired as the map information. Specifically, the map information including the type and position of the shield and the length Hm of the shield section in which the shield exists is acquired. Next, in step S402, the history of transmission / reception sensitivity is acquired from the external communication device 30, and the process proceeds to step S403.

ステップS403では、送受信感度の履歴に基づいて、送受信ロス期間が存在するか否かを判定する。例えば、送受信感度の経時変化から、所定の感度閾値以下である状態が、所定時間以上継続する期間が存在する場合、その期間を送受信ロス期間と認定する。そして、送受信ロス期間が存在すると判定する。 In step S403, it is determined whether or not there is a transmission / reception loss period based on the history of transmission / reception sensitivity. For example, if there is a period in which the transmission / reception sensitivity is equal to or less than a predetermined sensitivity threshold value for a predetermined time or longer due to a change over time, that period is recognized as a transmission / reception loss period. Then, it is determined that there is a transmission / reception loss period.

送受信ロス期間が存在すると判定した場合には、ステップS404に進み、遮蔽物が存在すると判断した後、ステップS405に進む。送受信ロス期間が存在しないと判定した場合には、ステップS421に進み、遮蔽物が存在しないと判断した後、ステップS422〜S424に示す処理を実行する。ステップS422〜S424に示す処理は、図10のステップS122〜S124に示す処理と同様であるため、説明を省略する。ステップS424の処理の後、ステップS430に進む。 If it is determined that the transmission / reception loss period exists, the process proceeds to step S404, and after determining that the shield exists, the process proceeds to step S405. If it is determined that the transmission / reception loss period does not exist, the process proceeds to step S421, and after determining that there is no shield, the processes shown in steps S422 to S424 are executed. Since the processes shown in steps S422 to S424 are the same as the processes shown in steps S122 to S124 of FIG. 10, the description thereof will be omitted. After the process of step S424, the process proceeds to step S430.

ステップS405では、検出した送受信ロス期間と、ステップS402において取得した車速Vとに基づいて、検出した遮蔽区間の長さHdを算出する。続いて、ステップS406では、ステップS401において取得した地図情報から遮蔽区間の長さHmを取得し、ステップS407に進む。 In step S405, the detected length Hd of the shielded section is calculated based on the detected transmission / reception loss period and the vehicle speed V acquired in step S402. Subsequently, in step S406, the length Hm of the shielded section is acquired from the map information acquired in step S401, and the process proceeds to step S407.

ステップS407では、検出した遮蔽区間の長さHdと、地図情報における遮蔽区間の長さHmとを照合し、一致度が高いHmに対応する遮蔽区間を選定する。その後、ステップS408に進む。 In step S407, the detected length Hd of the shielded section is collated with the length Hm of the shielded section in the map information, and the shielded section corresponding to the Hm having a high degree of coincidence is selected. After that, the process proceeds to step S408.

ステップS408では、路上構造物の種別を特定する。具体的には、選定した遮蔽区間に存在する遮蔽物の種別を地図情報から取得し、検出した路上構造物の種別(例えば、トンネル)として特定する。続いて、ステップS409では、選定した遮蔽区間に対応する路上構造物位置を地図情報から取得し、検出した路上構造物の位置xhmとして特定する。その後、ステップS410に進む。 In step S408, the type of road structure is specified. Specifically, the type of the shield existing in the selected shield section is acquired from the map information, and the type of the detected road structure (for example, a tunnel) is specified. Subsequently, in step S409, the position of the road structure corresponding to the selected shielded section is acquired from the map information and specified as the detected position xhm of the road structure. Then, the process proceeds to step S410.

ステップS410では、特定した路上構造物の位置xhmに対する自車10の相対位置xrを検出する。相対位置xrは、路上構造物として遮蔽物を検出した時点から、現在までに走行した自車10の走行距離として算出することができる。例えば、送受信ロス期間の終了時から、現在までの経過時間Thと、ステップS402において取得した自車10の車速Vとの積(V×Th)を相対位置xrとして算出してもよい。その後、ステップS411に進む。 In step S410, the relative position xr of the own vehicle 10 with respect to the position xhm of the specified road structure is detected. The relative position xr can be calculated as the mileage of the own vehicle 10 that has traveled from the time when the shield is detected as the road structure to the present. For example, the product (V × Th) of the elapsed time Th from the end of the transmission / reception loss period to the present and the vehicle speed V of the own vehicle 10 acquired in step S402 may be calculated as the relative position xr. After that, the process proceeds to step S411.

ステップS411では、特定した路上構造物の位置xhmと、相対位置xrとに基づいて、自車10の位置xcを推定する。例えば、上記式(9)において、xjmをxhmに置き換えることにより、xcを算出できる。その後、ステップS430に進む。ステップS430〜S433に示す処理は、図10のステップS130〜S133に示す処理と同様であるため、説明を省略する。 In step S411, the position xc of the own vehicle 10 is estimated based on the position xhm of the specified road structure and the relative position xr. For example, in the above formula (9), xc can be calculated by replacing xjm with xhm. After that, the process proceeds to step S430. Since the processes shown in steps S430 to S433 are the same as the processes shown in steps S130 to S133 of FIG. 10, the description thereof will be omitted.

本実施形態によれば、ECU40は、車両に搭載されている外部通信装置30の送受信履歴を利用して、トンネル103等の通信電波の授受を遮蔽する遮蔽物を路上構造物として検出することができる。そして、検出した路上構造物の長さ等を、地図情報に含まれる路上構造物の長さ等と照合することにより、検出した路上構造物の種別および位置を特定することができる。さらに、特定した路上構造物の位置と、その路上構造物に対する自車10の相対位置とに基づいて、自車10の位置を推定することができる。このため、視覚的に自車の位置を検出することが困難な状況下でも、自車10の位置を精度よく推定できる。本実施形態によれば、第1〜第3実施形態と同様に、視覚的に阻害された環境条件下においても検出が阻害されることがないため、環境条件により自車10の位置推定が妨害されることが少ない。 According to the present embodiment, the ECU 40 can detect a shield such as a tunnel 103 that shields the transmission and reception of communication radio waves as a road structure by using the transmission / reception history of the external communication device 30 mounted on the vehicle. it can. Then, by collating the detected length of the road structure with the length of the road structure included in the map information, the type and position of the detected road structure can be specified. Further, the position of the own vehicle 10 can be estimated based on the position of the specified road structure and the relative position of the own vehicle 10 with respect to the road structure. Therefore, the position of the own vehicle 10 can be estimated accurately even in a situation where it is difficult to visually detect the position of the own vehicle. According to the present embodiment, as in the first to third embodiments, the detection is not hindered even under visually hindered environmental conditions, so that the position estimation of the own vehicle 10 is hindered by the environmental conditions. It is rarely done.

なお、第4実施形態では、遮蔽物としてトンネルを例示し、個別の遮蔽物の位置xhmを特定することにより、自車10の位置xcを推定する場合を例示して説明したが、トンネル以外の遮蔽物を利用することもできる。遮蔽物としては、走行路の上方または側方に設けられて、送受信波を遮蔽する各種の構造物を利用することができる。具体的には、トンネルの他に、高架道路、歩道橋、道路標識板およびその支持体(アーチ状、道路上方に突き出す形状等)、街灯、遮音壁、道路脇に立地する高層建築物等を遮蔽物として例示することができる。また、送受信感度の履歴をパターン化して地図情報として記憶させ、自車10における送受信感度の履歴と比較することにより、自車10の位置xcを推定してもよい。 In the fourth embodiment, a tunnel is illustrated as a shield, and a case where the position xc of the own vehicle 10 is estimated by specifying the position xhm of each shield is illustrated and described, but other than the tunnel. Shields can also be used. As the shield, various structures provided above or to the side of the traveling path to shield the transmitted / received wave can be used. Specifically, in addition to tunnels, elevated roads, pedestrian bridges, road sign boards and their supports (arch shape, shape protruding above the road, etc.), street lights, sound insulation walls, high-rise buildings located on the side of the road, etc. are shielded. Can be exemplified as. Further, the position xc of the own vehicle 10 may be estimated by patterning the history of the transmission / reception sensitivity and storing it as map information and comparing it with the history of the transmission / reception sensitivity in the own vehicle 10.

(変形例)
図18を用いて、自車10の走行経路における複数の遮蔽物と、複数のGNSS機能を有する人工衛星140L,140Rからの受信履歴のパターンとの関係を説明する。図18(a)は、自車10の走行経路における複数の遮蔽物と、複数のGNSS機能を有する人工衛星140L,140Rとの位置関係を示す。図18(b)は、人工衛星140Lからの受信履歴を示し、図18(c)は、人工衛星140Rからの受信履歴を示す。
(Modification example)
With reference to FIG. 18, the relationship between a plurality of shields in the traveling path of the own vehicle 10 and a pattern of reception history from artificial satellites 140L and 140R having a plurality of GNSS functions will be described. FIG. 18A shows the positional relationship between the plurality of shields in the traveling path of the own vehicle 10 and the artificial satellites 140L and 140R having a plurality of GNSS functions. FIG. 18B shows the reception history from the artificial satellite 140L, and FIG. 18C shows the reception history from the artificial satellite 140R.

図18(a)に示すように、自車10の走行経路における基準線Bに沿って、トンネル131、道路標識132、高架道路133、街灯134,135、高層ビル136,137が存在している。道路標識132は、自車10の走行する道路の上方を横断するアーチ状の支持体に標識板が設置された道路標識である。高架道路は、自車10の走行する道路の上方を横断する高架道路である。街灯134,135は、自車10の走行する道路の上方に左側から突出する形状の街灯である。高層ビル136,137は、それぞれ、自車10の走行する道路の左側、右側に立地している。 As shown in FIG. 18A, tunnel 131, road sign 132, elevated road 133, street light 134, 135, and skyscraper 136, 137 exist along the reference line B in the traveling route of the own vehicle 10. .. The road sign 132 is a road sign in which a sign plate is installed on an arch-shaped support that crosses above the road on which the own vehicle 10 travels. The elevated road is an elevated road that crosses above the road on which the own vehicle 10 travels. The street lights 134 and 135 are street lights having a shape protruding from the left side above the road on which the own vehicle 10 travels. The skyscrapers 136 and 137 are located on the left and right sides of the road on which the own vehicle 10 travels, respectively.

なお、金属構造物は、GNSS受信波を比較的容易に遮断する傾向があり、人工衛星と車載のGNSS受信装置との間に、鉄柱程度の細い金属構造物が存在するだけでも、GNSS受信波は、容易に遮断される。すなわち、鉄柱状の街灯134,135のような細い金属構造物であっても、遮蔽物となり得る。 It should be noted that the metal structure tends to block the GNSS received wave relatively easily, and even if a thin metal structure as small as an iron pillar exists between the artificial satellite and the in-vehicle GNSS receiving device, the GNSS received wave Is easily blocked. That is, even a thin metal structure such as an iron columnar street lamp 134 or 135 can be a shield.

人工衛星140Lは、自車10および基準線Bに対して左方向となる上空に位置しており、人工衛星140Rは、自車10および基準線Bに対して右方向となる上空に位置している。自車10が基準線Bに沿って走行すると、人工衛星140Lからの受信波は、基準線B上より基準線Bの左側に存在する遮蔽物、すなわち、トンネル131、道路標識132、高架道路133、街灯134,135、高層ビル136において遮蔽され、図18(b)に示す受信履歴が得られる。トンネル131による遮蔽区間Hd31、道路標識による遮蔽区間Hd32、高架道路133による遮蔽区間Hd33、街灯134,135による遮蔽区間Hd34,35、および、高層ビル136による遮蔽区間Hd36において、受信信号SGN1の強度が零になる。 The artificial satellite 140L is located in the sky to the left of the vehicle 10 and the reference line B, and the artificial satellite 140R is located in the sky to the right of the vehicle 10 and the reference line B. There is. When the own vehicle 10 travels along the reference line B, the received wave from the artificial satellite 140L is a shield existing on the left side of the reference line B from the reference line B, that is, a tunnel 131, a road sign 132, and an elevated road 133. , Street lights 134, 135, and high-rise building 136, and the reception history shown in FIG. 18B can be obtained. The strength of the received signal SGN1 in the shielded section Hd31 by the tunnel 131, the shielded section Hd32 by the road sign, the shielded section Hd33 by the elevated road 133, the shielded sections Hd34 and 35 by the street lights 134 and 135, and the shielded section Hd36 by the skyscraper 136. It becomes zero.

また、人工衛星140Rからの受信波は、基準線B上より基準線Bの右側に存在する遮蔽物、すなわち、トンネル131、道路標識132、高架道路133、高層ビル137において遮蔽され、図18(c)に示す受信履歴が得られる。遮蔽区間Hd31〜Hd33、および、高層ビル137による遮蔽区間Hd37において、受信信号SGN2の強度が零になる。 Further, the received wave from the artificial satellite 140R is shielded by a shield existing on the right side of the reference line B from the reference line B, that is, a tunnel 131, a road sign 132, an elevated road 133, and a skyscraper 137. The reception history shown in c) can be obtained. The strength of the received signal SGN2 becomes zero in the shielded sections Hd31 to Hd33 and the shielded section Hd37 by the skyscraper 137.

図18(b)および(c)に示す一連の受信履歴のパターンを、地図情報として記憶された受信履歴のパターンと照合することにより、地図情報において、図18(b)および(c)に示す受信履歴のパターンが得られる位置を特定することができ、これによって、自車10の現在の位置を推定することができる。道路の周辺に存在する構造物の種類や配置は、場所ごとに特有であるため、図18(b)(c)に示すような受信履歴のパターンを地図情報と照合することにより、地図情報における位置を特定することができる。 By collating the series of reception history patterns shown in FIGS. 18B and 18C with the reception history pattern stored as map information, the map information is shown in FIGS. 18B and 18C. The position where the reception history pattern can be obtained can be specified, and the current position of the own vehicle 10 can be estimated by this. Since the types and arrangements of the structures existing around the road are unique to each location, the reception history pattern as shown in FIGS. 18 (b) and 18 (c) can be collated with the map information to obtain the map information. The position can be specified.

また、図18(a)に示すように、人工衛星の位置によって、遮蔽物となり得るか否かが変わるような構造物(具体例として、街灯134,135、高層ビル136,137)が存在する場合には、図18(b)(c)に示すように、人工衛星140Lと、人工衛星140Rとにおいて、相違する受信履歴のパターンを得ることができる。自車10に対して、方角や仰角が異なる位置に存在する複数の人工衛星から得られる、複数の受信履歴のパターンと、地図情報として記憶された受信履歴のパターンとの照合を行うことにより、ノイズ等により受信履歴のパターンに乱れが生じる場合においても、照合ミスを抑制することができ、ひいては、照合の精度を向上させることができる。 Further, as shown in FIG. 18A, there are structures (specific examples, street lamps 134, 135, skyscrapers 136, 137) whose presence or absence can be a shield depends on the position of the artificial satellite. In the case, as shown in FIGS. 18 (b) and 18 (c), different reception history patterns can be obtained between the artificial satellite 140L and the artificial satellite 140R. By collating the pattern of a plurality of reception histories obtained from a plurality of artificial satellites having different directions and elevation angles with respect to the own vehicle 10 with the pattern of the reception history stored as map information. Even when the reception history pattern is disturbed due to noise or the like, it is possible to suppress collation errors and, by extension, improve the collation accuracy.

なお、各人工衛星の位置情報である衛星配置情報は、日時によりほぼ決まっているため、予め衛星配置情報を取得することにより、その日時における各人工衛星の実際の位置を予測することができる。また、人工衛星は、L1搬送波により、C/A(Coarse/Acquisition)コード、P(Precision)コード、航法メッセージ等を送信し、L2搬送波により、Pコードを送信する。航法メッセージに含まれている人工衛星の軌道情報から算出される放送暦に基づいて、衛星配置情報を算出することもできる。航法メッセージは、1メインフレーム=5サブフレームを1単位として30秒毎に繰り返し送信されるため、航法メッセージを用いれば、30秒に1回の頻度で衛星配置情報を取得することができる。 Since the satellite arrangement information, which is the position information of each artificial satellite, is almost determined by the date and time, the actual position of each artificial satellite at that date and time can be predicted by acquiring the satellite arrangement information in advance. Further, the artificial satellite transmits a C / A (Coarse / Accuracy) code, a P (Precision) code, a navigation message, etc. by the L1 carrier wave, and transmits the P code by the L2 carrier wave. It is also possible to calculate the satellite arrangement information based on the broadcasting calendar calculated from the orbit information of the artificial satellite included in the navigation message. Since the navigation message is repeatedly transmitted every 30 seconds with 1 mainframe = 5 subframes as one unit, satellite arrangement information can be acquired once every 30 seconds by using the navigation message.

また、各人工衛星は、C/Aコードに固有の拡散符号を使用しているため、GNSS受信波と、C/Aコードとの相関により、人工衛星を識別して受信履歴を取得することができる。例えば、C/Aコードは、1msの周期で疑似乱数コードを送信するものであるため、C/Aコードの相関値の変化を監視することにより、1〜2ms程度の精度で高精度に受信履歴における時間を取得することができる。また、搬送波の周期は、約1μsであるため、搬送波を利用して受信履歴における時間を取得することもできる。具体的には、自車10が100km/hで走行中において、1msの精度で受信履歴における時間を取得する場合には、遮蔽物の走行方向(縦方向、x方向)の位置を特定する際の精度は、2.8〜5.6cm程度であると見積もられる。すなわち、GNSS受信波の受信履歴における受信感度を地図情報と比較することにより、自車10の走行方向の位置を高精度に推定することができる。 Further, since each artificial satellite uses a diffusion code unique to the C / A code, it is possible to identify the artificial satellite and acquire the reception history by the correlation between the GNSS received wave and the C / A code. it can. For example, since the C / A code transmits a pseudo-random number code in a cycle of 1 ms, the reception history can be performed with high accuracy of about 1 to 2 ms by monitoring the change in the correlation value of the C / A code. You can get the time in. Further, since the period of the carrier wave is about 1 μs, the time in the reception history can be acquired by using the carrier wave. Specifically, when the own vehicle 10 is traveling at 100 km / h and the time in the reception history is acquired with an accuracy of 1 ms, the position of the shield in the traveling direction (vertical direction, x direction) is specified. The accuracy of is estimated to be about 2.8 to 5.6 cm. That is, by comparing the reception sensitivity in the reception history of the GNSS received wave with the map information, the position of the own vehicle 10 in the traveling direction can be estimated with high accuracy.

(第5実施形態)
第5実施形態では、レーダセンサ25等の検出に基づいて、路上構造物を検出して自車位置を推定し、運転支援を実行する場合を例示して説明する。
(Fifth Embodiment)
In the fifth embodiment, a case where the road structure is detected, the position of the own vehicle is estimated based on the detection of the radar sensor 25 and the like, and the driving support is executed will be described as an example.

図19に示すように、自車10の走行路である道路90に沿ってガードレール等の路上の金属構造物104が存在する場合には、レーダセンサ25の探査波が金属構造物104により反射されると、レーダセンサ25が受信する受信波の強度が大きくなる。このため、路上構造物検出部59は、レーダセンサ25の受信波信号の履歴を取得し、受信波強度ILが所定の強度閾値ILth以上となることを検出する。これにより、金属構造物104の存在を検出することができる。なお、レーダセンサ25が受信する受信波の強度が大きくなる路上構造物としては、限定されないが、ガードレール、中央分離帯等の柵状または柱状の金属構造物、道路標識、金属製の看板等を例示することができる。 As shown in FIG. 19, when a metal structure 104 on the road such as a guardrail is present along the road 90 which is the traveling path of the own vehicle 10, the exploration wave of the radar sensor 25 is reflected by the metal structure 104. Then, the intensity of the received wave received by the radar sensor 25 increases. Therefore, the road structure detection unit 59 acquires the history of the received wave signal of the radar sensor 25 and detects that the received wave intensity IL is equal to or higher than the predetermined intensity threshold ILth. Thereby, the presence of the metal structure 104 can be detected. The road structure in which the intensity of the received wave received by the radar sensor 25 is increased is not limited, but is limited to a guardrail, a fence-shaped or columnar metal structure such as a median strip, a road sign, a metal signboard, or the like. It can be exemplified.

路上構造物検出部59は、受信波強度ILが所定の強度閾値ILth以上となる強受信期間において車速Vについて時間積分を行うことにより、金属構造物104の長さEdを検出することができる。金属構造物104の長さEdは、自車10の走行方向における金属構造物104の存在開始位置Pssから存在終了位置Pseまでの距離によって表すことができる。 The road structure detection unit 59 can detect the length Ed of the metal structure 104 by performing time integration with respect to the vehicle speed V in a strong reception period in which the received wave intensity IL is equal to or higher than a predetermined intensity threshold ILth. The length Ed of the metal structure 104 can be represented by the distance from the existence start position Pss of the metal structure 104 to the existence end position Pse in the traveling direction of the own vehicle 10.

自車位置推定部60は、例えば、検出した金属構造物104の長さEdと、地図情報における路上構造物の長さEmとを照合することにより、検出した金属構造物104の位置を特定することができる。さらに、特定した金属構造物104の存在開始位置Pssを地図情報から取得し、相対位置検出部53により、存在開始位置Pssに対する自車10の相対位置Lcsを算出することができる。そして、上記式(6)において、xb=Pss、xr=Lcsとすることにより、地図情報に基づいた自車10の位置Pcを推定することができる。 The own vehicle position estimation unit 60 identifies the position of the detected metal structure 104 by, for example, collating the detected length Ed of the metal structure 104 with the length Em of the road structure in the map information. be able to. Further, the existence start position Pss of the specified metal structure 104 can be acquired from the map information, and the relative position Lcs of the own vehicle 10 with respect to the existence start position Pss can be calculated by the relative position detection unit 53. Then, in the above equation (6), by setting xb = Pss and xr = Lcs, the position Pc of the own vehicle 10 can be estimated based on the map information.

なお、金属構造物104の長さに代えて、レーダセンサ25の受信波の波形、強度、検出した金属構造物104の基準線に対する横方向または高さ方向の距離等のパラメータを用いて、検出した金属構造物104と、地図情報として記憶された路上構造物とを照合してもよい。 Instead of the length of the metal structure 104, it is detected by using parameters such as the waveform and intensity of the received wave of the radar sensor 25, and the distance in the lateral or height direction with respect to the detected reference line of the metal structure 104. The metal structure 104 may be collated with the road structure stored as map information.

図20は、第5実施形態において、ECU40が実行する位置推定処理および運転支援処理を示すフローチャートである。図20に示す処理は、自車10の運転時に所定の周期で繰り返し実行される。 FIG. 20 is a flowchart showing a position estimation process and a driving support process executed by the ECU 40 in the fifth embodiment. The process shown in FIG. 20 is repeatedly executed at a predetermined cycle when the own vehicle 10 is driven.

ステップS501では、地図情報として、自車10の走行路における路上構造物情報を取得する。具体的には、路上構造物の種別および位置と、その路上構造物の長さHmを含む地図情報を取得する。 In step S501, the road structure information in the traveling path of the own vehicle 10 is acquired as the map information. Specifically, the map information including the type and position of the road structure and the length Hm of the road structure is acquired.

次いで、ステップS502では、レーダセンサ25から受信波強度ILを取得し、車速センサ21から自車10の車速Vを取得する。その後、ステップS503に進む。 Next, in step S502, the received wave intensity IL is acquired from the radar sensor 25, and the vehicle speed V of the own vehicle 10 is acquired from the vehicle speed sensor 21. After that, the process proceeds to step S503.

ステップS503では、受信波強度ILが所定の強度閾値ILth以下であるか否かを判定する。IL≧ILthである場合には、ステップS504に進み、路上構造物が存在すると判断した後、ステップS505に進む。IL<ILthである場合には、ステップS521に進み、路上構造物が存在しないと判断した後、ステップS522〜S524に示す処理を実行する。ステップS522〜S524に示す処理は、図10のステップS122〜S124に示す処理と同様であるため、説明を省略する。ステップS524の処理の後、ステップS530に進む。 In step S503, it is determined whether or not the received wave intensity IL is equal to or less than a predetermined intensity threshold ILth. When IL ≧ ILth, the process proceeds to step S504, and after determining that the road structure exists, the process proceeds to step S505. If IL <ILth, the process proceeds to step S521, and after determining that the road structure does not exist, the process shown in steps S522 to S524 is executed. Since the processes shown in steps S522 to S524 are the same as the processes shown in steps S122 to S124 of FIG. 10, the description thereof will be omitted. After the process of step S524, the process proceeds to step S530.

ステップS505では、IL≧ILthとなる強受信期間と、ステップS502において取得した車速Vとに基づいて、検出した路上構造物の長さEdを算出する。続いて、ステップS506では、ステップS501において取得した地図情報から路上構造物の長さEmを取得し、ステップS507に進む。 In step S505, the detected length Ed of the road structure is calculated based on the strong reception period in which IL ≧ ILth and the vehicle speed V acquired in step S502. Subsequently, in step S506, the length Em of the road structure is acquired from the map information acquired in step S501, and the process proceeds to step S507.

ステップS507では、検出した路上構造物の長さEdと、地図情報における路上構造物の長さEmとを照合し、一致度が高いEmに対応する路上構造物を選定する。その後、ステップS508に進む。 In step S507, the detected length Ed of the road structure is collated with the length Em of the road structure in the map information, and the road structure corresponding to Em having a high degree of coincidence is selected. After that, the process proceeds to step S508.

ステップS508では、路上構造物の種別を特定する。具体的には、地図情報から選定した路上構造物の種別を地図情報から取得し、検出した路上構造物の種別(例えば、ガードレール)として特定する。続いて、ステップS509では、選定した路上構造物の位置を、検出した路上構造物の位置xemとして特定する。その後、ステップS510に進む。 In step S508, the type of road structure is specified. Specifically, the type of the road structure selected from the map information is acquired from the map information and specified as the detected type of the road structure (for example, a guardrail). Subsequently, in step S509, the position of the selected road structure is specified as the detected position xem of the road structure. After that, the process proceeds to step S510.

ステップS510では、特定した路上構造物の位置xemに対する自車10の相対位置xrを検出する。相対位置xrは、路上構造物として金属構造物104を検出した時点から、現在までに走行した自車10の走行距離として算出することができる。例えば、強受信期間の終了時から、現在までの経過時間Teと、ステップS502において取得した自車10の車速Vとの積(V×Te)を相対位置xrとして算出してもよい。その後、ステップS511に進む。 In step S510, the relative position xr of the own vehicle 10 with respect to the position xem of the specified road structure is detected. The relative position xr can be calculated as the mileage of the own vehicle 10 that has traveled from the time when the metal structure 104 is detected as the road structure to the present. For example, the product (V × Te) of the elapsed time Te from the end of the strong reception period to the present and the vehicle speed V of the own vehicle 10 acquired in step S502 may be calculated as the relative position xr. After that, the process proceeds to step S511.

ステップS511では、特定した路上構造物の位置xemと、相対位置xrとに基づいて、自車10の位置xcを推定する。例えば、上記式(9)において、xjmをxemに置き換えることにより、xcを算出できる。その後、ステップS530に進む。ステップS530〜S533に示す処理は、図9のステップS130〜S133に示す処理と同様であるため、説明を省略する。 In step S511, the position xc of the own vehicle 10 is estimated based on the position xem of the specified road structure and the relative position xr. For example, in the above equation (9), xc can be calculated by replacing xjm with xem. Then, the process proceeds to step S530. Since the processes shown in steps S530 to S533 are the same as the processes shown in steps S130 to S133 of FIG. 9, the description thereof will be omitted.

本実施形態によれば、ECU40は、車両に搭載されているレーダセンサ25の受信波強度を利用して、金属構造物104等の反射電力が高い路上構造物を検出することができる。そして、検出した路上構造物の長さ等を、地図情報に含まれる路上構造物の長さ等と照合することにより、検出した路上構造物の種別および位置を特定することができる。さらに、特定した路上構造物の位置と、その路上構造物に対する自車10の相対位置とに基づいて、自車10の位置を推定することができる。このため、視覚的に自車10の位置を検出することが困難な状況下でも、自車10の位置を精度よく推定できる。本実施形態によれば、第1〜第4実施形態と同様に、視覚的に阻害された環境条件下においても検出が阻害されることがないため、環境条件により自車10の位置推定が妨害されることが少ない。 According to this embodiment, the ECU 40 can detect a road structure having a high reflected power such as a metal structure 104 by utilizing the received wave intensity of the radar sensor 25 mounted on the vehicle. Then, by collating the detected length of the road structure with the length of the road structure included in the map information, the type and position of the detected road structure can be specified. Further, the position of the own vehicle 10 can be estimated based on the position of the specified road structure and the relative position of the own vehicle 10 with respect to the road structure. Therefore, even in a situation where it is difficult to visually detect the position of the own vehicle 10, the position of the own vehicle 10 can be estimated accurately. According to the present embodiment, as in the first to fourth embodiments, the detection is not hindered even under visually hindered environmental conditions, so that the position estimation of the own vehicle 10 is hindered by the environmental conditions. It is rarely done.

上記の各実施形態によれば、以下の効果を得ることができる。 According to each of the above embodiments, the following effects can be obtained.

ECU40は、地図情報取得部51と、横勾配検出部55と、縦勾配検出部56と、曲率検出部57と、ジョイント検出部58等に例示される形状検出部と、路上構造物検出部59と、相対位置検出部53と、自車位置推定部60とを備え、自車10の位置を推定する位置推定装置として機能する。 The ECU 40 includes a map information acquisition unit 51, a horizontal gradient detection unit 55, a vertical gradient detection unit 56, a curvature detection unit 57, a shape detection unit exemplified as a joint detection unit 58, and a road structure detection unit 59. A relative position detection unit 53 and a vehicle position estimation unit 60 are provided, and the device functions as a position estimation device for estimating the position of the vehicle 10.

地図情報取得部51は、自車10が走行する道路の地図情報を取得する。形状検出部は、加速度センサ23、ヨーレートセンサ24等に例示される慣性センサと、車速センサ21のうちの少なくともいずれか1つにより検出される自車10の走行状態に基づいて、自車10が走行する道路の路面形状を検出する。路上構造物検出部59は、外部通信装置30の感度に基づいて、もしくは、探査波の反射波を用いて、自車10が走行する道路の路上構造物を検出する。相対位置検出部53は、路面形状または路上構造物に対する自車10の相対位置を検出する。自車位置推定部60は、検出された路面形状または路上構造物を地図情報に含まれる路面形状または路上構造物と照合して、地図情報内の路面形状または路上構造物の位置を特定する。さらに、自車位置推定部60は、特定された路面形状または路上構造物の位置および相対位置に基づいて自車10の位置を推定する。 The map information acquisition unit 51 acquires map information of the road on which the own vehicle 10 travels. The shape detection unit is based on the running state of the own vehicle 10 detected by at least one of the inertial sensor exemplified by the acceleration sensor 23, the yaw rate sensor 24, and the vehicle speed sensor 21. Detects the road surface shape of the traveling road. The road structure detection unit 59 detects the road structure on the road on which the own vehicle 10 travels, based on the sensitivity of the external communication device 30 or by using the reflected wave of the exploration wave. The relative position detection unit 53 detects the relative position of the own vehicle 10 with respect to the road surface shape or the road structure. The own vehicle position estimation unit 60 collates the detected road surface shape or road structure with the road surface shape or road structure included in the map information, and identifies the position of the road surface shape or road structure in the map information. Further, the own vehicle position estimation unit 60 estimates the position of the own vehicle 10 based on the specified road surface shape or the position and relative position of the road structure.

このため、ECU40によれば、視覚的情報を用いることなく、慣性センサと車速センサ21のうちの少なくともいずれか1つにより検出される自車10の走行状態に基づいて自車10の位置を推定することができる。このため、視覚的に自車10の位置を検出することが困難な状況下でも、自車10の位置を精度よく推定できる。 Therefore, according to the ECU 40, the position of the own vehicle 10 is estimated based on the running state of the own vehicle 10 detected by at least one of the inertial sensor and the vehicle speed sensor 21 without using visual information. can do. Therefore, the position of the own vehicle 10 can be estimated accurately even in a situation where it is difficult to visually detect the position of the own vehicle 10.

自車位置推定部60は、自車10の速度Vが所定の速度閾値Vth以上である場合に、ジョイント検出部58により検出された道路のジョイントによる起伏を、地図情報に含まれる路面形状と照合して自車10の位置を推定するように構成されていてもよい。また、自車位置推定部60は、自車10の速度Vが速度閾値Vth未満である場合に、横勾配検出部55、縦勾配検出部56、曲率検出部57等により検出された道路の勾配または曲率を、地図情報に含まれる道路の勾配または曲率と照合して自車の位置を推定するように構成されていてもよい。さらには、自車10の速度Vが所定の速度閾値Vth以上である場合であっても、ジョイントが検出できなかった場合に、道路の勾配または曲率を検出して地図情報と照合し、自車位置を推定してもよい。 When the speed V of the own vehicle 10 is equal to or higher than a predetermined speed threshold value Vth, the own vehicle position estimation unit 60 collates the undulations of the road detected by the joint detection unit 58 with the road surface shape included in the map information. It may be configured to estimate the position of the own vehicle 10. Further, the own vehicle position estimation unit 60 has a road gradient detected by the horizontal gradient detection unit 55, the vertical gradient detection unit 56, the curvature detection unit 57, etc. when the speed V of the own vehicle 10 is less than the speed threshold Vth. Alternatively, it may be configured to estimate the position of the own vehicle by comparing the curvature with the slope or curvature of the road included in the map information. Furthermore, even when the speed V of the own vehicle 10 is equal to or higher than the predetermined speed threshold value Vth, when the joint cannot be detected, the slope or curvature of the road is detected and collated with the map information, and the own vehicle is used. The position may be estimated.

ECU40は、地図情報取得部が取得する道路の勾配または曲率に関する地図情報を、道路の所定区間毎に直線近似して記憶する記憶部62を備える。これによって、ECU40の車載地図情報DBにおける記憶容量の負荷を軽減できる。 The ECU 40 includes a storage unit 62 that stores map information regarding the slope or curvature of the road acquired by the map information acquisition unit by linearly approximating each predetermined section of the road. As a result, the load on the storage capacity in the in-vehicle map information DB of the ECU 40 can be reduced.

自車位置推定部60は、形状検出部により検出された路面形状の所定区間内での変化を、地図情報に含まれる路面形状の変化と照合するように構成されていてもよい。所定区間内でパターン化された路面形状の変化において検出データと地図情報とを比較することにより、照合ミスによる路面形状の誤検出を抑制することができる。 The own vehicle position estimation unit 60 may be configured to collate the change in the road surface shape detected by the shape detection unit within a predetermined section with the change in the road surface shape included in the map information. By comparing the detection data with the map information in the change of the road surface shape patterned in the predetermined section, it is possible to suppress the erroneous detection of the road surface shape due to the collation error.

ECU40は、地図情報取得部51により取得された自車10の周囲の路面形状に基づいて、自車10に搭載された慣性センサと車速センサ21のうちの少なくともいずれか1つについて、検出誤差を補正する誤差補正部61を備える。このため、センサ群20の精度に由来する、ジョイント検出、道路の勾配または曲率の検出等における誤差を低減することができ、より精度よく自車10の位置を推定することができる。 The ECU 40 detects a detection error for at least one of the inertial sensor and the vehicle speed sensor 21 mounted on the own vehicle 10 based on the road surface shape around the own vehicle 10 acquired by the map information acquisition unit 51. An error correction unit 61 for correction is provided. Therefore, it is possible to reduce errors in joint detection, road gradient or curvature detection, etc., which are derived from the accuracy of the sensor group 20, and the position of the own vehicle 10 can be estimated more accurately.

また、ECU40は、経路地図情報取得部71と、走行制御部72とを備え、推定された自車10の位置に基づいて、自車10の運転支援を実行する運転支援装置としての機能を有する。このため、視覚的に自車の位置を検出することが困難な状況下でも、精度よく推定された自車の位置に基づいて、適切な運転支援を実行することができる。 Further, the ECU 40 includes a route map information acquisition unit 71 and a travel control unit 72, and has a function as a driving support device that executes driving support for the own vehicle 10 based on the estimated position of the own vehicle 10. .. Therefore, even in a situation where it is difficult to visually detect the position of the own vehicle, it is possible to execute appropriate driving support based on the accurately estimated position of the own vehicle.

経路地図情報取得部71は、推定された自車10の位置に基づいて、自車10の走行経路となる道路の地図情報である経路地図情報を取得する。例えば、自車10の走行経路となる道路の曲率情報、横勾配情報および縦勾配情報を経路地図情報として取得する。そして、走行制御部72は、経路地図情報に基づいて、自車10の走行を制御する。例えば、走行制御部72は、横方向制御部73を備えることにより、曲率情報および横勾配情報に基づいて算出した自車10の舵角目標値(舵角指令値Dc)を用いて、自車10の操舵制御を行う。また、縦方向制御部74を備えることにより、縦勾配情報に基づいて算出した加減速目標値(加速度指令値Ac)を用いて、自車10の駆動制御および制動制御を行う。このため、自車10の走行制御性が向上する。特に、カーブ路を通過する際において、自車10の走行制御性が著しく向上する。 The route map information acquisition unit 71 acquires route map information, which is map information of the road that is the travel route of the own vehicle 10, based on the estimated position of the own vehicle 10. For example, the curvature information, the horizontal gradient information, and the vertical gradient information of the road that is the traveling route of the own vehicle 10 are acquired as the route map information. Then, the travel control unit 72 controls the travel of the own vehicle 10 based on the route map information. For example, the traveling control unit 72 includes the lateral control unit 73, and uses the steering angle target value (steering angle command value Dc) of the own vehicle 10 calculated based on the curvature information and the lateral gradient information of the own vehicle. 10 steering controls are performed. Further, by including the vertical control unit 74, the drive control and braking control of the own vehicle 10 are performed using the acceleration / deceleration target value (acceleration command value Ac) calculated based on the vertical gradient information. Therefore, the traveling controllability of the own vehicle 10 is improved. In particular, when passing through a curved road, the traveling controllability of the own vehicle 10 is remarkably improved.

なお、上記の各実施形態では、撮像装置を備えていない車両を例示して説明したが、撮像装置を備えた車両に対しても、上記の各実施形態に係るECU40等の構成を適用することができる。この場合、撮像装置は、自車位置推定以外の用途(例えば衝突回避制御等)においてのみ用いられるものであってもよいし、上記の各実施形態と並行して自車10の位置を推定する用途で用いられるものであってもよい。 In each of the above embodiments, a vehicle not provided with an imaging device has been described as an example. However, the configuration of the ECU 40 or the like according to each of the above embodiments shall be applied to a vehicle provided with an imaging device. Can be done. In this case, the image pickup device may be used only for applications other than the own vehicle position estimation (for example, collision avoidance control, etc.), and the position of the own vehicle 10 is estimated in parallel with each of the above embodiments. It may be used for various purposes.

また、上記の各実施形態では、自車10の走行路の特徴的要素を検出する検出部として、横勾配検出部55、縦勾配検出部56、曲率検出部57、ジョイント検出部58、路上構造物検出部59の全てを備えるECU40を例示して説明したが、これに限定されず、上記の各検出部の一部を備えるものであってもよい。 Further, in each of the above embodiments, as the detection unit for detecting the characteristic element of the traveling path of the own vehicle 10, the horizontal gradient detection unit 55, the vertical gradient detection unit 56, the curvature detection unit 57, the joint detection unit 58, and the road structure Although the ECU 40 including all of the object detection units 59 has been described as an example, the present invention is not limited to this, and a part of each of the above detection units may be provided.

また、ECU40は、外部地図情報DB13と、車載地図情報DB14との双方から地図情報を取得可能に構成されているが、いずれか一方の地図情報DBからの地図情報のみを利用できるように構成されていてもよい。また、車載地図情報DB14に代えて、自車10から取り外し可能な記憶媒体に記憶させた地図情報DBを用いてもよい。また、自車10がナビゲーションシステムを備えている場合には、上述の地図情報DBに記憶された地図情報をナビゲーションシステムにおいて使用してもよい。 Further, the ECU 40 is configured to be able to acquire map information from both the external map information DB 13 and the in-vehicle map information DB 14, but is configured to be able to use only the map information from either one of the map information DBs. You may be. Further, instead of the in-vehicle map information DB 14, a map information DB stored in a storage medium removable from the own vehicle 10 may be used. When the own vehicle 10 is provided with a navigation system, the map information stored in the above-mentioned map information DB may be used in the navigation system.

また、ECU40によって制御される制御対象は、制御対象80として例示した各装置以外の装置を含んでいてもよい。 Further, the control target controlled by the ECU 40 may include devices other than the devices exemplified as the control target 80.

10…自車、21…車速センサ、23…加速度センサ、24…ヨーレートセンサ、51…地図情報取得部、53…相対位置検出部、55…横勾配検出部、56…縦勾配検出部、57…曲率検出部、58…ジョイント検出部、60…自車位置推定部 10 ... own vehicle, 21 ... vehicle speed sensor, 23 ... acceleration sensor, 24 ... yaw rate sensor, 51 ... map information acquisition unit, 53 ... relative position detection unit, 55 ... horizontal gradient detection unit, 56 ... vertical gradient detection unit, 57 ... Curvature detection unit, 58 ... Joint detection unit, 60 ... Vehicle position estimation unit

Claims (11)

自車(10)が走行する道路の地図情報を取得する地図情報取得部(51)と、
前記自車に搭載された慣性センサ(23,24)と車速センサ(21)のうちの少なくともいずれか1つにより検出される前記自車の走行状態に基づいて、前記自車が走行する道路の路面形状を検出する形状検出部(55〜58)と、
前記路面形状に対する前記自車の相対位置を検出する相対位置検出部(53)と、
前記形状検出部により検出された路面形状を前記地図情報に含まれる路面形状と照合して前記地図情報内の前記路面形状の位置を特定し、前記特定された路面形状の位置および前記相対位置に基づいて前記自車の位置を推定する自車位置推定部(60)と、を備える位置推定装置。
The map information acquisition unit (51) that acquires the map information of the road on which the own vehicle (10) travels, and
Based on the traveling state of the own vehicle detected by at least one of the inertial sensor (23, 24) and the vehicle speed sensor (21) mounted on the own vehicle, the road on which the own vehicle travels. A shape detection unit (55-58) that detects the road surface shape, and
A relative position detection unit (53) that detects the relative position of the own vehicle with respect to the road surface shape, and
The road surface shape detected by the shape detection unit is collated with the road surface shape included in the map information to specify the position of the road surface shape in the map information, and the position of the specified road surface shape and the relative position are set. A position estimation device including a vehicle position estimation unit (60) that estimates the position of the vehicle based on the vehicle.
前記形状検出部(58)は、前記路面形状として前記道路のジョイントによる起伏を検出する請求項1に記載の位置推定装置。 The position estimation device according to claim 1, wherein the shape detection unit (58) detects undulations due to joints of the road as the road surface shape. 前記形状検出部(55〜57)は、前記路面形状として前記道路の勾配または曲率を検出する請求項1または2に記載の位置推定装置。 The position estimation device according to claim 1 or 2, wherein the shape detection unit (55-57) detects the slope or curvature of the road as the road surface shape. 前記自車位置推定部は、
前記自車の速度が所定の速度閾値以上である場合に、前記形状検出部により検出された前記道路のジョイントによる起伏を、前記地図情報に含まれる路面形状と照合して前記自車の位置を推定し、
前記自車の速度が前記速度閾値未満である場合に、前記形状検出部により検出された前記道路の勾配を、前記地図情報に含まれる路面形状と照合して前記自車の位置を推定する請求項1〜3のいずれかに記載の位置推定装置。
The own vehicle position estimation unit
When the speed of the own vehicle is equal to or higher than a predetermined speed threshold value, the undulations of the road joint detected by the shape detection unit are compared with the road surface shape included in the map information to determine the position of the own vehicle. Estimate and
A claim for estimating the position of the own vehicle by collating the slope of the road detected by the shape detection unit with the road surface shape included in the map information when the speed of the own vehicle is less than the speed threshold value. Item 6. The position estimation device according to any one of Items 1 to 3.
前記地図情報取得部が取得する前記道路の勾配または曲率に関する地図情報を、前記道路の所定区間毎に直線近似して記憶する記憶部(62)を備える請求項1〜4のいずれかに記載の位置推定装置。 The invention according to any one of claims 1 to 4, further comprising a storage unit (62) that stores the map information regarding the slope or curvature of the road acquired by the map information acquisition unit by linearly approximating each predetermined section of the road. Position estimation device. 前記自車位置推定部は、前記形状検出部により検出された路面形状の所定区間内での変化を、前記地図情報に含まれる路面形状の変化と照合する請求項3〜5のいずれかに記載の位置推定装置。 The vehicle position estimation unit according to any one of claims 3 to 5, wherein the change in the road surface shape detected by the shape detection unit within a predetermined section is collated with the change in the road surface shape included in the map information. Position estimation device. 前記地図情報取得部により取得された前記自車の周囲の路面形状に基づいて、前記自車に搭載された慣性センサと車速センサのうちの少なくともいずれか1つについて検出誤差を補正する誤差補正部(61)を備える請求項1〜6のいずれかに記載の位置推定装置。 An error correction unit that corrects a detection error for at least one of an inertial sensor and a vehicle speed sensor mounted on the own vehicle based on the road surface shape around the own vehicle acquired by the map information acquisition unit. The position estimation device according to any one of claims 1 to 6, comprising (61). 自車(10)が走行する道路の地図情報を取得する地図情報取得部(51)と、
前記自車に搭載され、前記自車の外部との間で信号を授受する外部通信装置(30)の感度に基づいて、前記自車が走行する道路の路上構造物を検出する路上構造物検出部(59)と、
前記路上構造物に対する前記自車の相対位置を検出する相対位置検出部(53)と、
前記路上構造物検出部により検出された路上構造物を前記地図情報に含まれる路上構造物と照合して前記地図情報内の前記路上構造物の位置を特定し、前記特定された路上構造物の位置および前記相対位置に基づいて前記自車の位置を推定する自車位置推定部(60)と、を備える位置推定装置。
The map information acquisition unit (51) that acquires the map information of the road on which the own vehicle (10) travels, and
Road structure detection that detects road structures on the road on which the vehicle travels, based on the sensitivity of the external communication device (30) mounted on the vehicle and transmitting and receiving signals to and from the outside of the vehicle. Department (59) and
A relative position detection unit (53) that detects the relative position of the own vehicle with respect to the road structure, and
The road structure detected by the road structure detection unit is collated with the road structure included in the map information to identify the position of the road structure in the map information, and the specified road structure is specified. A position estimation device including a own vehicle position estimation unit (60) that estimates the position of the own vehicle based on the position and the relative position.
自車が走行する道路の地図情報を取得する地図情報取得部(51)と、
前記自車に搭載され、探査波の反射波を用いて前記自車が走行する道路の路上構造物を検出する路上構造物検出部(59)と、
前記路上構造物に対する前記自車の相対位置を検出する相対位置検出部(53)と、
前記路上構造物検出部により検出された路上構造物を前記地図情報に含まれる路上構造物と照合して前記地図情報内の前記路上構造物の位置を特定し、前記特定された路上構造物の位置および前記相対位置に基づいて前記自車の位置を推定する自車位置推定部(60)と、を備える位置推定装置。
The map information acquisition unit (51), which acquires map information of the road on which the vehicle travels,
A road structure detection unit (59) mounted on the own vehicle and detecting a road structure on the road on which the own vehicle travels by using reflected waves of exploration waves.
A relative position detection unit (53) that detects the relative position of the own vehicle with respect to the road structure, and
The road structure detected by the road structure detection unit is collated with the road structure included in the map information to identify the position of the road structure in the map information, and the specified road structure is specified. A position estimation device including a own vehicle position estimation unit (60) that estimates the position of the own vehicle based on the position and the relative position.
請求項1〜9のいずれかに記載の位置推定装置により推定された前記自車の位置に基づいて、前記自車の運転支援を実行する運転支援装置(40)であって、
推定された前記自車の位置に基づいて、前記自車の走行経路となる道路の地図情報である経路地図情報を取得する経路地図情報取得部(71)と、
前記経路地図情報に基づいて、前記自車の走行を制御する走行制御部(72)と、
を備える運転支援装置。
A driving support device (40) that executes driving support for the own vehicle based on the position of the own vehicle estimated by the position estimation device according to any one of claims 1 to 9.
Based on the estimated position of the own vehicle, the route map information acquisition unit (71) that acquires the route map information that is the map information of the road that is the travel route of the own vehicle, and
A travel control unit (72) that controls the travel of the own vehicle based on the route map information,
A driving support device equipped with.
前記経路地図情報取得部は、前記自車の走行経路となる道路の曲率情報、横勾配情報および縦勾配情報を前記経路地図情報として取得し、
前記走行制御部は、
前記曲率情報および前記横勾配情報に基づいて算出した前記自車の舵角目標値を用いて、前記自車の操舵制御を行う横方向制御部(73)と、
前記縦勾配情報に基づいて算出した加減速目標値を用いて、前記自車の駆動制御および制動制御を行う縦方向制御部(74)と、を備える請求項10に記載の運転支援装置。
The route map information acquisition unit acquires the curvature information, the horizontal gradient information, and the vertical gradient information of the road serving as the traveling route of the own vehicle as the route map information.
The travel control unit
The lateral control unit (73) that controls the steering of the own vehicle by using the steering angle target value of the own vehicle calculated based on the curvature information and the lateral gradient information.
The driving support device according to claim 10, further comprising a vertical control unit (74) that performs drive control and braking control of the own vehicle using an acceleration / deceleration target value calculated based on the vertical gradient information.
JP2019071603A 2019-04-03 2019-04-03 Position estimation device and driving support device Active JP7275783B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019071603A JP7275783B2 (en) 2019-04-03 2019-04-03 Position estimation device and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019071603A JP7275783B2 (en) 2019-04-03 2019-04-03 Position estimation device and driving support device

Publications (2)

Publication Number Publication Date
JP2020169901A true JP2020169901A (en) 2020-10-15
JP7275783B2 JP7275783B2 (en) 2023-05-18

Family

ID=72746611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019071603A Active JP7275783B2 (en) 2019-04-03 2019-04-03 Position estimation device and driving support device

Country Status (1)

Country Link
JP (1) JP7275783B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114088102A (en) * 2022-01-19 2022-02-25 智道网联科技(北京)有限公司 Road surface quality evaluation method and device based on vehicle-mounted inertia measurement unit
JP7241801B2 (en) 2021-05-19 2023-03-17 三菱電機株式会社 VEHICLE CONTROL DEVICE AND VEHICLE CONTROL METHOD
WO2023058128A1 (en) * 2021-10-05 2023-04-13 日本電気株式会社 Position estimation device, moving body system, position estimation method, and non-transitory computer-readable medium
JP7260044B1 (en) 2022-09-05 2023-04-18 Smk株式会社 ROAD CONDITION DETECTION DEVICE, ROAD CONDITION DETECTION METHOD, ELECTRIC MOTORCYCLE, AND ROAD CONDITION DETECTION SYSTEM
JP2023167418A (en) * 2022-05-12 2023-11-24 三菱電機株式会社 Vehicle control device and vehicle control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366411A (en) * 1986-09-09 1988-03-25 Nissan Motor Co Ltd Vehicle path guide apparatus
JP2017036952A (en) * 2015-08-07 2017-02-16 パナソニックIpマネジメント株式会社 Correction method and correction device using the same
JP2018040693A (en) * 2016-09-07 2018-03-15 株式会社Soken Driving support device and driving support method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366411A (en) * 1986-09-09 1988-03-25 Nissan Motor Co Ltd Vehicle path guide apparatus
JP2017036952A (en) * 2015-08-07 2017-02-16 パナソニックIpマネジメント株式会社 Correction method and correction device using the same
JP2018040693A (en) * 2016-09-07 2018-03-15 株式会社Soken Driving support device and driving support method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7241801B2 (en) 2021-05-19 2023-03-17 三菱電機株式会社 VEHICLE CONTROL DEVICE AND VEHICLE CONTROL METHOD
WO2023058128A1 (en) * 2021-10-05 2023-04-13 日本電気株式会社 Position estimation device, moving body system, position estimation method, and non-transitory computer-readable medium
CN114088102A (en) * 2022-01-19 2022-02-25 智道网联科技(北京)有限公司 Road surface quality evaluation method and device based on vehicle-mounted inertia measurement unit
CN114088102B (en) * 2022-01-19 2022-04-12 智道网联科技(北京)有限公司 Road surface quality evaluation method and device based on vehicle-mounted inertia measurement unit
JP2023167418A (en) * 2022-05-12 2023-11-24 三菱電機株式会社 Vehicle control device and vehicle control method
JP7433363B2 (en) 2022-05-12 2024-02-19 三菱電機株式会社 Vehicle control device and vehicle control method
JP7260044B1 (en) 2022-09-05 2023-04-18 Smk株式会社 ROAD CONDITION DETECTION DEVICE, ROAD CONDITION DETECTION METHOD, ELECTRIC MOTORCYCLE, AND ROAD CONDITION DETECTION SYSTEM
WO2024053349A1 (en) * 2022-09-05 2024-03-14 Smk株式会社 Road surface condition detection device, road surface condition detection method, electric two-wheeled vehicle, and road surface condition detection system
JP2024035866A (en) * 2022-09-05 2024-03-15 Smk株式会社 Road surface condition detection device, road condition detection method, electric motorcycle, and road surface condition detection system

Also Published As

Publication number Publication date
JP7275783B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP7275783B2 (en) Position estimation device and driving support device
US11852498B2 (en) Lane marking localization
EP3644294B1 (en) Vehicle information storage method, vehicle travel control method, and vehicle information storage device
CN106546977B (en) Vehicle radar sensing and localization
US9140792B2 (en) System and method for sensor based environmental model construction
CN104691447B (en) System and method for dynamically focusing on vehicle sensors
JP6411956B2 (en) Vehicle control apparatus and vehicle control method
US11009356B2 (en) Lane marking localization and fusion
US20090265070A1 (en) Support control device
US20180188736A1 (en) System and method for vehicle localization assistance using sensor data
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP2008065482A (en) Driving support system for vehicle
US20230115708A1 (en) Automatic driving device and vehicle control method
JP2005339432A (en) Collision prevention system and on-vehicle device, relay device and position transmitter for pedestrian
Moras et al. Drivable space characterization using automotive lidar and georeferenced map information
JP2021113047A (en) Mobile body control device, mobile body control method and program for mobile body control device
US10501077B2 (en) Inter-vehicle distance estimation method and inter-vehicle distance estimation device
EP3835724B1 (en) Self-location estimation method and self-location estimation device
CN114572243A (en) Target object detection device and vehicle equipped with the same
CN112257488A (en) Information providing device, information providing method, and storage medium
CN114585525A (en) Vibration detection for vehicles and trailers
CN220855184U (en) Ore card and environment sensing system thereof
US11887338B2 (en) Maintaining calibration of an IBIS camera
JP7432423B2 (en) Management devices, management methods, and programs
US20230408264A1 (en) Lane marking localization and fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R151 Written notification of patent or utility model registration

Ref document number: 7275783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151