JP7321034B2 - Driving support method and driving support device - Google Patents

Driving support method and driving support device Download PDF

Info

Publication number
JP7321034B2
JP7321034B2 JP2019155696A JP2019155696A JP7321034B2 JP 7321034 B2 JP7321034 B2 JP 7321034B2 JP 2019155696 A JP2019155696 A JP 2019155696A JP 2019155696 A JP2019155696 A JP 2019155696A JP 7321034 B2 JP7321034 B2 JP 7321034B2
Authority
JP
Japan
Prior art keywords
self
detection
vehicle
error
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019155696A
Other languages
Japanese (ja)
Other versions
JP2021030980A (en
Inventor
博幸 ▲高▼野
祐一 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019155696A priority Critical patent/JP7321034B2/en
Publication of JP2021030980A publication Critical patent/JP2021030980A/en
Application granted granted Critical
Publication of JP7321034B2 publication Critical patent/JP7321034B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、走行支援方法及び走行支援装置に関する。 The present invention relates to a driving assistance method and a driving assistance device.

自車両の自己位置を検出し、自己位置に基づいて自車両の走行を支援する技術が提案されている。例えば特許文献1により提案される技術では、交通情報に基づいて走行経路上の区間ごとに設定速度を設定し、自車両の位置(自己位置)がいずれの区間内であるかに基づいて、自車の速度を現区間の設定速度で制御する。 Techniques have been proposed for detecting the position of the own vehicle and assisting the running of the own vehicle based on the position of the own vehicle. For example, in the technology proposed in Patent Document 1, a set speed is set for each section on a travel route based on traffic information, and based on which section the position of the own vehicle (self-position) is, the speed is determined. Control the speed of the car at the set speed for the current section.

国際公開第2013/069130号パンフレットInternational Publication No. 2013/069130 pamphlet

自己位置の検出には誤差があるため、自己位置に基づいて自車両の走行を支援する際には、自己位置の検出誤差を推定して検出誤差に応じたマージンを設ける必要がある。
しかしながら、検出誤差の推定値が実際の検出誤差より大きいと不要にマージンが大きくなって過度に安全側に偏った走行支援となり、反対に検出誤差の推定値が実際の検出誤差より小さいと必要なマージンが確保されないおそれがある。
Since there is an error in the detection of the self-position, it is necessary to estimate the detection error of the self-position and provide a margin corresponding to the detection error when supporting the running of the own vehicle based on the self-position.
However, if the estimated value of the detection error is larger than the actual detection error, the margin becomes unnecessarily large, resulting in driving assistance that is excessively biased toward safety. Margin may not be secured.

例えば特許文献1の例において、現在走行中の区間の設定速度よりも次の区間の設定速度が低い場合に、検出誤差の推定値が実際の検出誤差より大きいと、不要に早く手前で減速して低い車速で走行する距離が長くなるおそれがある。反対に検出誤差の推定値が実際の検出誤差より小さいと、設定速度を超える速度で次の区間に進入してしまうおそれがある。
そこで本発明は、自車両が任意の目標地点に到達した時点における自己位置の検出誤差を閾値以下に抑えることを目的とする。
For example, in the example of Patent Document 1, when the set speed for the next section is lower than the set speed for the current section, if the estimated value of the detection error is larger than the actual detection error, the vehicle will decelerate unnecessarily early before the vehicle is running. There is a risk that the distance traveled at a low vehicle speed will become longer. Conversely, if the estimated value of the detection error is smaller than the actual detection error, there is a risk that the vehicle will enter the next section at a speed exceeding the set speed.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to suppress the detection error of the self-position when the self-vehicle reaches an arbitrary target point to a threshold value or less.

本発明の一態様に係る走行支援方法では、自車両の地図上の現在位置である自己位置を検出し、自車両を到達させる目標地点を設定し、自己位置から目標地点まで自車両を走行させる複数の走行軌道候補を生成し、将来、目標地点に到達した時点において検出される自己位置の検出誤差を走行軌道候補毎に推定し、複数の走行軌道候補のうち検出誤差が閾値以下になる走行軌道候補のいずれかを目標走行軌道として選択し、選択された目標走行軌道を走行するよう自車両の走行を支援する。 In a driving support method according to an aspect of the present invention, a self-position, which is the current position of the self-vehicle on a map, is detected, a target point to be reached by the self-vehicle is set, and the self-vehicle is driven from the self-position to the target point. Generating a plurality of trajectory candidates, estimating the detection error of the self-position that will be detected when the target point is reached in the future, for each trajectory candidate, and driving such that the detection error is less than the threshold among the plurality of trajectory candidates. Any one of the trajectory candidates is selected as the target travel trajectory, and the vehicle is supported so as to travel along the selected target travel trajectory.

本発明の一態様によれば、自車両が任意の目標地点に到達した時点における自己位置の検出誤差を閾値以下に抑えることができる。 According to one aspect of the present invention, it is possible to suppress the detection error of the self-position when the host vehicle reaches an arbitrary target point to a threshold value or less.

実施形態の走行支援装置を搭載する車両の概略構成の一例を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows an example of schematic structure of the vehicle which mounts the driving assistance device of embodiment. 実施形態の走行支援方法の概略説明図である。1 is a schematic explanatory diagram of a driving support method according to an embodiment; FIG. 実施形態の走行支援方法の概略説明図である。1 is a schematic explanatory diagram of a driving support method according to an embodiment; FIG. 図1に示すコントローラの機能構成の一例を示すブロック図である。2 is a block diagram showing an example of a functional configuration of a controller shown in FIG. 1; FIG. 図3に示す誤差検出部の機能構成の一例を示すブロック図である。4 is a block diagram showing an example of a functional configuration of an error detection unit shown in FIG. 3; FIG. 図3に示す第1区間誤差算出部の機能構成の一例を示すブロック図である。4 is a block diagram showing an example of a functional configuration of a first interval error calculator shown in FIG. 3; FIG. 第1区間誤差算出部により算出される誤差の第1例の説明図である。FIG. 4 is an explanatory diagram of a first example of errors calculated by a first interval error calculator; 第1区間誤差算出部により算出される誤差の第2例の説明図である。FIG. 9 is an explanatory diagram of a second example of errors calculated by the first section error calculator; 第1区間誤差算出部により算出される誤差の第3例の説明図である。FIG. 11 is an explanatory diagram of a third example of errors calculated by the first interval error calculator; 図3に示す第2区間誤差算出部により算出される誤差の第1例の説明図である。FIG. 4 is an explanatory diagram of a first example of an error calculated by a second interval error calculator shown in FIG. 3; 第2区間誤差算出部により算出される誤差の第2例の説明図である。FIG. 10 is an explanatory diagram of a second example of errors calculated by the second interval error calculator; 図3に示す軌道誤差算出部により算出される誤差の第1例の説明図である。4 is an explanatory diagram of a first example of an error calculated by a track error calculator shown in FIG. 3; FIG. 軌道誤差算出部により算出される誤差の第2例の説明図である。FIG. 9 is an explanatory diagram of a second example of errors calculated by the track error calculator; 実施形態の走行支援方法の一例のフローチャートである。4 is a flowchart of an example of a driving support method according to the embodiment; 第3実施形態の走行支援方法の一例の説明図である。FIG. 11 is an explanatory diagram of an example of a driving support method according to the third embodiment;

(第1実施形態)
(構成)
以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
(First embodiment)
(composition)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that each drawing is schematic and may differ from the actual one. Further, the embodiments of the present invention shown below are examples of apparatuses and methods for embodying the technical idea of the present invention. are not specific to the following: Various modifications can be made to the technical idea of the present invention within the technical scope defined by the claims.

自車両1は、自車両1の走行支援を行う走行支援装置10を備える。走行支援装置10は、自車両1の周囲の道路形状や地物、ランドマーク等の物標の検出結果や、オドメトリ、衛星測位システム等に基づいて自車両1の現在位置である自己位置を検出し、検出した自己位置に基づいて自車両1の走行を支援する。
なお、オドメトリによる自己位置の検出手法は、移動体の左右の車輪の回転角と回転角速度に応じて移動体の移動距離と方向を求めることにより移動体の自己位置を推定する公知の手法の1つである。
The host vehicle 1 includes a travel support device 10 that assists the travel of the host vehicle 1 . The driving support device 10 detects the current position of the vehicle 1 based on detection results of targets such as road shapes, features, and landmarks around the vehicle 1, odometry, a satellite positioning system, and the like. and assists the running of the own vehicle 1 based on the detected self position.
The self-position detection method using odometry is one of known methods for estimating the self-position of a mobile object by obtaining the moving distance and direction of the mobile object according to the rotation angles and rotational angular velocities of the left and right wheels of the mobile object. is one.

例えば、走行支援装置10は、検出した自己位置と周辺の走行環境とに基づいて、運転者が関与せずに自車両1を自動で運転する自律走行制御を行うことによって運転を支援する。なお、推定した自己位置と周辺の走行環境とに基づいて操舵角のみあるいは加減速のみを制御するなど、自車両1の走行に関わる運転動作を部分的に支援してもよい。以下、走行支援として、運転者が関与せずに自車両1を自動で運転する自律走行制御を行って走行支援を行う例を記載する。 For example, the driving support device 10 supports driving by performing autonomous driving control that automatically drives the own vehicle 1 without the involvement of the driver, based on the detected self-position and the surrounding driving environment. It is also possible to partially support the driving motion related to the running of the own vehicle 1, such as by controlling only the steering angle or only the acceleration/deceleration based on the estimated self-position and the surrounding running environment. In the following, as driving support, an example of performing autonomous driving control for automatically driving the own vehicle 1 without involvement of the driver to perform driving support will be described.

走行支援装置10は、衛星測位装置11と、地図データベース12と、周囲環境センサ13と、車両センサ14と、既知領域データベース15と、コントローラ16と、ナビゲーションシステム17と、アクチュエータ18と、ユーザインタフェース装置19と、を備える。
図面において、地図データベース、既知領域データベース及びユーザインタフェース装置を、それぞれ「地図DB」、「既知領域DB」及び「ユーザI/F装置」と表記する。
The driving support device 10 includes a satellite positioning device 11, a map database 12, an ambient environment sensor 13, a vehicle sensor 14, a known area database 15, a controller 16, a navigation system 17, an actuator 18, and a user interface device. 19 and.
In the drawings, the map database, the known area database and the user interface device will be referred to as "map DB", "known area DB" and "user I/F device", respectively.

衛星測位装置11は、衛星測位システムにより自車両1の現在位置を測定する。衛星測位装置11は、例えば全地球型測位システム(GNSS)受信機を備えてよい。GNSS受信機は、例えば地球測位システム(GPS)受信機等であり、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。
地図データベース12は、フラッシュメモリ等の記憶装置に格納され、自車両1の自己位置の推定に必要な道路形状や地物、ランドマーク等の物標の位置及び種類などの地図情報を記憶している。
The satellite positioning device 11 measures the current position of the own vehicle 1 by a satellite positioning system. The satellite positioning device 11 may comprise, for example, a Global Positioning System (GNSS) receiver. The GNSS receiver is, for example, a global positioning system (GPS) receiver or the like, and measures the current position of the vehicle 1 by receiving radio waves from a plurality of navigation satellites.
The map database 12 is stored in a storage device such as a flash memory, and stores map information such as the shape of roads necessary for estimating the self-position of the vehicle 1 and the positions and types of targets such as landmarks. there is

地図データベース12として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
As the map database 12, for example, high-precision map data suitable as a map for autonomous driving (hereinafter simply referred to as "high-precision map") may be stored. A high-precision map is map data with higher precision than map data for navigation (hereinafter simply referred to as "navigation map"), and includes more detailed lane-by-lane information than road-by-road information.
For example, a high-definition map includes lane node information indicating a reference point on a lane reference line (for example, a central line within a lane) and lane link information indicating a section of a lane between lane nodes as information for each lane. including.

車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の幅員、車線境界線の種類、車線の形状、車線区分線の形状、車線基準線の形状を含む。高精度地図は更に、車線上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物やランドマークといった物標の種類及び位置座標と、これらの位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の、物標の情報を含む。 The lane node information includes the identification number of the lane node, the position coordinates, the number of connected lane links, and the identification number of the connected lane link. The lane link information includes the lane link identification number, lane type, lane width, lane boundary line type, lane shape, lane marking line shape, and lane reference line shape. The high-precision map further includes the types and position coordinates of targets such as traffic lights, stop lines, signs, buildings, utility poles, curbs, crosswalks, and landmarks existing on or near lanes, and their position coordinates. including target information such as the lane node identification number and the lane link identification number corresponding to the .

また、地図データベース12にはナビ地図が記憶されていてもよい。ナビ地図は道路単位の情報を含む。例えば、ナビ地図は道路単位の情報として、道路基準線(例えば道路の中央の線)上の基準点を示す道路ノードの情報と、道路ノード間の道路の区間態様を示す道路リンクの情報を含む。
なお、地図データベース12は、無線通信(路車間通信、または、車車間通信でも可)等の通信システムを介して外部から地図情報を取得してもよい。この場合、地図データベース12は、定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。また、地図データベース12は、自車両1が実際に走行した走路を、地図情報として蓄積してもよい。
Also, the map database 12 may store a navigation map. A navigation map contains information on a road-by-road basis. For example, a navigation map includes, as information for each road, road node information that indicates a reference point on a road reference line (for example, a line in the center of a road) and road link information that indicates a section of a road between road nodes. .
Note that the map database 12 may acquire map information from the outside via a communication system such as wireless communication (road-to-vehicle communication or vehicle-to-vehicle communication is also possible). In this case, the map database 12 may periodically acquire the latest map information and update the map information it holds. Further, the map database 12 may store the track on which the vehicle 1 has actually traveled as map information.

周囲環境センサ13は、自車両1の周囲環境についての様々な情報(周囲環境情報)、例えば自車両1の周辺の物標を検出する。周囲環境センサ13は、自車両1の周辺に存在する物標の存在、自車両1と物標との相対位置、自車両1と物標との距離、物標が存在する方向等の第1車両の周囲環境を検出する。
例えば周囲環境センサ13は、自車両1に対する自車両1周辺の物標の相対位置を検出する。ここで、物標とは、例えば、自車両1が走行する走行路面上の線(車線区分線等)や、路肩の縁石、ガードレール、あるいは建築物等の移動不能な静止物である。周囲環境センサ13は、特許請求の範囲に記載の物標検出センサの一例である。
The surrounding environment sensor 13 detects various information (surrounding environment information) about the surrounding environment of the own vehicle 1 , for example, targets around the own vehicle 1 . The ambient environment sensor 13 detects the presence of a target existing around the vehicle 1, the relative position between the vehicle 1 and the target, the distance between the vehicle 1 and the target, the direction in which the target exists, and the like. Detect the surrounding environment of the vehicle.
For example, the ambient environment sensor 13 detects the relative positions of targets around the vehicle 1 with respect to the vehicle 1 . Here, the target is, for example, a line on the road surface on which the vehicle 1 travels (lane marking line, etc.), a curb on the road shoulder, a guardrail, or an immovable stationary object such as a building. The ambient environment sensor 13 is an example of the target detection sensor described in the claims.

周囲環境センサ13は、レーザレンジファインダ(LRF)やレーダなどの測距装置や、カメラを備えてよい。カメラは、例えばステレオカメラであってよい。カメラは、単眼カメラであってもよく、単眼カメラにより複数の視点で同一の物標を撮影して、物標までの距離及び角度(すなわち物標の自車両1に対する相対位置)を計算してもよい。また、撮像画像から検出された物標の接地位置に基づいて、物標までの距離を計算してもよい。周囲環境センサ13は、少なくとも物標の自車両に対する相対位置が検出できる限りにおいては、種々の公知のセンサを適用することができる。 The ambient environment sensor 13 may include a rangefinder such as a laser range finder (LRF) or radar, or a camera. The camera may be, for example, a stereo camera. The camera may be a monocular camera, and the same target is photographed from a plurality of viewpoints by the monocular camera, and the distance and angle to the target (that is, the relative position of the target with respect to the own vehicle 1) are calculated. good too. Also, the distance to the target may be calculated based on the grounding position of the target detected from the captured image. Various known sensors can be applied to the ambient environment sensor 13 as long as they can detect at least the relative position of the target with respect to the own vehicle.

車両センサ14は、自車両1から得られる様々な情報(車両情報)を検出する。車両センサ14には、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサ、自車両1のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。 The vehicle sensor 14 detects various information (vehicle information) obtained from the own vehicle 1 . The vehicle sensor 14 includes, for example, a vehicle speed sensor that detects the running speed (vehicle speed) of the vehicle 1, a wheel speed sensor that detects the rotation speed of each tire of the vehicle 1, acceleration in three axial directions of the vehicle 1 ( 3-axis acceleration sensor (G sensor) that detects deceleration), steering angle sensor that detects steering angle (including turning angle), gyro sensor that detects angular velocity generated in own vehicle 1, yaw rate that detects yaw rate Sensors include an accelerator sensor that detects the accelerator opening of the vehicle 1 and a brake sensor that detects the amount of brake operation by the driver.

ナビゲーションシステム17は、衛星測位装置11により自車両1の現在位置を認識し、その現在位置における地図情報を地図データベース12から取得する。ナビゲーションシステム17は、乗員が入力した目的地までの走行予定経路を設定し、この走行予定経路に従って乗員に経路案内を行う。
またナビゲーションシステム17は、設定した走行予定経路の情報をコントローラ16へ出力する。自律走行制御時にコントローラ16は、ナビゲーションシステム17が設定した走行予定経路に沿って自律走行するように第1車両を自動で運転(運転行動を制御)する。
The navigation system 17 recognizes the current position of the vehicle 1 using the satellite positioning device 11 and acquires map information for the current position from the map database 12 . The navigation system 17 sets the planned travel route to the destination input by the passenger, and provides route guidance to the passenger according to the planned travel route.
The navigation system 17 also outputs information on the set travel route to the controller 16 . During autonomous travel control, the controller 16 automatically drives (controls driving behavior) the first vehicle so as to autonomously travel along the planned travel route set by the navigation system 17 .

ユーザインタフェース装置19は、乗員との間で情報を授受するヒューマン・マシン・インターフェイス(HMI:Human Machine Interface)であり、ユーザインタフェース装置19は、走行支援装置10とは別体の情報端末(例えば、スマートフォンやタブレット装置)であってもよい。なお、乗員には、運転者が含まれるほか、自車両1の自律走行制御に関する操作指示権限を有する乗員や同乗者が含まれる。 The user interface device 19 is a human machine interface (HMI) for exchanging information with a passenger, and the user interface device 19 is an information terminal separate from the driving support device 10 (for example, smartphone or tablet device). In addition to the driver, the occupant includes an occupant and a fellow passenger who have operation instruction authority related to the autonomous travel control of the own vehicle 1 .

ユーザインタフェース装置19は、例えば音声情報を授受するスピーカとマイクロフォンを備えてもよい。また、ユーザインタフェース装置19は、表示情報を提供するディスプレイ装置を備えてもよい。ユーザインタフェース装置19は、乗員が物理的に操作するキーボード、ボタン、ダイヤル、スライダ、マウス、タッチパネル、レバー、ジョイスティック、タッチパッド等を備えてもよい。 User interface device 19 may include, for example, a speaker and a microphone for transmitting and receiving audio information. The user interface device 19 may also comprise a display device for providing display information. The user interface device 19 may include a keyboard, buttons, dials, sliders, mice, touch panels, levers, joysticks, touch pads, etc. that are physically operated by the passenger.

コントローラ16は、自車両1の走行支援制御を行う電子制御ユニット(ECU:Electronic Control Unit)である。コントローラ16は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置21は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明するコントローラ16の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。
The controller 16 is an electronic control unit (ECU) that performs driving support control of the own vehicle 1 . Controller 16 includes a processor 20 and peripheral components such as storage device 21 . The processor 20 may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit).
The storage device 21 may include a semiconductor storage device, a magnetic storage device, an optical storage device, or the like. The storage device 21 may include memories such as a register, a cache memory, a ROM (Read Only Memory) used as a main memory, and a RAM (Random Access Memory).
The functions of the controller 16 to be described below are implemented, for example, by the processor 20 executing a computer program stored in the storage device 21 .

なお、コントローラ16を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ16は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ16はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
Note that the controller 16 may be formed of dedicated hardware for executing each information processing described below.
For example, controller 16 may comprise functional logic circuitry implemented in a general purpose semiconductor integrated circuit. For example, controller 16 may comprise a programmable logic device (PLD), such as a Field-Programmable Gate Array (FPGA), or the like.

コントローラ16は、自車両1の現在位置である自己位置を検出し、自己位置と、地図データベース12の道路の地図情報と、ナビゲーションシステム17から出力された経路情報と、周囲環境と、自車両1の走行状態に基づいて、自車両1を到達させる目標地点を設定し、現在位置から目標地点まで自車両1を走行させる目標走行軌道を設定する。コントローラ16は、目標走行軌道に基づいて自車両1の自律走行制御を行い、アクチュエータ18を駆動して自車両1の走行を制御する。 The controller 16 detects the current position of the vehicle 1, which is the current position of the vehicle 1. The controller 16 detects the current position of the vehicle 1, the map information of the roads in the map database 12, the route information output from the navigation system 17, the surrounding environment, and the vehicle 1. A target point to be reached by the own vehicle 1 is set based on the running state of (1), and a target travel trajectory is set for the own vehicle 1 to travel from the current position to the target point. The controller 16 performs autonomous travel control of the own vehicle 1 based on the target travel trajectory, and drives the actuator 18 to control travel of the own vehicle 1 .

アクチュエータ18は、コントローラ16からの制御信号に応じて、自車両1のステアリングホイール、アクセル開度及びブレーキ装置を操作して、自車両1の車両挙動を発生させる。アクチュエータ18は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両1のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。 The actuator 18 operates the steering wheel, the accelerator opening and the braking device of the own vehicle 1 according to the control signal from the controller 16 to generate the vehicle behavior of the own vehicle 1 . The actuator 18 includes a steering actuator, an accelerator opening actuator, and a brake control actuator. The steering actuator controls the steering direction and amount of steering of the vehicle 1 . The accelerator opening actuator controls the accelerator opening of the vehicle 1 . The brake control actuator controls the braking operation of the brake system of the host vehicle 1 .

以下、コントローラ16による走行支援制御についてより詳しく説明する。図2A及び図2Bを参照する。
まず、コントローラ16は、自車両1を到達させる目標地点を走行予定経路上に設定する。
The driving support control by the controller 16 will be described in more detail below. Please refer to FIGS. 2A and 2B.
First, the controller 16 sets a target point to be reached by the vehicle 1 on the planned travel route.

目標地点は、例えば、交差点や横断歩道の停止線による停止地点や、カーブ路や交差点における旋回開始地点などであってよい。また、特許文献1のような設定速度の変化地点であってもよい。
なおコントローラ16は、目標地点を、走行予定経路に沿った1次元の線上の点として設定してよい。例えば、地図情報の車線リンク上の一点を目標地点として設定してよい。
The target point may be, for example, a stop point at an intersection or crosswalk stop line, or a turning start point at a curved road or intersection. Alternatively, it may be a change point of the set speed as in Patent Document 1.
Note that the controller 16 may set the target point as a point on a one-dimensional line along the planned travel route. For example, one point on the lane link of the map information may be set as the target point.

この場合、走行予定経路と直交する道幅方向における位置は特定されない。したがって2次元平面上では、図2Aに示すように道幅方向に延びる2点鎖線として目標地点が設定される。
これに代えてコントローラ16は、目標地点を2次元平面上の一点を示す2次元座標により設定してもよい。
In this case, the position in the road width direction orthogonal to the planned travel route is not specified. Therefore, on a two-dimensional plane, the target point is set as a two-dot chain line extending in the road width direction as shown in FIG. 2A.
Alternatively, the controller 16 may set the target point by two-dimensional coordinates indicating one point on a two-dimensional plane.

次にコントローラ16は、現在の自己位置から目標地点まで自車両1を走行させる目標走行軌道を設定する。その際、コントローラ16は、目標走行軌道の候補となる複数の走行軌道候補を生成する。
図2A及び図2Bの例では、走行路25上で自車両1を走行させる複数の走行軌道候補T1、T2及びT3を生成する場合を想定する。
Next, the controller 16 sets a target travel trajectory for causing the vehicle 1 to travel from the current self-position to the target point. At that time, the controller 16 generates a plurality of candidates for the target travel trajectory.
In the example of FIGS. 2A and 2B, it is assumed that a plurality of travel trajectory candidates T1, T2, and T3 for causing the own vehicle 1 to travel on the travel path 25 are generated.

次にコントローラ16は、これらの走行軌道候補T1~T3を自車両1が走行した場合に、コントローラ16が目標地点に到達した時点で自己位置を検出する場合の検出誤差を、走行軌道候補T1~T3のそれぞれについて推定する。
ここで、走行路25上の部分領域R1~R3においてコントローラ16による自己位置の検出精度が既知である場合を想定する。なお、コントローラ16による自己位置の検出精度が既知であるとは、過去に走行した際に自己位置の検出精度が特定されている、あるいは事前のシミュレーション等にて算出された自己位置の検出精度が特定されている等、今回走行する以前に何らかの手段によって自己位置の検出精度が特定されている事を意味する。
Next, the controller 16 calculates the detection error when the self-position is detected when the controller 16 reaches the target point when the host vehicle 1 travels on these traveling trajectory candidates T1 to T3. Estimate for each of T3.
Here, it is assumed that the detection accuracy of the self-position by the controller 16 in the partial regions R1 to R3 on the travel path 25 is known. Note that the accuracy of self-position detection by the controller 16 is known when the accuracy of self-position detection is specified when the controller 16 has traveled in the past, or when the self-position detection accuracy is calculated by a simulation or the like in advance. It means that the detection accuracy of the self-position is specified by some means before traveling this time.

走行軌道候補T1は、部分領域R2とそれ以外の領域を通過する。走行軌道候補T2は、部分領域R1及びR3と、それ以外の領域を通過する。走行軌道候補T3は、部分領域R1とそれ以外の領域を通過する。
以下、コントローラ16による自己位置の検出精度が既知である部分領域を「既知領域」と表記することがある。また、既知領域以外の領域、すなわちコントローラ16による自己位置の検出精度が未知である部分領域を「未知領域」と表記することがある。
The running trajectory candidate T1 passes through the partial region R2 and other regions. The running trajectory candidate T2 passes through the partial regions R1 and R3 and other regions. The running trajectory candidate T3 passes through the partial region R1 and other regions.
Hereinafter, a partial area in which the detection accuracy of the self-position by the controller 16 is known may be referred to as a "known area". Also, a region other than the known region, that is, a partial region where the accuracy of self-position detection by the controller 16 is unknown may be referred to as an “unknown region”.

コントローラ16が、自車両1の周囲の物標の検出結果に基づいて自己位置を検出する場合、自己位置の検出精度は、周囲環境センサ13により検出できる物標の数と検出方向に依存する。したがって、既知領域は、周囲環境センサ13により検出できる物標の数と検出方向が既知である領域であってよい。
すなわち、自車両1の周囲の物標を撮像し、撮像した画像に基づいて自車両1に対する物標の相対位置を算出し、自車両1に対する物標の相対位置と地図上の物標の位置に基づいて自車両の位置を検出する場合には、自車両1に対する物標の相対位置の検出精度が自己位置の検出精度に影響する。更に詳述すると、撮像した画像上における複数の物標の距離(画素数)及び位置に基づいて、自車両1に対する物標の相対位置を算出する事が知られているが、この場合には画像上における複数の物標の距離(画素数)が大きいほど、物標の数が多いほど自車両1に対する物標の相対位置の検出精度が高くなる。従って、周囲環境センサ13により検出できる物標の数と検出方向が既知であれば、自車両1に対する物標の相対位置の検出精度を推定する事が可能であるため、周囲環境センサ13により検出できる物標の数と検出方向が既知である領域を既知領域とすることができる。
When the controller 16 detects the self-position based on the detection results of the targets around the vehicle 1, the detection accuracy of the self-position depends on the number of targets that can be detected by the surrounding environment sensor 13 and the detection direction. Therefore, the known area may be an area in which the number of targets that can be detected by the ambient environment sensor 13 and their detection directions are known.
That is, a target around the own vehicle 1 is imaged, the relative position of the target with respect to the own vehicle 1 is calculated based on the imaged image, and the relative position of the target with respect to the own vehicle 1 and the position of the target on the map are calculated. When the position of the own vehicle is detected based on , the detection accuracy of the relative position of the target to the own vehicle 1 affects the detection accuracy of the own position. More specifically, it is known to calculate the relative position of a target with respect to the own vehicle 1 based on the distances (the number of pixels) and the positions of a plurality of targets on a captured image. The greater the distance (the number of pixels) of the plurality of targets on the image and the greater the number of targets, the higher the detection accuracy of the relative position of the target with respect to the own vehicle 1 . Therefore, if the number of targets that can be detected by the surrounding environment sensor 13 and the detection direction are known, it is possible to estimate the detection accuracy of the relative position of the target with respect to the own vehicle 1. An area in which the number of possible targets and detection directions are known can be defined as a known area.

例えば、2つの物標の間の距離が観測できる領域を既知領域として設定してよい。また例えば、3つ以上の物標の位置が観測できる領域を既知領域として設定してもよい。また例えば、直線上に並ばない3つ以上の物標の位置が観測できる領域を既知領域として設定してもよい。また例えば、2次曲線上に並ばない3つ以上の物標の位置が観測できる領域を、既知領域として設定してもよい。
また例えば、所定閾値以上の解像度で物標を撮影できる領域を既知領域として設定してもよい。例えば、撮影された物標の形状に基づいてコントローラ16が所定の誤差範囲で自己位置を検出できる解像度で物標を撮影できる領域を、既知領域として設定してもよい。
For example, an area where the distance between two targets can be observed may be set as the known area. Also, for example, an area where three or more target positions can be observed may be set as the known area. Also, for example, an area in which three or more target positions that are not aligned on a straight line can be observed may be set as the known area. Also, for example, an area in which three or more target positions that are not aligned on the quadratic curve can be observed may be set as the known area.
Further, for example, an area in which the target can be photographed with a resolution equal to or higher than a predetermined threshold may be set as the known area. For example, an area in which the target can be photographed with a resolution that allows the controller 16 to detect its own position within a predetermined error range based on the shape of the photographed target may be set as the known area.

コントローラ16が、オドメトリによって自己位置を検出する場合、自己位置の検出精度は走行路の路面状態に依存する。例えば、検出精度は路面μ(路面の摩擦係数)や路面勾配に依存する。したがって、既知領域は、路面μや路面勾配などの路面状態が既知である領域であってよい。
すなわち、オドメトリによって自己位置を検出する場合は通常、車輪速に基づいて算出された単位時間当たり移動距離や車輪の転舵角に基づいて算出される移動方向等を累積して、例えば前回検出された自己位置などの所定の基準位置から現在までの自車両1の移動距離及び移動方向を算出して現在の自己位置を検出するが、この場合には車輪速に基づく移動距離や転舵角に基づく移動方向は路面μ(路面の摩擦係数)や路面勾配などの路面状態に影響される。従って、路面μや路面勾配などの路面状態が既知であれば、車輪速に基づく移動距離や転舵角に基づく移動方向の算出精度を推定することが可能であるため、路面μや路面勾配などの路面状態が既知である領域を既知領域とすることができる。
また例えば、路面μが高い領域や路面勾配が少ない領域、水たまりが発生しにくい領域を既知領域として設定してもよい。
When the controller 16 detects the self-position by odometry, the detection accuracy of the self-position depends on the road surface condition of the traveling road. For example, the detection accuracy depends on the road surface μ (friction coefficient of the road surface) and the road surface gradient. Therefore, the known area may be an area in which road surface conditions such as road surface μ and road surface gradient are known.
In other words, when the self-position is detected by odometry, usually, the moving distance per unit time calculated based on the wheel speed and the moving direction calculated based on the steering angle of the wheels are accumulated, for example, the previously detected position. The current self-position is detected by calculating the movement distance and movement direction of the vehicle 1 from a predetermined reference position such as the self-position to the present. The direction of movement based on this is affected by the road surface conditions such as the road surface μ (friction coefficient of the road surface) and the road surface gradient. Therefore, if the road surface conditions such as road surface μ and road surface gradient are known, it is possible to estimate the accuracy of calculation of the moving distance based on the wheel speed and the moving direction based on the turning angle. can be defined as a known area.
Further, for example, an area with a high road surface μ, an area with a small road surface gradient, and an area where puddles are unlikely to occur may be set as known areas.

コントローラ16が、衛星測位装置11によって自己位置を検出する場合、既知領域は、衛星測位システムによる自己位置の検出精度が既知である領域であってよい。例えば既知領域R2は、周囲に高い建物や高架線、磁性体が無いために測位衛星からの信号を受信しやすく、衛星測位システムが保証する検出精度で自己位置を検出できる領域であってもよい。以下、高い建物、高架線や磁性体を総称して「高い建物等」と表記することがある。 When the controller 16 detects the self-position by the satellite positioning device 11, the known region may be a region where the accuracy of self-position detection by the satellite positioning system is known. For example, the known region R2 may be a region in which signals from positioning satellites can be easily received because there are no tall buildings, elevated wires, or magnetic bodies in the surrounding area, and the self-position can be detected with the detection accuracy guaranteed by the satellite positioning system. . Hereinafter, tall buildings, elevated lines, and magnetic bodies may be collectively referred to as "tall buildings, etc."

図1を参照する。既知領域データベース15は、フラッシュメモリ等の記憶装置に格納され、既知領域に関する既知領域情報を記憶している。
既知領域情報は、既知領域それぞれの範囲を表す位置情報と、既知領域それぞれにおける自己位置の検出精度、例えば既知領域それぞれにおいて発生する検出誤差を特定可能な情報を含む。
Please refer to FIG. The known area database 15 is stored in a storage device such as a flash memory, and stores known area information related to known areas.
The known area information includes position information representing the range of each known area, and information capable of specifying detection accuracy of the self-position in each known area, for example, detection error occurring in each known area.

例えば既知領域情報は、物標の検出結果に基づく自己位置の検出精度を特定可能な情報として、既知領域において検出可能な物標の位置や、数、検出方向の情報を含んでよい。
また例えば既知領域情報は、オドメトリによる自己位置の検出精度を特定可能な情報として、既知領域の路面μや路面勾配などの路面状態の情報を含んでよい。
また例えば既知領域情報は、衛星測位システムによる検出精度を特定可能な情報として、高い建物等の不在情報を含んでよい。
For example, the known area information may include information on the positions, numbers, and detection directions of targets that can be detected in the known area as information that can specify the detection accuracy of the self-position based on the target detection results.
Further, for example, the known area information may include road surface condition information such as the road surface μ and the road surface gradient of the known area as information capable of specifying the detection accuracy of the self-position by odometry.
Also, for example, the known area information may include absence information such as tall buildings as information that can specify the detection accuracy of the satellite positioning system.

これらの既知領域情報は、例えば自車両1で実際に当該領域を走行して自己位置を検出し、その際に検出した物標の位置、数、検出方向の情報や、路面状態の情報、周囲の高い建物等の不在を記録することによって取得してよい。また、同一の自己位置検出性能を有する他車両が実際に当該領域を走行して収集した既知領域情報を、無線通信(路車間通信、または、車車間通信でも可)等の通信システムを介して外部から取得してもよい。 These known area information are, for example, information on the position, number, and direction of detection of target objects detected when the own vehicle 1 actually travels in the area and detects its own position, information on the road surface condition, information on the surrounding area, and so on. may be obtained by recording the absence of tall buildings, etc. In addition, known area information collected by other vehicles having the same self-position detection performance actually traveling in the area is transmitted via a communication system such as wireless communication (road-to-vehicle communication or vehicle-to-vehicle communication is also possible). It may be obtained from outside.

図2A及び図2Bを参照する。コントローラ16は、走行軌道候補T1~T3が通過する既知領域R1~R3のそれぞれにおいて発生する自己位置の検出誤差を、既知領域情報に含まれている検出精度を特定可能な情報に応じて推定する。
例えばコントローラ16は、既知領域において検出できることが既知である物標の位置、数、検出方向に応じて検出誤差を推定する。
Please refer to FIGS. 2A and 2B. The controller 16 estimates self-position detection errors occurring in each of the known regions R1 to R3 through which the traveling trajectory candidates T1 to T3 pass, according to the information that can specify the detection accuracy included in the known region information. .
For example, the controller 16 estimates the detection error according to the positions, numbers, and detection directions of targets that are known to be detectable in the known area.

また例えばコントローラ16は、既知領域の既知の路面状態に応じて、既知領域におけるオドメトリで累積する自己位置の検出誤差を推定する。
また例えばコントローラ16は、高い建物等がない既知領域の検出誤差を、衛星測位システムが保証する検出精度に応じて推定する。
Further, for example, the controller 16 estimates the self-position detection error accumulated by odometry in the known area according to the known road surface condition of the known area.
Also, for example, the controller 16 estimates the detection error of a known area without tall buildings or the like according to the detection accuracy guaranteed by the satellite positioning system.

さらにコントローラ16は、既知領域以外の未知領域において発生する検出誤差を算出する。例えばコントローラ16は、所定の路面状態を仮定して、未知領域におけるオドメトリで累積する検出誤差を算出してもよい。
コントローラ16は、これら算出した既知領域R1~R3における検出誤差と未知領域における検出誤差に基づいて、走行軌道候補T1~T3においてそれぞれ発生する検出誤差を推定する。
Further, the controller 16 calculates detection errors occurring in unknown regions other than the known region. For example, the controller 16 may assume a predetermined road surface condition and calculate a detection error accumulated by odometry in an unknown region.
The controller 16 estimates detection errors occurring in the travel trajectory candidates T1 to T3 based on the calculated detection errors in the known regions R1 to R3 and the detection errors in the unknown regions.

コントローラ16は、走行軌道候補T1~T3の検出誤差のそれぞれと、所定の閾値とを比較し、検出誤差が所定の閾値以下となるいずれかの走行軌道候補を、目標走行軌道として設定する。
これにより、将来の目標地点における自車両1の自己位置の検出誤差を閾値以下に抑えることができる。また、既知領域情報に基づいて検出誤差を推定することにより目標地点における検出誤差を向上することができる。
The controller 16 compares each of the detection errors of the travel trajectory candidates T1 to T3 with a predetermined threshold value, and sets any travel trajectory candidate whose detection error is equal to or less than the predetermined threshold value as a target travel trajectory.
As a result, the detection error of the self-position of the vehicle 1 at the future target point can be suppressed below the threshold. Also, by estimating the detection error based on the known area information, the detection error at the target point can be improved.

以下、図3を参照してコントローラ16の動作を詳述する。コントローラ16は、第1自己位置推定部30と、第2自己位置推定部31と、自己位置検出部32と、誤差検出部33と、軌道候補生成部34と、軌道候補選択部35と、第1区間誤差算出部36と、第2区間誤差算出部37と、軌道誤差算出部38と、走行軌道設定部39と、走行制御部40とを備える。 The operation of the controller 16 will be described in detail below with reference to FIG. The controller 16 includes a first self-position estimation unit 30, a second self-position estimation unit 31, a self-position detection unit 32, an error detection unit 33, a trajectory candidate generation unit 34, a trajectory candidate selection unit 35, and a It includes a one-section error calculator 36 , a second section error calculator 37 , a track error calculator 38 , a travel track setter 39 , and a travel controller 40 .

第1自己位置推定部30は、周囲環境センサ13が検出した自車両1と物標との相対位置と、地図データベース12に記憶されている物標の地図上の位置とに基づいて、自車両1の自己位置を推定する。
例えば、第1自己位置推定部30は、自己位置を前回推定した時点からの自車両1の移動量及び移動方向を算出し、これらの移動量及び移動方向により前回検出した自己位置を更新することにより、地図上の仮の自己位置を推定する。
The first self-position estimator 30 estimates the position of the vehicle based on the relative position between the vehicle 1 and the target detected by the surrounding environment sensor 13 and the position of the target on the map stored in the map database 12. Estimate the self-position of 1.
For example, the first self-position estimator 30 calculates the movement amount and the movement direction of the vehicle 1 from the time when the self-position was last estimated, and updates the previously detected self-position based on the movement amount and the movement direction. estimates a temporary self-position on the map.

第1自己位置推定部30は、地図上の仮の自己位置に基づいて、周囲環境センサ13が検出した物標の相対位置の座標を地図上の座標に変換する。第1自己位置推定部30は、座標変換後の物標の位置と地図データベース12に記憶されている物標の位置とを照合し、その誤差が最小となる自車両1の位置及び姿勢を自己位置と推定する。
または、第1自己位置推定部30は、衛星測位装置11による測位結果に応じて自車両1の自己位置を推定する。
The first self-position estimation unit 30 converts the coordinates of the relative position of the target detected by the ambient environment sensor 13 into coordinates on the map based on the temporary self-position on the map. The first self-position estimator 30 compares the position of the target after the coordinate conversion with the position of the target stored in the map database 12, and determines the position and attitude of the vehicle 1 that minimizes the error. position and estimate.
Alternatively, the first self-position estimation unit 30 estimates the self-position of the own vehicle 1 according to the positioning result obtained by the satellite positioning device 11 .

第2自己位置推定部31は、車両センサ14の検出結果に基づいてオドメトリにより自車両1の自己位置を推定する。すなわち、車両センサ14の検出結果に基づいて、前回自己位置を推定した時点からの自車両1の移動量及び移動方向を算出し、これら移動量及び移動方向により前回検出した自己位置を更新することにより、自車両1の自己位置を推定する。 The second self-position estimator 31 estimates the self-position of the vehicle 1 by odometry based on the detection result of the vehicle sensor 14 . That is, based on the detection result of the vehicle sensor 14, the amount of movement and direction of movement of the vehicle 1 from the previous estimation of the self-position are calculated, and the previously detected self-position is updated based on the amount of movement and direction of movement. The self-position of the own vehicle 1 is estimated by the following.

自己位置検出部32は、第1自己位置推定部30及び第2自己位置推定部31による推定結果に基づいて、自車両1の自己位置を検出する。
例えば自車両1の周囲の物標の検出結果に基づく自己位置検出が可能である場合には、自己位置検出部32は、第1自己位置推定部30が物標に基づいて推定した自己位置を、自車両1の自己位置として検出する。
The self-position detector 32 detects the self-position of the vehicle 1 based on the estimation results from the first self-position estimator 30 and the second self-position estimator 31 .
For example, when self-position detection based on the detection results of targets around the own vehicle 1 is possible, the self-position detection unit 32 detects the self-position estimated by the first self-position estimation unit 30 based on the targets. , is detected as the self-position of the own vehicle 1 .

また、物標の検出結果に基づいて自己位置が検出できず、また、衛星測位装置11による測位が可能である場合には、自己位置検出部32は、衛星測位装置11による測位結果を自己位置として検出する。
また、物標に基づく自己位置検出も衛星測位装置11による測位もできない場合には、自己位置検出部32は、第2自己位置推定部31のオドメトリによる推定結果を自己位置として検出する。
Further, when the self-position cannot be detected based on the target detection result and the positioning by the satellite positioning device 11 is possible, the self-position detection unit 32 detects the positioning result by the satellite positioning device 11 as the self-position. Detect as
If neither self-position detection based on a target nor positioning by the satellite positioning device 11 is possible, the self-position detection unit 32 detects the estimation result by the odometry of the second self-position estimation unit 31 as the self-position.

誤差検出部33は、自己位置検出部32による自己位置の検出誤差を検出する。
図4を参照する。誤差検出部33は、第1誤差検出部50と、第2誤差検出部51と、第3誤差検出部52と、誤差補正部53を備える。
第1誤差検出部50は、第2自己位置推定部31が推定した自己位置情報と、地図データベース12に記憶された地図情報を入力し、第2自己位置推定部31のオドメトリにおいて累積する自己位置の検出誤差を推定する。
The error detection unit 33 detects a detection error of the self-position by the self-position detection unit 32 .
Please refer to FIG. The error detection section 33 includes a first error detection section 50 , a second error detection section 51 , a third error detection section 52 and an error correction section 53 .
The first error detection unit 50 inputs the self-position information estimated by the second self-position estimation unit 31 and the map information stored in the map database 12, and calculates the accumulated self-position in the odometry of the second self-position estimation unit 31. Estimate the detection error of

例えば第1誤差検出部50は、自車両1の車速や旋回曲率に応じてオドメトリで発生する検出誤差を推定してよい。
また第1誤差検出部50は、自車両1の車速と車輪速に基づいてスリップ率を算出し、スリップ率と前後方向加速度に基づいて自車両1の走行路の路面μを推定してよい。また第1誤差検出部50は、自車両1の車速の微分値と3軸加速度センサの検出信号に基づいて自車両1の走行路の路面勾配を検出してよい。
第1誤差検出部50は、路面μや路面勾配などの路面状態に基づいてオドメトリで発生する検出誤差を推定してよい。
For example, the first error detection unit 50 may estimate a detection error that occurs in odometry according to the vehicle speed and turning curvature of the own vehicle 1 .
Further, the first error detection unit 50 may calculate the slip ratio based on the vehicle speed and wheel speed of the own vehicle 1, and estimate the road surface μ of the traveling road of the own vehicle 1 based on the slip ratio and the longitudinal acceleration. Also, the first error detection unit 50 may detect the road gradient of the road on which the vehicle 1 is traveling based on the differential value of the vehicle speed of the vehicle 1 and the detection signal of the three-axis acceleration sensor.
The first error detection unit 50 may estimate the detection error generated in the odometry based on the road surface condition such as the road surface μ and the road surface gradient.

第1誤差検出部50は、今回推定した検出誤差を、誤差補正部53から前回出力した自己位置の検出誤差に加算することにより、現在の自己位置まで累積した検出誤差を算出し、誤差補正部53へ出力する。
また、第1誤差検出部50は、検出誤差を推定した地点の位置情報と、推定した路面μや検出した路面勾配などの路面状態の情報を、既知領域情報として既知領域データベース15に記憶する。
The first error detection unit 50 adds the current estimated detection error to the previous self-position detection error output from the error correction unit 53, thereby calculating the accumulated detection error up to the current self-position. 53.
In addition, the first error detection unit 50 stores the position information of the point where the detection error is estimated, and the road surface condition information such as the estimated road surface μ and the detected road surface gradient as known area information in the known area database 15 .

第2誤差検出部51は、第1自己位置推定部30が物標の検出結果により自己位置を検出した際の検出誤差を検出して、誤差補正部53へ出力する。例えば、第2誤差検出部51は、検出された自車両1の周囲の物標の位置、数、検出方向に基づいて第1自己位置推定部30による検出誤差を検出する。
その際に第2誤差検出部51は、周囲環境センサ13の検出誤差を正規分布に当てはめた際の共分散行列に応じて第1自己位置推定部30による検出誤差を検出してよい。
The second error detection unit 51 detects a detection error when the first self-position estimation unit 30 detects the self-position based on the target detection result, and outputs the detection error to the error correction unit 53 . For example, the second error detection unit 51 detects the detection error by the first self-position estimation unit 30 based on the detected positions, numbers, and detection directions of targets around the own vehicle 1 .
At that time, the second error detection section 51 may detect the detection error by the first self-position estimation section 30 according to the covariance matrix when applying the detection error of the ambient environment sensor 13 to the normal distribution.

第2誤差検出部51は、周囲環境センサ13の検出結果の尤度に応じて第1自己位置推定部30による検出誤差を検出してよい。第2誤差検出部51は、周囲環境センサ13が検出した白線などの物標位置と地図データベース12の物標位置とを照合した際の誤差の分布に応じて周囲環境センサ13の検出結果の尤度を求めてよい。
第2誤差検出部51は、検出誤差を推定した地点の位置情報と、この地点で検出した物標の位置、数、検出方向の情報を、既知領域情報として既知領域データベース15に記憶する。
The second error detection section 51 may detect the detection error by the first self-position estimation section 30 according to the likelihood of the detection result of the ambient environment sensor 13 . The second error detection unit 51 detects the likelihood of the detection result of the surrounding environment sensor 13 according to the distribution of errors when comparing target positions such as white lines detected by the surrounding environment sensor 13 with target positions in the map database 12 . You can ask for degrees.
The second error detection unit 51 stores the position information of the point where the detection error is estimated and the information of the position, number and direction of detection of targets detected at this point as known area information in the known area database 15 .

第3誤差検出部52は、衛星測位装置11における衛星信号の受信状態に応じて衛星測位装置11による自己位置の検出誤差を検出し、誤差補正部53へ出力する。
また、第3誤差検出部52は、周囲環境センサ13が検出した周囲環境情報に基づいて、自車両1の周囲の高い建物の有無を判定する。自車両1の周囲に高い建物がない場合、第3誤差検出部52は、検出誤差を推定した地点の位置情報を既知領域情報として既知領域データベース15に記憶する。
The third error detection unit 52 detects an error in the detection of the self-position by the satellite positioning device 11 according to the reception state of satellite signals in the satellite positioning device 11 and outputs it to the error correction unit 53 .
Also, the third error detection unit 52 determines whether there is a tall building around the vehicle 1 based on the surrounding environment information detected by the surrounding environment sensor 13 . If there is no tall building around the vehicle 1, the third error detection unit 52 stores the position information of the point where the detection error was estimated in the known area database 15 as known area information.

また、第3誤差検出部52は、衛星信号の信号強度に基づいて自車両1の周囲の高架線や磁性体の有無を判定する。自車両1の周囲に高架線や磁性体がない場合、第3誤差検出部52は、検出誤差を推定した地点の位置情報を既知領域情報として既知領域データベース15に記憶する。 Also, the third error detection unit 52 determines whether there is an overhead wire or magnetic material around the vehicle 1 based on the signal strength of the satellite signal. If there is no overhead wire or magnetic material around the vehicle 1, the third error detection unit 52 stores the position information of the point where the detection error was estimated as known area information in the known area database 15. FIG.

誤差補正部53は、第1自己位置推定部30が自車両1の周囲の物標に基づいて自己位置を検出した場合には、第1誤差検出部50により累積される検出誤差を、第2誤差検出部51が検出した検出誤差に修正(リセット)して、現在の自己位置までの検出誤差として第1誤差検出部50、第1区間誤差算出部36、第2区間誤差算出部37へ出力する。 When the first self-position estimating unit 30 detects the self-position based on targets around the own vehicle 1, the error correcting unit 53 converts the detection error accumulated by the first error detecting unit 50 into a second Correct (reset) to the detection error detected by the error detection unit 51, and output to the first error detection unit 50, the first interval error calculation unit 36, and the second interval error calculation unit 37 as the detection error up to the current self-position. do.

また、衛星測位装置11により自己位置を検出した場合には、誤差補正部53は第1誤差検出部50により累積される検出誤差を、第3誤差検出部52が検出した検出誤差に修正(リセット)して、現在の自己位置までの検出誤差として第1誤差検出部50、第1区間誤差算出部36、第2区間誤差算出部37へ出力する。
第1自己位置推定部30及び衛星測位装置11が自己位置を検出しない場合には、第1誤差検出部50により累積される検出誤差を、現在の自己位置までの検出誤差として第1誤差検出部50、第1区間誤差算出部36、第2区間誤差算出部37へ出力する。
When the satellite positioning device 11 detects its own position, the error correction unit 53 corrects (resets) the detection error accumulated by the first error detection unit 50 to the detection error detected by the third error detection unit 52 . ) and output to the first error detection section 50, the first section error calculation section 36, and the second section error calculation section 37 as the detection error up to the current self-position.
When the first self-position estimation unit 30 and the satellite positioning device 11 do not detect the self-position, the detection error accumulated by the first error detection unit 50 is regarded as the detection error up to the current self-position. 50 , the first interval error calculator 36 and the second interval error calculator 37 .

図3を参照する。軌道候補生成部34は、自己位置検出部32が検出した自己位置から自車両1を走行させる複数の走行軌道候補を生成する。
軌道候補生成部34は、ナビゲーションシステム17により設定された走行予定経路と、経路空間マップ及びリスクマップに基づいて、走行予定経路上を自動で自車両1に走行させるための運転行動計画を生成する。
運転行動計画とは、自車両1を走行させるレーン(車線)と、このレーンを走行させるのに要する運転行動とを定めた、中長距離の範囲におけるレーンレベル(車線レベル)での運転行動の計画である。
Please refer to FIG. The trajectory candidate generation unit 34 generates a plurality of travel trajectory candidates for causing the vehicle 1 to travel from the self-position detected by the self-position detection unit 32 .
The trajectory candidate generation unit 34 generates a driving action plan for automatically causing the vehicle 1 to travel on the planned travel route based on the planned travel route set by the navigation system 17, the route space map, and the risk map. .
A driving action plan is a driving action plan at a lane level (lane level) in a range of medium and long distances, which defines lanes (lanes) in which the own vehicle 1 is to travel and driving actions required to travel in these lanes. It's a plan.

このような運転行動には、停止線での停止や、交差点の右折、左折、直進や、所定曲率以上のカーブ路での走行、合流区間や複数車線を走行する際の車線変更が含まれる。
軌道候補生成部34は、運転行動計画、自車両1の運動特性、経路空間マップに基づいて、自車両1を到達させる目標地点を設定し、自己位置から目標地点まで自車両1を走行させる複数の走行軌道の候補を生成する。
Such driving actions include stopping at a stop line, turning right or left at an intersection, going straight, driving on a curved road with a curvature greater than a predetermined curvature, and changing lanes when driving in a merging section or in multiple lanes.
The trajectory candidate generation unit 34 sets a target point to which the vehicle 1 should reach based on the driving action plan, the motion characteristics of the vehicle 1, and the route space map, and makes the vehicle 1 travel from the vehicle 1 to the target point. Generate candidates for the trajectory of

軌道候補生成部34が生成した走行軌道の候補を「走行軌道候補」と表記する。走行軌道候補は、自己位置から目標地点までの速度プロファイルを含んでもよい
軌道候補生成部34は、複数の走行軌道候補を軌道候補選択部35と走行軌道設定部39へ出力する。
軌道候補選択部35は、軌道候補生成部34が生成した複数の走行軌道候補を順次選択して、第1区間誤差算出部36と、第2区間誤差算出部37と、軌道誤差算出部38へ出力する。
The candidates for the traveling trajectory generated by the trajectory candidate generating unit 34 are referred to as "traveling trajectory candidates". The travel trajectory candidate may include a speed profile from the self position to the target point.
The trajectory candidate selection unit 35 sequentially selects a plurality of traveling trajectory candidates generated by the trajectory candidate generation unit 34, and outputs them to the first section error calculation unit 36, the second section error calculation unit 37, and the trajectory error calculation unit 38. Output.

第1区間誤差算出部36は、既知領域データベース15を参照して、軌道候補選択部35により選択された走行軌道候補上であって自己位置よりも前方に、既知領域があるか否かを判定する。
既知領域がある場合に、第1区間誤差算出部36は、既知領域における自己位置検出部32による自己位置検出の検出誤差を推定する。
The first section error calculator 36 refers to the known region database 15 and determines whether or not there is a known region ahead of the self-position on the traveling trajectory candidate selected by the trajectory candidate selector 35. do.
If there is a known region, the first section error calculator 36 estimates the detection error of self-position detection by the self-position detector 32 in the known region.

図5Aを参照する。第1区間誤差算出部36は、第1誤差推定部60と、第2誤差推定部61と、誤差補正部62を備える。
第1区間誤差算出部36は、走行軌道候補に沿って既知領域内を走行する自車両1が通る各々の地点について、路面状態に関する既知領域情報、当該地点で検出可能な物標に関する既知領域情報、高い建物等の不在を示す既知領域情報のいずれが記憶されているか判定する。
See FIG. 5A. The first interval error calculator 36 includes a first error estimator 60 , a second error estimator 61 , and an error corrector 62 .
The first section error calculation unit 36 calculates known area information about road surface conditions and known area information about targets detectable at each point through which the own vehicle 1 traveling in the known area along the running trajectory candidate passes. , and which of the known area information indicating the absence of a tall building or the like is stored.

路面状態に関する既知領域情報が記憶された地点では、第1誤差推定部60は、第2自己位置推定部31がオドメトリで自己位置を検出する際の自己位置の検出誤差を推定する。
第1誤差推定部60は、当該地点における路面μや路面勾配などの路面状態の情報を、既知領域情報として既知領域データベース15から読み込む。第1誤差推定部60は、当該地点を走行する際の自車両1の車速や旋回曲率と路面状態とに基づいてオドメトリで発生する検出誤差を推定する。
At the point where the known area information on the road surface state is stored, the first error estimator 60 estimates the self-position detection error when the second self-position estimator 31 detects the self-position by odometry.
The first error estimator 60 reads road surface condition information such as road surface μ and road surface gradient at the point from the known area database 15 as known area information. The first error estimator 60 estimates a detection error generated by odometry based on the vehicle speed, turning curvature, and road surface condition of the vehicle 1 traveling at the point.

第1誤差推定部60は、走行軌道候補に沿った地点の各々においてオドメトリで発生する検出誤差を順次算出し、これらを累積して誤差補正部62へ出力する。
例えば、第1誤差推定部60は、走行軌道候補に沿った地点の各々において、当該地点で発生する検出誤差を算出し、当該地点の直前の地点までに累積した検出誤差を誤差補正部62から入力して加算することにより、当該位置までに累積される検出誤差を算出してよい。
その際に第1誤差推定部60は、図5Bに示すように自車両1が前方の既知領域にまだ進入していないか、又は図5Cに示すように既に進入しているかを判定する。
The first error estimating section 60 sequentially calculates detection errors generated by odometry at each point along the running trajectory candidate, accumulates them, and outputs them to the error correcting section 62 .
For example, the first error estimating unit 60 calculates the detection error that occurs at each point along the running trajectory candidate, and calculates the accumulated detection error up to the point immediately before that point from the error correcting unit 62. By inputting and adding, the detection error accumulated up to the position may be calculated.
At that time, the first error estimator 60 determines whether the vehicle 1 has not yet entered the known area ahead as shown in FIG. 5B or has already entered as shown in FIG. 5C.

自車両1が前方の既知領域にまだ進入していない場合(図5B)には、第1誤差推定部60は、既知領域の進入地点から累積する検出誤差の増加量を推定する。
一方で、自車両1が前方の既知領域にすでに進入している場合(図5C)には、第1誤差推定部60は、誤差検出部33が検出した現在の自己位置の検出誤差に、自車両1の前方の既知領域で累積する検出誤差を加えた検出誤差を推定する。
When the own vehicle 1 has not yet entered the known area ahead (FIG. 5B), the first error estimating section 60 estimates the amount of increase in detection error accumulated from the entry point of the known area.
On the other hand, when the vehicle 1 has already entered the known area ahead (FIG. 5C), the first error estimator 60 adds the current self-position detection error detected by the error detector 33 to the self-position detection error. A detection error is estimated by adding a detection error accumulated in a known area in front of the vehicle 1 .

一方で、物標に関する既知領域情報が記憶された地点では、第2誤差推定部61が、第1自己位置推定部30が物標に基づいて自車両1の自己位置を検出する際の検出誤差を推定する。
第2誤差推定部61は、既知領域において検出可能な物標の位置、数、検出方向の情報を、既知領域情報として既知領域データベース15から読み込む。
第2誤差推定部61は、既知領域情報に基づいて第1自己位置推定部30による検出誤差を推定する。その際、周囲環境センサ13の検出誤差の共分散行列に応じて検出誤差を推定してもよい。
On the other hand, at the point where the known area information about the target is stored, the second error estimator 61 detects the detection error when the first self-position estimator 30 detects the self-position of the vehicle 1 based on the target. to estimate
The second error estimator 61 reads from the known area database 15 information on the positions, numbers, and detection directions of targets that can be detected in the known area as known area information.
The second error estimator 61 estimates the detection error by the first self-position estimator 30 based on the known region information. At that time, the detection error may be estimated according to the covariance matrix of the detection error of the ambient environment sensor 13 .

また、高い建物等の不在を示す既知領域情報が記憶された地点では、第2誤差推定部61は、衛星測位システムが保証する検出誤差を、第1自己位置推定部30による自己位置の検出誤差の推定値として算出する。
第2誤差推定部61は、第1自己位置推定部30による自己位置の検出誤差の推定値を、誤差補正部62へ出力する。
At a location where known area information indicating the absence of a tall building or the like is stored, the second error estimator 61 replaces the detection error guaranteed by the satellite positioning system with the detection error of the self-position by the first self-position estimator 30. Calculated as an estimate of
The second error estimator 61 outputs the estimated value of the self-position detection error by the first self-position estimator 30 to the error corrector 62 .

誤差補正部62は、第2誤差検出部51が検出誤差を推定した地点(すなわち物標や、高い建物等の既知領域情報が記憶された地点)で、第1誤差推定部60が累積する検出誤差の推定値を、第2誤差検出部51が検出した検出誤差に修正(リセット)して出力する。
一方で、第2誤差検出部51が検出誤差を推定しない地点では、誤差補正部62は、第1誤差推定部60から出力される検出誤差の推定値をそのまま出力する。
以上により、既知領域の進出地点まで検出誤差の算出が完了すると、誤差補正部62は、以下のいずれかの値を既知領域における検出誤差の推定値として出力する。
The error correction unit 62 detects the accumulated detection error of the first error estimation unit 60 at the point where the second error detection unit 51 estimates the detection error (that is, the point where the known area information such as targets and tall buildings is stored). The estimated error value is corrected (reset) to the detection error detected by the second error detection unit 51 and output.
On the other hand, at points where the second error detection section 51 does not estimate the detection error, the error correction section 62 outputs the estimated value of the detection error output from the first error estimation section 60 as it is.
When the calculation of the detection error is completed up to the advance point of the known area as described above, the error correction unit 62 outputs one of the following values as the estimated value of the detection error in the known area.

(図5B)自車両1が前方の既知領域にまだ進入しておらず、物標や高い建物等の既知領域情報が記憶された地点が既知領域内に存在しない場合には、既知領域の進入地点から進出地点までにオドメトリで累積する検出誤差の増加量(すなわち既知領域において累積される検出誤差の増加量)が出力される。
(図5C)自車両1が前方の既知領域にすでに進入しており、物標や高い建物等の既知領域情報が記憶された地点が既知領域内に存在しない場合には、誤差検出部33が検出した現在の自己位置の検出誤差に、現在の自己位置から進出地点までにオドメトリで累積する検出誤差を加えた値が、進出位置における検出誤差として出力される。
(FIG. 5B) If the host vehicle 1 has not yet entered the known area in front of it and there is no point in the known area for which the known area information such as a target or a tall building is stored, the entry into the known area The amount of increase in detection error accumulated by odometry from the point to the departure point (that is, the amount of increase in detection error accumulated in the known area) is output.
(FIG. 5C) If the host vehicle 1 has already entered a known area in front of the vehicle, and the point where the known area information such as a target or a tall building is stored does not exist in the known area, the error detection unit 33 A value obtained by adding the detected error of the current self-position to the detection error accumulated by odometry from the current self-position to the advance point is output as the detection error of the advance position.

(図5D)物標に関する既知領域情報が記憶された地点(図にて「物標検出地点」と表記する)が既知領域内に存在する場合には、物標検出地点において物標による自己位置検出を行った場合に発生すると推定される検出誤差に、物標検出地点から進出地点までにオドメトリで累積する検出誤差を加えた値が、進出位置における検出誤差として出力される。
同様に、高い建物等の不在を示す既知領域情報が記憶された地点が既知領域内に存在する場合には、この地点から進出地点までにオドメトリで累積する検出誤差を、衛星測位システムが保証する検出誤差に加算することにより、進出位置における検出誤差を出力する。
図3を参照する。誤差補正部62が出力した検出誤差の推定値は、軌道誤差算出部38へ出力される。
(FIG. 5D) If the point where the known area information about the target is stored (denoted as "target detection point" in the figure) exists within the known area, the self-position by the target at the target detection point A value obtained by adding the detection error estimated to occur when detection is performed and the detection error accumulated by odometry from the target detection point to the advance point is output as the detection error at the advance position.
Similarly, if a point where known area information indicating the absence of a tall building or the like is stored within the known area, the satellite positioning system guarantees the detection error accumulated by odometry from this point to the advance point. By adding to the detection error, the detection error at the advance position is output.
Please refer to FIG. The estimated detection error output from the error correction unit 62 is output to the trajectory error calculation unit 38 .

第2区間誤差算出部37は、軌道候補選択部35により選択された走行軌道候補上であって自己位置よりも前方に、未知領域があるか否かを判定する。
未知領域がある場合に、第2区間誤差算出部37は、未知領域における自己位置検出部32による自己位置検出の検出誤差を推定し、軌道誤差算出部38へ出力する。
第2区間誤差算出部37は、走行軌道候補に沿って未知領域内を走行する際の自車両1の車速や旋回曲率と、予め統計モデルなどを用いて設定した所定の路面状態とに基づいてオドメトリで発生する検出誤差を推定する。
The second section error calculation unit 37 determines whether or not there is an unknown area on the running track candidate selected by the track candidate selection unit 35 and ahead of the self position.
If there is an unknown region, the second section error calculator 37 estimates the detection error of the self-position detection by the self-position detector 32 in the unknown region and outputs it to the trajectory error calculator 38 .
The second section error calculation unit 37 calculates the following based on the vehicle speed and turning curvature of the own vehicle 1 when traveling in the unknown region along the running trajectory candidate, and on a predetermined road surface condition set in advance using a statistical model or the like. Estimate the detection error that occurs in odometry.

その際に第2区間誤差算出部37は、図6Aに示すように自車両1が前方の未知領域にまだ進入していないか、又は図6Bに示すように既に進入しているかを判定する。
自車両1が前方の未知領域にまだ進入していない場合(図6A)には、第2区間誤差算出部37は、未知領域の進入地点から進出地点までにオドメトリで累積する検出誤差の増加量(すなわち未知領域において累積される検出誤差の増加量)を、未知領域における検出誤差の推定値として出力する。
At this time, the second interval error calculator 37 determines whether the vehicle 1 has not yet entered the unknown region ahead as shown in FIG. 6A, or has already entered as shown in FIG. 6B.
When the host vehicle 1 has not yet entered the unknown area ahead (FIG. 6A), the second interval error calculator 37 calculates the amount of increase in the detection error accumulated by odometry from the entry point to the exit point of the unknown area. (that is, the amount of increase in the detection error accumulated in the unknown region) is output as the estimated value of the detection error in the unknown region.

一方で、自車両1が前方の未知領域にすでに進入している場合(図6B)には、第2区間誤差算出部37は、誤差検出部33が検出した現在の自己位置の検出誤差に、現在の自己位置から進出地点までにオドメトリで累積する検出誤差を加えた値を、未知領域の進出位置における検出誤差として出力する。
軌道誤差算出部38は、第1区間誤差算出部36が算出した既知領域における検出誤差の推定値と、第2区間誤差算出部37が算出した未知領域における検出誤差の推定値に基づいて、軌道候補選択部35が選択した走行軌道候補に沿って目標地点に到達した時点における自己位置検出部32による自己位置検出の検出誤差を推定する。
On the other hand, when the vehicle 1 has already entered the unknown region ahead (FIG. 6B), the second interval error calculator 37 adds the current self-position detection error detected by the error detector 33 to A value obtained by adding the detection error accumulated by odometry from the current self-position to the advance point is output as the detection error at the advance position in the unknown region.
The trajectory error calculator 38 calculates the trajectory based on the estimated value of the detection error in the known region calculated by the first section error calculator 36 and the estimated value of the detection error in the unknown region calculated by the second section error calculator 37. The detection error of the self-position detection by the self-position detection unit 32 at the time when the target point is reached along the traveling trajectory candidate selected by the candidate selection unit 35 is estimated.

その際に、軌道誤差算出部38は、自車両1が前方の既知領域のいずかに、物標や高い建物等の既知領域情報が記憶された地点が存在するか否かを判定する。
図7Aは、自車両1が前方の既知領域のいずれにも、物標や高い建物等の既知領域情報が記憶された地点がしない場合を示す。参照符号P0は、自車両1が走行中の領域の進出地点を示す。
At that time, the trajectory error calculator 38 determines whether or not there is a point stored with known area information such as a target or a tall building in any of the known areas in front of the vehicle 1 .
FIG. 7A shows a case where the known area in front of the host vehicle 1 does not include a point for which known area information such as a target or a tall building is stored. A reference symbol P0 indicates an exit point of the area in which the vehicle 1 is traveling.

進出地点P0における検出誤差の推定値e0は、図6Bを参照して説明したように第2区間誤差算出部37によって算出される。自車両1が走行中の領域が既知領域であった場合には、図5Cを参照して説明したように第1区間誤差算出部36によって算出される。
また、進出地点P0よりも前方の各領域において累積する検出誤差の増加量Δe1、Δe2、Δe3、Δe4は、図5B及び図6Aを参照して説明したように第1区間誤差算出部36及び第2区間誤差算出部37によって算出される。
軌道誤差算出部38は、これらの和(e0+Δe1+Δe2+Δe3+Δe4)を目標地点に到達した時点における検出誤差の推定値として算出する。
The estimated value e0 of the detection error at the exit point P0 is calculated by the second interval error calculator 37 as described with reference to FIG. 6B. If the region in which the host vehicle 1 is traveling is a known region, it is calculated by the first section error calculator 36 as described with reference to FIG. 5C.
Further, the increments Δe1, Δe2, Δe3, and Δe4 of the detection error accumulated in each region ahead of the exit point P0 are calculated by the first section error calculator 36 and the It is calculated by the 2-section error calculator 37 .
The trajectory error calculator 38 calculates the sum of these (e0+Δe1+Δe2+Δe3+Δe4) as an estimated value of the detection error when the target point is reached.

図7Bは、物標や高い建物等の既知領域情報が記憶された地点(図にて「物標検出地点」と表記する)が存在する場合を示す。軌道誤差算出部38は、物標検出地点が存在する既知領域のうち、最も目標地点に近い既知領域を選択する。参照符号P1は、選択した既知領域の進出地点を示す。
進出地点P1における検出誤差の推定値e1は、図5Dを参照して説明したように第1区間誤差算出部36によって算出される。
FIG. 7B shows a case where there is a point where known area information such as a target or a tall building is stored (denoted as "target detection point" in the drawing). The trajectory error calculator 38 selects the known area closest to the target point from among the known areas where the target detection point exists. A reference sign P1 indicates an exit point of the selected known area.
The estimated value e1 of the detection error at the exit point P1 is calculated by the first section error calculator 36 as described with reference to FIG. 5D.

軌道誤差算出部38は、進出地点P1における検出誤差の推定値e1に、進出地点P1よりも前方の各領域において累積する検出誤差の増加量Δe5、Δe6、Δe7を加算した和(e1+Δe5+Δe6+Δe7)を、目標地点に到達した時点における検出誤差の推定値として算出する。
軌道誤差算出部38は、算出した推定値を走行軌道設定部39へ出力する。
The trajectory error calculator 38 calculates the sum (e1+Δe5+Δe6+Δe7) obtained by adding the detection error increments Δe5, Δe6, and Δe7 accumulated in each region ahead of the advance point P1 to the estimated value e1 of the detection error at the advance point P1. It is calculated as an estimated value of the detection error when the target point is reached.
The trajectory error calculator 38 outputs the calculated estimated value to the travel trajectory setter 39 .

走行軌道設定部39は、軌道候補生成部34が生成した複数の走行軌道候補のそれぞれについて軌道誤差算出部38が算出した検出誤差の推定値に基づいて、これら複数の走行軌道候補のうち何れかを目標走行軌道として設定する。
具体的には、複数の走行軌道候補のうち検出誤差の推定値が所定の閾値以下になる走行軌道候補のいずれかを目標走行軌道として設定する。検出誤差の推定値が所定の閾値以下になる走行軌道候補が複数ある場合には、例えば検出誤差の推定値が最小となる走行軌道候補を選んでよい。
The traveling trajectory setting unit 39 selects one of the plurality of traveling trajectory candidates based on the estimated value of the detection error calculated by the trajectory error calculating unit 38 for each of the plurality of traveling trajectory candidates generated by the trajectory candidate generating unit 34. is set as the target running trajectory.
Specifically, any one of the plurality of traveling trajectory candidates for which the estimated value of the detection error is equal to or less than a predetermined threshold value is set as the target traveling trajectory. If there are a plurality of traveling trajectory candidates for which the estimated value of the detection error is equal to or less than a predetermined threshold value, for example, the candidate traveling trajectory with the smallest estimated value of the detection error may be selected.

走行制御部40は、走行軌道設定部39が設定した目標走行軌道に含まれる速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ18を駆動することにより、自車両1が走行予定経路に沿って自律走行するように自車両1の運転行動を制御する。 The travel control unit 40 drives the actuator 18 so that the vehicle 1 travels on the target travel trajectory at a speed that follows the speed profile included in the target travel trajectory set by the travel trajectory setting unit 39, thereby causing the vehicle 1 to The driving behavior of the own vehicle 1 is controlled so that it autonomously travels along the planned travel route.

(動作)
次に、図8を参照して実施形態における走行支援方法の一例を説明する。
ステップS1において自己位置検出部32は、自車両1の現在位置である自己位置を検出する。
ステップS2において誤差検出部33は、自己位置検出部32による自己位置の検出誤差を検出する。
ステップS3において軌道候補生成部34は、自己位置検出部32が検出した自己位置から自車両1を走行させる複数の走行軌道候補を生成する。
(motion)
Next, an example of a driving support method according to the embodiment will be described with reference to FIG.
In step S<b>1 , the self-position detection unit 32 detects the self-position, which is the current position of the vehicle 1 .
In step S<b>2 , the error detection unit 33 detects an error in detection of the self-position by the self-position detection unit 32 .
In step S<b>3 , the trajectory candidate generation unit 34 generates a plurality of travel trajectory candidates for causing the vehicle 1 to travel from the self-position detected by the self-position detection unit 32 .

ステップS4において軌道候補選択部35は、軌道候補生成部34が生成した複数の走行軌道候補を順次選択する。
ステップS5において第1区間誤差算出部36は、軌道候補選択部35が選択した走行軌道候補上であって自己位置よりも前方にある既知領域における自己位置検出部32による自己位置の検出誤差を推定する。
In step S<b>4 , the trajectory candidate selection unit 35 sequentially selects a plurality of traveling trajectory candidates generated by the trajectory candidate generation unit 34 .
In step S5, the first section error calculator 36 estimates the detection error of the self-position by the self-position detector 32 in the known region ahead of the self-position on the traveling trajectory candidate selected by the trajectory candidate selector 35. do.

ステップS6において第2区間誤差算出部37は、軌道候補選択部35が選択した走行軌道候補上であって自己位置よりも前方にある未知領域における自己位置検出部32による自己位置の検出誤差を推定する。
ステップS7において軌道誤差算出部38は、ステップS5及びS6で推定した検出誤差に基づいて、軌道候補選択部35が選択した走行軌道候補に沿って目標地点に到達した時点における自己位置検出部32による自己位置検出の検出誤差を推定する。
In step S6, the second section error calculator 37 estimates the detection error of the self-position by the self-position detector 32 in the unknown region ahead of the self-position on the running track candidate selected by the track candidate selector 35. do.
In step S7, the trajectory error calculation unit 38 calculates the error detected by the self-position detection unit 32 at the time when the target point is reached along the traveling trajectory candidate selected by the trajectory candidate selection unit 35, based on the detection errors estimated in steps S5 and S6. Estimate the detection error of self-localization.

ステップS8において走行軌道設定部39は、軌道候補生成部34が生成した全ての走行軌道候補が軌道候補選択部35により選択されたか否かを判定する。未選択の走行軌道候補が残っている場合(ステップS8:N)、処理はステップS4に戻り、未選択の走行軌道候補のいずれかを選択してステップS5~S8を繰り返す。
全ての走行軌道候補が選択済の場合(ステップS8:Y)、処理はステップS9に進む。
ステップS9において走行軌道設定部39は、軌道候補生成部34が生成した複数の走行軌道候補のうち、軌道誤差算出部38が算出した検出誤差の推定値が所定の閾値以下になる走行軌道候補のいずれかを目標走行軌道として設定する。
ステップS10において走行制御部40は、走行軌道設定部39が設定した目標走行軌道に含まれる速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ18を駆動することにより、自車両1が走行予定経路に沿って自律走行するように自車両1の運転行動を制御する。
In step S<b>8 , the traveling trajectory setting unit 39 determines whether or not all the traveling trajectory candidates generated by the trajectory candidate generating unit 34 have been selected by the trajectory candidate selecting unit 35 . If unselected running track candidates remain (step S8: N), the process returns to step S4, selects one of the unselected running track candidates, and repeats steps S5 to S8.
If all the traveling trajectory candidates have been selected (step S8: Y), the process proceeds to step S9.
In step S9, the traveling trajectory setting unit 39 selects a traveling trajectory candidate for which the estimated value of the detection error calculated by the trajectory error calculating unit 38 is equal to or less than a predetermined threshold among the plurality of traveling trajectory candidates generated by the trajectory candidate generating unit 34. Either one is set as the target travel trajectory.
In step S10, the travel control unit 40 drives the actuator 18 so that the vehicle 1 travels on the target travel trajectory at a speed according to the speed profile included in the target travel trajectory set by the travel trajectory setting unit 39. The driving behavior of the own vehicle 1 is controlled so that the vehicle 1 autonomously travels along the scheduled travel route.

(第1実施形態の効果)
(1)自己位置検出部32は、自車両1の現在位置である自己位置を検出する。軌道候補生成部34は、自車両1を到達させる目標地点を設定し、自己位置から目標地点まで自車両1を走行させる複数の走行軌道候補を生成する。軌道誤差算出部38は、将来、目標地点に到達した時点において検出される自己位置の検出誤差を走行軌道候補毎に推定する。走行軌道設定部39は、複数の走行軌道候補のうち検出誤差が閾値以下になる走行軌道候補のいずれかを目標走行軌道として選択する。走行制御部40は、選択された目標走行軌道を走行するように自車両1の走行を支援する。
これにより、目標地点における自車両1の自己位置の検出誤差を閾値以下に抑えることができる。
(Effect of the first embodiment)
(1) The self-position detector 32 detects the self-position, which is the current position of the vehicle 1 . The trajectory candidate generation unit 34 sets a target point to which the vehicle 1 should reach, and generates a plurality of travel trajectory candidates for driving the vehicle 1 from the vehicle's own position to the target point. The trajectory error calculator 38 estimates, for each travel trajectory candidate, the detection error of the self-position that will be detected when the vehicle reaches the target point in the future. The traveling trajectory setting unit 39 selects, as a target traveling trajectory, one of the plurality of traveling trajectory candidates whose detection error is equal to or less than a threshold value. The travel control unit 40 assists the travel of the own vehicle 1 so that it travels along the selected target travel trajectory.
As a result, the detection error of the self-position of the vehicle 1 at the target point can be suppressed below the threshold.

(2)誤差検出部33は、自車両1の周囲の物標を検出する物標検出センサが物標を検出している場合には、物標の検出結果と物標の地図情報に基づいて自己位置を検出し、物標検出センサが物標を検出していない場合には、自車両1のオドメトリ又は衛星測位システムに基づいて自己位置を検出する。
これにより物標検出センサが物標を検出している場合には高精度の自己位置を検出することができるとともに、物標を検出していない場合においても自己位置の検出を継続することができる。
(2) If the target detection sensor that detects the target around the own vehicle 1 detects the target, the error detection unit 33 detects the target based on the target detection result and the target map information. When the self-position is detected and the target detection sensor does not detect the target, the self-position is detected based on the odometry of the own vehicle 1 or the satellite positioning system.
As a result, when the target detection sensor detects the target, it is possible to detect the self-position with high accuracy, and even when the target is not detected, the detection of the self-position can be continued. .

(3)軌道候補生成部34は、自車両1の走行路上の領域のうち自己位置の検出精度が既知である既知領域を通る走行軌道を、走行軌道候補として生成する。
これにより、走行軌道候補上で発生する検出誤差を予め知ることができるので、目標地点における検出誤差を向上することができる。
(4)第1区間誤差算出部36は、既知領域における自己位置の検出誤差を、既知の検出精度に応じて推定する。
これにより、既知領域内の走行軌道候補上で発生する検出誤差を予め知ることができるの。
(3) The trajectory candidate generation unit 34 generates, as a trajectory candidate, a trajectory that passes through a known region in which the self-position detection accuracy is known among the regions on the trajectory of the vehicle 1 .
As a result, it is possible to know in advance the detection error that occurs on the traveling trajectory candidate, so that the detection error at the target point can be improved.
(4) The first section error calculator 36 estimates the detection error of the self-position in the known region according to the known detection accuracy.
As a result, it is possible to know in advance the detection error that will occur on the traveling trajectory candidate in the known area.

(5)既知領域は、当該領域において検出できる物標が既知である領域であってよい。また既知領域は、当該領域における路面状態が既知である領域であってもよい。また既知領域は、衛星測位システムによる自己位置の検出精度が既知な領域であってもよい。これにより、既知領域における自己位置の検出誤差をより正確に推定できる。 (5) The known area may be an area in which targets that can be detected in the area are known. Also, the known area may be an area in which the road surface condition is known. Also, the known area may be an area in which the accuracy of self-location detection by a satellite positioning system is known. This makes it possible to more accurately estimate the detection error of the self-position in the known area.

(6)誤差検出部33は、自己位置の検出誤差を、物標検出センサの検出誤差の分散値又は物標の検出結果の尤度に応じて算出する。
物標検出センサの検出誤差の分散値に応じて検出誤差を算出することにより、解析的な計算により少ない処理量で高速に誤差を算出できる。白線などの検出しやすい物標の検出結果の尤度に応じて検出誤差を算出することにより、誤差推定のロバスト性を向上できる。
(6) The error detection unit 33 calculates the detection error of the self-position according to the variance of the detection error of the target detection sensor or the likelihood of the target detection result.
By calculating the detection error according to the variance value of the detection error of the target detection sensor, the error can be calculated at high speed with a small amount of processing by analytical calculation. The robustness of error estimation can be improved by calculating the detection error according to the likelihood of the detection result of a target that is easy to detect, such as a white line.

(第2実施形態)
次に、第2実施形態について説明する。第2実施形態の走行支援装置10は、走行支援装置10による自車両1の運転方法に関する乗員の要望を受け付ける。
運転方法に関する乗員の要望として、例えば走行支援装置10は、目標地点までの到達予定時間が早い運転の実施や、目標地点までの到達予定時間が遅くてもより安全な運転の実施を受け付けてよい。また走行支援装置10は、スポーティな運転の実施や、静穏で円滑な運転の実施を要望として受け付けてもよい。
走行支援装置10は、例えばユーザインタフェース装置19を介してこれらの要望を受け付ける。
(Second embodiment)
Next, a second embodiment will be described. The driving assistance device 10 of the second embodiment receives requests from the occupant regarding the driving method of the own vehicle 1 by the driving assistance device 10 .
For example, the driving support device 10 may accept a driver's request regarding the driving method, such as driving with a faster estimated arrival time to the target point, or safer driving even if the estimated arrival time to the target point is later. . Further, the driving support device 10 may receive a request for sporty driving or quiet and smooth driving.
The driving support device 10 receives these requests via the user interface device 19, for example.

走行軌道設定部39は、軌道誤差算出部38が算出した検出誤差が閾値以下になる複数の走行軌道候補のうち、乗員の要望に応じたいずれかの走行軌道候補を、目標走行軌道として選択する。
例えば、到達予定時間が早い運転を乗員が要望する場合、走行軌道設定部39は、目標地点までの軌道長がより短く、車速も早く、加減速の滑らかさが少ない走行軌道候補を選択する。
The travel trajectory setting unit 39 selects, as a target travel trajectory, one of a plurality of travel trajectory candidates for which the detection error calculated by the trajectory error calculator 38 is equal to or less than a threshold, according to the request of the passenger. .
For example, when the occupant desires driving with a faster estimated arrival time, the travel trajectory setting unit 39 selects a travel trajectory candidate that has a shorter trajectory length to the target point, a faster vehicle speed, and less smooth acceleration and deceleration.

また例えば、目標地点までの到達予定時間が遅くてもより安全な運転を要望する場合、走行軌道設定部39は、速度を落として目標地点までの区間を長い時間をかけて通過するような走行軌道候補を選択する。
また例えば、スポーティな運転を要望する場合には、走行軌道設定部39は、コーナリングを鋭角に旋回したり、より高い車速で走行したり、加減速の滑らかさが低い走行軌道候補を選択する。
また例えば、静穏で円滑な運転を要望する場合には、走行軌道設定部39は、コーナリングを鈍角に旋回したり、加減速の滑らかさが高い走行軌道候補を選択する。また、砂利道などの走行音が大きくなる領域やマンホールの上や、上下振動が発生する領域を避ける走行軌道候補を選択する。
In addition, for example, if safer driving is desired even if the expected arrival time to the target point is delayed, the travel trajectory setting unit 39 reduces the speed and allows the travel to pass through the section to the target point over a long period of time. Select a trajectory candidate.
Further, for example, when a sporty driving is desired, the running trajectory setting unit 39 selects a running trajectory candidate for cornering at a sharp angle, running at a higher vehicle speed, or low acceleration/deceleration smoothness.
Further, for example, when quiet and smooth driving is desired, the travel trajectory setting unit 39 selects a travel trajectory candidate with obtuse cornering or high smoothness of acceleration and deceleration. In addition, a running track candidate is selected that avoids areas such as gravel roads where running noise is loud, over manholes, and areas where vertical vibration occurs.

(第2実施形態の効果)
走行支援装置10は、自車両1の運転方法に関する乗員の要望を受け付ける。走行軌道設定部39は、軌道誤差算出部38が算出した検出誤差が閾値以下になる複数の走行軌道候補のうち、乗員の要望に応じたいずれかの走行軌道候補を、前記目標走行軌道として選択する。
これにより、目標地点における検出誤差が閾値以下になり、かつ乗員の嗜好性に合った運転を実現することができる。
(Effect of Second Embodiment)
The driving support device 10 accepts requests from the occupant regarding the driving method of the own vehicle 1 . The traveling trajectory setting unit 39 selects, as the target traveling trajectory, one of a plurality of traveling trajectory candidates for which the detection error calculated by the trajectory error calculating unit 38 is equal to or less than a threshold, according to the passenger's request. do.
As a result, the detection error at the target point becomes equal to or less than the threshold value, and driving that matches the preference of the passenger can be realized.

(第3実施形態)
図9を参照する。自車両1の走行路25の傍に物標L1及びL2が存在し、物標L1及びL2の検出結果に基づいて自己位置を検出する場合を想定する。
この場合、走行軌道候補T2に沿って自車両1を走行させると、走行軌道候補T1に沿って走行する場合よりも物標L1とL2を検出する方角の間隔が狭くなり、自己位置の検出誤差が大きくなる。
したがって、走行軌道候補T2に沿って走行する自車両1の自己位置の検出誤差を抑えるには、車速を低下させて物標L1とL2の観察回数を増やす必要がある。この結果、不要に低速で走行する距離が長くなる。
(Third embodiment)
See FIG. It is assumed that targets L1 and L2 are present near the travel path 25 of the own vehicle 1 and the self position is detected based on the detection results of the targets L1 and L2.
In this case, when the vehicle 1 is caused to travel along the candidate traveling trajectory T2, the distance between the directions for detecting the targets L1 and L2 becomes narrower than when traveling along the candidate trajectory T1, resulting in an error in detecting the self-position. becomes larger.
Therefore, in order to suppress the detection error of the self-position of the vehicle 1 traveling along the traveling trajectory candidate T2, it is necessary to reduce the vehicle speed and increase the number of observations of the targets L1 and L2. As a result, the distance traveled at unnecessarily low speed is increased.

このため、第3実施形態における軌道候補生成部34は、自車両1の現在の自己位置から目標地点までの間に検出できる複数の物標の位置に応じて走行軌道候補を生成する。例えば、軌道候補生成部34は、複数の物標を検出する方角の間隔が所定の閾値よりも広くなる地点を通過するように走行軌道候補を生成してよい。
軌道候補生成部34は、自車両1の現在の自己位置において検出している複数の物標を検出する方角の間隔が所定の閾値よりも広くなる地点を通過するように走行軌道候補を生成してよく、既知領域情報に基づいて、自己位置よりも前方の既知領域で検出できる複数の物標の位置を判断し、これらの物標を検出する方角の間隔が所定の閾値よりも広くなる地点を通過するように走行軌道候補を生成してもよい。
Therefore, the trajectory candidate generator 34 in the third embodiment generates travel trajectory candidates according to the positions of a plurality of targets that can be detected between the current self-position of the vehicle 1 and the target point. For example, the trajectory candidate generating unit 34 may generate a traveling trajectory candidate so as to pass through a point where the interval between directions for detecting a plurality of targets is wider than a predetermined threshold value.
The trajectory candidate generating unit 34 generates a traveling trajectory candidate so that the vehicle 1 passes through a point where the interval between directions for detecting a plurality of targets detected at the current self-position of the vehicle 1 is wider than a predetermined threshold value. Based on the known area information, the positions of multiple targets that can be detected in the known area in front of the self-position are determined, and the point where the interval of the directions for detecting these targets becomes wider than a predetermined threshold. A running trajectory candidate may be generated so as to pass through .

(第3実施形態の効果)
第3実施形態の軌道候補生成部34は、自車両1の現在の自己位置から目標地点までの間に検出できる複数の物標の位置に応じて走行軌道候補を生成する。
このため、自己位置の検出誤差が抑制される走行軌道候補を生成することが可能になり、不要に低速で走行する距離を短くすることができる。
(Effect of the third embodiment)
The trajectory candidate generator 34 of the third embodiment generates travel trajectory candidates according to the positions of a plurality of targets that can be detected from the current self-position of the vehicle 1 to the target point.
Therefore, it is possible to generate a travel trajectory candidate that suppresses the detection error of the self-position, and it is possible to shorten the distance traveled at unnecessarily low speed.

1…自車両、10…走行支援装置、11…衛星測位装置、12…地図データベース、13…周囲環境センサ、14…車両センサ、15…既知領域データベース、16…コントローラ、17…ナビゲーションシステム、18…アクチュエータ、19…ユーザインタフェース装置、20…プロセッサ、21…記憶装置、25…走行路、30…第1自己位置推定部、31…第2自己位置推定部、32…自己位置検出部、33…誤差検出部、34…軌道候補生成部、35…軌道候補選択部、36…第1区間誤差算出部、37…第2区間誤差算出部、38…軌道誤差算出部、39…走行軌道設定部、40…走行制御部、50…第1誤差検出部、51…第2誤差検出部、52…第3誤差検出部、53…誤差補正部、60…第1誤差推定部、61…第2誤差推定部、62…誤差補正部 DESCRIPTION OF SYMBOLS 1... Own vehicle 10... Driving assistance apparatus 11... Satellite positioning apparatus 12... Map database 13... Surrounding environment sensor 14... Vehicle sensor 15... Known area database 16... Controller 17... Navigation system 18... Actuator 19 User interface device 20 Processor 21 Storage device 25 Traveling path 30 First self-position estimation unit 31 Second self-position estimation unit 32 Self-position detection unit 33 Error Detector 34 Track candidate generator 35 Track candidate selector 36 First section error calculator 37 Second section error calculator 38 Track error calculator 39 Running track setter 40 ... traveling control section 50 ... first error detection section 51 ... second error detection section 52 ... third error detection section 53 ... error correction section 60 ... first error estimation section 61 ... second error estimation section , 62 ... error correction unit

Claims (10)

自車両の現在位置である自己位置を検出する自己位置検出手段によって、前記自己位置を検出し、
前記自車両を到達させる目標地点を設定して前記自己位置から前記目標地点まで前記自車両を走行させる複数の走行軌道候補を生成し、
将来、前記目標地点に到達した時点において前記自己位置検出手段が検出する前記自己位置の検出誤差を前記走行軌道候補毎に推定し、
前記複数の走行軌道候補のうち前記検出誤差が閾値以下になる前記走行軌道候補のいずれかを目標走行軌道として選択し、
選択された前記目標走行軌道を走行するように前記自車両の走行を支援する、
ことを特徴とする走行支援方法。
Detecting the self-position by self-position detection means for detecting the self-position, which is the current position of the vehicle;
setting a target point for the vehicle to reach and generating a plurality of travel trajectory candidates for causing the vehicle to travel from the vehicle's own position to the target point;
estimating a detection error of the self-position detected by the self-position detecting means when the target point is reached in the future for each of the running trajectory candidates;
selecting any one of the plurality of running trajectory candidates for which the detection error is equal to or less than a threshold as a target running trajectory;
assisting the own vehicle to travel on the selected target travel trajectory;
A driving support method characterized by:
前記自車両の周囲の物標の自車両に対する相対位置を検出する物標検出センサが前記物標を検出している場合には、前記物標の検出結果と前記物標の地図上の位置に基づいて前記自己位置を検出し、物標検出センサが前記物標を検出していない場合には、前記自車両のオドメトリ又は衛星測位システムに基づいて前記自己位置を検出する、ことを特徴とする請求項1に記載の走行支援方法。 When a target detection sensor that detects the relative position of a target around the own vehicle with respect to the own vehicle detects the target, the detection result of the target and the position of the target on the map are combined. and detecting the self-position based on the odometry of the vehicle or the satellite positioning system when the target detection sensor does not detect the target. The driving support method according to claim 1. 前記自車両の走行路上の領域のうち前記自己位置の検出精度が既知である部分領域の範囲と、前記部分領域において前記自己位置検出手段が検出する前記自己位置の検出精度の情報と、を含んだ既知領域情報を記憶したデータベースを参照することにより、前記走行軌道候補上に前記部分領域が存在するか否かを判定し、
前記走行軌道候補上に前記部分領域が存在すると判定した場合に、前記データベースに記憶された既知領域情報に応じて走行軌道候補においてそれぞれ発生する前記検出誤差を推定することを特徴とする請求項1又は2に記載の走行支援方法。
a range of a partial area for which the detection accuracy of the self-position is known in the area on the travel road of the vehicle; and information on the detection accuracy of the self-position detected by the self-position detecting means in the partial area. determining whether or not the partial area exists on the running trajectory candidate by referring to a database storing known area information;
2. When it is determined that said partial area exists on said traveling trajectory candidate, said detection error occurring in said traveling trajectory candidate is estimated according to known area information stored in said database. 2. The driving support method according to 2.
前記部分領域における前記自己位置の検出誤差を、既知の前記検出精度に応じて推定することを特徴とする請求項3に記載の走行支援方法。 4. The driving support method according to claim 3, wherein the detection error of the self-position in the partial area is estimated according to the known detection accuracy. 前記部分領域は、当該領域における路面状態が既知である領域であることを特徴とする請求項3又は4のいずれか一項に記載の走行支援方法。 5. The driving support method according to claim 3 , wherein the partial area is an area in which road surface conditions are known. 前記部分領域は、衛星測位システムによる自己位置の検出精度が既知な領域であることを特徴とする請求項3~5のいずれか一項に記載の走行支援方法。 The driving support method according to any one of claims 3 to 5 , wherein the partial area is an area in which the accuracy of self-location detection by a satellite positioning system is known. 前記自己位置の検出誤差を、前記物標検出センサの検出誤差の分散値又は前記物標の検出結果の尤度に応じて算出することを特徴とする請求項に記載の走行支援方法。 3. The driving support method according to claim 2 , wherein the detection error of the self-position is calculated according to a variance of the detection error of the target detection sensor or a likelihood of the detection result of the target. 前記自車両の運転方法に関する乗員の要望を受け付け、
前記検出誤差が閾値以下になる複数の前記走行軌道候補のうち、前記乗員の要望に応じたいずれかの前記走行軌道候補を、前記目標走行軌道として選択する、
ことを特徴とする請求項1~7のいずれか一項に記載の走行支援方法。
Receiving a passenger's request regarding the driving method of the own vehicle,
Selecting, as the target travel trajectory, one of the plurality of travel trajectory candidates whose detection error is equal to or less than a threshold, according to the request of the occupant;
The driving support method according to any one of claims 1 to 7, characterized in that:
自車両の現在位置である自己位置を検出する自己位置検出手段と、
前記自車両を到達させる目標地点を設定し、前記自己位置から前記目標地点まで前記自車両を走行させる複数の走行軌道候補を生成する軌道候補生成手段と、
前記目標地点に到達した時点において前記自己位置検出手段が検出する前記自己位置の検出誤差を前記走行軌道候補毎に推定する誤差検出手段と、
前記複数の走行軌道候補のうち前記検出誤差が閾値以下になる前記走行軌道候補のいずれかを目標走行軌道として選択する走行軌道選択手段と、
選択された前記目標走行軌道を走行するように前記自車両の走行を支援する走行支援手段と、
を備えることを特徴とする走行支援装置。
Self-position detection means for detecting the self-position, which is the current position of the vehicle;
trajectory candidate generation means for setting a target point to which the vehicle is to be reached and generating a plurality of travel trajectory candidates for driving the vehicle from the vehicle's own position to the target point;
error detection means for estimating the detection error of the self-position detected by the self-position detection means at the time of arrival at the target point for each of the running trajectory candidates;
a traveling trajectory selecting means for selecting, as a target traveling trajectory, one of the plurality of traveling trajectory candidates for which the detection error is equal to or less than a threshold;
a travel support means for supporting travel of the own vehicle so as to travel along the selected target travel trajectory;
A driving support device comprising:
前記誤差検出手段は、前記自車両の走行路上の領域のうち前記自己位置の検出精度が既知である部分領域の範囲と、前記部分領域において前記自己位置検出手段が検出する前記自己位置の検出精度の情報と、を含んだ既知領域情報を記憶したデータベースを参照することにより、前記走行軌道候補上に前記部分領域が存在するか否かを判定し、前記走行軌道候補上に前記部分領域が存在すると判定した場合に、前記データベースに記憶された既知領域情報に応じて走行軌道候補においてそれぞれ発生する前記検出誤差を推定することを特徴とする請求項9に記載の走行支援装置。The error detection means detects a range of partial areas in which the detection accuracy of the self-position is known in the area on the travel road of the vehicle, and the detection accuracy of the self-position detected by the self-position detection means in the partial areas. and determining whether or not the partial area exists on the candidate traveling trajectory by referring to a database storing known area information including the information of . 10. The driving support device according to claim 9, wherein when it is determined that the detection error occurs in each of the driving trajectory candidates according to the known area information stored in the database.
JP2019155696A 2019-08-28 2019-08-28 Driving support method and driving support device Active JP7321034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019155696A JP7321034B2 (en) 2019-08-28 2019-08-28 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019155696A JP7321034B2 (en) 2019-08-28 2019-08-28 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2021030980A JP2021030980A (en) 2021-03-01
JP7321034B2 true JP7321034B2 (en) 2023-08-04

Family

ID=74675117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019155696A Active JP7321034B2 (en) 2019-08-28 2019-08-28 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP7321034B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018031678A1 (en) 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
JP2018055141A (en) 2016-09-26 2018-04-05 日立オートモティブシステムズ株式会社 Moving body track prediction system
JP2018203103A (en) 2017-06-06 2018-12-27 トヨタ自動車株式会社 Lane change support device
JP2019127098A (en) 2018-01-23 2019-08-01 本田技研工業株式会社 Driving reference line determination device, and automatic driving device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018031678A1 (en) 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
JP2018055141A (en) 2016-09-26 2018-04-05 日立オートモティブシステムズ株式会社 Moving body track prediction system
JP2018203103A (en) 2017-06-06 2018-12-27 トヨタ自動車株式会社 Lane change support device
JP2019127098A (en) 2018-01-23 2019-08-01 本田技研工業株式会社 Driving reference line determination device, and automatic driving device

Also Published As

Publication number Publication date
JP2021030980A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
US10520319B2 (en) Data driven map updating system for autonomous driving vehicles
CN105270410B (en) Exact curvature algorithm for estimating for the path planning of autonomous land vehicle
US20190318481A1 (en) Method for pitch angle calibration based on 2d bounding box and its 3d distance for autonomous driving vehicles (advs)
US10429849B2 (en) Non-linear reference line optimization method using piecewise quintic polynomial spiral paths for operating autonomous driving vehicles
US11055540B2 (en) Method for determining anchor boxes for training neural network object detection models for autonomous driving
US20190072674A1 (en) Host vehicle position estimation device
US11631257B2 (en) Surroundings recognition device, and surroundings recognition method
WO2019200563A1 (en) Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway
EP3694756B1 (en) Spiral curve based vertical parking planner system for autonomous driving vehicles
JP7349561B2 (en) Map information correction method, driving support method, and map information correction device
KR20190016690A (en) Method and apparatus for controlling driving vehicle
US11731612B2 (en) Neural network approach for parameter learning to speed up planning for complex driving scenarios
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
US20210188308A1 (en) A qp spline path and spiral path based reference line smoothing method for autonomous driving
JP7202982B2 (en) Driving support method and driving support device
JP7147448B2 (en) map information system
JP7321034B2 (en) Driving support method and driving support device
JP7276112B2 (en) Lane change decision device
JP2018185156A (en) Target position estimation method and target position estimation device
JP2018146248A (en) Target position estimation method and target position estimation device
JP2022146256A (en) Track estimation method and track estimation device
JP2019196941A (en) Own vehicle position estimating device
JP7114865B2 (en) VEHICLE POSITION DETECTION METHOD AND VEHICLE POSITION DETECTION DEVICE
RU2803578C1 (en) Cartographic information correction method, driving assistance method and cartographic information correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150