JP2018128906A - Vehicle control device - Google Patents

Vehicle control device Download PDF

Info

Publication number
JP2018128906A
JP2018128906A JP2017022138A JP2017022138A JP2018128906A JP 2018128906 A JP2018128906 A JP 2018128906A JP 2017022138 A JP2017022138 A JP 2017022138A JP 2017022138 A JP2017022138 A JP 2017022138A JP 2018128906 A JP2018128906 A JP 2018128906A
Authority
JP
Japan
Prior art keywords
information
recognition
reliability
unit
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017022138A
Other languages
Japanese (ja)
Other versions
JP6854141B2 (en
Inventor
雄悟 上田
Yugo Ueda
雄悟 上田
文雄 ▲浜▼野
文雄 ▲浜▼野
Fumio Hamano
顕輔 石川
Akisuke Ishikawa
顕輔 石川
麻衣子 足立
Maiko ADACHI
麻衣子 足立
辻 孝之
Takayuki Tsuji
孝之 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017022138A priority Critical patent/JP6854141B2/en
Publication of JP2018128906A publication Critical patent/JP2018128906A/en
Application granted granted Critical
Publication of JP6854141B2 publication Critical patent/JP6854141B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle control device capable of recognizing a road environment even when performing a plurality of types of recognition processing.SOLUTION: A vehicle control device sets a recognition result of individual recognition parts 80 and 82, that is, weighting coefficients C11 and C12 for lane information, on the basis of state information indicating a state of inside and outside of a vehicle, and estimates the lane information as an integrated road environment using the plurality of recognition result and the weighting coefficient C11 and C12 corresponding to each recognition result.SELECTED DRAWING: Figure 4

Description

本発明は、道路環境を認識して車両の自動走行を制御する車両制御装置に関する。   The present invention relates to a vehicle control apparatus that recognizes a road environment and controls automatic traveling of a vehicle.

自動運転で走行可能な車両は周囲の道路環境を認識しつつ加減速、操舵、制動等の制御を行う。例えば、カメラで撮影した画像情報やナビゲーション装置で保存される地図情報に基づいてレーンや停止線等の道路環境を認識する。   A vehicle capable of traveling by automatic driving performs control such as acceleration / deceleration, steering, braking, etc. while recognizing the surrounding road environment. For example, road environments such as lanes and stop lines are recognized based on image information captured by a camera and map information stored by a navigation device.

特許文献1には、道路データ(地図情報)から推定される道路形状と撮影手段(カメラ)が撮影した画像(画像情報)から推定される道路形状のいずれかを、各道路形状の信頼性に基づいて選択する装置が開示される。特許文献2には、カメラの撮影結果(画像情報)に基づいて走行レーンの認識精度が低くなる場合に、地図データ(地図情報)に基づいて仮想的な走行レーンを生成する装置が開示される。   In Patent Document 1, either a road shape estimated from road data (map information) or a road shape estimated from an image (image information) taken by a photographing means (camera) is used as the reliability of each road shape. An apparatus for selecting based on is disclosed. Patent Document 2 discloses an apparatus that generates a virtual travel lane based on map data (map information) when the accuracy of recognition of the travel lane is low based on a camera shooting result (image information). .

特開2001−291197号公報(請求項1)JP 2001-291197 A (Claim 1) 特開2015−005132号公報(段落[0041]、[0042])Japanese Patent Laying-Open No. 2015-005132 (paragraphs [0041] and [0042])

特許文献1、2の装置は画像情報と地図情報のいずれかを用いて道路環境を認識する。このように、種類の異なる複数の認識処理を行う場合、画像情報に基づく認識処理と地図情報に基づく認識処理との切り替えを適切なタイミングで行うことは難しい。切り替えのタイミングを誤ると、道路環境の認識精度が低くなる可能性がある。   The devices of Patent Documents 1 and 2 recognize the road environment using either image information or map information. As described above, when performing a plurality of different types of recognition processes, it is difficult to switch between a recognition process based on image information and a recognition process based on map information at an appropriate timing. If the switching timing is incorrect, the recognition accuracy of the road environment may be lowered.

本発明はこのような課題を考慮してなされたものであり、種類の異なる複数の認識処理を行う場合であっても、道路環境を認識できる車両制御装置を提供することを目的とする。   The present invention has been made in consideration of such problems, and an object of the present invention is to provide a vehicle control device that can recognize a road environment even when a plurality of different types of recognition processes are performed.

本発明は、道路環境を認識して車両走行の少なくとも一部をドライバによらない自動走行を制御する車両制御装置であって、入力情報に基づいて前記道路環境を認識する種類の異なる複数の認識部と、車両内外の状態を示す状態情報に基づいて個々の前記認識部の認識結果に対する重み付け係数を設定する重み付け係数設定部と、複数の前記認識結果と前記認識結果に対する前記重み付け係数とを用いて統合道路環境を推定する道路環境推定部とを備えることを特徴とする。   The present invention is a vehicle control device that recognizes a road environment and controls automatic driving without relying on a driver for at least a part of vehicle driving, and recognizes the road environment based on input information. A weighting coefficient setting unit that sets a weighting coefficient for a recognition result of each of the recognition units based on state information indicating a state inside and outside the vehicle, and a plurality of the recognition results and the weighting coefficient for the recognition results. And a road environment estimation unit for estimating the integrated road environment.

本発明によれば、車両内外の状態を示す状態情報に基づいて個々の認識部の認識結果に対する重み付け係数を設定し、複数の認識結果と各認識結果に対応する重み付け係数とを用いて統合道路環境を推定する。このように、重み付け係数を変更し、変更した重み付け係数を用いて各認識結果を統合して得られた統合道路環境を最終的な認識結果とすることにより、ある認識処理から他の認識処理へ瞬時に切り替える処理が不要となる。このため、認識処理の切り替えの際に道路環境の認識精度が低くなるという事象が発生しなくなり、道路環境を常に認識できるようになる。   According to the present invention, a weighting coefficient for a recognition result of each recognition unit is set based on state information indicating a state inside and outside the vehicle, and an integrated road is obtained using a plurality of recognition results and weighting coefficients corresponding to each recognition result. Estimate the environment. In this way, by changing the weighting coefficient and integrating the recognition results using the changed weighting coefficient as the final recognition result, from one recognition process to another recognition process. Instantaneous switching is not required. For this reason, when the recognition process is switched, an event that the recognition accuracy of the road environment becomes low does not occur, and the road environment can be always recognized.

車両制御装置は、前記状態情報に基づいて複数の前記認識部の信頼度を個別に判定する信頼度判定部を備え、前記道路環境は、レーン情報であり、前記認識部の1つは、カメラで撮影される画像情報に基づいて前記レーン情報を認識する画像情報認識部であり、前記重み付け係数設定部は、前記画像情報認識部の前記信頼度が低くなるに伴って前記画像情報認識部の認識結果に対する前記重み付け係数を変更するようにしてもよい。上記構成によれば、重み付け係数を適宜変更するため、レーン情報(統合道路環境)を精度よく認識することができる。   The vehicle control device includes a reliability determination unit that individually determines the reliability of the plurality of recognition units based on the state information, the road environment is lane information, and one of the recognition units is a camera An image information recognition unit for recognizing the lane information based on image information captured by the image information recognition unit, and the weighting coefficient setting unit is configured so that the reliability of the image information recognition unit decreases as the reliability of the image information recognition unit decreases. You may make it change the said weighting coefficient with respect to a recognition result. According to the above configuration, the lane information (integrated road environment) can be accurately recognized because the weighting coefficient is appropriately changed.

前記画像情報認識部の前記信頼度が低くなる前記状態は、前記車両が交差点を走行する状況であってもよい。上記構成によれば、レーンマークが存在しない交差点でカメラの画像情報に基づく認識結果の重み付け係数を変更するため、統合結果としてのレーン情報の推定精度を高くすることができる。   The state in which the reliability of the image information recognition unit is low may be a situation in which the vehicle travels an intersection. According to the above configuration, since the weighting coefficient of the recognition result based on the image information of the camera is changed at an intersection where no lane mark exists, the estimation accuracy of the lane information as the integration result can be increased.

前記画像情報認識部は、前記信頼度が低くなる前記状態で、過去の前記画像情報を用いて仮想レーンを生成してもよい。上記構成によれば、レーンマークが存在しない状況でも仮想レーンを生成するため、画像情報に基づく認識結果を出力することができる。従って、統合結果としてのレーン情報の推定精度を高くすることができる。   The image information recognition unit may generate a virtual lane using the past image information in the state where the reliability is low. According to the above configuration, since a virtual lane is generated even in a situation where no lane mark exists, a recognition result based on image information can be output. Therefore, the estimation accuracy of the lane information as the integration result can be increased.

前記画像情報認識部は、前記信頼度が低くなる前記状態で、前記画像情報に基づいて認識可能な前記レーン情報を用いて仮想レーンを生成してもよい。上記構成によれば、レーンマークが存在しない状況でも仮想レーンを生成するため、画像情報に基づく認識結果を出力することができる。従って、統合結果としてのレーン情報の推定精度を高くすることができる。   The image information recognition unit may generate a virtual lane using the lane information that can be recognized based on the image information in the state where the reliability is low. According to the above configuration, since a virtual lane is generated even in a situation where no lane mark exists, a recognition result based on image information can be output. Therefore, the estimation accuracy of the lane information as the integration result can be increased.

前記認識部の1つは、地図情報に基づいて前記レーン情報を認識する地図情報認識部であり、前記道路環境推定部は、前記画像情報認識部の認識結果に対する前記重み付け係数と、前記地図情報認識部の認識結果に対する前記重み付け係数と、前記画像情報認識部が前記画像情報に基づいて認識する前記レーン情報と、前記地図情報認識部が前記地図情報に基づいて認識する前記レーン情報とに基づいて、前記統合道路環境としての前記レーン情報を推定するようにしてもよい。上記構成によれば、カメラで撮影される画像情報に基づいて認識されるレーン情報と、地図情報に基づいて認識されるレーン情報と、個々の認識部の信頼度に応じたレーン情報が推定されるため、適切なレーン情報を取得することができる。   One of the recognition units is a map information recognition unit that recognizes the lane information based on map information, and the road environment estimation unit includes the weighting coefficient for the recognition result of the image information recognition unit, and the map information. Based on the weighting coefficient for the recognition result of the recognition unit, the lane information recognized by the image information recognition unit based on the image information, and the lane information recognized by the map information recognition unit based on the map information. Thus, the lane information as the integrated road environment may be estimated. According to the above configuration, the lane information recognized based on the image information captured by the camera, the lane information recognized based on the map information, and the lane information corresponding to the reliability of each recognition unit are estimated. Therefore, appropriate lane information can be acquired.

車両制御装置は、前記状態に基づいて複数の前記認識部の信頼度を個別に判定する信頼度判定部を備え、前記道路環境は、停止線情報であり、前記認識部の1つは、カメラで撮影される画像情報に基づいて前記停止線情報を認識する画像情報認識部であり、前記重み付け係数設定部は、前記画像情報認識部の前記信頼度が低くなるに伴って前記画像情報認識部の認識結果に対する前記重み付け係数を変更するようにしてもよい。上記構成によれば、重み付け係数を適宜変更するため、停止線情報(統合道路環境)を精度よく認識することができる。   The vehicle control device includes a reliability determination unit that individually determines the reliability of the plurality of recognition units based on the state, the road environment is stop line information, and one of the recognition units is a camera An image information recognizing unit that recognizes the stop line information based on image information captured by the image information recognizing unit as the reliability of the image information recognizing unit decreases. The weighting coefficient for the recognition result may be changed. According to the above configuration, the stop line information (integrated road environment) can be accurately recognized because the weighting coefficient is appropriately changed.

前記状態情報には前記認識部による前記道路環境の認識タイミングに関する情報が含まれており、前記信頼度判定部は、任意の前記認識部の最近の前記認識タイミングが他の前記認識部の最近の前記認識タイミングよりも前記信頼度の判定タイミングに近い場合に、任意の前記認識部の前記信頼度を他の前記認識部の前記信頼度よりも高くしてもよい。上記構成によれば、相対的に認識結果が新しい認識部の信頼度を高くするため、統合結果としての停止線情報(統合道路環境)の精度を高くすることができる。   The state information includes information related to the recognition timing of the road environment by the recognition unit, and the reliability determination unit determines that the latest recognition timing of any of the recognition units is the latest of other recognition units. When the reliability is closer to the determination timing of the reliability than the recognition timing, the reliability of any of the recognition units may be higher than the reliability of the other recognition units. According to the above configuration, since the reliability of the recognition unit having a relatively new recognition result is increased, the accuracy of the stop line information (integrated road environment) as the integration result can be increased.

本発明によれば、認識処理の切り替えの際に道路環境の認識精度が低くなるという事象が発生しなくなり、道路環境を認識できるようになる。   According to the present invention, when the recognition process is switched, an event that the recognition accuracy of the road environment becomes low does not occur, and the road environment can be recognized.

図1は情報提供システムの構成図である。FIG. 1 is a configuration diagram of an information providing system. 図2は第1実施形態に係る車両制御装置を備えた車両の構成図である。FIG. 2 is a configuration diagram of a vehicle including the vehicle control device according to the first embodiment. 図3は第1実施形態で使用されるレーン認識部の機能ブロック図である。FIG. 3 is a functional block diagram of the lane recognition unit used in the first embodiment. 図4は第1実施形態の状況及び交差点周辺での信頼度の説明図である。FIG. 4 is an explanatory diagram of the situation in the first embodiment and the reliability around the intersection. 図5は各種タイミングと信頼度の説明図である。FIG. 5 is an explanatory diagram of various timings and reliability. 図6は第1実施形態で行われる処理のフローチャートである。FIG. 6 is a flowchart of processing performed in the first embodiment. 図7は第2実施形態に係る車両制御装置を備えた車両の構成図である。FIG. 7 is a configuration diagram of a vehicle including the vehicle control device according to the second embodiment. 図8は第2実施形態で使用される停止線認識部の機能ブロック図である。FIG. 8 is a functional block diagram of the stop line recognition unit used in the second embodiment. 図9は第2実施形態の状況説明図である。FIG. 9 is an explanatory diagram of the situation of the second embodiment. 図10は第2実施形態で行われる処理のフローチャートである。FIG. 10 is a flowchart of processing performed in the second embodiment.

以下、本発明に係る車両制御装置について、好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, a vehicle control apparatus according to the present invention will be described in detail with reference to the accompanying drawings by giving preferred embodiments.

[1 情報提供システム10]
図1を用いて各実施形態で使用される情報提供システム10の構成について説明する。情報提供システム10は、情報提供サーバ12と、複数の自動運転車両16(以下「車両16」ともいう。)と、路側機18と、放送局20を含む。
[1 Information providing system 10]
The configuration of the information providing system 10 used in each embodiment will be described with reference to FIG. The information providing system 10 includes an information providing server 12, a plurality of autonomous driving vehicles 16 (hereinafter also referred to as “vehicles 16”), a roadside device 18, and a broadcasting station 20.

情報提供サーバ12は、車両16に対して路側機18と放送局20の少なくとも一方を介して、渋滞情報、道路の規制情報、気象情報(各地の天気情報及び天気予報情報を含む)、交通信号情報等を提供する。図1において情報提供サーバ12は1つのみ示されているが、提供する情報に応じて複数の情報提供サーバ12が設けられていてもよい。路側機18は道路に沿って設けられる。放送局20は各地域に設けられる。   The information providing server 12 sends traffic information, road regulation information, weather information (including weather information and weather forecast information), traffic signals to the vehicle 16 via at least one of the roadside device 18 and the broadcasting station 20. Provide information. Although only one information providing server 12 is shown in FIG. 1, a plurality of information providing servers 12 may be provided according to information to be provided. The roadside machine 18 is provided along the road. The broadcasting station 20 is provided in each region.

[2 第1実施形態]
第1実施形態は、車両16が走行するレーン92(図4参照)を道路環境とするものであり、レーン92を複数のモジュールで認識し、認識された各レーン情報を統合して統合レーン情報を推定するものである。
[2 First Embodiment]
In the first embodiment, a lane 92 (see FIG. 4) in which the vehicle 16 travels is used as a road environment. The lane 92 is recognized by a plurality of modules, and the recognized lane information is integrated to obtain integrated lane information. Is estimated.

[2−1 車両16の構成]
図2を用いて第1実施形態に係る車両16及び車両制御装置26の構成について説明する。本明細書において、自動運転というのは、車両16の走行制御を全て自動で行う「完全自動運転」のみならず、車両16の走行制御を部分的に自動で行う「部分自動運転」や「運転支援」も含む概念である。本明細書では、駆動力制御、制動制御、操舵制御のそれぞれを自動制御と手動制御の間で切り替えが可能な車両16を想定する。車両16は、自動運転を実行するための構成として、外界情報取得装置22と、車両センサ24と、車両制御装置26と、駆動力装置28と、操舵装置30と、制動装置32と、報知装置34を有する。
[2-1 Configuration of Vehicle 16]
The configuration of the vehicle 16 and the vehicle control device 26 according to the first embodiment will be described with reference to FIG. In this specification, the term “automatic driving” refers not only to “full automatic driving” in which the driving control of the vehicle 16 is automatically performed, but also “partial automatic driving” in which driving control of the vehicle 16 is partially performed automatically This concept includes “support”. In the present specification, it is assumed that the vehicle 16 is capable of switching between driving control, braking control, and steering control between automatic control and manual control. The vehicle 16 is configured to execute automatic driving as an outside world information acquisition device 22, a vehicle sensor 24, a vehicle control device 26, a driving force device 28, a steering device 30, a braking device 32, and a notification device. 34.

外界情報取得装置22は、1又は複数のカメラ38と、複数のレーダ40と、複数のLIDAR42と、ナビゲーション装置44と、通信部46を有する。カメラ38は車両16の前方を撮影する。レーダ40は車両16の周囲に電磁波を照射すると共に電磁波照射に対する反射波を検出する。LIDAR42は車両16の周囲にレーザを照射すると共にレーザ照射に対する散乱光を検出する。なお、カメラ38により撮影される画像情報とレーダ40により取得される検出情報とを融合するフュージョンセンサを用いることも可能である。   The outside world information acquisition device 22 includes one or more cameras 38, a plurality of radars 40, a plurality of LIDARs 42, a navigation device 44, and a communication unit 46. The camera 38 images the front of the vehicle 16. The radar 40 irradiates an electromagnetic wave around the vehicle 16 and detects a reflected wave with respect to the electromagnetic wave irradiation. The LIDAR 42 irradiates a laser around the vehicle 16 and detects scattered light in response to the laser irradiation. It is also possible to use a fusion sensor that fuses image information captured by the camera 38 and detection information acquired by the radar 40.

ナビゲーション装置44は、記憶部44aに保存される地図情報を参照しつつ、衛星測位装置や車両センサ24等の検出情報を用いて車両16の現在位置を測定し、その現在位置からユーザが指定した目的地までの走行経路を生成する。ナビゲーション装置44は、ユーザインタフェースとして、操作スイッチ(タッチパネルを含む)、ディスプレイ及びスピーカを有し、生成された走行経路を表示すると共に、走行経路を音声案内する。   The navigation device 44 measures the current position of the vehicle 16 using detection information from the satellite positioning device, the vehicle sensor 24, and the like while referring to the map information stored in the storage unit 44a, and the user designates from the current position. A travel route to the destination is generated. The navigation device 44 includes an operation switch (including a touch panel), a display, and a speaker as a user interface, displays the generated travel route, and provides voice guidance for the travel route.

通信部46は、複数の通信装置を有する。第1通信装置46aは、放送局20から送信される広域の渋滞情報、気象情報等を受信可能である。第2通信装置46bは、路側機18から送信される渋滞情報、規制情報、交通信号情報等を受信可能である。第3通信装置46cは、他の車両16に設けられる第3通信装置46cとの間で各種情報を送受信可能である。   The communication unit 46 includes a plurality of communication devices. The first communication device 46a can receive wide-area traffic jam information, weather information, and the like transmitted from the broadcast station 20. The second communication device 46b can receive traffic information, regulation information, traffic signal information, and the like transmitted from the roadside device 18. The third communication device 46 c can transmit and receive various types of information to and from the third communication device 46 c provided in the other vehicle 16.

車両センサ24は、車両16の各種挙動を検出する複数のセンサを有する。例えば、車両16の速度(車速)を検出する速度(車速)センサ、加減速度を検出する加速度センサ、横Gを検出する横Gセンサ、車両16の垂直軸周りの角速度を検出するヨーレートセンサ、車両16の向きを検出する方位センサ、車両16の勾配を検出する勾配センサ等を有する。また、車両センサ24は、各操作デバイス(アクセルペダル、ステアリングホイール、ブレーキペダル、シフトレバー、方向指示レバー等)の操作の有無、操作量、操作位置を検出する操作検出センサを含む。例えば、アクセル踏込(開度)量を検出するアクセルペダルセンサ、ステアリングホイールの操作量(操舵角)を検出する舵角センサ、操舵トルクを検出するトルクセンサ、ブレーキ踏込量を検出するブレーキペダルセンサ、シフト位置を検出するシフトセンサ等を有する。   The vehicle sensor 24 includes a plurality of sensors that detect various behaviors of the vehicle 16. For example, a speed (vehicle speed) sensor that detects the speed (vehicle speed) of the vehicle 16, an acceleration sensor that detects acceleration / deceleration, a lateral G sensor that detects lateral G, a yaw rate sensor that detects an angular velocity around the vertical axis of the vehicle 16, a vehicle An azimuth sensor that detects the direction of the vehicle 16, a gradient sensor that detects the gradient of the vehicle 16, and the like. Further, the vehicle sensor 24 includes an operation detection sensor that detects the presence / absence, operation amount, and operation position of each operation device (accelerator pedal, steering wheel, brake pedal, shift lever, direction instruction lever, etc.). For example, an accelerator pedal sensor that detects an accelerator depression (opening) amount, a steering angle sensor that detects an operation amount (steering angle) of a steering wheel, a torque sensor that detects steering torque, a brake pedal sensor that detects a brake depression amount, A shift sensor for detecting a shift position is included.

車両制御装置26は、1又は複数のECUにより構成され、CPU50と記憶装置52とクロック54等を有する。本実施形態では、CPU50が記憶装置52に記憶されているプログラムを実行することにより、後述する各機能実現部60、62、64、66、68、70が実現される。なお、集積回路等からなるハードウエアにより各機能実現部60、62、64、66、68、70を実現することもできる。各機能実現部60、62、64、66、68、70については下記[2−2]にて説明する。   The vehicle control device 26 includes one or more ECUs, and includes a CPU 50, a storage device 52, a clock 54, and the like. In the present embodiment, the CPU 50 executes the program stored in the storage device 52, thereby realizing each function realizing unit 60, 62, 64, 66, 68, 70 described later. The function implementing units 60, 62, 64, 66, 68, and 70 can be realized by hardware including an integrated circuit. The function implementation units 60, 62, 64, 66, 68, and 70 will be described in [2-2] below.

駆動力装置28は、駆動力ECUと、エンジン及び/又は駆動モータ等の車両16の駆動源を有する。駆動力装置28は、車両制御部66から出力される制御指令に従って車両16が走行するための走行駆動力(トルク)を生成し、トランスミッションを介し、あるいは直接車輪に伝達する。   The driving force device 28 includes a driving force ECU and a driving source of the vehicle 16 such as an engine and / or a driving motor. The driving force device 28 generates a traveling driving force (torque) for the vehicle 16 to travel in accordance with a control command output from the vehicle control unit 66, and transmits the traveling driving force (torque) to the wheels via the transmission or directly.

操舵装置30は、EPS(電動パワーステアリングシステム)ECUと、EPS装置を有する。操舵装置30は、車両制御部66から出力される制御指令に従って車輪(操舵輪)の向きを変更する。   The steering device 30 includes an EPS (electric power steering system) ECU and an EPS device. The steering device 30 changes the direction of the wheel (steering wheel) in accordance with a control command output from the vehicle control unit 66.

制動装置32は、例えば、油圧式ブレーキを併用する電動サーボブレーキであって、ブレーキECUと、ブレーキアクチュエータを有する。制動装置32は、車両制御部66から出力される制御指令に従って車輪を制動する。   The braking device 32 is, for example, an electric servo brake that uses a hydraulic brake together, and includes a brake ECU and a brake actuator. The braking device 32 brakes the wheel in accordance with a control command output from the vehicle control unit 66.

報知装置34は、報知ECUと、表示装置及び/又は音響装置を有する。報知装置34は、報知制御部68から出力される報知指令に従って手動運転の要求、警告、案内等を報知する。   The notification device 34 includes a notification ECU, a display device, and / or an acoustic device. The notification device 34 notifies a manual operation request, warning, guidance, and the like in accordance with a notification command output from the notification control unit 68.

[2−2 各機能実現部60、62、64、66、68、70]
図2及び図3を用いて車両制御装置26の各機能実現部60、62、64、66、68、70について説明する。外界認識部60は、外界情報取得装置22により取得される各種情報に基づいて車両16の周辺の道路環境{道路構造物、レーン92(レーンマーク90)、停止線200(図9参照)、信号機、標識等}及び交通参加者(他車両、歩行者、障害物等)を認識する。第1実施形態に係る外界認識部60は、レーン認識部72とその他認識部74に分けられる。
[2-2 Function realization units 60, 62, 64, 66, 68, 70]
Each function realization part 60, 62, 64, 66, 68, 70 of the vehicle control apparatus 26 is demonstrated using FIG.2 and FIG.3. The outside world recognition unit 60 is based on various information acquired by the outside world information acquisition device 22, and the road environment around the vehicle 16 {road structure, lane 92 (lane mark 90), stop line 200 (see FIG. 9), traffic light , Signs, etc.} and traffic participants (other vehicles, pedestrians, obstacles, etc.). The external recognition unit 60 according to the first embodiment is divided into a lane recognition unit 72 and other recognition unit 74.

図3で示すように、レーン認識部72は、画像情報認識部80と、地図情報認識部82と、信頼度判定部84と、重み付け係数設定部86と、レーン情報推定部88を有する。画像情報認識部80は、カメラ38で撮影される画像情報に基づいてレーン情報を認識する。例えば、ハフ変換等のエッジ抽出を行い、レーンマーク90の有無及びそれらの位置を認識し、車両16が走行するレーン92を認識する。以下では、画像情報認識部80を「認識部80」ともいう。地図情報認識部82は、ナビゲーション装置44の記憶部44aに保存される地図情報に基づいてレーン情報を認識する。ナビゲーション装置44は車両16の走行位置を測定している。地図情報認識部82は、その走行位置よりも前方のレーン92のノードを地図情報から取得し、車両16が走行するレーン92を認識する。以下では、地図情報認識部82を「認識部82」ともいう。なお、本明細書では、レーンマーク90の位置情報やノードの位置情報等、レーン92の位置を特定できる情報を総称してレーン情報という。   As illustrated in FIG. 3, the lane recognition unit 72 includes an image information recognition unit 80, a map information recognition unit 82, a reliability determination unit 84, a weighting coefficient setting unit 86, and a lane information estimation unit 88. The image information recognition unit 80 recognizes lane information based on image information captured by the camera 38. For example, edge extraction such as Hough transform is performed, the presence or absence of the lane marks 90 and their positions are recognized, and the lane 92 on which the vehicle 16 travels is recognized. Hereinafter, the image information recognition unit 80 is also referred to as a “recognition unit 80”. The map information recognition unit 82 recognizes lane information based on the map information stored in the storage unit 44 a of the navigation device 44. The navigation device 44 measures the traveling position of the vehicle 16. The map information recognition unit 82 acquires the node of the lane 92 ahead of the travel position from the map information, and recognizes the lane 92 in which the vehicle 16 travels. Hereinafter, the map information recognition unit 82 is also referred to as a “recognition unit 82”. In this specification, information that can specify the position of the lane 92, such as the position information of the lane mark 90 and the position information of the node, is collectively referred to as lane information.

信頼度判定部84は、画像情報認識部80の信頼度R11及び地図情報認識部82の信頼度R12を車両16の内外の状態に基づいて判定する。認識部80、82の信頼度R11、R12は車両16の内外の状態が変化するに伴い変化する。本明細書では、車両16の内外の状態のうち、認識部80、82の信頼度R11、R12と相関する状態を示す情報を状態情報という。状態情報の具体例は下記[2−3]で説明する。信頼度判定部84は、1種類又は複数種類の状態情報を所定規則に基づいて数値化して状態パラメータP1を求める。そして、状態パラメータP1と信頼度R11、R12とを関連付けるマップ(テーブル)M1を使用して信頼度R11、R12を判定する。マップM1及び数値化の所定規則は記憶装置52に保存される。   The reliability determination unit 84 determines the reliability R11 of the image information recognition unit 80 and the reliability R12 of the map information recognition unit 82 based on the inside and outside states of the vehicle 16. The reliability R11, R12 of the recognition units 80, 82 changes as the state inside and outside the vehicle 16 changes. In the present specification, information indicating a state that correlates with the reliability R11 or R12 of the recognition units 80 and 82 among the internal and external states of the vehicle 16 is referred to as state information. A specific example of the state information will be described in [2-3] below. The reliability determination unit 84 obtains a state parameter P1 by digitizing one or more types of state information based on a predetermined rule. Then, the reliability R11, R12 is determined using the map (table) M1 that associates the state parameter P1 with the reliability R11, R12. The map M1 and the predetermined rules for digitization are stored in the storage device 52.

重み付け係数設定部86は、画像情報認識部80の認識結果に対する重み付け係数C11及び地図情報認識部82の認識結果に対する重み付け係数C12を、信頼度R11、R12に基づいて設定する。重み付け係数C11、C12を設定する具体的な方法については下記[2−4]で説明する。   The weighting coefficient setting unit 86 sets the weighting coefficient C11 for the recognition result of the image information recognition unit 80 and the weighting coefficient C12 for the recognition result of the map information recognition unit 82 based on the reliability R11, R12. A specific method for setting the weighting coefficients C11 and C12 will be described in [2-4] below.

レーン情報推定部88は、画像情報認識部80及び地図情報認識部82の認識結果と重み付け係数C11、C12を用いて統合レーン情報(統合道路環境)を推定する。統合レーン情報というのは、画像情報認識部80が画像情報に基づいて認識するレーン情報と、地図情報認識部82が地図情報に基づいて認識するレーン情報を、重み付け係数C11、C12に応じて統合したものである。統合レーン情報を推定する具体的な方法については下記[2−4]で説明する。   The lane information estimation unit 88 estimates integrated lane information (integrated road environment) using the recognition results of the image information recognition unit 80 and the map information recognition unit 82 and the weighting coefficients C11 and C12. The integrated lane information means that the lane information recognized by the image information recognition unit 80 based on the image information and the lane information recognized by the map information recognition unit 82 based on the map information are integrated according to the weighting coefficients C11 and C12. It is a thing. A specific method for estimating the integrated lane information will be described in [2-4] below.

図2に戻り外界認識部60の説明を続ける。その他認識部74は、カメラ38の画像情報、レーダ40の検出情報、LIDAR42の検出情報、ナビゲーション装置44の地図情報、通信部46の通信情報の少なくとも1つに基づいてレーン92以外の外界情報の位置や挙動を認識する。   Returning to FIG. 2, the description of the external recognition unit 60 will be continued. The other recognizing unit 74 is configured to store external information other than the lane 92 based on at least one of the image information of the camera 38, the detection information of the radar 40, the detection information of the LIDAR 42, the map information of the navigation device 44, and the communication information of the communication unit 46. Recognize position and behavior.

自車位置認識部62は、ナビゲーション装置44により測定される車両16の位置情報に基づいて車両16の現在位置と姿勢を認識する。これとは別に、ナビゲーション装置44を用いずに、衛星測位装置や車両センサ24等の検出情報を用いて車両16の現在位置を測定し、車両16の現在位置と姿勢を認識することも可能である。   The own vehicle position recognition unit 62 recognizes the current position and posture of the vehicle 16 based on the position information of the vehicle 16 measured by the navigation device 44. Apart from this, it is also possible to measure the current position of the vehicle 16 using detection information from the satellite positioning device, the vehicle sensor 24, etc. without using the navigation device 44, and to recognize the current position and posture of the vehicle 16. is there.

軌道生成部64は、ナビゲーション装置44により生成された走行経路に沿って車両16を走行させるために、外界認識部60の認識結果と自車位置認識部62の認識結果に基づいて車両16の目標走行軌道と目標速度を生成する。   The track generation unit 64 causes the vehicle 16 to travel along the travel route generated by the navigation device 44, based on the recognition result of the external environment recognition unit 60 and the recognition result of the vehicle position recognition unit 62. Generate travel trajectory and target speed.

車両制御部66は、駆動力装置28と操舵装置30と制動装置32に対して制御指令を出力する。車両制御部66は、自動運転の際に、軌道生成部64で生成された目標走行軌道に沿って目標速度で車両16を走行させるように制御指令を出力し、手動運転の際に、車両センサ24(操作検出センサ)の検出結果に基づいて制御指令を出力する。   The vehicle control unit 66 outputs a control command to the driving force device 28, the steering device 30, and the braking device 32. The vehicle control unit 66 outputs a control command so that the vehicle 16 travels at the target speed along the target travel trajectory generated by the trajectory generation unit 64 during automatic driving, and the vehicle sensor during manual driving. A control command is output based on the detection result of 24 (operation detection sensor).

報知制御部68は、ドライバに対する報知が必要な場合、例えば自動運転を停止する場合に、報知装置34に対して報知指令を出力する。   The notification control unit 68 outputs a notification command to the notification device 34 when notification to the driver is necessary, for example, when automatic driving is stopped.

自動運転制御部70は、自動運転を統括制御する。自動運転制御部70は、ドライバが行う自動運転スイッチの操作に応じて自動運転を開始させるか、又は、停止させる。また、自動運転制御部70は、自動運転中に車両センサ24によりいずれかの操作デバイスの手動操作が検出された場合に自動運転を停止させる。   The automatic operation control unit 70 performs overall control of automatic operation. The automatic driving control unit 70 starts or stops the automatic driving according to the operation of the automatic driving switch performed by the driver. Moreover, the automatic driving | operation control part 70 stops automatic driving | operation, when the manual operation of one of operation devices is detected by the vehicle sensor 24 during automatic driving | operation.

[2−3 状態情報と信頼度との関係]
上述したように、信頼度判定部84は、車両16の内外の状態を示す1又は複数の状態情報に基づいて認識部80、82の信頼度R11、R12を判定する。状態情報の具体例としては、例えば、交差点94(図4参照)に関する情報、走行路の曲率を示す情報、走行地域の天候を示す情報、現時点の時刻を示す情報、レーン情報(道路環境を示す情報)の鮮度を示す情報等が挙げられる。
[2-3 Relationship between state information and reliability]
As described above, the reliability determination unit 84 determines the reliability R11 and R12 of the recognition units 80 and 82 based on one or a plurality of state information indicating the internal and external states of the vehicle 16. Specific examples of the state information include, for example, information on the intersection 94 (see FIG. 4), information indicating the curvature of the travel route, information indicating the weather in the travel region, information indicating the current time, lane information (showing the road environment) Information) indicating the freshness of the information.

交差点94に関する情報というのは、車両16から所定距離内に交差点94があるか否か、車両16から交差点94までの距離、交差点94の大きさ等を示す情報である。交差点94に関する情報はナビゲーション装置44の地図情報から取得できる。図4で示すように、交差点94にはレーンマーク90が存在しない。この場合、画像情報認識部80は仮想レーン92´を生成する。これは信頼度R11が低い状況であることを意味する。信頼度R11は、交差点94がある場合、すなわち仮想レーン92´が生成されている場合に低い。また、信頼度R11は、車両16と交差点94との距離が短くなるほど低くなり、距離が長くなるほど高くなる。また、信頼度R11は、交差点94が大きくなるほど低くなり、交差点94が小さくなるほど高くなる。一方、信頼度R12は、信頼度R11と相反する。信頼度R12は、交差点94がある場合、すなわち仮想レーン92´が生成されている場合に高い。すなわち、信頼度R12は、車両16と交差点94との距離が短くなるほど高くなり、距離が長くなるほど低くなる。また、信頼度R12は、交差点94が大きくなるほど高くなり、交差点94が小さくなるほど低くなる。   The information regarding the intersection 94 is information indicating whether or not the intersection 94 is within a predetermined distance from the vehicle 16, the distance from the vehicle 16 to the intersection 94, the size of the intersection 94, and the like. Information regarding the intersection 94 can be acquired from the map information of the navigation device 44. As shown in FIG. 4, the lane mark 90 does not exist at the intersection 94. In this case, the image information recognition unit 80 generates a virtual lane 92 ′. This means that the reliability R11 is low. The reliability R11 is low when there is an intersection 94, that is, when a virtual lane 92 'is generated. In addition, the reliability R11 decreases as the distance between the vehicle 16 and the intersection 94 decreases, and increases as the distance increases. Further, the reliability R11 decreases as the intersection 94 increases, and increases as the intersection 94 decreases. On the other hand, the reliability R12 is contrary to the reliability R11. The reliability R12 is high when there is an intersection 94, that is, when a virtual lane 92 'is generated. That is, the reliability R12 increases as the distance between the vehicle 16 and the intersection 94 decreases, and decreases as the distance increases. In addition, the reliability R12 increases as the intersection 94 increases, and decreases as the intersection 94 decreases.

走行路の曲率を示す情報はナビゲーション装置44の地図情報から取得でき、走行路をカメラ38で撮影できる場合は画像情報からも取得できる。信頼度R11は、曲率が小さくなるほど低くなり、曲率が大きくなるほど高くなる。一方、信頼度R12は、曲率が小さくなるほど高くなり、曲率が大きくなるほど低くなる。   Information indicating the curvature of the travel path can be acquired from the map information of the navigation device 44, and can also be acquired from the image information when the travel path can be photographed by the camera 38. The reliability R11 decreases as the curvature decreases, and increases as the curvature increases. On the other hand, the reliability R12 increases as the curvature decreases, and decreases as the curvature increases.

走行地域の天候を示す情報は情報提供サーバ12が放送局20又は路側機18を介して送信する気象情報から取得できる。信頼度R11は、天候が雨(雪)に近いほど低くなり、天候が晴れに近いほど高くなる。一方、信頼度R12は、天候が雨(雪)に近いほど高くなり、天候が晴れに近いほど低くなる。   Information indicating the weather in the travel area can be acquired from weather information transmitted from the information providing server 12 via the broadcast station 20 or the roadside device 18. The reliability R11 is lower as the weather is closer to rain (snow), and is higher as the weather is closer to sunny. On the other hand, the reliability R12 increases as the weather is closer to rain (snow), and decreases as the weather is closer to sunny.

現時点の時刻を示す情報はクロック54から取得できる。信頼度R11は、時刻が夜間に近いほど低くなり、時刻が昼間に近いほど高くなる。一方、信頼度R12は、時刻が夜間に近いほど高くなり、時刻が昼間に近いほど低くなる。   Information indicating the current time can be acquired from the clock 54. The reliability R11 is lower as the time is closer to night, and is higher as the time is closer to daytime. On the other hand, the reliability R12 increases as the time is closer to night, and decreases as the time is closer to daytime.

図5を用いてレーン情報(道路環境を示す情報)の鮮度について説明する。レーン情報の鮮度というのは、画像情報認識部80により認識されるレーン情報と地図情報認識部82により認識されるレーン情報のどちらが新しいかを示す情報である。レーン情報の鮮度は、画像情報認識部80によるレーン情報の認識タイミング110及び地図情報認識部82によるレーン情報の認識タイミング112から判別される。画像情報認識部80によるレーン情報の認識周期T1と地図情報認識部82によるレーン情報の認識周期T2は相違する。このため、認識タイミング110と認識タイミング112にはズレが生ずる。信頼度判定部84による信頼度R11、R12の判定タイミング114から遡って最も近いタイミングで認識処理を行った認識部80、82の信頼度R11、R12は相対的に高い。信頼度R11は、認識タイミング110と判定タイミング114との時間差が、認識タイミング112と判定タイミング114との時間差よりも大きい場合に低く、小さい場合に高い。一方、信頼度R12は、認識タイミング110と判定タイミング114との時間差が、認識タイミング112と判定タイミング114との時間差よりも大きい場合に高く、小さい場合に低い。   The freshness of the lane information (information indicating the road environment) will be described with reference to FIG. The freshness of the lane information is information indicating which of the lane information recognized by the image information recognition unit 80 and the lane information recognized by the map information recognition unit 82 is newer. The freshness of the lane information is determined from the lane information recognition timing 110 by the image information recognition unit 80 and the lane information recognition timing 112 by the map information recognition unit 82. The lane information recognition cycle T1 by the image information recognition unit 80 and the lane information recognition cycle T2 by the map information recognition unit 82 are different. For this reason, there is a difference between the recognition timing 110 and the recognition timing 112. The reliability R11 and R12 of the recognition units 80 and 82 that have performed recognition processing at the closest timing retroactively from the determination timing 114 of the reliability R11 and R12 by the reliability determination unit 84 are relatively high. The reliability R11 is low when the time difference between the recognition timing 110 and the determination timing 114 is larger than the time difference between the recognition timing 112 and the determination timing 114, and is high when the time difference is small. On the other hand, the reliability R12 is high when the time difference between the recognition timing 110 and the determination timing 114 is larger than the time difference between the recognition timing 112 and the determination timing 114, and is low when the time difference is small.

[2−4 重み付け係数の設定方法及び統合レーン情報の推定方法]
重み付け係数設定部86及びレーン情報推定部88は、下記方法1又は方法2のいずれかにより重み付け係数を設定し、統合レーン情報を推定する。なお、以下の説明にある「認識部80、82の認識結果」の一例としては、基準方向(例えば車両16の進行方向)に対するレーン92(レーンマーク90)の延在方向の角度が挙げられる。
[2-4 Weighting coefficient setting method and integrated lane information estimation method]
The weighting coefficient setting unit 86 and the lane information estimation unit 88 set the weighting coefficient by either method 1 or method 2 below, and estimate integrated lane information. As an example of the “recognition result of the recognition units 80 and 82” in the following description, an angle in the extending direction of the lane 92 (lane mark 90) with respect to the reference direction (for example, the traveling direction of the vehicle 16) can be given.

[2−4−1 方法1]
重み付け係数設定部86は、認識部80、82の認識結果のうち、信頼度が相対的に高い認識部80、82の認識結果に対する重み付け係数(C11又はC12)を基準値1とする。また、信頼度が相対的に低い認識部80、82の認識結果に対する重み付け係数(C11又はC12)を、認識部80、82の認識結果及び信頼度R11、R12を用いる所定の変換式又はマップから算出する。例えば、認識部80の信頼度R11が認識部82の信頼度R12よりも高い場合、重み付け係数設定部86は、(重み付け係数C12×認識部82の認識結果)が(重み付け係数C11×認識部80の認識結果)に近づき、且つ、超えないような重み付け係数C12を算出する。信頼度R12が低いほど(重み付け係数C12×認識部82の認識結果)が(重み付け係数C11×認識部80の認識結果)に近づくように、重み付け係数C12は設定される。同様に、認識部82の信頼度R12が認識部80の信頼度R11よりも高い場合、重み付け係数設定部86は、(重み付け係数C11×認識部80の認識結果)が(重み付け係数C12×認識部82の認識結果)に近づき、且つ、超えないような重み付け係数C11を算出する。信頼度R11が低いほど(重み付け係数C11×認識部80の認識結果)が(重み付け係数C12×認識部82の認識結果)に近づくように、重み付け係数C11は設定される。
[2-4-1 Method 1]
The weighting coefficient setting unit 86 sets the weighting coefficient (C11 or C12) for the recognition results of the recognition units 80 and 82 having relatively high reliability among the recognition results of the recognition units 80 and 82 as the reference value 1. Further, the weighting coefficient (C11 or C12) for the recognition results of the recognition units 80 and 82 with relatively low reliability is obtained from a predetermined conversion formula or map using the recognition results of the recognition units 80 and 82 and the reliability R11 and R12. calculate. For example, when the reliability R11 of the recognition unit 80 is higher than the reliability R12 of the recognition unit 82, the weighting coefficient setting unit 86 has (weighting coefficient C12 × recognition result of the recognition unit 82) (weighting coefficient C11 × recognition unit 80). The weighting coefficient C12 is calculated so as to approach and not exceed the recognition result. The weighting coefficient C12 is set so that (weighting coefficient C12 × recognition result of the recognition unit 82) approaches (weighting coefficient C11 × recognition result of the recognition unit 80) as the reliability R12 is lower. Similarly, when the reliability R12 of the recognition unit 82 is higher than the reliability R11 of the recognition unit 80, the weighting coefficient setting unit 86 has (weighting coefficient C11 × recognition result of the recognition unit 80) (weighting coefficient C12 × recognition unit). The weighting coefficient C11 is calculated so as to approach and not exceed the recognition result of 82). The weighting coefficient C11 is set so that (weighting coefficient C11 × recognition result of the recognition unit 80) approaches (weighting coefficient C12 × recognition result of the recognition unit 82) as the reliability R11 is lower.

レーン情報推定部88は、(重み付け係数C11×認識部80の認識結果)と(重み付け係数C12×認識部82の認識結果)とを足し合わせ、合計値を認識部80、82の数(ここでは2)で除算し、その演算結果を統合レーン情報とする。   The lane information estimation unit 88 adds (weighting coefficient C11 × recognition result of recognition unit 80) and (weighting coefficient C12 × recognition result of recognition unit 82), and adds the total value to the number of recognition units 80 and 82 (here, Divide by 2) and use the result as the integrated lane information.

[2−4−2 方法2]
重み付け係数設定部86は、重み付け係数C11、C12の合計値が1となるように、重み付け係数C11、C12を算出する。この際、重み付け係数C11、C12の割合を信頼度R11、R12の割合と等しくする。すなわち、C11+C12=1、且つ、R11:R12=C11:C12の両式から重み付け係数C11及びC12を算出する。
[2-4-2 Method 2]
The weighting coefficient setting unit 86 calculates the weighting coefficients C11 and C12 so that the total value of the weighting coefficients C11 and C12 is 1. At this time, the ratio of the weighting coefficients C11 and C12 is made equal to the ratio of the reliability R11 and R12. That is, the weighting coefficients C11 and C12 are calculated from both equations of C11 + C12 = 1 and R11: R12 = C11: C12.

レーン情報推定部88は、(重み付け係数C11×認識部80の認識結果)と(重み付け係数C12×認識部82の認識結果)とを足し合わせ、その演算結果を統合レーン情報とする。なお、方法1の演算と異なり、方法2の演算では認識部80、82の数での除算は行わない。   The lane information estimation unit 88 adds (weighting coefficient C11 × recognition result of the recognition unit 80) and (weighting coefficient C12 × recognition result of the recognition unit 82), and uses the calculation result as integrated lane information. Unlike the calculation of method 1, the calculation of method 2 does not divide by the number of recognition units 80 and 82.

[2−4−3 その他方法]
重み付け係数設定部86は、上記方法1、2以外の方法で重み付け係数C11、C12を算出することも可能である。要するに、信頼度R11、R12が相対的に高い認識部80、82の認識結果に対する重み付け係数C11、C12を他の重み付け係数C11、C12より重くするような処理であれば、どのような処理を用いてもよい。
[2-4-3 Other methods]
The weighting coefficient setting unit 86 can also calculate the weighting coefficients C11 and C12 by a method other than the above methods 1 and 2. In short, any process is used as long as the weighting coefficients C11 and C12 for the recognition results of the recognition units 80 and 82 having relatively high reliability R11 and R12 are heavier than the other weighting coefficients C11 and C12. May be.

[2−5 第1実施形態で実行される処理]
図6を用いて第1実施形態の処理について説明する。以下で説明する一連の処理は、外界認識部60が主体となり、所定時間毎に繰り返し実行される。以下で説明する一連の処理は、所定のタイミングで開始される。例えば、その他認識部74が、車両16の前方に交差点94を認識した場合に開始される。また、他のタイミングで開始されてもよい。
[2-5 Processes Executed in First Embodiment]
The process of 1st Embodiment is demonstrated using FIG. A series of processing described below is performed repeatedly at predetermined intervals with the outside recognition unit 60 as a main body. A series of processes described below is started at a predetermined timing. For example, the other recognition unit 74 is started when the intersection 94 is recognized in front of the vehicle 16. Moreover, you may start at another timing.

ステップS1において、自動運転中か否かが判定される。自動運転による走行制御が行われている場合(ステップS1:YES)、処理はステップS2に移行する。一方、自動運転による走行制御が行われていない場合(ステップS1:NO)、ステップS2以降の処理は実行されずに処理は一旦終了する。   In step S1, it is determined whether automatic driving is in progress. When traveling control by automatic driving is performed (step S1: YES), the process proceeds to step S2. On the other hand, when the traveling control by the automatic driving is not performed (step S1: NO), the processing is temporarily ended without executing the processing after step S2.

ステップS2において、画像情報認識部80は、カメラ38で撮影された最新の画像情報に基づいてレーン情報を認識する。また、地図情報認識部82はナビゲーション装置44の記憶部44aに保存される地図情報に基づいて現在走行位置の前方のレーン情報を認識する。   In step S <b> 2, the image information recognition unit 80 recognizes lane information based on the latest image information taken by the camera 38. Further, the map information recognition unit 82 recognizes lane information ahead of the current traveling position based on the map information stored in the storage unit 44 a of the navigation device 44.

図4で示すように、画像情報認識部80はレーンマーク90の認識精度が低くなる場合に、仮想レーン92´を生成する。仮想レーン92´は、認識可能な一部のレーンマーク90を使用して直線補間又は曲線補間を行うことにより生成することができる。例えば、交差点94にはレーンマーク90が存在しない。画像情報認識部80は、走行予定経路に基づいて交差点94からの退出路98を特定する。そして、交差点94への進入路96の出口96o付近に認識できるレーンマーク90と退出路98の入口98i付近に認識できるレーンマーク90を使用して直線補間又は曲線補間を行い、仮想レーンマーク90´及び仮想レーン92´を生成する。   As shown in FIG. 4, the image information recognition unit 80 generates a virtual lane 92 ′ when the recognition accuracy of the lane mark 90 is low. The virtual lane 92 ′ can be generated by performing linear interpolation or curve interpolation using a part of the recognizable lane marks 90. For example, the lane mark 90 does not exist at the intersection 94. The image information recognition unit 80 specifies the exit path 98 from the intersection 94 based on the planned travel route. Then, linear interpolation or curve interpolation is performed using the lane mark 90 that can be recognized near the exit 96o of the approach path 96 to the intersection 94 and the lane mark 90 that can be recognized near the entrance 98i of the exit path 98, and the virtual lane mark 90 '. And a virtual lane 92 'is generated.

画像情報認識部80は、交差点94への進入路96の出口96o及び交差点94からの退出路98の入口98iのレーンマーク90を使用するのではなく、単にその時点で認識できるレーンマーク90をその形状に従って車両16の前方に延ばし、仮想レーンマーク90´を生成してもよい。   The image information recognition unit 80 does not use the lane mark 90 at the exit 96o of the approach path 96 to the intersection 94 and the entrance 98i of the exit path 98 from the intersection 94, but simply recognizes the lane mark 90 that can be recognized at that time. The virtual lane mark 90 ′ may be generated by extending in front of the vehicle 16 according to the shape.

画像情報認識部80は、過去に取得した画像情報を用いて仮想レーンマーク90´を生成してもよい。記憶装置52には、現時点よりも一定時間前、又は、現位置よりも一定距離前のレーンマーク90の位置情報が逐次記憶される。画像情報認識部80は、その位置情報を使用し、過去のレーンマーク90をその形状に従って車両16の前方に延ばし、仮想レーンマーク90´を生成してもよい。記憶装置52には、過去のレーンマーク90の位置情報の代わりにレーンマーク90の向きの情報が記憶されていてもよい。その場合、画像情報認識部80は、過去のレーンマーク90をその向きに延ばし、仮想レーンマーク90´を生成する。   The image information recognition unit 80 may generate the virtual lane mark 90 ′ using image information acquired in the past. The storage device 52 sequentially stores the position information of the lane mark 90 a certain time before the current time or a certain distance before the current position. The image information recognition unit 80 may generate the virtual lane mark 90 ′ by using the position information and extending the past lane mark 90 in front of the vehicle 16 according to the shape. The storage device 52 may store information on the direction of the lane mark 90 instead of the position information of the past lane mark 90. In that case, the image information recognition unit 80 extends the past lane mark 90 in the direction to generate a virtual lane mark 90 ′.

また、画像情報認識部80は、第3通信装置46cを介して他の車両16から最新の画像情報又は現時点よりも一定時間前の画像情報を取得し、取得した情報を用いて仮想レーンマーク90´を生成してもよい。また、図示しない通信装置を介して外部のサーバに蓄積される走行位置の画像情報を取得し、取得した情報を用いて仮想レーンマーク90´を生成してもよい。この場合、各車両16は、通信装置を介して外部のサーバから画像情報を受信し、通信装置を介して外部のサーバにカメラ38で撮影した画像情報を送信する。   In addition, the image information recognition unit 80 acquires the latest image information or image information of a predetermined time before the current time from the other vehicle 16 via the third communication device 46c, and uses the acquired information to obtain the virtual lane mark 90. 'May be generated. Moreover, the image information of the driving | running | working position accumulate | stored in an external server via the communication apparatus which is not shown in figure may be acquired, and virtual lane mark 90 'may be produced | generated using the acquired information. In this case, each vehicle 16 receives image information from an external server via the communication device, and transmits image information captured by the camera 38 to the external server via the communication device.

ステップS3において、信頼度判定部84は、状態パラメータP1を求める。上述したように、信頼度判定部84は、1又は複数の状態情報を取得し、所定規則に基づいて状態パラメータP1を求める。   In step S3, the reliability determination unit 84 obtains the state parameter P1. As described above, the reliability determination unit 84 acquires one or a plurality of state information and obtains the state parameter P1 based on a predetermined rule.

ステップS4において、信頼度判定部84は、状態パラメータP1とマップM1に基づいて画像情報認識部80の信頼度R11及び地図情報認識部82の信頼度R12を判定する。一例として、信頼度R11、R12の判定処理を、交差点94に関する情報に対応する状態パラメータP1に基づいて行う場合を想定する。図4で示すように、交差点94にはレーンマーク90が存在しないため、仮想レーン92´が設定される。これは信頼度R11が低い状況であることを意味する。対して、信頼度R12は、交差点94に近くなるほど高くなり、交差点94から遠ざかるほど低くなる。   In step S4, the reliability determination unit 84 determines the reliability R11 of the image information recognition unit 80 and the reliability R12 of the map information recognition unit 82 based on the state parameter P1 and the map M1. As an example, it is assumed that the determination processing of the reliability R11, R12 is performed based on the state parameter P1 corresponding to the information related to the intersection 94. As shown in FIG. 4, since no lane mark 90 exists at the intersection 94, a virtual lane 92 ′ is set. This means that the reliability R11 is low. On the other hand, the reliability R12 increases as the distance from the intersection 94 increases, and decreases as the distance from the intersection 94 increases.

ステップS4の別の例として、信頼度R11、R12をレーン情報の鮮度に対応する状態パラメータP1に基づいて判定した場合を想定する。図5で示すように、画像情報認識部80の認識結果が地図情報認識部82の認識結果よりも新しい場合、信頼度R11は高くなり、信頼度R12は低くなる。一方、地図情報認識部82の認識結果が画像情報認識部80の認識結果よりも新しい場合、信頼度R12は高くなり、信頼度R11は低くなる。   As another example of step S4, it is assumed that the reliability R11, R12 is determined based on the state parameter P1 corresponding to the freshness of the lane information. As shown in FIG. 5, when the recognition result of the image information recognition unit 80 is newer than the recognition result of the map information recognition unit 82, the reliability R11 is high and the reliability R12 is low. On the other hand, when the recognition result of the map information recognition unit 82 is newer than the recognition result of the image information recognition unit 80, the reliability R12 is high and the reliability R11 is low.

ステップS5において、重み付け係数設定部86は、上記[2−4]で説明した方法1又は方法2により、信頼度R11、R12に応じた重み付け係数C11、C12を設定する。また、ステップS6において、レーン情報推定部88は、上記[2−4]で説明した方法1又は方法2により、統合レーン情報を推定する。   In step S5, the weighting coefficient setting unit 86 sets the weighting coefficients C11 and C12 according to the reliability R11 and R12 by the method 1 or the method 2 described in [2-4] above. In step S6, the lane information estimation unit 88 estimates the integrated lane information by the method 1 or the method 2 described in [2-4] above.

[2−6 第1実施形態のまとめ]
第1実施形態に係る車両制御装置26は、レーン情報を認識して車両走行の少なくとも一部をドライバによらない自動走行を制御するものに関する。この車両制御装置26は、入力情報に基づいてレーン情報を認識する種類の異なる認識部80、82と、車両16の内外の状態を示す状態情報に基づいて個々の認識部80、82の認識結果に対する重み付け係数C11、C12を設定する重み付け係数設定部86と、複数の認識結果と認識結果に対する重み付け係数C11、C12とを用いて統合道路環境としてのレーン情報を推定するレーン情報推定部88(道路環境推定部)とを備える。
[2-6 Summary of First Embodiment]
The vehicle control device 26 according to the first embodiment relates to a device that recognizes lane information and controls automatic driving that does not rely on a driver for at least a part of vehicle driving. The vehicle control device 26 recognizes different recognition units 80 and 82 that recognize lane information based on input information, and recognition results of the individual recognition units 80 and 82 based on state information indicating the internal and external states of the vehicle 16. A lane information estimation unit 88 (road) that estimates lane information as an integrated road environment using a plurality of recognition results and weighting factors C11 and C12 for recognition results and weighting factors C11 and C12. Environmental estimation unit).

第1実施形態によれば、状態情報に基づいて個々の認識部80、82の認識結果に対する重み付け係数C11、C12を設定し、複数の認識結果と各認識結果に対応する重み付け係数C11、C12とを用いて統合道路環境としてのレーン情報を推定する。このように、重み付け係数C11、C12を変更し、変更した重み付け係数C11、C12を用いて各認識結果を統合して得られたレーン情報を最終的な認識結果とすることにより、ある認識処理から他の認識処理へ瞬時に切り替える処理が不要となる。このため、認識処理の切り替えの際にレーン情報の認識精度が低くなるという事象が発生しなくなり、レーン情報を常に認識できるようになる。   According to the first embodiment, the weighting coefficients C11 and C12 for the recognition results of the individual recognition units 80 and 82 are set based on the state information, and the plurality of recognition results and the weighting coefficients C11 and C12 corresponding to the respective recognition results are set. Is used to estimate lane information as an integrated road environment. In this way, by changing the weighting coefficients C11 and C12 and using the changed weighting coefficients C11 and C12 to integrate the respective recognition results as final recognition results, There is no need to instantly switch to another recognition process. For this reason, when the recognition process is switched, the phenomenon that the recognition accuracy of the lane information is lowered does not occur, and the lane information can be always recognized.

車両制御装置26は、状態情報に基づいて複数の認識部80、82の信頼度R11、R12を個別に判定する信頼度判定部84を備える。認識部80、82の1つは、カメラ38で撮影される画像情報に基づいてレーン情報を認識する画像情報認識部80である。重み付け係数設定部86は、画像情報認識部80の信頼度R11が低くなるに伴って画像情報認識部80の認識結果に対する重み付け係数C11を変更する。上記構成によれば、重み付け係数C12を適宜変更するため、レーン情報(統合道路環境)を精度よく認識することができる。   The vehicle control device 26 includes a reliability determination unit 84 that individually determines the reliability R11 and R12 of the plurality of recognition units 80 and 82 based on the state information. One of the recognition units 80 and 82 is an image information recognition unit 80 that recognizes lane information based on image information captured by the camera 38. The weighting coefficient setting unit 86 changes the weighting coefficient C11 for the recognition result of the image information recognition unit 80 as the reliability R11 of the image information recognition unit 80 decreases. According to the above configuration, the lane information (integrated road environment) can be accurately recognized because the weighting coefficient C12 is appropriately changed.

画像情報認識部80の信頼度R11が低くなる状態は、車両16が交差点94を走行する状況である。上記構成によれば、レーンマーク90が存在しない交差点94でカメラ38の画像情報に基づく認識結果の重み付け係数C11を変更するため、統合結果としてのレーン情報の推定精度を高くすることができる。   The state in which the reliability R11 of the image information recognition unit 80 is low is a situation in which the vehicle 16 travels through the intersection 94. According to the above configuration, since the weighting coefficient C11 of the recognition result based on the image information of the camera 38 is changed at the intersection 94 where the lane mark 90 does not exist, the estimation accuracy of the lane information as the integration result can be increased.

画像情報認識部80は、信頼度R11が低くなる状態で、過去の画像情報を用いて仮想レーン92´を生成する。上記構成によれば、レーンマーク90が存在しない状況でも仮想レーン92´を生成するため、画像情報に基づく認識結果を出力することができる。従って、統合結果としてのレーン情報の推定精度を高くすることができる。   The image information recognition unit 80 generates a virtual lane 92 ′ using past image information in a state where the reliability R11 is low. According to the above configuration, since the virtual lane 92 ′ is generated even in the situation where the lane mark 90 does not exist, the recognition result based on the image information can be output. Therefore, the estimation accuracy of the lane information as the integration result can be increased.

画像情報認識部80は、信頼度R11が低くなる状態で、画像情報に基づいて認識可能なレーン情報を用いて仮想レーン92´を生成する。上記構成によれば、レーンマーク90が存在しない状況でも仮想レーン92´を生成するため、画像情報に基づく認識結果を出力することができる。従って、統合結果としてのレーン情報の推定精度を高くすることができる。   The image information recognition unit 80 generates the virtual lane 92 ′ using lane information that can be recognized based on the image information in a state where the reliability R11 is low. According to the above configuration, since the virtual lane 92 ′ is generated even in the situation where the lane mark 90 does not exist, the recognition result based on the image information can be output. Therefore, the estimation accuracy of the lane information as the integration result can be increased.

認識部80、82の1つは、地図情報に基づいてレーン情報を認識する地図情報認識部82である。レーン情報推定部88は、画像情報認識部80の認識結果に対する重み付け係数C11と、地図情報認識部82の認識結果に対する重み付け係数C12と、画像情報認識部80が画像情報に基づいて認識するレーン情報と、地図情報認識部82が地図情報に基づいて認識するレーン情報とに基づいて、統合道路環境としてのレーン情報を推定する。   One of the recognition units 80 and 82 is a map information recognition unit 82 that recognizes lane information based on map information. The lane information estimation unit 88 includes a weighting coefficient C11 for the recognition result of the image information recognition unit 80, a weighting coefficient C12 for the recognition result of the map information recognition unit 82, and the lane information that the image information recognition unit 80 recognizes based on the image information. Based on the lane information recognized by the map information recognition unit 82 based on the map information, the lane information as the integrated road environment is estimated.

上記構成によれば、カメラ38で撮影される画像情報に基づいて認識されるレーン情報と、地図情報に基づいて認識されるレーン情報と、個々の認識部80、82の信頼度R11、R12に応じた統合道路環境としてのレーン情報が推定されるため、適切なレーン情報を取得することができる。   According to the above configuration, the lane information recognized based on the image information photographed by the camera 38, the lane information recognized based on the map information, and the reliability R11, R12 of each recognition unit 80, 82 Since the corresponding lane information as the integrated road environment is estimated, appropriate lane information can be acquired.

状態情報には認識部80、82による道路環境の認識タイミングに関する情報が含まれる。信頼度判定部84は、任意の認識部80、82の最近の認識タイミングが他の認識部80、82の最近の認識タイミングよりも信頼度R11、R12の判定タイミングに近い場合に、任意の認識部80、82の信頼度R11、R12を他の認識部80、82の信頼度R11、R12よりも高くする。上記構成によれば、相対的に認識結果が新しい認識部80、82の信頼度R11、R12を高くするため、統合道路環境としてのレーン情報の精度を高くすることができる。   The state information includes information regarding the recognition timing of the road environment by the recognition units 80 and 82. The reliability determination unit 84 performs arbitrary recognition when the latest recognition timing of the arbitrary recognition units 80 and 82 is closer to the determination timing of the reliability R11 and R12 than the latest recognition timing of the other recognition units 80 and 82. The reliability R11, R12 of the units 80, 82 is set higher than the reliability R11, R12 of the other recognition units 80, 82. According to the above configuration, since the reliability R11 and R12 of the recognition units 80 and 82 having relatively new recognition results are increased, the accuracy of the lane information as the integrated road environment can be increased.

[3 第2実施形態]
第2実施形態は、停止線を道路環境とするものであり、停止線200を複数のモジュールで認識し、認識された各停止線情報を統合して統合停止線情報を推定するものである。
[3 Second Embodiment]
The second embodiment uses a stop line as a road environment, recognizes the stop line 200 by a plurality of modules, and integrates the recognized stop line information to estimate integrated stop line information.

[3−1 車両16Aの構成]
図7を用いて車両16Aの構成について説明する。車両16Aの構成は、図2で示す車両16の構成と多くの点で共通する。このため、共通する構成には同一の符号を付し、その説明を省略する。車両16Aは車両制御装置26Aを有し、車両制御装置26AはCPU50Aを有する。CPU50Aが記憶装置52Aに記憶されているプログラムを実行することにより、外界認識部160が実現される。
[3-1 Configuration of Vehicle 16A]
The configuration of the vehicle 16A will be described with reference to FIG. The configuration of the vehicle 16A is common in many respects to the configuration of the vehicle 16 shown in FIG. For this reason, the same code | symbol is attached | subjected to a common structure and the description is abbreviate | omitted. The vehicle 16A has a vehicle control device 26A, and the vehicle control device 26A has a CPU 50A. The external recognition unit 160 is realized by the CPU 50A executing the program stored in the storage device 52A.

[3−2 外界認識部160]
図7及び図8を用いて外界認識部160について説明する。外界認識部160は、外界情報取得装置22により取得される各種情報に基づいて車両16Aの周辺の道路環境{道路構造物、レーン92(レーンマーク90)、停止線200、信号機、標識等}及び交通参加者(他車両、歩行者、障害物等)を認識する。第2実施形態に係る外界認識部160は、停止線認識部172とその他認識部174に分けられる。
[3-2 External recognition unit 160]
The external recognition unit 160 will be described with reference to FIGS. The external environment recognition unit 160 is based on various information acquired by the external environment information acquisition device 22, and the road environment around the vehicle 16A {road structure, lane 92 (lane mark 90), stop line 200, traffic light, sign, etc.} and Recognize traffic participants (other vehicles, pedestrians, obstacles, etc.). The external environment recognition unit 160 according to the second embodiment is divided into a stop line recognition unit 172 and another recognition unit 174.

図8で示すように、停止線認識部172は、第1画像情報認識部180と、第2画像情報認識部182と、地図情報認識部183と、信頼度判定部184と、重み付け係数設定部186と、停止線情報推定部188を有する。第1画像情報認識部180は、カメラ38で撮影される画像情報に基づいてテクスチャ抽出を行い、停止線200の有無及びその位置を認識する。以下では、第1画像情報認識部180を「認識部180」ともいう。第2画像情報認識部182は、カメラ38で撮影される画像情報に基づいてハフ変換等のエッジ抽出を行い、停止線200の有無及びその位置を認識する。以下では、第2画像情報認識部182を「認識部182」ともいう。地図情報認識部183は、ナビゲーション装置44の記憶部44aに保存される地図情報に基づいて停止線200の有無及びその位置を認識する。ナビゲーション装置44は車両16Aの走行位置を測定している。地図情報認識部183は、その走行位置よりも前方所定距離内に存在する停止線200の情報を地図情報から取得し、停止線200の有無及び位置を認識する。以下では、地図情報認識部183を「認識部183」ともいう。   As shown in FIG. 8, the stop line recognition unit 172 includes a first image information recognition unit 180, a second image information recognition unit 182, a map information recognition unit 183, a reliability determination unit 184, and a weighting coefficient setting unit. 186 and a stop line information estimation unit 188. The first image information recognition unit 180 performs texture extraction based on image information captured by the camera 38, and recognizes the presence / absence of the stop line 200 and its position. Hereinafter, the first image information recognition unit 180 is also referred to as a “recognition unit 180”. The second image information recognition unit 182 performs edge extraction such as Hough transform based on image information captured by the camera 38, and recognizes the presence / absence of the stop line 200 and its position. Hereinafter, the second image information recognition unit 182 is also referred to as a “recognition unit 182”. The map information recognition unit 183 recognizes the presence / absence of the stop line 200 and the position thereof based on the map information stored in the storage unit 44a of the navigation device 44. The navigation device 44 measures the traveling position of the vehicle 16A. The map information recognition unit 183 acquires information on the stop line 200 existing within a predetermined distance ahead of the travel position from the map information, and recognizes the presence and position of the stop line 200. Hereinafter, the map information recognition unit 183 is also referred to as a “recognition unit 183”.

信頼度判定部184は、第1画像情報認識部180の信頼度R21、第2画像情報認識部182の信頼度R22及び地図情報認識部183の信頼度R23を車両16Aの内外の状態に基づいて判定する。認識部180、182、183の信頼度R21、R22、R23は車両16Aの内外の状態が変化するに伴い変化する。認識部180、182、183の信頼度R21、R22、R23と相関する状態を示す状態情報としては、例えば、車両16Aから停止線200までの距離に関する情報、走行路の曲率を示す情報、走行地域の天候を示す情報、現時点の時刻を示す情報、停止線情報(道路環境を示す情報)の鮮度を示す情報等が挙げられる。信頼度判定部84は、1種類又は複数種類の状態情報を所定規則に基づいて数値化して状態パラメータP2を求める。そして、状態パラメータP2と信頼度R21、R22、R23とを関連付けるマップ(テーブル)M2を使用して信頼度R21、R22、R23を判定する。マップM2及び数値化の所定規則は記憶装置52Aに保存される。   The reliability determination unit 184 determines the reliability R21 of the first image information recognition unit 180, the reliability R22 of the second image information recognition unit 182 and the reliability R23 of the map information recognition unit 183 based on the internal and external states of the vehicle 16A. judge. The reliability R21, R22, R23 of the recognition units 180, 182, and 183 changes as the inside / outside state of the vehicle 16A changes. Examples of the state information indicating the state correlated with the reliability R21, R22, R23 of the recognition units 180, 182, and 183 include information regarding the distance from the vehicle 16A to the stop line 200, information indicating the curvature of the road, Information indicating the weather, information indicating the current time, information indicating the freshness of stop line information (information indicating the road environment), and the like. The reliability determination unit 84 obtains a state parameter P2 by digitizing one or more types of state information based on a predetermined rule. Then, the reliability R21, R22, R23 is determined using a map (table) M2 that associates the state parameter P2 with the reliability R21, R22, R23. The map M2 and the predetermined rules for digitization are stored in the storage device 52A.

重み付け係数設定部186は、第1画像情報認識部180の認識結果に対する重み付け係数C21と、第2画像情報認識部182の認識結果に対する重み付け係数C22と、地図情報認識部183の認識結果に対する重み付け係数C23を、信頼度R21、R22、R23に基づいて設定する。重み付け係数C21、C22、C23を設定する具体的な方法としては、上記[2−4]で説明した方法1、2又はその他方法を用いることができる。   The weighting coefficient setting unit 186 includes a weighting coefficient C21 for the recognition result of the first image information recognition unit 180, a weighting coefficient C22 for the recognition result of the second image information recognition unit 182 and a weighting coefficient for the recognition result of the map information recognition unit 183. C23 is set based on the reliability R21, R22, R23. As a specific method for setting the weighting coefficients C21, C22, and C23, the methods 1 and 2 described in the above [2-4] or other methods can be used.

停止線情報推定部188は、第1画像情報認識部180、第2画像情報認識部182及び地図情報認識部183の認識結果と重み付け係数C21、C22、C23を用いて統合停止線情報(統合道路環境)を推定する。統合停止線情報というのは、第1画像情報認識部180が画像情報のテクスチャ抽出により認識する停止線情報と、第2画像情報認識部182が画像情報のエッジ抽出により認識する停止線情報と、地図情報認識部183が地図情報に基づいて認識する停止線情報を、重み付け係数C21、C22、C23に応じて統合したものである。   The stop line information estimation unit 188 uses the recognition results of the first image information recognition unit 180, the second image information recognition unit 182 and the map information recognition unit 183 and the weighting coefficients C21, C22, and C23 to integrate integrated stop line information (integrated road). Environment). The integrated stop line information refers to stop line information that the first image information recognition unit 180 recognizes through texture extraction of image information, stop line information that the second image information recognition unit 182 recognizes through edge extraction of image information, The stop line information recognized by the map information recognition unit 183 based on the map information is integrated according to the weighting factors C21, C22, and C23.

図7に戻り外界認識部160の説明を続ける。その他認識部174は、カメラ38の画像情報、レーダ40の検出情報、LIDAR42の検出情報、ナビゲーション装置44の地図情報、通信部46の通信情報の少なくとも1つに基づいて停止線200以外の外界情報の位置や挙動を認識する。   Returning to FIG. 7, the description of the external recognition unit 160 will be continued. The other recognition unit 174 is external information other than the stop line 200 based on at least one of the image information of the camera 38, the detection information of the radar 40, the detection information of the LIDAR 42, the map information of the navigation device 44, and the communication information of the communication unit 46. Recognize the position and behavior.

[3−3 第2実施形態で実行される処理]
図10を用いて第2実施形態の処理について説明する。以下で説明する一連の処理は、外界認識部60Aが主体となり、所定時間毎に繰り返し実行される。
[3-3 Processes Executed in Second Embodiment]
The process of 2nd Embodiment is demonstrated using FIG. A series of processes described below is mainly executed by the outside recognition unit 60A and is repeatedly executed at predetermined time intervals.

ステップS11において、自動運転中か否かが判定される。自動運転による走行制御が行われている場合(ステップS11:YES)、処理はステップS12に移行する。一方、自動運転による走行制御が行われていない場合(ステップS11:NO)、ステップS12以降の処理は実行されずに処理は一旦終了する。   In step S11, it is determined whether or not automatic driving is in progress. If traveling control by automatic driving is being performed (step S11: YES), the process proceeds to step S12. On the other hand, when the traveling control by the automatic driving is not performed (step S11: NO), the processing is temporarily ended without executing the processing after step S12.

ステップS12において、第1画像情報認識部180は、カメラ38で撮影された最新の画像情報に基づいてテクスチャ抽出を行い、停止線情報を認識する。第2画像情報認識部182は、カメラ38で撮影された最新の画像情報に基づいてエッジ抽出を行い、停止線情報を認識する。また、地図情報認識部183はナビゲーション装置44の記憶部44aに保存される地図情報に基づいて現在走行位置の前方の停止線情報を認識する。   In step S12, the first image information recognition unit 180 performs texture extraction based on the latest image information captured by the camera 38, and recognizes stop line information. The second image information recognition unit 182 performs edge extraction based on the latest image information taken by the camera 38 and recognizes stop line information. Further, the map information recognition unit 183 recognizes stop line information ahead of the current traveling position based on the map information stored in the storage unit 44 a of the navigation device 44.

ステップS13において、停止線200の有無が判定される。ステップS12で行われる認識の結果、車両16Aの前方所定範囲内に停止線200がある場合(ステップS13:YES)、処理はステップS14に移行する。一方、車両16Aの前方所定範囲内に停止線200がない場合(ステップS13:NO)、ステップS14以降の処理は実行されずに処理は一旦終了する。   In step S13, the presence or absence of the stop line 200 is determined. As a result of the recognition performed in step S12, when the stop line 200 is within the predetermined range in front of the vehicle 16A (step S13: YES), the process proceeds to step S14. On the other hand, when there is no stop line 200 in the predetermined range ahead of the vehicle 16A (step S13: NO), the process is temporarily terminated without executing the processes after step S14.

ステップS14において、停止線200での停止の要否が判定される。その他認識部174は、地図情報に基づいて停止線200の属性(一時停止箇所か否か)を認識する。更に、通信部46を介して情報提供サーバ12から取得した情報に基づいて停止線200における信号機の有無及び信号機の指示を認識する。そして、車両16Aが停止線200に到達した時に停止する必要があるか否かを判定する。停止の必要がある場合(ステップS14:YES)、処理はステップS15に移行する。一方、停止の必要がない場合(ステップS14:NO)、ステップS15以降の処理は実行されずに処理は一旦終了する。   In step S14, it is determined whether or not it is necessary to stop at the stop line 200. The other recognizing unit 174 recognizes the attribute of the stop line 200 (whether it is a temporary stop point) based on the map information. Further, the presence / absence of a traffic signal on the stop line 200 and the traffic signal instruction are recognized based on the information acquired from the information providing server 12 via the communication unit 46. Then, it is determined whether or not it is necessary to stop when the vehicle 16A reaches the stop line 200. If it is necessary to stop (step S14: YES), the process proceeds to step S15. On the other hand, when it is not necessary to stop (step S14: NO), the processing is temporarily terminated without executing the processing after step S15.

ステップS15において、信頼度判定部184は、状態パラメータP2を求める。上述したように、信頼度判定部184は、1又は複数の状態情報を取得し、所定規則に基づいて状態パラメータP2を求める。   In step S15, the reliability determination unit 184 obtains the state parameter P2. As described above, the reliability determination unit 184 acquires one or a plurality of state information and obtains the state parameter P2 based on a predetermined rule.

ステップS16において、信頼度判定部184は、状態パラメータP2とマップM2に基づいて第1画像情報認識部180の信頼度R21を判定する。また、状態パラメータP2とマップM2に基づいて第2画像情報認識部182の信頼度R22を判定する。また、状態パラメータP3とマップM2に基づいて地図情報認識部183の信頼度R23を判定する。一例として、信頼度R21、R22、R23の判定処理を、車両16Aから停止線200までの距離に関する情報に対応する状態パラメータP2に基づいて行う場合を想定する。図9で示すように、第1画像情報認識部180の信頼度R21は、停止線200から近距離(L2未満)の範囲で相対的に高く、停止線200からの距離がL2よりも長くなるほど低くなる。また、第2画像情報認識部182の信頼度R22は、停止線200から中距離(L2以上、L1未満)の範囲で相対的に高く、停止線200からの距離がL2よりも短くなるほど、又は、停止線200からの距離がL1よりも長くなるほど低くなる。また、地図情報認識部183の信頼度R23は、停止線200から長距離(L1以上)の範囲で相対的に高く、停止線200からの距離がL1よりも短くなるほど低くなる。   In step S16, the reliability determination unit 184 determines the reliability R21 of the first image information recognition unit 180 based on the state parameter P2 and the map M2. Further, the reliability R22 of the second image information recognition unit 182 is determined based on the state parameter P2 and the map M2. Further, the reliability R23 of the map information recognition unit 183 is determined based on the state parameter P3 and the map M2. As an example, it is assumed that the determination process of the reliability R21, R22, R23 is performed based on the state parameter P2 corresponding to the information related to the distance from the vehicle 16A to the stop line 200. As shown in FIG. 9, the reliability R21 of the first image information recognition unit 180 is relatively high in the range of a short distance (less than L2) from the stop line 200, and the distance from the stop line 200 becomes longer than L2. Lower. In addition, the reliability R22 of the second image information recognition unit 182 is relatively high in the range of the intermediate distance (L2 or more and less than L1) from the stop line 200, and as the distance from the stop line 200 becomes shorter than L2, or As the distance from the stop line 200 becomes longer than L1, the distance decreases. In addition, the reliability R23 of the map information recognition unit 183 is relatively high in the range of a long distance (L1 or more) from the stop line 200, and decreases as the distance from the stop line 200 becomes shorter than L1.

ステップS17において、重み付け係数設定部186は、上記[2−4]で説明した方法1、2又はその他方法により、信頼度R21、R22、R23に応じた重み付け係数C21、C22、C23を設定する。また、ステップS18において、停止線情報推定部188は、上記[2−4]で説明した方法1、2又はその他方法により、統合停止線情報を推定する。   In step S17, the weighting coefficient setting unit 186 sets the weighting coefficients C21, C22, and C23 according to the reliability levels R21, R22, and R23 by the methods 1 and 2 described in [2-4] above or other methods. In step S18, the stop line information estimation unit 188 estimates the integrated stop line information by the methods 1 and 2 described in [2-4] above or other methods.

[3−4 第2実施形態のまとめ]
第2実施形態に係る車両制御装置26Aは、停止線情報を認識して車両走行の少なくとも一部をドライバによらない自動走行を制御するものに関する。この車両制御装置26Aは、入力情報に基づいて停止線情報を認識する種類の異なる認識部180、182、183と、車両16Aの内外の状態を示す状態情報に基づいて個々の認識部180、182、183の認識結果に対する重み付け係数C21、C22、C23を設定する重み付け係数設定部186と、複数の認識結果と認識結果に対する重み付け係数C21、C22、C23とを用いて統合道路環境としての停止線200を推定する停止線情報推定部188(道路環境推定部)を備える。
[3-4 Summary of Second Embodiment]
The vehicle control device 26A according to the second embodiment relates to a device that recognizes stop line information and controls automatic traveling that does not rely on a driver for at least part of vehicle traveling. The vehicle control device 26A includes different types of recognition units 180, 182, and 183 that recognize stop line information based on input information, and individual recognition units 180 and 182 based on state information indicating the internal and external states of the vehicle 16A. , 183, a weighting coefficient setting unit 186 that sets weighting coefficients C21, C22, and C23 for the recognition result, and a plurality of recognition results and weighting coefficients C21, C22, and C23 for the recognition result, and a stop line 200 as an integrated road environment Is provided with a stop line information estimation unit 188 (road environment estimation unit).

第2実施形態によれば、状態情報に基づいて個々の認識部180、182、183の認識結果、すなわち停止線情報に対する重み付け係数C21、C22、C23を設定し、複数の認識結果と各認識結果に対応する重み付け係数C21、C22、C23とを用いて統合道路環境としての停止線情報を推定する。このように、重み付け係数C21、C22、C23を変更し、変更した重み付け係数C21、C22、C23を用いて各認識結果を統合して得られた停止線情報を最終的な認識結果とすることにより、複数の認識処理を明確に切り替える処理が不要となる。このため、認識処理の切り替えの際に停止線情報の認識精度が低くなるという事象が発生しなくなり、停止線情報を認識できるようになる。   According to the second embodiment, the recognition results of the individual recognition units 180, 182, and 183, that is, the weighting coefficients C21, C22, and C23 for the stop line information are set based on the state information, and a plurality of recognition results and each recognition result are set. The stop line information as the integrated road environment is estimated using the weighting coefficients C21, C22, and C23 corresponding to. In this way, by changing the weighting coefficients C21, C22, and C23 and using the changed weighting coefficients C21, C22, and C23 to integrate the respective recognition results, the stop line information obtained as a final recognition result is used. This eliminates the need to clearly switch between a plurality of recognition processes. For this reason, when the recognition process is switched, the phenomenon that the recognition accuracy of the stop line information is reduced does not occur, and the stop line information can be recognized.

車両制御装置26は、状態に基づいて複数の認識部180、182、183の信頼度R21、R22、R23を個別に判定する信頼度判定部184を備える。認識部180、182、183の1つは、カメラ38で撮影される画像情報に基づいて停止線情報を認識する第1画像情報認識部180又は第2画像情報認識部182である。重み付け係数設定部186は、第1画像情報認識部180の信頼度R21が低くなるに伴って第1画像情報認識部180の認識結果に対する重み付け係数C21を変更する。また、第2画像情報認識部182の信頼度R22が低くなるに伴って第2画像情報認識部182の認識結果に対する重み付け係数C22を変更する。上記構成によれば、重み付け係数を適宜変更するため、停止線情報(統合道路環境)を精度よく認識することができる。   The vehicle control device 26 includes a reliability determination unit 184 that individually determines the reliability R21, R22, and R23 of the plurality of recognition units 180, 182, and 183 based on the state. One of the recognition units 180, 182, and 183 is a first image information recognition unit 180 or a second image information recognition unit 182 that recognizes stop line information based on image information captured by the camera 38. The weighting coefficient setting unit 186 changes the weighting coefficient C21 for the recognition result of the first image information recognition unit 180 as the reliability R21 of the first image information recognition unit 180 decreases. Further, as the reliability R22 of the second image information recognition unit 182 becomes lower, the weighting coefficient C22 for the recognition result of the second image information recognition unit 182 is changed. According to the above configuration, the stop line information (integrated road environment) can be accurately recognized because the weighting coefficient is appropriately changed.

なお、本発明に係る車両制御装置は、上述の実施形態に限らず、本発明の要旨を逸脱することなく、種々の構成を採り得ることはもちろんである。   In addition, the vehicle control apparatus according to the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted without departing from the gist of the present invention.

16、16A…車両 26、26A…車両制御装置
38…カメラ 80…画像情報認識部(認識部)
82、183…地図情報認識部(認識部)
84…信頼度判定部 86、186…重み付け係数設定部
88…レーン情報推定部(道路環境推定部)
90…レーンマーク 90´…仮想レーンマーク
92´…仮想レーン 94…交差点
180…第1画像情報認識部(認識部)
182…第2画像情報認識部(認識部)
188…停止線情報推定部(道路環境推定部)
200…停止線
16, 16A ... Vehicle 26, 26A ... Vehicle control device 38 ... Camera 80 ... Image information recognition unit (recognition unit)
82, 183 ... Map information recognition unit (recognition unit)
84: Reliability determination unit 86, 186 ... Weighting coefficient setting unit 88 ... Lane information estimation unit (road environment estimation unit)
90 ... Lane mark 90 '... Virtual lane mark 92' ... Virtual lane 94 ... Intersection
180 ... 1st image information recognition part (recognition part)
182 ... Second image information recognition unit (recognition unit)
188 ... Stop line information estimation unit (road environment estimation unit)
200 ... Stop line

Claims (8)

道路環境を認識して車両走行の少なくとも一部をドライバによらない自動走行を制御する車両制御装置であって、
入力情報に基づいて前記道路環境を認識する種類の異なる複数の認識部と、
車両内外の状態を示す状態情報に基づいて個々の前記認識部の認識結果に対する重み付け係数を設定する重み付け係数設定部と、
複数の前記認識結果と前記認識結果に対する前記重み付け係数とを用いて統合道路環境を推定する道路環境推定部とを備える
ことを特徴とする車両制御装置。
A vehicle control device for recognizing a road environment and controlling automatic driving without relying on a driver for at least a part of vehicle driving,
A plurality of different recognition units for recognizing the road environment based on input information;
A weighting coefficient setting unit that sets a weighting coefficient for a recognition result of each of the recognition units based on state information indicating a state inside and outside the vehicle;
A vehicle control device comprising: a road environment estimation unit that estimates an integrated road environment using a plurality of the recognition results and the weighting coefficient for the recognition results.
請求項1に記載の車両制御装置において、
前記状態情報に基づいて複数の前記認識部の信頼度を個別に判定する信頼度判定部を備え、
前記道路環境は、レーン情報であり、
前記認識部の1つは、カメラで撮影される画像情報に基づいて前記レーン情報を認識する画像情報認識部であり、
前記重み付け係数設定部は、前記画像情報認識部の前記信頼度が低くなるに伴って前記画像情報認識部の認識結果に対する前記重み付け係数を変更する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
A reliability determination unit that individually determines the reliability of the plurality of recognition units based on the state information,
The road environment is lane information,
One of the recognition units is an image information recognition unit that recognizes the lane information based on image information captured by a camera.
The weighting coefficient setting unit changes the weighting coefficient for the recognition result of the image information recognition unit as the reliability of the image information recognition unit decreases.
請求項2に記載の車両制御装置において、
前記画像情報認識部の前記信頼度が低くなる前記状態は、前記車両が交差点を走行する状況である
ことを特徴とする車両制御装置。
The vehicle control device according to claim 2,
The vehicle control apparatus according to claim 1, wherein the state in which the reliability of the image information recognition unit is low is a situation in which the vehicle travels an intersection.
請求項2又は3に記載の車両制御装置において、
前記画像情報認識部は、前記信頼度が低くなる前記状態で、過去の前記画像情報を用いて仮想レーンを生成する
ことを特徴とする車両制御装置。
In the vehicle control device according to claim 2 or 3,
The said image information recognition part produces | generates a virtual lane using the said previous image information in the said state where the said reliability becomes low. The vehicle control apparatus characterized by the above-mentioned.
請求項2又は3に記載の車両制御装置において、
前記画像情報認識部は、前記信頼度が低くなる前記状態で、前記画像情報に基づいて認識可能な前記レーン情報を用いて仮想レーンを生成する
ことを特徴とする車両制御装置。
In the vehicle control device according to claim 2 or 3,
The vehicle information control apparatus, wherein the image information recognition unit generates a virtual lane using the lane information that can be recognized based on the image information in the state where the reliability is low.
請求項2〜5のいずれか1項に記載の車両制御装置において、
前記認識部の1つは、地図情報に基づいて前記レーン情報を認識する地図情報認識部であり、
前記道路環境推定部は、前記画像情報認識部の認識結果に対する前記重み付け係数と、前記地図情報認識部の認識結果に対する前記重み付け係数と、前記画像情報認識部が前記画像情報に基づいて認識する前記レーン情報と、前記地図情報認識部が前記地図情報に基づいて認識する前記レーン情報とに基づいて、前記統合道路環境としての前記レーン情報を推定する
ことを特徴とする車両制御装置。
The vehicle control device according to any one of claims 2 to 5,
One of the recognition units is a map information recognition unit that recognizes the lane information based on map information,
The road environment estimation unit is configured to recognize the weighting coefficient for the recognition result of the image information recognition unit, the weighting coefficient for the recognition result of the map information recognition unit, and the image information recognition unit to recognize based on the image information. The vehicle control device, wherein the lane information as the integrated road environment is estimated based on lane information and the lane information recognized by the map information recognition unit based on the map information.
請求項1に記載の車両制御装置において、
前記状態に基づいて複数の前記認識部の信頼度を個別に判定する信頼度判定部を備え、
前記道路環境は、停止線情報であり、
前記認識部の1つは、カメラで撮影される画像情報に基づいて前記停止線情報を認識する画像情報認識部であり、
前記重み付け係数設定部は、前記画像情報認識部の前記信頼度が低くなるに伴って前記画像情報認識部の認識結果に対する前記重み付け係数を変更する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
A reliability determination unit that individually determines the reliability of the plurality of recognition units based on the state,
The road environment is stop line information,
One of the recognition units is an image information recognition unit that recognizes the stop line information based on image information captured by a camera,
The weighting coefficient setting unit changes the weighting coefficient for the recognition result of the image information recognition unit as the reliability of the image information recognition unit decreases.
請求項2〜7のいずれか1項に記載の車両制御装置において、
前記状態情報には前記認識部による前記道路環境の認識タイミングに関する情報が含まれており、
前記信頼度判定部は、任意の前記認識部の最近の前記認識タイミングが他の前記認識部の最近の前記認識タイミングよりも前記信頼度の判定タイミングに近い場合に、任意の前記認識部の前記信頼度を他の前記認識部の前記信頼度よりも高くする
ことを特徴とする車両制御装置。
The vehicle control device according to any one of claims 2 to 7,
The state information includes information related to the recognition timing of the road environment by the recognition unit,
The reliability determination unit, when the latest recognition timing of any of the recognition units is closer to the determination timing of the reliability than the latest recognition timing of the other recognition units, A vehicle control device characterized in that the reliability is higher than the reliability of the other recognition units.
JP2017022138A 2017-02-09 2017-02-09 Vehicle control unit Active JP6854141B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017022138A JP6854141B2 (en) 2017-02-09 2017-02-09 Vehicle control unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022138A JP6854141B2 (en) 2017-02-09 2017-02-09 Vehicle control unit

Publications (2)

Publication Number Publication Date
JP2018128906A true JP2018128906A (en) 2018-08-16
JP6854141B2 JP6854141B2 (en) 2021-04-07

Family

ID=63174357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022138A Active JP6854141B2 (en) 2017-02-09 2017-02-09 Vehicle control unit

Country Status (1)

Country Link
JP (1) JP6854141B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109878508A (en) * 2019-02-28 2019-06-14 东软睿驰汽车技术(沈阳)有限公司 A kind of method and device of end-to-end automatic Pilot
JP7409974B2 (en) 2020-06-12 2024-01-09 本田技研工業株式会社 Driving assistance devices, vehicles, mobile devices, and programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2013025535A (en) * 2011-07-20 2013-02-04 Denso Corp Lane recognition device
JP2016062308A (en) * 2014-09-18 2016-04-25 富士重工業株式会社 Vehicle outside environment recognition device
JP2016091045A (en) * 2014-10-29 2016-05-23 株式会社日本自動車部品総合研究所 Travel compartment line recognition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2013025535A (en) * 2011-07-20 2013-02-04 Denso Corp Lane recognition device
JP2016062308A (en) * 2014-09-18 2016-04-25 富士重工業株式会社 Vehicle outside environment recognition device
JP2016091045A (en) * 2014-10-29 2016-05-23 株式会社日本自動車部品総合研究所 Travel compartment line recognition system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109878508A (en) * 2019-02-28 2019-06-14 东软睿驰汽车技术(沈阳)有限公司 A kind of method and device of end-to-end automatic Pilot
CN109878508B (en) * 2019-02-28 2021-04-06 东软睿驰汽车技术(沈阳)有限公司 End-to-end automatic driving method and device
JP7409974B2 (en) 2020-06-12 2024-01-09 本田技研工業株式会社 Driving assistance devices, vehicles, mobile devices, and programs

Also Published As

Publication number Publication date
JP6854141B2 (en) 2021-04-07

Similar Documents

Publication Publication Date Title
US11809194B2 (en) Target abnormality determination device
CN108216244B (en) Vehicle control device
CN108688660B (en) Operating range determining device
RU2645388C2 (en) Device for identifying wrong recognition
US20160318518A1 (en) Travel control apparatus
JP6269552B2 (en) Vehicle travel control device
US20170008531A1 (en) Driving assistant for vehicles
US20160325750A1 (en) Travel control apparatus
JP6623311B2 (en) Control apparatus and control method
US10795374B2 (en) Vehicle control device
CN110678372B (en) Vehicle control device
CN110001638B (en) Travel control device for autonomous vehicle
US10345807B2 (en) Control system for and control method of autonomous driving vehicle
CN110001639B (en) Travel control device for autonomous vehicle
JP2018063524A (en) Vehicle controller
CN110077401B (en) Vehicle control system
US11169526B2 (en) Vehicle control device
JP2019039831A (en) Automatic driving device
JP2018149977A (en) Automatic driving system
WO2016194168A1 (en) Travel control device and method
JP6941178B2 (en) Automatic operation control device and method
JP3602337B2 (en) Vehicle travel control device
JPWO2019003302A1 (en) Vehicle control device
JP6854141B2 (en) Vehicle control unit
JP2019153029A (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6854141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150