JP2024049862A - Vehicle control device - Google Patents

Vehicle control device Download PDF

Info

Publication number
JP2024049862A
JP2024049862A JP2022156347A JP2022156347A JP2024049862A JP 2024049862 A JP2024049862 A JP 2024049862A JP 2022156347 A JP2022156347 A JP 2022156347A JP 2022156347 A JP2022156347 A JP 2022156347A JP 2024049862 A JP2024049862 A JP 2024049862A
Authority
JP
Japan
Prior art keywords
sensor
vehicle
recognition
unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022156347A
Other languages
Japanese (ja)
Inventor
陽介 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2022156347A priority Critical patent/JP2024049862A/en
Publication of JP2024049862A publication Critical patent/JP2024049862A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両の周囲環境が変化して一時的にセンサの認識機能が低下する場合でも、センサによる認識状況をより適切に把握して最適な運転支援を実現する車両用制御装置を提供する。【解決手段】車両の周囲環境に基づくセンサの認識機能の低下要因を検出する認識低下検出部と、センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部と、低下要因とセンサ情報とに基づき、認識機能が低下しているセンサによって検知可能な物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部と、運転支援機能ごとに対応して、物標の認識に用いるセンサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、各パターンに含まれるセンサによる検知結果に基づいて物標を認識する認識部と、認識部による物標の認識結果に基づいて、認識結果が得られたパターンに対応する運転支援機能を実行する車両制御部と、を含む。【選択図】図3[Problem] To provide a vehicle control device that realizes optimal driving assistance even when the sensor's recognition function is temporarily degraded due to a change in the environment surrounding the vehicle. [Solution] The vehicle control device includes a recognition degradation detection unit that detects the cause of the degradation of the sensor's recognition function based on the vehicle's environment, a sensor information storage unit that stores sensor information including at least sensor specification information and installation information, an acquisition unit that acquires detection results of at least one of a target detectable by the sensor whose recognition function is degraded and an area in which the target is present based on the cause of the degradation and the sensor information, a recognition unit that refers to pattern information that defines a plurality of patterns indicating a combination of sensors used to recognize the target corresponding to each driving assistance function, and recognizes the target based on the detection results by the sensors included in each pattern, and a vehicle control unit that executes the driving assistance function corresponding to the pattern for which the recognition result was obtained based on the target recognition result by the recognition unit. [Selected Figure] Figure 3

Description

本発明は、車両用制御装置に関する。 The present invention relates to a vehicle control device.

昨今、自動車等の車両に対する運転支援機能として、自動緊急ブレーキ(AEB:Autonomous Emergency Braking)やアダプティブクルーズコントロール(ACC)等を実現するために、車両に周辺監視用のセンサを搭載する場合がある。近年では、運転支援機能の機能追加および性能向上のため、車両の前方以外の方向の検知、および検知結果の信頼性向上を目的として、複数の周辺監視用センサを採用する場合がある。すなわち、単独または複数のセンサで物体を検知した場合、それが障害物として回避する必要があるのか等の運転支援機能を実現するための検知対象であるのかを間違いなく判定するために、物体の正確な位置の把握、および検知対象(制御対象物)であるのか否かの正確な判定を行う必要がある。このように、複数のセンサによる物体(物標)の検知結果を照合する技術を、センサフュージョンと称している。 Nowadays, vehicles may be equipped with sensors for monitoring the surroundings in order to realize driving assistance functions for vehicles such as automatic emergency braking (AEB) and adaptive cruise control (ACC). In recent years, in order to add functions and improve the performance of driving assistance functions, multiple sensors for monitoring the surroundings may be adopted for the purpose of detecting directions other than the vehicle's front and improving the reliability of the detection results. In other words, when an object is detected by a single or multiple sensors, in order to determine without fail whether it is a detection target for realizing a driving assistance function, such as whether it is an obstacle that needs to be avoided, it is necessary to grasp the exact position of the object and accurately determine whether it is a detection target (object to be controlled). In this way, the technology of collating the detection results of an object (target) by multiple sensors is called sensor fusion.

このようなセンサフュージョンの技術として、車載カメラの画像認識処理による歩行者の認識結果と、レーザレーダによる物標の認識結果とに基づいて、歩行者を認識する技術が提案されている(例えば特許文献1参照)。 As an example of such sensor fusion technology, a technology has been proposed that recognizes pedestrians based on the results of pedestrian recognition by image recognition processing of an onboard camera and the results of target recognition by a laser radar (see, for example, Patent Document 1).

特開2009-237898号公報JP 2009-237898 A

しかしながら、センサは、個々の検出において得手不得手があり、個々のセンサの検出精度は、車両の周囲環境(走行環境)、例えば、天候環境(降雨、降雪、霧、強風、日照等)によって低下する場合がある。このような場合、複数のセンサで同一の物体を検出している場合でも、あるセンサでは、良好な検出が維持できても他のセンサでは、検出精度が低下する場合がある。この場合、車両を基準としてどの方向(領域)で他車両の検出精度が低下しているのか、その方向(領域)で歩行者の検出精度が低下しているのかの判定がし難い場合がある。その結果、センサフュージョンの技術を用いる場合でも物体の誤検出や誤判定の原因となる場合があり、運転支援精度が低下する場合があった。 However, each sensor has its strengths and weaknesses in detection, and the detection accuracy of each sensor may decrease depending on the vehicle's surrounding environment (driving environment), for example, weather conditions (rainfall, snowfall, fog, strong winds, sunlight, etc.). In such cases, even when multiple sensors are detecting the same object, some sensors may be able to maintain good detection while other sensors may experience decreased detection accuracy. In such cases, it may be difficult to determine in which direction (area) relative to the vehicle the detection accuracy of other vehicles is decreasing, or in which direction (area) the detection accuracy of pedestrians is decreasing. As a result, even when sensor fusion technology is used, this may cause erroneous detection or misjudgment of objects, resulting in decreased driving assistance accuracy.

本発明は、上述の課題に鑑みてなされたものであって、車両の周囲環境(走行環境)が変化して、一時的にセンサの認識機能(検出信頼性)が低下するような場合でも、センサによる認識状況をより適切に把握して最適な運転支援を実現する、車両用制御装置を提供することを目的とする。 The present invention has been made in consideration of the above-mentioned problems, and aims to provide a vehicle control device that can more appropriately grasp the recognition status of the sensor and realize optimal driving assistance even when the surrounding environment (driving environment) of the vehicle changes and the sensor's recognition function (detection reliability) temporarily decreases.

上述した課題を解決し、目的を達成するために、本発明に係る車両用制御装置は、車両の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する車両用制御装置であって、前記車両の周囲環境に基づく前記センサの認識機能の低下要因を検出する認識低下検出部と、前記センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部と、前記低下要因と前記センサ情報とに基づき、前記認識機能が低下している前記センサによって検知可能な前記物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部と、前記運転支援機能ごとに対応して、前記物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる前記検知結果に基づいて前記物標を認識する認識部と、前記認識部による前記物標の認識結果に基づいて、当該認識結果が得られた前記パターンに対応する前記運転支援機能を実行する車両制御部と、を含む。 In order to solve the above-mentioned problems and achieve the object, the vehicle control device according to the present invention is a vehicle control device that executes one or more driving assistance functions based on detection signals received from multiple types of sensors that detect targets around the vehicle, and includes a recognition degradation detection unit that detects factors for degradation of the recognition function of the sensors based on the environment surrounding the vehicle, a sensor information storage unit that stores sensor information including at least specification information and installation information of the sensors, an acquisition unit that acquires detection results of at least one of the targets detectable by the sensors whose recognition function is degraded and the area in which the targets exist based on the factors for degradation and the sensor information, a recognition unit that recognizes the targets based on the detection results by the sensors included in each pattern by referring to pattern information that defines multiple patterns indicating combinations of the sensors used to recognize the targets corresponding to each driving assistance function, and a vehicle control unit that executes the driving assistance function corresponding to the pattern from which the recognition result was obtained based on the recognition result of the targets by the recognition unit.

本発明によれば、車両の周囲環境(走行環境)が変化して、一時的にセンサの認識機能(検出信頼性)が低下するような場合でも、センサの認識状況をより適切に把握して最適な運転支援を実現する車両用制御装置を提供することができる。 The present invention provides a vehicle control device that can more appropriately grasp the sensor's recognition status and provide optimal driving assistance even when the vehicle's surroundings (driving environment) change and the sensor's recognition function (detection reliability) temporarily declines.

図1は、実施形態に係る車両用制御装置を適用可能な車両の各種センサの配置構成および検出範囲を示す例示的かつ模式的な図である。FIG. 1 is an exemplary schematic diagram showing the layout and detection ranges of various sensors of a vehicle to which a vehicle control device according to an embodiment can be applied. 図2は、実施形態に係る車両用制御装置を適用可能な車両の電気的構成を示す例示的かつ模式的な図である。FIG. 2 is an exemplary schematic diagram showing an electrical configuration of a vehicle to which the vehicle control device according to the embodiment can be applied. 図3は、実施形態に係る車両用制御装置(運転制御ECU)の機能的な構成を示す例示的かつ模式的なブロック図である。FIG. 3 is an exemplary schematic block diagram showing a functional configuration of the vehicle control device (drive control ECU) according to the embodiment. 図4は、実施形態に係る車両用制御装置で利用可能な各種センサの特性を示す例示的な図である。FIG. 4 is an exemplary diagram showing characteristics of various sensors that can be used in the vehicle control device according to the embodiment. 図5は、実施形態に係る車両用制御装置で利用可能な各種センサの性能を示す例示的な図である。FIG. 5 is an exemplary diagram showing the performance of various sensors that can be used in the vehicle control device according to the embodiment. 図6は、実施形態に係る車両用制御装置で利用可能なパターンテーブルを示す例示的な図である。FIG. 6 is an exemplary diagram showing a pattern table that can be used in the vehicle control device according to the embodiment. 図7は、実施形態に係る車両用制御装置において、センサの認識機能が低下した際の物標の認識領域の変化を示す例示的かつ模式的な平面図である。FIG. 7 is an exemplary schematic plan view showing a change in the recognition area of a target when the recognition function of a sensor is degraded in the vehicle control device according to the embodiment. 図8は、実施形態に係る車両用制御装置(運転制御ECU)の動作の流れを示す例示的なフローチャートである。FIG. 8 is an exemplary flowchart showing the flow of operations of the vehicle control device (drive control ECU) according to the embodiment.

以下に、図1~図8を参照しながら、本発明に係る車両用制御装置の実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Below, with reference to Figures 1 to 8, an embodiment of a vehicle control device according to the present invention will be described in detail. Furthermore, the present invention is not limited to the following embodiment, and the components in the following embodiment include those that a person skilled in the art would easily come up with, those that are substantially the same, and those that are within the scope of what is called equivalent. Furthermore, various omissions, substitutions, modifications, and combinations of the components can be made without departing from the spirit of the following embodiment.

(車両の各種センサの配置構成および検出範囲について)
図1は、実施形態に係る車両用制御装置を適用可能な車両の各種センサの配置構成および検出範囲の一例を示す図である。図1を参照しながら、本実施形態に係る車両1の各種センサの配置構成および検出範囲の一例について説明する。
(Layout and detection range of various sensors on the vehicle)
1 is a diagram showing an example of the arrangement and detection range of various sensors of a vehicle to which a vehicle control device according to an embodiment can be applied. With reference to FIG. 1, an example of the arrangement and detection range of various sensors of a vehicle 1 according to the present embodiment will be described.

図1に示すように、車両1は、複数種類のセンサを搭載し、当該センサによる検知結果に基づいて、例えば、自動緊急ブレーキ(AEB)、アダプティブクルーズコントロール(ACC)または踏み間違い防止機能等のうち少なくともいずれかの運転支援機能を実行する。自動緊急ブレーキ(AEB)とは、障害物との衝突が予測された場合に、衝突を回避するために自動的にブレーキをかけたり、障害物の衝突が不可避の場合でも衝突の強度を弱めることによって車両の被害を軽減したりする機能である。また、アダプティブクルーズコントロール(ACC)とは、高速道路における長距離移動時等に、予め設定した車速範囲内で車両を自動的に加減速させることにより、前方の他車両との車間距離を維持しながら追従走行を実現する機能である。また、踏み間違い防止機能とは、車両1を発進するときに前方に人または車両等の物標があり、センサで検知されている状態において、運転者が誤ってアクセルペダルを強く踏んでしまった場合に、踏み込み速度が所定速度以上、および踏み込み量が所定量以上のとき踏み間違いと判断し、電子スロットルを閉じてエンジンの回転数を制御し、所定時間後、自動的にブレーキを作動させる機能である。車両1は、図1における(a)に示すように、一例として、前方カメラセンサ2と、4つのソナーセンサ3と、前方ミリ波レーダ4と、2つの前側方ミリ波レーダ5と、2つの後側方ミリ波レーダ6と、4つのサラウンドビューカメラ7と、を備えている。 As shown in FIG. 1, the vehicle 1 is equipped with a plurality of types of sensors, and executes at least one of the driving assistance functions, such as automatic emergency braking (AEB), adaptive cruise control (ACC), or misstep prevention function, based on the detection results of the sensors. The automatic emergency braking (AEB) is a function that automatically brakes the vehicle to avoid a collision when a collision with an obstacle is predicted, or reduces the strength of the collision even if a collision with an obstacle is unavoidable, thereby reducing damage to the vehicle. The adaptive cruise control (ACC) is a function that realizes following driving while maintaining the distance from another vehicle in front by automatically accelerating and decelerating the vehicle within a preset vehicle speed range during long-distance travel on a highway, etc. The misstep prevention function is a function that determines that the driver has misstepped the accelerator pedal when there is a target such as a person or vehicle in front of the vehicle and the target is detected by a sensor when the vehicle 1 starts, and the driver mistakenly presses the accelerator pedal hard if the pressing speed is equal to or greater than a predetermined speed and the pressing amount is equal to or greater than a predetermined amount, closes the electronic throttle to control the engine speed, and automatically applies the brakes after a predetermined time. As shown in FIG. 1(a), the vehicle 1 is equipped with, as an example, a forward camera sensor 2, four sonar sensors 3, a forward millimeter wave radar 4, two front side millimeter wave radars 5, two rear side millimeter wave radars 6, and four surround view cameras 7.

前方カメラセンサ2は、車両1のフロントガラスの上部等に備えられ、図1における(b)に示す検出範囲2aにおいて、例えば、前方の車両、二輪車および歩行者等の物標を認識する撮像装置である。ソナーセンサ3は、車両1のフロントバンパのコーナー部、およびリヤバンパのコーナー部等に備えられ、図1における(b)に示す検出範囲3aにおいて、超音波を発信することによって物標を検知するセンサである。前方ミリ波レーダ4は、車両1のフロントバンパの裏側等に備えられ、図1における(b)に示す検出範囲4aにおいて、車両1の前方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の前方に存在する物標を検知するレーダ装置である。 The forward camera sensor 2 is provided on the upper part of the windshield of the vehicle 1, and is an imaging device that recognizes targets, such as vehicles, motorcycles, and pedestrians in front, within the detection range 2a shown in FIG. 1(b). The sonar sensor 3 is provided on the corners of the front bumper and the rear bumper of the vehicle 1, and is a sensor that detects targets by emitting ultrasonic waves within the detection range 3a shown in FIG. 1(b). The forward millimeter wave radar 4 is provided on the back side of the front bumper of the vehicle 1, and is a radar device that detects targets in front of the vehicle 1 by emitting millimeter wave radio waves toward the front of the vehicle 1 and receiving the reflected radio waves that return within the detection range 4a shown in FIG. 1(b).

前側方ミリ波レーダ5は、車両1のフロントバンパのコーナー部等に備えられ、図1における(b)に示す検出範囲5aにおいて、車両1の前側方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の前側方に存在する物標を検知するレーダ装置である。後側方ミリ波レーダ6は、車両1のリヤバンパのコーナー部等に備えられ、図1における(b)に示す検出範囲6aにおいて、車両1の後側方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の後側方に存在する物標を検知するレーダ装置である。サラウンドビューカメラ7は、車両1のフロント側、バックドア側および左右のサイドミラーに備えられ、図1における(b)に示す広画角の撮像範囲7aで撮像した映像により車両1を上空から見下ろした俯瞰映像を生成するための撮像装置である。 The front-side millimeter-wave radar 5 is provided at the corners of the front bumper of the vehicle 1 and is a radar device that detects targets in the front side of the vehicle 1 by irradiating millimeter-wave radio waves toward the front side of the vehicle 1 and receiving the reflected radio waves in the detection range 5a shown in FIG. 1B. The rear-side millimeter-wave radar 6 is provided at the corners of the rear bumper of the vehicle 1 and is a radar device that detects targets in the rear side of the vehicle 1 by irradiating millimeter-wave radio waves toward the rear side of the vehicle 1 and receiving the reflected radio waves in the detection range 6a shown in FIG. 1B. The surround-view camera 7 is provided on the front side, back door side, and left and right side mirrors of the vehicle 1 and is an imaging device that generates an overhead image of the vehicle 1 from the sky using images captured in the wide-angle imaging range 7a shown in FIG. 1B.

このように、車両1は、複数種類のセンサを搭載すること、および当該各センサによる物標に対する検出・検知結果を照合するセンサフュージョンによって、上述の各種の運転支援機能を実現する。なお、図1に示した車両1の各種センサは、一例を示したものであり、センサの個数、種類、および配置位置については図1に示したものに限定されるものではない。 In this way, the vehicle 1 realizes the various driving assistance functions described above by mounting multiple types of sensors and using sensor fusion to compare the detection results of targets from each sensor. Note that the various sensors of the vehicle 1 shown in FIG. 1 are merely examples, and the number, types, and placement of the sensors are not limited to those shown in FIG. 1.

(車両の電気的構成)
図2は、実施形態に係る車両用制御装置を適用可能な車両1の電気的構成の一例を示す図である。図2を参照しながら、本実施形態に係る車両1の電気的構成について説明する。
(Vehicle Electrical Configuration)
2 is a diagram showing an example of an electrical configuration of a vehicle 1 to which the vehicle control device according to the embodiment can be applied. The electrical configuration of the vehicle 1 according to the embodiment will be described with reference to FIG.

図2に示すように、車両1は、各部を制御するための複数のECU(Electronic Control Unit:電子制御ユニット)を備えている。各ECUは、マイコン(マイクロコントローラユニット)を備えており、当該マイコンは、例えば、CPU(Central Processing Unit)と、フラッシュメモリ等の不揮発性メモリと、DRAM(Dynamic Random Access Memory)等の揮発性メモリを内蔵している。 As shown in FIG. 2, vehicle 1 has multiple ECUs (Electronic Control Units) for controlling various parts. Each ECU has a microcontroller unit (microcomputer), which includes, for example, a CPU (Central Processing Unit), a non-volatile memory such as a flash memory, and a volatile memory such as a DRAM (Dynamic Random Access Memory).

具体的には、車両1は、図2に示すように、駆動ECU11と、操舵ECU12と、ブレーキECU13と、メータECU14と、ボディECU15と、運転制御ECU31と、カメラECU32と、ソナーECU33と、レーダECU34と、を備えている。各ECUは、バスライン19を介して、互いに通信可能となるように接続されている。バスライン19は、例えば、CAN(Controller Area Network)等のシリアル通信プロトコルに基づく通信を実現する。なお、CANに限定されるものではなく、その他のシリアル通信プロトコルが適用されてもよい。 Specifically, as shown in FIG. 2, the vehicle 1 includes a drive ECU 11, a steering ECU 12, a brake ECU 13, a meter ECU 14, a body ECU 15, a driving control ECU 31, a camera ECU 32, a sonar ECU 33, and a radar ECU 34. The ECUs are connected to each other via a bus line 19 so that they can communicate with each other. The bus line 19 realizes communication based on a serial communication protocol such as CAN (Controller Area Network). Note that the serial communication protocol is not limited to CAN, and other serial communication protocols may also be applied.

また、車両1は、駆動装置21と、舵角センサ22aと、操舵装置22bと、制動装置23と、機能スイッチ24と、ヘッドランプ25と、測位信号受信部35と、車速センサ36と、表示装置37と、スピーカ38と、レインセンサ39等を備えている。さらに、車両1は、運転支援機能を実現するために用いられるセンサとして、第1単眼カメラ42aと、第2単眼カメラ42bと、第3単眼カメラ42cと、第1ステレオカメラ42dと、第2ステレオカメラ42eと、ソナーセンサ43と、第1ミリ波レーダ44aと、第2ミリ波レーダ44bと、を備えている。 The vehicle 1 also includes a drive unit 21, a steering angle sensor 22a, a steering unit 22b, a braking unit 23, a function switch 24, headlamps 25, a positioning signal receiver 35, a vehicle speed sensor 36, a display unit 37, a speaker 38, a rain sensor 39, etc. The vehicle 1 also includes a first monocular camera 42a, a second monocular camera 42b, a third monocular camera 42c, a first stereo camera 42d, a second stereo camera 42e, a sonar sensor 43, a first millimeter wave radar 44a, and a second millimeter wave radar 44b as sensors used to realize the driving assistance function.

駆動ECU11は、入力されるアクセルペダル信号等に基づいて、車両1の駆動装置21を制御するECUである。駆動装置21は、駆動ECU11に接続されており、駆動源として、エンジンまたはモータのうち少なくともいずれかを備えている。また、駆動装置21は、例えば、エンジンのスロットル開度に対して電子制御を行うことにより、吸入空気量を調整してエンジンの出力を制御する電子スロットルを含む。また、駆動装置21は、必要に応じて、駆動源からの駆動力を変速して出力する変速機を備える。 The drive ECU 11 is an ECU that controls the drive device 21 of the vehicle 1 based on input accelerator pedal signals, etc. The drive device 21 is connected to the drive ECU 11 and has at least one of an engine or a motor as a drive source. The drive device 21 also includes, for example, an electronic throttle that adjusts the amount of intake air to control the output of the engine by electronically controlling the throttle opening of the engine. The drive device 21 also includes a transmission that changes the speed of the drive force from the drive source and outputs it as necessary.

操舵ECU12は、舵角センサ22aからの検出信号を入力し、車両1の操舵装置22bを制御するECUである。舵角センサ22aは、操舵ECU12に接続されており、ステアリングホイールの角度を検出するセンサである。操舵装置22bは、操舵ECU12に接続されており、電動モータのトルクをステアリング機構に伝達する電動パワーステアリング装置である。ステアリング機構は、例えば、ラックアンドピニオン式のステアリングギヤを含み、電動モータのトルクによりラック軸が車幅方向に移動すると、当該ラック軸の移動に伴って左右の操向輪が左右に転舵するように構成されている。 The steering ECU 12 is an ECU that receives a detection signal from the steering angle sensor 22a and controls the steering device 22b of the vehicle 1. The steering angle sensor 22a is connected to the steering ECU 12 and is a sensor that detects the angle of the steering wheel. The steering device 22b is connected to the steering ECU 12 and is an electric power steering device that transmits the torque of an electric motor to a steering mechanism. The steering mechanism includes, for example, a rack-and-pinion steering gear, and is configured such that when the rack shaft moves in the vehicle width direction due to the torque of the electric motor, the left and right steered wheels turn left and right in accordance with the movement of the rack shaft.

ブレーキECU13は、車両1の制動装置23を制御するECUである。制動装置23は、ブレーキECU13に接続されており、油圧式または電動式の制動装置である。例えば、制動装置23が油圧式である場合、制動装置23は、ブレーキアクチュエータを備え、当該ブレーキアクチュエータの機能により各車輪に設けられたブレーキのホイールシリンダに油圧を分配し、その油圧により各ブレーキから駆動輪を含む車輪に制動力を付与する。 The brake ECU 13 is an ECU that controls the braking device 23 of the vehicle 1. The braking device 23 is connected to the brake ECU 13 and is a hydraulic or electric braking device. For example, if the braking device 23 is a hydraulic type, the braking device 23 is equipped with a brake actuator, and the function of the brake actuator distributes hydraulic pressure to the wheel cylinders of the brakes provided on each wheel, and the hydraulic pressure is used to apply braking force from each brake to the wheels, including the drive wheels.

メータECU14は、車両1のメータパネルの各部を制御するECUである。メータパネルは、車速およびエンジン回転数を表示する計器類、および、各種の情報を表示するための液晶ディスプレイ等の表示器を含む。また、メータECU14は、例えば、各種の運転支援機能を有効または無効にするための機能スイッチ24が接続されている。なお、運転支援機能によっては、その性質上、機能スイッチ24による切り替えによらずに、常時有効とされる機能があってもよい。 The meter ECU 14 is an ECU that controls each part of the meter panel of the vehicle 1. The meter panel includes instruments that display the vehicle speed and engine RPM, and displays such as a liquid crystal display for displaying various information. The meter ECU 14 is also connected to a function switch 24 for enabling or disabling various driving assistance functions, for example. Note that some driving assistance functions may, by their nature, be enabled at all times, regardless of whether they are switched on or off by the function switch 24.

ボディECU15は、車両のイグニッションスイッチがオフの状態でも動作の必要がある左右の各ウィンカおよびドアロックモータ等を制御するECUである。図2においては、ヘッドランプ25が、ボディECU15に接続されており、ボディECU15の指令に従って、点灯動作を行う。 The body ECU 15 is an ECU that controls the left and right turn signals and door lock motors, which need to be operated even when the vehicle ignition switch is off. In FIG. 2, the headlamps 25 are connected to the body ECU 15 and turn on according to commands from the body ECU 15.

運転制御ECU31は、運転支援機能の制御の中枢となるECUであり、車両用制御装置の一例である。運転制御ECU31は、カメラECU32、ソナーECU33およびレーダECU34により集約された各種センサの検出信号に基づく物標の検知結果を照合するセンサフュージョンに基づいて、各種の運転支援機能を実行する。また、運転制御ECU31は、メモリ41aと、外部I/F41bと、を備えている。また、運転制御ECU31は、図2に示すように、測位信号受信部35、車速センサ36、表示装置37、スピーカ38及びレインセンサ39等が接続されている。 The driving control ECU 31 is an ECU that is the center of control of the driving support functions, and is an example of a vehicle control device. The driving control ECU 31 executes various driving support functions based on sensor fusion, which collates target detection results based on detection signals from various sensors aggregated by the camera ECU 32, sonar ECU 33, and radar ECU 34. The driving control ECU 31 also includes a memory 41a and an external I/F 41b. As shown in FIG. 2, the driving control ECU 31 is also connected to a positioning signal receiver 35, a vehicle speed sensor 36, a display device 37, a speaker 38, a rain sensor 39, and the like.

メモリ41aは、運転制御ECU31のセンサフュージョンで用いる各種センサの組み合わせのパターンを規定したパターンテーブルや各種センサの諸元や取付位置、取付角度等の設置情報を含むセンサ情報等を記憶しているフラッシュメモリ等の不揮発性記憶装置である。パターンテーブルは、運転支援機能ごと、かつ当該運転支援機能における検知対象(車両、二輪車、歩行者等)ごとに存在する。また、センサ情報は、センサごとに存在する。パターンテーブル、センサ情報については後述する。 Memory 41a is a non-volatile storage device such as a flash memory that stores a pattern table that specifies the combination patterns of various sensors used in the sensor fusion of the driving control ECU 31, and sensor information including the specifications, mounting position, mounting angle, and other installation information of various sensors. A pattern table exists for each driving assistance function and for each detection target (vehicle, motorcycle, pedestrian, etc.) in that driving assistance function. Sensor information also exists for each sensor. The pattern table and sensor information will be described later.

外部I/F41bは、外部の情報処理装置である外部装置51等とデータ通信を行うためのインターフェースである。外部I/F41bは、例えば、イーサネット(登録商標)またはUSB(Universal Serial Bus)等の規格に準拠したインターフェースである。外部装置51は、メモリ41aに記憶されたパターンテーブルやセンサ情報の保存、編集、更新等の処理のために用いられるPC(Personal Computer)等の情報処理装置である。 The external I/F 41b is an interface for performing data communication with an external device 51, which is an external information processing device. The external I/F 41b is an interface that complies with standards such as Ethernet (registered trademark) or USB (Universal Serial Bus). The external device 51 is an information processing device such as a PC (Personal Computer) that is used for processing such as saving, editing, and updating the pattern table and sensor information stored in the memory 41a.

カメラECU32は、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42dおよび第2ステレオカメラ42eが接続され、各カメラ撮像された画像信号を受信して処理することにより画像データを生成するECUである。カメラECU32は、各カメラから受信した画像信号について処理を行った画像データを運転制御ECU31に送信する。第1単眼カメラ42a、第2単眼カメラ42bおよび第3単眼カメラ42cは、車両1の前方または後方の探索範囲の静止画を所定のフレームレートで連続して撮像可能なカメラセンサである。第1ステレオカメラ42dおよび第2ステレオカメラ42eは、撮像した2つの平行等位に配置された撮像部により得られた画像の視差から物標までの距離を計測することができるカメラセンサである。 The camera ECU 32 is an ECU to which the first monocular camera 42a, the second monocular camera 42b, the third monocular camera 42c, the first stereo camera 42d, and the second stereo camera 42e are connected, and which receives and processes image signals captured by each camera to generate image data. The camera ECU 32 transmits image data obtained by processing the image signals received from each camera to the driving control ECU 31. The first monocular camera 42a, the second monocular camera 42b, and the third monocular camera 42c are camera sensors capable of continuously capturing still images of a search range in front of or behind the vehicle 1 at a predetermined frame rate. The first stereo camera 42d and the second stereo camera 42e are camera sensors capable of measuring the distance to a target from the parallax of images captured by two imaging units arranged in parallel equiposition.

ソナーECU33は、ソナーセンサ43が接続され、ソナーセンサ43により得られた物標の検知信号を受信して処理するECUである。ソナーECU33は、ソナーセンサ43から受信した検知信号について処理を行ったデータを運転制御ECU31に送信する。ソナーセンサ43は、超音波を発信することによって物標を検知するセンサである。 The sonar ECU 33 is an ECU to which the sonar sensor 43 is connected, and which receives and processes the detection signal of a target obtained by the sonar sensor 43. The sonar ECU 33 transmits data obtained by processing the detection signal received from the sonar sensor 43 to the driving control ECU 31. The sonar sensor 43 is a sensor that detects a target by emitting ultrasonic waves.

レーダECU34は、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bが接続され、各ミリ波レーダにより得られた物標の検知信号を受信して処理するECUである。レーダECU34は、各ミリ波レーダから受信した検知信号について処理を行ったデータを運転制御ECU31に送信する。第1ミリ波レーダ44aおよび第2ミリ波レーダ44bは、ミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の周囲に存在する物標を検知するレーダ装置である。 The radar ECU 34 is connected to the first millimeter wave radar 44a and the second millimeter wave radar 44b, and is an ECU that receives and processes target detection signals obtained by each millimeter wave radar. The radar ECU 34 transmits data obtained by processing the detection signals received from each millimeter wave radar to the driving control ECU 31. The first millimeter wave radar 44a and the second millimeter wave radar 44b are radar devices that detect targets present around the vehicle 1 by emitting millimeter wave band radio waves and receiving the reflected radio waves.

なお、図2に示した車両1の各種センサは、一例を示したものであり、センサの個数、種類、および配置位置については図2に示したものに限定されるものではない。 Note that the various sensors of vehicle 1 shown in FIG. 2 are merely examples, and the number, types, and placement of sensors are not limited to those shown in FIG. 2.

測位信号受信部35は、GNSS(Global Navigation Satellite System)に基づき、測位衛星から測位信号を受信する受信装置である。測位信号受信部35は、例えば、USB規格の通信ケーブルを介して、運転制御ECU31と通信可能に接続されており、受信した測位信号を運転制御ECU31に出力する。運転制御ECU31は、測位信号受信部35から受信した測位信号に基づいて、車両1が存在する地点を検出する。なお、GNSSの一例として、例えばGPS(Global Positioning System:全地球測位システム)等が挙げられる。 The positioning signal receiving unit 35 is a receiving device that receives positioning signals from positioning satellites based on the Global Navigation Satellite System (GNSS). The positioning signal receiving unit 35 is communicatively connected to the driving control ECU 31 via, for example, a USB standard communication cable, and outputs the received positioning signals to the driving control ECU 31. The driving control ECU 31 detects the location where the vehicle 1 is located based on the positioning signals received from the positioning signal receiving unit 35. An example of the GNSS is the Global Positioning System (GPS).

車速センサ36は、例えば車両1の車輪の付近に設置され、当該車輪の回転速度または回転数を示す車速パルスを生成するセンサである。車速センサ36は、運転制御ECU31と通信可能に接続されており、生成した車速パルスを運転制御ECU31に出力する。運転制御ECU31は、車速センサ36から受信した車速パルスをカウントすることによって車両1の車速を求める。 The vehicle speed sensor 36 is a sensor that is installed, for example, near the wheels of the vehicle 1 and generates a vehicle speed pulse that indicates the rotation speed or number of rotations of the wheel. The vehicle speed sensor 36 is communicatively connected to the driving control ECU 31 and outputs the generated vehicle speed pulse to the driving control ECU 31. The driving control ECU 31 determines the vehicle speed of the vehicle 1 by counting the vehicle speed pulses received from the vehicle speed sensor 36.

表示装置37は、車両1の車室内のダッシュボード等に設置された、物体の認識情報等を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)、またはOELD(Organic Electro-Luminescent Display:有機ELディスプレイ)等の表示装置である。表示装置37は、運転制御ECU31と通信可能に接続されている。 The display device 37 is a display device such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescent Display) that is installed on the dashboard or the like in the passenger compartment of the vehicle 1 and displays object recognition information, etc. The display device 37 is connected to the driving control ECU 31 so as to be able to communicate with it.

スピーカ38は、車両1の車室内に設置された、音および音声を出力する音響装置である。スピーカ38は、運転制御ECU31と通信可能に接続されている。 The speaker 38 is an audio device that is installed in the passenger compartment of the vehicle 1 and outputs sounds and voices. The speaker 38 is connected to the driving control ECU 31 so as to be able to communicate with it.

レインセンサ39は、車両1の周囲環境(走行環境)を検出するセンサの一つとして利用可能である。レインセンサ39は、車両1に対する降雨を検出する、例えば、光学式(赤外線方式)のセンサであり、例えば車両1のフロントガラスの内側に配置される。この場合、フロントガラス上に雨滴が存在しない場合、発光部から照射された赤外光は、フロントガラス表面で反射して受光部に入射する。一方、フロントガラス上に雨滴が存在する場合、赤外光は雨滴を透過するため受光部への入射量は少なくなる。つまり、受光部における入射光の量に応じて雨滴の存在や雨滴の量(降雨の程度)が判定可能であり、生成した検出信号を運転制御ECU31に出力する。運転制御ECU31は、レインセンサ39から受信した検出信号に基づき、車両1の周囲環境(降雨状況)を判定する。例えば、降雨が原因で、画像を用いてセンシングを行うセンサの認識精度が低下していると見なすことが可能になる。なお、レインセンサ39の検出信号を用いる場合、降雨量に応じてセンサの認識精度(検出信頼性)の低下を段階的に判定するようにしてもよい。 The rain sensor 39 can be used as one of the sensors that detects the surrounding environment (driving environment) of the vehicle 1. The rain sensor 39 is, for example, an optical (infrared) sensor that detects rainfall on the vehicle 1, and is arranged, for example, inside the windshield of the vehicle 1. In this case, when there are no raindrops on the windshield, the infrared light irradiated from the light emitting unit is reflected by the windshield surface and enters the light receiving unit. On the other hand, when there are raindrops on the windshield, the infrared light passes through the raindrops, so the amount of light entering the light receiving unit is reduced. In other words, the presence of raindrops and the amount of raindrops (degree of rainfall) can be determined according to the amount of light incident on the light receiving unit, and the generated detection signal is output to the driving control ECU 31. The driving control ECU 31 determines the surrounding environment (rainfall situation) of the vehicle 1 based on the detection signal received from the rain sensor 39. For example, it becomes possible to consider that the recognition accuracy of a sensor that performs sensing using an image has decreased due to rainfall. In addition, when the detection signal of the rain sensor 39 is used, the decrease in the recognition accuracy (detection reliability) of the sensor may be determined in stages according to the amount of rainfall.

なお、車両1の周囲環境(走行環境)の検出は、レインセンサ39に限らず、例えば、カメラECU32から取得する画像データに基づいて実施してもよい。画像データを用いる場合、例えば、カメラECU32から送られてくる画像(画像データ)のコントラストが、標準画像(予め準備された視界良好時の標準的な画像)に比べて、所定レベル以上低下した状態が所定期間継続した場合、降雨や降雪、霧等が原因で視界不良の可能性があると見なすことができる。この場合、車両1の運転支援を支障なく実行できる物標の認識レベルより悪化状態にあると判定することができる。つまり、カメラECU32から送られてくる画像データ自体を車両1の周囲環境(走行環境)の判定に利用できる。同様に、カメラECU32から送られてくる画像(画像データ)に含まれるエッジが標準画像より所定レベル以上識別し難くなった状態(ぼやけた状態)が所定期間継続した場合、降雨や降雪、霧等が原因で視界不良の可能性があると見なすことができる。この場合も、車両1の運転支援を支障なく実行できる物標の認識レベルより悪化状態にあると判定することができる。つまり、カメラECU32から送られてくる画像データ自体を車両1の周囲環境(走行環境)の判定に利用できる。また、ソナーECU33から送られてくる検知信号は、音波の反射に基づく信号であるため、車両1の周囲状況が通常走行時より強い強風に曝されている場合、検出信号のパターンが非強風時と明らかに変化する。その変化程度に基づき、車両1の周囲環境(走行環境)の判定(強風状態か否かの判定)を実施することができる。このように、センサごとに予め定められた検出値閾値(標準値)に至らない検出値を所定期間継続的に検出した場合、車両1の周囲環境が悪化したと判定することができる。車両1の周囲環境の変化(悪化)を認識することにより、後述する車両1の周囲環境(走行環境)に応じた運転支援制御のための各種の処理が実現できる。 The detection of the surrounding environment (driving environment) of the vehicle 1 is not limited to the rain sensor 39, and may be performed based on image data acquired from the camera ECU 32, for example. When image data is used, for example, when the contrast of the image (image data) sent from the camera ECU 32 is lower than a predetermined level compared to a standard image (a standard image prepared in advance when visibility is good) for a predetermined period of time, it can be determined that there is a possibility of poor visibility due to rainfall, snowfall, fog, etc. In this case, it can be determined that the recognition level of the target is worse than the level at which the driving assistance of the vehicle 1 can be performed without hindrance. In other words, the image data itself sent from the camera ECU 32 can be used to determine the surrounding environment (driving environment) of the vehicle 1. Similarly, when the edge included in the image (image data) sent from the camera ECU 32 is more difficult to distinguish than the standard image by a predetermined level (blurred state) for a predetermined period of time, it can be determined that there is a possibility of poor visibility due to rainfall, snowfall, fog, etc. In this case, it can also be determined that the recognition level of the target is worse than the level at which the driving assistance of the vehicle 1 can be performed without hindrance. That is, the image data itself sent from the camera ECU 32 can be used to determine the surrounding environment (driving environment) of the vehicle 1. In addition, since the detection signal sent from the sonar ECU 33 is a signal based on the reflection of sound waves, if the surrounding conditions of the vehicle 1 are exposed to stronger winds than during normal driving, the pattern of the detection signal clearly changes from that when there are no strong winds. Based on the degree of change, the surrounding environment (driving environment) of the vehicle 1 can be determined (determined whether or not there is a strong wind state). In this way, if a detection value that does not reach the detection value threshold (standard value) predetermined for each sensor is continuously detected for a predetermined period of time, it can be determined that the surrounding environment of the vehicle 1 has deteriorated. By recognizing the change (deterioration) in the surrounding environment of the vehicle 1, various processes for driving assistance control according to the surrounding environment (driving environment) of the vehicle 1, which will be described later, can be realized.

なお、図2に示した車両1の電気的構成は一例を示すものであり、図2に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。また、図2に示される各種ECUは、それぞれ独立したハードウェアとなっていることに限られず、いずれかが集約されたECUとして構成されてもよい。例えば、運転制御ECU31とカメラECU32とが集約された1つのECUとして構成され、当該ECUが、運転制御ECU31およびカメラECU32の双方の機能を有するものとしてもよい。 Note that the electrical configuration of vehicle 1 shown in FIG. 2 is an example, and does not need to include all of the components shown in FIG. 2, or may include other components. Furthermore, the various ECUs shown in FIG. 2 are not limited to being independent hardware, and may be configured as an integrated ECU. For example, the driving control ECU 31 and the camera ECU 32 may be configured as a single integrated ECU, and the ECU may have the functions of both the driving control ECU 31 and the camera ECU 32.

(車両の運転制御ECUの機能的なブロック構成および動作)
図3は、車両用制御装置(運転制御ECU)の機能的な構成を示す例示的かつ模式的なブロック図である。図4は、車両用制御装置で利用可能な各種センサの特性の一例を示す図である。図5は、実施形態に係る車両用制御装置で利用可能な各種センサの性能の一例を示す図である。図6は、実施形態に係る車両用制御装置で利用可能なパターンテーブルの一例を示す図である。図3~図6を参照しながら、本実施形態に係る車両1の運転制御ECU31の機能的にブロック構成および動作について説明する。
(Functional block configuration and operation of vehicle driving control ECU)
FIG. 3 is an exemplary schematic block diagram showing a functional configuration of a vehicle control device (driving control ECU). FIG. 4 is a diagram showing an example of characteristics of various sensors that can be used in the vehicle control device according to the embodiment. FIG. 5 is a diagram showing an example of performance of various sensors that can be used in the vehicle control device according to the embodiment. FIG. 6 is a diagram showing an example of a pattern table that can be used in the vehicle control device according to the embodiment. The functional block configuration and operation of the driving control ECU 31 of the vehicle 1 according to the embodiment will be described with reference to FIGS. 3 to 6.

図3に示すように、運転制御ECU31は、設定部61と、記憶部62と、認識部63と、車両制御部64と、出力制御部65と、を有する。なお、認識部63は、制御判定部63a、センサ認識低下検出部63b、認識可能エリア演算部63c、認識可能エリア統合部63dを含む。また、記憶部62は、パターンテーブル記憶部62a、センサ情報記憶部62bを含む。車両制御部64は、可変処理部64aを含む。 As shown in FIG. 3, the driving control ECU 31 has a setting unit 61, a memory unit 62, a recognition unit 63, a vehicle control unit 64, and an output control unit 65. The recognition unit 63 includes a control determination unit 63a, a sensor recognition degradation detection unit 63b, a recognizable area calculation unit 63c, and a recognizable area integration unit 63d. The memory unit 62 includes a pattern table memory unit 62a and a sensor information memory unit 62b. The vehicle control unit 64 includes a variable processing unit 64a.

設定部61は、外部装置51からの指令に応じて、記憶部62に記憶されたパターンテーブルやセンサ情報について保存、編集、更新等の設定処理を実行する機能部である。 The setting unit 61 is a functional unit that executes setting processes such as saving, editing, and updating the pattern tables and sensor information stored in the memory unit 62 in response to commands from the external device 51.

パターンテーブル記憶部62aに記憶されたパターンテーブル(パターン情報の一例)は、上述したように、運転支援機能ごと、かつ当該運転支援機能における検知対象(車両、二輪車、歩行者等)ごとに用意され、上述の各種センサの組み合わせのパターンを規定したテーブルである。ここで、上述の各種センサ、すなわち、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bは、それぞれ特性が異なる。例えば、図4に、センサの種類ごとの特性の一例を示している。図4では、センサの特性として、例えば、センシング方式、検知距離、横方向分解能、検知可能な対象物、および天候依存を示している。例えば、単眼センサの場合、センシング方式が画像に基づく方式であり、検知距離が百数十mまでとなっており、横方向分解能が特に優れており、検知可能な対象物がやや性能が劣っており、天候依存が中程度であることを示している。また、検知距離については、ミリ波レーダは、ソナーセンサおよびレーザレーダよりも特に優れていることが把握できる。なお、図4では、同じ種類のセンサでは、同一の特性であるものとして説明しているが、同じ種類のセンサであっても、特性が異なり得るのは言うまでもない。 As described above, the pattern table (an example of pattern information) stored in the pattern table storage unit 62a is prepared for each driving assistance function and for each detection target (vehicle, motorcycle, pedestrian, etc.) in the driving assistance function, and is a table that specifies the combination patterns of the above-mentioned various sensors. Here, the above-mentioned various sensors, namely, the first monocular camera 42a, the second monocular camera 42b, the third monocular camera 42c, the first stereo camera 42d, the second stereo camera 42e, the sonar sensor 43, the first millimeter wave radar 44a, and the second millimeter wave radar 44b, each have different characteristics. For example, FIG. 4 shows an example of the characteristics of each type of sensor. In FIG. 4, the characteristics of the sensor are, for example, the sensing method, the detection distance, the lateral resolution, the detectable object, and the weather dependency. For example, in the case of a monocular sensor, the sensing method is based on an image, the detection distance is up to a hundred and several tens of meters, the lateral resolution is particularly excellent, the detectable object has slightly poor performance, and the weather dependency is moderate. In addition, it can be seen that millimeter wave radar is particularly superior to sonar sensors and laser radar in terms of detection distance. Note that in Figure 4, sensors of the same type are described as having the same characteristics, but it goes without saying that sensors of the same type can have different characteristics.

図4に示したように、各種センサは、種類に応じて特性が異なるため、各種の運転支援機能を実行するために求められる車両識別性能、歩行者識別性能および距離測定性能等の各種性能を発揮するのに適しているか否かが判断される。図5には、車両1に搭載される第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bの特性に応じて判断された、各種運転支援機能の実行に求められる各種性能に対する適否が示されている。例えば、図5では、車両識別性能を発揮するためには、第1単眼カメラ42a、第2単眼カメラ42bおよび第1ステレオカメラ42dが適しており、第2ミリ波レーダ44bがやや適しておらず、第3単眼カメラ42c、第1ミリ波レーダ44a、第2ステレオカメラ42eおよびソナーセンサ43が適していないことが示されている。また、距離測定性能を発揮するためには、第2単眼カメラ42b以外のセンサであれば、適していることが示されている。なお、図5に示した各種性能に対する適否の表示方法は、一例を示すものであり、例えば、数値的な評価値により適否の評価を表してもよい。 As shown in FIG. 4, the characteristics of various sensors differ depending on the type, so it is judged whether they are suitable for performing various performances required for performing various driving support functions, such as vehicle identification performance, pedestrian identification performance, and distance measurement performance. FIG. 5 shows the suitability of various performances required for performing various driving support functions, judged according to the characteristics of the first monocular camera 42a, the second monocular camera 42b, the third monocular camera 42c, the first stereo camera 42d, the second stereo camera 42e, the sonar sensor 43, the first millimeter wave radar 44a, and the second millimeter wave radar 44b mounted on the vehicle 1. For example, FIG. 5 shows that the first monocular camera 42a, the second monocular camera 42b, and the first stereo camera 42d are suitable for performing vehicle identification performance, the second millimeter wave radar 44b is somewhat unsuitable, and the third monocular camera 42c, the first millimeter wave radar 44a, the second stereo camera 42e, and the sonar sensor 43 are unsuitable. It is also shown that any sensor other than the second monocular camera 42b is suitable for achieving distance measurement performance. Note that the method of displaying the suitability of various performances shown in FIG. 5 is merely an example, and the suitability evaluation may be expressed, for example, by a numerical evaluation value.

このように、開発者は、予め車両1に搭載される各種センサの特性に応じて、図5に示すような、各種運転支援機能の実行に求められる各種性能に対する適否を整理しておく。そして、開発者は、外部装置51を介して、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに、各種センサの各種性能に対する適否に基づいて、当該各種性能に対応する検知対象の検知に用いるセンサの組み合わせ(すなわち、検知対象について検知を確定してもよいセンサの組み合わせ)のパターンを規定したパターンテーブルを作成する。図6に、パターンテーブルの一例として、運転支援機能として車両用AEBに対応するパターンテーブルを示す。この車両用AEBは、検知対象が車両であり、車両識別処理および距離測定処理を含むため、開発者は、図5に示す車両識別性能および距離測定性能に対する各種センサの適否に応じて、車両用AEBのパターンテーブルを設定する。パターンテーブルについては、外部装置51で作成されたものが、設定部61により記憶部62(パターンテーブル記憶部62a)に保存または更新されるものとしてもよく、または、外部装置51からの指令に応じて、記憶部62に記憶されたパターンテーブルに対して設定部61により編集が可能であるものとしてもよい。 In this way, the developer organizes in advance the suitability of various performances required for the execution of various driving assistance functions as shown in FIG. 5 according to the characteristics of various sensors mounted on the vehicle 1. Then, the developer creates a pattern table via the external device 51 for each driving assistance function and for each detection target in the driving assistance function, based on the suitability of the various sensors for the various performances, that specifies the pattern of the combination of sensors used to detect the detection target corresponding to the various performances (i.e., the combination of sensors that may confirm the detection of the detection target). FIG. 6 shows a pattern table corresponding to the vehicle AEB as a driving assistance function as an example of a pattern table. Since this vehicle AEB detects a vehicle as a detection target and includes vehicle identification processing and distance measurement processing, the developer sets the pattern table for the vehicle AEB according to the suitability of the various sensors for the vehicle identification performance and distance measurement performance shown in FIG. 5. The pattern table may be created by the external device 51 and then stored or updated in the storage unit 62 (pattern table storage unit 62a) by the setting unit 61, or the pattern table stored in the storage unit 62 may be edited by the setting unit 61 in response to a command from the external device 51.

開発者は、車両用AEB対応するパターンテーブルに規定する各種センサの組み合わせのパターンの基準として、例えば、以下の条件(1)または条件(2)のいずれかを満たすセンサの組み合わせを、車両について検知を確定してもよいセンサの組み合わせとして設定する。 As a criterion for the pattern of combinations of various sensors specified in the pattern table corresponding to the vehicle AEB, the developer sets, for example, a sensor combination that satisfies either the following condition (1) or condition (2) as a sensor combination that may confirm detection for the vehicle.

・条件(1):車両識別性能の適否が「〇」、かつ距離測定性能の適否が「〇」の組み合わせ
・条件(2):車両識別性能の適否が「△」であるセンサと、距離測定性能の適否が「〇」である他の2つのセンサとの組み合わせ
Condition (1): A combination of a sensor whose vehicle identification performance is rated as "good" and whose distance measurement performance is rated as "good" Condition (2): A combination of a sensor whose vehicle identification performance is rated as "△" and two other sensors whose distance measurement performance is rated as "good"

図6では、以上の条件を満たすセンサの組み合わせのパターンとして、パターン(1)~パターン(14)がパターンテーブルに設定されている例を示している。例えば、パターン(1)では、第1単眼カメラ42aについて、車両識別性能および距離測定性能の適否が共に「〇」であるため、条件(1)を満たし、単独で車両について検知を確定することができる。また、パターン(2)では、第2単眼カメラ42bについて車両識別性能の適否が「〇」であり、第3単眼カメラ42cについて距離測定性能の適否が「〇」であるため、条件(1)を満たし、車両について検知を確定してもよい組み合わせとなる。また、パターン(7)では、第2ミリ波レーダ44bについて車両識別性能の適否が「△」であり、第3単眼カメラ42cおよび第1ミリ波レーダ44aについて距離測定性能の適否が「〇」であるため、条件(2)を満たし、車両について検知を確定してもよい組み合わせとなる。 Figure 6 shows an example in which patterns (1) to (14) are set in the pattern table as patterns of sensor combinations that satisfy the above conditions. For example, in pattern (1), the suitability of the vehicle identification performance and the distance measurement performance of the first monocular camera 42a are both "o", so condition (1) is satisfied and the detection of the vehicle can be confirmed by itself. In pattern (2), the suitability of the vehicle identification performance of the second monocular camera 42b is "o", and the suitability of the distance measurement performance of the third monocular camera 42c is "o", so this combination satisfies condition (1) and may confirm the detection of the vehicle. In pattern (7), the suitability of the vehicle identification performance of the second millimeter wave radar 44b is "△", and the suitability of the distance measurement performance of the third monocular camera 42c and the first millimeter wave radar 44a is "o", so this combination satisfies condition (2) and may confirm the detection of the vehicle.

なお、センサの組み合わせのパターンを規定する上述の条件は一例であり、他の条件でパターンを規定するものとしてもよい。また、図6では、パターンテーブルにはパターン(1)~パターン(14)のパターンが規定されているが、物標の認識に用いるパターンとしてこれらのすべてを用いる必要はない。この場合、不要なパターンは、パターンテーブルから削除するものとすればよい。 Note that the above conditions for defining the sensor combination patterns are merely examples, and patterns may be defined by other conditions. In addition, in FIG. 6, patterns (1) to (14) are defined in the pattern table, but it is not necessary to use all of these patterns for target recognition. In this case, unnecessary patterns can be deleted from the pattern table.

また、車両1の仕様変更等に応じて、既存のセンサの取り外し、または新たなセンサの搭載が生じた場合には、開発者は、外部装置51を用い、設定部61を介してパターンテーブルを変更するものとすればよい。例えば、既存のセンサの取り外しが生じた場合には、開発者は、パターンテーブルの該当する当該センサに対応する列を削除し、上述の条件を満たすセンサの組み合わせのパターンを再設定するものとすればよい。また、新たなセンサの搭載が生じた場合には、開発者は、パターンテーブルに当該センサ用の新たな列を追加し、上述の条件を満たすセンサの組み合わせのパターンを追加設定するものとすればよい。または、開発者は、搭載が想定される最大限の数および種類のセンサに対応したパターンテーブルを予め作成しておき、センサの取り外し、または新たなセンサの搭載に応じて、パターンテーブルに規定するパターンの内容を編集設定するものとしてもよい。この場合には、パターンテーブルの列の削除または追加の手間を省略することができる。 In addition, when an existing sensor is removed or a new sensor is installed in response to a change in the specifications of the vehicle 1, the developer may use the external device 51 to change the pattern table via the setting unit 61. For example, when an existing sensor is removed, the developer may delete a column corresponding to the relevant sensor in the pattern table and reconfigure a pattern of a combination of sensors that satisfies the above-mentioned conditions. In addition, when a new sensor is installed, the developer may add a new column for the sensor to the pattern table and additionally set a pattern of a combination of sensors that satisfies the above-mentioned conditions. Alternatively, the developer may create a pattern table in advance that corresponds to the maximum number and types of sensors that are expected to be installed, and edit and set the contents of the patterns specified in the pattern table in response to the removal of a sensor or the installation of a new sensor. In this case, the effort of deleting or adding columns in the pattern table can be omitted.

なお、図6に一例として示したパターンテーブルはテーブル形式の情報としているが、テーブル形式であることに限定されるものではなく、各種センサの組み合わせのパターンを規定することができれば、どのような形式の情報(パターン情報の一例)であってもよい。 Note that the pattern table shown as an example in FIG. 6 is information in table format, but is not limited to table format, and any format of information (an example of pattern information) may be used as long as it can specify a pattern of combinations of various sensors.

また、センサ情報記憶部62bは、上述した各センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶する。上述したように、各センサは、種々の検出情報を効率よく取得できるように、センサごとに異なる特性を有する。また、必要となる検出情報を適切かつ効率的に取得するための設置位置や設置姿勢(設置角度)等がセンサごとに異なる。そこで、センサ情報記憶部62bには、センサごとの諸元情報として、それぞれセンシング方式、検知距離、横方向分解能、検知可能な対象物、および天候依存特性等が記憶されている。天候依存特性は、センサごとにどの天候で検出信頼性が低下するかを示す情報で、例えば、センシング方式が画像の場合、車両1の周辺状況が霧や降雨等場合、検出信頼性が低下する。この場合、例えば、霧や降雨の程度がランク分けされ、各ランクにおける検出信頼性の重み付け係数等が規定されてもよい。また、センサごとに諸元情報と関連付けられた設置情報として設置位置(例えば、フロントバンパやリヤバンパにおける設置位置)や設置姿勢(例えば、車幅方向における検出方向や上下方向の角度等)がセンサ情報記憶部62bに記憶されている。 The sensor information storage unit 62b also stores sensor information including at least the specification information and installation information of each of the above-mentioned sensors. As described above, each sensor has different characteristics so that various detection information can be efficiently acquired. In addition, the installation position and installation attitude (installation angle) for appropriately and efficiently acquiring the required detection information differ for each sensor. Therefore, the sensor information storage unit 62b stores the sensing method, detection distance, lateral resolution, detectable objects, and weather-dependent characteristics as specification information for each sensor. The weather-dependent characteristics are information indicating in which weather the detection reliability decreases for each sensor. For example, when the sensing method is an image, when the surrounding conditions of the vehicle 1 are foggy or rainy, the detection reliability decreases. In this case, for example, the degree of fog or rainfall may be ranked, and a weighting coefficient for the detection reliability for each rank may be specified. Additionally, the installation position (e.g., the installation position on the front bumper or rear bumper) and installation attitude (e.g., the detection direction in the vehicle width direction and the angle in the vertical direction, etc.) are stored as installation information associated with the specification information for each sensor in the sensor information storage unit 62b.

記憶部62は、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに対応するパターンテーブル及びセンサ情報を記憶する機能部である。記憶部62は、図2に示すメモリ41aによって実現される。なお、記憶部62は、外部のHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置によって実現されてもよい。 The storage unit 62 is a functional unit that stores pattern tables and sensor information corresponding to each driving assistance function and each detection target in the driving assistance function. The storage unit 62 is realized by the memory 41a shown in FIG. 2. The storage unit 62 may also be realized by a storage device such as an external HDD (Hard Disk Drive) or SSD (Solid State Drive).

認識部63は、記憶部62における、車両制御部64で有効となっている運転支援機能に対応するパターンテーブルを参照し、センサフュージョンにより、当該パターンテーブルで規定されたそれぞれのパターンによる検知結果を照合して、物標を認識する機能部である。物標の認識としては、例えば、物標の位置を認識し、当該物標の種類を識別する。認識部63は、物標に対する認識結果を、車両制御部64および出力制御部65に出力する。 The recognition unit 63 is a functional unit that refers to a pattern table in the memory unit 62 that corresponds to the driving assistance function enabled by the vehicle control unit 64, and uses sensor fusion to compare the detection results according to each pattern defined in the pattern table to recognize targets. Target recognition involves, for example, recognizing the position of the target and identifying the type of the target. The recognition unit 63 outputs the recognition results for the target to the vehicle control unit 64 and the output control unit 65.

まず、各センサが図4に示す各種性能を正常に発揮している場合、つまり、車両1の周囲の環境が、各センサの検出信頼性を適切に得られるような状態(例えば、霧や降雨がない状態)の場合について説明する。例えば、車両制御部64で有効となっている運転支援機能が車両用AEBである場合、認識部63は、記憶部62の車両用AEBに対応する(すなわち運転支援機能としてのAEB、および検知対象としての車両に対応する)パターンテーブルを参照する。次に、認識部63は、当該パターンテーブルで規定されている各パターンに属するセンサにより認識された物標の位置、および識別された物標の種類を、それぞれ照合する。そして、認識部63は、照合の結果、一致する場合の物標の位置および種類を最終的な認識結果とする。例えば、パターンテーブルにパターン(1)~パターン(3)が設定されている場合、認識部63は、パターン(1)~パターン(3)により認識された物標の位置をそれぞれ照合し、一致する場合に当該物標の位置を最終的な認識結果とする。同様に、認識部63は、パターン(1)~パターン(3)により識別された物標の種類をそれぞれ照合し、一致する場合に当該物標の種類を最終的な認識結果とする。なお、認識部63において、照合する検知結果(例えば、物標の位置の検知結果)が必ずしも厳密に一致していなくても、差分が所定値未満または差分が微小であれば、一致とみなして、最終的に認識結果とするものとしてもよい。 First, a case where each sensor normally performs the various functions shown in FIG. 4, that is, a case where the environment around the vehicle 1 is in a state where the detection reliability of each sensor can be appropriately obtained (for example, a state where there is no fog or rainfall) will be described. For example, when the driving assistance function enabled in the vehicle control unit 64 is the AEB for the vehicle, the recognition unit 63 refers to a pattern table corresponding to the AEB for the vehicle in the storage unit 62 (that is, corresponding to the AEB as the driving assistance function and the vehicle as the detection target). Next, the recognition unit 63 compares the positions of the targets recognized by the sensors belonging to each pattern specified in the pattern table and the types of the identified targets. Then, the recognition unit 63 sets the position and type of the target that match as the final recognition result as a result of the comparison. For example, when patterns (1) to (3) are set in the pattern table, the recognition unit 63 compares the positions of the targets recognized by the patterns (1) to (3), and sets the position of the target as the final recognition result if they match. Similarly, the recognition unit 63 compares the types of targets identified by the patterns (1) to (3), and if there is a match, the type of target is the final recognition result. Note that even if the detection results to be compared (for example, the detection results of the target position) do not necessarily match exactly, the recognition unit 63 may consider them to match and use them as the final recognition result as long as the difference is less than a predetermined value or is very small.

車両制御部64は、認識部63による認識結果に基づいて、各種運転支援機能を実行して、駆動ECU11、操舵ECU12およびブレーキECU13等に指令を出力することにより車両1の走行を制御する機能部である。また、車両制御部64は、運転支援機能に応じて、表示装置37による表示出力、またはスピーカ38による警告音または案内音声等の出力が必要な場合、当該出力をさせるための指令を出力制御部65に出力する。なお、車両制御部64で実行される運転支援機能は、複数であることに限定されず、単一の運転支援機能が実行されるものとしてもよい。 The vehicle control unit 64 is a functional unit that executes various driving assistance functions based on the recognition results by the recognition unit 63, and controls the running of the vehicle 1 by outputting commands to the drive ECU 11, steering ECU 12, brake ECU 13, etc. Furthermore, when display output by the display device 37 or output of a warning sound or voice guidance by the speaker 38 is required depending on the driving assistance function, the vehicle control unit 64 outputs a command to the output control unit 65 to cause such output. Note that the driving assistance functions executed by the vehicle control unit 64 are not limited to being multiple, and a single driving assistance function may be executed.

出力制御部65は、表示装置37の表示制御、およびスピーカ38の音または音声の出力制御を行う機能部である。例えば、出力制御部65は、認識部63から受け取った認識結果を、表示装置37表示させるものとしてもよい。また、出力制御部65は、車両制御部64で実行される運転支援機能に応じて、表示装置37に対して表示出力、またはスピーカ38に対して警告音または案内音声等の出力をさせる。 The output control unit 65 is a functional unit that controls the display of the display device 37 and the sound or audio output of the speaker 38. For example, the output control unit 65 may cause the recognition result received from the recognition unit 63 to be displayed on the display device 37. In addition, the output control unit 65 causes the display device 37 to output a display, or the speaker 38 to output a warning sound or voice guidance, etc., depending on the driving assistance function executed by the vehicle control unit 64.

ところで、各センサは、上述したように車両1の周囲環境(走行環境)の変化(主に周囲環境の悪化)により、認識(検出)精度(検出信頼性)が低下する場合がある。そこで、本実施形態の車両用制御装置では、センサの認識精度(検出信頼性)が低下した場合でも、車両1の周囲環境(走行環境)の変化に応じて、適切な運転支援制御を実現する。なお、車両1の周囲環境(走行環境)の変化は、レインセンサ39等の専用のセンサによって検知することができる。また、他の実施形態では、車両1の周囲環境(走行環境)の変化は、カメラECU32、ソナーECU33およびレーダECU34に接続されている各種センサの認識(検出)精度の低下等に基づいて検知することもできる。なお、センサの認識精度の低下には、認識機能の停止も含む。 However, as described above, the recognition (detection) accuracy (detection reliability) of each sensor may decrease due to changes (mainly deterioration of the surrounding environment) in the surrounding environment (driving environment) of the vehicle 1. Therefore, in the vehicle control device of this embodiment, even if the recognition accuracy (detection reliability) of the sensor decreases, appropriate driving assistance control is realized in response to the change in the surrounding environment (driving environment) of the vehicle 1. Note that the change in the surrounding environment (driving environment) of the vehicle 1 can be detected by a dedicated sensor such as the rain sensor 39. In other embodiments, the change in the surrounding environment (driving environment) of the vehicle 1 can also be detected based on a decrease in the recognition (detection) accuracy of various sensors connected to the camera ECU 32, sonar ECU 33, and radar ECU 34. Note that the decrease in the recognition accuracy of the sensor also includes the stop of the recognition function.

例えば、センシング方式として画像を用いている単眼カメラやステレオカメラの場合、降雨時、降雪時、霧の発生時、朝日や夕日に差し込み時等の天候の影響により、車両や歩行者等の物標の検出性能(認識精度、検出信頼性)が低下する場合がある。同様に、距離測定性能が低下する場合がある。その結果、物標の存在有無の誤判定や物標までの距離の誤測定の原因になる場合がある。そこで、本実施形態の認識部63は、車両1の周囲環境に基づいて、当該認識部63と車両制御部64の少なくとも一方を制御する制御判定部63aを含み、センサの認識精度(検出信頼性)が低下した場合でも対応可能としている。 For example, in the case of a monocular camera or stereo camera that uses images as a sensing method, the detection performance (recognition accuracy, detection reliability) of targets such as vehicles and pedestrians may decrease due to the influence of weather conditions such as rain, snow, fog, and sunlight shining in at sunrise or sunset. Similarly, distance measurement performance may decrease. As a result, this may cause erroneous determination of the presence or absence of a target or erroneous measurement of the distance to the target. Therefore, the recognition unit 63 of this embodiment includes a control determination unit 63a that controls at least one of the recognition unit 63 and the vehicle control unit 64 based on the surrounding environment of the vehicle 1, and is capable of responding even when the recognition accuracy (detection reliability) of the sensor decreases.

制御判定部63aは、車両1の周囲環境に応じて変化する、例えば、認識部63におけるセンサの認識精度(検出信頼性)に応じて、運転支援の制御対象範囲を変更したり、制御対象とする運転支援自体の変更を行ったりすることができる。 The control determination unit 63a can change the range of driving assistance control targets or change the driving assistance itself to be controlled depending on the surrounding environment of the vehicle 1, for example, depending on the recognition accuracy (detection reliability) of the sensor in the recognition unit 63.

センサ認識低下検出部63bは、車両1の周囲環境に基づくセンサの認識機能の低下要因を検出する機能を備える。前述したように、センサ認識低下検出部63bは、レインセンサ39の検出結果やカメラECU32から取得する画像データ等に基づいて、車両1の周囲環境の悪化の有無を検出可能である。センサ認識低下検出部63bは、例えば、センサの検出値が、センサごとに定められた所定の悪化レベル(信頼性低下レベル)に達している場合、信頼性が低下したセンサを特定するとともに、低下要因(例えば、霧や降雨等)を関連付けて記憶領域に記憶する。なお、この場合、信頼性低下レベルを例えば、小、中、大等のようにランク分けしたり数値により詳細に分類したりしてもよい。なお、信頼性が低下したセンサ及びその低下要因の情報は、記憶部62等に記憶してもよい。 The sensor recognition degradation detection unit 63b has a function of detecting factors of degradation of the recognition function of the sensor based on the surrounding environment of the vehicle 1. As described above, the sensor recognition degradation detection unit 63b can detect whether the surrounding environment of the vehicle 1 has deteriorated based on the detection result of the rain sensor 39 and image data acquired from the camera ECU 32. For example, when the detection value of the sensor reaches a predetermined deterioration level (reliability reduction level) set for each sensor, the sensor recognition degradation detection unit 63b identifies the sensor whose reliability has decreased and associates the cause of the deterioration (e.g., fog, rainfall, etc.) with the sensor and stores it in the memory area. In this case, the reliability reduction level may be ranked, for example, small, medium, large, etc., or classified in detail by numerical value. Information on the sensor whose reliability has decreased and the cause of the deterioration may be stored in the memory unit 62, etc.

認識可能エリア演算部63cは、低下要因とセンサ情報とに基づき、認識機能が低下しているセンサによって検知可能な物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部として機能する。すなわち、認識可能エリア演算部63cは、センサ認識低下検出部63bの検出結果に基づき、センサ情報記憶部62bから信頼性が低下したセンサに対応する諸元情報及び設置情報を取得して、信頼性が低下した状態でも検出結果が利用可能な認識エリアの演算を行う。図7は、センサの認識機能(信頼性)が低下した際の物標の認識領域の変化を示す例示的かつ模式的な平面図である。例えば、車両1のフロントガラスの上部に備えられ前方カメラセンサ2における周囲環境良好時の検出能力が検出範囲2aであったとする。この場合、認識可能エリア演算部63cは、センサ認識低下検出部63bの検出結果、例えば霧の検出(霧の程度の検出を含む)、前方カメラセンサ2の諸元情報、設置情報等に基づき、検出結果が利用可能な認識範囲を算出する。図7の場合、認識可能エリア演算部63cの演算の結果として、前方カメラセンサ2の縮小された検出範囲2aaが示されている。つまり、認識部63は、現在の周囲環境において、検出範囲2aaが示す範囲が前方カメラセンサ2の信頼し得る検出可能領域であると見なす。また、認識可能エリア演算部63cは、検出可能領域が変更されたことにより認識可能な物標が変化した場合、認識可能対象を変更する。例えば、周囲環境の悪化がない場合には、車両及び歩行者の検出が可能であったが、周囲環境の悪化(検出範囲の縮小)により、車両の識別は不能となったが、歩行者の識別は依然として可能である場合、認識可能対象を変更する。認識可能エリア演算部63cは、同様に他のセンサに関しても現在の周囲環境に基づく、信頼し得る検出範囲及び検出対象の算出を行う。なお、図7において、ソナーセンサ3は、近距離検出用であり、今回の霧の影響は受けていない(検出信頼性の低下はない)ものとして示されている。 The recognizable area calculation unit 63c functions as an acquisition unit that acquires at least one of the detection results of a target detectable by a sensor with a deteriorated recognition function and the area in which the target exists, based on the deterioration factor and the sensor information. That is, the recognizable area calculation unit 63c acquires the specification information and installation information corresponding to the sensor with a deteriorated reliability from the sensor information storage unit 62b based on the detection result of the sensor recognition deterioration detection unit 63b, and calculates the recognition area in which the detection result can be used even in a state in which the reliability is deteriorated. FIG. 7 is an exemplary and schematic plan view showing a change in the recognition area of a target when the recognition function (reliability) of the sensor is deteriorated. For example, it is assumed that the detection capability of the front camera sensor 2 provided on the upper part of the windshield of the vehicle 1 when the surrounding environment is good is the detection range 2a. In this case, the recognizable area calculation unit 63c calculates the recognition range in which the detection result can be used based on the detection result of the sensor recognition deterioration detection unit 63b, for example, the detection of fog (including the detection of the degree of fog), the specification information of the front camera sensor 2, the installation information, etc. In the case of FIG. 7, the reduced detection range 2aa of the front camera sensor 2 is shown as a result of the calculation by the recognizable area calculation unit 63c. That is, the recognition unit 63 considers that the range indicated by the detection range 2aa is the reliable detectable area of the front camera sensor 2 in the current surrounding environment. In addition, the recognizable area calculation unit 63c changes the recognizable target when the recognizable target changes due to the change in the detectable area. For example, if the surrounding environment is not deteriorated and it is possible to detect vehicles and pedestrians, but due to the deterioration of the surrounding environment (reduced detection range), it is no longer possible to identify vehicles but pedestrians are still possible to identify, the recognizable target is changed. The recognizable area calculation unit 63c similarly calculates reliable detection ranges and detection targets based on the current surrounding environment for other sensors. In addition, in FIG. 7, the sonar sensor 3 is shown as being for short-distance detection and is not affected by the current fog (no decrease in detection reliability).

認識可能エリア統合部63dは、運転支援機能ごとに対応して、物標の認識に用いるセンサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれのパターンに含まれるセンサによる検知結果に基づいて物標を認識する認識部として機能する。すなわち、認識可能エリア統合部63dは、認識可能エリア演算部63cが算出した各センサの検出範囲を統合する。検出範囲を統合することにより運転支援に利用するパターンテーブルにおけるパターンとの合致の確認が可能になり、現状の周囲環境における物標(車や歩行者等)の検出エリアを決定することができる。つまり、検出信頼性の確保できるエリアと、検出信頼性が確保できないエリアとの識別性を向上することができる。 The recognizable area integration unit 63d functions as a recognition unit that refers to pattern information that defines multiple patterns indicating combinations of sensors used to recognize targets corresponding to each driving assistance function, and recognizes targets based on the detection results by the sensors included in each pattern. That is, the recognizable area integration unit 63d integrates the detection ranges of each sensor calculated by the recognizable area calculation unit 63c. By integrating the detection ranges, it becomes possible to confirm a match with a pattern in a pattern table used for driving assistance, and it is possible to determine the detection area of targets (vehicles, pedestrians, etc.) in the current surrounding environment. That is, it is possible to improve the discrimination between areas where detection reliability can be ensured and areas where detection reliability cannot be ensured.

この場合、制御判定部63aは、例えば、特定の運転支援に必要となるセンサの認識精度(検出信頼性)が低下して、運転支援の際に誤判定や誤制御の可能性あると見なされる場合でも、運転支援の制御範囲を変更(具体的には縮小)して、検出信頼性が維持できる範囲内でセンサ結果を運転支援に利用するようにする。その結果、運転支援において誤判定や誤認識を抑制することが可能になる。 In this case, even if the recognition accuracy (detection reliability) of a sensor required for a specific driving assistance is reduced and it is deemed that there is a possibility of erroneous judgment or erroneous control during driving assistance, the control determination unit 63a changes (specifically reduces) the control range of the driving assistance so that the sensor results are used for driving assistance within a range in which detection reliability can be maintained. As a result, it becomes possible to suppress erroneous judgment and erroneous recognition in driving assistance.

制御判定部63aは、センサの検出精度(検出信頼性)に応じて車両制御部64における運転支援機能の実行態様を変更してもよい。制御判定部63aは、センサの検出精度(検出信頼性)に応じて、車両制御部64の可変処理部64aに対して、運転支援の制御介入量や介入タイミングの変更を要求することができる。例えば、センサ情報記憶部62b、認識可能エリア演算部63c、認識可能エリア統合部63d等の処理により、霧や降雨等が原因で車両や歩行者等の物標の認識精度が低下していると見なせる場合、制御判定部63aは、認識可能エリア統合部63dの処理結果に基づき、物標の認識が確実に行える距離まで運転支援制御への介入量を制限してもよい。例えば、運転支援機能がステアリング制御の場合は、付与するトルクを少なくしたり、制御舵角を小さくしたりする。同様に、制御判定部63aは、物標の認識が確実に行えるまで運転支援制御への介入タイミングを遅延させるようにしてもよい。また、例えば、自動緊急ブレーキ等の自動ブレーキ制御の場合は、自動ブレーキの開始タイミングを物標の認識が確実に行えるまで遅らせるようにしてもよい。つまり、車両1の制動操作を運転者の手動操作に委ねる。この場合も、認識精度の低下したセンサによる誤検出やその結果発生し得る誤判定を抑制し、認識精度が低下している場合でも不適切な運転支援制御が実行されることが抑制できる。 The control determination unit 63a may change the execution mode of the driving assistance function in the vehicle control unit 64 according to the detection accuracy (detection reliability) of the sensor. The control determination unit 63a may request the variable processing unit 64a of the vehicle control unit 64 to change the control intervention amount and intervention timing of the driving assistance according to the detection accuracy (detection reliability) of the sensor. For example, when it is considered that the recognition accuracy of targets such as vehicles and pedestrians is reduced due to fog, rainfall, etc. by the processing of the sensor information storage unit 62b, the recognizable area calculation unit 63c, the recognizable area integration unit 63d, etc., the control determination unit 63a may limit the intervention amount in the driving assistance control to a distance where the target can be reliably recognized based on the processing result of the recognizable area integration unit 63d. For example, when the driving assistance function is steering control, the torque to be applied is reduced or the control steering angle is reduced. Similarly, the control determination unit 63a may delay the timing of intervention in the driving assistance control until the target can be reliably recognized. Also, for example, in the case of automatic braking control such as automatic emergency braking, the start timing of the automatic brake may be delayed until the target can be reliably recognized. In other words, the braking operation of the vehicle 1 is left to the manual operation of the driver. In this case, too, erroneous detection by a sensor with reduced recognition accuracy and the resulting erroneous judgment can be suppressed, and inappropriate driving assistance control can be prevented from being executed even when recognition accuracy has decreased.

車両制御部64の可変処理部64aは、認識部63により、センサの検知範囲が変更(縮小)された場合、運転支援機能の実行態様が変更された場合等、その変更結果に基づき、各種運転支援機能の禁止制御、または介入量の変更制御、介入タイミングの変更制御等を実行する。そして、車両制御部64は、駆動ECU11、操舵ECU12およびブレーキECU13等にセンサ機能低下時においても適切な指令を出力することにより車両1の制御(走行)を継続させる。また、車両制御部64は、可変処理部64aによる変更処理に応じて、表示装置37による表示出力、またはスピーカ38による警告音または案内音声等の出力を要求する指令を出力制御部65に出力してもよい。この場合、例えば「センサ認識精度が低下しています。運転支援制御の介入を制限しています。周囲の状況に注視して運転して下さい。」や「センサ認識精度が低下しています。運転支援制御を一時的に縮小または中止します」等のメッセージを出力する。また、表示装置37に認識精度が低下しているセンサを通知する画像を表示してもよい。例えば、図1における(b)のような車両1とセンサの検出範囲を示す俯瞰画像を表示し、認識精度の低下している検出範囲を赤色で点滅表示させたり、逆に認識精度の低下している検出範囲を非表示としたりしてもよい。また、別の例では、認識精度(検出信頼性)が低下したセンサを利用する運転支援を一時的に禁止してもよい。この場合、案内メッセージは、例えば、「センサ認識精度が低下しています。現在歩行者の検出は可能ですが、車両の検出精度は低下しています。前方車両に対する追従走行制御は中止します。周囲の状況に注視して運転して下さい。」等となる。また、認識精度(検出信頼性)が低下したセンサでも検出対象が変われば検出信頼性を確保できる場合がある。例えば、車両の識別はできないものの、障害物の検出ができる場合がある。このような場合は、検出結果に基づく運転支援の対象を直接的な運転制御ではなく、警報等による注意喚起等の運転補助に変更することも可能になる。 When the detection range of the sensor is changed (reduced) by the recognition unit 63, or when the execution mode of the driving support function is changed, the variable processing unit 64a of the vehicle control unit 64 executes prohibition control of various driving support functions, change control of the intervention amount, change control of the intervention timing, etc. based on the change result. The vehicle control unit 64 continues the control (driving) of the vehicle 1 by outputting appropriate commands to the drive ECU 11, steering ECU 12, brake ECU 13, etc. even when the sensor function is reduced. In addition, the vehicle control unit 64 may output a command to the output control unit 65 requesting display output by the display device 37 or output of a warning sound or guidance voice by the speaker 38 in accordance with the change process by the variable processing unit 64a. In this case, for example, a message such as "The sensor recognition accuracy is decreasing. The intervention of the driving support control is being restricted. Please drive while paying attention to the surrounding situation" or "The sensor recognition accuracy is decreasing. The driving support control will be temporarily reduced or stopped" is output. In addition, an image notifying the sensor whose recognition accuracy is decreasing may be displayed on the display unit 37. For example, an overhead image showing the detection range of the vehicle 1 and the sensor as shown in (b) in FIG. 1 may be displayed, and the detection range where the recognition accuracy has decreased may be displayed in flashing red, or conversely, the detection range where the recognition accuracy has decreased may be hidden. In another example, driving assistance using a sensor with a decreased recognition accuracy (detection reliability) may be temporarily prohibited. In this case, the guidance message may be, for example, "The sensor recognition accuracy has decreased. Currently, pedestrians can be detected, but the detection accuracy of the vehicle has decreased. Following driving control for the vehicle ahead will be stopped. Please drive while paying attention to the surrounding situation." In addition, even if the recognition accuracy (detection reliability) of a sensor has decreased, detection reliability may be ensured if the detection target is changed. For example, although it cannot identify vehicles, it may be possible to detect obstacles. In such a case, it may be possible to change the target of driving assistance based on the detection result from direct driving control to driving assistance such as warnings by alarms, etc.

このように、車両1の周囲環境(走行環境)が変化して、一時的にセンサの認識機能(検出信頼性)が低下するような場合でも、センサによる認識状況をより適切に把握して最適な運転支援を実現することが可能になる。 In this way, even if the surrounding environment (driving environment) of the vehicle 1 changes and the sensor's recognition function (detection reliability) temporarily declines, it is possible to more appropriately grasp the recognition situation by the sensor and provide optimal driving assistance.

なお、図3に示す設定部61、認識部63、車両制御部64および出力制御部65は、例えば、図2に示す運転制御ECU31のCPUによりプログラムが実行されることによって実現される。これらの機能部の一部または全部は、論理回路等のハードウェアによって実現されてもよい。 The setting unit 61, recognition unit 63, vehicle control unit 64, and output control unit 65 shown in FIG. 3 are realized, for example, by the CPU of the driving control ECU 31 shown in FIG. 2 executing a program. Some or all of these functional units may be realized by hardware such as a logic circuit.

また、図3に示した運転制御ECU31の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。例えば、制御判定部63aは、認識部63とは別に設けられてもよいし、センサ情報記憶部62b、認識可能エリア演算部63c、認識可能エリア統合部63dは、認識エリア処理部として一つにまとめられてもよいし、可変処理部64aは、車両制御部64とは別に設けられてもよい。 Furthermore, each functional unit of the driving control ECU 31 shown in FIG. 3 is a conceptual representation of the function, and is not limited to this configuration. For example, multiple functional units illustrated as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function of one functional unit in FIG. 3 may be divided into multiple units and configured as multiple functional units. For example, the control determination unit 63a may be provided separately from the recognition unit 63, the sensor information storage unit 62b, the recognizable area calculation unit 63c, and the recognizable area integration unit 63d may be integrated into one recognition area processing unit, and the variable processing unit 64a may be provided separately from the vehicle control unit 64.

(車両の運転制御ECUの動作の流れ)
図8は、実施形態に係る車両1の車両用制御装置(運転制御ECU)の動作の流れの一例を示すフローチャートである。図8を参照しながら、本実施形態に係る車両1の運転制御ECU31の動作の流れについて説明する。
(Operation flow of the vehicle driving control ECU)
8 is a flowchart showing an example of an operation flow of the vehicle control device (drive control ECU) of the vehicle 1 according to the embodiment. The operation flow of the drive control ECU 31 of the vehicle 1 according to the embodiment will be described with reference to FIG.

<ステップS11>
開発者は、予め、外部装置51を介して、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに、各種センサの各種性能に対する適否に基づいて、当該各種性能に対応する検知対象の検知に用いるセンサの組み合わせのパターンを規定したパターンテーブルを作成する。そして、設定部61は、外部装置51からの指令に応じて、パターンテーブルを記憶部62のパターンテーブル記憶部62aに記憶させる。また、車両1の仕様変更等に応じて、既存のセンサの取り外し、または新たなセンサの搭載が生じた場合には、開発者は、外部装置51を用い、設定部61を介してパターンテーブルを変更設定する。そして、ステップS12へ移行する。
<Step S11>
The developer creates a pattern table in advance via the external device 51 for each driving assistance function and for each detection target in the driving assistance function, the pattern table defining a combination of sensors used to detect the detection target corresponding to each performance, based on the suitability of each sensor for each performance. Then, the setting unit 61 stores the pattern table in the pattern table storage unit 62a of the storage unit 62 in response to a command from the external device 51. Also, when an existing sensor is removed or a new sensor is installed in response to a change in the specifications of the vehicle 1, the developer uses the external device 51 to change and set the pattern table via the setting unit 61. Then, the process proceeds to step S12.

<ステップS12>
運転者によって車両1の運転が開始された場合(ステップS12:Yes)、ステップS13へ移行し、開始されない場合(ステップS12:No)、待機する。
<Step S12>
If the driver of the vehicle 1 has started driving (step S12: Yes), the process proceeds to step S13. If the driver has not started driving the vehicle 1 (step S12: No), the process waits.

<ステップS13>
センサ認識低下検出部63bが、レインセンサ39等の車両1の周辺環境(走行環境)を検出するセンサからの検知結果や車両や歩行者等の物標をセンシングするための各種センサ自身による認識精度の低下を示す検知結果に基づき、センサに機能低下(検出信頼性の低下)がないと判定された場合(ステップS13:No)、ステップS14に移行する。この場合、各種センサとは、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44a、第2ミリ波レーダ44b等である。また、センサに機能低下(検出信頼性の低下)があると判定された場合(ステップS13:Yes)、ステップS17に移行する。
<Step S13>
When the sensor recognition degradation detection unit 63b determines that the sensor does not have a functional degradation (deterioration in detection reliability) based on the detection results from the sensors that detect the surrounding environment (driving environment) of the vehicle 1, such as the rain sensor 39, and the detection results indicating a deterioration in the recognition accuracy of the various sensors for sensing targets such as vehicles and pedestrians (step S13: No), the process proceeds to step S14. In this case, the various sensors are the first monocular camera 42a, the second monocular camera 42b, the third monocular camera 42c, the first stereo camera 42d, the second stereo camera 42e, the sonar sensor 43, the first millimeter wave radar 44a, the second millimeter wave radar 44b, etc. Also, when the sensor recognition degradation detection unit 63b determines that the sensor has a functional degradation (deterioration in detection reliability) (step S13: Yes), the process proceeds to step S17.

<ステップS14>
制御判定部63a(認識部63)は、記憶部62において、有効になっている運転支援機能、および当該運転支援機能の検知対象に対応するパターンテーブルを参照する。そして、制御判定部63aは、当該パターンテーブルで規定されている各パターンに属するセンサによる検知処理の結果を得る。そして、ステップS15へ移行する。
<Step S14>
The control determination unit 63a (recognition unit 63) refers to a pattern table corresponding to the enabled driving support functions and the detection targets of the driving support functions in the storage unit 62. Then, the control determination unit 63a obtains the results of the detection process by the sensors belonging to each pattern defined in the pattern table. Then, the process proceeds to step S15.

<ステップS15>
制御判定部63aは、各パターンの検知結果として得られた物標の位置、および識別された物標の種類を、それぞれ照合するセンサフュージョンを行う。制御判定部63aは、照合の結果、一致する場合の物標の位置および種類を最終的な認識結果とする。そして、制御判定部63aは、物標に対する認識結果を、車両制御部64および出力制御部65に出力する。そして、ステップS16へ移行する。
<Step S15>
The control determination unit 63a performs sensor fusion to compare the positions of the targets obtained as the detection results of each pattern and the types of the identified targets. The control determination unit 63a determines the positions and types of the targets that match as the final recognition results. The control determination unit 63a then outputs the recognition results for the targets to the vehicle control unit 64 and the output control unit 65. Then, the process proceeds to step S16.

<ステップS16>
車両制御部64は、制御判定部63aによる認識結果に基づいて、各種運転支援機能を実行して、駆動ECU11、操舵ECU12およびブレーキECU13等に指令を出力することにより車両1の走行を制御する。
<Step S16>
The vehicle control unit 64 executes various driving assistance functions based on the recognition result by the control determination unit 63a, and controls the running of the vehicle 1 by outputting commands to the drive ECU 11, the steering ECU 12, the brake ECU 13, etc.

<ステップS17>
ステップS13において、センサに機能低下があると判定された場合(ステップS13:Yes)、制御判定部63aは、参照するパターンテーブルの修正を行う。例えば、第2単眼カメラ42bの認識精度低下が生じていると見なされた場合、第2単眼カメラ42bが含まれるパターンを参照するようにパターンテーブルに修正する。そして、ステップS18に移行する。なお、複数のセンサの認識精度が低下していると見なせる場合、それぞれのセンサが含まれるパターンを同様に参照するように修正する。
<Step S17>
In step S13, if it is determined that the sensor has a reduced function (step S13: Yes), the control determination unit 63a modifies the pattern table to be referenced. For example, if it is determined that the recognition accuracy of the second monocular camera 42b has decreased, the pattern table is modified to refer to a pattern including the second monocular camera 42b. Then, the process proceeds to step S18. Note that if it is determined that the recognition accuracy of multiple sensors has decreased, the pattern table is modified to refer to the patterns including each of the sensors in the same manner.

<ステップS18>
認識可能エリア演算部63cは、センサ認識低下検出部63bの検出結果に基づき、センサ情報記憶部62bから信頼性が低下したセンサに対応する諸元情報及び設置情報を取得して、信頼性が低下した状態でも検出結果が利用可能な認識可能対象物と認識可能エリアの演算を行う。そして、ステップS19へ移行する。
<Step S18>
The recognizable area calculation unit 63c acquires specification information and installation information corresponding to the sensor whose reliability has decreased from the sensor information storage unit 62b based on the detection result of the sensor recognition deterioration detection unit 63b, and calculates the recognizable object and the recognizable area whose detection result can be used even in a state where the reliability has decreased. Then, the process proceeds to step S19.

<ステップS19>
認識可能エリア統合部63dは、全てのセンサについて、実施する運転支援に対応するパターンテーブルにしたがって認識可能対象物と認識可能エリアの統合を行う。つまり、センサの検出信頼性が低下している状態でも認識可能な対象物(物標)と認識可能なエリアを決定する。そして、ステップS20へ移行する。
<Step S19>
The recognizable area integration unit 63d integrates the recognizable objects and recognizable areas for all sensors according to a pattern table corresponding to the driving assistance to be performed. That is, it determines the recognizable objects (targets) and recognizable areas even in a state where the detection reliability of the sensor is reduced. Then, the process proceeds to step S20.

<ステップS20>
制御判定部63aは、認識可能エリア統合部63dで統合された認識可能対象物と認識可能エリアをユーザ(運転者等)にその旨告知(通知)するとともに、運転支援制御への介入を制御する。例えば、運転支援の対象範囲の変更や、検出可能な物標の変更、運転支援の制御量や制御タイミングの変更等を実行し、このフローを一旦終了する。
<Step S20>
The control determination unit 63a notifies (notifies) the user (driver, etc.) of the recognizable objects and recognizable areas integrated by the recognizable area integration unit 63d, and controls intervention in driving assistance control. For example, it executes changes to the target range of driving assistance, changes to detectable targets, changes to the control amount and control timing of driving assistance, etc., and temporarily ends this flow.

(本実施形態の効果)
以上のように、本実施形態に係る車両1の車両用制御装置(運転制御ECU31)では、車両1の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する装置である。認識部63は、車両1の周囲環境に基づくセンサの認識機能の低下要因を検出する認識低下検出部(センサ認識低下検出部63b)と、低下要因とセンサ情報とに基づき、認識機能が低下しているセンサによって検知可能な物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部(認識可能エリア演算部63c)と、運転支援機能ごとに対応して、物標の認識に用いるセンサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれのパターンに含まれるセンサによる検知結果に基づいて物標を認識する認識部(認識可能エリア統合部63d)とを備える。また、センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部62bを備える。そして、認識部(認識可能エリア統合部63d)による物標の認識結果に基づいて、当該認識結果が得られたパターンに対応する運転支援機能を実行する車両制御部64を備える。このように、車両1の周囲環境(走行環境)が変化して、一時的にセンサの認識機能が低下するような場合でも、センサの認識状況をより適切に把握して最適な運転支援を実現することができる。
(Effects of this embodiment)
As described above, the vehicle control device (driving control ECU 31) of the vehicle 1 according to this embodiment is a device that executes one or more driving support functions based on detection signals received from multiple types of sensors that detect targets around the vehicle 1. The recognition unit 63 includes a recognition degradation detection unit (sensor recognition degradation detection unit 63b) that detects a factor of degradation in the recognition function of the sensor based on the surrounding environment of the vehicle 1, an acquisition unit (recognizable area calculation unit 63c) that acquires detection results of at least one of targets detectable by a sensor whose recognition function is degraded and an area in which the target exists based on the degradation factor and sensor information, and a recognition unit (recognizable area integration unit 63d) that recognizes targets based on detection results by sensors included in each pattern by referring to pattern information that defines multiple patterns indicating combinations of sensors used to recognize targets corresponding to each driving support function. The recognition unit 63 also includes a sensor information storage unit 62b that stores sensor information including at least sensor specification information and installation information. The recognition unit 63 includes a vehicle control unit 64 that executes a driving support function corresponding to the pattern in which the recognition result is obtained based on the recognition result of the target by the recognition unit (recognizable area integration unit 63d). In this way, even if the surrounding environment (driving environment) of the vehicle 1 changes and the sensor's recognition function is temporarily reduced, the sensor's recognition status can be more appropriately grasped to achieve optimal driving assistance.

また、認識部(認識可能エリア統合部63d)は、物標の認識結果に基づき、運転支援機能の適用可能領域の有無の判定を行うことができる。その結果、運転支援において誤判定や誤認識を抑制することが可能になる。 The recognition unit (recognizable area integration unit 63d) can also determine whether or not there is an area where the driving assistance function can be applied based on the target recognition results. As a result, it becomes possible to suppress erroneous determinations and erroneous recognitions in driving assistance.

車両制御部64は、適用可能領域以外の領域に対して、運転支援機能の介入を制限することができる。その結果、運転支援において誤判定や誤認識に基づき誤動作や誤制御を確実に回避することが可能になる。 The vehicle control unit 64 can limit the intervention of the driving assistance function in areas other than the applicable area. As a result, it is possible to reliably avoid malfunctions or erroneous control in driving assistance based on erroneous judgments or erroneous recognitions.

1 車両
31 運転制御ECU
32 カメラECU
33 ソナーECU
34 レーダECU
41a メモリ
42a 第1単眼カメラ
42b 第2単眼カメラ
42c 第3単眼カメラ
42d 第1ステレオカメラ
42e 第2ステレオカメラ
43 ソナーセンサ
44a 第1ミリ波レーダ
44b 第2ミリ波レーダ
51 外部装置
61 設定部
62 記憶部
62a パターンテーブル記憶部
62b センサ情報記憶部
63 認識部
63a 制御判定部
63b センサ認識低下検出部
63c 認識可能エリア演算部
63d 認識可能エリア統合部
64 車両制御部
64a 可変処理部
65 出力制御部
1 Vehicle 31 Driving control ECU
32 Camera ECU
33 Sonar ECU
34 Radar ECU
Description of the Reference Signs 41a Memory 42a First monocular camera 42b Second monocular camera 42c Third monocular camera 42d First stereo camera 42e Second stereo camera 43 Sonar sensor 44a First millimeter wave radar 44b Second millimeter wave radar 51 External device 61 Setting unit 62 Storage unit 62a Pattern table storage unit 62b Sensor information storage unit 63 Recognition unit 63a Control determination unit 63b Sensor recognition degradation detection unit 63c Recognizable area calculation unit 63d Recognizable area integration unit 64 Vehicle control unit 64a Variable processing unit 65 Output control unit

Claims (3)

車両の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する車両用制御装置であって、
前記車両の周囲環境に基づく前記センサの認識機能の低下要因を検出する認識低下検出部と、
前記センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部と、
前記低下要因と前記センサ情報とに基づき、前記認識機能が低下している前記センサによって検知可能な前記物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部と、
前記運転支援機能ごとに対応して、前記物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる前記検知結果に基づいて前記物標を認識する認識部と、
前記認識部による前記物標の認識結果に基づいて、当該認識結果が得られた前記パターンに対応する前記運転支援機能を実行する車両制御部と、
を含む、車両用制御装置。
A vehicle control device that executes one or more driving assistance functions based on detection signals received from a plurality of types of sensors that detect targets around a vehicle,
a recognition degradation detection unit that detects a cause of degradation of the recognition function of the sensor based on an environment surrounding the vehicle;
a sensor information storage unit that stores sensor information including at least specification information and installation information of the sensor;
an acquisition unit that acquires a detection result of at least one of the target detectable by the sensor having the deteriorated recognition function and an area in which the target exists, based on the cause of the deterioration and the sensor information;
a recognition unit that refers to pattern information defining a plurality of patterns indicating a combination of the sensors used to recognize the target, corresponding to each of the driving assistance functions, and recognizes the target based on the detection results by the sensors included in each of the patterns;
a vehicle control unit that executes the driving assistance function corresponding to the pattern for which the recognition result is obtained based on the recognition result of the target by the recognition unit;
A vehicle control device comprising:
前記認識部は、前記物標の認識結果に基づき、前記運転支援機能の適用可能領域の有無の判定を行う、請求項1に記載の車両用制御装置。 The vehicle control device according to claim 1, wherein the recognition unit determines whether or not the driving assistance function is applicable based on the recognition result of the target. 前記車両制御部は、前記適用可能領域以外の領域に対して、前記運転支援機能の介入を制限する、請求項2に記載の車両用制御装置。 The vehicle control device according to claim 2, wherein the vehicle control unit limits intervention of the driving assistance function in areas other than the applicable area.
JP2022156347A 2022-09-29 2022-09-29 Vehicle control device Pending JP2024049862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022156347A JP2024049862A (en) 2022-09-29 2022-09-29 Vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022156347A JP2024049862A (en) 2022-09-29 2022-09-29 Vehicle control device

Publications (1)

Publication Number Publication Date
JP2024049862A true JP2024049862A (en) 2024-04-10

Family

ID=90621846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022156347A Pending JP2024049862A (en) 2022-09-29 2022-09-29 Vehicle control device

Country Status (1)

Country Link
JP (1) JP2024049862A (en)

Similar Documents

Publication Publication Date Title
US11803026B2 (en) Camera system for intelligent driver assistance system, and driver assistance system and method
US20180170373A1 (en) Vehicle and method for controlling the same
US11472433B2 (en) Advanced driver assistance system, vehicle having the same and method for controlling the vehicle
KR20200047886A (en) Driver assistance system and control method for the same
CN113060141A (en) Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle
US11682304B2 (en) Driver assistance system and control method for the same
KR20200115827A (en) Driver assistance system, and control method for the same
US20220332319A1 (en) Advanced driver assistance system, and vehicle having the same
KR102589617B1 (en) driver assistance apparatus
US11890939B2 (en) Driver assistance system
US11634120B2 (en) Driver assistance system and driver assistance method
US20210171032A1 (en) Driving support system
US20200384992A1 (en) Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium
KR20220119229A (en) Advanced Driver Assistance System, and Vehicle having the same
KR20220124397A (en) Vehicle and controlling method of vehicle
US11970167B2 (en) Driver assistance apparatus and driver assistance method
JP2024049862A (en) Vehicle control device
CN115871655A (en) Vehicle and control method thereof
JP2024049861A (en) Vehicle control device
KR102618041B1 (en) Driver assistance system and method therof
CN110065492B (en) Vehicle control system
JP7449907B2 (en) Vehicle control device
KR102614820B1 (en) Driver assistance system, and control method for the same
KR102559534B1 (en) Method and apparatus for supporting driving lines of vehicle in bad weather
US20230249707A1 (en) Driver assistance system and driver assistance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240325