JP2024049862A - Vehicle control device - Google Patents
Vehicle control device Download PDFInfo
- Publication number
- JP2024049862A JP2024049862A JP2022156347A JP2022156347A JP2024049862A JP 2024049862 A JP2024049862 A JP 2024049862A JP 2022156347 A JP2022156347 A JP 2022156347A JP 2022156347 A JP2022156347 A JP 2022156347A JP 2024049862 A JP2024049862 A JP 2024049862A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- vehicle
- recognition
- unit
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 155
- 230000015556 catabolic process Effects 0.000 claims abstract description 22
- 238000006731 degradation reaction Methods 0.000 claims abstract description 22
- 238000009434 installation Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 87
- 230000006866 deterioration Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 abstract description 23
- 238000000034 method Methods 0.000 description 23
- 230000003247 decreasing effect Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 230000007423 decrease Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000010354 integration Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 11
- 230000004927 fusion Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】車両の周囲環境が変化して一時的にセンサの認識機能が低下する場合でも、センサによる認識状況をより適切に把握して最適な運転支援を実現する車両用制御装置を提供する。【解決手段】車両の周囲環境に基づくセンサの認識機能の低下要因を検出する認識低下検出部と、センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部と、低下要因とセンサ情報とに基づき、認識機能が低下しているセンサによって検知可能な物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部と、運転支援機能ごとに対応して、物標の認識に用いるセンサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、各パターンに含まれるセンサによる検知結果に基づいて物標を認識する認識部と、認識部による物標の認識結果に基づいて、認識結果が得られたパターンに対応する運転支援機能を実行する車両制御部と、を含む。【選択図】図3[Problem] To provide a vehicle control device that realizes optimal driving assistance even when the sensor's recognition function is temporarily degraded due to a change in the environment surrounding the vehicle. [Solution] The vehicle control device includes a recognition degradation detection unit that detects the cause of the degradation of the sensor's recognition function based on the vehicle's environment, a sensor information storage unit that stores sensor information including at least sensor specification information and installation information, an acquisition unit that acquires detection results of at least one of a target detectable by the sensor whose recognition function is degraded and an area in which the target is present based on the cause of the degradation and the sensor information, a recognition unit that refers to pattern information that defines a plurality of patterns indicating a combination of sensors used to recognize the target corresponding to each driving assistance function, and recognizes the target based on the detection results by the sensors included in each pattern, and a vehicle control unit that executes the driving assistance function corresponding to the pattern for which the recognition result was obtained based on the target recognition result by the recognition unit. [Selected Figure] Figure 3
Description
本発明は、車両用制御装置に関する。 The present invention relates to a vehicle control device.
昨今、自動車等の車両に対する運転支援機能として、自動緊急ブレーキ(AEB:Autonomous Emergency Braking)やアダプティブクルーズコントロール(ACC)等を実現するために、車両に周辺監視用のセンサを搭載する場合がある。近年では、運転支援機能の機能追加および性能向上のため、車両の前方以外の方向の検知、および検知結果の信頼性向上を目的として、複数の周辺監視用センサを採用する場合がある。すなわち、単独または複数のセンサで物体を検知した場合、それが障害物として回避する必要があるのか等の運転支援機能を実現するための検知対象であるのかを間違いなく判定するために、物体の正確な位置の把握、および検知対象(制御対象物)であるのか否かの正確な判定を行う必要がある。このように、複数のセンサによる物体(物標)の検知結果を照合する技術を、センサフュージョンと称している。 Nowadays, vehicles may be equipped with sensors for monitoring the surroundings in order to realize driving assistance functions for vehicles such as automatic emergency braking (AEB) and adaptive cruise control (ACC). In recent years, in order to add functions and improve the performance of driving assistance functions, multiple sensors for monitoring the surroundings may be adopted for the purpose of detecting directions other than the vehicle's front and improving the reliability of the detection results. In other words, when an object is detected by a single or multiple sensors, in order to determine without fail whether it is a detection target for realizing a driving assistance function, such as whether it is an obstacle that needs to be avoided, it is necessary to grasp the exact position of the object and accurately determine whether it is a detection target (object to be controlled). In this way, the technology of collating the detection results of an object (target) by multiple sensors is called sensor fusion.
このようなセンサフュージョンの技術として、車載カメラの画像認識処理による歩行者の認識結果と、レーザレーダによる物標の認識結果とに基づいて、歩行者を認識する技術が提案されている(例えば特許文献1参照)。 As an example of such sensor fusion technology, a technology has been proposed that recognizes pedestrians based on the results of pedestrian recognition by image recognition processing of an onboard camera and the results of target recognition by a laser radar (see, for example, Patent Document 1).
しかしながら、センサは、個々の検出において得手不得手があり、個々のセンサの検出精度は、車両の周囲環境(走行環境)、例えば、天候環境(降雨、降雪、霧、強風、日照等)によって低下する場合がある。このような場合、複数のセンサで同一の物体を検出している場合でも、あるセンサでは、良好な検出が維持できても他のセンサでは、検出精度が低下する場合がある。この場合、車両を基準としてどの方向(領域)で他車両の検出精度が低下しているのか、その方向(領域)で歩行者の検出精度が低下しているのかの判定がし難い場合がある。その結果、センサフュージョンの技術を用いる場合でも物体の誤検出や誤判定の原因となる場合があり、運転支援精度が低下する場合があった。 However, each sensor has its strengths and weaknesses in detection, and the detection accuracy of each sensor may decrease depending on the vehicle's surrounding environment (driving environment), for example, weather conditions (rainfall, snowfall, fog, strong winds, sunlight, etc.). In such cases, even when multiple sensors are detecting the same object, some sensors may be able to maintain good detection while other sensors may experience decreased detection accuracy. In such cases, it may be difficult to determine in which direction (area) relative to the vehicle the detection accuracy of other vehicles is decreasing, or in which direction (area) the detection accuracy of pedestrians is decreasing. As a result, even when sensor fusion technology is used, this may cause erroneous detection or misjudgment of objects, resulting in decreased driving assistance accuracy.
本発明は、上述の課題に鑑みてなされたものであって、車両の周囲環境(走行環境)が変化して、一時的にセンサの認識機能(検出信頼性)が低下するような場合でも、センサによる認識状況をより適切に把握して最適な運転支援を実現する、車両用制御装置を提供することを目的とする。 The present invention has been made in consideration of the above-mentioned problems, and aims to provide a vehicle control device that can more appropriately grasp the recognition status of the sensor and realize optimal driving assistance even when the surrounding environment (driving environment) of the vehicle changes and the sensor's recognition function (detection reliability) temporarily decreases.
上述した課題を解決し、目的を達成するために、本発明に係る車両用制御装置は、車両の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する車両用制御装置であって、前記車両の周囲環境に基づく前記センサの認識機能の低下要因を検出する認識低下検出部と、前記センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部と、前記低下要因と前記センサ情報とに基づき、前記認識機能が低下している前記センサによって検知可能な前記物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部と、前記運転支援機能ごとに対応して、前記物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる前記検知結果に基づいて前記物標を認識する認識部と、前記認識部による前記物標の認識結果に基づいて、当該認識結果が得られた前記パターンに対応する前記運転支援機能を実行する車両制御部と、を含む。 In order to solve the above-mentioned problems and achieve the object, the vehicle control device according to the present invention is a vehicle control device that executes one or more driving assistance functions based on detection signals received from multiple types of sensors that detect targets around the vehicle, and includes a recognition degradation detection unit that detects factors for degradation of the recognition function of the sensors based on the environment surrounding the vehicle, a sensor information storage unit that stores sensor information including at least specification information and installation information of the sensors, an acquisition unit that acquires detection results of at least one of the targets detectable by the sensors whose recognition function is degraded and the area in which the targets exist based on the factors for degradation and the sensor information, a recognition unit that recognizes the targets based on the detection results by the sensors included in each pattern by referring to pattern information that defines multiple patterns indicating combinations of the sensors used to recognize the targets corresponding to each driving assistance function, and a vehicle control unit that executes the driving assistance function corresponding to the pattern from which the recognition result was obtained based on the recognition result of the targets by the recognition unit.
本発明によれば、車両の周囲環境(走行環境)が変化して、一時的にセンサの認識機能(検出信頼性)が低下するような場合でも、センサの認識状況をより適切に把握して最適な運転支援を実現する車両用制御装置を提供することができる。 The present invention provides a vehicle control device that can more appropriately grasp the sensor's recognition status and provide optimal driving assistance even when the vehicle's surroundings (driving environment) change and the sensor's recognition function (detection reliability) temporarily declines.
以下に、図1~図8を参照しながら、本発明に係る車両用制御装置の実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Below, with reference to Figures 1 to 8, an embodiment of a vehicle control device according to the present invention will be described in detail. Furthermore, the present invention is not limited to the following embodiment, and the components in the following embodiment include those that a person skilled in the art would easily come up with, those that are substantially the same, and those that are within the scope of what is called equivalent. Furthermore, various omissions, substitutions, modifications, and combinations of the components can be made without departing from the spirit of the following embodiment.
(車両の各種センサの配置構成および検出範囲について)
図1は、実施形態に係る車両用制御装置を適用可能な車両の各種センサの配置構成および検出範囲の一例を示す図である。図1を参照しながら、本実施形態に係る車両1の各種センサの配置構成および検出範囲の一例について説明する。
(Layout and detection range of various sensors on the vehicle)
1 is a diagram showing an example of the arrangement and detection range of various sensors of a vehicle to which a vehicle control device according to an embodiment can be applied. With reference to FIG. 1, an example of the arrangement and detection range of various sensors of a
図1に示すように、車両1は、複数種類のセンサを搭載し、当該センサによる検知結果に基づいて、例えば、自動緊急ブレーキ(AEB)、アダプティブクルーズコントロール(ACC)または踏み間違い防止機能等のうち少なくともいずれかの運転支援機能を実行する。自動緊急ブレーキ(AEB)とは、障害物との衝突が予測された場合に、衝突を回避するために自動的にブレーキをかけたり、障害物の衝突が不可避の場合でも衝突の強度を弱めることによって車両の被害を軽減したりする機能である。また、アダプティブクルーズコントロール(ACC)とは、高速道路における長距離移動時等に、予め設定した車速範囲内で車両を自動的に加減速させることにより、前方の他車両との車間距離を維持しながら追従走行を実現する機能である。また、踏み間違い防止機能とは、車両1を発進するときに前方に人または車両等の物標があり、センサで検知されている状態において、運転者が誤ってアクセルペダルを強く踏んでしまった場合に、踏み込み速度が所定速度以上、および踏み込み量が所定量以上のとき踏み間違いと判断し、電子スロットルを閉じてエンジンの回転数を制御し、所定時間後、自動的にブレーキを作動させる機能である。車両1は、図1における(a)に示すように、一例として、前方カメラセンサ2と、4つのソナーセンサ3と、前方ミリ波レーダ4と、2つの前側方ミリ波レーダ5と、2つの後側方ミリ波レーダ6と、4つのサラウンドビューカメラ7と、を備えている。
As shown in FIG. 1, the
前方カメラセンサ2は、車両1のフロントガラスの上部等に備えられ、図1における(b)に示す検出範囲2aにおいて、例えば、前方の車両、二輪車および歩行者等の物標を認識する撮像装置である。ソナーセンサ3は、車両1のフロントバンパのコーナー部、およびリヤバンパのコーナー部等に備えられ、図1における(b)に示す検出範囲3aにおいて、超音波を発信することによって物標を検知するセンサである。前方ミリ波レーダ4は、車両1のフロントバンパの裏側等に備えられ、図1における(b)に示す検出範囲4aにおいて、車両1の前方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の前方に存在する物標を検知するレーダ装置である。
The
前側方ミリ波レーダ5は、車両1のフロントバンパのコーナー部等に備えられ、図1における(b)に示す検出範囲5aにおいて、車両1の前側方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の前側方に存在する物標を検知するレーダ装置である。後側方ミリ波レーダ6は、車両1のリヤバンパのコーナー部等に備えられ、図1における(b)に示す検出範囲6aにおいて、車両1の後側方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の後側方に存在する物標を検知するレーダ装置である。サラウンドビューカメラ7は、車両1のフロント側、バックドア側および左右のサイドミラーに備えられ、図1における(b)に示す広画角の撮像範囲7aで撮像した映像により車両1を上空から見下ろした俯瞰映像を生成するための撮像装置である。
The front-side millimeter-
このように、車両1は、複数種類のセンサを搭載すること、および当該各センサによる物標に対する検出・検知結果を照合するセンサフュージョンによって、上述の各種の運転支援機能を実現する。なお、図1に示した車両1の各種センサは、一例を示したものであり、センサの個数、種類、および配置位置については図1に示したものに限定されるものではない。
In this way, the
(車両の電気的構成)
図2は、実施形態に係る車両用制御装置を適用可能な車両1の電気的構成の一例を示す図である。図2を参照しながら、本実施形態に係る車両1の電気的構成について説明する。
(Vehicle Electrical Configuration)
2 is a diagram showing an example of an electrical configuration of a
図2に示すように、車両1は、各部を制御するための複数のECU(Electronic Control Unit:電子制御ユニット)を備えている。各ECUは、マイコン(マイクロコントローラユニット)を備えており、当該マイコンは、例えば、CPU(Central Processing Unit)と、フラッシュメモリ等の不揮発性メモリと、DRAM(Dynamic Random Access Memory)等の揮発性メモリを内蔵している。
As shown in FIG. 2,
具体的には、車両1は、図2に示すように、駆動ECU11と、操舵ECU12と、ブレーキECU13と、メータECU14と、ボディECU15と、運転制御ECU31と、カメラECU32と、ソナーECU33と、レーダECU34と、を備えている。各ECUは、バスライン19を介して、互いに通信可能となるように接続されている。バスライン19は、例えば、CAN(Controller Area Network)等のシリアル通信プロトコルに基づく通信を実現する。なお、CANに限定されるものではなく、その他のシリアル通信プロトコルが適用されてもよい。
Specifically, as shown in FIG. 2, the
また、車両1は、駆動装置21と、舵角センサ22aと、操舵装置22bと、制動装置23と、機能スイッチ24と、ヘッドランプ25と、測位信号受信部35と、車速センサ36と、表示装置37と、スピーカ38と、レインセンサ39等を備えている。さらに、車両1は、運転支援機能を実現するために用いられるセンサとして、第1単眼カメラ42aと、第2単眼カメラ42bと、第3単眼カメラ42cと、第1ステレオカメラ42dと、第2ステレオカメラ42eと、ソナーセンサ43と、第1ミリ波レーダ44aと、第2ミリ波レーダ44bと、を備えている。
The
駆動ECU11は、入力されるアクセルペダル信号等に基づいて、車両1の駆動装置21を制御するECUである。駆動装置21は、駆動ECU11に接続されており、駆動源として、エンジンまたはモータのうち少なくともいずれかを備えている。また、駆動装置21は、例えば、エンジンのスロットル開度に対して電子制御を行うことにより、吸入空気量を調整してエンジンの出力を制御する電子スロットルを含む。また、駆動装置21は、必要に応じて、駆動源からの駆動力を変速して出力する変速機を備える。
The
操舵ECU12は、舵角センサ22aからの検出信号を入力し、車両1の操舵装置22bを制御するECUである。舵角センサ22aは、操舵ECU12に接続されており、ステアリングホイールの角度を検出するセンサである。操舵装置22bは、操舵ECU12に接続されており、電動モータのトルクをステアリング機構に伝達する電動パワーステアリング装置である。ステアリング機構は、例えば、ラックアンドピニオン式のステアリングギヤを含み、電動モータのトルクによりラック軸が車幅方向に移動すると、当該ラック軸の移動に伴って左右の操向輪が左右に転舵するように構成されている。
The steering ECU 12 is an ECU that receives a detection signal from the steering angle sensor 22a and controls the steering device 22b of the
ブレーキECU13は、車両1の制動装置23を制御するECUである。制動装置23は、ブレーキECU13に接続されており、油圧式または電動式の制動装置である。例えば、制動装置23が油圧式である場合、制動装置23は、ブレーキアクチュエータを備え、当該ブレーキアクチュエータの機能により各車輪に設けられたブレーキのホイールシリンダに油圧を分配し、その油圧により各ブレーキから駆動輪を含む車輪に制動力を付与する。
The
メータECU14は、車両1のメータパネルの各部を制御するECUである。メータパネルは、車速およびエンジン回転数を表示する計器類、および、各種の情報を表示するための液晶ディスプレイ等の表示器を含む。また、メータECU14は、例えば、各種の運転支援機能を有効または無効にするための機能スイッチ24が接続されている。なお、運転支援機能によっては、その性質上、機能スイッチ24による切り替えによらずに、常時有効とされる機能があってもよい。
The meter ECU 14 is an ECU that controls each part of the meter panel of the
ボディECU15は、車両のイグニッションスイッチがオフの状態でも動作の必要がある左右の各ウィンカおよびドアロックモータ等を制御するECUである。図2においては、ヘッドランプ25が、ボディECU15に接続されており、ボディECU15の指令に従って、点灯動作を行う。 The body ECU 15 is an ECU that controls the left and right turn signals and door lock motors, which need to be operated even when the vehicle ignition switch is off. In FIG. 2, the headlamps 25 are connected to the body ECU 15 and turn on according to commands from the body ECU 15.
運転制御ECU31は、運転支援機能の制御の中枢となるECUであり、車両用制御装置の一例である。運転制御ECU31は、カメラECU32、ソナーECU33およびレーダECU34により集約された各種センサの検出信号に基づく物標の検知結果を照合するセンサフュージョンに基づいて、各種の運転支援機能を実行する。また、運転制御ECU31は、メモリ41aと、外部I/F41bと、を備えている。また、運転制御ECU31は、図2に示すように、測位信号受信部35、車速センサ36、表示装置37、スピーカ38及びレインセンサ39等が接続されている。
The driving control ECU 31 is an ECU that is the center of control of the driving support functions, and is an example of a vehicle control device. The driving control ECU 31 executes various driving support functions based on sensor fusion, which collates target detection results based on detection signals from various sensors aggregated by the camera ECU 32,
メモリ41aは、運転制御ECU31のセンサフュージョンで用いる各種センサの組み合わせのパターンを規定したパターンテーブルや各種センサの諸元や取付位置、取付角度等の設置情報を含むセンサ情報等を記憶しているフラッシュメモリ等の不揮発性記憶装置である。パターンテーブルは、運転支援機能ごと、かつ当該運転支援機能における検知対象(車両、二輪車、歩行者等)ごとに存在する。また、センサ情報は、センサごとに存在する。パターンテーブル、センサ情報については後述する。 Memory 41a is a non-volatile storage device such as a flash memory that stores a pattern table that specifies the combination patterns of various sensors used in the sensor fusion of the driving control ECU 31, and sensor information including the specifications, mounting position, mounting angle, and other installation information of various sensors. A pattern table exists for each driving assistance function and for each detection target (vehicle, motorcycle, pedestrian, etc.) in that driving assistance function. Sensor information also exists for each sensor. The pattern table and sensor information will be described later.
外部I/F41bは、外部の情報処理装置である外部装置51等とデータ通信を行うためのインターフェースである。外部I/F41bは、例えば、イーサネット(登録商標)またはUSB(Universal Serial Bus)等の規格に準拠したインターフェースである。外部装置51は、メモリ41aに記憶されたパターンテーブルやセンサ情報の保存、編集、更新等の処理のために用いられるPC(Personal Computer)等の情報処理装置である。
The external I/
カメラECU32は、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42dおよび第2ステレオカメラ42eが接続され、各カメラ撮像された画像信号を受信して処理することにより画像データを生成するECUである。カメラECU32は、各カメラから受信した画像信号について処理を行った画像データを運転制御ECU31に送信する。第1単眼カメラ42a、第2単眼カメラ42bおよび第3単眼カメラ42cは、車両1の前方または後方の探索範囲の静止画を所定のフレームレートで連続して撮像可能なカメラセンサである。第1ステレオカメラ42dおよび第2ステレオカメラ42eは、撮像した2つの平行等位に配置された撮像部により得られた画像の視差から物標までの距離を計測することができるカメラセンサである。
The camera ECU 32 is an ECU to which the first
ソナーECU33は、ソナーセンサ43が接続され、ソナーセンサ43により得られた物標の検知信号を受信して処理するECUである。ソナーECU33は、ソナーセンサ43から受信した検知信号について処理を行ったデータを運転制御ECU31に送信する。ソナーセンサ43は、超音波を発信することによって物標を検知するセンサである。
The
レーダECU34は、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bが接続され、各ミリ波レーダにより得られた物標の検知信号を受信して処理するECUである。レーダECU34は、各ミリ波レーダから受信した検知信号について処理を行ったデータを運転制御ECU31に送信する。第1ミリ波レーダ44aおよび第2ミリ波レーダ44bは、ミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の周囲に存在する物標を検知するレーダ装置である。
The radar ECU 34 is connected to the first
なお、図2に示した車両1の各種センサは、一例を示したものであり、センサの個数、種類、および配置位置については図2に示したものに限定されるものではない。
Note that the various sensors of
測位信号受信部35は、GNSS(Global Navigation Satellite System)に基づき、測位衛星から測位信号を受信する受信装置である。測位信号受信部35は、例えば、USB規格の通信ケーブルを介して、運転制御ECU31と通信可能に接続されており、受信した測位信号を運転制御ECU31に出力する。運転制御ECU31は、測位信号受信部35から受信した測位信号に基づいて、車両1が存在する地点を検出する。なお、GNSSの一例として、例えばGPS(Global Positioning System:全地球測位システム)等が挙げられる。
The positioning signal receiving unit 35 is a receiving device that receives positioning signals from positioning satellites based on the Global Navigation Satellite System (GNSS). The positioning signal receiving unit 35 is communicatively connected to the driving control ECU 31 via, for example, a USB standard communication cable, and outputs the received positioning signals to the driving control ECU 31. The driving control ECU 31 detects the location where the
車速センサ36は、例えば車両1の車輪の付近に設置され、当該車輪の回転速度または回転数を示す車速パルスを生成するセンサである。車速センサ36は、運転制御ECU31と通信可能に接続されており、生成した車速パルスを運転制御ECU31に出力する。運転制御ECU31は、車速センサ36から受信した車速パルスをカウントすることによって車両1の車速を求める。
The
表示装置37は、車両1の車室内のダッシュボード等に設置された、物体の認識情報等を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)、またはOELD(Organic Electro-Luminescent Display:有機ELディスプレイ)等の表示装置である。表示装置37は、運転制御ECU31と通信可能に接続されている。
The
スピーカ38は、車両1の車室内に設置された、音および音声を出力する音響装置である。スピーカ38は、運転制御ECU31と通信可能に接続されている。
The speaker 38 is an audio device that is installed in the passenger compartment of the
レインセンサ39は、車両1の周囲環境(走行環境)を検出するセンサの一つとして利用可能である。レインセンサ39は、車両1に対する降雨を検出する、例えば、光学式(赤外線方式)のセンサであり、例えば車両1のフロントガラスの内側に配置される。この場合、フロントガラス上に雨滴が存在しない場合、発光部から照射された赤外光は、フロントガラス表面で反射して受光部に入射する。一方、フロントガラス上に雨滴が存在する場合、赤外光は雨滴を透過するため受光部への入射量は少なくなる。つまり、受光部における入射光の量に応じて雨滴の存在や雨滴の量(降雨の程度)が判定可能であり、生成した検出信号を運転制御ECU31に出力する。運転制御ECU31は、レインセンサ39から受信した検出信号に基づき、車両1の周囲環境(降雨状況)を判定する。例えば、降雨が原因で、画像を用いてセンシングを行うセンサの認識精度が低下していると見なすことが可能になる。なお、レインセンサ39の検出信号を用いる場合、降雨量に応じてセンサの認識精度(検出信頼性)の低下を段階的に判定するようにしてもよい。
The rain sensor 39 can be used as one of the sensors that detects the surrounding environment (driving environment) of the
なお、車両1の周囲環境(走行環境)の検出は、レインセンサ39に限らず、例えば、カメラECU32から取得する画像データに基づいて実施してもよい。画像データを用いる場合、例えば、カメラECU32から送られてくる画像(画像データ)のコントラストが、標準画像(予め準備された視界良好時の標準的な画像)に比べて、所定レベル以上低下した状態が所定期間継続した場合、降雨や降雪、霧等が原因で視界不良の可能性があると見なすことができる。この場合、車両1の運転支援を支障なく実行できる物標の認識レベルより悪化状態にあると判定することができる。つまり、カメラECU32から送られてくる画像データ自体を車両1の周囲環境(走行環境)の判定に利用できる。同様に、カメラECU32から送られてくる画像(画像データ)に含まれるエッジが標準画像より所定レベル以上識別し難くなった状態(ぼやけた状態)が所定期間継続した場合、降雨や降雪、霧等が原因で視界不良の可能性があると見なすことができる。この場合も、車両1の運転支援を支障なく実行できる物標の認識レベルより悪化状態にあると判定することができる。つまり、カメラECU32から送られてくる画像データ自体を車両1の周囲環境(走行環境)の判定に利用できる。また、ソナーECU33から送られてくる検知信号は、音波の反射に基づく信号であるため、車両1の周囲状況が通常走行時より強い強風に曝されている場合、検出信号のパターンが非強風時と明らかに変化する。その変化程度に基づき、車両1の周囲環境(走行環境)の判定(強風状態か否かの判定)を実施することができる。このように、センサごとに予め定められた検出値閾値(標準値)に至らない検出値を所定期間継続的に検出した場合、車両1の周囲環境が悪化したと判定することができる。車両1の周囲環境の変化(悪化)を認識することにより、後述する車両1の周囲環境(走行環境)に応じた運転支援制御のための各種の処理が実現できる。
The detection of the surrounding environment (driving environment) of the
なお、図2に示した車両1の電気的構成は一例を示すものであり、図2に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。また、図2に示される各種ECUは、それぞれ独立したハードウェアとなっていることに限られず、いずれかが集約されたECUとして構成されてもよい。例えば、運転制御ECU31とカメラECU32とが集約された1つのECUとして構成され、当該ECUが、運転制御ECU31およびカメラECU32の双方の機能を有するものとしてもよい。
Note that the electrical configuration of
(車両の運転制御ECUの機能的なブロック構成および動作)
図3は、車両用制御装置(運転制御ECU)の機能的な構成を示す例示的かつ模式的なブロック図である。図4は、車両用制御装置で利用可能な各種センサの特性の一例を示す図である。図5は、実施形態に係る車両用制御装置で利用可能な各種センサの性能の一例を示す図である。図6は、実施形態に係る車両用制御装置で利用可能なパターンテーブルの一例を示す図である。図3~図6を参照しながら、本実施形態に係る車両1の運転制御ECU31の機能的にブロック構成および動作について説明する。
(Functional block configuration and operation of vehicle driving control ECU)
FIG. 3 is an exemplary schematic block diagram showing a functional configuration of a vehicle control device (driving control ECU). FIG. 4 is a diagram showing an example of characteristics of various sensors that can be used in the vehicle control device according to the embodiment. FIG. 5 is a diagram showing an example of performance of various sensors that can be used in the vehicle control device according to the embodiment. FIG. 6 is a diagram showing an example of a pattern table that can be used in the vehicle control device according to the embodiment. The functional block configuration and operation of the driving control ECU 31 of the
図3に示すように、運転制御ECU31は、設定部61と、記憶部62と、認識部63と、車両制御部64と、出力制御部65と、を有する。なお、認識部63は、制御判定部63a、センサ認識低下検出部63b、認識可能エリア演算部63c、認識可能エリア統合部63dを含む。また、記憶部62は、パターンテーブル記憶部62a、センサ情報記憶部62bを含む。車両制御部64は、可変処理部64aを含む。 As shown in FIG. 3, the driving control ECU 31 has a setting unit 61, a memory unit 62, a recognition unit 63, a vehicle control unit 64, and an output control unit 65. The recognition unit 63 includes a control determination unit 63a, a sensor recognition degradation detection unit 63b, a recognizable area calculation unit 63c, and a recognizable area integration unit 63d. The memory unit 62 includes a pattern table memory unit 62a and a sensor information memory unit 62b. The vehicle control unit 64 includes a variable processing unit 64a.
設定部61は、外部装置51からの指令に応じて、記憶部62に記憶されたパターンテーブルやセンサ情報について保存、編集、更新等の設定処理を実行する機能部である。 The setting unit 61 is a functional unit that executes setting processes such as saving, editing, and updating the pattern tables and sensor information stored in the memory unit 62 in response to commands from the external device 51.
パターンテーブル記憶部62aに記憶されたパターンテーブル(パターン情報の一例)は、上述したように、運転支援機能ごと、かつ当該運転支援機能における検知対象(車両、二輪車、歩行者等)ごとに用意され、上述の各種センサの組み合わせのパターンを規定したテーブルである。ここで、上述の各種センサ、すなわち、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bは、それぞれ特性が異なる。例えば、図4に、センサの種類ごとの特性の一例を示している。図4では、センサの特性として、例えば、センシング方式、検知距離、横方向分解能、検知可能な対象物、および天候依存を示している。例えば、単眼センサの場合、センシング方式が画像に基づく方式であり、検知距離が百数十mまでとなっており、横方向分解能が特に優れており、検知可能な対象物がやや性能が劣っており、天候依存が中程度であることを示している。また、検知距離については、ミリ波レーダは、ソナーセンサおよびレーザレーダよりも特に優れていることが把握できる。なお、図4では、同じ種類のセンサでは、同一の特性であるものとして説明しているが、同じ種類のセンサであっても、特性が異なり得るのは言うまでもない。
As described above, the pattern table (an example of pattern information) stored in the pattern table storage unit 62a is prepared for each driving assistance function and for each detection target (vehicle, motorcycle, pedestrian, etc.) in the driving assistance function, and is a table that specifies the combination patterns of the above-mentioned various sensors. Here, the above-mentioned various sensors, namely, the first
図4に示したように、各種センサは、種類に応じて特性が異なるため、各種の運転支援機能を実行するために求められる車両識別性能、歩行者識別性能および距離測定性能等の各種性能を発揮するのに適しているか否かが判断される。図5には、車両1に搭載される第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bの特性に応じて判断された、各種運転支援機能の実行に求められる各種性能に対する適否が示されている。例えば、図5では、車両識別性能を発揮するためには、第1単眼カメラ42a、第2単眼カメラ42bおよび第1ステレオカメラ42dが適しており、第2ミリ波レーダ44bがやや適しておらず、第3単眼カメラ42c、第1ミリ波レーダ44a、第2ステレオカメラ42eおよびソナーセンサ43が適していないことが示されている。また、距離測定性能を発揮するためには、第2単眼カメラ42b以外のセンサであれば、適していることが示されている。なお、図5に示した各種性能に対する適否の表示方法は、一例を示すものであり、例えば、数値的な評価値により適否の評価を表してもよい。
As shown in FIG. 4, the characteristics of various sensors differ depending on the type, so it is judged whether they are suitable for performing various performances required for performing various driving support functions, such as vehicle identification performance, pedestrian identification performance, and distance measurement performance. FIG. 5 shows the suitability of various performances required for performing various driving support functions, judged according to the characteristics of the first
このように、開発者は、予め車両1に搭載される各種センサの特性に応じて、図5に示すような、各種運転支援機能の実行に求められる各種性能に対する適否を整理しておく。そして、開発者は、外部装置51を介して、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに、各種センサの各種性能に対する適否に基づいて、当該各種性能に対応する検知対象の検知に用いるセンサの組み合わせ(すなわち、検知対象について検知を確定してもよいセンサの組み合わせ)のパターンを規定したパターンテーブルを作成する。図6に、パターンテーブルの一例として、運転支援機能として車両用AEBに対応するパターンテーブルを示す。この車両用AEBは、検知対象が車両であり、車両識別処理および距離測定処理を含むため、開発者は、図5に示す車両識別性能および距離測定性能に対する各種センサの適否に応じて、車両用AEBのパターンテーブルを設定する。パターンテーブルについては、外部装置51で作成されたものが、設定部61により記憶部62(パターンテーブル記憶部62a)に保存または更新されるものとしてもよく、または、外部装置51からの指令に応じて、記憶部62に記憶されたパターンテーブルに対して設定部61により編集が可能であるものとしてもよい。
In this way, the developer organizes in advance the suitability of various performances required for the execution of various driving assistance functions as shown in FIG. 5 according to the characteristics of various sensors mounted on the
開発者は、車両用AEB対応するパターンテーブルに規定する各種センサの組み合わせのパターンの基準として、例えば、以下の条件(1)または条件(2)のいずれかを満たすセンサの組み合わせを、車両について検知を確定してもよいセンサの組み合わせとして設定する。 As a criterion for the pattern of combinations of various sensors specified in the pattern table corresponding to the vehicle AEB, the developer sets, for example, a sensor combination that satisfies either the following condition (1) or condition (2) as a sensor combination that may confirm detection for the vehicle.
・条件(1):車両識別性能の適否が「〇」、かつ距離測定性能の適否が「〇」の組み合わせ
・条件(2):車両識別性能の適否が「△」であるセンサと、距離測定性能の適否が「〇」である他の2つのセンサとの組み合わせ
Condition (1): A combination of a sensor whose vehicle identification performance is rated as "good" and whose distance measurement performance is rated as "good" Condition (2): A combination of a sensor whose vehicle identification performance is rated as "△" and two other sensors whose distance measurement performance is rated as "good"
図6では、以上の条件を満たすセンサの組み合わせのパターンとして、パターン(1)~パターン(14)がパターンテーブルに設定されている例を示している。例えば、パターン(1)では、第1単眼カメラ42aについて、車両識別性能および距離測定性能の適否が共に「〇」であるため、条件(1)を満たし、単独で車両について検知を確定することができる。また、パターン(2)では、第2単眼カメラ42bについて車両識別性能の適否が「〇」であり、第3単眼カメラ42cについて距離測定性能の適否が「〇」であるため、条件(1)を満たし、車両について検知を確定してもよい組み合わせとなる。また、パターン(7)では、第2ミリ波レーダ44bについて車両識別性能の適否が「△」であり、第3単眼カメラ42cおよび第1ミリ波レーダ44aについて距離測定性能の適否が「〇」であるため、条件(2)を満たし、車両について検知を確定してもよい組み合わせとなる。
Figure 6 shows an example in which patterns (1) to (14) are set in the pattern table as patterns of sensor combinations that satisfy the above conditions. For example, in pattern (1), the suitability of the vehicle identification performance and the distance measurement performance of the first
なお、センサの組み合わせのパターンを規定する上述の条件は一例であり、他の条件でパターンを規定するものとしてもよい。また、図6では、パターンテーブルにはパターン(1)~パターン(14)のパターンが規定されているが、物標の認識に用いるパターンとしてこれらのすべてを用いる必要はない。この場合、不要なパターンは、パターンテーブルから削除するものとすればよい。 Note that the above conditions for defining the sensor combination patterns are merely examples, and patterns may be defined by other conditions. In addition, in FIG. 6, patterns (1) to (14) are defined in the pattern table, but it is not necessary to use all of these patterns for target recognition. In this case, unnecessary patterns can be deleted from the pattern table.
また、車両1の仕様変更等に応じて、既存のセンサの取り外し、または新たなセンサの搭載が生じた場合には、開発者は、外部装置51を用い、設定部61を介してパターンテーブルを変更するものとすればよい。例えば、既存のセンサの取り外しが生じた場合には、開発者は、パターンテーブルの該当する当該センサに対応する列を削除し、上述の条件を満たすセンサの組み合わせのパターンを再設定するものとすればよい。また、新たなセンサの搭載が生じた場合には、開発者は、パターンテーブルに当該センサ用の新たな列を追加し、上述の条件を満たすセンサの組み合わせのパターンを追加設定するものとすればよい。または、開発者は、搭載が想定される最大限の数および種類のセンサに対応したパターンテーブルを予め作成しておき、センサの取り外し、または新たなセンサの搭載に応じて、パターンテーブルに規定するパターンの内容を編集設定するものとしてもよい。この場合には、パターンテーブルの列の削除または追加の手間を省略することができる。
In addition, when an existing sensor is removed or a new sensor is installed in response to a change in the specifications of the
なお、図6に一例として示したパターンテーブルはテーブル形式の情報としているが、テーブル形式であることに限定されるものではなく、各種センサの組み合わせのパターンを規定することができれば、どのような形式の情報(パターン情報の一例)であってもよい。 Note that the pattern table shown as an example in FIG. 6 is information in table format, but is not limited to table format, and any format of information (an example of pattern information) may be used as long as it can specify a pattern of combinations of various sensors.
また、センサ情報記憶部62bは、上述した各センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶する。上述したように、各センサは、種々の検出情報を効率よく取得できるように、センサごとに異なる特性を有する。また、必要となる検出情報を適切かつ効率的に取得するための設置位置や設置姿勢(設置角度)等がセンサごとに異なる。そこで、センサ情報記憶部62bには、センサごとの諸元情報として、それぞれセンシング方式、検知距離、横方向分解能、検知可能な対象物、および天候依存特性等が記憶されている。天候依存特性は、センサごとにどの天候で検出信頼性が低下するかを示す情報で、例えば、センシング方式が画像の場合、車両1の周辺状況が霧や降雨等場合、検出信頼性が低下する。この場合、例えば、霧や降雨の程度がランク分けされ、各ランクにおける検出信頼性の重み付け係数等が規定されてもよい。また、センサごとに諸元情報と関連付けられた設置情報として設置位置(例えば、フロントバンパやリヤバンパにおける設置位置)や設置姿勢(例えば、車幅方向における検出方向や上下方向の角度等)がセンサ情報記憶部62bに記憶されている。
The sensor information storage unit 62b also stores sensor information including at least the specification information and installation information of each of the above-mentioned sensors. As described above, each sensor has different characteristics so that various detection information can be efficiently acquired. In addition, the installation position and installation attitude (installation angle) for appropriately and efficiently acquiring the required detection information differ for each sensor. Therefore, the sensor information storage unit 62b stores the sensing method, detection distance, lateral resolution, detectable objects, and weather-dependent characteristics as specification information for each sensor. The weather-dependent characteristics are information indicating in which weather the detection reliability decreases for each sensor. For example, when the sensing method is an image, when the surrounding conditions of the
記憶部62は、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに対応するパターンテーブル及びセンサ情報を記憶する機能部である。記憶部62は、図2に示すメモリ41aによって実現される。なお、記憶部62は、外部のHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置によって実現されてもよい。 The storage unit 62 is a functional unit that stores pattern tables and sensor information corresponding to each driving assistance function and each detection target in the driving assistance function. The storage unit 62 is realized by the memory 41a shown in FIG. 2. The storage unit 62 may also be realized by a storage device such as an external HDD (Hard Disk Drive) or SSD (Solid State Drive).
認識部63は、記憶部62における、車両制御部64で有効となっている運転支援機能に対応するパターンテーブルを参照し、センサフュージョンにより、当該パターンテーブルで規定されたそれぞれのパターンによる検知結果を照合して、物標を認識する機能部である。物標の認識としては、例えば、物標の位置を認識し、当該物標の種類を識別する。認識部63は、物標に対する認識結果を、車両制御部64および出力制御部65に出力する。 The recognition unit 63 is a functional unit that refers to a pattern table in the memory unit 62 that corresponds to the driving assistance function enabled by the vehicle control unit 64, and uses sensor fusion to compare the detection results according to each pattern defined in the pattern table to recognize targets. Target recognition involves, for example, recognizing the position of the target and identifying the type of the target. The recognition unit 63 outputs the recognition results for the target to the vehicle control unit 64 and the output control unit 65.
まず、各センサが図4に示す各種性能を正常に発揮している場合、つまり、車両1の周囲の環境が、各センサの検出信頼性を適切に得られるような状態(例えば、霧や降雨がない状態)の場合について説明する。例えば、車両制御部64で有効となっている運転支援機能が車両用AEBである場合、認識部63は、記憶部62の車両用AEBに対応する(すなわち運転支援機能としてのAEB、および検知対象としての車両に対応する)パターンテーブルを参照する。次に、認識部63は、当該パターンテーブルで規定されている各パターンに属するセンサにより認識された物標の位置、および識別された物標の種類を、それぞれ照合する。そして、認識部63は、照合の結果、一致する場合の物標の位置および種類を最終的な認識結果とする。例えば、パターンテーブルにパターン(1)~パターン(3)が設定されている場合、認識部63は、パターン(1)~パターン(3)により認識された物標の位置をそれぞれ照合し、一致する場合に当該物標の位置を最終的な認識結果とする。同様に、認識部63は、パターン(1)~パターン(3)により識別された物標の種類をそれぞれ照合し、一致する場合に当該物標の種類を最終的な認識結果とする。なお、認識部63において、照合する検知結果(例えば、物標の位置の検知結果)が必ずしも厳密に一致していなくても、差分が所定値未満または差分が微小であれば、一致とみなして、最終的に認識結果とするものとしてもよい。
First, a case where each sensor normally performs the various functions shown in FIG. 4, that is, a case where the environment around the
車両制御部64は、認識部63による認識結果に基づいて、各種運転支援機能を実行して、駆動ECU11、操舵ECU12およびブレーキECU13等に指令を出力することにより車両1の走行を制御する機能部である。また、車両制御部64は、運転支援機能に応じて、表示装置37による表示出力、またはスピーカ38による警告音または案内音声等の出力が必要な場合、当該出力をさせるための指令を出力制御部65に出力する。なお、車両制御部64で実行される運転支援機能は、複数であることに限定されず、単一の運転支援機能が実行されるものとしてもよい。
The vehicle control unit 64 is a functional unit that executes various driving assistance functions based on the recognition results by the recognition unit 63, and controls the running of the
出力制御部65は、表示装置37の表示制御、およびスピーカ38の音または音声の出力制御を行う機能部である。例えば、出力制御部65は、認識部63から受け取った認識結果を、表示装置37表示させるものとしてもよい。また、出力制御部65は、車両制御部64で実行される運転支援機能に応じて、表示装置37に対して表示出力、またはスピーカ38に対して警告音または案内音声等の出力をさせる。
The output control unit 65 is a functional unit that controls the display of the
ところで、各センサは、上述したように車両1の周囲環境(走行環境)の変化(主に周囲環境の悪化)により、認識(検出)精度(検出信頼性)が低下する場合がある。そこで、本実施形態の車両用制御装置では、センサの認識精度(検出信頼性)が低下した場合でも、車両1の周囲環境(走行環境)の変化に応じて、適切な運転支援制御を実現する。なお、車両1の周囲環境(走行環境)の変化は、レインセンサ39等の専用のセンサによって検知することができる。また、他の実施形態では、車両1の周囲環境(走行環境)の変化は、カメラECU32、ソナーECU33およびレーダECU34に接続されている各種センサの認識(検出)精度の低下等に基づいて検知することもできる。なお、センサの認識精度の低下には、認識機能の停止も含む。
However, as described above, the recognition (detection) accuracy (detection reliability) of each sensor may decrease due to changes (mainly deterioration of the surrounding environment) in the surrounding environment (driving environment) of the
例えば、センシング方式として画像を用いている単眼カメラやステレオカメラの場合、降雨時、降雪時、霧の発生時、朝日や夕日に差し込み時等の天候の影響により、車両や歩行者等の物標の検出性能(認識精度、検出信頼性)が低下する場合がある。同様に、距離測定性能が低下する場合がある。その結果、物標の存在有無の誤判定や物標までの距離の誤測定の原因になる場合がある。そこで、本実施形態の認識部63は、車両1の周囲環境に基づいて、当該認識部63と車両制御部64の少なくとも一方を制御する制御判定部63aを含み、センサの認識精度(検出信頼性)が低下した場合でも対応可能としている。
For example, in the case of a monocular camera or stereo camera that uses images as a sensing method, the detection performance (recognition accuracy, detection reliability) of targets such as vehicles and pedestrians may decrease due to the influence of weather conditions such as rain, snow, fog, and sunlight shining in at sunrise or sunset. Similarly, distance measurement performance may decrease. As a result, this may cause erroneous determination of the presence or absence of a target or erroneous measurement of the distance to the target. Therefore, the recognition unit 63 of this embodiment includes a control determination unit 63a that controls at least one of the recognition unit 63 and the vehicle control unit 64 based on the surrounding environment of the
制御判定部63aは、車両1の周囲環境に応じて変化する、例えば、認識部63におけるセンサの認識精度(検出信頼性)に応じて、運転支援の制御対象範囲を変更したり、制御対象とする運転支援自体の変更を行ったりすることができる。
The control determination unit 63a can change the range of driving assistance control targets or change the driving assistance itself to be controlled depending on the surrounding environment of the
センサ認識低下検出部63bは、車両1の周囲環境に基づくセンサの認識機能の低下要因を検出する機能を備える。前述したように、センサ認識低下検出部63bは、レインセンサ39の検出結果やカメラECU32から取得する画像データ等に基づいて、車両1の周囲環境の悪化の有無を検出可能である。センサ認識低下検出部63bは、例えば、センサの検出値が、センサごとに定められた所定の悪化レベル(信頼性低下レベル)に達している場合、信頼性が低下したセンサを特定するとともに、低下要因(例えば、霧や降雨等)を関連付けて記憶領域に記憶する。なお、この場合、信頼性低下レベルを例えば、小、中、大等のようにランク分けしたり数値により詳細に分類したりしてもよい。なお、信頼性が低下したセンサ及びその低下要因の情報は、記憶部62等に記憶してもよい。
The sensor recognition degradation detection unit 63b has a function of detecting factors of degradation of the recognition function of the sensor based on the surrounding environment of the
認識可能エリア演算部63cは、低下要因とセンサ情報とに基づき、認識機能が低下しているセンサによって検知可能な物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部として機能する。すなわち、認識可能エリア演算部63cは、センサ認識低下検出部63bの検出結果に基づき、センサ情報記憶部62bから信頼性が低下したセンサに対応する諸元情報及び設置情報を取得して、信頼性が低下した状態でも検出結果が利用可能な認識エリアの演算を行う。図7は、センサの認識機能(信頼性)が低下した際の物標の認識領域の変化を示す例示的かつ模式的な平面図である。例えば、車両1のフロントガラスの上部に備えられ前方カメラセンサ2における周囲環境良好時の検出能力が検出範囲2aであったとする。この場合、認識可能エリア演算部63cは、センサ認識低下検出部63bの検出結果、例えば霧の検出(霧の程度の検出を含む)、前方カメラセンサ2の諸元情報、設置情報等に基づき、検出結果が利用可能な認識範囲を算出する。図7の場合、認識可能エリア演算部63cの演算の結果として、前方カメラセンサ2の縮小された検出範囲2aaが示されている。つまり、認識部63は、現在の周囲環境において、検出範囲2aaが示す範囲が前方カメラセンサ2の信頼し得る検出可能領域であると見なす。また、認識可能エリア演算部63cは、検出可能領域が変更されたことにより認識可能な物標が変化した場合、認識可能対象を変更する。例えば、周囲環境の悪化がない場合には、車両及び歩行者の検出が可能であったが、周囲環境の悪化(検出範囲の縮小)により、車両の識別は不能となったが、歩行者の識別は依然として可能である場合、認識可能対象を変更する。認識可能エリア演算部63cは、同様に他のセンサに関しても現在の周囲環境に基づく、信頼し得る検出範囲及び検出対象の算出を行う。なお、図7において、ソナーセンサ3は、近距離検出用であり、今回の霧の影響は受けていない(検出信頼性の低下はない)ものとして示されている。
The recognizable area calculation unit 63c functions as an acquisition unit that acquires at least one of the detection results of a target detectable by a sensor with a deteriorated recognition function and the area in which the target exists, based on the deterioration factor and the sensor information. That is, the recognizable area calculation unit 63c acquires the specification information and installation information corresponding to the sensor with a deteriorated reliability from the sensor information storage unit 62b based on the detection result of the sensor recognition deterioration detection unit 63b, and calculates the recognition area in which the detection result can be used even in a state in which the reliability is deteriorated. FIG. 7 is an exemplary and schematic plan view showing a change in the recognition area of a target when the recognition function (reliability) of the sensor is deteriorated. For example, it is assumed that the detection capability of the
認識可能エリア統合部63dは、運転支援機能ごとに対応して、物標の認識に用いるセンサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれのパターンに含まれるセンサによる検知結果に基づいて物標を認識する認識部として機能する。すなわち、認識可能エリア統合部63dは、認識可能エリア演算部63cが算出した各センサの検出範囲を統合する。検出範囲を統合することにより運転支援に利用するパターンテーブルにおけるパターンとの合致の確認が可能になり、現状の周囲環境における物標(車や歩行者等)の検出エリアを決定することができる。つまり、検出信頼性の確保できるエリアと、検出信頼性が確保できないエリアとの識別性を向上することができる。 The recognizable area integration unit 63d functions as a recognition unit that refers to pattern information that defines multiple patterns indicating combinations of sensors used to recognize targets corresponding to each driving assistance function, and recognizes targets based on the detection results by the sensors included in each pattern. That is, the recognizable area integration unit 63d integrates the detection ranges of each sensor calculated by the recognizable area calculation unit 63c. By integrating the detection ranges, it becomes possible to confirm a match with a pattern in a pattern table used for driving assistance, and it is possible to determine the detection area of targets (vehicles, pedestrians, etc.) in the current surrounding environment. That is, it is possible to improve the discrimination between areas where detection reliability can be ensured and areas where detection reliability cannot be ensured.
この場合、制御判定部63aは、例えば、特定の運転支援に必要となるセンサの認識精度(検出信頼性)が低下して、運転支援の際に誤判定や誤制御の可能性あると見なされる場合でも、運転支援の制御範囲を変更(具体的には縮小)して、検出信頼性が維持できる範囲内でセンサ結果を運転支援に利用するようにする。その結果、運転支援において誤判定や誤認識を抑制することが可能になる。 In this case, even if the recognition accuracy (detection reliability) of a sensor required for a specific driving assistance is reduced and it is deemed that there is a possibility of erroneous judgment or erroneous control during driving assistance, the control determination unit 63a changes (specifically reduces) the control range of the driving assistance so that the sensor results are used for driving assistance within a range in which detection reliability can be maintained. As a result, it becomes possible to suppress erroneous judgment and erroneous recognition in driving assistance.
制御判定部63aは、センサの検出精度(検出信頼性)に応じて車両制御部64における運転支援機能の実行態様を変更してもよい。制御判定部63aは、センサの検出精度(検出信頼性)に応じて、車両制御部64の可変処理部64aに対して、運転支援の制御介入量や介入タイミングの変更を要求することができる。例えば、センサ情報記憶部62b、認識可能エリア演算部63c、認識可能エリア統合部63d等の処理により、霧や降雨等が原因で車両や歩行者等の物標の認識精度が低下していると見なせる場合、制御判定部63aは、認識可能エリア統合部63dの処理結果に基づき、物標の認識が確実に行える距離まで運転支援制御への介入量を制限してもよい。例えば、運転支援機能がステアリング制御の場合は、付与するトルクを少なくしたり、制御舵角を小さくしたりする。同様に、制御判定部63aは、物標の認識が確実に行えるまで運転支援制御への介入タイミングを遅延させるようにしてもよい。また、例えば、自動緊急ブレーキ等の自動ブレーキ制御の場合は、自動ブレーキの開始タイミングを物標の認識が確実に行えるまで遅らせるようにしてもよい。つまり、車両1の制動操作を運転者の手動操作に委ねる。この場合も、認識精度の低下したセンサによる誤検出やその結果発生し得る誤判定を抑制し、認識精度が低下している場合でも不適切な運転支援制御が実行されることが抑制できる。
The control determination unit 63a may change the execution mode of the driving assistance function in the vehicle control unit 64 according to the detection accuracy (detection reliability) of the sensor. The control determination unit 63a may request the variable processing unit 64a of the vehicle control unit 64 to change the control intervention amount and intervention timing of the driving assistance according to the detection accuracy (detection reliability) of the sensor. For example, when it is considered that the recognition accuracy of targets such as vehicles and pedestrians is reduced due to fog, rainfall, etc. by the processing of the sensor information storage unit 62b, the recognizable area calculation unit 63c, the recognizable area integration unit 63d, etc., the control determination unit 63a may limit the intervention amount in the driving assistance control to a distance where the target can be reliably recognized based on the processing result of the recognizable area integration unit 63d. For example, when the driving assistance function is steering control, the torque to be applied is reduced or the control steering angle is reduced. Similarly, the control determination unit 63a may delay the timing of intervention in the driving assistance control until the target can be reliably recognized. Also, for example, in the case of automatic braking control such as automatic emergency braking, the start timing of the automatic brake may be delayed until the target can be reliably recognized. In other words, the braking operation of the
車両制御部64の可変処理部64aは、認識部63により、センサの検知範囲が変更(縮小)された場合、運転支援機能の実行態様が変更された場合等、その変更結果に基づき、各種運転支援機能の禁止制御、または介入量の変更制御、介入タイミングの変更制御等を実行する。そして、車両制御部64は、駆動ECU11、操舵ECU12およびブレーキECU13等にセンサ機能低下時においても適切な指令を出力することにより車両1の制御(走行)を継続させる。また、車両制御部64は、可変処理部64aによる変更処理に応じて、表示装置37による表示出力、またはスピーカ38による警告音または案内音声等の出力を要求する指令を出力制御部65に出力してもよい。この場合、例えば「センサ認識精度が低下しています。運転支援制御の介入を制限しています。周囲の状況に注視して運転して下さい。」や「センサ認識精度が低下しています。運転支援制御を一時的に縮小または中止します」等のメッセージを出力する。また、表示装置37に認識精度が低下しているセンサを通知する画像を表示してもよい。例えば、図1における(b)のような車両1とセンサの検出範囲を示す俯瞰画像を表示し、認識精度の低下している検出範囲を赤色で点滅表示させたり、逆に認識精度の低下している検出範囲を非表示としたりしてもよい。また、別の例では、認識精度(検出信頼性)が低下したセンサを利用する運転支援を一時的に禁止してもよい。この場合、案内メッセージは、例えば、「センサ認識精度が低下しています。現在歩行者の検出は可能ですが、車両の検出精度は低下しています。前方車両に対する追従走行制御は中止します。周囲の状況に注視して運転して下さい。」等となる。また、認識精度(検出信頼性)が低下したセンサでも検出対象が変われば検出信頼性を確保できる場合がある。例えば、車両の識別はできないものの、障害物の検出ができる場合がある。このような場合は、検出結果に基づく運転支援の対象を直接的な運転制御ではなく、警報等による注意喚起等の運転補助に変更することも可能になる。
When the detection range of the sensor is changed (reduced) by the recognition unit 63, or when the execution mode of the driving support function is changed, the variable processing unit 64a of the vehicle control unit 64 executes prohibition control of various driving support functions, change control of the intervention amount, change control of the intervention timing, etc. based on the change result. The vehicle control unit 64 continues the control (driving) of the
このように、車両1の周囲環境(走行環境)が変化して、一時的にセンサの認識機能(検出信頼性)が低下するような場合でも、センサによる認識状況をより適切に把握して最適な運転支援を実現することが可能になる。
In this way, even if the surrounding environment (driving environment) of the
なお、図3に示す設定部61、認識部63、車両制御部64および出力制御部65は、例えば、図2に示す運転制御ECU31のCPUによりプログラムが実行されることによって実現される。これらの機能部の一部または全部は、論理回路等のハードウェアによって実現されてもよい。 The setting unit 61, recognition unit 63, vehicle control unit 64, and output control unit 65 shown in FIG. 3 are realized, for example, by the CPU of the driving control ECU 31 shown in FIG. 2 executing a program. Some or all of these functional units may be realized by hardware such as a logic circuit.
また、図3に示した運転制御ECU31の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。例えば、制御判定部63aは、認識部63とは別に設けられてもよいし、センサ情報記憶部62b、認識可能エリア演算部63c、認識可能エリア統合部63dは、認識エリア処理部として一つにまとめられてもよいし、可変処理部64aは、車両制御部64とは別に設けられてもよい。 Furthermore, each functional unit of the driving control ECU 31 shown in FIG. 3 is a conceptual representation of the function, and is not limited to this configuration. For example, multiple functional units illustrated as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function of one functional unit in FIG. 3 may be divided into multiple units and configured as multiple functional units. For example, the control determination unit 63a may be provided separately from the recognition unit 63, the sensor information storage unit 62b, the recognizable area calculation unit 63c, and the recognizable area integration unit 63d may be integrated into one recognition area processing unit, and the variable processing unit 64a may be provided separately from the vehicle control unit 64.
(車両の運転制御ECUの動作の流れ)
図8は、実施形態に係る車両1の車両用制御装置(運転制御ECU)の動作の流れの一例を示すフローチャートである。図8を参照しながら、本実施形態に係る車両1の運転制御ECU31の動作の流れについて説明する。
(Operation flow of the vehicle driving control ECU)
8 is a flowchart showing an example of an operation flow of the vehicle control device (drive control ECU) of the
<ステップS11>
開発者は、予め、外部装置51を介して、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに、各種センサの各種性能に対する適否に基づいて、当該各種性能に対応する検知対象の検知に用いるセンサの組み合わせのパターンを規定したパターンテーブルを作成する。そして、設定部61は、外部装置51からの指令に応じて、パターンテーブルを記憶部62のパターンテーブル記憶部62aに記憶させる。また、車両1の仕様変更等に応じて、既存のセンサの取り外し、または新たなセンサの搭載が生じた場合には、開発者は、外部装置51を用い、設定部61を介してパターンテーブルを変更設定する。そして、ステップS12へ移行する。
<Step S11>
The developer creates a pattern table in advance via the external device 51 for each driving assistance function and for each detection target in the driving assistance function, the pattern table defining a combination of sensors used to detect the detection target corresponding to each performance, based on the suitability of each sensor for each performance. Then, the setting unit 61 stores the pattern table in the pattern table storage unit 62a of the storage unit 62 in response to a command from the external device 51. Also, when an existing sensor is removed or a new sensor is installed in response to a change in the specifications of the
<ステップS12>
運転者によって車両1の運転が開始された場合(ステップS12:Yes)、ステップS13へ移行し、開始されない場合(ステップS12:No)、待機する。
<Step S12>
If the driver of the
<ステップS13>
センサ認識低下検出部63bが、レインセンサ39等の車両1の周辺環境(走行環境)を検出するセンサからの検知結果や車両や歩行者等の物標をセンシングするための各種センサ自身による認識精度の低下を示す検知結果に基づき、センサに機能低下(検出信頼性の低下)がないと判定された場合(ステップS13:No)、ステップS14に移行する。この場合、各種センサとは、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44a、第2ミリ波レーダ44b等である。また、センサに機能低下(検出信頼性の低下)があると判定された場合(ステップS13:Yes)、ステップS17に移行する。
<Step S13>
When the sensor recognition degradation detection unit 63b determines that the sensor does not have a functional degradation (deterioration in detection reliability) based on the detection results from the sensors that detect the surrounding environment (driving environment) of the
<ステップS14>
制御判定部63a(認識部63)は、記憶部62において、有効になっている運転支援機能、および当該運転支援機能の検知対象に対応するパターンテーブルを参照する。そして、制御判定部63aは、当該パターンテーブルで規定されている各パターンに属するセンサによる検知処理の結果を得る。そして、ステップS15へ移行する。
<Step S14>
The control determination unit 63a (recognition unit 63) refers to a pattern table corresponding to the enabled driving support functions and the detection targets of the driving support functions in the storage unit 62. Then, the control determination unit 63a obtains the results of the detection process by the sensors belonging to each pattern defined in the pattern table. Then, the process proceeds to step S15.
<ステップS15>
制御判定部63aは、各パターンの検知結果として得られた物標の位置、および識別された物標の種類を、それぞれ照合するセンサフュージョンを行う。制御判定部63aは、照合の結果、一致する場合の物標の位置および種類を最終的な認識結果とする。そして、制御判定部63aは、物標に対する認識結果を、車両制御部64および出力制御部65に出力する。そして、ステップS16へ移行する。
<Step S15>
The control determination unit 63a performs sensor fusion to compare the positions of the targets obtained as the detection results of each pattern and the types of the identified targets. The control determination unit 63a determines the positions and types of the targets that match as the final recognition results. The control determination unit 63a then outputs the recognition results for the targets to the vehicle control unit 64 and the output control unit 65. Then, the process proceeds to step S16.
<ステップS16>
車両制御部64は、制御判定部63aによる認識結果に基づいて、各種運転支援機能を実行して、駆動ECU11、操舵ECU12およびブレーキECU13等に指令を出力することにより車両1の走行を制御する。
<Step S16>
The vehicle control unit 64 executes various driving assistance functions based on the recognition result by the control determination unit 63a, and controls the running of the
<ステップS17>
ステップS13において、センサに機能低下があると判定された場合(ステップS13:Yes)、制御判定部63aは、参照するパターンテーブルの修正を行う。例えば、第2単眼カメラ42bの認識精度低下が生じていると見なされた場合、第2単眼カメラ42bが含まれるパターンを参照するようにパターンテーブルに修正する。そして、ステップS18に移行する。なお、複数のセンサの認識精度が低下していると見なせる場合、それぞれのセンサが含まれるパターンを同様に参照するように修正する。
<Step S17>
In step S13, if it is determined that the sensor has a reduced function (step S13: Yes), the control determination unit 63a modifies the pattern table to be referenced. For example, if it is determined that the recognition accuracy of the second
<ステップS18>
認識可能エリア演算部63cは、センサ認識低下検出部63bの検出結果に基づき、センサ情報記憶部62bから信頼性が低下したセンサに対応する諸元情報及び設置情報を取得して、信頼性が低下した状態でも検出結果が利用可能な認識可能対象物と認識可能エリアの演算を行う。そして、ステップS19へ移行する。
<Step S18>
The recognizable area calculation unit 63c acquires specification information and installation information corresponding to the sensor whose reliability has decreased from the sensor information storage unit 62b based on the detection result of the sensor recognition deterioration detection unit 63b, and calculates the recognizable object and the recognizable area whose detection result can be used even in a state where the reliability has decreased. Then, the process proceeds to step S19.
<ステップS19>
認識可能エリア統合部63dは、全てのセンサについて、実施する運転支援に対応するパターンテーブルにしたがって認識可能対象物と認識可能エリアの統合を行う。つまり、センサの検出信頼性が低下している状態でも認識可能な対象物(物標)と認識可能なエリアを決定する。そして、ステップS20へ移行する。
<Step S19>
The recognizable area integration unit 63d integrates the recognizable objects and recognizable areas for all sensors according to a pattern table corresponding to the driving assistance to be performed. That is, it determines the recognizable objects (targets) and recognizable areas even in a state where the detection reliability of the sensor is reduced. Then, the process proceeds to step S20.
<ステップS20>
制御判定部63aは、認識可能エリア統合部63dで統合された認識可能対象物と認識可能エリアをユーザ(運転者等)にその旨告知(通知)するとともに、運転支援制御への介入を制御する。例えば、運転支援の対象範囲の変更や、検出可能な物標の変更、運転支援の制御量や制御タイミングの変更等を実行し、このフローを一旦終了する。
<Step S20>
The control determination unit 63a notifies (notifies) the user (driver, etc.) of the recognizable objects and recognizable areas integrated by the recognizable area integration unit 63d, and controls intervention in driving assistance control. For example, it executes changes to the target range of driving assistance, changes to detectable targets, changes to the control amount and control timing of driving assistance, etc., and temporarily ends this flow.
(本実施形態の効果)
以上のように、本実施形態に係る車両1の車両用制御装置(運転制御ECU31)では、車両1の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する装置である。認識部63は、車両1の周囲環境に基づくセンサの認識機能の低下要因を検出する認識低下検出部(センサ認識低下検出部63b)と、低下要因とセンサ情報とに基づき、認識機能が低下しているセンサによって検知可能な物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部(認識可能エリア演算部63c)と、運転支援機能ごとに対応して、物標の認識に用いるセンサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれのパターンに含まれるセンサによる検知結果に基づいて物標を認識する認識部(認識可能エリア統合部63d)とを備える。また、センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部62bを備える。そして、認識部(認識可能エリア統合部63d)による物標の認識結果に基づいて、当該認識結果が得られたパターンに対応する運転支援機能を実行する車両制御部64を備える。このように、車両1の周囲環境(走行環境)が変化して、一時的にセンサの認識機能が低下するような場合でも、センサの認識状況をより適切に把握して最適な運転支援を実現することができる。
(Effects of this embodiment)
As described above, the vehicle control device (driving control ECU 31) of the
また、認識部(認識可能エリア統合部63d)は、物標の認識結果に基づき、運転支援機能の適用可能領域の有無の判定を行うことができる。その結果、運転支援において誤判定や誤認識を抑制することが可能になる。 The recognition unit (recognizable area integration unit 63d) can also determine whether or not there is an area where the driving assistance function can be applied based on the target recognition results. As a result, it becomes possible to suppress erroneous determinations and erroneous recognitions in driving assistance.
車両制御部64は、適用可能領域以外の領域に対して、運転支援機能の介入を制限することができる。その結果、運転支援において誤判定や誤認識に基づき誤動作や誤制御を確実に回避することが可能になる。 The vehicle control unit 64 can limit the intervention of the driving assistance function in areas other than the applicable area. As a result, it is possible to reliably avoid malfunctions or erroneous control in driving assistance based on erroneous judgments or erroneous recognitions.
1 車両
31 運転制御ECU
32 カメラECU
33 ソナーECU
34 レーダECU
41a メモリ
42a 第1単眼カメラ
42b 第2単眼カメラ
42c 第3単眼カメラ
42d 第1ステレオカメラ
42e 第2ステレオカメラ
43 ソナーセンサ
44a 第1ミリ波レーダ
44b 第2ミリ波レーダ
51 外部装置
61 設定部
62 記憶部
62a パターンテーブル記憶部
62b センサ情報記憶部
63 認識部
63a 制御判定部
63b センサ認識低下検出部
63c 認識可能エリア演算部
63d 認識可能エリア統合部
64 車両制御部
64a 可変処理部
65 出力制御部
1 Vehicle 31 Driving control ECU
32 Camera ECU
33 Sonar ECU
34 Radar ECU
Description of the Reference
Claims (3)
前記車両の周囲環境に基づく前記センサの認識機能の低下要因を検出する認識低下検出部と、
前記センサの諸元情報と設置情報とを少なくとも含むセンサ情報を記憶するセンサ情報記憶部と、
前記低下要因と前記センサ情報とに基づき、前記認識機能が低下している前記センサによって検知可能な前記物標と当該物標が存在する領域の少なくとも一方の検知結果を取得する取得部と、
前記運転支援機能ごとに対応して、前記物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる前記検知結果に基づいて前記物標を認識する認識部と、
前記認識部による前記物標の認識結果に基づいて、当該認識結果が得られた前記パターンに対応する前記運転支援機能を実行する車両制御部と、
を含む、車両用制御装置。 A vehicle control device that executes one or more driving assistance functions based on detection signals received from a plurality of types of sensors that detect targets around a vehicle,
a recognition degradation detection unit that detects a cause of degradation of the recognition function of the sensor based on an environment surrounding the vehicle;
a sensor information storage unit that stores sensor information including at least specification information and installation information of the sensor;
an acquisition unit that acquires a detection result of at least one of the target detectable by the sensor having the deteriorated recognition function and an area in which the target exists, based on the cause of the deterioration and the sensor information;
a recognition unit that refers to pattern information defining a plurality of patterns indicating a combination of the sensors used to recognize the target, corresponding to each of the driving assistance functions, and recognizes the target based on the detection results by the sensors included in each of the patterns;
a vehicle control unit that executes the driving assistance function corresponding to the pattern for which the recognition result is obtained based on the recognition result of the target by the recognition unit;
A vehicle control device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022156347A JP2024049862A (en) | 2022-09-29 | 2022-09-29 | Vehicle control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022156347A JP2024049862A (en) | 2022-09-29 | 2022-09-29 | Vehicle control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024049862A true JP2024049862A (en) | 2024-04-10 |
Family
ID=90621846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022156347A Pending JP2024049862A (en) | 2022-09-29 | 2022-09-29 | Vehicle control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024049862A (en) |
-
2022
- 2022-09-29 JP JP2022156347A patent/JP2024049862A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11803026B2 (en) | Camera system for intelligent driver assistance system, and driver assistance system and method | |
US20180170373A1 (en) | Vehicle and method for controlling the same | |
US11472433B2 (en) | Advanced driver assistance system, vehicle having the same and method for controlling the vehicle | |
KR20200047886A (en) | Driver assistance system and control method for the same | |
CN113060141A (en) | Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle | |
US11682304B2 (en) | Driver assistance system and control method for the same | |
KR20200115827A (en) | Driver assistance system, and control method for the same | |
US20220332319A1 (en) | Advanced driver assistance system, and vehicle having the same | |
KR102589617B1 (en) | driver assistance apparatus | |
US11890939B2 (en) | Driver assistance system | |
US11634120B2 (en) | Driver assistance system and driver assistance method | |
US20210171032A1 (en) | Driving support system | |
US20200384992A1 (en) | Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium | |
KR20220119229A (en) | Advanced Driver Assistance System, and Vehicle having the same | |
KR20220124397A (en) | Vehicle and controlling method of vehicle | |
US11970167B2 (en) | Driver assistance apparatus and driver assistance method | |
JP2024049862A (en) | Vehicle control device | |
CN115871655A (en) | Vehicle and control method thereof | |
JP2024049861A (en) | Vehicle control device | |
KR102618041B1 (en) | Driver assistance system and method therof | |
CN110065492B (en) | Vehicle control system | |
JP7449907B2 (en) | Vehicle control device | |
KR102614820B1 (en) | Driver assistance system, and control method for the same | |
KR102559534B1 (en) | Method and apparatus for supporting driving lines of vehicle in bad weather | |
US20230249707A1 (en) | Driver assistance system and driver assistance method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240325 |