JP7449907B2 - Vehicle control device - Google Patents

Vehicle control device Download PDF

Info

Publication number
JP7449907B2
JP7449907B2 JP2021154542A JP2021154542A JP7449907B2 JP 7449907 B2 JP7449907 B2 JP 7449907B2 JP 2021154542 A JP2021154542 A JP 2021154542A JP 2021154542 A JP2021154542 A JP 2021154542A JP 7449907 B2 JP7449907 B2 JP 7449907B2
Authority
JP
Japan
Prior art keywords
vehicle
ecu
sensors
sensor
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021154542A
Other languages
Japanese (ja)
Other versions
JP2023045922A (en
Inventor
陽介 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2021154542A priority Critical patent/JP7449907B2/en
Publication of JP2023045922A publication Critical patent/JP2023045922A/en
Application granted granted Critical
Publication of JP7449907B2 publication Critical patent/JP7449907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、車両用制御装置に関する。 The present invention relates to a vehicle control device.

昨今、自動車等の車両に対する運転支援機能として、自動緊急ブレーキ(AEB:Autonomous Emergency Braking)およびアダプティブクルーズコントロール(ACC)等を実現するために、車両に周辺監視用のセンサを搭載している。近年では、運転支援機能の機能追加および性能向上のため、車両の前方以外の方向の検知、および検知結果の信頼性向上を目的として、複数の周辺監視用センサを採用することがある。すなわち、単独または複数のセンサで物体を検知した場合、それが障害物として回避する必要があるのか等の運転支援機能を実現するための検知対象であるのかを間違いなく判定するために、物体の正確な位置の把握、および検知対象(制御対象物)であるのか否かの正確な判定を行う。このように、複数のセンサによる物体(物標)の検知結果を照合する技術を、センサフュージョンと称している。 2. Description of the Related Art Recently, in order to implement driving support functions for vehicles such as automobiles, such as automatic emergency braking (AEB) and adaptive cruise control (ACC), vehicles are equipped with sensors for monitoring the surrounding area. In recent years, in order to add functionality and improve the performance of driving support functions, multiple peripheral monitoring sensors are sometimes employed for the purpose of detecting directions other than the front of the vehicle and improving the reliability of the detection results. In other words, when an object is detected by a single sensor or multiple sensors, it is necessary to detect the object in order to accurately determine whether it is an obstacle that needs to be avoided or is a detection target for realizing a driving support function, such as an obstacle that needs to be avoided. Accurately grasp the position and accurately determine whether the object is a detection target (control target). The technology of collating the detection results of objects (targets) by multiple sensors in this way is called sensor fusion.

このようなセンサフュージョンの技術として、車載カメラの画像認識処理による歩行者の認識結果と、レーザレーダによる物標の認識結果とに基づいて、歩行者を認識する技術が開示されている(例えば特許文献1参照)。 As such sensor fusion technology, a technology for recognizing pedestrians based on the recognition results of pedestrians through image recognition processing of an on-vehicle camera and the recognition results of target objects using a laser radar has been disclosed (for example, a patent has been published). (See Reference 1).

特開2009-237898号公報JP2009-237898A

しかしながら、従来の技術では、開発段階に取り付けるセンサの種類、取り付け位置、およびセンサ特性等を事前に考慮したフュージョン方式を固定的に詳細設計しているため、センサの追加、取り換えまたは取り外し等が発生した場合に、フュージョン方式を容易に切り替えることができないという課題がある。 However, with conventional technology, the fusion method is designed in fixed detail at the development stage, taking into consideration the type of sensor, its mounting position, and sensor characteristics, etc., resulting in the addition, replacement, or removal of sensors. In this case, there is a problem that the fusion method cannot be easily switched.

本発明は、上述の課題に鑑みてなされたものであって、センサの追加、取り換えまたは取り外し等が発生した場合においても、フュージョン方式を容易に変更することができる車両用制御装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide a vehicle control device that can easily change the fusion method even when a sensor is added, replaced, or removed. With the goal.

上述した課題を解決し、目的を達成するために、本発明に係る車両用制御装置は、車両の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する車両用制御装置であって、記憶部に記憶され、少なくとも前記運転支援機能ごとに対応して、前記物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる検知結果に基づいて前記物標を認識する認識部と、前記認識部による認識結果に基づいて、該認識結果が得られた前記パターンに対応する前記運転支援機能を実行する車両制御部と、を備え、前記認識部は、前記運転支援機能における検知対象となる物標ごとに対応した前記パターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる検知結果を照合し、照合の結果に基づいて該物標を認識することを特徴とする。 In order to solve the above-mentioned problems and achieve the objectives, a vehicle control device according to the present invention detects one or more driving conditions based on detection signals received from a plurality of types of sensors that detect targets around the vehicle. A vehicle control device that executes an assistance function, the pattern being stored in a storage unit and defining a plurality of patterns indicating combinations of the sensors used for recognizing the target object, corresponding to at least each of the driving assistance functions. a recognition unit that refers to the information and recognizes the target based on the detection result by the sensor included in each of the patterns; and the pattern from which the recognition result is obtained based on the recognition result by the recognition unit. a vehicle control unit that executes the driving support function corresponding to the driving support function, and the recognition unit refers to the pattern information corresponding to each target object to be detected in the driving support function, The target object is recognized based on the results of the comparison by comparing the detection results of the sensors included in the target object .

本発明によれば、センサの追加、取り換えまたは取り外し等が発生した場合においても、フュージョン方式を容易に変更することができる。 According to the present invention, even when a sensor is added, replaced, or removed, the fusion method can be easily changed.

図1は、実施形態に係る車両の各種センサの配置構成および検出範囲の一例を示す図である。FIG. 1 is a diagram illustrating an example of the arrangement and detection range of various sensors of a vehicle according to an embodiment. 図2は、実施形態に係る車両の電気的構成の一例を示す図である。FIG. 2 is a diagram showing an example of the electrical configuration of the vehicle according to the embodiment. 図3は、実施形態に係る車両の運転制御ECUの機能的なブロック構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional block configuration of the vehicle driving control ECU according to the embodiment. 図4は、各種センサの特性の一例を示す図である。FIG. 4 is a diagram showing an example of characteristics of various sensors. 図5は、実施形態に係る車両に設置された各種センサの性能の一例を示す図である。FIG. 5 is a diagram showing an example of performance of various sensors installed in the vehicle according to the embodiment. 図6は、実施形態に係る車両のパターンテーブルの一例を示す図である。FIG. 6 is a diagram illustrating an example of a vehicle pattern table according to the embodiment. 図7は、実施形態に係る車両の運転制御ECUの動作の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the operation flow of the vehicle driving control ECU according to the embodiment.

以下に、図1~図7を参照しながら、本発明に係る車両用制御装置の実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a vehicle control device according to the present invention will be described in detail below with reference to FIGS. 1 to 7. Furthermore, the present invention is not limited to the following embodiments, and the constituent elements in the following embodiments include those that can be easily conceived by a person skilled in the art, those that are substantially the same, and those that are within the so-called equivalent range. is included. Furthermore, various omissions, substitutions, changes, and combinations of components can be made without departing from the gist of the following embodiments.

(車両の各種センサの配置構成および検出範囲について)
図1は、実施形態に係る車両の各種センサの配置構成および検出範囲の一例を示す図である。図1を参照しながら、本実施形態に係る車両1の各種センサの配置構成および検出範囲の一例について説明する。
(About the arrangement and detection range of various sensors on the vehicle)
FIG. 1 is a diagram illustrating an example of the arrangement and detection range of various sensors of a vehicle according to an embodiment. An example of the arrangement and detection range of various sensors of the vehicle 1 according to the present embodiment will be described with reference to FIG. 1.

図1に示すように、車両1は、複数種類のセンサを搭載し、当該センサによる検知結果に基づいて、自動緊急ブレーキ(AEB)、アダプティブクルーズコントロール(ACC)または踏み間違い防止機能等のうち少なくともいずれかの運転支援機能を実行する。自動緊急ブレーキ(AEB)とは、障害物との衝突が予測された場合に、衝突を回避するために自動的にブレーキをかけたり、障害物の衝突が不可避の場合でも衝突の強度を弱めることによって車両の被害を軽減したりする機能である。また、アダプティブクルーズコントロール(ACC)とは、高速道路における長距離移動時等に、予め設定した車速範囲内で車両を自動的に加減速させることにより、前方の他車両との車間距離を維持しながら追従走行を実現する機能である。また、踏み間違い防止機能とは、車両1を発進するときに前方に人または車両等の物標があり、センサで検知されている状態において、運転者が誤ってアクセルペダルを強く踏んでしまった場合に、踏み込み速度が所定速度以上、および踏み込み量が所定量以上のとき踏み間違いと判断し、電子スロットルを閉じてエンジンの回転数を制御し、所定時間後、自動的にブレーキを作動させる機能である。車両1は、図1(a)に示すように、一例として、前方カメラセンサ2と、4つのソナーセンサ3と、前方ミリ波レーダ4と、2つの前側方ミリ波レーダ5と、2つの後側方ミリ波レーダ6と、4つのサラウンドビューカメラ7と、を備えている。 As shown in FIG. 1, the vehicle 1 is equipped with multiple types of sensors, and based on the detection results of the sensors, at least one of automatic emergency braking (AEB), adaptive cruise control (ACC), or a pedal misapplication prevention function is activated. Execute one of the driving support functions. Automatic emergency braking (AEB) automatically applies the brakes to avoid a collision if a collision with an obstacle is predicted, or reduces the intensity of the collision even if a collision with an obstacle is unavoidable. This is a function that reduces damage to vehicles. In addition, adaptive cruise control (ACC) maintains the distance between the vehicle and other vehicles in front by automatically accelerating and decelerating the vehicle within a preset vehicle speed range when traveling long distances on expressways. This is a function that realizes tracking while driving. In addition, the erroneous pedal depression prevention function is a function that prevents the driver from pressing too hard on the accelerator pedal by mistake when starting the vehicle 1 and there is a target object such as a person or vehicle in front of the vehicle that is detected by the sensor. A function that determines that the pedal is pressed incorrectly when the speed of the pedal stroke is above a predetermined speed and the amount of the pedal pedal is above a predetermined amount, closes the electronic throttle, controls the engine speed, and automatically applies the brakes after a predetermined period of time. It is. As shown in FIG. 1(a), the vehicle 1 includes, for example, a front camera sensor 2, four sonar sensors 3, a front millimeter wave radar 4, two front side millimeter wave radars 5, and two rear side millimeter wave radars. The camera is equipped with a two-way millimeter wave radar 6 and four surround view cameras 7.

前方カメラセンサ2は、車両1のフロントガラスの上部等に備えられ、図1(b)に示す撮像範囲2aにおいて、前方の車両、二輪車および歩行者等の物標を認識する撮像装置である。ソナーセンサ3は、車両1のフロントバンパのコーナー部、およびリヤバンパのコーナー部等に備えられ、図1(b)に示す検出範囲3aにおいて、超音波を発信することによって物標を検知するセンサである。前方ミリ波レーダ4は、車両1のフロントバンパの裏側等に備えられ、図1(b)に示す検出範囲4aにおいて、車両1の前方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の前方に存在する物標を検知するレーダ装置である。 The front camera sensor 2 is an imaging device that is provided on the upper part of the windshield of the vehicle 1 and recognizes targets such as a vehicle, a two-wheeled vehicle, and a pedestrian in front in an imaging range 2a shown in FIG. 1(b). The sonar sensor 3 is a sensor that is provided at a corner of a front bumper, a corner of a rear bumper, etc. of the vehicle 1, and detects a target object by emitting ultrasonic waves in a detection range 3a shown in FIG. 1(b). . The forward millimeter-wave radar 4 is provided on the back side of the front bumper of the vehicle 1, and emits radio waves in the millimeter-wave band toward the front of the vehicle 1 in a detection range 4a shown in FIG. 1(b). This is a radar device that detects a target existing in front of the vehicle 1 by receiving returned radio waves.

前側方ミリ波レーダ5は、車両1のフロントバンパのコーナー部等に備えられ、図1(b)に示す検出範囲5aにおいて、車両1の前側方に向かってミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の前側方に存在する物標を検知するレーダ装置である。後側方ミリ波レーダ6は、車両1のリヤバンパのコーナー部等に備えられ、図1(b)に示す検出範囲6aにおいて、車両1の後側方に向かってリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の後側方に存在する物標を検知するレーダ装置である。サラウンドビューカメラ7は、車両1のフロント側、バックドア側および左右のサイドミラーに備えられ、図1(b)に示す広画角の撮像範囲7aで撮像した映像により車両1を上空から見下ろした俯瞰映像を生成するための撮像装置である。 The front side millimeter wave radar 5 is provided at a corner of the front bumper of the vehicle 1, and irradiates a millimeter wave band radio wave toward the front side of the vehicle 1 in a detection range 5a shown in FIG. 1(b). This is a radar device that detects a target existing on the front side of the vehicle 1 by receiving reflected radio waves. The rear side millimeter wave radar 6 is provided at a corner of the rear bumper of the vehicle 1, and radiates radio waves in the rewave band toward the rear side of the vehicle 1 in a detection range 6a shown in FIG. 1(b). , is a radar device that detects a target existing on the rear side of the vehicle 1 by receiving reflected and returned radio waves. The surround view camera 7 is provided on the front side, the back door side, and the left and right side mirrors of the vehicle 1, and looks down on the vehicle 1 from above using images captured in a wide-angle imaging range 7a shown in FIG. 1(b). This is an imaging device for generating an overhead image.

このように、車両1は、複数種類のセンサを搭載すること、および当該各センサによる物標に対する検出・検知結果を照合するセンサフュージョンによって、上述の各種の運転支援機能を実現する。なお、図1に示した車両1の各種センサは、一例を示したものであり、センサの個数、種類、および配置位置については図1に示したものに限定されるものではない。 In this way, the vehicle 1 realizes the various driving support functions described above by mounting a plurality of types of sensors and by using sensor fusion that collates the results of detection and detection of targets by the respective sensors. Note that the various sensors of the vehicle 1 shown in FIG. 1 are shown as an example, and the number, types, and arrangement positions of the sensors are not limited to those shown in FIG. 1.

(車両の電気的構成)
図2は、実施形態に係る車両の電気的構成の一例を示す図である。図2を参照しながら、本実施形態に係る車両1の電気的構成について説明する。
(Electrical configuration of vehicle)
FIG. 2 is a diagram showing an example of the electrical configuration of the vehicle according to the embodiment. The electrical configuration of the vehicle 1 according to this embodiment will be described with reference to FIG. 2.

図2に示すように、車両1は、各部を制御するための複数の複数のECU(Electronic Control Unit:電子制御ユニット)を備えている。各ECUは、マイコン(マイクロコントローラユニット)を備えており、当該マイコンは、例えば、CPU(Central Processing Unit)と、フラッシュメモリ等の不揮発性メモリと、DRAM(Dynamic Random Access Memory)等の揮発性メモリを内蔵している。 As shown in FIG. 2, the vehicle 1 includes a plurality of ECUs (Electronic Control Units) for controlling various parts. Each ECU includes a microcomputer (microcontroller unit), and the microcomputer includes, for example, a CPU (Central Processing Unit), a nonvolatile memory such as a flash memory, and a volatile memory such as a DRAM (Dynamic Random Access Memory). Built-in.

具体的には、車両1は、図2に示すように、駆動ECU11と、操舵ECU12と、ブレーキECU13と、メータECU14と、ボディECU15と、運転制御ECU31と、カメラECU32と、ソナーECU33と、レーダECU34と、を備えている。各ECUは、バスライン19を介して、互いに通信可能となるように接続されている。バスライン19は、例えば、CAN(Controller Area Network)等のシリアル通信プロトコルに基づく通信を実現する。なお、CANに限定されるものではなく、その他のシリアル通信プロトコルが適用されてもよい。 Specifically, as shown in FIG. 2, the vehicle 1 includes a drive ECU 11, a steering ECU 12, a brake ECU 13, a meter ECU 14, a body ECU 15, a driving control ECU 31, a camera ECU 32, a sonar ECU 33, and a radar. It is equipped with an ECU34. The ECUs are connected to each other via a bus line 19 so as to be able to communicate with each other. The bus line 19 realizes communication based on a serial communication protocol such as CAN (Controller Area Network). Note that the present invention is not limited to CAN, and other serial communication protocols may be applied.

また、車両1は、駆動装置21と、舵角センサ22aと、操舵装置22bと、制動装置23と、機能スイッチ24と、ヘッドランプ25と、測位信号受信部35と、車速センサ36と、表示装置37と、スピーカ38と、を備えている。さらに、車両1は、運転支援機能を実現するために用いられるセンサとして、第1単眼カメラ42aと、第2単眼カメラ42bと、第3単眼カメラ42cと、第1ステレオカメラ42dと、第2ステレオカメラ42eと、ソナーセンサ43と、第1ミリ波レーダ44aと、第2ミリ波レーダ44bと、を備えている。 The vehicle 1 also includes a drive device 21, a steering angle sensor 22a, a steering device 22b, a brake device 23, a function switch 24, a headlamp 25, a positioning signal receiving section 35, a vehicle speed sensor 36, and a display. It includes a device 37 and a speaker 38. Furthermore, the vehicle 1 includes a first monocular camera 42a, a second monocular camera 42b, a third monocular camera 42c, a first stereo camera 42d, and a second stereo camera 42a, as sensors used to realize the driving support function. It includes a camera 42e, a sonar sensor 43, a first millimeter wave radar 44a, and a second millimeter wave radar 44b.

駆動ECU11は、入力されるアクセルペダル信号等に基づいて、車両1の駆動装置21を制御するECUである。駆動装置21は、駆動ECU11に接続されており、駆動源として、エンジンまたはモータのうち少なくともいずれかを備えている。また、駆動装置21は、例えば、エンジンのスロットル開度に対して電子制御を行うことにより、吸入空気量を調整してエンジンの出力を制御する電子スロットルを含む。また、駆動装置21は、必要に応じて、駆動源からの駆動力を変速して出力する変速機を備える。 The drive ECU 11 is an ECU that controls the drive device 21 of the vehicle 1 based on input accelerator pedal signals and the like. The drive device 21 is connected to the drive ECU 11 and includes at least one of an engine and a motor as a drive source. Further, the drive device 21 includes, for example, an electronic throttle that controls the engine output by adjusting the amount of intake air by electronically controlling the throttle opening of the engine. Further, the drive device 21 includes a transmission that changes the speed of the driving force from the drive source and outputs it as necessary.

操舵ECU12は、舵角センサ22aからの検出信号を入力し、車両1の操舵装置22bを制御するECUである。舵角センサ22aは、操舵ECU12に接続されており、ステアリングホイールの角度を検出するセンサである。操舵装置22bは、操舵ECU12に接続されており、電動モータのトルクをステアリング機構に伝達する電動パワーステアリング装置である。ステアリング機構は、例えば、ラックアンドピニオン式のステアリングギヤを含み、電動モータのトルクによりラック軸が車幅方向に移動すると、当該ラック軸の移動に伴って左右の操向輪が左右に転舵するように構成されている。 The steering ECU 12 is an ECU that receives a detection signal from the steering angle sensor 22a and controls the steering device 22b of the vehicle 1. The steering angle sensor 22a is connected to the steering ECU 12 and is a sensor that detects the angle of the steering wheel. The steering device 22b is an electric power steering device that is connected to the steering ECU 12 and transmits the torque of the electric motor to the steering mechanism. The steering mechanism includes, for example, a rack and pinion type steering gear, and when the rack shaft moves in the vehicle width direction due to the torque of the electric motor, the left and right steering wheels are steered left and right as the rack shaft moves. It is configured as follows.

ブレーキECU13は、車両1の制動装置23を制御するECUである。制動装置23は、ブレーキECU13に接続されており、油圧式または電動式の制動装置である。例えば、制動装置23が油圧式である場合、制動装置23は、ブレーキアクチュエータを備え、当該ブレーキアクチュエータの機能により各車輪に設けられたブレーキのホイールシリンダに油圧を分配し、その油圧により各ブレーキから駆動輪を含む車輪に制動力を付与する。 Brake ECU 13 is an ECU that controls braking device 23 of vehicle 1 . The braking device 23 is connected to the brake ECU 13 and is a hydraulic or electric braking device. For example, when the braking device 23 is hydraulic, the braking device 23 includes a brake actuator, and the function of the brake actuator distributes hydraulic pressure to the wheel cylinders of the brakes provided on each wheel, and the hydraulic pressure is used to separate the brakes from each brake. Apply braking force to wheels including drive wheels.

メータECU14は、車両1のメータパネルの各部を制御するECUである。メータパネルは、車速およびエンジン回転数を表示する計器類、および、各種の情報を表示するための液晶ディスプレイ等の表示器を含む。また、メータECU14は、例えば、各種の運転支援機能を有効または無効にするための機能スイッチ24が接続されている。なお、運転支援機能によっては、その性質上、機能スイッチ24による切り替えによらずに、常時有効とされる機能があってもよい。 The meter ECU 14 is an ECU that controls each part of the meter panel of the vehicle 1. The meter panel includes instruments that display vehicle speed and engine speed, and a display such as a liquid crystal display that displays various information. Further, the meter ECU 14 is connected to a function switch 24 for enabling or disabling various driving support functions, for example. Note that depending on the driving support function, there may be a function that is always enabled regardless of the switching by the function switch 24 due to its nature.

ボディECU15は、車両のイグニッションスイッチがオフの状態でも動作の必要がある左右の各ウィンカおよびドアロックモータ等を制御するECUである。図2においては、ヘッドランプ25が、ボディECU15に接続されており、ボディECU15の指令に従って、点灯動作を行う。 The body ECU 15 is an ECU that controls left and right blinkers, door lock motors, etc. that need to operate even when the vehicle's ignition switch is off. In FIG. 2, the headlamp 25 is connected to the body ECU 15, and lights up according to commands from the body ECU 15.

運転制御ECU31は、運転支援機能の制御の中枢となるECUであり、車両用制御装置の一例である。運転制御ECU31は、カメラECU32、ソナーECU33およびレーダECU34により集約された各種センサの検出信号に基づく物標の検知結果を照合するセンサフュージョンに基づいて、各種の運転支援機能を実行する。また、運転制御ECU31は、メモリ41aと、外部I/F41bと、を備えている。また、運転制御ECU31は、図2に示すように、測位信号受信部35、車速センサ36、表示装置37、およびスピーカ38が接続されている。 The driving control ECU 31 is an ECU that plays a central role in controlling driving support functions, and is an example of a vehicle control device. The driving control ECU 31 executes various driving support functions based on sensor fusion that collates detection results of a target based on detection signals of various sensors aggregated by the camera ECU 32, sonar ECU 33, and radar ECU 34. Further, the operation control ECU 31 includes a memory 41a and an external I/F 41b. Further, as shown in FIG. 2, the driving control ECU 31 is connected to a positioning signal receiving section 35, a vehicle speed sensor 36, a display device 37, and a speaker 38.

メモリ41aは、運転制御ECU31のセンサフュージョンで用いる各種センサの組み合わせのパターンを規定したパターンテーブル等を記憶しているフラッシュメモリ等の不揮発性記憶装置である。パターンテーブルは、運転支援機能ごと、かつ当該運転支援機能における検知対象(車両、二輪車、歩行者等)ごとに存在する。パターンテーブルについては後述する。 The memory 41a is a nonvolatile storage device such as a flash memory that stores a pattern table that defines patterns of combinations of various sensors used in sensor fusion of the operation control ECU 31. A pattern table exists for each driving support function and for each detection target (vehicle, motorcycle, pedestrian, etc.) in the driving support function. The pattern table will be described later.

外部I/F41bは、外部の情報処理装置である外部装置51等とデータ通信を行うためのインターフェースである。外部I/F41bは、例えば、イーサネット(登録商標)またはUSB(Universal Serial Bus)等の規格に準拠したインターフェースである。外部装置51は、メモリ41aに記憶されたパターンテーブルの保存、編集、更新等の処理のために用いられるPC(Personal Computer)等の情報処理装置である。 The external I/F 41b is an interface for performing data communication with an external device 51, which is an external information processing device. The external I/F 41b is, for example, an interface compliant with standards such as Ethernet (registered trademark) or USB (Universal Serial Bus). The external device 51 is an information processing device such as a PC (Personal Computer) used for processing such as saving, editing, and updating the pattern table stored in the memory 41a.

カメラECU32は、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42dおよび第2ステレオカメラ42eが接続され、各カメラ撮像された画像信号を受信して処理することにより画像データを生成するECUである。カメラECU32は、各カメラから受信した画像信号について処理を行った画像データを運転制御ECU31に送信する。第1単眼カメラ42a、第2単眼カメラ42bおよび第3単眼カメラ42cは、車両1の前方または後方の探索範囲の静止画を所定のフレームレートで連続して撮像可能なカメラセンサである。第1ステレオカメラ42dおよび第2ステレオカメラ42eは、撮像した2つの平行等位に配置された撮像部により得られた画像の視差から物標までの距離を計測することができるカメラセンサである。 The camera ECU 32 is connected to a first monocular camera 42a, a second monocular camera 42b, a third monocular camera 42c, a first stereo camera 42d, and a second stereo camera 42e, and receives and processes image signals captured by each camera. This is an ECU that generates image data. The camera ECU 32 transmits image data obtained by processing image signals received from each camera to the driving control ECU 31. The first monocular camera 42a, the second monocular camera 42b, and the third monocular camera 42c are camera sensors that can continuously capture still images in a search range in front or behind the vehicle 1 at a predetermined frame rate. The first stereo camera 42d and the second stereo camera 42e are camera sensors that can measure the distance to the target based on the parallax of images obtained by two imaging units arranged in parallel and equidistant positions.

ソナーECU33は、ソナーセンサ43が接続され、ソナーセンサ43により得られた物標の検知信号を受信して処理するECUである。ソナーECU33は、ソナーセンサ43から受信した検知信号について処理を行ったデータを運転制御ECU31に送信する。ソナーセンサ43は、超音波を発信することによって物標を検知するセンサである。 The sonar ECU 33 is an ECU to which the sonar sensor 43 is connected, and receives and processes a target detection signal obtained by the sonar sensor 43. The sonar ECU 33 transmits data obtained by processing the detection signal received from the sonar sensor 43 to the operation control ECU 31. The sonar sensor 43 is a sensor that detects a target by emitting ultrasonic waves.

レーダECU34は、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bが接続され、各ミリ波レーダにより得られた物標の検知信号を受信して処理するECUである。レーダECU34は、各ミリ波レーダから受信した検知信号について処理を行ったデータを運転制御ECU31に送信する。第1ミリ波レーダ44aおよび第2ミリ波レーダ44bは、ミリ波帯の電波を照射し、反射して戻ってきた電波を受信することによって、車両1の周囲に存在する物標を検知するレーダ装置である。 The radar ECU 34 is an ECU to which the first millimeter wave radar 44a and the second millimeter wave radar 44b are connected, and receives and processes target detection signals obtained by each millimeter wave radar. The radar ECU 34 transmits data obtained by processing the detection signals received from each millimeter wave radar to the operation control ECU 31. The first millimeter wave radar 44a and the second millimeter wave radar 44b are radars that detect targets existing around the vehicle 1 by emitting radio waves in the millimeter wave band and receiving reflected radio waves. It is a device.

なお、図2に示した車両1の各種センサは、一例を示したものであり、センサの個数、種類、および配置位置については図2に示したものに限定されるものではない。 Note that the various sensors of the vehicle 1 shown in FIG. 2 are shown as an example, and the number, types, and arrangement positions of the sensors are not limited to those shown in FIG. 2.

測位信号受信部35は、GNSS(Global Navigation Satellite System)に基づき、測位衛星から測位信号を受信する受信装置である。測位信号受信部35は、例えば、USB規格の通信ケーブルを介して、運転制御ECU31と通信可能に接続されており、受信した測位信号を運転制御ECU31に出力する。運転制御ECU31は、測位信号受信部35から受信した測位信号に基づいて、車両1が存在する地点を検出する。なお、GNSSの一例として、例えばGPS(Global Positioning System:全地球測位システム)等が挙げられる。 The positioning signal receiving unit 35 is a receiving device that receives positioning signals from positioning satellites based on GNSS (Global Navigation Satellite System). The positioning signal receiving unit 35 is communicably connected to the operation control ECU 31 via, for example, a USB standard communication cable, and outputs the received positioning signal to the operation control ECU 31. The driving control ECU 31 detects the location where the vehicle 1 is located based on the positioning signal received from the positioning signal receiving section 35. Note that an example of GNSS is, for example, GPS (Global Positioning System).

車速センサ36は、例えば車両1の車輪の付近に設置され、当該車輪の回転速度または回転数を示す車速パルスを生成するセンサである。車速センサ36は、運転制御ECU31と通信可能に接続されており、生成した車速パルスを運転制御ECU31に出力する。運転制御ECU31は、車速センサ36から受信した車速パルスをカウントすることによって車両1の車速を求める。 The vehicle speed sensor 36 is a sensor installed near a wheel of the vehicle 1, for example, and generates a vehicle speed pulse indicating the rotational speed or number of rotations of the wheel. The vehicle speed sensor 36 is communicably connected to the driving control ECU 31 and outputs the generated vehicle speed pulse to the driving control ECU 31. The driving control ECU 31 calculates the vehicle speed of the vehicle 1 by counting vehicle speed pulses received from the vehicle speed sensor 36.

表示装置37は、車両1の車室内のダッシュボード等に設置された、物体の認識情報等を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)、またはOELD(Organic Electro-Luminescent Display:有機ELディスプレイ)等の表示装置である。表示装置37は、運転制御ECU31と通信可能に接続されている。 The display device 37 is an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescent Display) that is installed on a dashboard or the like in the vehicle interior of the vehicle 1 and displays object recognition information. It is a display device such as. The display device 37 is communicably connected to the operation control ECU 31.

スピーカ38は、車両1の車室内に設置された、音および音声を出力する音響装置である。スピーカ38は、運転制御ECU31と通信可能に接続されている。 The speaker 38 is an audio device installed in the cabin of the vehicle 1 that outputs sound and voice. The speaker 38 is communicably connected to the operation control ECU 31.

なお、図2に示した車両1の電気的構成は一例を示すものであり、図2に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。また、図2に示される各種ECUは、それぞれ独立したハードウェアとなっていることに限られず、いずれかた集約されたECUとして構成されてもよい。例えば、運転制御ECU31とカメラECU32とが集約された1つのECUとして構成され、当該ECUが、運転制御ECU31およびカメラECU32の双方の機能を有するものとしてもよい。 Note that the electrical configuration of the vehicle 1 shown in FIG. 2 is an example, and it is not necessary to include all the components shown in FIG. 2, or it may include other components. Further, the various ECUs shown in FIG. 2 are not limited to being independent hardware, but may be configured as any integrated ECU. For example, the driving control ECU 31 and the camera ECU 32 may be configured as one integrated ECU, and the ECU may have the functions of both the driving control ECU 31 and the camera ECU 32.

(車両の運転制御ECUの機能的なブロック構成および動作)
図3は、実施形態に係る車両の運転制御ECUの機能的なブロック構成の一例を示す図である。図4は、各種センサの特性の一例を示す図である。図5は、実施形態に係る車両に設置された各種センサの性能の一例を示す図である。図6は、実施形態に係る車両のパターンテーブルの一例を示す図である。図3~図6を参照しながら、本実施形態に係る車両1の運転制御ECU31の機能的にブロック構成および動作について説明する。
(Functional block configuration and operation of vehicle driving control ECU)
FIG. 3 is a diagram illustrating an example of a functional block configuration of the vehicle driving control ECU according to the embodiment. FIG. 4 is a diagram showing an example of characteristics of various sensors. FIG. 5 is a diagram showing an example of performance of various sensors installed in the vehicle according to the embodiment. FIG. 6 is a diagram illustrating an example of a vehicle pattern table according to the embodiment. The functional block configuration and operation of the driving control ECU 31 of the vehicle 1 according to the present embodiment will be described with reference to FIGS. 3 to 6.

図3に示すように、運転制御ECU31は、設定部61と、記憶部62と、認識部63と、車両制御部64と、出力制御部65と、を有する。 As shown in FIG. 3, the driving control ECU 31 includes a setting section 61, a storage section 62, a recognition section 63, a vehicle control section 64, and an output control section 65.

設定部61は、外部装置51からの指令に応じて、記憶部62に記憶されたパターンテーブルについて保存、編集、更新等の設定処理を実行する機能部である。 The setting unit 61 is a functional unit that executes setting processes such as saving, editing, and updating the pattern table stored in the storage unit 62 in response to commands from the external device 51.

パターンテーブル(パターン情報の一例)は、上述したように、運転支援機能ごと、かつ当該運転支援機能における検知対象(車両、二輪車、歩行者等)ごとに用意され、上述の各種センサの組み合わせのパターンを規定したテーブルである。ここで、上述の各種センサ、すなわち、第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bは、それぞれ特性が異なる。例えば、図4に、センサの種類ごとの特性の一例を示している。図4では、センサの特性として、例えば、センシング方式、検知距離、横方向分解能、検知可能な対象物、および天候依存を示している。例えば、単眼センサの場合、センシング方式が画像に基づく方式であり、検知距離が百数十mまでとなっており、横方向分解能が特に優れており、検知可能な対象物がやや性能が劣っており、天候依存が中程度であることを示している。また、検知距離については、ミリ波レーダは、ソナーセンサおよびレーザレーダよりも特に優れていることが把握できる。なお、図4では、同じ種類のセンサでは、同一の特性であるものとして説明しているが、同じ種類のセンサであっても、特性が異なり得るのは言うまでもない。 As mentioned above, the pattern table (an example of pattern information) is prepared for each driving support function and for each detection target (vehicle, motorcycle, pedestrian, etc.) in the driving support function, and is used to create patterns for combinations of the various sensors described above. This is a table that defines Here, the various sensors described above, namely, the first monocular camera 42a, the second monocular camera 42b, the third monocular camera 42c, the first stereo camera 42d, the second stereo camera 42e, the sonar sensor 43, the first millimeter wave radar 44a, and The second millimeter wave radars 44b each have different characteristics. For example, FIG. 4 shows an example of characteristics for each type of sensor. FIG. 4 shows sensor characteristics such as sensing method, detection distance, lateral resolution, detectable object, and weather dependence. For example, in the case of a monocular sensor, the sensing method is image-based, the detection distance is up to a hundred meters, the lateral resolution is particularly excellent, and the ability to detect objects is slightly inferior. This indicates that the weather dependence is moderate. Furthermore, it can be seen that millimeter wave radar is particularly superior to sonar sensors and laser radars in terms of detection distance. In FIG. 4, it is assumed that sensors of the same type have the same characteristics, but it goes without saying that even sensors of the same type may have different characteristics.

図4に示したように、各種センサは、種類に応じて特性が異なるため、各種の運転支援機能を実行するために求められる車両識別性能、歩行者識別性能および距離測定性能等の各種性能を発揮するのに適しているか否かが判断される。図5には、車両1に搭載される第1単眼カメラ42a、第2単眼カメラ42b、第3単眼カメラ42c、第1ステレオカメラ42d、第2ステレオカメラ42e、ソナーセンサ43、第1ミリ波レーダ44aおよび第2ミリ波レーダ44bの特性に応じて判断された、各種運転支援機能の実行に求められる各種性能に対する適否が示されている。例えば、図5では、車両識別性能を発揮するためには、第1単眼カメラ42a、第2単眼カメラ42bおよび第1ステレオカメラ42dが適しており、第2ミリ波レーダ44bがやや適しておらず、第3単眼カメラ42c、第1ミリ波レーダ44a、第2ステレオカメラ42eおよびソナーセンサ43が適していないことが示されている。また、距離測定性能を発揮するためには、第2単眼カメラ42b以外のセンサであれば、適していることが示されている。なお、図5に示した各種性能に対する適否の表示方法は、一例を示すものであり、例えば、数値的な評価値により適否の評価を表してもよい。 As shown in Figure 4, various types of sensors have different characteristics depending on their type, so they have different performance characteristics such as vehicle identification performance, pedestrian identification performance, and distance measurement performance required to execute various driving support functions. It is judged whether or not it is suitable for performance. FIG. 5 shows a first monocular camera 42a, a second monocular camera 42b, a third monocular camera 42c, a first stereo camera 42d, a second stereo camera 42e, a sonar sensor 43, and a first millimeter wave radar 44a mounted on the vehicle 1. Also, suitability for various performances required for execution of various driving support functions, determined according to the characteristics of the second millimeter wave radar 44b, is shown. For example, in FIG. 5, in order to exhibit vehicle identification performance, the first monocular camera 42a, the second monocular camera 42b, and the first stereo camera 42d are suitable, and the second millimeter wave radar 44b is slightly less suitable. , the third monocular camera 42c, the first millimeter wave radar 44a, the second stereo camera 42e, and the sonar sensor 43 are shown to be unsuitable. Furthermore, it has been shown that any sensor other than the second monocular camera 42b is suitable for achieving distance measurement performance. Note that the method of displaying suitability for various performances shown in FIG. 5 is an example, and, for example, the suitability evaluation may be expressed by a numerical evaluation value.

このように、開発者は、予め車両1に搭載される各種センサの特性に応じて、図5に示すような、各種運転支援機能の実行に求められる各種性能に対する適否を整理しておく。そして、開発者は、外部装置51を介して、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに、各種センサの各種性能に対する適否に基づいて、当該各種性能に対応する検知対象の検知に用いるセンサの組み合わせ(すなわち、検知対象について検知を確定してもよいセンサの組み合わせ)のパターンを規定したパターンテーブルを作成する。図6に、パターンテーブルの一例として、運転支援機能として車両用AEBに対応するパターンテーブルを示す。この車両用AEBは、検知対象が車両であり、車両識別処理および距離測定処理を含むため、開発者は、図5に示す車両識別性能および距離測定性能に対する各種センサの適否に応じて、車両用AEBのパターンテーブルを設定する。パターンテーブルについては、外部装置51で作成されたものが、設定部61により記憶部62に保存または更新されるものとしてもよく、または、外部装置51からの指令に応じて、記憶部62に記憶されたパターンテーブルに対して設定部61により編集が可能であるものとしてもよい。 In this way, the developer organizes in advance the suitability of various performances required for execution of various driving support functions as shown in FIG. 5, according to the characteristics of various sensors installed in the vehicle 1. Then, the developer, via the external device 51, detects the detection target corresponding to the various performance based on the suitability of the various performances of the various sensors for each driving support function and for each detection target in the relevant driving support function. A pattern table is created that defines patterns of combinations of sensors used for this purpose (that is, combinations of sensors that may confirm detection of the detection target). FIG. 6 shows, as an example of a pattern table, a pattern table corresponding to AEB for a vehicle as a driving support function. The detection target of this vehicle AEB is a vehicle, and it includes vehicle identification processing and distance measurement processing. Set the AEB pattern table. The pattern table may be created by the external device 51 and saved or updated in the storage section 62 by the setting section 61, or it may be stored in the storage section 62 in response to a command from the external device 51. The setting unit 61 may be able to edit the created pattern table.

開発者は、車両用AEB対応するパターンテーブルに規定する各種センサの組み合わせのパターンの基準として、例えば、以下の条件(1)または条件(2)のいずれかを満たすセンサの組み合わせを、車両について検知を確定してもよいセンサの組み合わせとして設定する。 For example, as a standard for the pattern of combinations of various sensors specified in the pattern table compatible with vehicle AEB, the developer detects a combination of sensors that satisfy either of the following conditions (1) or (2) for the vehicle. set as a combination of sensors that may be determined.

・条件(1):車両識別性能の適否が「〇」、かつ距離測定性能の適否が「〇」の組み合わせ
・条件(2):車両識別性能の適否が「△」であるセンサと、距離測定性能の適否が「〇」である他の2つのセンサとの組み合わせ
・Condition (1): A combination of vehicle identification performance suitability of “〇” and distance measurement performance suitability of “〇” ・Condition (2): A sensor whose vehicle identification performance suitability is “△” and distance measurement Combination with two other sensors whose performance is ``〇''

図6では、以上の条件を満たすセンサの組み合わせのパターンとして、パターン(1)~パターン(14)がパターンテーブルに設定されている例を示している。例えば、パターン(1)では、第1単眼カメラ42aについて、車両識別性能および距離測定性能の適否が共に「〇」であるため、条件(1)を満たし、単独で車両について検知を確定することができる。また、パターン(2)では、第2単眼カメラ42bについて車両識別性能の適否が「〇」であり、第3単眼カメラ42cについて距離測定性能の適否が「〇」であるため、条件(1)を満たし、車両について検知を確定してもよい組み合わせとなる。また、パターン(7)では、第2ミリ波レーダ44bについて車両識別性能の適否が「△」であり、第3単眼カメラ42cおよび第1ミリ波レーダ44aについて距離測定性能の適否が「〇」であるため、条件(2)を満たし、車両について検知を確定してもよい組み合わせとなる。 FIG. 6 shows an example in which patterns (1) to (14) are set in the pattern table as sensor combination patterns that satisfy the above conditions. For example, in pattern (1), since the vehicle identification performance and distance measurement performance of the first monocular camera 42a are both "〇", it is possible to satisfy condition (1) and determine the detection of the vehicle independently. can. In addition, in pattern (2), the suitability of the vehicle identification performance for the second monocular camera 42b is "〇", and the suitability of the distance measurement performance for the third monocular camera 42c is "〇", so condition (1) is satisfied. It is a combination that satisfies the above conditions and can confirm detection for the vehicle. In addition, in pattern (7), the suitability of the vehicle identification performance for the second millimeter wave radar 44b is "△", and the suitability of the distance measurement performance for the third monocular camera 42c and the first millimeter wave radar 44a is "○". Therefore, it is a combination that satisfies condition (2) and may be determined to be detected for the vehicle.

なお、センサの組み合わせのパターンを規定する上述の条件は一例であり、他の条件でパターンを規定するものとしてもよい。また、図6では、パターンテーブルにはパターン(1)~パターン(14)のパターンが規定されているが、物標の認識に用いるパターンとしてこれらのすべてを用いる必要はない。この場合、不要なパターンは、パターンテーブルから削除するものとすればよい。 Note that the above-mentioned conditions that define the pattern of sensor combinations are merely examples, and the pattern may be defined using other conditions. Further, in FIG. 6, patterns (1) to (14) are defined in the pattern table, but it is not necessary to use all of these patterns as patterns used for target object recognition. In this case, unnecessary patterns may be deleted from the pattern table.

また、車両1の仕様変更等に応じて、既存のセンサの取り外し、または新たなセンサの搭載が生じた場合には、開発者は、外部装置51を用い、設定部61を介してパターンテーブルを変更するものとすればよい。例えば、既存のセンサの取り外しが生じた場合には、開発者は、パターンテーブルの該当する当該センサに対応する列を削除し、上述の条件を満たすセンサの組み合わせのパターンを再設定するものとすればよい。また、新たなセンサの搭載が生じた場合には、開発者は、パターンテーブルに当該センサ用の新たな列を追加し、上述の条件を満たすセンサの組み合わせのパターンを追加設定するものとすればよい。または、開発者は、搭載が想定される最大限の数および種類のセンサに対応したパターンテーブルを予め作成しておき、センサの取り外し、または新たなセンサの搭載に応じて、パターンテーブルに規定するパターンの内容を編集設定するものとしてもよい。この場合には、パターンテーブルの列の削除または追加の手間を省略することができる。 Furthermore, when an existing sensor is removed or a new sensor is installed due to a change in the specifications of the vehicle 1, the developer uses the external device 51 to create a pattern table via the setting unit 61. It may be changed. For example, if an existing sensor is removed, the developer should delete the column corresponding to that sensor in the pattern table and reconfigure the pattern for the sensor combination that meets the above conditions. Bye. Additionally, if a new sensor is installed, the developer shall add a new column for the sensor to the pattern table and additionally set a pattern for the sensor combination that satisfies the above conditions. good. Alternatively, the developer can create a pattern table in advance that corresponds to the maximum number and types of sensors that are expected to be installed, and specify in the pattern table according to the removal of sensors or the installation of new sensors. The contents of the pattern may be edited and set. In this case, the effort of deleting or adding columns to the pattern table can be omitted.

なお、図6に一例として示したパターンテーブルはテーブル形式の情報としているが、テーブル形式であることに限定されるものではなく、各種センサの組み合わせのパターンを規定することができれば、どのような形式の情報(パターン情報の一例)であってもよい。 Note that although the pattern table shown as an example in FIG. 6 is information in a table format, it is not limited to the table format; any format can be used as long as patterns for combinations of various sensors can be defined. (an example of pattern information).

記憶部62は、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに対応するパターンテーブルを記憶する機能部である。記憶部62は、図2に示すメモリ41aによって実現される。なお、記憶部62は、外部のHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置によって実現されてもよい。 The storage unit 62 is a functional unit that stores a pattern table corresponding to each driving support function and each detection target in the driving support function. The storage unit 62 is realized by the memory 41a shown in FIG. Note that the storage unit 62 may be realized by an external storage device such as an external HDD (Hard Disk Drive) or an SSD (Solid State Drive).

認識部63は、記憶部62における、車両制御部64で有効となっている運転支援機能に対応するパターンテーブルを参照し、センサフュージョンにより、当該パターンテーブルで規定されたそれぞれのパターンによる検知結果を照合して、物標を認識する機能部である。物標の認識としては、例えば、物標の位置を認識し、当該物標の種類を識別する。認識部63は、物標に対する認識結果を、車両制御部64および出力制御部65に出力する。 The recognition unit 63 refers to the pattern table in the storage unit 62 that corresponds to the driving support function enabled in the vehicle control unit 64, and uses sensor fusion to detect the detection results according to each pattern specified in the pattern table. This is a functional unit that performs comparison and recognizes targets. As for recognition of the target, for example, the position of the target is recognized and the type of the target is identified. The recognition unit 63 outputs the recognition result for the target to the vehicle control unit 64 and the output control unit 65.

例えば、車両制御部64で有効となっている運転支援機能が車両用AEBである場合、認識部63は、記憶部62の車両用AEBに対応する(すなわち運転支援機能としてのAEB、および検知対象としての車両に対応する)パターンテーブルを参照する。次に、認識部63は、当該パターンテーブルで規定されている各パターンに属するセンサにより認識された物標の位置、および識別された物標の種類を、それぞれ照合する。そして、認識部63は、照合の結果、一致する場合の物標の位置および種類を最終的な認識結果とする。例えば、パターンテーブルにパターン(1)~パターン(3)が設定されている場合、認識部63は、パターン(1)~パターン(3)により認識された物標の位置をそれぞれ照合し、一致する場合に当該物標の位置を最終的な認識結果とする。同様に、認識部63は、パターン(1)~パターン(3)により識別された物標の種類をそれぞれ照合し、一致する場合に当該物標の種類を最終的な認識結果とする。なお、認識部63において、照合する検知結果(例えば、物標の位置の検知結果)が必ずしも厳密に一致していなくても、差分が所定値未満または差分が微小であれば、一致とみなして、最終的に認識結果とするものとしてもよい。 For example, when the driving support function enabled in the vehicle control unit 64 is a vehicle AEB, the recognition unit 63 corresponds to the vehicle AEB in the storage unit 62 (that is, the AEB as a driving support function and the detection target (corresponding to the vehicle) pattern table. Next, the recognition unit 63 checks the position of the target recognized by the sensor belonging to each pattern defined in the pattern table and the type of the identified target. Then, as a result of the comparison, the recognition unit 63 determines the position and type of the target in the case of a match as the final recognition result. For example, if patterns (1) to (3) are set in the pattern table, the recognition unit 63 compares the positions of the targets recognized by patterns (1) to (3), respectively, and finds a match. In this case, the position of the target is the final recognition result. Similarly, the recognition unit 63 compares the types of targets identified by patterns (1) to (3), and when they match, determines the type of target as the final recognition result. In addition, in the recognition unit 63, even if the detection results to be compared (for example, the detection result of the target position) do not necessarily match exactly, if the difference is less than a predetermined value or the difference is minute, it is considered a match. , the final recognition result may be obtained.

なお、上述の各種センサは、故障等により検出不能になったり、天候等の環境条件により検出機能が低下したりする不具合が生じ得るため、カメラECU32、ソナーECU33およびレーダECU34は、接続されている各種センサの検出不能または機能低下を検知できるものとし、運転制御ECU31へ通知するものとしてもよい。この場合、認識部63は、例えば、検出不能となったセンサを含むパターンについては、物標の認識に用いないものとすればよい。また、認識部63は、例えば、機能低下したセンサを含むパターンについては、当該センサによる検出時間を長くすることにより、検出動作の信頼性を確保するものとしてもよく、または、検出不能の場合と同様に当該センサを含むパターンについては物標の認識に用いないものとしてもよい。すなわち、認識部63は、各種センサの不具合に応じて、パターンテーブルに規定されたパターンのうち、用いるパターンを変更するものとしてもよい。これによって、不具合の生じたセンサを含まないパターンのみを用いる等の対応を行うことができるため、物標の認識精度を維持することができる。 It should be noted that the various sensors described above may be unable to detect due to malfunction or the like, or the detection function may deteriorate due to environmental conditions such as weather, so the camera ECU 32, sonar ECU 33, and radar ECU 34 are connected It may be possible to detect inability to detect or functional decline of various sensors, and to notify the operation control ECU 31. In this case, the recognition unit 63 may, for example, not use a pattern including a sensor that has become undetectable for target object recognition. Further, the recognition unit 63 may, for example, ensure the reliability of the detection operation by lengthening the detection time of the sensor for a pattern including a sensor whose function has deteriorated, or may ensure the reliability of the detection operation in the case of a pattern including a sensor whose function has deteriorated. Similarly, the pattern including the sensor may not be used for target object recognition. That is, the recognition unit 63 may change the pattern to be used from among the patterns defined in the pattern table depending on the malfunction of various sensors. As a result, it is possible to take measures such as using only patterns that do not include the defective sensor, so that target object recognition accuracy can be maintained.

車両制御部64は、認識部63による認識結果に基づいて、各種運転支援機能を実行して、駆動ECU11、操舵ECU12およびブレーキECU13等に指令を出力することにより車両1の走行を制御する機能部である。また、車両制御部64は、運転支援機能に応じて、表示装置37による表示出力、またはスピーカ38による警告音または案内音声等の出力が必要な場合、当該出力をさせるための指令を出力制御部65に出力する。なお、車両制御部64で実行される運転支援機能は、複数であることに限定されず、単一の運転支援機能が実行されるものとしてもよい。 The vehicle control unit 64 is a functional unit that controls the running of the vehicle 1 by executing various driving support functions and outputting commands to the drive ECU 11, the steering ECU 12, the brake ECU 13, etc. based on the recognition result by the recognition unit 63. It is. In addition, when it is necessary to output a display output from the display device 37 or output a warning sound or a guidance voice from the speaker 38 according to the driving support function, the vehicle control unit 64 sends a command to the output control unit to cause the output to be performed. 65. Note that the number of driving support functions executed by the vehicle control unit 64 is not limited to a plurality of functions, and a single driving support function may be executed.

出力制御部65は、表示装置37の表示制御、およびスピーカ38の音または音声の出力制御を行う機能部である。例えば、出力制御部65は、認識部63から受け取った認識結果を、表示装置37表示させるものとしてもよい。また、出力制御部65は、車両制御部64で実行される運転支援機能に応じて、表示装置37に対して表示出力、またはスピーカ38に対して警告音または案内音声等の出力をさせる。 The output control unit 65 is a functional unit that controls the display of the display device 37 and the output of sound or audio from the speaker 38. For example, the output control unit 65 may cause the display device 37 to display the recognition result received from the recognition unit 63. Further, the output control unit 65 causes the display device 37 to output a display, or the speaker 38 to output a warning sound, a guidance voice, or the like, depending on the driving support function executed by the vehicle control unit 64.

上述の設定部61、認識部63、車両制御部64および出力制御部65は、例えば、図2に示す運転制御ECU31のCPUによりプログラムが実行されることによって実現される。なお、これらの機能部の一部または全部は、論理回路等のハードウェアによって実現されてもよい。 The above-described setting section 61, recognition section 63, vehicle control section 64, and output control section 65 are realized, for example, by executing programs by the CPU of the driving control ECU 31 shown in FIG. Note that some or all of these functional units may be realized by hardware such as a logic circuit.

なお、図3に示した運転制御ECU31の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Note that the functions of each functional unit of the operation control ECU 31 shown in FIG. 3 are conceptually shown, and the structure is not limited to this. For example, a plurality of functional units illustrated as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function of one functional section in FIG. 3 may be divided into a plurality of parts and configured as a plurality of functional parts.

(車両の運転制御ECUの動作の流れ)
図7は、実施形態に係る車両の運転制御ECUの動作の流れの一例を示すフローチャートである。図7を参照しながら、本実施形態に係る車両1の運転制御ECU31の動作の流れについて説明する。
(Flow of operation of vehicle driving control ECU)
FIG. 7 is a flowchart showing an example of the operation flow of the vehicle driving control ECU according to the embodiment. The flow of operation of the driving control ECU 31 of the vehicle 1 according to the present embodiment will be described with reference to FIG. 7.

<ステップS11>
開発者は、予め、外部装置51を介して、運転支援機能ごと、かつ当該運転支援機能における検知対象ごとに、各種センサの各種性能に対する適否に基づいて、当該各種性能に対応する検知対象の検知に用いるセンサの組み合わせのパターンを規定したパターンテーブルを作成する。そして、設定部61は、外部装置51からの指令に応じて、パターンテーブルを記憶部62に記憶させる。また、車両1の仕様変更等に応じて、既存のセンサの取り外し、または新たなセンサの搭載が生じた場合には、開発者は、外部装置51を用い、設定部61を介してパターンテーブルを変更設定する。そして、ステップS12へ移行する。
<Step S11>
The developer uses the external device 51 to detect the detection target corresponding to each performance based on the suitability of each performance of the various sensors for each driving support function and for each detection target in the relevant driving support function. Create a pattern table that defines patterns of sensor combinations to be used. Then, the setting unit 61 stores the pattern table in the storage unit 62 in response to a command from the external device 51. Furthermore, when an existing sensor is removed or a new sensor is installed due to a change in the specifications of the vehicle 1, the developer uses the external device 51 to create a pattern table via the setting unit 61. Change settings. Then, the process moves to step S12.

<ステップS12>
運転者によって車両1の運転が開始された場合(ステップS12:Yes)、ステップS13へ移行し、開始されない場合(ステップS12:No)、待機する。
<Step S12>
If the driver starts driving the vehicle 1 (step S12: Yes), the process moves to step S13, and if the driver does not start driving the vehicle 1 (step S12: No), the process waits.

<ステップS13>
認識部63は、記憶部62において、有効になっている運転支援機能、および当該運転支援機能の検知対象に対応するパターンテーブルを参照する。そして、認識部63は、当該パターンテーブルで規定されている各パターンに属するセンサによる検知処理の結果を得る。そして、ステップS14へ移行する。
<Step S13>
The recognition unit 63 refers to the pattern table corresponding to the enabled driving support function and the detection target of the driving support function in the storage unit 62. Then, the recognition unit 63 obtains the results of detection processing by the sensors belonging to each pattern defined in the pattern table. Then, the process moves to step S14.

<ステップS14>
認識部63は、各パターンの検知結果として得られた物標の位置、および識別された物標の種類を、それぞれ照合するセンサフュージョンを行う。認識部63は、照合の結果、一致する場合の物標の位置および種類を最終的な認識結果とする。そして、認識部63は、物標に対する認識結果を、車両制御部64および出力制御部65に出力する。そして、ステップS15へ移行する。
<Step S14>
The recognition unit 63 performs sensor fusion to check the position of the target obtained as a detection result of each pattern and the type of the identified target. As a result of the matching, the recognition unit 63 determines the position and type of the target as the final recognition result if they match. The recognition unit 63 then outputs the recognition result for the target to the vehicle control unit 64 and the output control unit 65. Then, the process moves to step S15.

<ステップS15>
車両制御部64は、認識部63による認識結果に基づいて、各種運転支援機能を実行して、駆動ECU11、操舵ECU12およびブレーキECU13等に指令を出力することにより車両1の走行を制御する。
<Step S15>
The vehicle control unit 64 executes various driving support functions based on the recognition result by the recognition unit 63, and controls the running of the vehicle 1 by outputting commands to the drive ECU 11, the steering ECU 12, the brake ECU 13, and the like.

(本実施形態の効果)
以上のように、本実施形態に係る車両1の運転制御ECU31では、運転制御ECU31は、車両1の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する装置であり、認識部63は、運転支援機能ごとに対応して、物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターンテーブルを参照して、それぞれのパターンに含まれるセンサによる検知結果に基づいて物標を認識し、車両制御部64は、認識部63による認識結果に基づいて、認識結果が得られたパターンに対応する運転支援機能を実行するものとしている。このように、少なくとも各運転支援機能に対応したパターンテーブルを参照して認識処理に用いることによって、車両1に対してセンサの追加、取り換えまたは取り外し等が発生した場合においても、当該パターンテーブルを編集するだけで対応することが可能となり、フュージョン方式を容易に変更することができる。
(Effects of this embodiment)
As described above, in the driving control ECU 31 of the vehicle 1 according to the present embodiment, the driving control ECU 31 performs one or more driving operations based on detection signals received from a plurality of types of sensors that detect targets around the vehicle 1. The recognition unit 63 is a device that executes a support function, and the recognition unit 63 refers to a pattern table that defines a plurality of patterns indicating combinations of the sensors used for target object recognition, corresponding to each driving support function, and selects each of the patterns. The vehicle control unit 64 recognizes the target object based on the detection result by the sensor included in the pattern, and the vehicle control unit 64 executes the driving support function corresponding to the pattern for which the recognition result was obtained based on the recognition result by the recognition unit 63. It is said that In this way, by referring to at least the pattern table corresponding to each driving support function and using it for recognition processing, even if a sensor is added, replaced, or removed from the vehicle 1, the pattern table can be edited. This makes it possible to easily change the fusion method.

また、認識部63は、運転支援機能における検知対象となる物標ごとに対応したパターンテーブルを参照して、それぞれのパターンに含まれるセンサによる検知結果を照合し、照合の結果に基づいて物標を認識するものとしている。これによって、物標の認識に有効なセンサの組み合わせを用いることができるので、物標の認識の精度を向上させることができる。 In addition, the recognition unit 63 refers to the pattern table corresponding to each target object to be detected in the driving support function, collates the detection results by the sensors included in each pattern, and based on the result of the collation, identifies the target object. It is assumed that the As a result, it is possible to use a combination of sensors that are effective in recognizing the target object, thereby improving the accuracy of recognizing the target object.

また、パターンテーブルは、それぞれのセンサの特性に応じて設定されている。これによって、センサの特性に適した組み合わせで物標の認識を行うので、さらに物標の認識の精度を向上させることができる。 Further, the pattern table is set according to the characteristics of each sensor. Thereby, the target object is recognized using a combination suitable for the characteristics of the sensor, so that the accuracy of target object recognition can be further improved.

また、パターン情報を記憶する記憶部62を備え、設定部61は、記憶部62に記憶されたそれぞれのパターンテーブルのそれぞれのパターンを保存、編集または更新するものとしている。これによって、パターンテーブルの各パターンの保存、編集または更新による設定が可能となり、フュージョン方式を容易に変更することができる。 It also includes a storage section 62 that stores pattern information, and the setting section 61 stores, edits, or updates each pattern of each pattern table stored in the storage section 62. This makes it possible to save, edit, or update each pattern in the pattern table, making it easy to change the fusion method.

また、認識部63は、それぞれのパターンに含まれるセンサの不具合に応じて、物標の認識に用いるパターンを変更するものとしている。これによって、不具合の生じたセンサを含まないパターンのみを用いる等の対応を行うことができるため、物標の認識精度を維持することができる。 Further, the recognition unit 63 changes the pattern used for recognizing the target object depending on the malfunction of the sensor included in each pattern. As a result, it is possible to take measures such as using only patterns that do not include the defective sensor, so that target object recognition accuracy can be maintained.

1 車両
31 運転制御ECU
32 カメラECU
33 ソナーECU
34 レーダECU
41a メモリ
42a 第1単眼カメラ
42b 第2単眼カメラ
42c 第3単眼カメラ
42d 第1ステレオカメラ
42e 第2ステレオカメラ
43 ソナーセンサ
44a 第1ミリ波レーダ
44b 第2ミリ波レーダ
51 外部装置
61 設定部
62 記憶部
63 認識部
64 車両制御部
65 出力制御部
1 Vehicle 31 Operation control ECU
32 Camera ECU
33 Sonar ECU
34 Radar ECU
41a Memory 42a First monocular camera 42b Second monocular camera 42c Third monocular camera 42d First stereo camera 42e Second stereo camera 43 Sonar sensor 44a First millimeter wave radar 44b Second millimeter wave radar 51 External device 61 Setting section 62 Storage section 63 recognition section 64 vehicle control section 65 output control section

Claims (4)

車両の周囲の物標を検知する複数種類のセンサから受信した検出信号に基づいて、1以上の運転支援機能を実行する車両用制御装置であって、
前記運転支援機能ごとに対応して、前記物標の認識に用いる前記センサの組み合わせを示す複数のパターンを規定したパターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる検知結果に基づいて前記物標を認識する認識部と、
前記認識部による認識結果に基づいて、該認識結果が得られた前記パターンに対応する前記運転支援機能を実行する車両制御部と、
を備え
前記認識部は、前記運転支援機能における検知対象となる物標ごとに対応した前記パターン情報を参照して、それぞれの前記パターンに含まれる前記センサによる検知結果を照合し、照合の結果に基づいて該物標を認識する車両用制御装置。
A vehicle control device that executes one or more driving support functions based on detection signals received from multiple types of sensors that detect targets around the vehicle,
With reference to pattern information defining a plurality of patterns indicating combinations of the sensors used for recognizing the target object corresponding to each of the driving support functions, based on the detection results of the sensors included in each of the patterns. a recognition unit that recognizes the target by
a vehicle control unit that executes the driving support function corresponding to the pattern for which the recognition result is obtained based on the recognition result by the recognition unit;
Equipped with
The recognition unit refers to the pattern information corresponding to each target to be detected in the driving support function, collates the detection results by the sensor included in each of the patterns, and based on the collation results. A vehicle control device that recognizes the target .
前記パターン情報は、それぞれの前記センサの特性に応じて設定された請求項に記載の車両用制御装置。 The vehicle control device according to claim 1 , wherein the pattern information is set according to characteristics of each of the sensors. 前記パターン情報を記憶する記憶部と、
前記記憶部に記憶されたそれぞれの前記パターン情報のそれぞれの前記パターンを保存、編集または更新する設定部と、
をさらに備えた請求項1または2に記載の車両用制御装置。
a storage unit that stores the pattern information;
a setting unit that stores, edits or updates each of the patterns of the pattern information stored in the storage unit;
The vehicle control device according to claim 1 or 2 , further comprising:
前記認識部は、それぞれの前記パターンに含まれる前記センサの不具合に応じて、前記物標の認識に用いる前記パターンを変更する請求項1~のいずれか一項に記載の車両用制御装置。
The vehicle control device according to any one of claims 1 to 3 , wherein the recognition unit changes the pattern used for recognizing the target object depending on a malfunction of the sensor included in each pattern.
JP2021154542A 2021-09-22 2021-09-22 Vehicle control device Active JP7449907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021154542A JP7449907B2 (en) 2021-09-22 2021-09-22 Vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021154542A JP7449907B2 (en) 2021-09-22 2021-09-22 Vehicle control device

Publications (2)

Publication Number Publication Date
JP2023045922A JP2023045922A (en) 2023-04-03
JP7449907B2 true JP7449907B2 (en) 2024-03-14

Family

ID=85776604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021154542A Active JP7449907B2 (en) 2021-09-22 2021-09-22 Vehicle control device

Country Status (1)

Country Link
JP (1) JP7449907B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011099683A (en) 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd Body detector
JP2019182095A (en) 2018-04-05 2019-10-24 日立オートモティブシステムズ株式会社 Electronic controller, control method
JP2020055526A (en) 2019-11-29 2020-04-09 株式会社日立製作所 Automatic driving control system
JP2021015454A (en) 2019-07-12 2021-02-12 日立オートモティブシステムズ株式会社 On-vehicle control system and vehicle control method
JP2021091390A (en) 2019-10-25 2021-06-17 トヨタ リサーチ インスティテュート,インコーポレイティド Dynamic and variable learning by determining and using most trustworthy inputs
US20210256328A1 (en) 2018-04-25 2021-08-19 Hitachi Automotive Systems, Ltd. Electronic Control Device and Operation Method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011099683A (en) 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd Body detector
JP2019182095A (en) 2018-04-05 2019-10-24 日立オートモティブシステムズ株式会社 Electronic controller, control method
US20210256328A1 (en) 2018-04-25 2021-08-19 Hitachi Automotive Systems, Ltd. Electronic Control Device and Operation Method
JP2021015454A (en) 2019-07-12 2021-02-12 日立オートモティブシステムズ株式会社 On-vehicle control system and vehicle control method
JP2021091390A (en) 2019-10-25 2021-06-17 トヨタ リサーチ インスティテュート,インコーポレイティド Dynamic and variable learning by determining and using most trustworthy inputs
JP2020055526A (en) 2019-11-29 2020-04-09 株式会社日立製作所 Automatic driving control system

Also Published As

Publication number Publication date
JP2023045922A (en) 2023-04-03

Similar Documents

Publication Publication Date Title
CN111098853B (en) Driver assistance system and control method thereof
CN113060141B (en) Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle
KR102352464B1 (en) Driver assistance system and control method for the same
US10124810B2 (en) Vehicle control device, vehicle control method and vehicle control program
US11634120B2 (en) Driver assistance system and driver assistance method
CN113428150A (en) Vision system, vehicle having the same, and method of controlling the vehicle
US20220332319A1 (en) Advanced driver assistance system, and vehicle having the same
US11951996B2 (en) Driver assistance system and vehicle including the same
US11794740B2 (en) Smart cruise control system and method of controlling the same
US11890939B2 (en) Driver assistance system
US20210284142A1 (en) Control device and vehicle
JP7449907B2 (en) Vehicle control device
US20230278552A1 (en) Driver assistance system and driver assistance method
US11977147B2 (en) Apparatus for assisting driving and method thereof
US10843692B2 (en) Vehicle control system
KR20220106875A (en) Driver assistance system and method therof
JP2024049861A (en) Vehicle control device
JP2024049862A (en) Vehicle control device
US20230202464A1 (en) Vehicle control apparatus, vehicle control method, and storage medium
US11840220B2 (en) Driver assistance system and control method thereof
US11780427B2 (en) Apparatus for assisting driving and method thereof
US20230311865A1 (en) Control device
JP7213279B2 (en) Driving support device
US20220410879A1 (en) Vehicle and control method thereof
US20230294599A1 (en) Control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7449907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150