JP2018120352A - Dependency estimation device - Google Patents

Dependency estimation device Download PDF

Info

Publication number
JP2018120352A
JP2018120352A JP2017010425A JP2017010425A JP2018120352A JP 2018120352 A JP2018120352 A JP 2018120352A JP 2017010425 A JP2017010425 A JP 2017010425A JP 2017010425 A JP2017010425 A JP 2017010425A JP 2018120352 A JP2018120352 A JP 2018120352A
Authority
JP
Japan
Prior art keywords
driver
risk
unit
vehicle
dependency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017010425A
Other languages
Japanese (ja)
Other versions
JP6631545B2 (en
Inventor
石川 貴洋
Takahiro Ishikawa
貴洋 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017010425A priority Critical patent/JP6631545B2/en
Publication of JP2018120352A publication Critical patent/JP2018120352A/en
Application granted granted Critical
Publication of JP6631545B2 publication Critical patent/JP6631545B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a dependency estimation device capable of appropriately determining dependency.SOLUTION: A behavior monitoring section F4 determines whether a driver performs a driving operation (hereinafter referred to as an adaptive operation) corresponding to attention-called information on the basis of a detection result of a driver state sensor 4. Besides, the behavior monitoring section determines whether a preparation action for performing an adaptive operation such as interruption of an operation of an on-vehicle unit is performed till the performance of an adaptive operation from issuing of attention calling. A dependency evaluation section F5 determines dependency on a system on the basis of whether a driver has performed an adaptive operation and whether a driver has performed a preparation action.SELECTED DRAWING: Figure 2

Description

本発明は、ドライバが運転支援システムに依存している度合いを示す依存度を推定する依存度推定装置に関する。   The present invention relates to a dependency estimation device that estimates a dependency indicating a degree of dependence of a driver on a driving support system.

従来、車両の走行に関わる所定の危険状態を検出し、運転席に着座している乗員(以降、ドライバ)に対して当該危険状態を示す音声又は画像を注意喚起情報として出力したり、当該危険状態を回避するための車両制御を実施したりする運転支援システムがある。なお、ここでの危険な状態とは、例えば他車両や、歩行者、構造物等と衝突する恐れがある状態などである。注意喚起情報は、警報音や音声メッセージによって報知されればよい。   Conventionally, a predetermined dangerous state related to the traveling of the vehicle is detected, and a voice or an image indicating the dangerous state is output as warning information to an occupant (hereinafter referred to as a driver) seated in the driver's seat, There is a driving support system that performs vehicle control for avoiding a state. In addition, the dangerous state here is a state where there is a possibility of colliding with other vehicles, pedestrians, structures, or the like. The alert information may be notified by an alarm sound or a voice message.

このような運転支援システムは、ドライバによる運転操作を支援する補助的なものとして利用されるべきであるため、ドライバが運転支援システムを過度に信頼した状態(換言すれば依存した状態)は好ましい状態ではない。   Since such a driving assistance system should be used as an auxiliary to assist the driving operation by the driver, a state in which the driver excessively trusts the driving assistance system (in other words, a state in which it depends) is a preferable state. is not.

そこで、特許文献1には、運転支援システムに対するドライバの依存度を推定し、その推定した依存度に基づいて、ドライバが運転支援システムを過信しないように運転支援方法を制御する構成が開示されている。具体的には、車両前方に存在する対象物と自車両との距離が所定の閾値未満となった場合に、当該対象物についての注意喚起情報を出力し、当該注意喚起情報に応じた運転操作をドライバが実施したか否かに基づいて依存度を判定する。依存度が高いと判定した場合には、依存度を下げるべく、あえて誤報知の実施頻度を大きくする。   Therefore, Patent Document 1 discloses a configuration for estimating the driver's dependency on the driving support system and controlling the driving support method based on the estimated dependency so that the driver does not overtrust the driving support system. Yes. Specifically, when the distance between the target object in front of the vehicle and the host vehicle is less than a predetermined threshold, warning information about the target object is output, and the driving operation according to the warning information The dependence is determined based on whether or not the driver implements the above. If it is determined that the degree of dependence is high, the frequency of performing false notifications is increased to reduce the degree of dependence.

特開2008−117140号公報JP 2008-117140 A

特許文献1の構成では、ドライバが運転操作に適した状態に移行せずに(換言すれば不安全な状態を維持したまま)、危険回避のための運転操作を実施した場合であっても、システムに依存していないと判定しうる。例えば、運転者乗員がナビゲーション装置を操作している状況において、運転支援システムから注意喚起情報としての先行車両との接触の可能性が警告された際、ナビゲーション装置の操作をしながらブレーキペダルを踏んだとしても、依存度は低いと判定されてしまう。   In the configuration of Patent Document 1, the driver does not shift to a state suitable for driving operation (in other words, maintains an unsafe state), and even when driving operation for avoiding danger is performed, It can be determined that it does not depend on the system. For example, in a situation where a driver occupant is operating a navigation device, when the driving support system warns of the possibility of contact with a preceding vehicle as alert information, the driver presses the brake pedal while operating the navigation device. Even so, it is determined that the degree of dependence is low.

本発明は、この事情に基づいて成されたものであり、その目的とするところは、依存度をより適切に判定することができる依存度推定装置を提供することにある。   The present invention has been made based on this situation, and an object of the present invention is to provide a dependency estimation device that can more appropriately determine the dependency.

その目的を達成するための本発明は、車両の外部環境についての情報を取得する周辺監視センサの出力データに基づいて、車両と衝突する可能性がある物体であるリスク対象物を検出するリスク検出部(F2)と、リスク検出部によって検出されたリスク対象物の存在を示す情報を、支援情報としてドライバに報知する報知処理部(F31)と、ドライバが実施している運転操作の内容を示す情報を出力する操作量センサ、及び、ドライバの状態を示す情報を出力するデバイスから入力される信号に基づいて、ドライバの状態を逐次特定するドライバ状態特定部(F4)と、ドライバ状態特定部の特定結果に基づいて、ドライバが支援情報の内容に応じた運転操作である適応操作を実施したか否かを判定する適応操作判定部(F41)と、ドライバ状態特定部の特定結果に基づいて、ドライバが適応操作を実施するための準備行動を実施したか否かを判定する準備行動判定部(F42)と、適応操作判定部の判定結果及び準備行動判定部の判定結果に基づいて、ドライバの運転操作を支援する運転支援システムへの依存度を算出する依存度評価部(F5)と、を備えることを特徴とする。   In order to achieve the object, the present invention provides a risk detection method for detecting a risk object, which is an object that may collide with a vehicle, based on output data of a surrounding monitoring sensor that acquires information about the external environment of the vehicle. Part (F2), a notification processing part (F31) for notifying the driver of information indicating the presence of the risk object detected by the risk detection part as support information, and the content of the driving operation performed by the driver A driver state specifying unit (F4) that sequentially specifies a driver state based on a signal input from an operation amount sensor that outputs information and a device that outputs information indicating the driver state; and a driver state specifying unit An adaptive operation determination unit (F41) that determines whether the driver has performed an adaptive operation, which is a driving operation according to the content of the support information, based on the specific result; Based on the identification result of the Iber state identification unit, a preparation behavior determination unit (F42) for determining whether or not the driver has performed a preparation behavior for performing the adaptive operation, and the determination result and the preparation behavior of the adaptive operation determination unit And a dependency evaluation unit (F5) that calculates the dependency on the driving support system that supports the driving operation of the driver based on the determination result of the determination unit.

上記の構成では、ドライバが適応操作を実施したか否かに加えて、例えば周辺確認などの準備行動を行ったか否かに基づいても依存度を算出する。このような構成によれば、不安全な状態を維持したまま適応操作を実施した場合と、周辺確認などの準備行動を実施した後に適応操作を実施した場合と、を切り分けることができる。故に、特許文献1等の従来構成に比べて依存度をより適切に判定することができる。   In the above configuration, the dependence is calculated based on whether or not the driver has performed an adaptive operation, and whether or not a preparatory action such as a peripheral check has been performed. According to such a configuration, it is possible to distinguish between a case where the adaptive operation is performed while maintaining an unsafe state and a case where the adaptive operation is performed after performing the preparatory action such as the peripheral confirmation. Therefore, it is possible to determine the degree of dependence more appropriately than in the conventional configuration such as Patent Document 1.

なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is limited is not.

実施形態に係る運転支援システム100の概略的な構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a driving support system 100 according to an embodiment. 運転支援ECU1の概略的な構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of driving assistance ECU1. 準備行動判定部F42の概略的な構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the preparation action determination part F42. 依存度に応じた報知態様の一例を示した図である。It is the figure which showed an example of the alerting | reporting aspect according to the dependence degree. 運転支援ECU1が実施する依存度推定関連処理を説明するためのフローチャートである。It is a flowchart for demonstrating the dependence degree estimation related process which driving assistance ECU1 implements. 準備行動の有無に応じた依存度の決定方法の一例を表した図である。It is a figure showing an example of the determination method of the dependence according to the presence or absence of preparatory action. 変形例1における運転支援システム100の概略的な構成を示すブロック図である。FIG. 10 is a block diagram illustrating a schematic configuration of a driving support system 100 in a first modification. ドライバがヒヤリハットしたか否かに応じて報知態様を調整する際の規則の一例を表した図である。It is a figure showing an example of the rule at the time of adjusting a alerting | reporting aspect according to whether the driver did near-miss. 準備行動の有無に応じた依存度の決定方法の変形例を表した図である。It is a figure showing the modification of the determination method of the dependence according to the presence or absence of preparation action. 準備行動の有無に応じた依存度の決定方法の変形例を表した図である。It is a figure showing the modification of the determination method of the dependence according to the presence or absence of preparation action. 目視の有無に応じた依存度の決定方法の一例を表した図である。It is a figure showing an example of the determination method of the dependence according to the presence or absence of visual observation.

以下、本発明の実施形態について図を用いて説明する。図1は、本発明に係る依存度推定装置としての機能を備える運転支援システム100の概略的な構成の一例を示す図である。運転支援システム100は車両に搭載されており、図1に示すように、運転支援ECU1、周辺監視センサ2、車両状態センサ3、ドライバ状態センサ4、スピーカ5、ディスプレイ6、入力装置7、近距離通信部8、及び走行制御ECU9を備える。なお、部材名称中のECUは、Electronic Control Unitの略であり、電子制御装置を意味する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a schematic configuration of a driving support system 100 having a function as a dependence degree estimating apparatus according to the present invention. As shown in FIG. 1, the driving support system 100 is mounted on a vehicle. As shown in FIG. 1, the driving support ECU 1, the periphery monitoring sensor 2, the vehicle state sensor 3, the driver state sensor 4, the speaker 5, the display 6, the input device 7, the short distance A communication unit 8 and a travel control ECU 9 are provided. Note that ECU in the member name is an abbreviation for Electronic Control Unit, and means an electronic control unit.

周辺監視センサ2、車両状態センサ3、ドライバ状態センサ4、スピーカ5、ディスプレイ6、入力装置7、近距離通信部8、及び走行制御ECU9のそれぞれは、車両内に構築された通信ネットワーク(以降、LAN:Local Area Network)を介して、運転支援ECU1と相互通信可能に接続されている。なお、LANには図示しないナビゲーション装置や、オーディオ装置、空調装置なども接続されている。以降では便宜上、運転支援システム100が搭載されている車両のことを自車両とも記載する。   Each of the surrounding monitoring sensor 2, the vehicle state sensor 3, the driver state sensor 4, the speaker 5, the display 6, the input device 7, the short-range communication unit 8, and the travel control ECU 9 is a communication network (hereinafter, It is connected to the driving support ECU 1 through a local area network (LAN) so as to be able to communicate with each other. Note that a navigation device (not shown), an audio device, an air conditioner, and the like are also connected to the LAN. Hereinafter, for convenience, a vehicle on which the driving support system 100 is mounted is also referred to as a host vehicle.

運転支援ECU1は、運転席に着座している乗員(以降、ドライバ)の運転操作を支援する処理を実行するECUである。運転支援ECU1は、コンピュータとして構成されている。すなわち、運転支援ECU1は、演算処理を実行するCPU11、不揮発性のメモリであるROM12、揮発性のメモリであるRAM13、I/O14、及びこれらの構成を接続するバスラインなどを備える。CPU11は例えばマイクロプロセッサ等を用いて実現されればよい。ROM12は、より好ましい態様として書き換え可能な不揮発性のメモリとする。I/O14は、運転支援ECU1が外部装置(例えば周辺監視センサ2)とデータの入出力をするためのインターフェースである。I/O14は、ICやデジタル回路素子、アナログ回路素子などを用いて実現されればよい。   The driving support ECU 1 is an ECU that executes a process for supporting a driving operation of an occupant (hereinafter referred to as a driver) seated in the driver's seat. The driving assistance ECU 1 is configured as a computer. That is, the driving support ECU 1 includes a CPU 11 that performs arithmetic processing, a ROM 12 that is a nonvolatile memory, a RAM 13 that is a volatile memory, an I / O 14, and a bus line that connects these configurations. The CPU 11 may be realized using, for example, a microprocessor. The ROM 12 is a rewritable nonvolatile memory as a more preferable aspect. The I / O 14 is an interface for the driving support ECU 1 to input / output data with an external device (for example, the periphery monitoring sensor 2). The I / O 14 may be realized using an IC, a digital circuit element, an analog circuit element, or the like.

運転支援ECU1が備えるROM12には、通常のコンピュータを運転支援ECU1として機能させるためのプログラム(以降、運転支援プログラム)等が格納されている。なお、上述の運転支援プログラムは、ROM12を含む非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。CPU11が運転支援プログラムを実行することは、運転支援プログラムに対応する方法が実行されることに相当する。運転支援ECU1は、CPU11が運転支援プログラムを実行することによって、後述する種々の機能を提供する。   The ROM 12 provided in the driving assistance ECU 1 stores a program (hereinafter referred to as a driving assistance program) for causing a normal computer to function as the driving assistance ECU 1. Note that the above-described driving support program may be stored in a non-transitory tangible storage medium including the ROM 12. Executing the driving support program by the CPU 11 corresponds to executing a method corresponding to the driving support program. The driving assistance ECU 1 provides various functions to be described later when the CPU 11 executes the driving assistance program.

周辺監視センサ2は、自車両の周辺に存在する物体についての情報を収集する装置である。周辺監視センサ2としては、例えば、車両外部の所定範囲を撮像する周辺監視カメラ、車両外部の所定範囲に探査波を送信するミリ波レーダ,LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)、ソナー等を採用することができる。ここでは一例として周辺監視センサ2は、車両前方を撮像するように搭載された周辺監視カメラとする。周辺監視センサ2としての周辺監視カメラは、撮像画像を運転支援ECU1へ逐次出力する。もちろん、周辺監視センサ2は、上述したセンサ以外の周知のものであってもよい。また、運転支援ECU1は、複数のセンサを備えていてもよい。   The surroundings monitoring sensor 2 is a device that collects information about objects existing around the host vehicle. As the surrounding monitoring sensor 2, for example, a surrounding monitoring camera that images a predetermined range outside the vehicle, a millimeter wave radar that transmits an exploration wave to a predetermined range outside the vehicle, LIDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging), Sonar etc. can be employed. Here, as an example, the periphery monitoring sensor 2 is a periphery monitoring camera mounted so as to image the front of the vehicle. The periphery monitoring camera as the periphery monitoring sensor 2 sequentially outputs captured images to the driving support ECU 1. Of course, the peripheral monitoring sensor 2 may be a known sensor other than the sensors described above. In addition, the driving support ECU 1 may include a plurality of sensors.

車両状態センサ3は、自車両の走行制御に関わる状態量を検出するセンサである。本実施形態における運転支援システム100は、車両状態センサ3として、ブレーキセンサ、アクセルセンサ、車速センサ、シフトポジションセンサ、及び舵角センサを備える。ブレーキセンサは、ブレーキペダルの位置、換言すれば、ドライバによってブレーキペダルが踏み込まれている量(以降、ブレーキ踏込量)を検出するセンサである。アクセルセンサは、アクセルペダルの位置、換言すれば、アクセルペダルがドライバによって踏み込まれている量(以降、アクセル踏込量)を検出するセンサである。車速センサは、自車両の走行速度を検出するセンサである。シフトポジションセンサは、シフトレバーの設定ポジションを検出するセンサである。舵角センサは、ハンドルの回転角(いわゆる操舵角)を検出するセンサである。   The vehicle state sensor 3 is a sensor that detects a state quantity related to traveling control of the host vehicle. The driving support system 100 according to the present embodiment includes a brake sensor, an accelerator sensor, a vehicle speed sensor, a shift position sensor, and a steering angle sensor as the vehicle state sensor 3. The brake sensor is a sensor that detects the position of the brake pedal, in other words, the amount by which the brake pedal is depressed by the driver (hereinafter referred to as brake depression amount). The accelerator sensor is a sensor that detects the position of the accelerator pedal, in other words, the amount by which the accelerator pedal is depressed by the driver (hereinafter referred to as accelerator depression amount). The vehicle speed sensor is a sensor that detects the traveling speed of the host vehicle. The shift position sensor is a sensor that detects the set position of the shift lever. The steering angle sensor is a sensor that detects a rotation angle of a steering wheel (so-called steering angle).

各センサは、検出対象とする物理状態量の現在の値(つまり検出結果)を示すデータを運転支援ECU1に逐次提供する。種々のセンサの検出結果は、任意の電子制御装置(ECU:Electronic Control Unit)等を介して運転支援ECU1に提供される構成となっていても良い。   Each sensor sequentially provides the driving support ECU 1 with data indicating the current value (that is, the detection result) of the physical state quantity to be detected. The detection results of various sensors may be provided to the driving support ECU 1 via an arbitrary electronic control unit (ECU: Electronic Control Unit) or the like.

なお、車両状態センサ3として運転支援ECU1が接続されるべきセンサの種類は適宜設計されればよく、上述した全てのセンサと接続されている必要はない。また、上述した以外のセンサ、例えばヨーレートセンサと接続されていても良い。ヨーレートセンサは自車両の垂直軸周りの回転角速度(すなわち、ヨーレート)を検出するセンサである。   The type of sensor to which the driving support ECU 1 should be connected as the vehicle state sensor 3 may be designed as appropriate, and need not be connected to all the sensors described above. Moreover, you may connect with sensors other than the above-mentioned, for example, a yaw rate sensor. The yaw rate sensor is a sensor that detects a rotational angular velocity (that is, a yaw rate) around the vertical axis of the host vehicle.

また、運転支援ECU1は、上述した操作量センサの検出結果以外にも、ドライバの運転操作の内容を示す情報として、警音器(いわゆるクラクション又はホーン)の動作状態を示す信号や、方向指示器の動作状態を示す信号を取得可能に構成されている。なお、ブレーキセンサや、アクセルセンサ、舵角センサ、シフトポジションセンサ等は、ドライバの運転操作の内容を検出するセンサとしても機能する。ドライバの運転操作の内容を検出するセンサのことを以降では便宜上、操作量センサとも記載する。   In addition to the detection result of the operation amount sensor described above, the driving assistance ECU 1 includes, as information indicating the content of the driving operation of the driver, a signal indicating the operating state of a horn (so-called horn or horn), a direction indicator It is configured to be able to acquire a signal indicating the operation state. Note that the brake sensor, the accelerator sensor, the steering angle sensor, the shift position sensor, and the like also function as sensors that detect the content of the driving operation of the driver. Hereinafter, the sensor that detects the content of the driving operation of the driver is also referred to as an operation amount sensor for convenience.

ドライバ状態センサ4は、例えばドライバの顔の向きや、視線の方向、瞼の開度、体の向き、ハンドルの把持状態といった、ドライバの状態を検出するセンサである。ドライバ状態センサ4としては、例えば、上半身カメラ、顔カメラ、マイク、ハンドル把持センサ、背圧センサ、座圧センサ等を採用することができる。上半身カメラは、ドライバの上半身を撮像するように設置されたカメラである。上半身カメラは、例えば、ドライバの上半身を撮像するようにルームミラー付近に設置されれば良い。もちろん、上半身カメラは、ステアリングコラムカバーや、インストゥルメントパネルの運転席に対向する部分などに設置されていても良い。上半身カメラは撮像画像を運転支援ECU1に逐次出力する。   The driver state sensor 4 is a sensor that detects the state of the driver, such as the driver's face direction, line-of-sight direction, eyelid opening, body direction, and handle gripping state. As the driver state sensor 4, for example, an upper body camera, a face camera, a microphone, a handle grip sensor, a back pressure sensor, a seat pressure sensor, or the like can be employed. The upper body camera is a camera installed to take an image of the upper body of the driver. The upper body camera may be installed in the vicinity of the room mirror so as to image the upper body of the driver, for example. Of course, the upper body camera may be installed on a steering column cover or a portion of the instrument panel facing the driver's seat. The upper body camera sequentially outputs captured images to the driving support ECU 1.

顔カメラは、ドライバの顔部を撮影する装置である。顔カメラは、例えば近赤外光源、近赤外カメラ、及びそれらを制御する制御ユニットを用いて実現される。顔カメラは、近赤外カメラの撮像画像に対して周知の画像認識処理を施すことで、運転席における乗員の頭部姿勢や、ドライバの顔の向き、視線方向、瞼の開き度合い等を逐次検出する。なお、顔カメラは、運転席に着座している乗員の顔領域を撮影するように、例えばステアリングコラムカバーや、インストゥルメントパネルの運転席に対向する部分等、適宜設計される位置に配置されていればよい。顔カメラは、撮影画像から特定したドライバの頭部姿勢や、顔の向き、視線方向、瞼の開き度合い等を示す情報を、運転支援ECU1へ逐次出力する。   The face camera is a device that captures the face of the driver. The face camera is realized by using, for example, a near-infrared light source, a near-infrared camera, and a control unit that controls them. The face camera performs well-known image recognition processing on the image captured by the near-infrared camera, so that the occupant's head posture in the driver's seat, the driver's face orientation, gaze direction, eyelid opening degree, etc. To detect. Note that the face camera is arranged at an appropriately designed position such as a steering column cover or a part of the instrument panel facing the driver's seat so as to capture the face area of the occupant seated in the driver's seat. It only has to be. The face camera sequentially outputs to the driving support ECU 1 information indicating the driver's head posture, face direction, line-of-sight direction, eyelid opening degree, and the like identified from the captured image.

マイクは、自車両の車室内に設けられた集音装置である。マイクはドライバ等が発話した音声を集音し、電気的な音声信号に変換して運転支援ECU1へ出力する。マイクは、ドライバの音声を集音しやすいように運転席付近に設けることが好ましい。   The microphone is a sound collecting device provided in the passenger compartment of the host vehicle. The microphone collects the voice spoken by the driver or the like, converts it into an electrical voice signal, and outputs it to the driving support ECU 1. The microphone is preferably provided near the driver's seat so that the driver's voice can be easily collected.

ハンドル把持センサは、ハンドルに設けられた圧力センサであって、ドライバがハンドルを握る圧力を検出する。ハンドル把持センサの出力信号は、ドライバが両手でハンドルを把持しているか否かを示す信号としても機能する。背圧センサは、運転席の背もたれ部分に配置された圧力センサシートであって、運転席の背もたれ部に作用している圧力の分布を検出する。座圧センサは、運転席の着座面に配置された圧力センサシートであって、運転席の着座面に作用している圧力の分布を検出する。   The handle grip sensor is a pressure sensor provided on the handle, and detects the pressure with which the driver grips the handle. The output signal of the handle grip sensor also functions as a signal indicating whether or not the driver is gripping the handle with both hands. The back pressure sensor is a pressure sensor sheet disposed on the backrest portion of the driver seat, and detects the distribution of pressure acting on the backrest portion of the driver seat. The seat pressure sensor is a pressure sensor seat disposed on the seating surface of the driver seat, and detects the distribution of pressure acting on the seating surface of the driver seat.

スピーカ5は、運転支援ECU1から入力された信号に基づいて音声や警報音を出力する。なお、スピーカ5は、運転支援ECU1だけでなく、ナビゲーション装置やオーディオ装置等から入力された信号に基づいても音を出力する。   The speaker 5 outputs a sound and an alarm sound based on the signal input from the driving support ECU 1. Note that the speaker 5 outputs sound not only based on the driving assistance ECU 1 but also based on signals input from a navigation device, an audio device, or the like.

ディスプレイ6は、運転支援ECU1から入力された画像を表示するデバイスである。本実施形態では一例としてディスプレイ6は、インストゥルメントパネルの車幅方向中央部(以降、中央領域)の最上部に設けられたディスプレイ(いわゆるセンターディスプレイ)とする。ディスプレイ6は、フルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて実現することができる。   The display 6 is a device that displays an image input from the driving support ECU 1. In the present embodiment, as an example, the display 6 is a display (so-called center display) provided at the uppermost portion of the instrument panel in the vehicle width direction center (hereinafter referred to as the center region). The display 6 is capable of full color display and can be realized using a liquid crystal display, an organic EL display, a plasma display, or the like.

なお、他の態様としてディスプレイ6は、フロントガラスの運転席前方の一部分に虚像を映し出すヘッドアップディスプレイであってもよい。また、ディスプレイ6は、インストゥルメントパネルにおいて運転席の正面に位置する領域に配置されたディスプレイ(いわゆるメータディスプレイ)であってもよい。   As another aspect, the display 6 may be a head-up display that projects a virtual image on a part of the windshield in front of the driver's seat. Further, the display 6 may be a display (so-called meter display) arranged in a region located in front of the driver's seat on the instrument panel.

入力装置7は、ナビゲーション装置や、オーディオ装置、空調装置等といった、自車両に搭載されている種々の電子機器(以降、車載機器)に対するドライバの指示操作を受け付けるためのデバイスである。本実施形態では一例として入力装置7は、ディスプレイ6に積層されたタッチパネルとする。入力装置7としてのタッチパネルは、ユーザによってタッチされている位置を示すタッチ位置信号を操作信号として所定の車載機器及び運転支援ECU1に逐次出力する。すなわち、入力装置7は、ドライバが入力装置7に対して実行した操作に対応する制御信号を、ドライバの操作内容に応じた車載機器及び運転支援ECU1に出力する。   The input device 7 is a device for accepting a driver's instruction operation for various electronic devices (hereinafter referred to as in-vehicle devices) mounted on the host vehicle, such as a navigation device, an audio device, and an air conditioner. In this embodiment, as an example, the input device 7 is a touch panel laminated on the display 6. The touch panel as the input device 7 sequentially outputs a touch position signal indicating a position touched by the user to the predetermined in-vehicle device and the driving support ECU 1 as an operation signal. That is, the input device 7 outputs a control signal corresponding to an operation performed by the driver to the input device 7 to the in-vehicle device and the driving support ECU 1 corresponding to the operation content of the driver.

なお、本実施形態では入力装置7としてタッチパネルを採用する構成とするが、これに限らない。入力装置7は、ハンドル等に設けられたメカニカルなスイッチ(つまり、ステアリングスイッチ)であってもよいし、周知の音声認識技術を用いて実現される音声入力装置であってもよい。また、センターコンソールに配置されたハプティックデバイスであってもよい。その他、マウス、キーボードなどであっても良い。運転支援システム100は上述した複数種類のデバイスを入力装置7として備えていても良い。   In the present embodiment, the input device 7 is configured to employ a touch panel, but is not limited thereto. The input device 7 may be a mechanical switch (that is, a steering switch) provided on a handle or the like, or may be a voice input device realized by using a known voice recognition technique. Moreover, the haptic device arrange | positioned at the center console may be sufficient. In addition, a mouse, a keyboard, or the like may be used. The driving support system 100 may include a plurality of types of devices described above as the input device 7.

近距離通信部8は、ドライバが携帯する情報処理端末である携帯端末と、所定の近距離無線通信規格に準拠した無線通信(以降、近距離通信)を実施するための通信モジュールである。ここで採用される近距離無線通信規格は、通信可能な範囲が最大でも数十メートル程度となる無線通信の規格である。近距離通信の規格としては、例えばBluetooth(登録商標)や、Wi−Fi(登録商標)等を採用することができる。   The short-range communication unit 8 is a communication module for carrying out wireless communication (hereinafter, short-range communication) compliant with a predetermined short-range wireless communication standard with a portable terminal that is an information processing terminal carried by the driver. The short-range wireless communication standard adopted here is a wireless communication standard in which the maximum communicable range is about several tens of meters. As a short-range communication standard, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), or the like can be adopted.

携帯端末は、前述の近距離通信を実施する機能(以降、近距離通信機能)を備える情報処理端末であればよい。例えば、スマートフォンや、携帯電話機、タブレット端末、ウェアラブルデバイス、携帯用音楽プレーヤ、携帯用ゲーム機等を携帯端末として採用することができる。   The portable terminal may be an information processing terminal provided with a function for performing the above-described short-range communication (hereinafter, short-range communication function). For example, a smartphone, a mobile phone, a tablet terminal, a wearable device, a portable music player, a portable game machine, or the like can be employed as the portable terminal.

携帯端末は、近距離通信機能がオンとなっている場合、自分自身に割り当てられた固有の端末番号(以降、端末IDとする)を含むアドバタイズ信号を定期送信する。なお、他の態様として、携帯端末は運転支援システム100からの要求に基づいてアドバタイズ信号を送信する態様となっていてもよい。   When the short-range communication function is on, the portable terminal periodically transmits an advertisement signal including a unique terminal number assigned to itself (hereinafter referred to as a terminal ID). As another aspect, the mobile terminal may be configured to transmit an advertisement signal based on a request from the driving support system 100.

近距離通信部8は、携帯端末から送信されるアドバタイズ信号を受信することで、車室内に携帯端末が存在することを認識し、携帯端末との通信接続を確立する。なお、近距離通信部8には、ドライバとしてのユーザによって予め、近距離通信部8が通信接続すべき携帯端末の情報(例えば端末ID)が登録されているものとする。   The short-range communication unit 8 receives the advertisement signal transmitted from the mobile terminal, recognizes that the mobile terminal exists in the vehicle interior, and establishes a communication connection with the mobile terminal. It is assumed that information (for example, a terminal ID) of a portable terminal to which the near field communication unit 8 is to be connected for communication is registered in the near field communication unit 8 in advance by a user as a driver.

携帯端末は、近距離通信部8との通信接続が確立している場合、車載機器を操作するためのデバイス(つまり入力装置7)として機能する。また、携帯端末は、近距離通信部8との通信接続が確立している場合、ディスプレイに表示する画像を提供する画像信号源としても機能しうる。   When the communication connection with the short-range communication unit 8 is established, the mobile terminal functions as a device (that is, the input device 7) for operating the in-vehicle device. The mobile terminal can also function as an image signal source for providing an image to be displayed on the display when a communication connection with the short-range communication unit 8 is established.

走行制御ECU9は、運転支援ECU1からの指示に基づいて所定の車載アクチュエータを駆動させることにより、操舵、加速、制動等の車両制御を実行するECUである。走行制御ECU9は運転支援ECU1に統合されていてもよい。   The travel control ECU 9 is an ECU that performs vehicle control such as steering, acceleration, and braking by driving a predetermined on-vehicle actuator based on an instruction from the driving support ECU 1. The travel control ECU 9 may be integrated into the driving support ECU 1.

<運転支援ECU1が備える機能について>
運転支援ECU1は、CPU11が上述の運転支援プログラムを実行することによって、図2に示す種々の機能ブロックに対応する機能を提供する。すなわち、運転支援ECU1は機能ブロックとして、周辺物情報取得部F1、リスク検出部F2、支援処理部F3、挙動監視部F4、依存度評価部F5、及び支援態様調整部F6を備える。
<About functions provided in the driving support ECU 1>
The driving assistance ECU 1 provides functions corresponding to the various functional blocks shown in FIG. 2 when the CPU 11 executes the driving assistance program described above. That is, the driving support ECU 1 includes a peripheral object information acquisition unit F1, a risk detection unit F2, a support processing unit F3, a behavior monitoring unit F4, a dependency degree evaluation unit F5, and a support mode adjustment unit F6 as functional blocks.

なお、運転支援ECU1が備える機能ブロックの一部又は全部は、一つあるいは複数のIC等を用いて(換言すればハードウェアとして)実現されていてもよい。また、運転支援ECU1が備える機能ブロックの一部又は全部は、CPU11によるソフトウェアの実行とハードウェア部材の組み合わせによって実現されていてもよい。   Part or all of the functional blocks provided in the driving support ECU 1 may be realized by using one or a plurality of ICs (in other words, as hardware). Further, part or all of the functional blocks provided in the driving support ECU 1 may be realized by a combination of software execution by the CPU 11 and hardware members.

また、運転支援ECU1は、ドライバ状態記憶部M1と、支援パラメータ記憶部M2とを備える。ドライバ状態記憶部M1は、後述する挙動監視部F4によって逐次特定されるドライバの状態を示すデータを保存するための記憶領域である。支援パラメータ記憶部M2は、支援処理部F3が運転支援処理を実施する際の制御パラメータ(以降、支援パラメータ)を保持する記憶領域である。支援パラメータには、情報を提示するタイミング等を規定する報知態様パラメータが含まれる。ドライバ状態記憶部M1及び支援パラメータ記憶部M2は、RAM13等の書き換え可能な記憶媒体を用いて実現されれば良い。   The driving support ECU 1 includes a driver state storage unit M1 and a support parameter storage unit M2. The driver state storage unit M1 is a storage area for storing data indicating the state of the driver sequentially specified by the behavior monitoring unit F4 described later. The support parameter storage unit M2 is a storage area that holds control parameters (hereinafter referred to as support parameters) when the support processing unit F3 performs driving support processing. The support parameter includes a notification mode parameter that defines a timing of presenting information. The driver state storage unit M1 and the support parameter storage unit M2 may be realized using a rewritable storage medium such as the RAM 13.

周辺物情報取得部F1は、周辺監視センサ2の出力データに基づいて、自車両の周辺に存在する所定の対象物についての情報を取得する構成である。本実施形態の周辺物情報取得部F1は、周辺監視センサ2の撮像画像に対して画像認識処理を実施し、所定の対象物を検出するとともに、検出した対象物の自車両に対する相対位置や、相対的な移動方向、移動速度等を特定する。   The surrounding object information acquisition unit F1 is configured to acquire information about a predetermined object existing around the host vehicle based on the output data of the surrounding monitoring sensor 2. The peripheral object information acquisition unit F1 of the present embodiment performs image recognition processing on the captured image of the peripheral monitoring sensor 2, detects a predetermined target object, and the relative position of the detected target object with respect to the host vehicle, Specify relative movement direction, movement speed, etc.

ここでの対象物とは、例えば、歩行者、人間以外の動物、他車両、道路沿いに設置される構造物などである。他車両には自転車や原動機付き自転車、オートバイも含まれる。道路沿いに設置される構造物とは、例えば、ガードレール、縁石、樹木、電柱、道路標識、信号機などである。また、本実施形態ではより好ましい態様として、走行区画線等の路面標示や、路上の落下物なども対象物として登録されているものとする。   The object here is, for example, a pedestrian, an animal other than a human, another vehicle, a structure installed along a road, or the like. Other vehicles include bicycles, motorbikes and motorcycles. The structures installed along the road are, for example, guardrails, curbs, trees, utility poles, road signs, traffic lights, and the like. Further, in this embodiment, as a more preferable aspect, road markings such as travel lane markings and falling objects on the road are registered as objects.

周辺物情報取得部F1は、自車両の周辺に存在する対象物毎に、相対位置等の情報を取得する。以降では便宜上、自車両の周辺に存在する対象物毎の種別や相対位置、移動方向、移動速度を示す情報を周辺物情報と称する。なお、周辺監視カメラの撮像画像から対象物についての情報を抽出する機能は、周辺監視カメラ自体に備えられていても良い。その場合、周辺監視カメラから提供されるデータをそのまま周辺物情報として利用することができる。   The surrounding object information acquisition unit F1 acquires information such as a relative position for each object existing around the host vehicle. Hereinafter, for convenience, information indicating the type, relative position, moving direction, and moving speed for each target existing around the host vehicle is referred to as peripheral object information. Note that the function of extracting information about the object from the captured image of the peripheral monitoring camera may be provided in the peripheral monitoring camera itself. In that case, the data provided from the periphery monitoring camera can be used as it is as the peripheral object information.

また、周辺物情報取得部F1は、画像認識技術によって道路標識,路面標示の規制内容を認識することで、自車両が走行している道路の制限速度を逐次認識する。なお、本実施形態では周辺監視センサ2の検出結果に基づいて、自車両周辺の構造物や、制限速度などの情報を取得するものとするが、これに限らない。自車両周辺の構造物や、制限速度などの情報については、細かい地図要素の情報を収録した詳細地図データから取得しても良い。   Moreover, the peripheral object information acquisition part F1 recognizes the speed limit of the road where the own vehicle is drive | working one by one by recognizing the regulation content of a road sign and a road marking by image recognition technology. In the present embodiment, information such as the structure around the host vehicle and the speed limit is acquired based on the detection result of the periphery monitoring sensor 2, but the present invention is not limited to this. Information such as the structure around the host vehicle and the speed limit may be acquired from detailed map data containing information on detailed map elements.

リスク検出部F2は、周辺物情報取得部F1が取得した周辺物情報や、車両状態センサ3の検出結果に基づいて、自車両の走行状態が所定のリスク状態となっていることを検出する。リスク状態とは、例えば、他の対象物との衝突が予見される状態である。   The risk detection unit F2 detects that the traveling state of the host vehicle is in a predetermined risk state based on the peripheral object information acquired by the peripheral object information acquisition unit F1 and the detection result of the vehicle state sensor 3. The risk state is a state in which, for example, a collision with another object is predicted.

具体的には、リスク検出部F2は、周辺物情報取得部F1が取得した周辺物情報に基づいて、自車両と衝突する可能性がある対象物(以降、リスク対象物)が存在するか否かを判定する。例えばリスク検出部F2は、対象物毎に、自車両と衝突するまでの残り時間である衝突残余時間(以降、TTC:Time-To-Collision)を逐次算出し、TTCが所定の閾値以下となっている物体をリスク対象物と判定する。或る対象物についてのTTCは、当該対象物の相対位置、相対速度、及び相対的な移動方向に基づいて算出されれば良い。TTCの算出アルゴリズムは周知のものを援用することができる。   Specifically, the risk detection unit F2 determines whether or not there is an object (hereinafter referred to as a risk object) that may collide with the host vehicle based on the peripheral object information acquired by the peripheral object information acquisition unit F1. Determine whether. For example, the risk detection unit F2 sequentially calculates a remaining collision time (hereinafter referred to as TTC: Time-To-Collision), which is a remaining time until the vehicle collides, for each target, and TTC is equal to or less than a predetermined threshold. Is determined to be a risk object. The TTC for a certain object may be calculated based on the relative position, relative speed, and relative movement direction of the object. A well-known algorithm can be used as the TTC calculation algorithm.

なお、走行区画線、停止線等の路面標示といった、自車両の走行を妨げない物体については、自車両と衝突する可能性がない物体として取り扱えば良い。また、本実施形態では一例としてTTCの概念を用いてリスク対象物を検出するように構成されているが、リスク対象物の検出方法はこれに限らない。例えば、対象物との距離に基づいて判定しても良い。   It should be noted that an object that does not interfere with the traveling of the host vehicle, such as a road marking such as a lane marking or a stop line, may be handled as an object that does not collide with the host vehicle. In the present embodiment, the risk object is detected by using the concept of TTC as an example, but the method of detecting the risk object is not limited to this. For example, you may determine based on the distance with a target object.

或る対象物をリスク対象物と判定することは、自車両周辺に存在するリスク対象物を検出することに相当する。また、リスク対象物が存在するということは、自車両の走行状態が所定のリスク状態となっていることを意味する。   Determining a certain target object as a risk target corresponds to detecting a risk target existing around the host vehicle. The presence of a risk object means that the traveling state of the host vehicle is in a predetermined risk state.

支援処理部F3は、リスク検出部F2によって検出されたリスク状態に応じた運転支援を実施する構成である。支援処理部F3は、より細かい構成要素(換言すればサブ機能)として、報知処理部F31と車両制御部F32とを備える。   The support processing unit F3 is configured to implement driving support according to the risk state detected by the risk detection unit F2. The support processing unit F3 includes a notification processing unit F31 and a vehicle control unit F32 as finer constituent elements (in other words, sub-functions).

報知処理部F31は、リスク検出部F2によって検出されているリスク状態を、警報音等を用いてドライバに報知する処理(以降、注意喚起処理)を実行する構成である。報知処理部F31は、リスク検出部F2によってリスク対象物の存在が検出されている場合、当該リスク対象物が存在することをドライバに報知する。本実施形態では一例として報知処理部F31は、リスク対象物の存在が検出されている場合には、リスク対象物の存在をドライバに知らせる警報音をスピーカ5から出力する。   The notification processing unit F31 is configured to execute a process of notifying the driver of the risk state detected by the risk detection unit F2 using an alarm sound or the like (hereinafter referred to as an alerting process). When the presence of the risk object is detected by the risk detection unit F2, the notification processing unit F31 notifies the driver that the risk object exists. In the present embodiment, as an example, the notification processing unit F31 outputs an alarm sound that informs the driver of the presence of the risk object from the speaker 5 when the presence of the risk object is detected.

なお、警報音の代わりに所定の音声メッセージを出力することによってリスク対象物の存在をドライバに報知してもよい。また、報知処理部F31は、注意喚起処理として、リスク対象物の存在をドライバに知らせる画像をディスプレイ6に表示してもよい。その他、バイブレータを所定の振動パターンで振動させることによってユーザにリスク対象物の存在することを報知してもよい。さらには、少なくとも1つ発光素子(例えば発光ダイオード)を用いて実現されるインジケータを、所定の発光パターンで発光させることによって上記情報をドライバに通知してもよい。なお、発光パターンは、光の色や、点滅の周期等の組み合わせによって構成される。   Note that the driver may be notified of the presence of the risk object by outputting a predetermined voice message instead of the warning sound. Moreover, the alerting | reporting process part F31 may display the image which notifies a driver of presence of a risk target object on the display 6 as an alerting process. In addition, the user may be informed that there is a risk object by vibrating the vibrator with a predetermined vibration pattern. Furthermore, the information may be notified to the driver by causing an indicator realized by using at least one light emitting element (for example, a light emitting diode) to emit light in a predetermined light emission pattern. Note that the light emission pattern is configured by a combination of light color, blinking cycle, and the like.

また、本実施形態ではより好ましい態様として報知処理部F31は、単にリスク対象物が存在することだけでなく、リスク対象物が存在する方向(以降、リスク存在方向)についてもドライバに報知する。例えば警報音を用いて注意を促す場合には、周知の立体音響技術を用いてリスク存在方向に応じた位置に仮想音像を定位させる。そのような構成によれば、ドライバは仮想音像が定位している方向にリスク対象物が存在することを直感的に認識できる。また、音声メッセージや画像を用いて注意を促す場合には、リスク存在方向について言及した情報を出力すれば良い。   In addition, in the present embodiment, as a more preferable aspect, the notification processing unit F31 notifies the driver not only that the risk object exists but also the direction in which the risk object exists (hereinafter, the risk presence direction). For example, when an alert sound is used to call attention, a virtual sound image is localized at a position corresponding to the risk existence direction using a well-known stereophonic technology. According to such a configuration, the driver can intuitively recognize that the risk object exists in the direction in which the virtual sound image is localized. Further, when calling attention using a voice message or an image, information that refers to the direction of risk may be output.

なお、リスク対象物となりうる物体は、車両前方に存在する対象物に限らない。自車両が後退している場合には、自車両後方に存在する物体もリスク対象物となりうる。すなわち、自車両の進行方向に存在する物体はリスク対象物となりうる。さらに、ドライバが車線変更をしようとしている場合には、変更先の車線において、自車両よりも後方を走行している他車両もリスク対象物となりうる。交差点付近においては、自車両が走行している道路と交わる道路を走行している他車両や歩行者も、リスク対象物となりうる。このように斜め前方や、後方、斜め後方もリスク存在方向となりうる。   An object that can be a risk object is not limited to an object that exists in front of the vehicle. When the host vehicle is moving backward, an object existing behind the host vehicle can also be a risk target. That is, an object existing in the traveling direction of the host vehicle can be a risk object. Furthermore, when the driver intends to change the lane, another vehicle traveling behind the own vehicle in the lane to be changed can be a risk object. In the vicinity of the intersection, other vehicles and pedestrians traveling on a road intersecting with the road on which the host vehicle is traveling can also be a risk object. In this way, the diagonally forward direction, the backward direction, and the diagonally backward direction can be the risk existence direction.

なお、リスク対象物が存在することを示す情報には、リスク対象物との衝突を回避するためにドライバが実施すべき運転操作を示す情報も含まれる。報知処理部F31が報知する情報は、自車両に生じているリスク状態に対して注意を促す情報(以降、注意喚起情報)であればよい。報知処理部F31によって注意喚起情報が報知されることで、ドライバは自車両に差し迫っているリスクを認識することができる。注意喚起情報が請求項に記載の支援情報に相当する。   The information indicating that the risk object exists includes information indicating a driving operation that the driver should perform in order to avoid a collision with the risk object. The information notified by the notification processing unit F31 may be information that calls attention to a risk state occurring in the host vehicle (hereinafter, alert information). The alerting information is notified by the notification processing unit F31, so that the driver can recognize the risk that the driver is imminent. The alert information corresponds to the support information described in the claims.

車両制御部F32は、リスク検出部F2が算出しているTTCに基づいて、リスク対象物との衝突を回避、又は、衝突時の衝撃を軽減するための車両制御を実行する条件(以降、制御介入条件)が充足されたか否かを逐次判定する。車両制御部F32は、制御介入条件が充足された場合、リスク対象物との衝突を回避、又は、衝突時の衝撃を軽減するための車両制御を、走行制御ECU9と協働して実行する。   Based on the TTC calculated by the risk detection unit F2, the vehicle control unit F32 avoids a collision with the risk object or executes a vehicle control for reducing the impact at the time of the collision (hereinafter referred to as control). It is sequentially determined whether or not the intervention condition) is satisfied. When the control intervention condition is satisfied, the vehicle control unit F32 executes vehicle control for avoiding the collision with the risk object or reducing the impact at the time of the collision in cooperation with the travel control ECU 9.

例えば車両制御部F32は、車両前方に存在する対象物(例えば先行車両)とのTTCが所定の作動閾値(例えば1.5秒)以下となった場合、走行制御ECU9に対して自車両を停止又は所定の減速度で減速させるように指示を出す。走行制御ECU9は、運転支援ECU1からの指示に基づいて、ブレーキアクチュエータを作動させて自車両を減速させる。なお、上記の例では、TTCが所定の作動閾値以下となった状態が、制御介入条件が充足された状態に相当する。   For example, the vehicle control unit F32 stops the host vehicle with respect to the travel control ECU 9 when the TTC with an object existing in front of the vehicle (for example, a preceding vehicle) becomes a predetermined operation threshold value (for example, 1.5 seconds) or less. Alternatively, an instruction is issued to decelerate at a predetermined deceleration. The travel control ECU 9 operates the brake actuator based on an instruction from the driving support ECU 1 to decelerate the host vehicle. In the above example, the state where the TTC is equal to or lower than the predetermined operation threshold corresponds to the state where the control intervention condition is satisfied.

挙動監視部F4は、ドライバ状態センサ4や入力装置7等から信号に基づいて、ドライバの状態を逐次(例えば200ミリ秒毎に)特定する。例えば挙動監視部F4は、入力装置7から操作信号が出力されている場合、ドライバはナビゲーション装置等の車載機器を操作している状態であると判定する。挙動監視部F4が請求項に記載のドライバ状態特定部に相当する。   The behavior monitoring unit F4 sequentially identifies the driver state (for example, every 200 milliseconds) based on signals from the driver state sensor 4, the input device 7, and the like. For example, when an operation signal is output from the input device 7, the behavior monitoring unit F4 determines that the driver is operating a vehicle-mounted device such as a navigation device. The behavior monitoring unit F4 corresponds to the driver state specifying unit described in the claims.

なお、他の態様として挙動監視部F4は、顔カメラによってドライバの顔及び目線がディスプレイ6が設置されている方向に向いていることが検出されている場合に車載機器を操作していると判定してもよい。また、ドライバが車載機器を操作しているか否かは上半身カメラの撮像画像から判定しても良い。さらに、挙動監視部F4は、近距離通信部8が携帯端末から送信された車載機器に対する制御信号を受信している場合、ドライバは携帯端末を介してナビゲーション装置等の車載機器を操作している状態であると判定してもよい。   As another aspect, the behavior monitoring unit F4 determines that the in-vehicle device is operated when it is detected by the face camera that the driver's face and eyes are directed in the direction in which the display 6 is installed. May be. Moreover, you may determine from the picked-up image of an upper body camera whether the driver is operating the vehicle equipment. Furthermore, when the short-range communication unit 8 receives the control signal for the in-vehicle device transmitted from the mobile terminal, the behavior monitoring unit F4 operates the in-vehicle device such as a navigation device via the mobile terminal. You may determine with a state.

また、挙動監視部F4は、ドライバの顔が足元や助手席方向など車両前方以外の方向に向いている場合、ドライバは車両前方を見ていない状態と判定する。ドライバの視線方向は、顔カメラによって特定されればよい。また、ドライバの顔の向きは、上半身カメラの撮像画像から特定されても良い。ドライバは車両前方を見ていない状態は、脇見をしている状態(以降、脇見状態)に相当する。なお、本実施形態ではより好ましい態様として、ドライバの視線がルームミラーやサイドミラーに向けられている場合には、脇見状態とは判定しないものとする。また、ドライバの顔が車両斜め後方に向けられている場合も脇見状態とは判定しない。ドライバの顔が車両前方に向けられている場合には、ドライバは車両前方を見ていると判定すればよい。   Further, the behavior monitoring unit F4 determines that the driver is not looking at the front of the vehicle when the driver's face is facing a direction other than the front of the vehicle such as a step or a passenger seat. The line-of-sight direction of the driver may be specified by a face camera. Further, the orientation of the driver's face may be specified from a captured image of the upper body camera. The state where the driver is not looking forward is equivalent to a state of looking aside (hereinafter, a state of looking aside). In the present embodiment, as a more preferable aspect, when the driver's line of sight is directed to the room mirror or the side mirror, it is not determined to be in the looking-aside state. Also, the driver is not determined to look aside when the driver's face is directed diagonally backward. When the driver's face is directed toward the front of the vehicle, it may be determined that the driver is looking at the front of the vehicle.

さらに、挙動監視部F4は、マイクがドライバの発話音声を取得している場合には、ドライバが同乗者と会話している/歌を歌っていると判定する。マイクがドライバの発話音声を取得していない場合には、ドライバが同乗者と会話したり歌を歌ったりはしていないと判定すればよい。なお、予めドライバの声と他者の声とを識別するためのデータ(例えばドライバの音声データ)が予め登録されていることが好ましい。そのような態様によればドライバの声と、他の乗員との声の混同を避けることができる。   Further, the behavior monitoring unit F4 determines that the driver is talking to the fellow passenger / singing a song when the microphone acquires the voice of the driver. If the microphone has not acquired the driver's speech, it may be determined that the driver is not speaking or singing with the passenger. It is preferable that data for identifying the voice of the driver and the voice of the other person (for example, voice data of the driver) is registered in advance. According to such an aspect, confusion between the voice of the driver and the voice of another occupant can be avoided.

また、挙動監視部F4は、上半身カメラの撮像画像に基づいて、ドライバが片手運転をしているか否かを判定する。片手運転をしている状態とは、ハンドルを片手で把持している状態である。なお、片手運転しているか否かは、ハンドル把持センサの検出結果に基づいて判定しても良い。   Further, the behavior monitoring unit F4 determines whether or not the driver is operating one hand based on the captured image of the upper body camera. The state of one-handed operation is a state where the handle is held with one hand. Whether or not one-handed operation is performed may be determined based on the detection result of the handle grip sensor.

挙動監視部F4は、上半身カメラの撮像画像に基づいて、ドライバの姿勢が所定の不適切姿勢となっているか否かを判断しても良い。不適切姿勢とは、運転操作に不適切な姿勢であって、例えば肘掛けや背もたれにも寄りかかった姿勢である。なお、運転操作に適した姿勢(以降、適正姿勢)とは、背筋を伸ばした姿勢である。上述の片手運転をしている状態も不適切運転姿勢に該当する。   The behavior monitoring unit F4 may determine whether the posture of the driver is a predetermined inappropriate posture based on the captured image of the upper body camera. The inappropriate posture is a posture inappropriate for driving operation, for example, a posture leaning on an armrest or a backrest. The posture suitable for driving operation (hereinafter referred to as “appropriate posture”) is a posture in which the back is stretched. The state where the one-handed operation described above is performed also corresponds to an inappropriate driving posture.

ドライバの姿勢が不適切姿勢であるか適正姿勢であるかは、背圧センサ及び座圧センサの検出結果に基づいて判定されても良い。例えば、背圧センサによって背もたれに印加されている圧力が所定の閾値以下であり、座圧センサによって検出されている圧力分布の中心が、着座面の車幅方向中央付近に位置している場合には、適正姿勢と判定する。なお、背圧センサによって背もたれに印加されている圧力が所定の閾値以上であったり、座圧センサによって検出されている圧力分布の中心が着座面の右側又は左側に偏ったりしている場合には不適切姿勢と判定すればよい。   Whether the posture of the driver is an inappropriate posture or an appropriate posture may be determined based on detection results of the back pressure sensor and the seat pressure sensor. For example, when the pressure applied to the backrest by the back pressure sensor is below a predetermined threshold value and the center of the pressure distribution detected by the seat pressure sensor is located near the center of the seating surface in the vehicle width direction. Is determined to be a proper posture. When the pressure applied to the backrest by the back pressure sensor is equal to or greater than a predetermined threshold, or the center of the pressure distribution detected by the seat pressure sensor is biased to the right or left side of the seating surface What is necessary is just to determine with an inappropriate posture.

また、挙動監視部F4は、ブレーキセンサ等の操作量センサの検出値に基づいて、ドライバが実施している運転操作の内容を特定する処理を実施する。例えば挙動監視部F4は、操舵角センサの検出値からドライバの操舵方向や、操舵量、操舵角速度等を特定する。また、挙動監視部F4は、ブレーキセンサの検出値やアクセルセンサの検出値に基づいて減速操作を実施しているかを特定する。ドライバが警音器を吹鳴させる操作(以降、吹鳴操作)を実施した場合には、警音器の動作状態を示す信号に基づいて警音器を吹鳴操作が実施されたことも検出する。   In addition, the behavior monitoring unit F4 performs a process of specifying the content of the driving operation performed by the driver based on the detection value of the operation amount sensor such as a brake sensor. For example, the behavior monitoring unit F4 specifies the steering direction, the steering amount, the steering angular velocity, and the like of the driver from the detection value of the steering angle sensor. In addition, the behavior monitoring unit F4 specifies whether the deceleration operation is performed based on the detection value of the brake sensor or the detection value of the accelerator sensor. When the driver performs an operation for sounding the alarm device (hereinafter referred to as an alarm operation), the driver also detects that the alarm operation has been performed based on a signal indicating the operating state of the alarm device.

挙動監視部F4は、上述したように、適切な運転姿勢であるか否か、車載機器等を操作しているか否か、視線方向などといった、ドライバの状態を逐次特定し、その特定結果を示すデータをドライバ状態記憶部M1に逐次保存していく。ドライバ状態記憶部M1には直近一定時間以内のドライバの状態を示すデータが時系列順に並んで保存される。   As described above, the behavior monitoring unit F4 sequentially identifies the state of the driver, such as whether or not the vehicle is in an appropriate driving posture, whether or not an on-vehicle device is being operated, and the line-of-sight direction, and indicates the identification result. Data is sequentially stored in the driver state storage unit M1. In the driver state storage unit M1, data indicating the state of the driver within the latest fixed time is stored in chronological order.

また、挙動監視部F4は、サブ機能として、適応操作判定部F41及び準備行動判定部F42を備える。適応操作判定部F41は、報知処理部F31が注意喚起処理を実行した場合に、報知処理部F31が報知した情報に応じた運転操作(以降、適応操作)をドライバが実施したか否かを判定する構成である。報知処理部F31によって報知された情報に応じた運転操作とは、リスク対象物との衝突を回避、又は、衝突時の衝撃を緩和するための運転操作である。例えば、先行車両との衝突の可能性が報知されている場合の適応操作とは、ブレーキペダルの踏込等に代表される減速操作である。なお、アクセルペダルから足を離す行動を、適応操作として設定しても良い。また、ブレーキペダルに足を載せることを適応操作として設定しても良い。   In addition, the behavior monitoring unit F4 includes an adaptive operation determination unit F41 and a preparation behavior determination unit F42 as sub-functions. The adaptive operation determination unit F41 determines whether or not the driver has performed a driving operation (hereinafter referred to as an adaptive operation) according to the information notified by the notification processing unit F31 when the notification processing unit F31 executes the alert processing. It is the structure to do. The driving operation according to the information notified by the notification processing unit F31 is a driving operation for avoiding a collision with a risk object or alleviating an impact at the time of the collision. For example, the adaptive operation when the possibility of a collision with the preceding vehicle is notified is a deceleration operation represented by depression of a brake pedal or the like. Note that the action of releasing the foot from the accelerator pedal may be set as an adaptive operation. Further, placing the foot on the brake pedal may be set as the adaptive operation.

さらに、リスク対象物が存在しない方向への操舵を適応操作に含めてもよい。その場合には、操舵の結果として、リスク検出部F2がリスク対象物との衝突の可能性が無くなったと判定した場合に、適応操作が実行されたと判定すればよい。   Furthermore, steering in a direction in which no risk object exists may be included in the adaptive operation. In that case, what is necessary is just to determine with adaptive operation having been performed when the risk detection part F2 determines that the possibility of the collision with a risk target object was lost as a result of steering.

準備行動判定部F42は、報知処理部F31が注意喚起処理を実行してからドライバが適応操作を実施するまでの間に、当該適応操作を実施するための準備行動をドライバが実施したか否かを判定する構成である。   The preparation behavior determination unit F42 determines whether or not the driver has performed the preparation behavior for performing the adaptive operation after the notification processing unit F31 performs the alert processing until the driver performs the adaptive operation. It is the structure which determines.

適応操作を実施するための準備行動とは、例えば、リスク存在方向の視認、車載機器の操作の中断、携帯端末の操作の中断、同乗者との会話の中断、運転姿勢の是正などである。例えば注意喚起処理実行前ドライバが脇見をしている状態において、視線/顔をリスク存在方向に向けることなく適応操作が実施された場合には、準備行動が実施されなかったと判断する。リスク存在方向を視認したか否かは前述の通り顔カメラの検出結果や、上半身カメラの撮像画像から特定されれば良い。図3に示す視認判定部F421はドライバがリスク存在方向を視認したか否かを判定する機能ブロックを表している。   The preparatory actions for performing the adaptive operation include, for example, visual recognition of the direction of risk, interruption of the operation of the in-vehicle device, interruption of the operation of the mobile terminal, interruption of the conversation with the passenger, correction of the driving posture, and the like. For example, in a state where the driver before executing the alert processing is looking aside, if the adaptive operation is performed without directing the line of sight / face in the risk presence direction, it is determined that the preparatory action has not been performed. Whether or not the risk existence direction has been visually recognized may be specified from the detection result of the face camera or the captured image of the upper body camera as described above. The visual recognition determination unit F421 illustrated in FIG. 3 represents a functional block for determining whether or not the driver has visually recognized the risk existence direction.

なお、リスク存在方向が斜め後方を含む車両後方である場合、バックミラーやサイドミラーを見る挙動も、リスク存在方向を視認する行動に含まれることが好ましい。さらに、周辺監視カメラの撮像画像がディスプレイ6に表示される構成においては、ディスプレイ6の表示画面を見る挙動も視認挙動に含まれることが好ましい。   In addition, when the risk presence direction is a vehicle rear including an oblique rear, it is preferable that the behavior of looking at the rearview mirror or the side mirror is also included in the behavior of viewing the risk presence direction. Furthermore, in the configuration in which the captured image of the peripheral monitoring camera is displayed on the display 6, it is preferable that the behavior of viewing the display screen of the display 6 is also included in the visual recognition behavior.

また、注意喚起処理実行前、ドライバが車載機器を操作している状態において、車載機器の操作を継続したまま適応操作が実施された場合には、準備行動が実施されなかったと判断すればよい。さらに、注意喚起処理実行前においてドライバが携帯端末を操作している状態において、携帯端末の操作を継続したまま適応操作が実施された場合には、準備行動が実施されなかったと判断する。   In addition, in the state where the driver is operating the in-vehicle device before executing the alert processing, if the adaptive operation is performed while continuing the operation of the in-vehicle device, it may be determined that the preparatory action has not been performed. Furthermore, in a state where the driver is operating the mobile terminal before executing the alert processing, if the adaptive operation is performed while the operation of the mobile terminal is continued, it is determined that the preparatory action has not been performed.

その他、注意喚起処理実行前、ドライバが同乗者と会話している状況において、同乗者との会話を継続したまま適応操作が実施された場合には、準備行動が実施されなかったと判断してもよい。また、注意喚起処理実行前、片手運転等の不適切な姿勢を取っている状態において、不適切な姿勢を維持したまま適応操作が実施された場合に、準備行動が実施されなかったと判断してもよい。   In addition, even if it is determined that the preparatory action was not performed if the adaptive operation was performed while continuing the conversation with the passenger in the situation where the driver was speaking with the passenger before the warning process was executed Good. In addition, it is determined that the preparatory action was not performed when the adaptive operation was carried out while maintaining an inappropriate posture in the state of taking an inappropriate posture such as one-handed driving before the execution of the alert process. Also good.

入力装置7や携帯端末を介して車載機器を操作することや、脇見をすること、同乗者との会話に夢中になること、不適切な姿勢をとることなどは、適正な姿勢で車両前方を見ることに比べて、相対的に不安全な振る舞いといえる。本実施形態では一例として、準備行動判定部F42は、注意喚起処理実行前においてドライバが取っていた不安全な振る舞いの全部が解消された場合に準備行動が行われたと判定するが、これに限らない。注意喚起処理実行前においてドライバが取っていた不安全な振る舞いの一部が解消された場合に準備行動が行われたと判定しても良い。また、そもそも注意喚起処理実行前において上述した不安全な振る舞いが行われていなかった場合には、準備行動が実施されたと判定すればよい。   Operating the in-vehicle device via the input device 7 or a portable terminal, looking aside, being crazy about conversations with passengers, taking an inappropriate posture, etc. This is a relatively unsafe behavior compared to seeing. In the present embodiment, as an example, the preparatory action determination unit F42 determines that the preparatory action has been performed when all of the unsafe behavior that the driver has taken before the execution of the alert processing is resolved, but the present invention is not limited thereto. Absent. It may be determined that the preparatory action has been performed when a part of the unsafe behavior that the driver has taken before the execution of the alert process is resolved. Moreover, what is necessary is just to determine with the preparatory action having been implemented when the unsafe behavior mentioned above was not performed in the first place before alerting processing execution.

便宜上、車載機器の操作の中断、携帯端末の操作の中断、同乗者との会話の中断などといった、リスク存在方向の視認以外の準備行動をサブ準備行動と称する。図3に示すサブ準備行動判定部F422は、ドライバがサブ準備行動を実施したか否かを判定する機能ブロックである。サブ準備行動判定部F422が請求項に記載のサブ準備行動検出部に相当する。なお、準備行動判定部F42は必ずしも上述した全ての種類の準備行動を判定する必要はない。例えば準備行動判定部F42は視認判定部F421とサブ準備行動判定部F422の何れか一方のみを備える構成であってもよい。準備行動判定部F42が判定する準備行動の種類は適宜設計されれば良い。換言すれば、準備行動とするドライバの挙動は設計者によって適宜定義されれば良い。   For convenience, preparatory actions other than visual recognition of the direction of risk existence, such as interruption of the operation of the in-vehicle device, interruption of the operation of the portable terminal, interruption of the conversation with the passenger, and the like are referred to as sub-preparation actions. The sub-preparation action determination unit F422 illustrated in FIG. 3 is a functional block that determines whether or not the driver has performed the sub-preparation action. The sub preparation action determination unit F422 corresponds to the sub preparation action detection unit described in the claims. Note that the preparation action determination unit F42 does not necessarily have to determine all the types of preparation actions described above. For example, the preparation behavior determination unit F42 may include only one of the visual recognition determination unit F421 and the sub preparation behavior determination unit F422. The kind of preparation action which the preparation action determination part F42 determines should just be designed suitably. In other words, the behavior of the driver as the preparation behavior may be appropriately defined by the designer.

依存度評価部F5は、報知処理部F31の出力に対する適応操作判定部F41の判定結果及び準備行動判定部F42の判定結果(つまりドライバの挙動)に基づいて、ドライバの運転支援システム100への依存度を設定する。ここでは一例として、依存度の高さを、レベル1からレベル4までの4段階で表現されるものとする。レベル1は依存度が最も低い状態を表し、レベル4は依存度が最も高い状態を表す。依存度の算出アルゴリズムの一例については別途後述する。   The dependency degree evaluation unit F5 depends on the driver's driving support system 100 based on the determination result of the adaptive operation determination unit F41 and the determination result of the preparation action determination unit F42 (that is, the behavior of the driver) with respect to the output of the notification processing unit F31. Set the degree. Here, as an example, it is assumed that the degree of dependence is expressed in four stages from level 1 to level 4. Level 1 represents the state with the lowest dependency, and level 4 represents the state with the highest dependency. An example of the dependency calculation algorithm will be described later.

支援態様調整部F6は、依存度評価部F5が算出した依存度に基づいて、報知態様パラメータの値を調整する。報知態様パラメータとは、報知処理部F31がリスク対象物を報知する際の態様を構成する各種パラメータである。報知態様パラメータには、例えば注意喚起情報を出力するタイミング(以降、報知タイミング)と、ドライバに与える刺激の強さ(以降、刺激強度)とが含まれる。   The support mode adjustment unit F6 adjusts the value of the notification mode parameter based on the dependency level calculated by the dependency level evaluation unit F5. The notification mode parameters are various parameters that constitute a mode when the notification processing unit F31 notifies a risk object. The notification mode parameter includes, for example, a timing for outputting the alert information (hereinafter referred to as notification timing) and a strength of a stimulus given to the driver (hereinafter referred to as stimulus intensity).

なお、本実施形態のように注意喚起が警報音によって実現される場合の刺激強度を構成する要素としては、音量、周波数、吹鳴間隔などがある。音量が大きいほど、周波数が高いほど、吹鳴間隔が短いほど、刺激強度は高い。なお、他の態様として報知媒体が画像である場合の刺激強度を構成する要素としては、画像の表示色、点滅間隔などがある。表示画像の色合いが赤色に近いほど、表示画像の点滅間隔が短いほど、刺激強度は高くなる。また、報知媒体が光である場合、発光色が赤色に近いほど、光の明滅間隔が短いほど、刺激強度は高くなる。   In addition, there exist a sound volume, a frequency, a blowing interval etc. as an element which comprises irritation | stimulation intensity | strength when alerting is implement | achieved by an alarm sound like this embodiment. The greater the volume, the higher the frequency, and the shorter the blowing interval, the higher the stimulation intensity. In addition, as another aspect, elements constituting the stimulus intensity when the notification medium is an image include an image display color, a blinking interval, and the like. The closer the display image color is to red and the shorter the blinking interval of the display image, the higher the stimulation intensity. When the notification medium is light, the stimulus intensity increases as the emission color is closer to red or the light blinking interval is shorter.

本実施形態の支援態様調整部F6は、図4に示すように、依存度が高いほど報知タイミングを遅くするとともに、刺激強度を高くする。具体的には、依存度がレベル1の場合には所定の周波数で警報音を出力する。そして、依存度が高いほど、周波数を高くする。   As illustrated in FIG. 4, the support mode adjustment unit F <b> 6 of the present embodiment delays the notification timing and increases the stimulation intensity as the degree of dependence increases. Specifically, when the dependency is level 1, an alarm sound is output at a predetermined frequency. And the higher the dependency, the higher the frequency.

また、依存度がレベル1の場合には、ドライバの依存度が小さい場合を想定した所定のタイミング(以降、デフォルトタイミング)で注意喚起情報を出力する。デフォルトタイミングは、例えばTTCが3秒となるタイミングとすればよい。そして、依存度が高いほど、注意喚起情報の報知タイミングを遅くする。例えば、レベル2のときにはTTC=2.5秒となった時、レベル3のときにはTTC=2.0秒となった時、レベル4のときにはTTC=1.8秒となった時とすればよい。   When the dependency level is level 1, alert information is output at a predetermined timing (hereinafter, default timing) assuming that the driver dependency level is small. The default timing may be a timing at which TTC is 3 seconds, for example. And the alerting | reporting timing of alerting information is delayed, so that dependence is high. For example, when level 2 is TTC = 2.5 seconds, when level 3 is TTC = 2.0 seconds, when level 4 is TTC = 1.8 seconds .

依存度が高いほど報知タイミングを遅くすることで、車両走行中にドライバが危機感を覚える機会を増やすことができる。その結果、ドライバが運転支援システム100を過信することを抑制することができる。支援態様調整部F6が請求項に記載の報知態様調整部に相当する。   As the degree of dependence is higher, the notification timing is delayed, so that the driver can have more opportunities to feel a sense of crisis while driving the vehicle. As a result, it is possible to prevent the driver from overconfidencing the driving support system 100. The support mode adjustment unit F6 corresponds to the notification mode adjustment unit described in the claims.

<依存度推定関連処理>
次に図5に示すフローチャートを用いて、運転支援ECU1が実施する依存度推定関連処理について説明する。依存度推定関連処理は、運転支援ECU1が運転支援システム100に対するドライバの依存度を推定するとともに、その推定結果に基づいて報知態様パラメータを調整する処理である。この図5に示すフローチャート(換言すれば依存度推定関連処理)は、リスク検出部F2によってリスク状態が検出された場合に開始されればよい。
<Dependency estimation related processing>
Next, the dependence estimation related processing performed by the driving support ECU 1 will be described using the flowchart shown in FIG. The dependency degree estimation related process is a process in which the driving support ECU 1 estimates the driver's dependence degree on the driving support system 100 and adjusts the notification mode parameter based on the estimation result. The flowchart shown in FIG. 5 (in other words, the dependency degree estimation related process) may be started when a risk state is detected by the risk detection unit F2.

まずステップS1では依存度評価部F5が、以降の処理で用いるフラグである準備行動フラグと適応操作フラグを初期化(ここではオフ状態)に設定してステップS2に移る。準備行動フラグは、ドライバが準備行動を実施したか否かを表すフラグである。準備行動判定部F42は、ドライバが準備行動を実施したと判定した場合には準備行動フラグをオンに設定する。その他の場合には準備行動フラグはオフに設定されている。適応操作フラグは、ドライバが適応操作を実施したか否かを表すフラグである。適応操作判定部F41は、ドライバが適応操作を実施したと判定した場合に適応操作フラグをオンに設定する。その他の場合には適応操作フラグはオフに設定されている。   First, in step S1, the dependency degree evaluation unit F5 sets a preparation action flag and an adaptive operation flag, which are flags used in the subsequent processes, to initialization (here, an off state), and proceeds to step S2. The preparation action flag is a flag indicating whether or not the driver has performed the preparation action. The preparation action determination unit F42 sets the preparation action flag to ON when it is determined that the driver has executed the preparation action. In other cases, the preparation action flag is set to OFF. The adaptive operation flag is a flag indicating whether or not the driver has performed an adaptive operation. The adaptive operation determination unit F41 sets the adaptive operation flag to ON when it is determined that the driver has performed the adaptive operation. In other cases, the adaptive operation flag is set to OFF.

ステップS2では報知処理部F31が、リスク検出部F2によって検出されているリスク状態に応じた注意喚起処理を実施してステップS3に移る。例えば、自車両が先行車両と衝突しそうな場合には、先行車両の存在をドライバに気づかせるための注意喚起情報を出力する。注意喚起処理自体は、現在設定されている依存度に応じた報知態様パラメータに基づいて実行される。具体的には、先行車両とのTTCが報知タイミングとして設定されている時間となったタイミングで、所定の周波数の警報音を出力する。   In step S2, the alerting | reporting process part F31 implements the alerting process according to the risk state detected by the risk detection part F2, and moves to step S3. For example, when the host vehicle is likely to collide with a preceding vehicle, warning information for making the driver aware of the presence of the preceding vehicle is output. The alerting process itself is executed based on the notification mode parameter corresponding to the currently set dependency. Specifically, an alarm sound having a predetermined frequency is output at the timing when the TTC with the preceding vehicle is set as the notification timing.

ステップS3では準備行動判定部F42が、ドライバが準備行動を実施したか否かを判定する。準備行動を実施したか否かの判定アルゴリズムは前述の通りである。なお、後続するステップS4が実行されたことに由来して、ステップS3に遷移した時点で既に準備行動フラグがオンとなっている場合にはステップS3は実行せずにステップS5に移れば良い。つまり、準備行動フラグがオンに設定されている場合ステップS3は省略可能である。   In step S3, the preparation action determination unit F42 determines whether or not the driver has performed the preparation action. The algorithm for determining whether or not the preparatory action has been performed is as described above. If the preparation action flag has already been turned on at the time of transition to step S3 due to the subsequent execution of step S4, step S3 may be skipped and the process may proceed to step S5. That is, when the preparation action flag is set to ON, step S3 can be omitted.

準備行動が行われたと判定した場合にはステップS3が肯定判定されてステップS4に移る。一方、準備行動の実施をまだ検出していない場合にはステップS3が否定判定されてステップS5に移る。ステップS4では準備行動判定部F42が準備行動フラグをオンに設定してステップS5に移る。   If it is determined that the preparatory action has been performed, an affirmative determination is made in step S3 and the process proceeds to step S4. On the other hand, if the execution of the preparatory action has not been detected yet, a negative determination is made in step S3 and the process proceeds to step S5. In step S4, the preparation action determination unit F42 sets the preparation action flag to ON and proceeds to step S5.

ステップS5では適応操作判定部F41が、適応操作を実施したか否かを判定する。適応操作を実施したか否かの判定アルゴリズムは前述の通りである。適応操作が行われたと判定した場合にはステップS5が肯定判定されてステップS6に移る。一方、適応操作の実施をまだ検出していない場合にはステップS5が否定判定されてステップS3に移る。ステップS6では適応操作判定部F41が適応操作フラグをオンに設定してステップS7に移る。   In step S5, the adaptive operation determination unit F41 determines whether an adaptive operation has been performed. The algorithm for determining whether or not the adaptive operation has been performed is as described above. If it is determined that the adaptive operation has been performed, an affirmative determination is made in step S5 and the process proceeds to step S6. On the other hand, if the execution of the adaptive operation has not been detected yet, a negative determination is made in step S5 and the process proceeds to step S3. In step S6, the adaptive operation determination unit F41 sets the adaptive operation flag to ON, and proceeds to step S7.

ステップS7では車両制御部F32が、リスク検出部F2の検出結果に基づき、制御介入条件が充足されたか否かを判定する。制御介入条件が充足されている場合には、ステップS8に移り、現在の状況に応じた車両制御を実行するように走行制御ECU9に指示信号を出力する。例えば、先行車両とのTTCが1.5秒以内となっている場合には自車両を所定の減速度で減速させる。また、上記の減速制御と並行して、自車両がリスク対象物を避ける方向に移動するように操舵する車両制御(以降、操舵制御)を行ってもよい。ステップS7の時点において未だ制御介入条件が充足されていない場合にはステップS7が否定判定されてステップS3に移る。なお、車両制御条件が充足される場合とは、ドライバが注意喚起処理で報知された情報に応じた適切な運転操作(つまり適応操作)を実行しなかった場合に相当する。   In step S7, the vehicle control unit F32 determines whether or not the control intervention condition is satisfied based on the detection result of the risk detection unit F2. If the control intervention condition is satisfied, the process proceeds to step S8, and an instruction signal is output to the travel control ECU 9 so as to execute vehicle control according to the current situation. For example, when the TTC with the preceding vehicle is within 1.5 seconds, the host vehicle is decelerated at a predetermined deceleration. In parallel with the deceleration control described above, vehicle control for steering the vehicle so as to move in a direction avoiding the risk target object (hereinafter referred to as steering control) may be performed. If the control intervention condition is not yet satisfied at the time of step S7, a negative determination is made in step S7, and the process proceeds to step S3. The case where the vehicle control condition is satisfied corresponds to the case where the driver does not execute an appropriate driving operation (that is, an adaptive operation) according to the information notified in the alerting process.

ステップS9では依存度評価部F5が、以上の一連の処理の結果、すなわち注意喚起処理に対するドライバの挙動に基づいて、依存度を設定する。本実施形態では一例として図6に示すように、準備行動フラグの設定状態(すなわちオン/オフ)及び適応操作フラグのオン/オフの組み合わせに基づいて依存度を決定する。   In step S <b> 9, the dependency degree evaluation unit F <b> 5 sets the dependency degree based on the result of the series of processes described above, that is, the behavior of the driver with respect to the alerting process. In this embodiment, as shown in FIG. 6 as an example, the dependence is determined based on the combination of the setting state of the preparation action flag (that is, on / off) and the on / off of the adaptive operation flag.

具体的には、適応操作フラグがオンに設定されており且つ準備行動フラグがオンに設定されている場合には依存度をレベル1に設定する。適応操作フラグがオンに設定されており且つ準備行動フラグがオフに設定されている場合には依存度をレベル2に設定する。適応操作フラグがオフに設定されており且つ準備行動フラグがオンに設定されている場合には依存度をレベル3に設定する。適応操作フラグがオフに設定されており且つ準備行動フラグがオフに設定されている場合には依存度をレベル4に設定する。ステップS9での処理が完了するとS10に移る。   Specifically, when the adaptive operation flag is set on and the preparation action flag is set on, the dependence is set to level 1. When the adaptive operation flag is set to ON and the preparation action flag is set to OFF, the dependence is set to level 2. When the adaptive operation flag is set to off and the preparation action flag is set to on, the dependence is set to level 3. When the adaptive operation flag is set to OFF and the preparation action flag is set to OFF, the dependency is set to level 4. When the process in step S9 is completed, the process proceeds to S10.

ステップS10では支援態様調整部F6が、ステップS9にて依存度評価部F5が新たに算出した依存度に基づいて、報知態様パラメータの値を調整し、支援パラメータ記憶部M2に保存する。これにより、次回の注意喚起処理は、今回のフローによって決定された報知態様に基づいて実行される。   In step S10, the support mode adjustment unit F6 adjusts the value of the notification mode parameter based on the dependency newly calculated by the dependency level evaluation unit F5 in step S9, and stores it in the support parameter storage unit M2. Thereby, the next alerting process is executed based on the notification mode determined by the current flow.

<実施形態のまとめ>
以上の構成では、適応操作を実施したか否かだけでなく、準備行動を行ったか否かに基づいても依存度を決定する。ここでの準備行動とは、サブタスクの中断や、姿勢の是正、リスク方向の目視などが該当する。サブタスクとは、車載機器の操作や携帯端末の操作といった運転操作以外の作業を指す。
<Summary of Embodiment>
In the above configuration, the dependence is determined not only based on whether or not the adaptive operation has been performed, but also based on whether or not the preparatory action has been performed. The preparatory action here includes interruption of subtasks, correction of posture, visual observation of risk direction, and the like. A subtask refers to work other than driving operation such as operation of an in-vehicle device or operation of a mobile terminal.

このような構成によれば、不安全な状態を維持したまま回避行動を実施した場合と、周辺確認などの準備動作を実施した後に回避行動を実施した場合と、を切り分けることができる。故に、運転支援システム100に対するドライバの依存度をより適切に判定することができる。   According to such a configuration, it is possible to distinguish between the case where the avoidance action is performed while maintaining an unsafe state and the case where the avoidance action is performed after performing the preparatory operation such as the peripheral confirmation. Therefore, the driver's dependence on the driving support system 100 can be determined more appropriately.

なお、以上では支援情報としての注意喚起情報に対するドライバの挙動に基づいて、依存度を設定する態様を開示したが、支援情報は注意喚起情報に限らない。自車両が自動運転機能を備えている場合、支援情報は、運転席乗員から車両に運転操作の権限を移譲できる状態となったことを示す自動運転可能情報であってもよい。また、運転席乗員に対して運転操作の権限を受け取るように依頼する交代依頼情報であってもよい。   In addition, although the aspect which sets a dependence based on the behavior of the driver with respect to the alert information as support information was disclosed above, the support information is not limited to the alert information. When the host vehicle has an automatic driving function, the support information may be automatic driving enabled information indicating that the driver's seat authority can be transferred to the vehicle from the driver's seat passenger. Further, it may be replacement request information for requesting the driver's seat occupant to receive authority for driving operation.

以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、以降で述べる種々の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The various modifications described below are also contained in the technical scope of this invention, and also in addition to the following However, various modifications can be made without departing from the scope of the invention.

なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用することができる。   In addition, about the member which has the same function as the member described in the above-mentioned embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted. In addition, when only a part of the configuration is mentioned, the configuration of the above-described embodiment can be applied to the other portions.

[変形例1]
上述した実施形態では依存度のみに基づいて報知態様パラメータを調整する構成を開示したが、これに限らない。依存度に加えて、ドライバの心拍数や呼吸間隔といった生体情報も用いて、報知態様パラメータを調整してもよい。生体情報には、ドライバの行動として反映されない情報を含まれるため、上記の構成によれば、報知態様の調整による依存度の適正化をより効果的に実施することができるようになる。以下、ドライバの生体情報を用いて報知態様を調整する構成を変形例1として以下に述べる。
[Modification 1]
In the above-described embodiment, the configuration in which the notification mode parameter is adjusted based only on the dependency degree is disclosed, but the present invention is not limited to this. In addition to the degree of dependence, biometric information such as the driver's heart rate and breathing interval may be used to adjust the notification mode parameter. Since the biological information includes information that is not reflected as the driver's action, according to the above configuration, the dependence can be optimized more effectively by adjusting the notification mode. Hereinafter, the structure which adjusts an alerting | reporting aspect using the driver | operator's biometric information is described as the modification 1 below.

変形例1の運転支援システム100は、図7に示すように、ドライバ状態センサ4としてドライバの生体情報を検出する生体情報センサ41を備える。ここでは一例として、生体情報センサ41は、心拍数を計測する心拍数センサとする。生体情報センサ41の検出結果は、逐次(例えば100ミリ秒毎に)運転支援ECU1に提供される。   As illustrated in FIG. 7, the driving support system 100 according to the first modification includes a biological information sensor 41 that detects biological information of a driver as the driver state sensor 4. Here, as an example, the biological information sensor 41 is a heart rate sensor that measures a heart rate. The detection result of the biological information sensor 41 is provided to the driving support ECU 1 sequentially (for example, every 100 milliseconds).

なお、生体情報センサ41の種類は適宜設計されればよい。例えば生体情報センサ41は、血圧、心電位、脈波、発汗量、体温、呼吸のリズムや、呼吸の深さなどを検出対象とするセンサであっても良い。   In addition, what is necessary is just to design the kind of the biometric information sensor 41 suitably. For example, the biological information sensor 41 may be a sensor that detects blood pressure, cardiac potential, pulse wave, amount of sweat, body temperature, respiratory rhythm, respiratory depth, and the like.

変形例1における挙動監視部F4は、ドライバの心拍数を示すデータを生体情報センサ41から逐次取得し、ドライバ状態記憶部M1に逐次保存していく。ドライバ状態記憶部M1には、直近一定時間以内のドライバの心拍数を示すデータが時系列順に保存される。   The behavior monitoring unit F4 in the first modification example sequentially acquires data indicating the heart rate of the driver from the biological information sensor 41 and sequentially stores the data in the driver state storage unit M1. In the driver state storage unit M1, data indicating the heart rate of the driver within the latest fixed time is stored in chronological order.

変形例1における運転支援ECU1は、機能ブロックとしてヒヤリハット判定部F7を備える。ヒヤリハット判定部F7は、ドライバの生体情報(ここでは心拍数)の時間変化に基づいて、報知処理部F31が注意喚起したリスク状態に対してドライバがヒヤリハットしたか否かを判定する構成である。ヒヤリハット判定部F7は、CPU11によるソフトウェアの実行によって実現されていてもよいし、IC等を用いてハードウェアとして実現されていても良い。また、ソフトウェアとハードウェアの組み合わせによって実現されていても良い。   The driving assistance ECU 1 in the first modification includes a near-miss determining unit F7 as a functional block. The near-miss determination unit F7 is configured to determine whether or not the driver has near-missed the risk state alerted by the notification processing unit F31, based on the temporal change of the driver's biological information (here, heart rate). The near-miss determining unit F7 may be realized by execution of software by the CPU 11, or may be realized as hardware using an IC or the like. Further, it may be realized by a combination of software and hardware.

ドライバがヒヤリハットしたか否かの判定は、周知の方法によって実施されれば良い。例えば、注意喚起処理実行前の心拍数と、注意喚起処理実行後の心拍数を比較して、注意喚起処理実行後に一過性の心拍数の上昇が生じている場合に、ドライバはヒヤリハットしたと判定する。一過性の心拍数の上昇とは、心拍数が一時的に所定の閾値以上高くなる変化を指す。また、注意喚起処理を実行してから一定時間(例えば5秒)以内に、上述した一過性の心拍数の上昇が生じなかった場合にはヒヤリハットしなかったと判定する。   The determination as to whether or not the driver has near-missed may be performed by a known method. For example, comparing the heart rate before executing the alert process with the heart rate after executing the alert process, and if the transient heart rate rises after executing the alert process, judge. A transient increase in heart rate refers to a change in which the heart rate temporarily rises above a predetermined threshold. Further, if the above-mentioned transient heart rate increase does not occur within a certain time (for example, 5 seconds) after executing the alerting process, it is determined that the near-miss has not occurred.

なお、生体情報として呼吸の間隔(換言すれば呼吸の速度)を用いる場合には、注意喚起処理実行前の呼吸間隔と比べて、注意喚起処理後の呼吸間隔が短くなっている場合に、ヒヤリハットしたと判定すればよい。また、生体情報として呼吸の間隔(換言すれば呼吸の速度)を用いる場合には、注意喚起処理実行前の呼吸間隔と比べて、注意喚起処理後の呼吸間隔が短くなっている場合に、ヒヤリハットしたと判定すればよい。生体情報として呼吸の深さ(換言すれば呼吸の振幅)を用いる場合には、注意喚起処理実行前の呼吸の深さと比べて、注意喚起処理後の呼吸の深さが浅くなっている場合に、ヒヤリハットしたと判定すればよい。   In addition, when using the breathing interval (in other words, the speed of breathing) as biometric information, if the breathing interval after the alerting process is shorter than the breathing interval before executing the alerting process, What is necessary is just to determine that it was. Also, when using the breathing interval (in other words, the breathing rate) as biometric information, if the breathing interval after the alerting process is shorter than the breathing interval before executing the alerting process, What is necessary is just to determine that it was. When the depth of breathing (in other words, the amplitude of breathing) is used as biometric information, when the depth of breathing after the alerting process is shallower than the depth of breathing before the alerting process is executed What is necessary is just to determine with near-miss.

支援態様調整部F6は、依存度評価部F5によって依存度が、依存度推定関連処理を実施する前のレベルとは異なるレベルに設定された場合(つまり依存度の評価レベルに変化があった場合)、報知態様パラメータを、その新たな依存度に応じた値に設定する。また、依存度の評価レベルに変更がなかった場合には、ヒヤリハットの有無に応じて報知態様を調整する。   The support mode adjustment unit F6 has a dependency level set by the dependency level evaluation unit F5 that is different from the level before the dependency level estimation related process is performed (that is, when the evaluation level of the dependency level has changed). ), And the notification mode parameter is set to a value corresponding to the new dependence degree. When there is no change in the dependency evaluation level, the notification mode is adjusted according to the presence or absence of a near-miss.

図8は、ヒヤリハットの有無に応じた報知態様の調整量の一例を示した図である。依存度がレベル1やレベル2となっている場合において、注意喚起処理後にドライバがヒヤリハットした場合とは、リスク状況自体に驚いたというよりも、注意喚起処理として出力された警報音等に対して驚いた可能性がある。そのため、依存度がレベル1やレベル2となっている場合にヒヤリハットが検出された場合には、刺激強度を本来の刺激強度よりも所定量弱める調整を行う。なお、ここでの本来の刺激強度とは、依存度に応じた本来の(換言すれば未調整の)刺激強度に相当する。   FIG. 8 is a diagram illustrating an example of the adjustment amount of the notification mode according to the presence or absence of a near-miss. When the dependency is level 1 or level 2, when the driver is accidentally hated after the alert process, the driver is surprised by the risk situation itself, rather than the alarm sound output as the alert process. May be surprised. For this reason, when a near-miss is detected when the dependency level is level 1 or level 2, adjustment is performed to weaken the stimulation intensity by a predetermined amount from the original stimulation intensity. The original stimulus intensity here corresponds to the original (in other words, unadjusted) stimulus intensity corresponding to the degree of dependence.

一方、依存度がレベル1となっている場合にドライバがヒヤリハットしなかった場合、レベル2本来の報知態様が、ドライバにとって適切な態様となっている可能性が高い。故に、報知態様の調整は実施しない。ただし、依存度がレベル2となっている場合にドライバがヒヤリハットしなかった場合は、レベル2本来の報知態様にドライバが慣れてしまっている可能性がある。故に、刺激強度をレベル2本来の刺激強度よりも強める調整を行う。   On the other hand, when the dependency level is level 1 and the driver does not close, there is a high possibility that the level 2 original notification mode is an appropriate mode for the driver. Therefore, the adjustment of the notification mode is not performed. However, if the driver is not close when the dependency level is level 2, the driver may have become accustomed to the level 2 original notification mode. Therefore, an adjustment is made so that the stimulus intensity is stronger than the original stimulus intensity of level 2.

依存度がレベル3やレベル4となっている場合において、注意喚起処理後にドライバがヒヤリハットした場合とは、注意喚起処理として出力された警報音等に対して驚いたというよりも、リスク状態自体に驚いた可能性のほうが高い。依存度がレベル3に設定されている場合においてドライバがヒヤリハットした場合、ドライバの依存度は高いものの、当該ヒヤリハットによって依存度が下がることが期待できる。故に、報知態様はレベル3本来の報知態様のままとする(つまり調整しない)。   When the dependency level is level 3 or level 4, when the driver is accidentally shut down after the alert process, the risk state itself is not astonished by the alarm sound output as the alert process. More likely to be surprised. In the case where the dependency level is set to level 3 and the driver near-misses, although the driver dependency level is high, it can be expected that the dependency level is lowered by the near-miss. Therefore, the notification mode is the same as the level 3 notification mode (that is, not adjusted).

依存度がレベル4に設定されている場合においてドライバがヒヤリハットした場合、ドライバの依存度は高いものの、当該ヒヤリハットによって依存度が下がることが期待できる。故に、刺激強度はレベル4本来の刺激強度のままとする。ただし、報知タイミングに関してはレベル4本来の報知タイミングよりも所定量早める調整を行う。このような設定では、ドライバ自身で周辺状況を認識及び判断する時間が長くなり、自分自身の手でリスク対象物との衝突を回避しようとする機会が増える。その結果、運転支援システム100に頼らずに、自分自身の手でリスク状態を回避しようとするドライバの意識が強まることが期待できる。つまり、上記設定によれば依存度をより一層低減させる効果が期待できる。   In the case where the dependency level is set to level 4 and the driver near-misses, although the driver dependency level is high, it can be expected that the dependency level is lowered by the near-miss. Therefore, the stimulation intensity remains at the original stimulation intensity of level 4. However, the notification timing is adjusted to be advanced by a predetermined amount from the original notification timing of level 4. In such a setting, it takes a long time for the driver to recognize and judge the surrounding situation, and the opportunity to try to avoid collision with the risk object with his / her own hand increases. As a result, it can be expected that the driver's consciousness to avoid the risk state with his / her own hand without relying on the driving support system 100 is strengthened. That is, according to the above setting, an effect of further reducing the dependency can be expected.

依存度がレベル3に設定されている場合において、ドライバがヒヤリハットしなかった場合、レベル3本来の報知態様にドライバが慣れてしまっている可能性がある。故に、刺激強度をレベル3本来の刺激強度よりも強める調整を行う。また、報知タイミングもレベル3本来の報知タイミングよりも遅くする調整を行う。   In the case where the dependency is set to level 3, if the driver does not near-miss, the driver may have become accustomed to the level 3 original notification mode. Therefore, the adjustment is made so that the stimulation intensity is higher than the original level 3 stimulation intensity. Also, adjustment is made so that the notification timing is also later than the original notification timing of level 3.

依存度がレベル4に設定されている場合において、ドライバがヒヤリハットしなかった場合、ドライバが注意喚起処理に慣れきっている可能性がある。故に、注意喚起処理の実行自体を停止し、ドライバに自分自身で周辺を確認する習慣を身につけるように促す。   In the case where the dependency is set to level 4, if the driver does not close, the driver may be used to the alerting process. Therefore, the execution of the alerting process itself is stopped, and the driver is encouraged to acquire the habit of checking the surroundings by himself / herself.

変形例1として開示した上記の構成においても上述した実施形態と同様の効果を奏する。また、変形例1の構成によれば、実施形態に比べて、ドライバの依存度をより効果的に適正なレベルへと移行させることができる。   The above-described configuration disclosed as the modified example 1 also has the same effect as the above-described embodiment. Also, according to the configuration of the first modification, the driver dependency can be more effectively shifted to an appropriate level as compared with the embodiment.

[変形例2]
上述した実施形態や変形例1では、依存度に応じて報知態様パラメータを調整する態様を開示したが、依存度に応じて、車両制御部F32が車両制御を実施する際の態様を規定する車両制御パラメータを調整しても良い。車両制御パラメータは、支援パラメータの一部であって、支援パラメータ記憶部M2に保存されている。
[Modification 2]
In the above-described embodiment and the first modification, the mode in which the notification mode parameter is adjusted according to the dependency is disclosed, but the vehicle that defines the mode when the vehicle control unit F32 performs the vehicle control according to the dependency. Control parameters may be adjusted. The vehicle control parameter is a part of the support parameter and is stored in the support parameter storage unit M2.

車両制御パラメータは、車両制御の内容毎に設定されている。例えば、減速制御についての車両制御パラメータとしては、減速を開始するTTCの値(換言すれば制御介入条件)や、減速度などがある。依存度が高いほど減速を開始するタイミングを遅くするとともに、減速度を大きくすれば良い。また、操舵制御についての車両制御パラメータとしては、操舵制御を開始するTTCの値や、操舵角速度などがある。依存度が高いほど操舵制御を開始するタイミングを遅くするとともに回転角速度を大きくすれば良い。   The vehicle control parameter is set for each content of vehicle control. For example, vehicle control parameters for deceleration control include a value of TTC for starting deceleration (in other words, a control intervention condition), deceleration, and the like. The higher the dependency, the slower the timing for starting deceleration and the larger the deceleration. Further, the vehicle control parameters for the steering control include a TTC value for starting the steering control, a steering angular velocity, and the like. The higher the dependency, the slower the timing for starting the steering control and the larger the rotational angular velocity.

[変形例3]
リスク検出部F2は、ドライバが速度超過などの不安全な運転操作を実施している状態をリスク状態として検出してもよい。具体的には、リスク検出部F2は、自車両の走行速度が制限速度よりも所定速度(例えば20km/h)超過している場合、自車両の走行状態がリスク状態となっていると判定する。自車両の走行速度が制限速度を超過している場合には、制限速度を遵守して走行している場合よりも、事故の発生確率が高くなるためである。なお、自車両の走行速度は車両状態センサ3としての車速センサから取得すれば良い。
[Modification 3]
The risk detection unit F2 may detect a state where the driver is performing an unsafe driving operation such as overspeed as a risk state. Specifically, the risk detection unit F2 determines that the traveling state of the host vehicle is in a risk state when the traveling speed of the host vehicle exceeds a speed limit by a predetermined speed (for example, 20 km / h). . This is because when the traveling speed of the host vehicle exceeds the speed limit, the probability of occurrence of an accident is higher than when the vehicle travels in compliance with the speed limit. In addition, what is necessary is just to acquire the traveling speed of the own vehicle from the vehicle speed sensor as the vehicle state sensor 3.

この変形例における報知処理部F31は、制限速度を超過している状態が検出された場合には、その旨を示す警報音又は音声メッセージを注意喚起情報としてスピーカ5から出力することによって報知する。   In the case where a state in which the speed limit is exceeded is detected, the notification processing unit F31 in this modification notifies the user by outputting an alarm sound or a voice message indicating that fact from the speaker 5 as alert information.

制限速度を超過していることを示す情報出力に対する適応操作とは、走行速度を落とすための操作である。例えば、アクセルペダルから足を離す操作や、エンジンブレーキを作動させる操作、ブレーキペダルに足を載せる操作、ブレーキペダルを踏み込む操作などである。各操作は、周知の車載センサによって検出されれば良い。なお、走行速度が制限速度まで減速した場合に、速度超過状態に対する適応操作が実施されたと判定しても良い。   The adaptive operation with respect to the information output indicating that the speed limit is exceeded is an operation for reducing the traveling speed. For example, an operation of releasing a foot from an accelerator pedal, an operation of operating an engine brake, an operation of placing a foot on a brake pedal, or an operation of depressing a brake pedal. Each operation may be detected by a known vehicle-mounted sensor. When the traveling speed is reduced to the speed limit, it may be determined that the adaptive operation for the overspeed state is performed.

また、上記の適応操作を実施するための準備行動とは、メータ等に示される走行速度の確認や、現在走行している道路の制限速度の確認、周辺の交通状況の確認などである。メータ等に示される走行速度を確認したか否かは、ドライバの視線方向によって特定されれば良い。ドライバの視線方向は、顔カメラや上半身カメラによって特定されればよい。   The preparatory actions for performing the adaptive operation include confirmation of a traveling speed indicated by a meter, confirmation of a speed limit of a road that is currently traveling, confirmation of surrounding traffic conditions, and the like. Whether or not the traveling speed indicated by the meter or the like has been confirmed may be specified by the driver's line-of-sight direction. The driver's line-of-sight direction may be specified by a face camera or an upper body camera.

[変形例4]
上述した実施形態では、依存度をレベル1〜4の4段階で評価する態様を開示したがこれに限らない。例えば依存度をレベル1〜3の3段階で評価してもよい。また、適応操作フラグがオンに設定されており且つ準備行動フラグがオフに設定されている場合と、適応操作フラグがオフに設定されており且つ準備行動フラグがオンに設定されている場合とを、同じ依存度(具体的にはレベル2)に設定してもよい。準備行動をせずに適応操作をしたということは、運転支援ECU1による情報提示を過度に信頼している状態を示唆するためである。図9は上述した判定規則の一例を図に表したものである。
[Modification 4]
In the above-described embodiment, the aspect in which the dependency is evaluated in four stages of levels 1 to 4 is disclosed, but the present invention is not limited to this. For example, the dependence degree may be evaluated in three stages of levels 1 to 3. In addition, when the adaptive operation flag is set on and the preparation action flag is set off, and when the adaptive operation flag is set off and the preparation action flag is set on. The same dependency (specifically, level 2) may be set. The fact that the adaptive operation is performed without performing the preparatory action is to suggest a state where the information presentation by the driving support ECU 1 is excessively reliable. FIG. 9 illustrates an example of the above-described determination rule.

また、図10に示すように適応操作フラグがオフに設定されており且つ準備行動フラグがオンに設定されている場合の依存度は、準備行動としてリスク対象方向をドライバが目視したか否かによって決定されても良い。具体的には、準備行動としてドライバがリスク対象方向を目視していない場合には、依存度を最も高いレベル(例えばレベル3)に設定する。   Further, as shown in FIG. 10, the dependency when the adaptive operation flag is set to off and the preparation action flag is set to on depends on whether the driver visually views the risk target direction as the preparation action. It may be determined. Specifically, when the driver does not look at the risk target direction as the preparation action, the dependence is set to the highest level (for example, level 3).

一方、準備行動としてリスク対象方向をドライバが目視している場合には、依存度を最も低いレベル(つまりレベル1)に設定する。リスク対象方向をドライバが目視しているにも関わらず、ドライバが適応操作を実施しなかった場合には、リスク検出部F2によるリスク状態の検出が誤りである可能性があるためである。ただし、最終的に車両制御部F32による車両制御が実行された場合には、リスク検出部F2の検出結果が正しかったことを意味するため、依存度はレベル3に設定されることが好ましい。以上の構成によれば、より適切に依存度を判定する事ができる。   On the other hand, when the driver visually observes the risk target direction as the preparation action, the dependence is set to the lowest level (that is, level 1). This is because the risk detection by the risk detection unit F2 may be erroneous if the driver does not perform the adaptive operation even though the driver is viewing the risk target direction. However, when the vehicle control by the vehicle control unit F32 is finally executed, it means that the detection result of the risk detection unit F2 is correct. Therefore, the dependency is preferably set to level 3. According to the above configuration, the dependency can be determined more appropriately.

また、ドライバが準備行動を実施した後に適応操作を実施した場合の中でも、ドライバがリスク存在方向を視認した場合と、ドライバがサブ準備行動のみを実施した場合とで、依存度を変更しても良い。例えば図11に示すように、リスク存在方向を視認せずにサブ準備行動のみを実施してから適応操作を実施した場合の依存度を、リスク存在方向を視認してから適応操作を実施した場合に比べて高いレベルに設定する。もちろん、一切の準備行動を取らずに適応操作を実施した場合の依存度は、リスク存在方向を視認せずにサブ準備行動のみを実施してから適応操作を実施した場合よりも高いレベルに設定すればよい。   In addition, even when the driver performs the adaptation operation after performing the preparatory action, even if the driver changes the dependency between the case where the driver visually recognizes the risk existence direction and the case where the driver performs only the sub-preparation action. good. For example, as shown in FIG. 11, when the adaptive operation is performed after visually recognizing the risk existence direction, the dependence when the adaptive operation is performed after performing only the sub-preparation action without visually recognizing the risk existence direction is performed. Set to a higher level than. Of course, the degree of dependence when performing adaptive operations without taking any preparatory actions is set to a higher level than when performing adaptive operations after performing only the sub-preparatory actions without visually recognizing the direction of risk. do it.

100 運転支援システム、1 運転支援ECU、2 周辺監視センサ、3 車両状態センサ、4 ドライバ状態センサ、5 スピーカ、6 ディスプレイ、7 入力装置、8 近距離通信部、9 走行制御ECU、F1 周辺物情報取得部、F2 リスク検出部、F3 支援処理部、F4 挙動監視部(ドライバ状態特定部)、F5 依存度評価部、F6 支援態様調整部(報知態様調整部)、F7 ヒヤリハット判定部、M1 ドライバ状態記憶部、M2 支援パラメータ記憶部、F31 報知処理部、F32 車両制御部、F41 適応操作判定部、F42 準備行動判定部、F421 視認判定部、F422 サブ準備行動判定部(サブ準備行動検出部) DESCRIPTION OF SYMBOLS 100 Driving assistance system, 1 Driving assistance ECU, 2 Perimeter monitoring sensor, 3 Vehicle state sensor, 4 Driver state sensor, 5 Speaker, 6 Display, 7 Input device, 8 Near field communication part, 9 Travel control ECU, F1 Surrounding object information Acquisition unit, F2 risk detection unit, F3 support processing unit, F4 behavior monitoring unit (driver state specifying unit), F5 dependency evaluation unit, F6 support mode adjustment unit (notification mode adjustment unit), F7 near miss determination unit, M1 driver status Storage unit, M2 support parameter storage unit, F31 notification processing unit, F32 vehicle control unit, F41 adaptive operation determination unit, F42 preparation behavior determination unit, F421 visual recognition determination unit, F422 sub-preparation behavior determination unit (sub-preparation behavior detection unit)

Claims (7)

車両の外部環境についての情報を取得する周辺監視センサの出力データに基づいて、前記車両と衝突する可能性がある物体であるリスク対象物を検出するリスク検出部(F2)と、
前記リスク検出部によって検出された前記リスク対象物の存在を示す情報を、支援情報としてドライバに報知する報知処理部(F31)と、
前記ドライバが実施している運転操作の内容を示す情報を出力する操作量センサ、及び、前記ドライバの状態を示す情報を出力するデバイスから入力される信号に基づいて、前記ドライバの状態を逐次特定するドライバ状態特定部(F4)と、
前記ドライバ状態特定部の特定結果に基づいて、前記ドライバが前記支援情報の内容に応じた運転操作である適応操作を実施したか否かを判定する適応操作判定部(F41)と、
前記ドライバ状態特定部の特定結果に基づいて、前記ドライバが前記適応操作を実施するための準備行動を実施したか否かを判定する準備行動判定部(F42)と、
前記適応操作判定部の判定結果及び前記準備行動判定部の判定結果に基づいて、前記ドライバの運転操作を支援する運転支援システムへの依存度を算出する依存度評価部(F5)と、を備えることを特徴とする依存度推定装置。
A risk detection unit (F2) that detects a risk object that is an object that may collide with the vehicle, based on output data of a surrounding monitoring sensor that acquires information about an external environment of the vehicle;
A notification processing unit (F31) that notifies the driver of information indicating the presence of the risk object detected by the risk detection unit as support information;
The driver state is sequentially identified based on an operation amount sensor that outputs information indicating the content of the driving operation performed by the driver and a signal input from a device that outputs information indicating the driver state. A driver state identification unit (F4) to perform,
An adaptive operation determination unit (F41) that determines whether or not the driver has performed an adaptive operation that is a driving operation according to the content of the support information, based on the identification result of the driver state identification unit;
A preparation action determination unit (F42) for determining whether or not the driver has performed a preparation action for performing the adaptive operation based on the identification result of the driver state identification unit;
A dependence evaluation unit (F5) that calculates a dependence on the driving support system that supports the driving operation of the driver based on the determination result of the adaptive operation determination unit and the determination result of the preparation action determination unit. The dependence estimation apparatus characterized by the above.
請求項1において、
前記依存度評価部は、前記ドライバが前記準備行動を実施せずに前記適応操作を実施した場合には、前記ドライバが前記準備行動を実施してから前記適応操作を実施した場合よりも前記依存度を高いレベルに設定することを特徴とする依存度推定装置。
In claim 1,
When the driver performs the adaptive operation without performing the preparation action, the dependency degree evaluation unit is more dependent than the case where the driver performs the adaptive operation after the driver performs the preparation action. A dependency estimation device characterized in that the degree is set to a high level.
請求項1又は2において、
前記準備行動として、前記車両に搭載されている電子機器の操作の中断、同乗者との会話の中断、運転操作に適した姿勢への移行、及び、前記リスク対象物が存在する方向であるリスク存在方向の視認の少なくとも何れか1つが設定されていることを特徴とする依存度推定装置。
In claim 1 or 2,
As the preparatory action, interruption of the operation of the electronic device mounted on the vehicle, interruption of conversation with the passenger, transition to a posture suitable for driving operation, and risk in which the risk object exists A dependence degree estimating device in which at least one of visual recognition of a presence direction is set.
請求項1から3の何れか1項において、
前記リスク検出部は、前記周辺監視センサの出力データに基づいて、前記リスク対象物が存在する方向であるリスク存在方向を特定し、
前記準備行動判定部は、
前記ドライバの顔部を含む領域を撮像するカメラの撮像画像に基づいて、前記リスク存在方向を視認したか否かを判定する視認判定部(F421)と、
前記車両に搭載されている電子機器の操作の中断、同乗者との会話の中断、及び、運転操作に適した姿勢への移行の少なくとも何れか1つをサブ準備行動として検出するサブ準備行動検出部(F422)と、を備え、
前記依存度評価部は、
前記リスク存在方向の視認を実施せず且つ前記サブ準備行動を実施してから前記適応操作を実施した場合の前記依存度を、前記ドライバが前記リスク存在方向を視認してから前記適応操作を実施した場合の前記依存度よりも高いレベルに設定し、
前記ドライバが前記サブ準備行動及び前記リスク存在方向の視認のいずれも実施せずに前記適応操作を実施した場合の前記依存度を、前記リスク存在方向の視認を実施せず且つ前記サブ準備行動を実施してから前記適応操作を実施した場合よりも高いレベルに設定することを特徴とする依存度推定装置。
In any one of Claims 1-3,
The risk detection unit specifies a risk existence direction that is a direction in which the risk object exists based on output data of the surrounding monitoring sensor,
The preparatory action determination unit
A visual recognition determination unit (F421) that determines whether or not the risk existence direction has been visually recognized based on a captured image of a camera that captures an area including the face portion of the driver;
Sub-preparation action detection for detecting at least one of interruption of operation of an electronic device mounted on the vehicle, interruption of conversation with a passenger, and transition to a posture suitable for driving operation as sub-preparation action Part (F422),
The dependence evaluation unit
The dependence when the adaptive operation is performed after performing the sub-preparation action without performing the visual recognition of the risk existence direction is performed, and the adaptive operation is performed after the driver visually recognizes the risk existence direction. Set to a level higher than the dependence on
The dependence when the driver performs the adaptive operation without performing both the sub-preparation action and the risk existence direction visual recognition is determined as follows. A dependency level estimation apparatus that is set to a level higher than that when the adaptive operation is performed after being implemented.
請求項1から4の何れか1項において、
前記リスク検出部は、前記リスク対象物の前記車両に対する相対速度に基づいて、前記リスク対象物と前記車両とが衝突するまでの残り時間である衝突残余時間を逐次算出し、
前記リスク検出部が算出している前記衝突残余時間が所定の閾値以下となった場合には、前記リスク対象物の衝突を回避又は衝突時の衝撃を緩和するための車両制御を実施する車両制御部(F32)を備え、
前記車両制御部による前記車両制御が作動した場合には前記依存度を最も高いレベルに設定することを特徴とする依存度推定装置。
In any one of Claims 1-4,
The risk detection unit sequentially calculates a remaining collision time, which is a remaining time until the risk object collides with the vehicle, based on a relative speed of the risk object with respect to the vehicle,
Vehicle control for implementing vehicle control for avoiding collision of the risk object or mitigating impact at the time of collision when the remaining collision time calculated by the risk detection unit is equal to or less than a predetermined threshold value Part (F32),
The dependence degree estimation device, wherein the dependence degree is set to the highest level when the vehicle control by the vehicle control unit is activated.
請求項1から5の何れか1項において、
前記依存度評価部が設定した前記依存度に基づいて、前記支援情報を報知する態様を調整する報知態様調整部(F6)を備えることを特徴とする依存度推定装置。
In any one of Claim 1 to 5,
A dependency degree estimation apparatus comprising: a notification mode adjustment unit (F6) that adjusts a mode for reporting the support information based on the dependency level set by the dependency level evaluation unit.
請求項6において、
前記報知態様調整部は、前記依存度が高いほど前記支援情報を報知するタイミングを遅くすることを特徴とする依存度推定装置。
In claim 6,
The said notification aspect adjustment part delays the timing which alert | reports the said assistance information, so that the said dependence degree is high, The dependence degree estimation apparatus characterized by the above-mentioned.
JP2017010425A 2017-01-24 2017-01-24 Dependency estimator Active JP6631545B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017010425A JP6631545B2 (en) 2017-01-24 2017-01-24 Dependency estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017010425A JP6631545B2 (en) 2017-01-24 2017-01-24 Dependency estimator

Publications (2)

Publication Number Publication Date
JP2018120352A true JP2018120352A (en) 2018-08-02
JP6631545B2 JP6631545B2 (en) 2020-01-15

Family

ID=63043855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017010425A Active JP6631545B2 (en) 2017-01-24 2017-01-24 Dependency estimator

Country Status (1)

Country Link
JP (1) JP6631545B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11794600B2 (en) 2020-08-20 2023-10-24 Toyota Jidosha Kabushiki Kaisha Vehicle and control method of vehicle
WO2023210175A1 (en) * 2022-04-28 2023-11-02 パイオニア株式会社 Driving assistance device, driving assistance method, and program
WO2024075249A1 (en) * 2022-10-06 2024-04-11 株式会社Subaru Driving assistance device and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1194942A (en) * 1997-09-17 1999-04-09 Nissan Motor Co Ltd Rear-end collision alarm for vehicle
JP2005267112A (en) * 2004-03-17 2005-09-29 Toyota Central Res & Dev Lab Inc Driver state estimating device and information presenting system
US20110261199A1 (en) * 2010-04-27 2011-10-27 GM Global Technology Operations LLC Device and method for detecting a danger situation for a vehicle
JP2016038768A (en) * 2014-08-08 2016-03-22 トヨタ自動車株式会社 Vehicle controller
JP2016141302A (en) * 2015-02-03 2016-08-08 トヨタ自動車株式会社 Control device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1194942A (en) * 1997-09-17 1999-04-09 Nissan Motor Co Ltd Rear-end collision alarm for vehicle
JP2005267112A (en) * 2004-03-17 2005-09-29 Toyota Central Res & Dev Lab Inc Driver state estimating device and information presenting system
US20110261199A1 (en) * 2010-04-27 2011-10-27 GM Global Technology Operations LLC Device and method for detecting a danger situation for a vehicle
JP2016038768A (en) * 2014-08-08 2016-03-22 トヨタ自動車株式会社 Vehicle controller
JP2016141302A (en) * 2015-02-03 2016-08-08 トヨタ自動車株式会社 Control device for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11794600B2 (en) 2020-08-20 2023-10-24 Toyota Jidosha Kabushiki Kaisha Vehicle and control method of vehicle
WO2023210175A1 (en) * 2022-04-28 2023-11-02 パイオニア株式会社 Driving assistance device, driving assistance method, and program
WO2024075249A1 (en) * 2022-10-06 2024-04-11 株式会社Subaru Driving assistance device and recording medium

Also Published As

Publication number Publication date
JP6631545B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
US10723365B2 (en) Driving assistance device
JP6342856B2 (en) Vehicle control device
US10569649B2 (en) In-vehicle control apparatus
CN108028015B (en) Information processing apparatus, information processing method, and storage medium
US9308914B1 (en) Advanced driver assistance system for vehicle
JP7039855B2 (en) Driving support device
WO2016013153A1 (en) Notification system for vehicle, notification control device, and notification device
CN108263379A (en) Pedestrian detection and pedestrian impact preventing mean and method based on pose information
JP2020091790A (en) Automatic operation system
JP7151495B2 (en) Autonomous driving system
JP2009244959A (en) Driving support device and driving support method
JP6631545B2 (en) Dependency estimator
JP2016009251A (en) Control device for vehicle
CN112849157A (en) Information providing system
US20220314982A1 (en) Control device
JP2018163501A (en) Information display device, information display method, and program
JP2007286898A (en) Operation support device and program
JP6428376B2 (en) Information display device
JP2007299050A (en) Operation support device and program
GB2534165A (en) Vehicle interface device
KR102366874B1 (en) Back warning apparatus for older driver and method thereof
JP2005059721A (en) Display device for vehicle
JP2018200701A (en) Vehicle control device
JP7372382B2 (en) Traffic safety support system
JP7372381B2 (en) Traffic safety support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R151 Written notification of patent or utility model registration

Ref document number: 6631545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250