JP2017068672A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2017068672A
JP2017068672A JP2015194781A JP2015194781A JP2017068672A JP 2017068672 A JP2017068672 A JP 2017068672A JP 2015194781 A JP2015194781 A JP 2015194781A JP 2015194781 A JP2015194781 A JP 2015194781A JP 2017068672 A JP2017068672 A JP 2017068672A
Authority
JP
Japan
Prior art keywords
driver
vehicle
processing unit
driving
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015194781A
Other languages
Japanese (ja)
Inventor
亘 野木森
Wataru Nogimori
亘 野木森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2015194781A priority Critical patent/JP2017068672A/en
Priority to EP16850747.3A priority patent/EP3358549A4/en
Priority to US15/758,521 priority patent/US20180257565A1/en
Priority to PCT/JP2016/067560 priority patent/WO2017056570A1/en
Priority to CN201680052628.3A priority patent/CN108028018A/en
Publication of JP2017068672A publication Critical patent/JP2017068672A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To urge a driver to correct his/her driving posture as necessary when surroundings of a vehicle have changed, and to make the driver confirm a change in the surroundings of the vehicle more reliably.SOLUTION: A driving support device according to an embodiment comprises: a recognition processing part for recognizing surroundings of a vehicle; a driving support processing part for performing a driving support control in accordance with the surroundings of the vehicle recognized by the recognition processing part; a detection processing part for detecting information relating to a driver's visual line of the vehicle; and an output processing part. When the surroundings of the vehicle have changed, the output processing part outputs, on the basis of detection results obtained by the detection processing part, a first notification for notifying the driver that the surroundings of the vehicle have changed when the driver's driving postures including the driver's visual line direction have been detected to satisfy a predetermined condition, and a first alarm for alarming the driver that the driving postures do not satisfy the predetermined condition when the driving postures have been detected not to satisfy the predetermined condition.SELECTED DRAWING: Figure 7

Description

本発明の実施形態は、運転支援装置に関する。   Embodiments described herein relate generally to a driving support apparatus.

従来、センサやカメラなどによって認識される車両の周囲の状況に応じた運転支援制御を実行する技術が知られている。このような技術では、実際に車両の周囲の状況が変化したことが正しく認識された場合はもちろん、実際には変化していないにも関わらず車両の周囲の状況が変化したと誤認識される場合もある。そのため、車両の周囲の状況が変化した旨の通知があった場合、運転者は、片手運転やわき見運転などの不適切な運転姿勢をとっている場合にはそれを正し、車両の周囲の状況の変化を確認した上で、注意深く運転を行う必要がある。   2. Description of the Related Art Conventionally, a technique for performing driving support control according to a situation around a vehicle recognized by a sensor or a camera is known. In such a technique, when it is correctly recognized that the situation around the vehicle has actually changed, it is erroneously recognized that the situation around the vehicle has changed even though it has not actually changed. In some cases. Therefore, if there is a notification that the surrounding conditions of the vehicle have changed, the driver corrects any improper driving posture such as one-handed driving or side-by-side driving. It is necessary to drive carefully after confirming the changes in the situation.

特開2003−34205号公報JP 2003-34205 A

上記のような技術では、車両の周囲の状況が変化した場合に、必要に応じて運転姿勢を正すことを運転者に促し、より確実に、運転者に車両の周囲の状況の変化を確認させることが望まれている。   In the technology as described above, when the situation around the vehicle changes, the driver is urged to correct the driving posture as necessary, and the driver is more surely confirmed the change in the situation around the vehicle. It is hoped that.

実施形態による運転支援装置は、車両の周囲の状況を認識する認識処理部と、認識処理部によって認識された車両の周囲の状況に応じて運転支援制御を実行する運転支援処理部と、車両の運転者の視線に関する情報を検出する検出処理部と、車両の周囲の状況が変化した場合に、検出処理部による検出結果に基づき、運転者の視線の向きを含む運転姿勢が所定の条件を満たすことが検出された場合、車両の周囲の状況が変化したことを運転者に通知する第1の通知を出力し、運転姿勢が所定の条件を満たさないことが検出された場合、運転姿勢が所定の条件を満たさないことを運転者に警告する第1の警報を出力する出力処理部とを備える。このような構成により、車両の周囲の状況が変化した場合に、第1の通知と、第1の警報とを用いて、必要に応じて運転姿勢を正すことを運転者に促し、より確実に、運転者に車両の周囲の状況の変化を確認させることができる。   The driving support device according to the embodiment includes a recognition processing unit that recognizes a situation around the vehicle, a driving support processing unit that executes driving support control according to the situation around the vehicle recognized by the recognition processing unit, A detection processing unit that detects information related to the driver's line of sight, and a driving posture including a direction of the driver's line of sight satisfies a predetermined condition based on a detection result by the detection processing unit when a situation around the vehicle changes. Is detected, the first notification is output to notify the driver that the situation around the vehicle has changed, and if it is detected that the driving posture does not satisfy the predetermined condition, the driving posture is predetermined. An output processing unit that outputs a first warning that warns the driver that the above condition is not satisfied. With such a configuration, when the situation around the vehicle changes, the driver is urged to correct the driving posture as necessary using the first notification and the first alarm, and more reliably. The driver can be made to confirm changes in the situation around the vehicle.

また、実施形態による運転支援装置では、運転姿勢が所定の条件を満たすこととは、運転者の視線の向きが正常に検出され、かつ、運転者の視線が車両の進行方向に対して所定の角度範囲内に向いていることである。このような構成により、2つの条件を用いて、運転者がたとえば片手運転やわき見運転などを行っているか否かを容易に判断することができる。   In the driving support device according to the embodiment, the fact that the driving posture satisfies the predetermined condition means that the direction of the driver's line of sight is normally detected, and the driver's line of sight is predetermined with respect to the traveling direction of the vehicle. It is in the angle range. With such a configuration, it is possible to easily determine whether or not the driver is performing, for example, one-handed driving or side-viewing driving using two conditions.

また、実施形態による運転支援装置では、出力処理部は、第1の警報を出力した後においても、運転姿勢が所定の条件を満たさないことが検出された状態が継続する場合、運転姿勢が所定の条件を満たすことが検出されるまで、運転姿勢が所定の条件を満たさないことを運転者に再度警告する第2の警報を繰り返し出力する。このような構成により、第2の警報を用いて、運転姿勢を正すことを運転者により強く促すことができる。   In the driving support device according to the embodiment, the output processing unit determines that the driving posture is predetermined when the state in which the driving posture does not satisfy the predetermined condition continues even after the first alarm is output. Until it is detected that the above condition is satisfied, a second alarm for repeatedly warning the driver that the driving posture does not satisfy the predetermined condition is repeatedly output. With such a configuration, the driver can be more strongly urged to correct the driving posture using the second alarm.

また、実施形態による運転支援装置は、車両の周囲の状況が変化した場合に、車両の周囲の状況の変化を表示部に表示する表示処理部をさらに備え、出力処理部は、第1の通知を出力した後、検出処理部によって運転者の視線が表示部に向いていることが検出されない場合、運転者の視線が表示部に向いていることが検出処理部によって検出されるまで、車両の周囲の状況が変化したことを運転者に再度通知する第2の通知を繰り返し出力する。このような構成により、第2の通知を用いて、より確実に、運転者に車両の周囲の状況の変化を視認させることができる。   The driving support device according to the embodiment further includes a display processing unit that displays a change in the situation around the vehicle on the display unit when the situation around the vehicle changes, and the output processing unit includes the first notification. If the detection processing unit does not detect that the driver's line of sight is facing the display unit, the detection processing unit detects that the driver's line of sight is facing the display unit. The second notification for notifying the driver again that the surrounding situation has changed is repeatedly output. With such a configuration, it is possible to make the driver visually recognize changes in the situation around the vehicle using the second notification.

また、実施形態による運転支援装置は、出力処理部は、音を出力可能な音出力部を用いて、第1の通知または第1の警報を音で出力する。このような構成により、音を用いて、より容易に、必要に応じて運転姿勢を正すことを運転者に促し、運転者に車両の周囲の状況の変化を確認させることができる。   In the driving support device according to the embodiment, the output processing unit outputs the first notification or the first alarm with sound using a sound output unit capable of outputting sound. With such a configuration, it is possible to more easily use the sound to prompt the driver to correct the driving posture as necessary, and to allow the driver to check a change in the situation around the vehicle.

図1は、第1実施形態による車両の車室の一部が透視された状態を示した例示斜視図である。FIG. 1 is an exemplary perspective view showing a state in which a part of a compartment of a vehicle according to the first embodiment is seen through. 図2は、第1実施形態によるインストルメントパネルを示した例示図である。FIG. 2 is an exemplary view showing an instrument panel according to the first embodiment. 図3は、第1実施形態によるインストルメントパネルの表示装置に表示される画像の一例を示した例示図である。FIG. 3 is an exemplary view showing an example of an image displayed on the display device of the instrument panel according to the first embodiment. 図4は、第1実施形態によるインストルメントパネルの表示装置に表示される画像の図3とは異なる他の一例を示した例示図である。FIG. 4 is an exemplary view showing another example different from FIG. 3 of the image displayed on the instrument panel display device according to the first embodiment. 図5は、第1実施形態による撮像装置の配置を示した例示図である。FIG. 5 is an exemplary diagram illustrating an arrangement of the imaging device according to the first embodiment. 図6は、第1実施形態による車両に搭載される運転支援システムの構成を示した例示ブロック図である。FIG. 6 is an exemplary block diagram showing the configuration of the driving support system mounted on the vehicle according to the first embodiment. 図7は、第1実施形態によるECUの機能的構成を示した例示ブロック図である。FIG. 7 is an exemplary block diagram showing a functional configuration of the ECU according to the first embodiment. 図8は、第1実施形態における片手運転を説明するための例示図である。FIG. 8 is an exemplary diagram for explaining one-handed operation in the first embodiment. 図9は、第1実施形態におけるわき見運転を説明するための例示図である。FIG. 9 is an exemplary diagram for explaining a side-view operation in the first embodiment. 図10は、第1実施形態によるECUが実行する処理を示した例示フローチャートである。FIG. 10 is an exemplary flowchart showing a process executed by the ECU according to the first embodiment. 図11は、第2実施形態によるECUが実行する処理を示した例示フローチャートである。FIG. 11 is an exemplary flowchart showing a process executed by the ECU according to the second embodiment. 図12は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の一例を示した例示図である。FIG. 12 is an exemplary diagram showing an example of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図13は、変形例において車両の周囲の状況が変化した後に図12の画像から切り替わって表示される画像を示した例示図である。FIG. 13 is an exemplary diagram showing an image displayed by switching from the image of FIG. 12 after the situation around the vehicle changes in the modified example. 図14は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の図12とは異なる一例を示した例示図である。FIG. 14 is an exemplary diagram showing an example different from FIG. 12 of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図15は、変形例において車両の周囲の状況が変化した後に図14の画像から切り替わって表示される画像を示した例示図である。FIG. 15 is an exemplary diagram showing an image displayed by switching from the image of FIG. 14 after the situation around the vehicle changes in the modified example. 図16は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の図12および図14とは異なる一例を示した例示図である。FIG. 16 is an exemplary diagram showing an example different from FIGS. 12 and 14 of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図17は、変形例において車両の周囲の状況が変化した後に図16の画像から切り替わって表示される画像を示した例示図である。FIG. 17 is an exemplary diagram showing an image displayed by switching from the image of FIG. 16 after the situation around the vehicle changes in the modification. 図18は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の図12、図14および図16とは異なる一例を示した例示図である。FIG. 18 is an exemplary diagram showing an example different from FIGS. 12, 14, and 16 of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図19は、変形例において車両の周囲の状況が変化した後に図18の画像から切り替わって表示される画像を示した例示図である。FIG. 19 is an exemplary diagram showing an image displayed by switching from the image of FIG. 18 after the situation around the vehicle changes in the modified example.

以下、実施形態を図面に基づいて説明する。   Hereinafter, embodiments will be described with reference to the drawings.

(第1実施形態)
まず、図1〜図8を参照して、実施形態による車両1の概略的構成について説明する。
(First embodiment)
First, with reference to FIGS. 1-8, the schematic structure of the vehicle 1 by embodiment is demonstrated.

第1実施形態による車両1は、たとえば、エンジンなどの内燃機関を駆動源とする車両(内燃機関自動車)であってもよいし、モータなどの電動機を駆動源とする車両(電気自動車、燃料電池自動車など)であってもよい。また、車両1は、これらの双方を駆動源とする車両(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品など)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式、数、レイアウトなどは、種々に設定することができる。   The vehicle 1 according to the first embodiment may be, for example, a vehicle (an internal combustion engine automobile) using an internal combustion engine such as an engine as a drive source, or a vehicle (electric vehicle, fuel cell) using an electric motor such as a motor as a drive source. A car). Further, the vehicle 1 may be a vehicle (hybrid vehicle) using both of these as drive sources. In addition, the vehicle 1 can be mounted with various transmissions and various devices (systems, components, etc.) necessary for driving the internal combustion engine and the electric motor. In addition, the method, number, layout, and the like of devices related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に示すように、第1実施形態による車両1は、車体2を備える。車体2は、乗員(不図示)が乗車する車室2aを構成する。車室2a内には、乗員としての運転者(図1には不図示)の座席2bに対応するように、操舵部4や、インストルメントパネル25などが設けられている。操舵部4は、たとえば、ダッシュボード12から突出したステアリングホイール4aである。   As shown in FIG. 1, the vehicle 1 according to the first embodiment includes a vehicle body 2. The vehicle body 2 constitutes a passenger compartment 2a in which an occupant (not shown) gets. In the passenger compartment 2a, a steering unit 4, an instrument panel 25, and the like are provided so as to correspond to a seat 2b of a driver (not shown in FIG. 1) as a passenger. The steering unit 4 is, for example, a steering wheel 4a protruding from the dashboard 12.

図2に示すように、インストルメントパネル25には、スピードメーター25aと、タコメーター25bと、表示装置25cとが設けられている。表示装置25cは、たとえば、液晶ディスプレイや、有機EL(Electroluminescent)ディスプレイなどである。図2の例では、表示装置25cは、インストルメントパネル25の略中央で、スピードメーター25aと、タコメーター25bとの間に位置している。   As shown in FIG. 2, the instrument panel 25 is provided with a speedometer 25a, a tachometer 25b, and a display device 25c. The display device 25c is, for example, a liquid crystal display or an organic EL (Electroluminescent) display. In the example of FIG. 2, the display device 25 c is positioned between the speedometer 25 a and the tachometer 25 b at the approximate center of the instrument panel 25.

第1実施形態では、インストルメントパネル25の表示装置25cに、車両1が実行する運転支援制御に関する情報が表示される。運転支援制御の例としては、たとえば、車両1を自動で前走車に対して追従走行させる追従走行制御が挙げられる。追従走行制御が実行されている場合、表示装置25cには、前走車の有無や、前走車との間の車間距離などの情報が、たとえば図3および図4に示すような態様で表示される。図3は、前走車が存在する場合に表示装置25cに表示される画像IM1の具体例を示した例示図である。この図3の画像IM1には、前走車を示すマークM1が表示されている。図4は、前走車が存在しない場合に表示装置25cに表示される画像IM2の具体例を示した例示図である。この図4の画像IM2には、図3の画像IM1と異なり、前走車を示すマークM1が表示されていない。   In the first embodiment, information related to driving support control executed by the vehicle 1 is displayed on the display device 25c of the instrument panel 25. As an example of the driving support control, for example, follow-up running control that causes the vehicle 1 to automatically follow the preceding vehicle. When the follow-up running control is executed, the display device 25c displays information such as the presence or absence of the preceding vehicle and the distance between the preceding vehicle and the like in the manner shown in FIGS. 3 and 4, for example. Is done. FIG. 3 is an illustrative diagram showing a specific example of an image IM1 displayed on the display device 25c when a preceding vehicle is present. In the image IM1 of FIG. 3, a mark M1 indicating a preceding vehicle is displayed. FIG. 4 is an illustrative diagram showing a specific example of an image IM2 displayed on the display device 25c when there is no preceding vehicle. In the image IM2 in FIG. 4, unlike the image IM1 in FIG. 3, the mark M1 indicating the preceding vehicle is not displayed.

図1に戻り、車室2a内には、上記の表示装置25cとは別の表示装置8と、音声出力装置9とが設けられている。表示装置8は、たとえば、液晶ディスプレイや、有機ELディスプレイなどである。また、音声出力装置9は、たとえば、スピーカである。図1の例では、表示装置8と、音声出力装置9とは、ダッシュボード12の車幅方向(左右方向)の中央部(いわゆるセンターコンソール)に位置するナビゲーション装置11に設けられている。   Returning to FIG. 1, a display device 8 different from the display device 25c and an audio output device 9 are provided in the passenger compartment 2a. The display device 8 is, for example, a liquid crystal display or an organic EL display. Moreover, the audio | voice output apparatus 9 is a speaker, for example. In the example of FIG. 1, the display device 8 and the audio output device 9 are provided in a navigation device 11 that is located at the center (so-called center console) of the dashboard 12 in the vehicle width direction (left-right direction).

第1実施形態では、ナビゲーション装置11の表示装置8に、車両1の走行時に車両1の現在位置や目的地への経路案内などの情報(画像)が表示される。この表示装置8は、タッチパネルなどの操作入力部10を備える。車両1の乗員は、操作入力部10を手指などでタッチすることにより、表示装置8に表示される画像に対して種々の操作入力(指示入力)を実行することができる。なお、ナビゲーション装置11は、スイッチ、ダイヤル、ジョイスティック、押しボタンなどの操作入力部(図示せず)を有することもできる。   In the first embodiment, information (image) such as the current position of the vehicle 1 and route guidance to the destination is displayed on the display device 8 of the navigation device 11 when the vehicle 1 is traveling. The display device 8 includes an operation input unit 10 such as a touch panel. The occupant of the vehicle 1 can execute various operation inputs (instruction inputs) on the image displayed on the display device 8 by touching the operation input unit 10 with fingers or the like. In addition, the navigation apparatus 11 can also have operation input parts (not shown), such as a switch, a dial, a joystick, and a push button.

ここで、第1実施形態では、図5に示すように、ステアリングホイール4aのステアリングコラム4bに、撮像装置201が設置されている。撮像装置201は、たとえば、CCD(Charge Coupled Device)カメラなどである。撮像装置201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角および姿勢が調整されている。この撮像装置201は、座席2bに座った運転者302の顔を撮影し、撮影により得た画像データを順次出力する。なお、撮像装置201は、運転者302の視線を撮影可能な位置に設置されていればよく、たとえば、ナビゲーション装置11が設置されるセンターコンソールや、運転席(座席2b)側のAピラーや、ルームミラーなどに設置されてもよい。   Here, in the first embodiment, as shown in FIG. 5, the imaging device 201 is installed on the steering column 4b of the steering wheel 4a. The imaging device 201 is, for example, a CCD (Charge Coupled Device) camera. The imaging device 201 is adjusted in view angle and posture so that the face of the driver 302 seated on the seat 2b is positioned at the center of the view. The imaging apparatus 201 captures the face of the driver 302 sitting on the seat 2b and sequentially outputs image data obtained by the capturing. In addition, the imaging device 201 should just be installed in the position which can image | photograph the eyes | visual_axis of the driver | operator 302, for example, the center console in which the navigation apparatus 11 is installed, the A pillar by the side of a driver's seat (seat 2b), It may be installed in a room mirror.

次に、図6を参照して、第1実施形態による車両1に搭載される運転支援システム100の構成について説明する。   Next, with reference to FIG. 6, the structure of the driving assistance system 100 mounted in the vehicle 1 by 1st Embodiment is demonstrated.

図6に示すように、運転支援システム100では、ECU14や、ナビゲーション装置11、操舵システム13、測距部16および17などの他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22などが、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。ECU14は、「運転支援装置」の一例である。   As shown in FIG. 6, in the driving support system 100, in addition to the ECU 14, the navigation device 11, the steering system 13, the distance measuring units 16 and 17, the brake system 18, the steering angle sensor 19, the accelerator sensor 20, and the shift sensor 21. The wheel speed sensor 22 and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The ECU 14 is an example of a “driving support device”.

車内ネットワーク23は、たとえば、CAN(Controller Area Network)として構成される。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13のアクチュエータ13aや、ブレーキシステム18のアクチュエータ18aなどを動作させることができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16および17、アクセルセンサ20、シフトセンサ21、車輪速センサ22などの検出結果や、操作入力部10などによる操作信号などを、受け取ることができる。   The in-vehicle network 23 is configured, for example, as a CAN (Controller Area Network). The ECU 14 can operate the actuator 13 a of the steering system 13, the actuator 18 a of the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects detection results of the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the distance measuring units 16 and 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23, An operation signal from the operation input unit 10 can be received.

図6の例では、ECU14は、CPU14a(Central Processing Unit)と、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)と、表示制御部14dと、音声制御部14eと、SSD14f(Solid State Drive、フラッシュメモリ)とを備える。   In the example of FIG. 6, the ECU 14 includes a CPU 14a (Central Processing Unit), a ROM 14b (Read Only Memory), a RAM 14c (Random Access Memory), a display control unit 14d, an audio control unit 14e, and an SSD 14f (Solid State D). Flash memory).

CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14bなどの不揮発性の記憶装置にインストールされたプログラムを読み出し、当該プログラムにしたがって演算処理を実行する。RAM14cは、CPU14aの演算で用いられる各種のデータを一時的に記憶する。   The CPU 14a controls the entire vehicle 1. The CPU 14a reads a program installed in a non-volatile storage device such as the ROM 14b, and executes arithmetic processing according to the program. The RAM 14c temporarily stores various data used in the calculation of the CPU 14a.

表示制御部14dは、ECU14での演算処理のうち、主として、撮像装置15および201で得られる画像データを用いた画像処理や、表示装置8および25cで表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶装置であって、たとえばECU14の電源がオフされた場合でも、データを保持することができる。   The display control unit 14d mainly executes image processing using image data obtained by the imaging devices 15 and 201, synthesis of image data displayed by the display devices 8 and 25c, and the like, among arithmetic processing in the ECU 14. . In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage device, and can retain data even when the power of the ECU 14 is turned off, for example.

第1実施形態では、CPU14aや、ROM14b、RAM14cなどは、同一パッケージ内に集積されうる。また、ECU14では、CPU14aに替えて、DSP(Digital Signal Processor)などの他の論理演算プロセッサや論理回路などが用いられてもよい。また、ECU14では、SSD14fに替えて(またはSSD14fに加えて)、HDD(Hard Disk Drive)が設けられてもよい。なお、SSD14fおよびHDDは、ECU14とは別に設けられてもよい。   In the first embodiment, the CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. In the ECU 14, instead of the CPU 14a, other logical operation processors such as a DSP (Digital Signal Processor), a logic circuit, or the like may be used. The ECU 14 may be provided with an HDD (Hard Disk Drive) instead of the SSD 14f (or in addition to the SSD 14f). Note that the SSD 14f and the HDD may be provided separately from the ECU 14.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

ここで、第1実施形態によるECU14のCPU14aは、運転支援制御の実行時に、ROM14bに格納されたプログラムを実行することで、図7に示すような機能的構成(機能モジュール)をRAM14c上に実現する。   Here, the CPU 14a of the ECU 14 according to the first embodiment executes a program stored in the ROM 14b when executing the driving support control, thereby realizing a functional configuration (functional module) as shown in FIG. 7 on the RAM 14c. To do.

図7に示すように、ECU14は、機能的構成として、認識処理部401と、運転支援処理部402と、表示処理部403と、検出処理部404と、出力処理部405とを備える。   As shown in FIG. 7, the ECU 14 includes a recognition processing unit 401, a driving support processing unit 402, a display processing unit 403, a detection processing unit 404, and an output processing unit 405 as functional configurations.

認識処理部401は、撮像装置15から得られる画像データなどに基づいて、車両1の周囲の状況を認識する。運転支援処理部402は、認識処理部401によって認識された車両1の周囲の状況に応じて運転支援制御を実行する。たとえば、運転支援制御として追従走行制御が実行される場合、認識処理部401は、前走車の有無や、前走車との車間距離などを認識する。以下では、運転支援制御が追従走行制御である場合のみを例に挙げて説明するが、第1実施形態による運転支援制御は、追従走行制御に限られるものではなく、駐車支援制御なども含み得る。また、以下では、簡単化のため、認識処理部401によって認識された車両1の周囲の状況を、認識状況という言葉で表現する。   The recognition processing unit 401 recognizes the situation around the vehicle 1 based on image data obtained from the imaging device 15 and the like. The driving support processing unit 402 performs driving support control according to the situation around the vehicle 1 recognized by the recognition processing unit 401. For example, when the follow-up running control is executed as the driving support control, the recognition processing unit 401 recognizes the presence / absence of the preceding vehicle, the inter-vehicle distance from the preceding vehicle, and the like. In the following, only the case where the driving support control is the following traveling control will be described as an example. However, the driving assistance control according to the first embodiment is not limited to the following traveling control, and may include a parking assistance control and the like. . In the following, for the sake of simplification, the situation around the vehicle 1 recognized by the recognition processing unit 401 is expressed as a recognition situation.

表示処理部403は、認識処理部401による認識状況に応じて、インストルメントパネル25の表示装置25cに表示する画像を制御する。たとえば、前走車が存在していると認識されている場合、表示処理部403は、前走車を示すマークM1を含む画像IM1(図3参照)を表示装置25cに表示する。   The display processing unit 403 controls an image to be displayed on the display device 25 c of the instrument panel 25 according to the recognition status by the recognition processing unit 401. For example, when it is recognized that a preceding vehicle is present, the display processing unit 403 displays an image IM1 (see FIG. 3) including the mark M1 indicating the preceding vehicle on the display device 25c.

ここで、第1実施形態による表示処理部403は、認識処理部401による認識状況が変化した場合に、当該認識状況の変化を、表示装置25cに表示する。認識状況の変化とは、運転支援制御の制御内容が切り替わるトリガとなるような変化である。運転支援制御の一例としての追従走行制御では、たとえば、前走車が存在していると認識された状態から、前走車が存在しないと認識された状態に変化した場合、車両1を自動で加速させるように、制御内容が自動で切り替わる。したがって、第1実施形態による表示処理部403は、追従走行制御の実行時において、前走車が存在していると認識された状態から、前走車が存在しないと認識された状態に変化した場合、表示装置25cに表示する画像を、前走車を示すマークM1を含む画像IM1(図3参照)から、前走車を示すマークM1を含まない画像IM2(図4参照)に切り替える。   Here, when the recognition status by the recognition processing unit 401 changes, the display processing unit 403 according to the first embodiment displays the change in the recognition status on the display device 25c. The change in the recognition status is a change that triggers switching of the control content of the driving support control. In the follow-up running control as an example of the driving support control, for example, when the state in which it is recognized that the preceding vehicle is present is changed to the state in which it is recognized that there is no preceding vehicle, the vehicle 1 is automatically changed. The control contents are automatically switched to accelerate. Therefore, the display processing unit 403 according to the first embodiment has changed from a state where it is recognized that the preceding vehicle is present to a state where it is recognized that there is no preceding vehicle when the following traveling control is executed. In this case, the image displayed on the display device 25c is switched from the image IM1 (see FIG. 3) including the mark M1 indicating the preceding vehicle to the image IM2 (see FIG. 4) not including the mark M1 indicating the preceding vehicle.

検出処理部404は、車両1の運転者302(図5参照)の視線に関する情報を検出する。たとえば、検出処理部404は、撮像装置201から得られる画像データと、SSD14fなどの記憶媒体に予め保存される三次元顔モデルとに基づいて、運転者302の顔をトラッキングしながら、運転者302の顔の向き、目の位置、目が向いている方向(視線方向)、目の動作などを検出する。なお、三次元顔モデルとは、平均的な被験者の三次元顔形状や、被験者の目や口、鼻などの顔部品の位置、被験者の目の形状の変化情報などを含む統計的顔形状モデルである。   The detection processing unit 404 detects information related to the line of sight of the driver 302 of the vehicle 1 (see FIG. 5). For example, the detection processing unit 404 tracks the driver 302's face based on the image data obtained from the imaging device 201 and a three-dimensional face model stored in advance in a storage medium such as the SSD 14f, while driving the driver 302. The direction of the face, the position of the eyes, the direction in which the eyes are facing (line-of-sight direction), the movement of the eyes, and the like are detected. Note that the 3D face model is a statistical face shape model that includes the average 3D face shape of the subject, the position of facial parts such as the subject's eyes, mouth, and nose, and changes in the shape of the subject's eyes. It is.

ところで、上述したように、追従走行制御では、たとえば、前走車が存在していると認識された状態から、前走車が存在しないと認識された状態に変化した場合に、車両1を自動で加速させるように、制御内容が自動で切り替わる。しかしながら、たとえば、実際には前走車が存在するにも関わらず前走車が存在しないと認識された場合など、車両1を自動で加速させるのには不適切な場合も存在する。このような場合、運転者302は、片手運転やわき見運転などの不適切な運転姿勢をとっている場合にはそれを正し、認識処理部401が認識した車両1の周囲の状況を表示装置25cにより視認した上で、車両1の周囲の状況を実際に目視し、車両1を能動的に操作する必要がある。したがって、認識処理部401による認識状況が変化した場合、必要に応じて運転者302に運転姿勢を正す旨の警告を与え、認識状況の変化が発生したことを、より確実に運転者302に通知することが望まれている。   By the way, as described above, in the follow-up traveling control, for example, when the state in which the preceding vehicle is recognized is changed to the state in which the preceding vehicle is not present, the vehicle 1 is automatically The control contents are automatically switched so as to accelerate at. However, there are cases where it is inappropriate to automatically accelerate the vehicle 1, for example, when it is recognized that there is no preceding vehicle even though the preceding vehicle actually exists. In such a case, if the driver 302 takes an inappropriate driving posture such as one-handed driving or side-view driving, the driver 302 corrects it and displays the situation around the vehicle 1 recognized by the recognition processing unit 401. After visually recognizing with 25c, it is necessary to actually observe the surroundings of the vehicle 1 and to actively operate the vehicle 1. Therefore, when the recognition status by the recognition processing unit 401 changes, a warning is given to the driver 302 to correct the driving posture as necessary, and the driver 302 is more surely notified that the recognition status has changed. It is hoped to do.

そこで、第1実施形態による出力処理部405は、認識処理部401による認識状況が変化した場合、検出処理部404の検出結果を監視して、運転者302の視線の向きを含む運転姿勢の適否を判定する。具体的に、出力処理部405は、運転姿勢が所定の条件を満たすことが検出された場合、運転姿勢が適切であると判断し、運転姿勢が所定の条件を満たさないことが検出された場合、運転姿勢が不適切であると判断する。   Therefore, when the recognition status by the recognition processing unit 401 changes, the output processing unit 405 according to the first embodiment monitors the detection result of the detection processing unit 404 and determines whether or not the driving posture includes the direction of the driver's line of sight. Determine. Specifically, when it is detected that the driving posture satisfies a predetermined condition, the output processing unit 405 determines that the driving posture is appropriate and detects that the driving posture does not satisfy the predetermined condition. The driving posture is determined to be inappropriate.

運転姿勢が所定の条件を満たすこととは、たとえば、運転者302の視線の向きが正常に検出され、かつ、運転者302の視線が車両1の進行方向に対して所定の角度範囲内に向いていることである。   That the driving posture satisfies a predetermined condition means that, for example, the direction of the line of sight of the driver 302 is normally detected and the line of sight of the driver 302 is within a predetermined angle range with respect to the traveling direction of the vehicle 1. It is that.

運転者302の視線の向きが正常に検出されるという条件は、運転者302が片手運転を行っているか否かの判断基準となる。上述したように、撮像装置201は、ステアリングコラム4b(図5参照)に設けられている。このため、図8に示すように、運転者302が片手だけでステアリングホイール4aを操作している場合、その片手は撮像装置201の視野を遮るような位置に置かれやすい。したがって、運転者302の視線の向きが正常に検出されない場合には、運転者302が片手運転を行っている可能性が高いと判断できる。   The condition that the direction of the line of sight of the driver 302 is normally detected is a criterion for determining whether or not the driver 302 is driving one hand. As described above, the imaging device 201 is provided on the steering column 4b (see FIG. 5). For this reason, as shown in FIG. 8, when the driver 302 operates the steering wheel 4 a with only one hand, the one hand is likely to be placed at a position that blocks the field of view of the imaging device 201. Therefore, when the direction of the line of sight of the driver 302 is not normally detected, it can be determined that the driver 302 is likely to be driving one hand.

また、運転者302の視線が車両1の進行方向に対して所定の角度範囲内に向いているという条件は、運転者302がわき見運転を行っているか否かの判断基準となる。たとえば、図9に示すように、車両1の進行方向をDとすると、運転者302の視線が方向Dに対して両側に所定の角度θの範囲内に向いている場合、運転者302がわき見運転を行っていないと判断できる。   Further, the condition that the line of sight of the driver 302 is within a predetermined angle range with respect to the traveling direction of the vehicle 1 is a criterion for determining whether or not the driver 302 is performing a side-by-side driving. For example, as illustrated in FIG. 9, when the traveling direction of the vehicle 1 is D, when the line of sight of the driver 302 faces both sides of the direction D within a predetermined angle θ, the driver 302 looks aside. It can be determined that the vehicle is not driving.

なお、上述した運転姿勢に関する所定の条件は、撮像装置201の設置位置に応じて適宜変更される。つまり、撮像装置201がステアリングコラム4b以外のたとえばセンターコンソールなどに設置される場合、運転者302の視線が手で遮られるような状況が発生しにくいため、上述した2つの条件のうち1つ目の条件(運転者302の視線の向きが正常に検出されるという条件)は、他の条件で代替される。他の条件としては、たとえば、ステアリングコラム4bの左右方向の中心位置と運転者302の顔の左右方向の中心位置とが大きくずれているか否か、が考えられる。これらの中心位置が大きくずれている場合、運転者302が不適切な運転姿勢をとっていると判断できる。   Note that the predetermined condition regarding the driving posture described above is appropriately changed according to the installation position of the imaging apparatus 201. In other words, when the imaging device 201 is installed in a center console or the like other than the steering column 4b, it is difficult for a situation in which the driver's 302's line of sight is blocked by hand. The condition (condition that the direction of the line of sight of the driver 302 is normally detected) is replaced with another condition. Another condition is, for example, whether or not the center position in the left-right direction of the steering column 4b and the center position in the left-right direction of the face of the driver 302 are greatly deviated. When these center positions are largely deviated, it can be determined that the driver 302 is taking an inappropriate driving posture.

出力処理部405は、運転者302の運転姿勢が上述した2つの条件を満たさないことが検出された場合、運転姿勢が条件を満たさないことを運転者302に警告する第1の警報を、音声出力装置9を用いて音で出力する。すなわち、出力処理部405は、運転姿勢が条件を満たさないことが検出された場合、運転者302の運転姿勢が不適切であると判断し、第1の警報により、運転姿勢を正すことを運転者302に促す。なお、第1の警報とは、警告のニュアンスを含む音声メッセージやビープ音などである。第1の警報の音量または音声パターンは、たとえば運転者302に多少の不快感を与える程度に調整される。   When it is detected that the driving posture of the driver 302 does not satisfy the two conditions described above, the output processing unit 405 outputs a first warning that warns the driver 302 that the driving posture does not satisfy the conditions. The sound is output using the output device 9. That is, when it is detected that the driving posture does not satisfy the condition, the output processing unit 405 determines that the driving posture of the driver 302 is inappropriate, and determines that the driving posture is corrected by the first alarm. Person 302 is urged. Note that the first alarm is a voice message or a beep sound including a warning nuance. The volume or sound pattern of the first alarm is adjusted, for example, so as to give the driver 302 some discomfort.

また、出力処理部405は、第1の警報を出力した後においても、運転者302の運転生成が上述した2つの条件を満たさないことが検出された状態が継続する場合、運転姿勢が条件を満たさないことを運転者302に再度警告する第2の警報を、音声出力装置9を用いて音で出力する。そして、出力処理部405は、運転姿勢が条件を満たすことが検出されるまで、第2の警報を繰り返し出力する。なお、第2の警報とは、第1の警報よりも強い警告のニュアンスを含む音声メッセージやビープ音などである。第2の警報の音量または音声パターンは、たとえば運転者302に与える不快感が第1の警報よりも大きくなるように調整される。   In addition, the output processing unit 405 determines that the driving posture satisfies the condition when the state in which the driving generation of the driver 302 is detected not to satisfy the two conditions described above continues even after the first alarm is output. A second alarm that warns the driver 302 again that the condition is not satisfied is output by sound using the audio output device 9. Then, the output processing unit 405 repeatedly outputs the second alarm until it is detected that the driving posture satisfies the condition. Note that the second alarm is a voice message or a beep sound including a warning nuance stronger than the first alarm. The volume or sound pattern of the second alarm is adjusted such that, for example, the discomfort given to the driver 302 is greater than that of the first alarm.

このように、出力処理部405は、第2の警報を、第1の警報とは異なる出力形態で出力する。つまり、第2の警報は、第1の警報が運転者302の運転姿勢を正すことができなかった場合の念押しとして出力されるものであるので、第2の警報を第1の警報と同様の出力形態で出力するのでは、運転者302の注意を十分に惹くことができない場合がある。したがって、出力処理部405は、第2の警報を、たとえば、第1の警報よりも大きい音量で出力したり、第1の警報とは異なる音声パターンで(つまり、第1の警報よりも注意喚起力が高い音声パターンで)出力したりする。   Thus, the output processing unit 405 outputs the second alarm in an output form different from that of the first alarm. That is, since the second alarm is output as a precaution when the first alarm cannot correct the driving posture of the driver 302, the second alarm is the same as the first alarm. If the output is output in this manner, the driver's 302 may not be sufficiently attracted. Therefore, the output processing unit 405 outputs the second alarm at a volume higher than that of the first alarm, for example, or with a voice pattern different from that of the first alarm (that is, alerting more than the first alarm). (With a strong voice pattern).

なお、出力処理部405は、運転者302の運転生成が上述した2つの条件を満たすことが検出された場合、運転者302の運転姿勢に問題はないと判断し、音声出力装置9を用いて、認識状況が変化したことのみを運転者302に単に通知する第1の通知を出力する。なお、第1の通知とは、運転者302に表示装置25cの視認を促すための音声メッセージやビープ音であり、第1の警報と異なり、警告のニュアンスを含まない。このため、第1の通知は、第1の警報に比べて、音量が小さく設定されたり、運転者302に与える不快感が小さい音声パターンに設定されたりする。   The output processing unit 405 determines that there is no problem in the driving posture of the driver 302 when it is detected that the driving generation of the driver 302 satisfies the two conditions described above, and the voice output device 9 is used. The first notification that simply notifies the driver 302 that the recognition status has changed is output. The first notification is a voice message or a beep sound that prompts the driver 302 to visually recognize the display device 25c, and does not include a warning nuance unlike the first warning. For this reason, the first notification may be set to a lower volume than the first alarm, or may be set to a voice pattern that causes less discomfort to the driver 302.

次に、図10を参照して、第1実施形態によるECU14が実行する処理を説明する。   Next, a process executed by the ECU 14 according to the first embodiment will be described with reference to FIG.

図10の処理フローでは、まず、S1において、認識処理部401は、車両1の周囲の認識状況が変化したか否かを判断する。このS1の処理は、認識状況が変化したと判断されるまで繰り返される。そして、S1において、認識状況が変化したと判断された場合、S2に処理が進む。   In the processing flow of FIG. 10, first, in S <b> 1, the recognition processing unit 401 determines whether or not the recognition status around the vehicle 1 has changed. The process of S1 is repeated until it is determined that the recognition status has changed. If it is determined in S1 that the recognition status has changed, the process proceeds to S2.

S2において、表示処理部403は、認識状況の変化をインストルメントパネル25の表示装置25cに表示する。そして、S3において、出力処理部405は、検出処理部404による検出結果、すなわち運転者302の視線に関する情報の検出結果を監視する。   In S <b> 2, the display processing unit 403 displays the change in the recognition status on the display device 25 c of the instrument panel 25. In step S <b> 3, the output processing unit 405 monitors the detection result of the detection processing unit 404, that is, the detection result of information related to the driver's 302 line of sight.

S4において、出力処理部405は、S3の監視結果に基づいて、運転者302の視線の向きを含む運転姿勢が所定の条件を満たすことが検出されたか否かを判断する。運転姿勢が所定の条件を満たすこととは、たとえば、運転者302の視線に関する情報が正常に検出され、かつ、運転者302の視線が車両1の進行方向に対して所定角度範囲内の方向を向いていることが検出されることである。これにより、出力処理部405は、運転者302が片手運転やわき見運転などの不適切な運転姿勢をとっているか否かを判定する。   In S4, the output processing unit 405 determines whether or not it is detected that the driving posture including the direction of the line of sight of the driver 302 satisfies a predetermined condition based on the monitoring result in S3. The fact that the driving posture satisfies a predetermined condition means that, for example, information related to the driver's line of sight is normally detected and the driver's line of sight is within a predetermined angle range with respect to the traveling direction of the vehicle 1. It is detected that it is facing. Accordingly, the output processing unit 405 determines whether or not the driver 302 is taking an inappropriate driving posture such as one-handed driving or side-view driving.

S4において、運転姿勢が所定の条件を満たさないことが検出された場合、運転者302の運転姿勢が不適切であると判断できるので、運転姿勢を正すことを運転者302に促す必要がある。そこで、S5において、出力処理部405は、運転姿勢が所定の条件を満たさないことを運転者302に警告する第1の警報を、音声出力装置9を介して音で出力する。そして、S6において、出力処理部405は、運転姿勢が所定の条件を満たさない状態が継続しているか否かを判断する。   In S4, when it is detected that the driving posture does not satisfy the predetermined condition, it can be determined that the driving posture of the driver 302 is inappropriate. Therefore, it is necessary to prompt the driver 302 to correct the driving posture. Therefore, in S5, the output processing unit 405 outputs a first warning that warns the driver 302 that the driving posture does not satisfy the predetermined condition via sound output device 9. In step S6, the output processing unit 405 determines whether or not the state where the driving posture does not satisfy the predetermined condition continues.

S6において、運転姿勢が所定の条件を満たさない状態が継続していると判断された場合、すなわち第1の警報を出力したにも関わらず運転者302の運転姿勢が改善されない場合には、運転姿勢を正すことを運転者302により強く促す必要がある。そこで、S7において、出力処理部405は、運転姿勢が所定の条件を満たさないことを運転者302に再度警告する第2の警報を、音声出力装置9を介して音で出力する。たとえば、出力処理部405は、第2の警報を、第1の警報よりも大きい音量で出力したり、第1の警報とは異なる音声パターンで出力したりする。そして、S6に処理が戻る。   In S6, when it is determined that the driving posture does not satisfy the predetermined condition, that is, when the driving posture of the driver 302 is not improved despite the output of the first alarm, the driving is performed. It is necessary to strongly encourage the driver 302 to correct the posture. Therefore, in S <b> 7, the output processing unit 405 outputs a second alarm that warns the driver 302 again that the driving posture does not satisfy a predetermined condition via sound output device 9. For example, the output processing unit 405 outputs the second alarm at a volume higher than that of the first alarm, or outputs the second alarm with a voice pattern different from that of the first alarm. Then, the process returns to S6.

一方、S6において、運転姿勢が所定の条件を満たさない状態が継続していないと判断された場合には、運転者302の運転姿勢が第1の警報に従って改善されたと判断できる。したがって、この場合、第2の警報の出力は行われずに、そのまま処理が終了する。   On the other hand, when it is determined in S6 that the driving posture does not satisfy the predetermined condition, it can be determined that the driving posture of the driver 302 has been improved according to the first alarm. Therefore, in this case, the second alarm is not output, and the process ends as it is.

ところで、S4において、運転姿勢が所定の条件を満たすと判断された場合、運転者302が片手運転やわき見運転などを行っていないと判断できるので、運転者302に運転姿勢を正す旨の警告を行う必要はない。そこで、S8において、出力処理部405は、認識状況が変化したことを通知する第1の通知を、音声出力装置9を介して音で出力する。そして、処理が終了する。   By the way, if it is determined in S4 that the driving posture satisfies the predetermined condition, it can be determined that the driver 302 is not performing one-handed driving or side-view driving, so a warning that the driving posture is corrected is given to the driver 302. There is no need to do it. Therefore, in S8, the output processing unit 405 outputs a first notification for notifying that the recognition status has changed via the audio output device 9 as a sound. Then, the process ends.

以上説明したように、第1実施形態による出力処理部405は、車両1の周囲の認識状況が変化した場合に、検出処理部404による検出結果を監視する。そして、出力処理部405は、運転者302の視線の向きを含む運転姿勢が所定の条件を満たすことが検出された場合、認識状況が変化したことを運転者302に通知する第1の通知を出力し、運転姿勢が所定の条件を満たさないことが検出された場合、運転姿勢が所定の条件を満たさないことを運転者302に警告する第1の警報を出力する。これにより、認識状況が変化した場合に、第1の通知と、第1の警報とを用いて、必要に応じて運転姿勢を正すことを運転者302に促し、より確実に、運転者302に認識状況の変化を確認させることができる。   As described above, the output processing unit 405 according to the first embodiment monitors the detection result by the detection processing unit 404 when the recognition state around the vehicle 1 changes. Then, when it is detected that the driving posture including the direction of the line of sight of the driver 302 satisfies the predetermined condition, the output processing unit 405 provides a first notification that notifies the driver 302 that the recognition status has changed. When it is detected that the driving posture does not satisfy the predetermined condition, a first warning is output to warn the driver 302 that the driving posture does not satisfy the predetermined condition. Thereby, when the recognition situation changes, the driver 302 is urged to correct the driving posture as necessary using the first notification and the first alarm, and the driver 302 is more reliably notified. Changes in recognition status can be confirmed.

また、第1実施形態において、運転姿勢が所定の条件を満たすこととは、運転者302の視線の向きが正常に検出され、かつ、運転者302の視線が車両1の進行方向に対して所定の角度範囲内に向いていることである。これにより、2つの条件を用いて、運転者302がたとえば片手運転やわき見運転などを行っているか否かを容易に判断することができる。   In the first embodiment, the condition that the driving posture satisfies the predetermined condition means that the direction of the line of sight of the driver 302 is normally detected and the line of sight of the driver 302 is predetermined with respect to the traveling direction of the vehicle 1. It is in the angle range. Thereby, it is possible to easily determine whether or not the driver 302 is performing, for example, one-hand driving or side-view driving using two conditions.

また、第1実施形態による出力処理部405は、第1の警報を出力した後においても、運転姿勢が所定の条件を満たさないことが検出された状態が継続する場合、運転姿勢が所定の条件を満たすことが検出されるまで、運転姿勢が所定の条件を満たさないことを運転者302に再度警告する第2の警報を繰り返し出力する。これにより、第2の警報を用いて、運転姿勢を正すことを運転者302により強く促すことができる。   In addition, the output processing unit 405 according to the first embodiment is configured so that, even after the first alarm is output, when the state in which it is detected that the driving posture does not satisfy the predetermined condition continues, the driving posture is the predetermined condition. A second alarm that warns the driver 302 again that the driving posture does not satisfy the predetermined condition is repeatedly output until it is detected that the condition is satisfied. As a result, the driver 302 can be strongly encouraged to correct the driving posture using the second alarm.

また、第1実施形態による出力処理部405は、音声を出力可能な音声出力装置9を用いて、第1の通知または第1の警報を音で出力する。これにより、音声を用いて、より容易に、必要に応じて運転姿勢を正すことを運転者302に促し、運転者302に認識状況の変化を確認させることができる。   Further, the output processing unit 405 according to the first embodiment outputs the first notification or the first alarm with sound using the sound output device 9 capable of outputting sound. Thereby, it is possible to prompt the driver 302 to correct the driving posture as needed more easily using voice, and to allow the driver 302 to check the change in the recognition status.

(第2実施形態)
次に、図7を参照して、第2実施形態によるECU214の構成について説明する。この第2実施形態では、運転者302の運転姿勢が適切な場合に出力される認識状況が変化したことの通知が第1の通知によって1回だけしか行われない第1実施形態と異なり、認識状況が変化したことの通知が第1の通知と第2の通知とによって2回以上行われうる。
(Second Embodiment)
Next, the configuration of the ECU 214 according to the second embodiment will be described with reference to FIG. In the second embodiment, unlike the first embodiment in which the notification that the recognition status output when the driving posture of the driver 302 is appropriate is changed only once by the first notification, the recognition is performed. The notification that the situation has changed can be performed more than once by the first notification and the second notification.

第2実施形態による出力処理部2405は、認識状況が変化したことを運転者302に通知する第1の通知を出力した後、運転者302の視線が表示装置25cに向いているか否かを判断し、運転者302が第1の通知に従って表示装置25cを視認したか否かを判断する。そして、出力処理部2405は、運転者302の視線が表示装置25cに向いていることが検出されない場合に、認識状況が変化したことを運転者302に再度通知する第2の通知を出力する。そして、出力処理部2405は、運転者302の視線が表示装置25cに向いていることが検出されるまで、第2の通知を繰り返し出力する。   The output processing unit 2405 according to the second embodiment determines whether or not the line of sight of the driver 302 is facing the display device 25c after outputting the first notification that notifies the driver 302 that the recognition status has changed. Then, it is determined whether or not the driver 302 visually recognizes the display device 25c according to the first notification. Then, the output processing unit 2405 outputs a second notification that notifies the driver 302 again that the recognition status has changed when it is not detected that the line of sight of the driver 302 is facing the display device 25c. Then, the output processing unit 2405 repeatedly outputs the second notification until it is detected that the line of sight of the driver 302 is facing the display device 25c.

第1の通知は、運転者302に表示装置25cの視認を促す音声メッセージやビープ音などである。また、第2の通知は、運転者302に表示装置25cの視認をより強く促す音声メッセージやビープ音などである。このように、出力処理部2405は、第2の通知を、第1の通知とは異なる出力形態で出力する。つまり、第2の通知は、第1の通知が運転者302の視線を表示装置25cに向けさせることができなかった場合の念押しとして出力されるものであるので、第2の通知を第1の通知と同様の出力形態で出力するのでは、運転者302の注意を十分に惹くことができない場合がある。したがって、出力処理部2405は、第2の通知を、たとえば、第1の通知よりも大きい音量で出力したり、第1の通知とは異なる音声パターンで(つまり、第1の通知よりも注意喚起力が高い音声パターンで)出力したりする。   The first notification is a voice message or a beep sound that prompts the driver 302 to view the display device 25c. The second notification is a voice message or a beep sound that prompts the driver 302 to visually recognize the display device 25c. As described above, the output processing unit 2405 outputs the second notification in an output form different from that of the first notification. In other words, the second notification is output as a precaution when the first notification fails to direct the driver 302's line of sight toward the display device 25c. If the output is performed in the same output form as the notification, the driver 302 may not be able to attract the attention of the driver 302 sufficiently. Accordingly, the output processing unit 2405 outputs the second notification at a volume higher than that of the first notification, for example, or with a voice pattern different from that of the first notification (that is, alerting more than the first notification). (With a strong voice pattern).

なお、第2実施形態のその他の構成は、上述した第1実施形態と同様であるため、ここでは説明を省略する。   In addition, since the other structure of 2nd Embodiment is the same as that of 1st Embodiment mentioned above, description is abbreviate | omitted here.

次に、図11を参照して、第2実施形態によるECU214が実行する処理について説明する。第2実施形態では、上述した第1実施形態(図10参照)と同様のS1〜S8の処理が実行される。第1実施形態では、第1の警報の出力後に運転姿勢が所定の条件を満たさない状態が継続しないと判断された場合(S6;No)および第1の通知が出力された場合(S8)に、処理が終了したが、第2実施形態では、第1実施形態と異なり、第1の警報の出力後に運転姿勢が所定の条件を満たさない状態が継続しないと判断された後(S6;No)および第1の通知が出力された場合(S8)に、S19に処理が進む。   Next, a process executed by the ECU 214 according to the second embodiment will be described with reference to FIG. In 2nd Embodiment, the process of S1-S8 similar to 1st Embodiment mentioned above (refer FIG. 10) is performed. In the first embodiment, when it is determined that the driving posture does not satisfy the predetermined condition after the first warning is output (S6; No) and when the first notification is output (S8). In the second embodiment, after the first warning is output, it is determined that the state in which the driving posture does not satisfy the predetermined condition does not continue (S6; No). If the first notification is output (S8), the process proceeds to S19.

S19において、出力処理部2405は、運転者302の視線がインストルメントパネル25の表示装置25cに向いていることが検出されたか否かを判断する。   In S <b> 19, the output processing unit 2405 determines whether or not it has been detected that the line of sight of the driver 302 is facing the display device 25 c of the instrument panel 25.

S19において、運転者302の視線が表示装置25cに向いていることが検出された場合、運転者302が表示装置25cを視認したと推定できるので、これ以上運転者302に表示装置25cを視認するように促す必要がなくなり、処理が終了する。しかしながら、S19において、運転者302の視線が表示装置25cに向いていることが検出されない場合、運転者302に表示装置25cを視認するように再度促す必要がある。   In S19, when it is detected that the driver's line of sight is directed to the display device 25c, it can be estimated that the driver 302 has visually recognized the display device 25c, so that the driver 302 can further visually recognize the display device 25c. There is no need to prompt the user to complete the process. However, in S19, when it is not detected that the driver's 302 is looking toward the display device 25c, it is necessary to prompt the driver 302 to view the display device 25c again.

そこで、S20において、出力処理部2405は、認識状況が変化したことを運転者302に再度通知する第2の通知を、音声出力装置9を介して音で出力する。出力処理部2405は、運転者302に表示装置25cの視認をより強く促すために、第2の通知を、S8で出力した第1の通知とは異なる出力形態で出力する。たとえば、出力処理部2405は、第2の通知を、第1の通知よりも大きい音量で出力したり、第1の通知とは異なる音声パターンで出力したりする。そして、S19に処理が戻る。   Therefore, in S20, the output processing unit 2405 outputs, via sound, the second notification that notifies the driver 302 again that the recognition status has changed via the sound output device 9. The output processing unit 2405 outputs the second notification in an output form different from the first notification output in S8 in order to further encourage the driver 302 to visually recognize the display device 25c. For example, the output processing unit 2405 outputs the second notification at a volume higher than that of the first notification, or outputs the second notification with a voice pattern different from that of the first notification. Then, the process returns to S19.

なお、図11には、ECU214が実行する処理フローの一例として、S6において運転姿勢が所定の条件を満たさない状態が継続しないと判断された場合に、S19に処理が進む処理フローを例示した。しかしながら、他の例として、S6において運転姿勢が所定の条件を満たさない状態が継続しないと判断された場合に、S8に処理が進む処理フローがECU214によって実行されてもよい。   FIG. 11 exemplifies a processing flow in which the process proceeds to S19 when it is determined in S6 that the driving posture does not satisfy the predetermined condition does not continue as an example of the processing flow executed by the ECU 214. However, as another example, if it is determined in S6 that the driving posture does not satisfy the predetermined condition, the ECU 214 may execute a processing flow in which the processing proceeds to S8.

以上説明したように、第2実施形態による出力処理部2405は、第1の通知を出力した後、運転者302の視線が表示装置25cに向いていることが検出されない場合、運転者302の視線が表示装置25cに向いていることが検出されるまで、認識状況が変化したことを運転者302に再度通知する第2の通知を繰り返し出力する。これにより、第2の通知を用いて、より確実に、運転者に認識状況の変化を視認させることができる。   As described above, the output processing unit 2405 according to the second embodiment outputs the first notification, and if it is not detected that the driver's 302 is looking toward the display device 25c, the driver 302's Until the display device 25c is detected, the second notification for re-notifying the driver 302 that the recognition status has changed is repeatedly output. Thereby, a driver | operator can be made to visually recognize the change of recognition condition more reliably using a 2nd notification.

なお、第2実施形態のその他の効果は、第1実施形態と同様であるため、ここでは説明を省略する。   In addition, since the other effect of 2nd Embodiment is the same as that of 1st Embodiment, description is abbreviate | omitted here.

(変形例)
上述した実施形態では、図7の各モジュールが、ソフトウェア(コンピュータプログラム)とハードウェア(CPU14a)との協働により実現される例を示した。しかしながら、図7の各モジュールは、ハードウェアのみによって実現されてもよい。つまり、実施形態では、図7の各モジュールに対応する専用のハードウェア(回路)が設けられてもよい。
(Modification)
In the embodiment described above, an example in which each module in FIG. 7 is realized by cooperation of software (computer program) and hardware (CPU 14a) has been described. However, each module in FIG. 7 may be realized only by hardware. That is, in the embodiment, dedicated hardware (circuit) corresponding to each module in FIG. 7 may be provided.

また、上述した実施形態では、運転者302の視線に基づいて制御を実行する例を示したが、視線の代わりに顔の向きを用いてもよい。   In the above-described embodiment, an example is shown in which control is executed based on the line of sight of the driver 302, but the face orientation may be used instead of the line of sight.

また、上述した実施形態では、第1の警報、第2の警報、第1の通知および第2の通知が、音声出力装置9から音声として出力される例を示した。しかしながら、第1の警報、第2の警報、第1の通知および第2の通知は、光や振動などとして出力されてもよい。また、第1の警報、第2の警報、第1の通知および第2の通知は、ナビゲーション装置11の表示装置8などに画像として出力されてもよい。また、第1の警報、第2の警報、第1の通知および第2の通知は、ナビゲーション装置11に設けられる音声出力装置9以外の他のスピーカ装置などから出力されてもよい。   Further, in the above-described embodiment, the example in which the first alarm, the second alarm, the first notification, and the second notification are output from the audio output device 9 as audio is shown. However, the first alarm, the second alarm, the first notification, and the second notification may be output as light or vibration. The first alarm, the second alarm, the first notification, and the second notification may be output as images on the display device 8 of the navigation device 11 or the like. The first alarm, the second alarm, the first notification, and the second notification may be output from a speaker device other than the audio output device 9 provided in the navigation device 11.

また、上述した実施形態では、運転支援制御の一例としての追従走行制御が実行される場合の処理を主として説明した。しかしながら、以下に説明するように、運転支援制御の他の一例としての駐車支援制御が実行される場合においても、認識状況の変化を運転者302に確認させたい状況が存在する。たとえば、駐車開始時には認識されていなかった注意対象物が途中で新たに認識された場合や、逆に、駐車開始時において既に認識されていた注意対象物が途中で認識されなくなった場合などには、車両の周囲の状況の変化を運転者302に確認させる必要がある。以下、図12〜図19を参照して、駐車支援制御における認識状況の変化および当該変化が発生した場合に実行される処理についてより具体的に説明する。   In the above-described embodiment, the processing in the case where the follow-up running control as an example of the driving support control is executed has been mainly described. However, as will be described below, even when parking assistance control as another example of driving assistance control is executed, there is a situation in which the driver 302 wants to confirm a change in the recognition situation. For example, if a cautionary object that was not recognized at the start of parking is newly recognized in the middle, or conversely, a cautionary object that has already been recognized at the start of parking is no longer recognized in the middle It is necessary for the driver 302 to check the change in the situation around the vehicle. Hereinafter, with reference to FIGS. 12-19, the change of the recognition condition in parking assistance control and the process performed when the said change generate | occur | produces are demonstrated more concretely.

図12〜図15は、駐車支援制御の実行時にナビゲーション装置11の表示装置8に表示される駐車支援画像の一例として、車両1の周囲の状況(駐車場所の周辺の状況)を俯瞰で見た駐車支援画像を示している。また、図16〜図19は、駐車支援画像の他の例として、車両1の周囲の状況(駐車場所の周辺の状況)を車両1の後方の視野で見た駐車支援画像を示している。なお、図12〜図15に例示した俯瞰の駐車支援画像には、車両1に対応するマークM2が表示されている。   12 to 15 are a bird's-eye view of a situation around the vehicle 1 (a situation around a parking place) as an example of a parking assistance image displayed on the display device 8 of the navigation device 11 when the parking assistance control is executed. A parking assistance image is shown. 16 to 19 show parking assistance images obtained by viewing the surroundings of the vehicle 1 (the surroundings of the parking place) in the field of view behind the vehicle 1 as other examples of parking assistance images. In addition, the mark M2 corresponding to the vehicle 1 is displayed in the overhead parking assistance image illustrated in FIGS.

図12および図13は、駐車開始時には認識されていなかった注意対象物が途中で新たに認識された場合における俯瞰の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物としての他の車両が新たに認識されることにより、駐車開始時の画像IM3(図12参照)が、新たに認識された他の車両を示すマークM3を含む画像IM4(図13参照)に切り替わっている。   FIG. 12 and FIG. 13 show specific examples of changes in the overhead parking assistance image when a cautionary object that has not been recognized at the start of parking is newly recognized on the way. In this specific example, an image IM3 (see FIG. 12) at the start of parking includes a mark M3 indicating another newly recognized vehicle by newly recognizing another vehicle as the attention object. It is switched to IM4 (see FIG. 13).

また、図14および図15は、駐車開始時において既に認識されていた注意対象物が途中で認識されなくなった場合における俯瞰の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物として既に認識されていた人間が途中で認識されなくなることにより、認識済の人間を示すマークM4を含む駐車開始時の画像IM5(図12参照)が、マークM4を含まない画像IM6(図13参照)に切り替わっている。   14 and 15 show a specific example of a change in the overhead parking assistance image when the attention object that has already been recognized at the start of parking is no longer recognized in the middle. In this specific example, when a person who has already been recognized as a target object is no longer recognized in the middle, the image IM5 at the start of parking including the mark M4 indicating the recognized person (see FIG. 12) displays the mark M4. It is switched to the image IM6 (see FIG. 13) that is not included.

また、図16および図17は、駐車開始時には認識されていなかった注意対象物が途中で新たに認識された場合における後方視野の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物としての人間が新たに認識されることにより、駐車開始時の画像IM7(図16参照)が、新たに認識された人間を示すマークM5を含む画像IM8(図17参照)に切り替わっている。   FIGS. 16 and 17 show specific examples of changes in the parking assistance image in the rear visual field when a cautionary object that has not been recognized at the start of parking is newly recognized in the middle. In this specific example, when a person as a cautionary object is newly recognized, an image IM7 (see FIG. 16) at the start of parking includes an image IM8 (FIG. 17) including a mark M5 indicating the newly recognized person. To see).

また、図18および図19は、駐車開始時において既に認識されていた注意対象物が途中で認識されなくなった場合における後方視野の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物として既に認識されていた他の車両が途中で認識されなくなることにより、認識済の他の車両を示すマークM6を含む駐車開始時の画像IM9(図18参照)が、マークM6を含まない画像IM10(図19参照)に切り替わっている。   FIG. 18 and FIG. 19 show specific examples of changes in the parking assistance image in the rear view when the attention object that has already been recognized at the start of parking is no longer recognized in the middle. In this specific example, an image IM9 (see FIG. 18) at the start of parking including a mark M6 indicating another recognized vehicle is detected when another vehicle that has already been recognized as the attention object is not recognized. , The image IM10 does not include the mark M6 (see FIG. 19).

上述のように認識状況の変化に伴って駐車支援画像が切り替わる場合、当該認識状況の変化を運転者302に通知し、注意対象物の有無を確認させる必要がある。したがって、駐車支援制御の実行時に認識状況が変化した場合でも、追従走行制御の実行時に認識状況が変化した場合と同様に、第1の通知や第2の通知などが出力される。なお、駐車支援制御の実行時においては、運転者302の視線が表示装置8(上述した画像IM3〜IM10)を視認したことが検出されたことの他に、運転者302の視線が注意対象物を向いたことを、第1の通知や第2の通知などの出力を停止する条件に設定してもよい。たとえば、図13の例では、マークM3で示される他の車両が位置すると考えられる方向(つまり車両1の右後方)に運転者302の視線が向いたことが検出された場合に第1の通知や第2の通知などの出力が停止されるように条件設定が行われてよい。同様に、図17の例では、マークM5で示される人間が位置すると考えられる方向(つまり車両1の左後方)に運転者302の視線が向いたことが検出された場合に第1の通知や第2の通知などの出力が停止されるように条件設定が行われてよい。このような条件設定を行えば、より確実に、運転者302に注意対象物の有無を確認させることができる。   As described above, when the parking assistance image is switched in accordance with the change in the recognition state, it is necessary to notify the driver 302 of the change in the recognition state and to confirm the presence or absence of the attention object. Therefore, even when the recognition status changes during the execution of the parking assistance control, the first notification, the second notification, and the like are output as in the case where the recognition status changes during the execution of the follow-up travel control. It should be noted that at the time of executing the parking assist control, in addition to detecting that the driver's line of sight has visually recognized the display device 8 (the above-described images IM3 to IM10), the driver's 302 has a line of sight. May be set as a condition for stopping the output of the first notification, the second notification, or the like. For example, in the example of FIG. 13, the first notification is made when it is detected that the line of sight of the driver 302 is directed in a direction in which another vehicle indicated by the mark M3 is considered to be located (that is, right rear of the vehicle 1). The condition may be set such that the output of the second notification or the like is stopped. Similarly, in the example of FIG. 17, when it is detected that the line of sight of the driver 302 is directed in the direction in which the person indicated by the mark M5 is supposed to be located (that is, the left rear of the vehicle 1), Condition setting may be performed so that output of the second notification or the like is stopped. If such condition setting is performed, the driver 302 can be more surely checked for the presence or absence of the target object.

以上、本発明の実施形態および変形例を説明したが、上述した実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上述した実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment and the modification of this invention were described, embodiment and the modification which were mentioned above are an example to the last, Comprising: It is not intending limiting the range of invention. The above-described embodiments and modifications can be implemented in various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The above-described embodiments and modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 車両
9 音声出力装置
14、214 ECU(運転支援装置)
25c 表示装置
401 認識処理部
402 運転支援処理部
403 表示処理部
404 検出処理部
405、2405 出力処理部
1 Vehicle 9 Audio Output Device 14, 214 ECU (Driving Support Device)
25c display device 401 recognition processing unit 402 driving support processing unit 403 display processing unit 404 detection processing unit 405, 2405 output processing unit

Claims (5)

車両の周囲の状況を認識する認識処理部と、
前記認識処理部によって認識された前記車両の周囲の状況に応じて運転支援制御を実行する運転支援処理部と、
前記車両の運転者の視線に関する情報を検出する検出処理部と、
前記車両の周囲の状況が変化した場合に、前記検出処理部による検出結果に基づき、前記運転者の視線の向きを含む運転姿勢が所定の条件を満たすことが検出された場合、前記車両の周囲の状況が変化したことを前記運転者に通知する第1の通知を出力し、前記運転姿勢が前記所定の条件を満たさないことが検出された場合、前記運転姿勢が前記所定の条件を満たさないことを前記運転者に警告する第1の警報を出力する出力処理部とを備える、運転支援装置。
A recognition processor that recognizes the situation around the vehicle;
A driving support processing unit that executes driving support control according to a situation around the vehicle recognized by the recognition processing unit;
A detection processing unit for detecting information related to the line of sight of the driver of the vehicle;
When the situation around the vehicle changes, based on the detection result by the detection processing unit, when it is detected that the driving posture including the driver's line of sight satisfies a predetermined condition, A first notification for notifying the driver that the situation has changed, and if it is detected that the driving posture does not satisfy the predetermined condition, the driving posture does not satisfy the predetermined condition An output processing unit that outputs a first warning that warns the driver of this.
前記運転姿勢が前記所定の条件を満たすこととは、前記運転者の視線の向きが正常に検出され、かつ、前記運転者の視線が前記車両の進行方向に対して所定の角度範囲内に向いていることである、請求項1に記載の運転支援装置。   That the driving posture satisfies the predetermined condition means that the direction of the driver's line of sight is normally detected and the driver's line of sight is within a predetermined angle range with respect to the traveling direction of the vehicle. The driving support device according to claim 1, wherein 前記出力処理部は、前記第1の警報を出力した後においても、前記運転姿勢が前記所定の条件を満たさないことが検出された状態が継続する場合、前記運転姿勢が前記所定の条件を満たすことが検出されるまで、前記運転姿勢が前記所定の条件を満たさないことを前記運転者に再度警告する第2の警報を繰り返し出力する、請求項1または2に記載の運転支援装置。   If the state where it is detected that the driving posture does not satisfy the predetermined condition continues even after the output processing unit outputs the first alarm, the driving posture satisfies the predetermined condition. 3. The driving support device according to claim 1, wherein a second alarm that repeatedly warns the driver that the driving posture does not satisfy the predetermined condition is repeatedly output until detection is made. 前記車両の周囲の状況が変化した場合に、前記車両の周囲の状況の変化を表示部に表示する表示処理部をさらに備え、
前記出力処理部は、前記第1の通知を出力した後、前記検出処理部によって前記運転者の視線が前記表示部に向いていることが検出されない場合、前記運転者の視線が前記表示部に向いていることが前記検出処理部によって検出されるまで、前記車両の周囲の状況が変化したことを前記運転者に再度通知する第2の通知を繰り返し出力する、請求項1〜3のいずれか1項に記載の運転支援装置。
A display processing unit for displaying a change in the situation around the vehicle on a display unit when the situation around the vehicle changes;
After the output processing unit outputs the first notification, when the detection processing unit does not detect that the driver's line of sight is facing the display unit, the driver's line of sight is displayed on the display unit. The second notification that repeatedly notifies the driver that the situation around the vehicle has changed is repeatedly output until the detection processing unit detects that the vehicle is facing. The driving support device according to Item 1.
前記出力処理部は、音を出力可能な音出力部を用いて、前記第1の通知または前記第1の警報を音で出力する、請求項1〜4のいずれか1項に記載の運転支援装置。   The driving support according to any one of claims 1 to 4, wherein the output processing unit outputs the first notification or the first alarm by sound using a sound output unit capable of outputting sound. apparatus.
JP2015194781A 2015-09-30 2015-09-30 Driving support device Pending JP2017068672A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015194781A JP2017068672A (en) 2015-09-30 2015-09-30 Driving support device
EP16850747.3A EP3358549A4 (en) 2015-09-30 2016-06-13 Driving support device
US15/758,521 US20180257565A1 (en) 2015-09-30 2016-06-13 Drive assist apparatus
PCT/JP2016/067560 WO2017056570A1 (en) 2015-09-30 2016-06-13 Driving support device
CN201680052628.3A CN108028018A (en) 2015-09-30 2016-06-13 Drive assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015194781A JP2017068672A (en) 2015-09-30 2015-09-30 Driving support device

Publications (1)

Publication Number Publication Date
JP2017068672A true JP2017068672A (en) 2017-04-06

Family

ID=58494933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015194781A Pending JP2017068672A (en) 2015-09-30 2015-09-30 Driving support device

Country Status (1)

Country Link
JP (1) JP2017068672A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067242A (en) * 2017-10-03 2019-04-25 マツダ株式会社 Driving assistance device
JP2020095421A (en) * 2018-12-12 2020-06-18 学校法人早稲田大学 Information presentation system, and information presentation processor and program of the same
JP7342799B2 (en) 2020-06-09 2023-09-12 株式会社デンソー Occupant monitoring device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0761257A (en) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd Display device for vehicle
JPH10166895A (en) * 1996-12-09 1998-06-23 Mitsubishi Electric Corp Follow-up traveling controller for vehicle
JP2007230369A (en) * 2006-03-01 2007-09-13 Toyota Motor Corp On-vehicle apparatus adjusting device
JP2010186227A (en) * 2009-02-10 2010-08-26 Honda Motor Co Ltd Warning device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0761257A (en) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd Display device for vehicle
JPH10166895A (en) * 1996-12-09 1998-06-23 Mitsubishi Electric Corp Follow-up traveling controller for vehicle
JP2007230369A (en) * 2006-03-01 2007-09-13 Toyota Motor Corp On-vehicle apparatus adjusting device
JP2010186227A (en) * 2009-02-10 2010-08-26 Honda Motor Co Ltd Warning device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067242A (en) * 2017-10-03 2019-04-25 マツダ株式会社 Driving assistance device
JP2020095421A (en) * 2018-12-12 2020-06-18 学校法人早稲田大学 Information presentation system, and information presentation processor and program of the same
JP7342799B2 (en) 2020-06-09 2023-09-12 株式会社デンソー Occupant monitoring device

Similar Documents

Publication Publication Date Title
WO2017056570A1 (en) Driving support device
JP6380002B2 (en) Perimeter monitoring device
US9809167B1 (en) Stopped vehicle traffic resumption alert
JP6361382B2 (en) Vehicle control device
WO2016067544A1 (en) Vehicle-mounted attention-attracting system and notification control device
WO2015182040A1 (en) Alerting device
JP7222216B2 (en) Driving support device
WO2014021332A1 (en) Warning device for vehicle and outside mirror device for vehicle
WO2018150642A1 (en) Surroundings monitoring device
US10347126B2 (en) Driving assistance device
US11618482B2 (en) State determination device, driving support device, state determination method, and driving support method
JP2017068672A (en) Driving support device
CN110997409A (en) Peripheral monitoring device
JP2016224717A (en) Driving support apparatus and driving support method
JP7200968B2 (en) Vehicle control device and vehicle control method
JP2019125193A (en) Periphery monitoring device
WO2017217044A1 (en) Viewing direction estimation device
JP2017068673A (en) Driving support device
JP2014103433A (en) Image display device for vehicle
WO2018101274A1 (en) Safety confirmation device
JP2016196217A (en) Periphery monitoring device
JP2018076019A (en) Image processing device
CN111034188B (en) Peripheral monitoring device
JP6699462B2 (en) Perimeter monitoring device
JP2018206037A (en) Safety confirmation device and safety confirmation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200212