JP2017068673A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2017068673A
JP2017068673A JP2015194782A JP2015194782A JP2017068673A JP 2017068673 A JP2017068673 A JP 2017068673A JP 2015194782 A JP2015194782 A JP 2015194782A JP 2015194782 A JP2015194782 A JP 2015194782A JP 2017068673 A JP2017068673 A JP 2017068673A
Authority
JP
Japan
Prior art keywords
notification
output
vehicle
driver
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015194782A
Other languages
Japanese (ja)
Inventor
亘 野木森
Wataru Nogimori
亘 野木森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2015194782A priority Critical patent/JP2017068673A/en
Priority to PCT/JP2016/067560 priority patent/WO2017056570A1/en
Priority to US15/758,521 priority patent/US20180257565A1/en
Priority to EP16850747.3A priority patent/EP3358549A4/en
Priority to CN201680052628.3A priority patent/CN108028018A/en
Publication of JP2017068673A publication Critical patent/JP2017068673A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make a driver visually confirm a change in surroundings of a vehicle more reliably, when the surroundings of the vehicle have changed.SOLUTION: A driving support device according to an embodiment comprises: a recognition processing part for recognizing surroundings of a vehicle; a driving support processing part for performing a driving support control in accordance with the surroundings of the vehicle recognized by the recognition processing part; a display processing part for displaying a change in the surroundings of the vehicle on a display part, when the surroundings of the vehicle have changed; a detection processing part for detecting information relating to a driver's visual line of the vehicle; and an output processing part. When a recognition state has changed, the output processing part uses a notification part that is different from the display part to output a first notification for notifying the driver that the surroundings of the vehicle have changed, and after the output of the first notification, on the basis of detection results obtained by the detection processing part, outputs a second notification for re-notifying the driver that the surroundings of the vehicle have changed, using the notification part, when the driver's visual line is not detected to be directed to the display part.SELECTED DRAWING: Figure 7

Description

本発明の実施形態は、運転支援装置に関する。   Embodiments described herein relate generally to a driving support apparatus.

従来、センサやカメラなどによって認識される車両の周囲の状況に応じた運転支援制御を実行する技術が知られている。このような技術では、車両の周囲の状況が変化した場合、当該状況の変化が表示部などに視覚的に表示される。   2. Description of the Related Art Conventionally, a technique for performing driving support control according to a situation around a vehicle recognized by a sensor or a camera is known. In such a technique, when the situation around the vehicle changes, the change in the situation is visually displayed on a display unit or the like.

特開2003−34205号公報JP 2003-34205 A

上記のような技術では、車両の周囲の状況が変化した場合に、より確実に、運転者に車両の周囲の状況を視認させることが望まれている。   In the technology as described above, it is desired to make the driver visually recognize the situation around the vehicle when the situation around the vehicle changes.

実施形態による運転支援装置は、車両の周囲の状況を認識する認識処理部と、認識処理部によって認識された車両の周囲の状況に応じて運転支援制御を実行する運転支援処理部と、車両の周囲の状況が変化した場合に、車両の周囲の状況の変化を表示部に表示する表示処理部と、車両の運転者の視線に関する情報を検出する検出処理部と、車両の周囲の状況が変化した場合に、表示部とは別の通知部を用いて、車両の周囲の状況が変化したことを運転者に通知する第1の通知を出力し、第1の通知を出力した後、検出処理部による検出結果に基づき、運転者の視線が表示部に向いていることが検出されない場合に、通知部を用いて、車両の周囲の状況が変化したことを運転者に再度通知する第2の通知を出力する出力処理部とを備える。このような構成により、第1の通知と、第2の通知とを用いて、より確実に、運転者に車両の周囲の状況の変化を視認させることができる。   The driving support device according to the embodiment includes a recognition processing unit that recognizes a situation around the vehicle, a driving support processing unit that executes driving support control according to the situation around the vehicle recognized by the recognition processing unit, When the surroundings change, the display processing unit that displays changes in the surroundings of the vehicle on the display unit, the detection processing unit that detects information about the line of sight of the driver of the vehicle, and the surroundings of the vehicle change In such a case, the first notification that notifies the driver that the situation around the vehicle has changed is output using a notification unit that is different from the display unit, and the detection process is performed after the first notification is output. A second notification that uses the notification unit to notify the driver again that the situation around the vehicle has changed when it is not detected that the driver's line of sight is directed to the display unit based on the detection result by the unit. An output processing unit for outputting a notification. With such a configuration, it is possible to make the driver visually recognize changes in the situation around the vehicle using the first notification and the second notification.

また、実施形態による運転支援装置では、出力処理部は、運転者の視線が表示部に向いていることが検出されるまで、第2の通知を繰り返し出力する。このような構成により、さらに確実に、運転者に車両の周囲の状況の変化を視認させることができる。   In the driving support device according to the embodiment, the output processing unit repeatedly outputs the second notification until it is detected that the driver's line of sight is facing the display unit. With such a configuration, it is possible to make the driver visually recognize changes in the situation around the vehicle.

また、実施形態による運転支援装置では、出力処理部は、第2の通知を、第1の通知とは異なる出力形態で出力するとともに、第2の通知を2回以上出力する場合、2回目以降の第2の通知を、過去に出力した第2の通知とは異なる出力形態で出力する。このような構成により、たとえば、後で出力される方の通知の注意喚起力を高めることで、より確実に、運転者に車両の周囲の状況の変化を視認させることができる。   In the driving support device according to the embodiment, the output processing unit outputs the second notification in an output form different from the first notification and outputs the second notification two or more times. The second notification is output in an output form different from the second notification output in the past. With such a configuration, for example, it is possible to make the driver visually recognize the change in the situation around the vehicle by increasing the alerting power of the notification that is output later.

また、実施形態による運転支援装置では、出力処理部は、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、予め設定された回数まで第2の通知を繰り返し出力する。このような構成により、第2の通知の繰り返しの出力によって運転者に過度に煩わしさを感じさせるのを抑制することができる。   In the driving support device according to the embodiment, when the second notification is output twice or more, the output processing unit outputs the second notification up to a preset number of times after outputting the first notification for the second time. Output notifications repeatedly. With such a configuration, it is possible to suppress the driver from feeling excessively bothered by the repeated output of the second notification.

また、実施形態による運転支援装置では、出力処理部は、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、検出処理部によって運転者の視線が表示部に向いていることが検出され、かつ、運転者が所定の能動的な目の操作を行ったことが検出されるまで、第2の通知を繰り返し出力する。このような構成により、運転者が表示部に能動的に目を向けたか否かをより確実に判定することができる。   In the driving support device according to the embodiment, when the output processing unit outputs the second notification two or more times, after the first second notification is output, the detection processing unit detects the driver's line of sight. The second notification is repeatedly output until it is detected that it is facing the display unit and that the driver has performed a predetermined active eye operation. With such a configuration, it can be more reliably determined whether or not the driver has actively looked at the display unit.

また、実施形態による運転支援装置は、通知部は、音を出力可能な音出力部を含み、出力処理部は、音出力部を用いて、第1の通知および第2の通知を音で出力する。このような構成により、音を用いて、より容易に、車両の周囲の状況が変化したことを運転者に通知することができる。   In the driving support device according to the embodiment, the notification unit includes a sound output unit capable of outputting sound, and the output processing unit outputs the first notification and the second notification by sound using the sound output unit. To do. With such a configuration, it is possible to more easily notify the driver that the situation around the vehicle has changed using sound.

図1は、第1実施形態による車両の車室の一部が透視された状態を示した例示斜視図である。FIG. 1 is an exemplary perspective view showing a state in which a part of a compartment of a vehicle according to the first embodiment is seen through. 図2は、第1実施形態によるインストルメントパネルを示した例示図である。FIG. 2 is an exemplary view showing an instrument panel according to the first embodiment. 図3は、第1実施形態によるインストルメントパネルの表示装置に表示される画像の一例を示した例示図である。FIG. 3 is an exemplary view showing an example of an image displayed on the display device of the instrument panel according to the first embodiment. 図4は、第1実施形態によるインストルメントパネルの表示装置に表示される画像の、図3とは異なる他の一例を示した例示図である。FIG. 4 is an exemplary view showing another example of an image displayed on the display device of the instrument panel according to the first embodiment, which is different from FIG. 3. 図5は、第1実施形態による撮像装置の配置を示した例示図である。FIG. 5 is an exemplary diagram illustrating an arrangement of the imaging device according to the first embodiment. 図6は、第1実施形態による車両に搭載される運転支援システムの構成を示した例示ブロック図である。FIG. 6 is an exemplary block diagram showing the configuration of the driving support system mounted on the vehicle according to the first embodiment. 図7は、第1実施形態によるECUの機能的構成を示した例示ブロック図である。FIG. 7 is an exemplary block diagram showing a functional configuration of the ECU according to the first embodiment. 図8は、第1実施形態によるECUが実行する処理を示した例示フローチャートである。FIG. 8 is an exemplary flowchart showing a process executed by the ECU according to the first embodiment. 図9は、第2実施形態によるECUが実行する処理を示した例示フローチャートである。FIG. 9 is an exemplary flowchart showing processing executed by the ECU according to the second embodiment. 図10は、第3実施形態によるECUが実行する処理を示した例示フローチャートである。FIG. 10 is an exemplary flowchart showing a process executed by the ECU according to the third embodiment. 図11は、変形例において車両の周辺の認識状況が変化した場合にナビゲーションシステムの表示装置に表示される画像の一例を示した例示図である。FIG. 11 is an exemplary diagram showing an example of an image displayed on the display device of the navigation system when the recognition state around the vehicle changes in the modified example. 図12は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の一例を示した例示図である。FIG. 12 is an exemplary diagram showing an example of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図13は、変形例において車両の周囲の状況が変化した後に図12の画像から切り替わって表示される画像を示した例示図である。FIG. 13 is an exemplary diagram showing an image displayed by switching from the image of FIG. 12 after the situation around the vehicle changes in the modified example. 図14は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の図12とは異なる一例を示した例示図である。FIG. 14 is an exemplary diagram showing an example different from FIG. 12 of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図15は、変形例において車両の周囲の状況が変化した後に図14の画像から切り替わって表示される画像を示した例示図である。FIG. 15 is an exemplary diagram showing an image displayed by switching from the image of FIG. 14 after the situation around the vehicle changes in the modified example. 図16は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の図12および図14とは異なる一例を示した例示図である。FIG. 16 is an exemplary diagram showing an example different from FIGS. 12 and 14 of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図17は、変形例において車両の周囲の状況が変化した後に図16の画像から切り替わって表示される画像を示した例示図である。FIG. 17 is an exemplary diagram showing an image displayed by switching from the image of FIG. 16 after the situation around the vehicle changes in the modification. 図18は、変形例において車両の周囲の状況が変化する前にナビゲーション装置の表示装置に表示される画像の図12、図14および図16とは異なる一例を示した例示図である。FIG. 18 is an exemplary diagram showing an example different from FIGS. 12, 14, and 16 of an image displayed on the display device of the navigation device before the situation around the vehicle changes in the modified example. 図19は、変形例において車両の周囲の状況が変化した後に図18の画像から切り替わって表示される画像を示した例示図である。FIG. 19 is an exemplary diagram showing an image displayed by switching from the image of FIG. 18 after the situation around the vehicle changes in the modified example.

以下、実施形態を図面に基づいて説明する。   Hereinafter, embodiments will be described with reference to the drawings.

(第1実施形態)
まず、図1〜図5を参照して、第1実施形態による車両1の概略的構成について説明する。
(First embodiment)
First, with reference to FIGS. 1-5, the schematic structure of the vehicle 1 by 1st Embodiment is demonstrated.

第1実施形態による車両1は、たとえば、エンジンなどの内燃機関を駆動源とする車両(内燃機関自動車)であってもよいし、モータなどの電動機を駆動源とする車両(電気自動車、燃料電池自動車など)であってもよい。また、車両1は、これらの双方を駆動源とする車両(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品など)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式、数、レイアウトなどは、種々に設定することができる。   The vehicle 1 according to the first embodiment may be, for example, a vehicle (an internal combustion engine automobile) using an internal combustion engine such as an engine as a drive source, or a vehicle (electric vehicle, fuel cell) using an electric motor such as a motor as a drive source. A car). Further, the vehicle 1 may be a vehicle (hybrid vehicle) using both of these as drive sources. In addition, the vehicle 1 can be mounted with various transmissions and various devices (systems, components, etc.) necessary for driving the internal combustion engine and the electric motor. In addition, the method, number, layout, and the like of devices related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に示すように、第1実施形態による車両1は、車体2を備える。車体2は、乗員(不図示)が乗車する車室2aを構成する。車室2a内には、乗員としての運転者(図1には不図示)の座席2bに対応するように、操舵部4や、インストルメントパネル25などが設けられている。操舵部4は、たとえば、ダッシュボード12から突出したステアリングホイール4aである。   As shown in FIG. 1, the vehicle 1 according to the first embodiment includes a vehicle body 2. The vehicle body 2 constitutes a passenger compartment 2a in which an occupant (not shown) gets. In the passenger compartment 2a, a steering unit 4, an instrument panel 25, and the like are provided so as to correspond to a seat 2b of a driver (not shown in FIG. 1) as a passenger. The steering unit 4 is, for example, a steering wheel 4a protruding from the dashboard 12.

図2に示すように、インストルメントパネル25には、スピードメーター25aと、タコメーター25bと、表示装置25cとが設けられている。表示装置25cは、たとえば、液晶ディスプレイや、有機EL(Electroluminescent)ディスプレイなどである。図2の例では、表示装置25cは、インストルメントパネル25の略中央で、スピードメーター25aと、タコメーター25bとの間に位置している。   As shown in FIG. 2, the instrument panel 25 is provided with a speedometer 25a, a tachometer 25b, and a display device 25c. The display device 25c is, for example, a liquid crystal display or an organic EL (Electroluminescent) display. In the example of FIG. 2, the display device 25 c is positioned between the speedometer 25 a and the tachometer 25 b at the approximate center of the instrument panel 25.

第1実施形態では、インストルメントパネル25の表示装置25cに、車両1が実行する運転支援制御に関する情報が表示される。運転支援制御の例としては、たとえば、車両1を自動で前走車に対して追従走行させる追従走行制御が挙げられる。追従走行制御が実行されている場合、表示装置25cには、前走車の有無や、前走車との間の車間距離などの情報が、たとえば図3および図4に示すような態様で表示される。図3は、前走車が存在する場合に表示装置25cに表示される画像IM1の具体例を示した例示図である。この図3の画像IM1には、前走車を示すマークM1が表示されている。図4は、前走車が存在しない場合に表示装置25cに表示される画像IM2の具体例を示した例示図である。この図4の画像IM2には、図3の画像IM1と異なり、前走車を示すマークM1が表示されていない。   In the first embodiment, information related to driving support control executed by the vehicle 1 is displayed on the display device 25c of the instrument panel 25. As an example of the driving support control, for example, follow-up running control that causes the vehicle 1 to automatically follow the preceding vehicle. When the follow-up running control is executed, the display device 25c displays information such as the presence or absence of the preceding vehicle and the distance between the preceding vehicle and the like in the manner shown in FIGS. 3 and 4, for example. Is done. FIG. 3 is an illustrative diagram showing a specific example of an image IM1 displayed on the display device 25c when a preceding vehicle is present. In the image IM1 of FIG. 3, a mark M1 indicating a preceding vehicle is displayed. FIG. 4 is an illustrative diagram showing a specific example of an image IM2 displayed on the display device 25c when there is no preceding vehicle. In the image IM2 in FIG. 4, unlike the image IM1 in FIG. 3, the mark M1 indicating the preceding vehicle is not displayed.

図1に戻り、車室2a内には、上記の表示装置25cとは別の表示装置8と、音声出力装置9とが設けられている。表示装置8は、たとえば、液晶ディスプレイや、有機ELディスプレイなどである。また、音声出力装置9は、たとえば、スピーカである。図1の例では、表示装置8と、音声出力装置9とは、ダッシュボード12の車幅方向(左右方向)の中央部(いわゆるセンターコンソール)に位置するナビゲーション装置11に設けられている。   Returning to FIG. 1, a display device 8 different from the display device 25c and an audio output device 9 are provided in the passenger compartment 2a. The display device 8 is, for example, a liquid crystal display or an organic EL display. Moreover, the audio | voice output apparatus 9 is a speaker, for example. In the example of FIG. 1, the display device 8 and the audio output device 9 are provided in a navigation device 11 that is located at the center (so-called center console) of the dashboard 12 in the vehicle width direction (left-right direction).

第1実施形態では、ナビゲーション装置11の表示装置8に、車両1の走行時に車両1の現在位置や目的地への経路案内などの情報(画像)が表示される。この表示装置8は、タッチパネルなどの操作入力部10を備える。車両1の乗員は、操作入力部10を手指などでタッチすることにより、表示装置8に表示される画像に対して種々の操作入力(指示入力)を実行することができる。なお、ナビゲーション装置11は、スイッチ、ダイヤル、ジョイスティック、押しボタンなどの操作入力部(図示せず)を有することもできる。   In the first embodiment, information (image) such as the current position of the vehicle 1 and route guidance to the destination is displayed on the display device 8 of the navigation device 11 when the vehicle 1 is traveling. The display device 8 includes an operation input unit 10 such as a touch panel. The occupant of the vehicle 1 can execute various operation inputs (instruction inputs) on the image displayed on the display device 8 by touching the operation input unit 10 with fingers or the like. In addition, the navigation apparatus 11 can also have operation input parts (not shown), such as a switch, a dial, a joystick, and a push button.

ここで、第1実施形態では、図5に示すように、ステアリングホイール4aのステアリングコラム4bに、撮像装置201が設置されている。撮像装置201は、たとえば、CCD(Charge Coupled Device)カメラなどである。撮像装置201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角および姿勢が調整されている。この撮像装置201は、座席2bに座った運転者302の顔を撮影し、撮影により得た画像データを順次出力する。なお、撮像装置201は、運転者302の視線を撮影可能な位置に設置されていればよく、たとえば、ナビゲーション装置11が設置されるセンターコンソールや、運転席(座席2b)側のAピラーや、ルームミラーなどに設置されてもよい。   Here, in the first embodiment, as shown in FIG. 5, the imaging device 201 is installed on the steering column 4b of the steering wheel 4a. The imaging device 201 is, for example, a CCD (Charge Coupled Device) camera. The imaging device 201 is adjusted in view angle and posture so that the face of the driver 302 seated on the seat 2b is positioned at the center of the view. The imaging apparatus 201 captures the face of the driver 302 sitting on the seat 2b and sequentially outputs image data obtained by the capturing. In addition, the imaging device 201 should just be installed in the position which can image | photograph the eyes | visual_axis of the driver | operator 302, for example, the center console in which the navigation apparatus 11 is installed, the A pillar by the side of a driver's seat (seat 2b), It may be installed in a room mirror.

次に、図6を参照して、第1実施形態による車両1に搭載される運転支援システム100の構成について説明する。   Next, with reference to FIG. 6, the structure of the driving assistance system 100 mounted in the vehicle 1 by 1st Embodiment is demonstrated.

図6に示すように、運転支援システム100では、ECU14や、ナビゲーション装置11、操舵システム13、測距部16および17などの他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22などが、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。ECU14は、「運転支援装置」の一例である。   As shown in FIG. 6, in the driving support system 100, in addition to the ECU 14, the navigation device 11, the steering system 13, the distance measuring units 16 and 17, the brake system 18, the steering angle sensor 19, the accelerator sensor 20, and the shift sensor 21. The wheel speed sensor 22 and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The ECU 14 is an example of a “driving support device”.

車内ネットワーク23は、たとえば、CAN(Controller Area Network)として構成される。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13のアクチュエータ13aや、ブレーキシステム18のアクチュエータ18aなどを動作させることができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16および17、アクセルセンサ20、シフトセンサ21、車輪速センサ22などの検出結果や、操作入力部10などによる操作信号などを、受け取ることができる。   The in-vehicle network 23 is configured, for example, as a CAN (Controller Area Network). The ECU 14 can operate the actuator 13 a of the steering system 13, the actuator 18 a of the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects detection results of the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the distance measuring units 16 and 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23, An operation signal from the operation input unit 10 can be received.

図6の例では、ECU14は、CPU14a(Central Processing Unit)と、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)と、表示制御部14dと、音声制御部14eと、SSD14f(Solid State Drive、フラッシュメモリ)とを備える。   In the example of FIG. 6, the ECU 14 includes a CPU 14a (Central Processing Unit), a ROM 14b (Read Only Memory), a RAM 14c (Random Access Memory), a display control unit 14d, an audio control unit 14e, and an SSD 14f (Solid State D). Flash memory).

CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14bなどの不揮発性の記憶装置にインストールされたプログラムを読み出し、当該プログラムにしたがって演算処理を実行する。RAM14cは、CPU14aの演算で用いられる各種のデータを一時的に記憶する。   The CPU 14a controls the entire vehicle 1. The CPU 14a reads a program installed in a non-volatile storage device such as the ROM 14b, and executes arithmetic processing according to the program. The RAM 14c temporarily stores various data used in the calculation of the CPU 14a.

表示制御部14dは、ECU14での演算処理のうち、主として、撮像装置15および201で得られる画像データを用いた画像処理や、表示装置8および25cで表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶装置であって、たとえばECU14の電源がオフされた場合でも、データを保持することができる。   The display control unit 14d mainly executes image processing using image data obtained by the imaging devices 15 and 201, synthesis of image data displayed by the display devices 8 and 25c, and the like, among arithmetic processing in the ECU 14. . In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage device, and can retain data even when the power of the ECU 14 is turned off, for example.

第1実施形態では、CPU14aや、ROM14b、RAM14cなどは、同一パッケージ内に集積されうる。また、ECU14では、CPU14aに替えて、DSP(Digital Signal Processor)などの他の論理演算プロセッサや論理回路などが用いられてもよい。また、ECU14では、SSD14fに替えて(またはSSD14fに加えて)、HDD(Hard Disk Drive)が設けられてもよい。なお、SSD14fおよびHDDは、ECU14とは別に設けられてもよい。   In the first embodiment, the CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. In the ECU 14, instead of the CPU 14a, other logical operation processors such as a DSP (Digital Signal Processor), a logic circuit, or the like may be used. The ECU 14 may be provided with an HDD (Hard Disk Drive) instead of the SSD 14f (or in addition to the SSD 14f). Note that the SSD 14f and the HDD may be provided separately from the ECU 14.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

ここで、第1実施形態によるECU14のCPU14aは、運転支援制御の実行時に、ROM14bに格納されたプログラムを実行することで、図7に示すような機能的構成(機能モジュール)をRAM14c上に実現する。   Here, the CPU 14a of the ECU 14 according to the first embodiment executes a program stored in the ROM 14b when executing the driving support control, thereby realizing a functional configuration (functional module) as shown in FIG. 7 on the RAM 14c. To do.

図7に示すように、ECU14は、機能的構成として、認識処理部401と、運転支援処理部402と、表示処理部403と、検出処理部404と、出力処理部405とを備える。   As shown in FIG. 7, the ECU 14 includes a recognition processing unit 401, a driving support processing unit 402, a display processing unit 403, a detection processing unit 404, and an output processing unit 405 as functional configurations.

認識処理部401は、撮像装置15から得られる画像データなどに基づいて、車両1の周囲の状況を認識する。運転支援処理部402は、認識処理部401によって認識された車両1の周囲の状況に応じて運転支援制御を実行する。たとえば、運転支援制御として追従走行制御が実行される場合、認識処理部401は、前走車の有無や、前走車との車間距離などを認識する。以下では、運転支援制御が追従走行制御である場合のみを例に挙げて説明するが、第1実施形態による運転支援制御は、追従走行制御に限られるものではなく、駐車支援制御なども含み得る。また、以下では、簡単化のため、認識処理部401によって認識された車両1の周囲の状況を、認識状況という言葉で表現する。   The recognition processing unit 401 recognizes the situation around the vehicle 1 based on image data obtained from the imaging device 15 and the like. The driving support processing unit 402 performs driving support control according to the situation around the vehicle 1 recognized by the recognition processing unit 401. For example, when the follow-up running control is executed as the driving support control, the recognition processing unit 401 recognizes the presence / absence of the preceding vehicle, the inter-vehicle distance from the preceding vehicle, and the like. In the following, only the case where the driving support control is the following traveling control will be described as an example. However, the driving assistance control according to the first embodiment is not limited to the following traveling control, and may include a parking assistance control and the like. . In the following, for the sake of simplification, the situation around the vehicle 1 recognized by the recognition processing unit 401 is expressed as a recognition situation.

表示処理部403は、認識処理部401による認識状況に応じて、インストルメントパネル25の表示装置25cに表示する画像を制御する。たとえば、前走車が存在していると認識されている場合、表示処理部403は、前走車を示すマークM1を含む画像IM1(図3参照)を表示装置25cに表示する。   The display processing unit 403 controls an image to be displayed on the display device 25 c of the instrument panel 25 according to the recognition status by the recognition processing unit 401. For example, when it is recognized that a preceding vehicle is present, the display processing unit 403 displays an image IM1 (see FIG. 3) including the mark M1 indicating the preceding vehicle on the display device 25c.

ここで、第1実施形態による表示処理部403は、認識処理部401による認識状況が変化した場合に、当該認識状況の変化を、表示装置25cに表示する。認識状況の変化とは、追従走行制御の制御内容が切り替わるトリガとなるような変化である。追従走行制御では、たとえば、前走車が存在していると認識された状態から、前走車が存在しないと認識された状態に変化した場合に、車両1を自動で加速させるように、制御内容が自動で切り替わる。したがって、第1実施形態による表示処理部403は、追従走行制御の実行時において、前走車が存在していると認識された状態から、前走車が存在しないと認識された状態に変化した場合、表示装置25cに表示する画像を、前走車を示すマークM1を含む画像IM1(図3参照)から、前走車を示すマークM1を含まない画像IM2(図4参照)に切り替える。   Here, when the recognition status by the recognition processing unit 401 changes, the display processing unit 403 according to the first embodiment displays the change in the recognition status on the display device 25c. The change in the recognition status is a change that triggers switching of the control content of the follow-up traveling control. In the follow-up running control, for example, control is performed so that the vehicle 1 is automatically accelerated when the state where it is recognized that the preceding vehicle is present is changed to the state where it is recognized that the preceding vehicle is not present. The contents are switched automatically. Therefore, the display processing unit 403 according to the first embodiment has changed from a state where it is recognized that the preceding vehicle is present to a state where it is recognized that there is no preceding vehicle when the following traveling control is executed. In this case, the image displayed on the display device 25c is switched from the image IM1 (see FIG. 3) including the mark M1 indicating the preceding vehicle to the image IM2 (see FIG. 4) not including the mark M1 indicating the preceding vehicle.

検出処理部404は、車両1の運転者302(図5参照)の視線に関する情報を検出する。たとえば、検出処理部404は、撮像装置201から得られる画像データと、SSD14fなどの記憶媒体に予め保存される三次元顔モデルとに基づいて、運転者302の顔をトラッキングしながら、運転者302の顔の向き、目の位置、目が向いている方向(視線方向)、目の動作などを検出する。なお、三次元顔モデルとは、平均的な被験者の三次元顔形状や、被験者の目や口、鼻などの顔部品の位置、被験者の目の形状の変化情報などを含む統計的顔形状モデルである。   The detection processing unit 404 detects information related to the line of sight of the driver 302 of the vehicle 1 (see FIG. 5). For example, the detection processing unit 404 tracks the driver 302's face based on the image data obtained from the imaging device 201 and a three-dimensional face model stored in advance in a storage medium such as the SSD 14f, while driving the driver 302. The direction of the face, the position of the eyes, the direction in which the eyes are facing (line-of-sight direction), the movement of the eyes, and the like are detected. Note that the 3D face model is a statistical face shape model that includes the average 3D face shape of the subject, the position of facial parts such as the subject's eyes, mouth, and nose, and changes in the shape of the subject's eyes. It is.

ところで、上述したように、追従走行制御では、たとえば、前走車が存在していると認識された状態から、前走車が存在しないと認識された状態に変化した場合に、車両1を自動で加速させるように、制御内容が自動で切り替わる。しかしながら、たとえば、実際には前走車が存在するにも関わらず前走車が存在しないと認識された場合など、車両1を自動で加速させるのには不適切な場合も存在する。このような場合、運転者302は、認識処理部401が認識した車両1の周囲の状況を表示装置25cにより視認した上で、車両1の周囲の状況を実際に目視し、車両1を能動的に操作する必要がある。したがって、認識処理部401による認識状況が変化した場合、当該認識状況の変化が発生したことを、より確実に運転者302に通知することが望まれている。   By the way, as described above, in the follow-up traveling control, for example, when the state in which the preceding vehicle is recognized is changed to the state in which the preceding vehicle is not present, the vehicle 1 is automatically The control contents are automatically switched so as to accelerate at. However, there are cases where it is inappropriate to automatically accelerate the vehicle 1, for example, when it is recognized that there is no preceding vehicle even though the preceding vehicle actually exists. In such a case, the driver 302 visually recognizes the situation around the vehicle 1 recognized by the recognition processing unit 401 using the display device 25c, and then visually observes the situation around the vehicle 1 to actively view the vehicle 1. Need to operate. Therefore, when the recognition status by the recognition processing unit 401 changes, it is desired to more reliably notify the driver 302 that the change in the recognition status has occurred.

そこで、第1実施形態による出力処理部405は、認識処理部401による認識状況が変化した場合、運転者302に表示装置25cの視認を促すために、表示装置25cとは別の通知手段(通知部)を用いて、認識状況が変化したことを運転者302に通知する。そして、出力処理部405は、検出処理部404の検出結果を監視して、運転者302が表示装置25cを本当に視認したか否かを判定する。   Therefore, the output processing unit 405 according to the first embodiment, when the recognition status by the recognition processing unit 401 changes, in order to urge the driver 302 to view the display device 25c, is different from the display device 25c. The driver 302 is notified that the recognition status has changed. Then, the output processing unit 405 monitors the detection result of the detection processing unit 404 and determines whether or not the driver 302 has actually viewed the display device 25c.

具体的に、出力処理部405は、認識状況が変化した場合、ナビゲーション装置11の音声出力装置9を用いて、認識状況が変化したことを運転者302に通知する第1の通知を、音で出力する。また、出力処理部405は、第1の通知を出力した後、検出処理部404による検出結果を監視し、運転者302の視線が表示装置25cに向いていることが検出されない場合に、音声出力装置9を用いて、認識状況が変化したことを運転者302に再度通知する第2の通知を、音で出力する。そして、出力処理部405は、運転者302の視線が表示装置25cに向いていることが検出されるまで、第2の通知を繰り返し出力する。   Specifically, when the recognition status changes, the output processing unit 405 uses the audio output device 9 of the navigation device 11 to notify the driver 302 that the recognition status has changed using a sound. Output. In addition, the output processing unit 405 monitors the detection result by the detection processing unit 404 after outputting the first notification, and outputs a voice when the line of sight of the driver 302 is not detected facing the display device 25c. Using the device 9, a second notification for notifying the driver 302 again that the recognition status has changed is output with sound. Then, the output processing unit 405 repeatedly outputs the second notification until it is detected that the line of sight of the driver 302 is facing the display device 25c.

第1の通知は、運転者302に表示装置25cの視認を促す音声メッセージやビープ音などである。また、第2の通知は、運転者302に表示装置25cの視認をより強く促す音声メッセージやビープ音などである。このように、出力処理部405は、第2の通知を、第1の通知とは異なる出力形態で出力する。つまり、第2の通知は、第1の通知が運転者302の視線を表示装置25cに向けさせることができなかった場合の念押しとして出力されるものであるので、第2の通知を第1の通知と同様の出力形態で出力するのでは、運転者302の注意を十分に惹くことができない場合がある。したがって、出力処理部405は、第2の通知を、たとえば、第1の通知よりも大きい音量で出力したり、第1の通知とは異なる音声パターンで(つまり、第1の通知よりも注意喚起力が高い音声パターンで)出力したりする。   The first notification is a voice message or a beep sound that prompts the driver 302 to view the display device 25c. The second notification is a voice message or a beep sound that prompts the driver 302 to visually recognize the display device 25c. As described above, the output processing unit 405 outputs the second notification in an output form different from that of the first notification. In other words, the second notification is output as a precaution when the first notification fails to direct the driver 302's line of sight toward the display device 25c. If the output is performed in the same output form as the notification, the driver 302 may not be able to attract the attention of the driver 302 sufficiently. Therefore, the output processing unit 405 outputs the second notification, for example, at a volume higher than that of the first notification, or with a voice pattern different from that of the first notification (that is, alerting more than the first notification). (With a strong voice pattern).

また、出力処理部405は、第2の通知を2回以上出力する場合、2回目以降の第2の通知を、過去に出力した第2の通知(たとえば1回目の第2の通知)とは異なる出力形態で出力する。つまり、出力処理部405は、2回目以降の第2の通知の注意喚起力を1回目の第2の通知よりも高めるために、2回目以降の第2の通知を、たとえば、1回目の第2の通知よりも大きい音量で出力したり、2回目以降の第2の通知を、1回目の第2の通知よりも注意喚起力が高い音声パターンで出力したりする。   In addition, when the output processing unit 405 outputs the second notification two or more times, the second notification after the second time is referred to as the second notification (for example, the first second notification) output in the past. Output in different output formats. That is, in order to increase the alerting power of the second notification for the second time or later than the second notification for the first time, the output processing unit 405 transmits the second notification for the second time or later, for example, the first notification for the first time. The second notification is output at a volume larger than the second notification, or the second and subsequent second notifications are output with a voice pattern having a higher alerting power than the first second notification.

次に、図8を参照して、第1実施形態によるECU14が実行する処理を説明する。   Next, with reference to FIG. 8, the process which ECU14 by 1st Embodiment performs is demonstrated.

図8の処理フローでは、まず、S1において、認識処理部401は、車両1の周囲の認識状況が変化したか否かを判断する。このS1の処理は、認識状況が変化したと判断されるまで繰り返される。そして、S1において、認識状況が変化したと判断された場合、S2に処理が進む。   In the processing flow of FIG. 8, first, in S1, the recognition processing unit 401 determines whether or not the recognition state around the vehicle 1 has changed. The process of S1 is repeated until it is determined that the recognition status has changed. If it is determined in S1 that the recognition status has changed, the process proceeds to S2.

S2において、表示処理部403は、認識状況の変化をインストルメントパネル25の表示装置25cに表示し、出力処理部405は、認識状況が変化したことを通知する第1の通知を、ナビゲーション装置11の音声出力装置9を介して音で出力する。そして、S3において、出力処理部405は、検出処理部404による検出結果を監視する。   In S <b> 2, the display processing unit 403 displays a change in the recognition status on the display device 25 c of the instrument panel 25, and the output processing unit 405 sends a first notification that notifies that the recognition status has changed to the navigation device 11. The sound is output through the sound output device 9. In step S <b> 3, the output processing unit 405 monitors the detection result by the detection processing unit 404.

S4において、出力処理部405は、認識状況が変化したことを運転者302に再度通知する第2の通知が既に出力済か否かを判断する。   In S <b> 4, the output processing unit 405 determines whether or not the second notification that notifies the driver 302 again that the recognition status has changed has already been output.

S4において、第2の通知がまだ1回も出力されていない場合、S5に処理が進む。そして、S5において、出力処理部405は、S3の監視結果に基づいて、運転者302の視線が表示装置25cに向いていることが検出されたか否かを判断する。   In S4, when the second notification has not been output yet, the process proceeds to S5. In S5, the output processing unit 405 determines whether or not it is detected that the line of sight of the driver 302 is facing the display device 25c based on the monitoring result in S3.

S5において、運転者302の視線が表示装置25cに向いていることが検出された場合、運転者302が表示装置25cを視認したと推定できるので、これ以上運転者302に表示装置25cを視認するように促す必要がなくなり、処理が終了する。しかしながら、S5において、運転者302の視線が表示装置25cに向いていることが検出されない場合、運転者302に表示装置25cを視認するように再度促す必要がある。   In S5, when it is detected that the line of sight of the driver 302 is facing the display device 25c, it can be estimated that the driver 302 has visually recognized the display device 25c, so that the driver 302 can further visually recognize the display device 25c. There is no need to prompt the user to complete the process. However, if it is not detected in S5 that the driver's 302 is looking toward the display device 25c, the driver 302 needs to be prompted again to view the display device 25c.

そこで、S6において、出力処理部405は、認識状況が変化したことを運転者302に再度通知する第2の通知を、S2で出力した第1の通知とは異なる出力形態で、ナビゲーション装置11の音声出力装置9を介して音で出力する。たとえば、出力処理部405は、第2の通知を、第1の通知よりも大きい音量で出力したり、第2の通知を、第1の通知とは異なる音声パターンで出力したりする。そして、S3に処理が戻る。   Therefore, in S6, the output processing unit 405 outputs a second notification for notifying the driver 302 again that the recognition status has changed in an output form different from the first notification output in S2, in the navigation device 11. The sound is output through the sound output device 9. For example, the output processing unit 405 outputs the second notification at a volume higher than that of the first notification, or outputs the second notification with an audio pattern different from that of the first notification. Then, the process returns to S3.

なお、S4において、第2の通知が少なくとも1回は既に出力されていると判断された場合、S7に処理が進む。そして、S7において、出力処理部405は、S3の監視結果に基づいて、運転者302の視線が表示装置25cに向いていることが検出されたか否かを判断する。   If it is determined in S4 that the second notification has already been output at least once, the process proceeds to S7. In S7, the output processing unit 405 determines whether or not it is detected that the line of sight of the driver 302 is facing the display device 25c based on the monitoring result in S3.

S7において、運転者302の視線が表示装置25cに向いていることが検出された場合、これ以上運転者302に表示装置25cを視認するように促す必要がなくなるので、処理が終了する。しかしながら、S7において、運転者302の視線が表示装置25cに向いていることが検出されない場合、運転者302が表示装置25cを視認したとは言えないので、運転者302に表示装置25cを視認するように再度促す必要がある。   In S7, when it is detected that the line of sight of the driver 302 is facing the display device 25c, it is not necessary to prompt the driver 302 to view the display device 25c any more, so the processing ends. However, if it is not detected in S7 that the driver's line of sight is facing the display device 25c, it cannot be said that the driver 302 has visually recognized the display device 25c, and therefore the driver 302 visually recognizes the display device 25c. You need to prompt again.

そこで、S8において、出力処理部405は、第2の通知を、音声出力装置9を介して音で再度出力する。なお、出力処理部405は、このS8で出力する第2の通知の出力形態を、過去に出力した第2の通知(たとえばS6で出力された第2の通知)の出力形態とは異ならせる。そして、S3に処理が戻る。   Therefore, in S <b> 8, the output processing unit 405 outputs the second notification again with sound via the audio output device 9. The output processing unit 405 changes the output form of the second notification output in S8 from the output form of the second notification output in the past (for example, the second notification output in S6). Then, the process returns to S3.

以上説明したように、第1実施形態による表示処理部403は、認識処理部401による認識状況が変化した場合に、当該認識状況の変化をインストルメントパネル25の表示装置25cに表示する。また、出力処理部405は、認識状況が変化した場合に、表示装置25cとは別の通知部(音声出力装置9)を用いて、認識状況が変化したことを運転者302に通知する第1の通知を出力する。そして、出力処理部405は、第1の通知を出力した後、検出処理部404による検出結果を監視し、運転者302の視線が表示装置25cに向いていることが検出されない場合に、音声出力装置9を用いて、認識状況が変化したことを運転者302に再度通知する第2の通知を出力する。これにより、第1の通知と、第2の通知とを用いて、より確実に、運転者302に認識状況の変化を視認させることができる。   As described above, when the recognition status by the recognition processing unit 401 changes, the display processing unit 403 according to the first embodiment displays the change in the recognition status on the display device 25c of the instrument panel 25. In addition, when the recognition status changes, the output processing unit 405 uses a notification unit (voice output device 9) different from the display device 25c to notify the driver 302 that the recognition status has changed. Output the notification. Then, after outputting the first notification, the output processing unit 405 monitors the detection result by the detection processing unit 404, and when it is not detected that the line of sight of the driver 302 is facing the display device 25c, an audio output is performed. Using the device 9, a second notification for notifying the driver 302 again that the recognition status has changed is output. Thereby, the driver 302 can be made to visually recognize the change in the recognition state more reliably using the first notification and the second notification.

また、第1実施形態による出力処理部405は、運転者302の視線が表示装置25cに向いていることが検出されるまで、第2の通知を繰り返し出力する。これにより、さらに確実に、運転者302に認識状況の変化を視認させることができる。   Further, the output processing unit 405 according to the first embodiment repeatedly outputs the second notification until it is detected that the line of sight of the driver 302 is facing the display device 25c. Thereby, it is possible to make the driver 302 visually recognize the change in the recognition status.

また、第1実施形態による出力処理部405は、第2の通知を、第1の通知とは異なる出力形態で出力するとともに、第2の通知を2回以上出力する場合、2回目以降の第2の通知を過去に出力した第2の通知とは異なる出力形態で出力する。これにより、たとえば、後で出力される方の通知の注意喚起力を高めることで、より確実に、運転者302に認識状況の変化を視認させることができる。   In addition, the output processing unit 405 according to the first embodiment outputs the second notification in an output form different from the first notification, and outputs the second notification two or more times. The second notification is output in a different output form from the second notification output in the past. Thereby, for example, the driver 302 can be made to recognize the change in the recognition state more reliably by increasing the alerting power of the notification that is output later.

(第2実施形態)
次に、図7を参照して、第2実施形態によるECU214の構成について説明する。この第2実施形態では、2回目以降の第2の通知の出力を停止させる条件が、運転者302の視線が表示装置25cに向いていること、という1つの条件だけである第1実施形態と異なり、2回目以降の第2の通知の出力を停止させる条件が、運転者302の視線が表示装置25cに向いていることと、第2の通知の出力回数が予め設定された回数を以上になることとの、2つ存在する。
(Second Embodiment)
Next, the configuration of the ECU 214 according to the second embodiment will be described with reference to FIG. In the second embodiment, the condition for stopping the output of the second notification after the second time is only one condition that the line of sight of the driver 302 faces the display device 25c. Differently, the conditions for stopping the output of the second notification after the second time are that the line of sight of the driver 302 is directed to the display device 25c and the number of times of output of the second notification is more than the preset number. There are two things:

すなわち、第2実施形態による出力処理部2405は、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、出力処理部2405は、予め設定された回数まで第2の通知を繰り返し出力する。より具体的に、出力処理部2405は、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、運転者302の視線が表示装置25cに向いていることが検出されなくても、第2の通知の出力回数が予め設定された回数以上になった場合には、煩わしさの観点から、第2の通知を繰り返し出力することを停止する。なお、第2の通知の出力停止条件となる回数は、実験的または人間工学的に決定した数を予め設定しておいてもよいし、運転者302が自ら任意で設定できるようにしてもよい。   In other words, when the output processing unit 2405 according to the second embodiment outputs the second notification two or more times, the output processing unit 2405 outputs the second number of times after the first second notification is output. Until the second notification is repeatedly output. More specifically, when the output processing unit 2405 outputs the second notification more than once, after the first second notification is output, the line of sight of the driver 302 faces the display device 25c. Even if this is not detected, when the number of times of output of the second notification is equal to or greater than the preset number, output of the second notification is stopped from the viewpoint of annoyance. Note that the number of times to be the output stop condition of the second notification may be set in advance as an experimentally or ergonomically determined number, or may be arbitrarily set by the driver 302 himself. .

なお、第2実施形態のその他の構成は、上述した第1実施形態と同様であるため、ここでは説明を省略する。   In addition, since the other structure of 2nd Embodiment is the same as that of 1st Embodiment mentioned above, description is abbreviate | omitted here.

次に、図9を参照して、第2実施形態によるECU214が実行する処理について説明する。第2実施形態では、上述した第1実施形態(図8参照)と同様のS1〜S8の処理が実行される。第2実施形態では、第2の通知の再度の出力を行うか否かの判断基準が、運転者302の視線が表示装置25cに向いているか否か(S7)という基準以外の他の基準も存在するという点で、第1実施形態と異なる。   Next, a process executed by the ECU 214 according to the second embodiment will be described with reference to FIG. In 2nd Embodiment, the process of S1-S8 similar to 1st Embodiment mentioned above (refer FIG. 8) is performed. In the second embodiment, the criterion for determining whether or not to output the second notification again is a criterion other than the criterion of whether or not the driver's 302 is looking toward the display device 25c (S7). It differs from the first embodiment in that it exists.

すなわち、第2実施形態による処理フロー(図9参照)では、S7において、運転者302の視線が表示装置25cに向いていないと判断された場合、S7aに処理が進む。そして、S7aにおいて、出力処理部2405は、既に出力済の第2の通知の出力回数が予め設定された回数以上か否かを判断する。予め設定された回数とは、運転者302が過度の煩わしさを感じるか否かの分岐点となる回数であり、実験的または人間工学的に決定された数であってもよいし、運転者302が自ら任意で設定した数であってもよい。   That is, in the processing flow according to the second embodiment (see FIG. 9), if it is determined in S7 that the driver's 302 eyes are not facing the display device 25c, the processing proceeds to S7a. In step S <b> 7 a, the output processing unit 2405 determines whether or not the number of times of output of the second notification that has already been output is greater than or equal to a preset number. The preset number of times is the number of times that becomes a branch point of whether or not the driver 302 feels excessive annoyance, and may be an experimentally or ergonomically determined number. 302 may be an arbitrarily set number.

S7aにおいて、第2の通知の出力回数が予め設定された回数未満であると判断された場合、第2の通知を再度通知しても、運転者302に過度の煩わしさを感じさせることがない。したがって、この場合、S8において、第2の通知が再度出力され、S4に処理が戻る。   In S7a, when it is determined that the number of times of output of the second notification is less than a preset number of times, even if the second notification is notified again, the driver 302 does not feel excessive annoyance. . Therefore, in this case, the second notification is output again in S8, and the process returns to S4.

一方、S7aにおいて、第2の通知の出力回数が予め設定された回数以上であると判断された場合、第2の通知を再度出力すると、運転者302に過度の煩わしさを感じさせることになる。したがって、この場合、第2の通知を再度出力することなく、処理が終了する。   On the other hand, if it is determined in S7a that the number of times of output of the second notification is equal to or greater than the preset number of times, if the second notification is output again, the driver 302 will feel excessive annoyance. . Therefore, in this case, the process ends without outputting the second notification again.

以上説明したように、第2実施形態では、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、運転者302の視線が表示装置25cに向いており、かつ、第2の通知の出力回数が予め設定された回数未満である場合に、第2の通知を再度出力する。これにより、第2の通知の繰り返しの出力によって運転者302に過度の煩わしさを感じさせるのを抑制することができる。   As described above, in the second embodiment, when the second notification is output twice or more, the driver's 302's line of sight faces the display device 25c after the first second notification is output. If the number of times the second notification is output is less than a preset number, the second notification is output again. As a result, it is possible to suppress the driver 302 from feeling excessive annoyance due to the repeated output of the second notification.

なお、第2実施形態のその他の効果は、第1実施形態と同様であるため、ここでは説明を省略する。   In addition, since the other effect of 2nd Embodiment is the same as that of 1st Embodiment, description is abbreviate | omitted here.

(第3実施形態)
次に、図7を参照して、第3実施形態によるECU314の構成について説明する。この第3実施形態は、2回目以降の第2の通知の出力を停止させる条件として、運転者302の視線が表示装置25cに向いていること以外の他の条件が存在するという点で第2実施形態と同様であるが、当該他の条件の内容が第2実施形態と異なる。
(Third embodiment)
Next, the configuration of the ECU 314 according to the third embodiment will be described with reference to FIG. In the third embodiment, the second condition is that there is a condition other than the line of sight of the driver 302 facing the display device 25c as a condition for stopping the output of the second notification after the second time. Although it is the same as that of embodiment, the content of the said other conditions differs from 2nd Embodiment.

具体的に、第3実施形態による出力処理部3405は、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、運転者302の視線が表示装置25cに向いていることが検出され、かつ、運転者302が所定の能動的な目の操作を行ったことが検出されるまで、第2の通知を繰り返し出力する。所定の能動的な目の操作とは、たとえば、所定回数・所定間隔で能動的に行うまばたきなどである。つまり、第3実施形態では、第2の通知が2回以上出力されるのを回避するために、運転者302は、表示装置25cに目を向けた上で、まばたきなどの所定の目の操作を能動的に行う必要がある。   Specifically, when the output processing unit 3405 according to the third embodiment outputs the second notification more than once, after the first second notification is output, the driver 302's line of sight indicates the display device 25c. Until the driver 302 detects that the driver 302 has performed a predetermined active eye operation, and repeatedly outputs the second notification. The predetermined active eye operation is, for example, blinking actively performed at a predetermined number of times and at predetermined intervals. In other words, in the third embodiment, in order to avoid the second notification being output twice or more, the driver 302 looks at the display device 25c and then performs a predetermined eye operation such as blinking. Must be actively performed.

なお、第3実施形態のその他の構成は、上述した第2実施形態と同様であるため、ここでは説明を省略する。   In addition, since the other structure of 3rd Embodiment is the same as that of 2nd Embodiment mentioned above, description is abbreviate | omitted here.

次に、図10を参照して、第3実施形態によるECU314が実行する処理について説明する。この第3実施形態においても、第2実施形態と同様に、第1実施形態(図8参照)と同様のS1〜S6およびS8の処理が実行される。しかしながら、第3実施形態では、第2の通知が2回以上出力される場合(S4においてYesの場合)、第2実施形態とは異なる基準で、第2の通知の再度の出力(S8)を行うか否かを判断する。   Next, a process executed by the ECU 314 according to the third embodiment will be described with reference to FIG. Also in the third embodiment, similarly to the second embodiment, the same processes of S1 to S6 and S8 as in the first embodiment (see FIG. 8) are executed. However, in the third embodiment, when the second notification is output twice or more (in the case of Yes in S4), the second notification is output again (S8) on the basis different from the second embodiment. Determine whether to do it.

すなわち、第3実施形態による処理フロー(図10参照)では、S4において、第2の通知が少なくとも1回は既に出力されていると判断された場合、S7bに処理が進む。そして、そして、S7bにおいて、出力処理部3405は、運転者302の視線が表示装置25cに向いていることが検出され、かつ、運転者302が所定の能動的な目の操作を行ったことが検出されたか否かを判断する。所定の能動的な目の操作とは、たとえば、所定回数・所定間隔で能動的に行うまばたきなどである。   That is, in the processing flow according to the third embodiment (see FIG. 10), when it is determined in S4 that the second notification has already been output at least once, the processing proceeds to S7b. In S7b, the output processing unit 3405 detects that the driver's line of sight is facing the display device 25c, and that the driver 302 has performed a predetermined active eye operation. It is determined whether or not it has been detected. The predetermined active eye operation is, for example, blinking actively performed at a predetermined number of times and at predetermined intervals.

S7bにおいて、運転者302の視線が表示装置25cに向いていることが検出され、かつ、運転者302が所定の能動的な目の操作を行ったことが検出された場合、これ以上運転者302に表示装置25cを視認するように促す必要がなくなるので、処理が終了する。しかしながら、S7において、運転者302の視線が表示装置25cに向いていることが検出されない場合、または、運転者302の視線が表示装置25cに向いていることが検出されたとしても運転者302が所定の能動的な目の操作を行ったことが検出されない場合、運転者302が表示装置25cを能動的に確実に視認したとは言えない。したがって、この場合、S8において、出力処理部3405は、運転者302に表示装置25cを視認するように再度促すために、第2の通知を再度出力し、S4に処理が戻る。   In S7b, when it is detected that the line of sight of the driver 302 is facing the display device 25c, and it is detected that the driver 302 has performed a predetermined active eye operation, the driver 302 is no more. Since it is no longer necessary to prompt the user to visually recognize the display device 25c, the processing ends. However, if it is not detected in S7 that the driver's line of sight is directed to the display device 25c, or even if it is detected that the driver's line of sight is directed to the display device 25c, the driver 302 If it is not detected that a predetermined active eye operation has been performed, it cannot be said that the driver 302 has actively and reliably visually recognized the display device 25c. Therefore, in this case, in S8, the output processing unit 3405 outputs the second notification again to prompt the driver 302 to visually recognize the display device 25c, and the process returns to S4.

以上説明したように、第3実施形態による出力処理部3405は、第2の通知を2回以上出力する場合、1回目の第2の通知を出力した後においては、運転者302の視線が表示装置25cに向いていることが検出され、かつ、運転者302が所定の能動的な目の操作を行ったことが検出されるまで、第2の通知を繰り返し出力する。所定の能動的な目の操作とは、たとえば、所定回数・所定間隔で能動的に行うまばたきなどである。これにより、運転者302が表示装置25cに能動的に目を向けたか否かをより確実に判定することができる。   As described above, the output processing unit 3405 according to the third embodiment displays the line of sight of the driver 302 after the second notification is output for the first time when the second notification is output twice or more. The second notification is repeatedly output until it is detected that it is facing the device 25c and it is detected that the driver 302 has performed a predetermined active eye operation. The predetermined active eye operation is, for example, blinking actively performed at a predetermined number of times and at predetermined intervals. As a result, it is possible to more reliably determine whether the driver 302 has actively looked at the display device 25c.

なお、第3実施形態のその他の効果は、第2実施形態と同様であるため、ここでは説明を省略する。   The remaining effects of the third embodiment are the same as those of the second embodiment, and a description thereof will be omitted here.

(変形例)
上述した実施形態では、図7の各モジュールが、ソフトウェア(コンピュータプログラム)とハードウェア(CPU14a)との協働により実現される例を示した。しかしながら、図7の各モジュールは、ハードウェアのみによって実現されてもよい。つまり、実施形態では、図7の各モジュールに対応する専用のハードウェア(回路)が設けられてもよい。
(Modification)
In the embodiment described above, an example in which each module in FIG. 7 is realized by cooperation of software (computer program) and hardware (CPU 14a) has been described. However, each module in FIG. 7 may be realized only by hardware. That is, in the embodiment, dedicated hardware (circuit) corresponding to each module in FIG. 7 may be provided.

また、上述した実施形態では、運転者302の視線に基づいて制御を実行する例を示したが、視線の代わりに顔の向きを用いてもよい。   In the above-described embodiment, an example is shown in which control is executed based on the line of sight of the driver 302, but the face orientation may be used instead of the line of sight.

また、上述した実施形態では、認識状況が変化したことを運転者302に通知する第1の通知および第2の通知が、音声出力装置9から音声として出力される例を示した。しかしながら、第1の通知および第2の通知は、光や振動などとして出力されてもよい。また、第1の通知および第2の通知は、ナビゲーション装置11に設けられる音声出力装置9以外の他のスピーカ装置などから出力されてもよい。また、第1の通知および第2の通知は、図11に例示したような画像IM3として出力されてもよい。この画像IM3は、認識状況が変化したことを運転者302に通知する音声と同時に出力されてもよい。   In the above-described embodiment, the example in which the first notification and the second notification for notifying the driver 302 that the recognition state has changed is output from the voice output device 9 as voice. However, the first notification and the second notification may be output as light or vibration. In addition, the first notification and the second notification may be output from a speaker device other than the audio output device 9 provided in the navigation device 11. In addition, the first notification and the second notification may be output as an image IM3 illustrated in FIG. This image IM3 may be output simultaneously with the sound for notifying the driver 302 that the recognition status has changed.

ここで、図11の画像IM3は、ナビゲーション装置11の表示装置8に出力される画像であり、認識状況に変化が発生した旨のメッセージを含んでいる。上述した実施形態では、運転者302の視線がインストルメントパネル25の表示装置25cに向いていることが検出されたことを条件の1つとして、第2の通知の繰り返しの出力を停止する例を示した。しかしながら、図11に例示したような画像IM3が第1の通知および第2の通知として出力される場合では、運転者302の視線がナビゲーション装置11の表示装置8に向いていることが検出されたことを条件の1つとして、第2の通知の繰り返しの出力を停止してもよい。   Here, the image IM3 in FIG. 11 is an image output to the display device 8 of the navigation device 11 and includes a message indicating that a change has occurred in the recognition status. In the above-described embodiment, an example in which the repeated output of the second notification is stopped on the condition that it is detected that the line of sight of the driver 302 faces the display device 25c of the instrument panel 25 is one of the conditions. Indicated. However, when the image IM3 illustrated in FIG. 11 is output as the first notification and the second notification, it is detected that the line of sight of the driver 302 is facing the display device 8 of the navigation device 11. With this as one of the conditions, the repeated output of the second notification may be stopped.

また、上述した実施形態では、運転支援制御の一例としての追従走行制御が実行される場合の処理を主として説明した。しかしながら、以下に説明するように、運転支援制御の他の一例としての駐車支援制御が実行される場合においても、認識状況の変化を運転者302に確認させたい状況が存在する。たとえば、駐車開始時には認識されていなかった注意対象物が途中で新たに認識された場合や、逆に、駐車開始時において既に認識されていた注意対象物が途中で認識されなくなった場合などには、車両の周囲の状況の変化を運転者302に確認させる必要がある。以下、図12〜図19を参照して、駐車支援制御における認識状況の変化および当該変化が発生した場合に実行される処理についてより具体的に説明する。   In the above-described embodiment, the processing in the case where the follow-up running control as an example of the driving support control is executed has been mainly described. However, as will be described below, even when parking assistance control as another example of driving assistance control is executed, there is a situation in which the driver 302 wants to confirm a change in the recognition situation. For example, if a cautionary object that was not recognized at the start of parking is newly recognized in the middle, or conversely, a cautionary object that has already been recognized at the start of parking is no longer recognized in the middle It is necessary for the driver 302 to check the change in the situation around the vehicle. Hereinafter, with reference to FIGS. 12-19, the change of the recognition condition in parking assistance control and the process performed when the said change generate | occur | produces are demonstrated more concretely.

図12〜図15は、駐車支援制御の実行時にナビゲーション装置11の表示装置8に表示される駐車支援画像の一例として、車両1の周囲(駐車場所の周辺)の状況を俯瞰で見た駐車支援画像を示している。また、図16〜図19は、駐車支援画像の他の例として、車両1の周囲(駐車場所の周辺)の状況を車両1の後方の視野で見た駐車支援画像を示している。なお、図12〜図15に例示した俯瞰の駐車支援画像には、車両1に対応するマークM2が表示されている。   FIGS. 12 to 15 show parking assistance as an example of a parking assistance image displayed on the display device 8 of the navigation device 11 when the parking assistance control is executed. An image is shown. FIGS. 16 to 19 show parking assistance images in which the situation around the vehicle 1 (the vicinity of the parking place) is viewed from the rear view of the vehicle 1 as another example of the parking assistance image. In addition, the mark M2 corresponding to the vehicle 1 is displayed in the overhead parking assistance image illustrated in FIGS.

図12および図13は、駐車開始時には認識されていなかった注意対象物が途中で新たに認識された場合における俯瞰の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物としての他の車両が新たに認識されることにより、駐車開始時の画像IM4(図12参照)が、新たに認識された他の車両を示すマークM3を含む画像IM5(図13参照)に切り替わっている。   FIG. 12 and FIG. 13 show specific examples of changes in the overhead parking assistance image when a cautionary object that has not been recognized at the start of parking is newly recognized on the way. In this specific example, when another vehicle as the attention object is newly recognized, the image IM4 (see FIG. 12) at the start of parking includes an image M3 indicating the newly recognized other vehicle. It is switched to IM5 (see FIG. 13).

また、図14および図15は、駐車開始時において既に認識されていた注意対象物が途中で認識されなくなった場合における俯瞰の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物として既に認識されていた人間が途中で認識されなくなることにより、認識済の人間を示すマークM4を含む駐車開始時の画像IM6(図12参照)が、マークM4を含まない画像IM7(図13参照)に切り替わっている。   14 and 15 show a specific example of a change in the overhead parking assistance image when the attention object that has already been recognized at the start of parking is no longer recognized in the middle. In this specific example, when a person who has already been recognized as a target object is no longer recognized in the middle, the image IM6 (see FIG. 12) at the start of parking including the mark M4 indicating the recognized person is displayed with the mark M4. It is switched to the image IM7 (see FIG. 13) that is not included.

また、図16および図17は、駐車開始時には認識されていなかった注意対象物が途中で新たに認識された場合における後方視野の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物としての人間が新たに認識されることにより、駐車開始時の画像IM8(図16参照)が、新たに認識された人間を示すマークM5を含む画像IM9(図17参照)に切り替わっている。   FIGS. 16 and 17 show specific examples of changes in the parking assistance image in the rear visual field when a cautionary object that has not been recognized at the start of parking is newly recognized in the middle. In this specific example, when a person as an attention object is newly recognized, the image IM8 (see FIG. 16) at the start of parking includes an image IM9 (FIG. 17) including a mark M5 indicating the newly recognized person. To see).

また、図18および図19は、駐車開始時において既に認識されていた注意対象物が途中で認識されなくなった場合における後方視野の駐車支援画像の変化の具体例を示している。この具体例では、注意対象物として既に認識されていた他の車両が途中で認識されなくなることにより、認識済の他の車両を示すマークM6を含む駐車開始時の画像IM10(図18参照)が、マークM6を含まない画像IM11(図19参照)に切り替わっている。   FIG. 18 and FIG. 19 show specific examples of changes in the parking assistance image in the rear view when the attention object that has already been recognized at the start of parking is no longer recognized in the middle. In this specific example, an image IM10 (see FIG. 18) at the start of parking including a mark M6 indicating another recognized vehicle is detected when another vehicle that has already been recognized as a cautionary object is not recognized. , The image IM11 does not include the mark M6 (see FIG. 19).

上述のように認識状況の変化に伴って駐車支援画像が切り替わる場合、当該認識状況の変化を運転者302に通知し、注意対象物の有無を確認させる必要がある。したがって、駐車支援制御の実行時に認識状況が変化した場合でも、追従走行制御の実行時に認識状況が変化した場合と同様に、第1の通知や第2の通知が出力される。なお、駐車支援制御の実行時においては、運転者302の視線が表示装置8(上述した画像IM4〜IM11)を視認したことが検出されたことの他に、運転者302の視線が注意対象物を向いたことを、第1の通知や第2の通知の出力を停止する条件に設定してもよい。たとえば、図13の例では、マークM3で示される他の車両が位置すると考えられる方向(つまり車両1の右後方)に運転者302の視線が向いたことが検出された場合に第1の通知や第2の通知などの出力が停止されるように条件設定が行われてよい。同様に、図17の例では、マークM5で示される人間が位置すると考えられる方向(つまり車両1の左後方)に運転者302の視線が向いたことが検出された場合に第1の通知や第2の通知などの出力が停止されるように条件設定が行われてよい。このような条件設定を行えば、より確実に、運転者302に注意対象物の有無を確認させることができる。   As described above, when the parking assistance image is switched in accordance with the change in the recognition state, it is necessary to notify the driver 302 of the change in the recognition state and to confirm the presence or absence of the attention object. Therefore, even when the recognition status changes during the execution of the parking assistance control, the first notification and the second notification are output as in the case where the recognition status changes during the execution of the follow-up running control. It should be noted that at the time of executing the parking assist control, in addition to detecting that the driver's line of sight has visually recognized the display device 8 (the above-described images IM4 to IM11), the driver's 302's line of sight is the attention object. It may be set as a condition for stopping the output of the first notification and the second notification. For example, in the example of FIG. 13, the first notification is made when it is detected that the line of sight of the driver 302 is directed in a direction in which another vehicle indicated by the mark M3 is considered to be located (that is, right rear of the vehicle 1). The condition may be set such that the output of the second notification or the like is stopped. Similarly, in the example of FIG. 17, when it is detected that the line of sight of the driver 302 is directed in the direction in which the person indicated by the mark M5 is supposed to be located (that is, the left rear of the vehicle 1), Condition setting may be performed so that output of the second notification or the like is stopped. If such condition setting is performed, the driver 302 can be more surely checked for the presence or absence of the target object.

以上、本発明の実施形態および変形例を説明したが、上述した実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上述した実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment and the modification of this invention were described, embodiment and the modification which were mentioned above are an example to the last, Comprising: It is not intending limiting the range of invention. The above-described embodiments and modifications can be implemented in various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The above-described embodiments and modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 車両
9 音声出力装置(通知部)
14、214、314 ECU(運転支援装置)
25c 表示装置
401 認識処理部
402 運転支援処理部
403 表示処理部
404 検出処理部
405、2405、3405 出力処理部
1 Vehicle 9 Audio output device (notification unit)
14, 214, 314 ECU (driving support device)
25c display device 401 recognition processing unit 402 driving support processing unit 403 display processing unit 404 detection processing unit 405, 2405, 3405 output processing unit

Claims (6)

車両の周囲の状況を認識する認識処理部と、
前記認識処理部によって認識された前記車両の周囲の状況に応じて運転支援制御を実行する運転支援処理部と、
前記車両の周囲の状況が変化した場合に、前記車両の周囲の状況の変化を表示部に表示する表示処理部と、
前記車両の運転者の視線に関する情報を検出する検出処理部と、
前記車両の周囲の状況が変化した場合に、前記表示部とは別の通知部を用いて、前記車両の周囲の状況が変化したことを前記運転者に通知する第1の通知を出力し、前記第1の通知を出力した後、前記検出処理部による検出結果に基づき、前記運転者の視線が前記表示部に向いていることが検出されない場合に、前記通知部を用いて、前記車両の周囲の状況が変化したことを前記運転者に再度通知する第2の通知を出力する出力処理部とを備える、運転支援装置。
A recognition processor that recognizes the situation around the vehicle;
A driving support processing unit that executes driving support control according to a situation around the vehicle recognized by the recognition processing unit;
A display processing unit for displaying a change in the situation around the vehicle on a display unit when the situation around the vehicle changes;
A detection processing unit for detecting information related to the line of sight of the driver of the vehicle;
When a situation around the vehicle has changed, a notification unit different from the display unit is used to output a first notification that notifies the driver that the situation around the vehicle has changed, After outputting the first notification, based on the detection result by the detection processing unit, when it is not detected that the driver's line of sight is facing the display unit, the notification unit is used to A driving support device comprising: an output processing unit that outputs a second notification that notifies the driver again that the surrounding situation has changed.
前記出力処理部は、前記運転者の視線が前記表示部に向いていることが検出されるまで、前記第2の通知を繰り返し出力する、請求項1に記載の運転支援装置。   The driving support device according to claim 1, wherein the output processing unit repeatedly outputs the second notification until it is detected that the driver's line of sight is facing the display unit. 前記出力処理部は、前記第2の通知を、前記第1の通知とは異なる出力形態で出力するとともに、前記第2の通知を2回以上出力する場合、2回目以降の前記第2の通知を、過去に出力した前記第2の通知とは異なる出力形態で出力する、請求項2に記載の運転支援装置。   The output processing unit outputs the second notification in an output form different from that of the first notification, and outputs the second notification two or more times when the second notification is output twice or more. The driving support device according to claim 2, wherein the output is different from the second notification output in the past. 前記出力処理部は、前記第2の通知を2回以上出力する場合、1回目の前記第2の通知を出力した後においては、予め設定された回数まで前記第2の通知を繰り返し出力する、請求項2または3に記載の運転支援装置。   The output processing unit, when outputting the second notification two or more times, after outputting the second notification for the first time, repeatedly outputs the second notification up to a preset number of times. The driving support device according to claim 2 or 3. 前記出力処理部は、前記第2の通知を2回以上出力する場合、1回目の前記第2の通知を出力した後においては、前記検出処理部によって前記運転者の視線が前記表示部に向いていることが検出され、かつ、前記運転者が所定の能動的な目の操作を行ったことが検出されるまで、前記第2の通知を繰り返し出力する、請求項2または3に記載の運転支援装置。   When the output processing unit outputs the second notification more than once, after the first notification of the second notification is output, the driver's line of sight is directed to the display unit by the detection processing unit. 4. The driving according to claim 2, wherein the second notification is repeatedly output until it is detected that the driver has performed a predetermined active eye operation. 5. Support device. 前記通知部は、音を出力可能な音出力部を含み、
前記出力処理部は、前記音出力部を用いて、前記第1の通知および前記第2の通知を音で出力する、請求項1〜5のいずれか1項に記載の運転支援装置。
The notification unit includes a sound output unit capable of outputting sound,
The driving support device according to any one of claims 1 to 5, wherein the output processing unit outputs the first notification and the second notification by sound using the sound output unit.
JP2015194782A 2015-09-30 2015-09-30 Driving support device Pending JP2017068673A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015194782A JP2017068673A (en) 2015-09-30 2015-09-30 Driving support device
PCT/JP2016/067560 WO2017056570A1 (en) 2015-09-30 2016-06-13 Driving support device
US15/758,521 US20180257565A1 (en) 2015-09-30 2016-06-13 Drive assist apparatus
EP16850747.3A EP3358549A4 (en) 2015-09-30 2016-06-13 Driving support device
CN201680052628.3A CN108028018A (en) 2015-09-30 2016-06-13 Drive assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015194782A JP2017068673A (en) 2015-09-30 2015-09-30 Driving support device

Publications (1)

Publication Number Publication Date
JP2017068673A true JP2017068673A (en) 2017-04-06

Family

ID=58495008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015194782A Pending JP2017068673A (en) 2015-09-30 2015-09-30 Driving support device

Country Status (1)

Country Link
JP (1) JP2017068673A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101974871B1 (en) * 2017-12-08 2019-05-03 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03277988A (en) * 1990-03-28 1991-12-09 Mitsubishi Electric Corp Apparatus for controlling distance between cars
JPH0761257A (en) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd Display device for vehicle
JP2010009607A (en) * 2009-07-03 2010-01-14 Mazda Motor Corp Obstacle alarm device for vehicle
JP2010186227A (en) * 2009-02-10 2010-08-26 Honda Motor Co Ltd Warning device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03277988A (en) * 1990-03-28 1991-12-09 Mitsubishi Electric Corp Apparatus for controlling distance between cars
JPH0761257A (en) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd Display device for vehicle
JP2010186227A (en) * 2009-02-10 2010-08-26 Honda Motor Co Ltd Warning device
JP2010009607A (en) * 2009-07-03 2010-01-14 Mazda Motor Corp Obstacle alarm device for vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101974871B1 (en) * 2017-12-08 2019-05-03 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
US10809738B2 (en) 2017-12-08 2020-10-20 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle

Similar Documents

Publication Publication Date Title
WO2017056570A1 (en) Driving support device
JP6380002B2 (en) Perimeter monitoring device
CN107798895B (en) Stopped vehicle traffic recovery alert
EP3261871B1 (en) Display control apparatus and method
JP6342856B2 (en) Vehicle control device
US7382240B2 (en) Warning device in a vehicle
WO2016067544A1 (en) Vehicle-mounted attention-attracting system and notification control device
US20190001886A1 (en) Method for enriching a field of view of a driver of a transportation vehicle with additional information, device for use in an observer transportation vehicle, device for use in an object, and transportation vehicle
US11618482B2 (en) State determination device, driving support device, state determination method, and driving support method
US20200169662A1 (en) Periphery monitoring device
JP2017068672A (en) Driving support device
JP7200968B2 (en) Vehicle control device and vehicle control method
JP2017068673A (en) Driving support device
JP2014103433A (en) Image display device for vehicle
US11104380B2 (en) Display controller
WO2018101274A1 (en) Safety confirmation device
US11091096B2 (en) Periphery monitoring device
JP2016196217A (en) Periphery monitoring device
US11302076B2 (en) Periphery monitoring apparatus
JP4968133B2 (en) Vehicle alarm device
US20200184722A1 (en) Periphery monitoring device
JP2015013511A (en) Vehicular input support device
JP2023149105A (en) Control device
JP2021028201A (en) Drive assisting device
JP2018206037A (en) Safety confirmation device and safety confirmation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200331