JP2020094861A - Driving assist device, driving assist program, and driving assist program - Google Patents

Driving assist device, driving assist program, and driving assist program Download PDF

Info

Publication number
JP2020094861A
JP2020094861A JP2018231657A JP2018231657A JP2020094861A JP 2020094861 A JP2020094861 A JP 2020094861A JP 2018231657 A JP2018231657 A JP 2018231657A JP 2018231657 A JP2018231657 A JP 2018231657A JP 2020094861 A JP2020094861 A JP 2020094861A
Authority
JP
Japan
Prior art keywords
information
priority
gaze
priority target
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018231657A
Other languages
Japanese (ja)
Inventor
剛史 神谷
Takashi Kamiya
剛史 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2018231657A priority Critical patent/JP2020094861A/en
Publication of JP2020094861A publication Critical patent/JP2020094861A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a driving assist device with which, when providing information for assisting a driver with driving on the basis of the driver's line of sight, it is possible to provide appropriate information to the driver.SOLUTION: The driving assist device comprises: a gaze area detection unit for detecting a gaze area that the driver of a vehicle is gazing on the basis of gaze information relating to the gaze direction of the driver; a gaze object detection unit for detecting an object present within the gaze area on the basis of information relating to the gaze area detected by the gaze area detection unit; a priority object determination unit for determining, when there exists a plurality of objects detected by the gaze object detection unit, a priority object among the plurality of objects which is to be provided with information; and an output control unit for causing notification information relating to the priority object determined by the priority object determination unit to be outputted.SELECTED DRAWING: Figure 1

Description

この発明は、車両の運転者に対して、運転を支援するための情報を提供する運転支援装置、運転支援プログラム、および、運転支援システムに関する。 The present invention relates to a driving support device, a driving support program, and a driving support system that provide a driver of a vehicle with information for supporting driving.

従来、車両の運転者に対して、当該運転者の運転を支援するための情報として、当該運転者の視線に基づく情報を提供する技術が知られている。
例えば、特許文献1には、ドライバ(運転者)の視線方向に基づいて、運転者が注視した注視対象物を決定し、当該注視対象物に関する情報を出力する情報提供装置が開示されている。特許文献1に開示されている情報提供装置では、運転者の視線上に存在する対象物を検出し、例えば当該対象物が運転者の視線上に存在する時間に基づいて、検出された対象物の中から、注視対象物を決定する。
BACKGROUND ART Conventionally, there is known a technique of providing a driver of a vehicle with information based on the line of sight of the driver as information for supporting the driving of the driver.
For example, Patent Document 1 discloses an information providing apparatus that determines a gaze target object that the driver gazes based on the driver's (driver's) gaze direction and outputs information regarding the gaze target object. The information providing apparatus disclosed in Patent Document 1 detects an object present in the line of sight of the driver, and detects the detected object based on, for example, the time the object is present in the line of sight of the driver. From among the above, the gaze target is determined.

特開2008−82822号公報JP, 2008-82822, A

特許文献1に開示されているような情報提供装置の技術に代表される従来技術では、注視対象物とされ得る対象物が複数存在する場合、どの対象物を注視対象物とすべきかの考慮がなされていない。そのため、運転者に対して適切な情報を提供できているとは言えないという課題があった。 In the related art represented by the technology of the information providing apparatus as disclosed in Patent Document 1, when there are a plurality of objects that can be gazed objects, it is necessary to consider which object should be the gazed object. Not done. Therefore, there is a problem that it cannot be said that appropriate information can be provided to the driver.

この発明は上記のような課題を解決するためになされたもので、運転者の視線に基づいて当該運転者の運転を支援するための情報を提供するにあたり、当該運転者に対して適切な情報を提供することができる運転支援装置を提供することを目的とする。 The present invention has been made to solve the above problems, and in providing information for supporting the driving of the driver based on the driver's line of sight, appropriate information for the driver. It is an object of the present invention to provide a driving support device that can provide the vehicle.

この発明に係る運転支援装置は、車両の運転者の視線方向に関する視線方向情報に基づき、当該運転者が注視している注視領域を検出する注視領域検出部と、注視領域検出部が検出した注視領域に関する情報に基づき、当該注視領域内に存在する対象物を検出する注視対象検出部と、注視対象検出部が検出した対象物が複数存在する場合、当該複数の対象物のうち、情報提供する対象となる優先対象物を決定する優先対象決定部と、優先対象決定部が決定した優先対象物に関する通知情報を出力させる出力制御部とを備えたものである。 The driving assistance device according to the present invention is based on the line-of-sight direction information regarding the line-of-sight direction of the driver of the vehicle, the gaze region detection unit that detects the gaze region that the driver gazes, and the gaze region detected by the gaze region detection unit. When there are a plurality of gaze target detection units that detect a target object that exists in the gaze region based on information about the region and a plurality of target objects detected by the gaze target detection unit, information is provided from among the plurality of target objects. It is provided with a priority target determination unit that determines a target priority target object, and an output control unit that outputs notification information regarding the priority target object determined by the priority target determination unit.

この発明によれば、運転者の視線に基づいて当該運転者の運転を支援するための情報を提供するにあたり、当該運転者に対して適切な情報を提供することができる。 According to the present invention, when providing information for supporting the driving of the driver based on the line of sight of the driver, it is possible to provide appropriate information to the driver.

実施の形態1に係る運転支援装置の構成例を示す図である。It is a figure which shows the structural example of the drive assistance device which concerns on Embodiment 1. 実施の形態1において、注視領域内に対象物が複数存在する場合において、優先対象決定部が優先対象物を決定する際に参照する優先対象決定条件の一例を説明する図である。FIG. 4 is a diagram illustrating an example of a priority target determination condition that the priority target determination unit refers to when the priority target determination unit determines a priority target object when a plurality of target objects exist in the gaze area in the first embodiment. 実施の形態1において、注視領域内に対象物が複数存在する場合において、優先対象決定部が優先対象物を決定する際に参照する優先対象決定条件のその他の一例を説明する図である。FIG. 7 is a diagram illustrating another example of the priority target determination condition referred to by the priority target determination unit when determining a priority target object when a plurality of objects exist in the gaze area in the first embodiment. 実施の形態1において、注視領域内に対象物が複数存在する場合において、優先対象決定部が優先対象物を決定する際に参照する優先対象決定条件のその他の一例を説明する図である。FIG. 7 is a diagram illustrating another example of the priority target determination condition referred to by the priority target determination unit when determining a priority target object when a plurality of objects exist in the gaze area in the first embodiment. 実施の形態1において、注視領域内に対象物が複数存在する場合において、優先対象決定部が優先対象物を決定する際に参照する優先対象決定条件のその他の一例を説明する図である。FIG. 7 is a diagram illustrating another example of the priority target determination condition referred to by the priority target determination unit when determining a priority target object when a plurality of objects exist in the gaze area in the first embodiment. 実施の形態1において、注視領域内に対象物が複数存在する場合において、優先対象決定部が優先対象物を決定する際に参照する優先対象決定条件のその他の一例を説明する図である。FIG. 7 is a diagram illustrating another example of the priority target determination condition referred to by the priority target determination unit when determining a priority target object when a plurality of objects exist in the gaze area in the first embodiment. 実施の形態1に係る運転支援装置の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the driving support device according to the first embodiment. 実施の形態1において、図7を用いて説明したように運転支援装置が動作し、動作した結果出力される通知情報のイメージを説明するための図である。FIG. 8 is a diagram for explaining an image of the notification information output as a result of the operation of the driving support device operating as described with reference to FIG. 7 in the first embodiment. 従来技術において、通知情報が生成され出力される動作、および、出力される通知情報のイメージを説明するための図である。FIG. 10 is a diagram for explaining an operation of generating and outputting notification information and an image of the output notification information in the conventional technology. 図10A,図10Bは、実施の形態1に係る運転支援装置のハードウェア構成の一例を示す図である。10A and 10B are diagrams showing an example of the hardware configuration of the driving support device according to the first embodiment.

以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る運転支援装置1の構成例を示す図である。
運転支援装置1は、例えば、車両のダッシュボードに設置された、車載用のカーナビゲーション装置に搭載される。
図1に示すように、運転支援装置1は、出力装置2、車内カメラ3、車外カメラ4、視線検出装置5、および、公衆無線通信機6と接続される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1.
FIG. 1 is a diagram illustrating a configuration example of the driving support device 1 according to the first embodiment.
The driving support device 1 is mounted on, for example, a vehicle-mounted car navigation device installed on a dashboard of a vehicle.
As shown in FIG. 1, the driving support device 1 is connected to an output device 2, an in-vehicle camera 3, an out-of-vehicle camera 4, a line-of-sight detection device 5, and a public wireless communication device 6.

出力装置2には、音声出力装置21および表示装置22が含まれる。
音声出力装置21は、例えば、カーナビゲーション装置に搭載され、車両内に設置されたスピーカであり、運転支援装置1から出力される通知情報(詳細は後述する)に基づく音声を出力する。また、音声出力装置21は、ナビゲーションシステムにおいて、ナビゲーション情報を音声にて出力する。
表示装置22は、例えば、カーナビゲーション装置に搭載される液晶ディスプレイ、または、運転者の前方視界に情報を重畳させて表示するヘッドアップディスプレイであり、運転支援装置1から出力される通知情報に基づく画像を表示する。また、表示装置22は、ナビゲーションシステムにおいて、ナビゲーション情報を表示する。
The output device 2 includes an audio output device 21 and a display device 22.
The voice output device 21 is, for example, a speaker installed in a car navigation device and installed in the vehicle, and outputs a voice based on notification information (details will be described later) output from the driving support device 1. Further, the voice output device 21 outputs the navigation information by voice in the navigation system.
The display device 22 is, for example, a liquid crystal display mounted in a car navigation device, or a head-up display that displays information by superimposing it on the driver's forward field of view, and is based on the notification information output from the driving support device 1. Display the image. The display device 22 also displays navigation information in the navigation system.

車内カメラ3は、例えば、車両のダッシュボードまたは天井部に設置される撮影装置である。車内カメラ3は、少なくとも、車両内の運転席の座席を含む領域を撮影する。より具体的には、車内カメラ3は、少なくとも、運転席のヘッドレストを含む領域を前方から撮影する。以下、車内カメラ3により撮影された画像を、「車内撮影画像」という。
車内カメラ3は、撮影した車内撮影画像を視線検出装置5に出力する。
The in-vehicle camera 3 is, for example, a photographing device installed on a dashboard or a ceiling of a vehicle. The in-vehicle camera 3 photographs at least an area including a driver's seat in the vehicle. More specifically, the in-vehicle camera 3 photographs at least an area including the headrest of the driver's seat from the front. Hereinafter, the image captured by the in-vehicle camera 3 is referred to as “in-vehicle captured image”.
The in-vehicle camera 3 outputs the captured in-vehicle captured image to the line-of-sight detection device 5.

車外カメラ4は、例えば、車両のフロントガラス上部に設置され、車両の周辺の風景を撮影する。より具体的には、車外カメラ4は、少なくとも、運転者の視界に相当する映像を撮影する。以下、車外カメラ4により撮影された画像を、「車外撮影画像」という。
車外カメラ4は、撮影した車外撮影画像を運転支援装置1に出力する。
The vehicle exterior camera 4 is installed, for example, on the windshield of the vehicle, and photographs the scenery around the vehicle. More specifically, the vehicle exterior camera 4 captures at least an image corresponding to the driver's visual field. Hereinafter, the image captured by the vehicle exterior camera 4 will be referred to as a “vehicle exterior captured image”.
The vehicle exterior camera 4 outputs the captured vehicle exterior image to the driving assistance device 1.

視線検出装置5は、車内カメラ3から出力される車内撮影画像に基づき、運転者の視線方向を検出する。視線検出装置5は、例えば、車内撮影画像から運転者の顔の向きおよび眼球の方向を検出して運転者の視線方向を検出する、既存の技術を用いて、運転者の視線方向を検出すればよい。
視線検出装置5は、検出した、運転者の視線方向に関する情報(以下、「視線方向情報」という。)を、運転支援装置1に出力する。
The line-of-sight detection device 5 detects the line-of-sight direction of the driver based on the in-vehicle captured image output from the in-vehicle camera 3. The line-of-sight detection device 5, for example, detects the driver's line-of-sight direction by detecting the driver's face direction and eyeball direction from the in-vehicle captured image, and detects the driver's line-of-sight direction using existing technology. Good.
The line-of-sight detection device 5 outputs the detected information regarding the driver's line-of-sight direction (hereinafter referred to as “line-of-sight direction information”) to the driving support device 1.

なお、車内カメラ3、車外カメラ4、および、視線検出装置5は、いわゆる「ドライバーモニタリングシステム(Driver Monitoring System,DMS)」と共用のものであってもよい。 The in-vehicle camera 3, the out-of-vehicle camera 4, and the line-of-sight detection device 5 may be shared with a so-called "driver monitoring system (DMS)".

公衆無線通信機6は、例えば、携帯電話またはスマートフォンである。公衆無線通信機6は、アプリケーションによって得られる交通情報を、運転支援装置1に出力する。 The public wireless communication device 6 is, for example, a mobile phone or a smartphone. The public wireless communication device 6 outputs the traffic information obtained by the application to the driving support device 1.

運転支援装置1は、視線検出装置5から出力された運転者の視線方向情報と、車外カメラ4から出力された車外撮影画像と、車両の現在位置の情報等に基づき、運転者が注視している領域(以下、「注視領域」という。)に存在する対象物に関する通知情報を生成し、当該通知情報を出力装置2から出力させる。通知情報の詳細については後述する。 The driving assistance device 1 is focused on by the driver on the basis of the driver's line-of-sight direction information output from the line-of-sight detection device 5, the vehicle exterior image output from the vehicle exterior camera 4, the current position information of the vehicle, and the like. The notification information regarding the object existing in the existing area (hereinafter referred to as “gaze area”) is generated, and the notification information is output from the output device 2. Details of the notification information will be described later.

運転支援装置1は、注視領域検出部11と、注視対象検出部12と、情報取得部13と、優先対象決定部14と、出力制御部15と、地図情報記憶部16を備える。
情報取得部13は、位置情報取得部131と、車速情報取得部132と、状態情報取得部133を備える。
The driving assistance device 1 includes a gaze area detection unit 11, a gaze target detection unit 12, an information acquisition unit 13, a priority target determination unit 14, an output control unit 15, and a map information storage unit 16.
The information acquisition unit 13 includes a position information acquisition unit 131, a vehicle speed information acquisition unit 132, and a state information acquisition unit 133.

注視領域検出部11は、視線検出装置5から出力された運転者の視線方向情報に基づき、当該運転者の注視領域を検出する。注視領域とは、例えば、注視している視線の先を中心とし、当該中心から、予め設定された一定の広がり、を有する領域である。
具体的には、注視領域検出部11は、運転者の視線方向情報に基づき、運転者が注視している方向を検出する。注視領域検出部11は、例えば、運転者の視線方向が一定時間変化しない場合、当該視線方向を、運転者が注視している方向として検出する。そして、注視領域検出部11は、検出した注視方向から、運転者の注視領域を検出する。
注視領域検出部11は、検出した運転者の注視領域に関する情報を、注視対象検出部12に出力する。以下の説明において、運転者の注視領域を、単に「注視領域」ともいうものとする。
The gaze area detection unit 11 detects the gaze area of the driver based on the driver's gaze direction information output from the gaze detection device 5. The gaze area is, for example, an area that has a predetermined predetermined spread from the center with the tip of the line of sight being gazed as the center.
Specifically, the gaze area detection unit 11 detects the direction in which the driver is gazing, based on the driver's gaze direction information. For example, when the driver's gaze direction does not change for a certain period of time, the gaze area detection unit 11 detects the gaze direction as the gaze direction of the driver. Then, the gaze area detection unit 11 detects the gaze area of the driver from the detected gaze direction.
The gaze area detection unit 11 outputs information about the detected gaze area of the driver to the gaze target detection unit 12. In the following description, the driver's gaze area is simply referred to as “gaze area”.

注視対象検出部12は、車外カメラ4から出力された車外撮影画像と、注視領域検出部11が出力した注視領域に関する情報に基づき、注視領域検出部11が検出した注視領域内に存在する対象物を検出する。実施の形態1において、対象物とは、施設、道路標識、有料道路等の出入口地点、または、通行人等、運転者が車両を運転中に視認し得るあらゆる物または生体を含む。
注視対象検出部12は、画像マッチング等、既存の技術を用いて、注視領域内に存在する対象物を検出するようにすればよい。また、例えば、注視対象検出部12は、後述する位置情報取得部131から出力される車両の現在位置の情報、および、後述する地図情報記憶部16に記憶されている地図情報に基づき、注視領域内に存在する対象物を検出するようにしてもよい。
注視対象検出部12は、検出した対象物に関する情報を、優先対象決定部14に出力する。
注視対象検出部12は、注視領域内に複数の対象物を検出した場合は、検出した全ての対象物に関する情報を、優先対象決定部14に出力する。
以下、注視対象検出部12が出力する、注視領域内に存在する1つ以上の対象物に関する情報を、「対象物情報」ともいうものとする。
The gaze target detection unit 12 detects an object existing in the gaze area detected by the gaze area detection unit 11 based on the vehicle exterior image output from the exterior camera 4 and information about the gaze area output from the gaze area detection unit 11. To detect. In the first embodiment, the target object includes any object or living body such as a facility, a road sign, an entrance/exit point such as a toll road, or a passerby that the driver can visually recognize while driving the vehicle.
The gaze target detection unit 12 may detect an object existing in the gaze area by using an existing technique such as image matching. Further, for example, the gaze target detection unit 12 determines the gaze area based on the information on the current position of the vehicle output from the position information acquisition unit 131 described below and the map information stored in the map information storage unit 16 described below. You may make it detect the target object which exists inside.
The gaze target detection unit 12 outputs information regarding the detected target object to the priority target determination unit 14.
When the gaze target detection unit 12 detects a plurality of target objects in the gaze area, the gaze target detection unit 12 outputs information regarding all the detected target objects to the priority target determination unit 14.
Hereinafter, the information about one or more objects existing in the gaze area, which is output by the gaze target detection unit 12, is also referred to as “object information”.

注視対象検出部12が出力する対象物情報には、対象物の情報と対応付けて、当該対象物の位置情報等、当該対象物を特定できる情報が含まれる。注視対象検出部12は、例えば、車外撮影画像と、車両の現在位置の情報と、地図情報から、対象物の位置情報等を取得すればよい。なお、対象物情報に含まれる対象物の位置情報は、地球座標系であらわされるものとする。注視対象検出部12は、車両の現在位置に基づき、車外撮影画像における座標系を、地球座標系に変換し、対象物の、地球座標系であらわされる位置情報を求めればよい。 The target object information output by the gaze target detection unit 12 includes information that can identify the target object such as position information of the target object in association with the information of the target object. The gaze target detection unit 12 may acquire the position information of the target object from the image captured outside the vehicle, the information on the current position of the vehicle, and the map information, for example. The position information of the object included in the object information is represented in the earth coordinate system. The gaze target detection unit 12 may convert the coordinate system in the image captured outside the vehicle to the earth coordinate system based on the current position of the vehicle, and obtain position information of the object represented by the earth coordinate system.

情報取得部13は、各種情報を取得する。
情報取得部13の位置情報取得部131は、車両の現在位置に関する情報を取得する。
位置情報取得部131は、車両の現在位置の情報を、例えば、車両に搭載されているGPS受信器(図示省略)がGPS衛星から受信するGPS情報から取得すればよい。
位置情報取得部131は、取得した車両の現在位置の情報を、優先対象決定部14に出力する。
The information acquisition unit 13 acquires various kinds of information.
The position information acquisition unit 131 of the information acquisition unit 13 acquires information regarding the current position of the vehicle.
The position information acquisition unit 131 may acquire the information on the current position of the vehicle from, for example, GPS information received from a GPS satellite by a GPS receiver (not shown) mounted on the vehicle.
The position information acquisition unit 131 outputs the acquired information on the current position of the vehicle to the priority target determination unit 14.

情報取得部13の車速情報取得部132は、現在の車速に関する情報を取得する。
車速情報取得部132は、現在の車速の情報を、例えば、車両に搭載されている車速センサ(図示省略)から取得すればよい。
車速情報取得部132は、取得した現在の車速の情報を、優先対象決定部14に出力する。
The vehicle speed information acquisition unit 132 of the information acquisition unit 13 acquires information regarding the current vehicle speed.
The vehicle speed information acquisition unit 132 may acquire the current vehicle speed information from, for example, a vehicle speed sensor (not shown) mounted on the vehicle.
The vehicle speed information acquisition unit 132 outputs the acquired information on the current vehicle speed to the priority target determination unit 14.

情報取得部13の状態情報取得部133は、現在の車両の走行状態に関する情報を取得する。実施の形態1において、車両の走行状態とは、例えば、車両が停車中であるか走行中であるか、または、前進しているか後退しているかの状態をいう。
状態情報取得部133は、現在の車両の走行状態に関する情報を、例えば、ギア信号から取得してもよいし、車速情報取得部132が取得した車速の情報に基づき、現在の車両の走行状態に関する情報を取得してもよい。
状態情報取得部133は、取得した現在の車両の走行状態に関する情報を、優先対象決定部14に出力する。
The state information acquisition unit 133 of the information acquisition unit 13 acquires information regarding the current traveling state of the vehicle. In the first embodiment, the running state of the vehicle means, for example, a state in which the vehicle is stopped or running, or is moving forward or backward.
The state information acquisition unit 133 may acquire information regarding the current traveling state of the vehicle from, for example, a gear signal, or based on the vehicle speed information acquired by the vehicle speed information acquisition unit 132, regarding the current traveling state of the vehicle. Information may be acquired.
The state information acquisition unit 133 outputs the acquired information about the current traveling state of the vehicle to the priority target determination unit 14.

優先対象決定部14は、注視対象検出部12から出力された対象物情報と、情報取得部13から出力された各種情報に基づき、運転者に対して優先して情報提供する対象とする対象物を決定する。
以下の説明において、優先対象決定部14が決定する、運転者に対して優先して情報提供する対象とする対象物を、「優先対象物」ともいうものとする。
優先対象決定部14は、対象物情報に基づき、注視領域内には対象物が1つしか存在しない場合は、当該対象物を、優先対象物に決定する。
優先対象決定部14は、対象物情報に基づき、注視領域内に存在する対象物が複数存在する場合は、予め設定されている優先対象決定条件に従って、当該複数の対象物のうちから、優先対象物を決定する。
優先対象決定部14によって決定された優先対象物に関する情報が、後に、通知情報として出力装置2から出力されることになる。通知情報の生成、および、当該通知情報の出力制御は、後述する出力制御部15が行う。
The priority target determination unit 14 is a target object to be preferentially provided with information to the driver based on the target object information output from the gaze target detection unit 12 and various information output from the information acquisition unit 13. To decide.
In the following description, the target object which is prioritized to provide information to the driver and which is determined by the priority target determination unit 14 is also referred to as “priority target object”.
Based on the object information, the priority target determination unit 14 determines the target object as a priority target object when only one target object exists in the gaze area.
Based on the object information, when there are a plurality of objects existing in the gaze area, the priority target determination unit 14 selects a priority target from among the plurality of objects according to a preset priority target determination condition. Decide things.
The information related to the priority target object determined by the priority target determination unit 14 will be output from the output device 2 later as the notification information. Generation of the notification information and output control of the notification information are performed by the output control unit 15 described later.

ここで、注視領域内に対象物が複数存在する場合に、優先対象決定部14が優先対象物を決定するために参照する優先対象決定条件について、具体例を挙げて詳しく説明する。
優先対象決定条件は、複数の対象物のうち、どの対象物を優先対象物とするかを決定するための情報であり、実施の形態1において、当該優先対象決定条件では、車両の位置、車速または走行状態と、優先順位が設定された対象物の情報とが、対応付けられている。
優先対象決定条件は、例えば、運転者が適宜設定し、運転支援装置1の、優先対象決定部14が参照可能な場所に記憶させておくことができる。また、例えば、優先対象決定条件は、運転支援装置1の出荷時に設定され、運転支援装置1の優先対象決定部14が参照可能な場所に記憶されているようにしてもよい。
Here, the priority target determination condition referred to by the priority target determination unit 14 to determine the priority target when a plurality of target objects exist in the gaze area will be described in detail with a specific example.
The priority target determination condition is information for determining which target object is to be the priority target object among the plurality of target objects, and in the first embodiment, the priority target determination condition includes the vehicle position and the vehicle speed. Alternatively, the traveling state and the information on the objects for which the priorities are set are associated with each other.
The priority target determination condition can be set by the driver as appropriate and can be stored in a location of the driving support device 1 where the priority target determination unit 14 can refer to, for example. Further, for example, the priority target determination condition may be set at the time of shipment of the driving support device 1 and stored in a location where the priority target determination unit 14 of the driving support device 1 can refer to.

図2〜図6は、実施の形態1において、注視領域内に対象物が複数存在する場合において、優先対象決定部14が優先対象物を決定する際に参照する優先対象決定条件の一例を説明する図である。 2 to 6 illustrate an example of the priority target determination condition referred to by the priority target determination unit 14 when determining a priority target in the case where a plurality of target objects exist in the gaze area in the first embodiment. FIG.

優先対象決定条件は、例えば、図2で示すように、車両の現在位置と、優先順位が付与された対象物の情報が対応付けられた情報である。なお、図2で示すように、優先対象決定条件において定義される、優先順位が付与された対象物には、特定の対象物のみならず、予め、対象物がその属性に応じてグループ分けされて設定される、対象物の種類が含まれる。具体的には、例えば、案内標識または規制標識等は、対象物の種類として「道路標識」が設定され、当該「道路標識」が、優先対象決定条件にて定義される。言い換えれば、優先対象決定条件において、「道路標識」とは、案内標識または規制標識等を含む。以下に説明する図3〜図6においても同様である。
例えば、今、車両が一般道路内にあり、注視対象検出部12から出力された対象物情報に基づけば、注視領域内には、施設に含まれる商業ビルと、道路標識に含まれる案内標識の2つの対象物が存在するとする。また、優先対象決定条件の内容は、図2に示すような内容であったとする。
この場合、図2の優先対象決定条件に従うと、商業ビルの方が、案内標識よりも、優先順位が高い。そこで、優先対象決定部14は、当該優先対象決定条件に従い、優先順位がより高い、商業ビルを、優先対象物に決定する。
このように、優先対象決定部14は、優先対象決定条件に従い、車両の位置に応じて、注視領域内に存在する複数の対象物のうちから、優先対象物を決定することができる。
なお、優先対象決定部14は、車両の位置を、位置情報取得部131から出力された車両の現在位置の情報と、後述する地図情報記憶部16に記憶されている地図情報とに基づいて判定する。
The priority target determination condition is, for example, as shown in FIG. 2, information in which the current position of the vehicle and the information of the target object to which the priority order is assigned are associated with each other. Note that, as shown in FIG. 2, not only the specific target objects but also the target objects, which are defined in the priority target determination condition and are given priority, are grouped in advance according to their attributes. The type of the object that is set according to the above is included. Specifically, for example, for a guide sign or a regulatory sign, “road sign” is set as the type of the object, and the “road sign” is defined by the priority target determination condition. In other words, in the priority target determination condition, the “road sign” includes a guide sign or a regulatory sign. The same applies to FIGS. 3 to 6 described below.
For example, if the vehicle is currently on a general road and based on the object information output from the gaze target detection unit 12, the gaze area includes a commercial building included in the facility and a guide sign included in the road sign. Suppose there are two objects. Further, it is assumed that the content of the priority target determination condition is as shown in FIG.
In this case, according to the priority target determination condition of FIG. 2, the commercial building has a higher priority than the guide sign. Therefore, the priority target determination unit 14 determines a commercial building having a higher priority as a priority target object according to the priority target determination condition.
In this way, the priority target determination unit 14 can determine the priority target object from the plurality of target objects existing in the gaze area according to the position of the vehicle according to the priority target determination condition.
The priority target determination unit 14 determines the position of the vehicle based on the current position information of the vehicle output from the position information acquisition unit 131 and the map information stored in the map information storage unit 16 described later. To do.

優先対象決定条件は、例えば、図3に示すように、車両の現在の車速と、優先順位が付与された対象物の情報が対応付けられた情報であってもよい。
図3に示す優先対象決定条件では、車速が速いか遅いかに応じて、優先順位付けられる対象物が異なるようになっている。ここでは、例えば、優先対象決定部14は、車速が予め設定された閾値以上であれば、車速が速いと判定し、車速が予め設定された閾値未満であれば、車速が遅いと判定するものとする。なお、優先対象決定部14は、車速情報取得部132から出力される車速の情報に基づいて、車速が速いか遅いかを判定する。
例えば、今、車速が時速50kmであり、注視対象検出部12から出力された対象物情報に基づけば、注視領域内には、高速道路の出入口地点と施設に含まれる商業ビルの2つの対象物が存在するとする。また、車速を判定するための閾値は、時速60kmであったとする。
この場合、車速は遅いと判定できるので、図3の優先対象決定条件に従うと、高速道路の出入口地点の方が、商業ビルよりも、優先順位が高い。そこで、優先対象決定部14は、当該優先対象決定条件に従い、優先順位がより高い、高速道路の出入口地点を、優先対象物に決定する。
このように、優先対象決定部14は、優先対象決定条件に従い、現在の車速に応じて、注視領域内に存在する複数の対象物のうちから、優先対象物を決定することができる。
The priority target determination condition may be, for example, as shown in FIG. 3, information in which the current vehicle speed of the vehicle and the information of the target object to which the priority is assigned are associated with each other.
In the priority target determination condition shown in FIG. 3, the prioritized target objects are different depending on whether the vehicle speed is fast or slow. Here, for example, the priority target determination unit 14 determines that the vehicle speed is fast when the vehicle speed is equal to or higher than a preset threshold value, and determines that the vehicle speed is slow when the vehicle speed is lower than the preset threshold value. And The priority target determination unit 14 determines whether the vehicle speed is fast or slow based on the vehicle speed information output from the vehicle speed information acquisition unit 132.
For example, the vehicle speed is now 50 km/h, and based on the object information output from the gazing target detection unit 12, the gazing area has two objects of a highway entrance and exit and a commercial building included in the facility. Is present. Further, it is assumed that the threshold value for determining the vehicle speed is 60 km/h.
In this case, since the vehicle speed can be determined to be slow, according to the priority target determination condition of FIG. 3, the entrance/exit point of the highway has a higher priority than the commercial building. Therefore, according to the priority target determination condition, the priority target determination unit 14 determines an entry point of a highway having a higher priority as a priority target object.
In this way, the priority target determination unit 14 can determine the priority target object from the plurality of target objects existing in the gaze area according to the current vehicle speed in accordance with the priority target determination condition.

優先対象決定条件は、例えば、図4で示すように、車両の現在の走行状態と、優先順位が付与された対象物の情報が対応付けられた情報であってもよい。
図4に示す優先対象決定条件では、車両が前進している走行状態であるか、後退している走行状態であるかに応じて、優先順位付けられる対象物が異なるようになっている。なお、優先対象決定部14は、状態情報取得部133から出力される走行状態の情報に基づいて、車両が前進しているか後退しているかを判定する。
例えば、今、車両が前進しており、注視領域内には、道路標識に含まれる規制標識と施設に含まれる家屋の2つの対象物が存在するとする。
この場合、図4の優先対象決定条件に従うと、規制標識の方が、家屋よりも、優先順位が高い。そこで、優先対象決定部14は、当該優先対象決定条件に従い、優先順位がより高い、規制標識を、優先対象物に決定する。
The priority target determination condition may be, for example, as shown in FIG. 4, information in which the current traveling state of the vehicle is associated with the information of the target object to which the priority is assigned.
In the priority target determination condition shown in FIG. 4, the prioritized target objects are different depending on whether the vehicle is in a traveling state in which the vehicle is moving forward or in a traveling state in which the vehicle is moving backward. The priority target determination unit 14 determines whether the vehicle is moving forward or backward based on the traveling state information output from the state information acquisition unit 133.
For example, it is assumed that the vehicle is moving forward and that two objects, that is, a regulation sign included in a road sign and a house included in a facility are present in the gazing area.
In this case, according to the priority target determination condition of FIG. 4, the regulation sign has a higher priority than the house. Therefore, the priority target determination unit 14 determines a regulatory sign having a higher priority as a priority target object according to the priority target determination condition.

また、例えば、今、車両が後退しており、注視領域内には、施設に含まれる家屋と、サイドミラーの2つの対象物が存在するとする。
この場合、図4の優先対象決定条件に従うと、施設もサイドミラーも、優先対象決定条件において、車両が後退している場合に優先順位付けられている対象物の中にはない。そこで、優先対象決定部14は、優先対象物はないと決定する。
例えば、車両を駐車させるために当該車両を後退させている場合、運転者は、サイドミラーによって後退状況の確認をするが、当該サイドミラーに関する情報を必要としているわけではないと推測される。また、サイドミラー越しに存在する家屋の情報を必要としているわけでもないと推測される。また、車両を後退させて駐車させる際には、車両の左側、右側または後方等、運転者の注視領域が頻繁に変わり得る。このような場合、運転者は、注視領域内の対象物に関する情報の提供を必要としていないと推測される。
そこで、例えば、運転者は、車両が後退している場合は、優先対象物はないと決定されるよう、優先対象決定条件を設定しておく。これにより、上述のとおり、優先対象決定部14は、優先対象物はないと決定することとなり、後に、運転者にとっては必要がないと推測される、注視領域内の対象物に関する情報が出力されないようになる。
In addition, for example, it is assumed that the vehicle is moving backward and two objects, a house included in the facility and a side mirror, exist in the gazing area.
In this case, according to the priority target determination condition of FIG. 4, neither the facility nor the side mirror is among the objects prioritized when the vehicle is moving backward in the priority target determination condition. Therefore, the priority target determination unit 14 determines that there is no priority target object.
For example, when the vehicle is being moved backward to park the vehicle, it is presumed that the driver does not need information regarding the side mirror although the driver confirms the backward movement condition by the side mirror. In addition, it is presumed that the information on the houses existing through the side mirrors is not needed. Further, when the vehicle is moved backward and parked, the driver's gaze area such as the left side, the right side or the rear side of the vehicle may frequently change. In such a case, it is presumed that the driver does not need to provide information regarding the object within the gaze area.
Therefore, for example, the driver sets the priority target determination condition so that it is determined that there is no priority target object when the vehicle is moving backward. As a result, as described above, the priority target determination unit 14 determines that there is no priority target object, and information about the target object in the gazing area, which is estimated to be unnecessary for the driver later, is not output. Like

このように、優先対象決定部14は、優先対象決定条件に従い、現在の車両の走行状態に応じて、注視領域内に存在する複数の対象物のうちから、優先対象物を決定することができる。
また、優先対象決定部14は、優先対象決定条件に従い、注視領域内に存在する複数の対象物の中には、優先対象物はないと決定することもできる。なお、上述の例では、図4に示すような優先対象決定条件に従って、優先対象決定部14が、優先対象物がないと決定する例を示したが、図2または図3に示すような優先対象決定条件に従っても、優先対象決定部14が、優先対象物がないと決定できる。
In this way, the priority target determination unit 14 can determine the priority target object from the plurality of target objects existing in the gaze area according to the current running state of the vehicle according to the priority target determination condition. .
Further, the priority target determination unit 14 can also determine that there is no priority target object among the plurality of target objects existing in the gaze area according to the priority target determination condition. In the above example, the priority target determination unit 14 determines that there is no priority target object according to the priority target determination condition as shown in FIG. 4, but the priority target as shown in FIG. 2 or FIG. Even according to the target determination condition, the priority target determination unit 14 can determine that there is no priority target object.

また、さらに、優先対象決定条件には、現在位置、車速、または、走行状態に付加条件を設定しておき、優先対象決定部14は、当該付加条件を加味して、優先対象物を決定するようにすることもできる。
例えば、図5は、図2に示す優先対象決定条件において、車両の現在位置が施設内である場合に、複数の対象物の中に、道路標識である、駐車場の案内標識があるか否かの付加条件を加えた優先対象決定条件の一例を示す図である。優先対象決定部14は、車両が施設内にある場合、図5に示すような優先対象決定条件に従い、複数の対象物の中に駐車場の案内標識があるかを加味して、優先対象物を決定することもできる。
具体的には、例えば、車両が商業ビルの駐車場内にあり、注視領域内には、当該商業ビルと、駐車場の案内標識の2つの対象物が存在するとする。この場合、優先対象決定部14は、優先対象決定条件に従い、駐車場の案内標識を、優先対象物に決定する。
Further, as the priority target determination condition, an additional condition is set to the current position, the vehicle speed, or the traveling state, and the priority target determination unit 14 determines the priority target object in consideration of the additional condition. You can also do so.
For example, in the priority target determination condition shown in FIG. 2, for example, in the case where the current position of the vehicle is within the facility, FIG. It is a figure which shows an example of the priority target determination condition which added that additional condition. When the vehicle is inside the facility, the priority target determining unit 14 takes into consideration whether or not there is a parking lot guidance sign among the plurality of objects according to the priority target determining condition as shown in FIG. Can also be determined.
Specifically, for example, it is assumed that the vehicle is in a parking lot of a commercial building, and two objects, that is, the commercial building and a guide sign for the parking lot, exist in the gazing area. In this case, the priority target determination unit 14 determines the parking lot guidance sign as a priority target object according to the priority target determination condition.

例えば、運転者が車両で商業ビルを訪れ、車両を停車させようとして、商業ビル内の駐車場を探すとする。このとき、注視領域には、運転者が訪れている商業ビルと駐車場の案内標識が存在するとする。この場合、駐車場を探している運転者にとっては、駐車場に関する情報が必要とされると推測される。
そこで、例えば、運転者は、車両が施設内にある場合、注視領域内の複数の対象物に、駐車場の案内標識があれば、当該駐車場の案内標識が優先対象物として最優先されるよう、優先対象決定条件を設定しておく。これにより、上述のとおり、優先対象決定部14は、駐車場の案内標識を優先対象物に決定することとなり、後に、運転者に対して、駐車場に関する情報が出力されることになる。
上記例では、付加条件を、「対象物に駐車場の案内標識があり」としたが、これに限らず、例えば、付加条件を、「現在位置が駐車場内」としてもよい。
また、ここでは、図2に示す優先対象決定条件において、付加条件が設定されている例を説明したが、これに限らず、図3または図4に示す優先対象決定条件において、付加条件が設定されるようにすることもできる。
For example, suppose a driver visits a commercial building with a vehicle and seeks to park the vehicle in search of a parking lot in the commercial building. At this time, it is assumed that there are guide signs for a commercial building and a parking lot visited by the driver in the gazing area. In this case, it is presumed that a driver looking for a parking lot needs information about the parking lot.
Therefore, for example, when the vehicle is in a facility, if the driver has a parking lot guidance sign for a plurality of objects in the gazing area, the parking lot guidance sign is given the highest priority as a priority object. So that the priority target determination condition is set. As a result, as described above, the priority target determination unit 14 determines the guide sign of the parking lot as the priority target object, and subsequently, the information about the parking lot is output to the driver.
In the above example, the additional condition is “the object has a parking lot guidance sign”, but the present invention is not limited to this, and the additional condition may be “the current position is in the parking lot”, for example.
Further, here, the example in which the additional condition is set in the priority target determination condition shown in FIG. 2 has been described, but the present invention is not limited to this, and the additional condition is set in the priority target determination condition shown in FIG. 3 or 4. It can also be done.

図2〜図5に示す優先対象決定条件は、それぞれ、車両の現在位置のみ、現在の車速のみ、または、車両の現在の走行状態のみが、優先順位が付与された対象物の情報に対応付けられているものとした。
これに限らず、優先対象決定条件は、例えば、図6に示すように、現在位置、車速、および、車両の走行状態と、優先順位が付与された対象物の情報とが対応付けられているものであってもよい。
あるいは、優先対象決定条件は、現在位置、車速、または、車両の走行状態のうち、いずれか2つと、優先順位が付与された対象物の情報とが対応付けられているものであってもよい。
In each of the priority target determination conditions shown in FIGS. 2 to 5, only the current position of the vehicle, only the current vehicle speed, or only the current running state of the vehicle is associated with the information of the priority-assigned target object. It is supposed to be.
The priority target determination condition is not limited to this, for example, as shown in FIG. 6, the current position, the vehicle speed, the running state of the vehicle, and the information of the objects to which the priorities are assigned are associated with each other. It may be one.
Alternatively, the priority target determination condition may be a condition in which any two of the current position, the vehicle speed, and the traveling state of the vehicle are associated with the information of the target object to which the priority is assigned. ..

優先対象決定条件において、車両の現在位置のみが、優先順位が付与された対象物の情報に対応付けられている場合、運転支援装置1は、車速情報取得部132および状態情報取得部133を備えない構成としてもよい。言い換えれば、優先対象決定部14が、優先対象物を決定する際に、車速および車両の走行状態を不問とする場合、運転支援装置1は、車速情報取得部132および状態情報取得部133を備えない構成としてもよい。
また、優先対象決定条件において、現在の車速のみが、優先順位が付与された対象物の情報に対応付けられている場合、運転支援装置1は、位置情報取得部131および状態情報取得部133を備えない構成としてもよい。言い換えれば、優先対象決定部14が、優先対象物を決定する際に、車両の現在位置および走行状態を不問とする場合、運転支援装置1は、位置情報取得部131および状態情報取得部133を備えない構成としてもよい。この場合、注視対象検出部12は、車両の現在位置の情報を、例えば、GPS受信器から取得するようにすればよい。
また、優先対象決定条件において、車両の現在の走行状態のみが、優先順位が付与された対象物の情報に対応付けられている場合、運転支援装置1は、位置情報取得部131および車速情報取得部132を備えない構成としてもよい。言い換えれば、優先対象決定部14が、優先対象物を決定する際に、車両の現在位置および車速を不問とする場合、運転支援装置1は、位置情報取得部131および車速情報取得部132を備えない構成としてもよい。
In the priority target determination condition, when only the current position of the vehicle is associated with the information of the target object to which the priority order is assigned, the driving assistance device 1 includes the vehicle speed information acquisition unit 132 and the state information acquisition unit 133. There may be no configuration. In other words, when the priority target determination unit 14 does not question the vehicle speed and the traveling state of the vehicle when determining the priority target object, the driving support device 1 includes the vehicle speed information acquisition unit 132 and the state information acquisition unit 133. There may be no configuration.
Further, in the priority target determination condition, when only the current vehicle speed is associated with the information of the target object to which the priority order is assigned, the driving assistance device 1 causes the position information acquisition unit 131 and the state information acquisition unit 133 to operate. The configuration may not be provided. In other words, when the priority target determination unit 14 does not question the current position and traveling state of the vehicle when determining the priority target object, the driving assistance device 1 causes the position information acquisition unit 131 and the state information acquisition unit 133 to operate. The configuration may not be provided. In this case, the gaze target detection unit 12 may acquire the information on the current position of the vehicle from, for example, a GPS receiver.
Further, in the priority target determination condition, when only the current traveling state of the vehicle is associated with the information of the target object to which the priority order is assigned, the driving assistance device 1 determines the position information acquisition unit 131 and the vehicle speed information acquisition. A configuration without the portion 132 may be adopted. In other words, when the priority target determination unit 14 does not ask the current position and vehicle speed of the vehicle when determining the priority target object, the driving support device 1 includes the position information acquisition unit 131 and the vehicle speed information acquisition unit 132. There may be no configuration.

なお、以上に述べた具体例では、注視領域内に存在する対象物が複数存在する場合として、対象物が2つ存在する場合を挙げたが、これは一例に過ぎない。
注視領域内に存在する対象物が3つ以上存在する場合であっても、優先対象決定部14は、具体例を挙げて上述した場合と同様に、優先対象決定条件に従い、優先対象物を決定する。
In addition, in the specific example described above, the case where two objects exist as the case where there are a plurality of objects existing in the gaze region, but this is only an example.
Even when there are three or more target objects existing in the gaze area, the priority target determination unit 14 determines the priority target objects according to the priority target determination conditions, as in the case described above with a specific example. To do.

また、以上に述べた具体例では、注視領域内に存在する対象物が複数存在する場合、当該複数の対象物は、施設と道路標識等、異なる種類の対象物であることを前提とした。しかしこれに限らず、注視範囲には、同じ種類の、複数の対象物が存在することもあり得る。具体的には、例えば、運転者の注視範囲には、道路標識に含まれる案内標識が2つ存在することもあり得る。この場合、優先対象決定部14は、優先対象物を決定する際に道路標識の優先順位が一番高ければ、2つの案内標識のうちいずれか一方の案内標識のみを優先対象物と決定することができる。具体的には、例えば、優先対象決定部14は、運転者の注視方向により近い案内標識を、優先対象物に決定する。
また、優先対象決定部14は、2つの案内標識の両方を、優先対象物に決定するようにしてもよい。
Further, in the specific examples described above, when there are a plurality of objects existing in the gaze area, it is assumed that the plurality of objects are different types of objects such as facilities and road signs. However, the present invention is not limited to this, and a plurality of objects of the same type may exist in the gazing range. Specifically, for example, there may be two guide signs included in the road sign in the driver's gaze range. In this case, the priority target determination unit 14 determines only one of the two guide signs as the priority target if the priority of the road sign is the highest when determining the priority target. You can Specifically, for example, the priority target determination unit 14 determines a guidance sign closer to the driver's gaze direction as a priority target object.
Moreover, the priority target determination unit 14 may determine both of the two guide signs as priority target objects.

優先対象決定部14は、決定した優先対象物の情報を、出力制御部15に出力する。優先対象決定部14は、優先対象物がないと決定した場合は、優先対象物がない旨の情報を、優先対象物の情報として、出力制御部15に出力する。
以下、優先対象決定部14が出力する、優先対象物の情報を、「優先対象物情報」ともいうものとする。
優先対象物情報が、優先対象物がない旨の情報である場合を除き、優先対象決定部14が出力する優先対象物情報には、位置情報等、優先対象物を特定できる情報が含まれる。当該優先対象物を特定できる情報は、注視対象検出部12から出力された対象物情報に含まれる、対象物を特定できる情報と同様の内容である。
The priority target determination unit 14 outputs information on the determined priority target object to the output control unit 15. When it is determined that there is no priority target object, the priority target determination unit 14 outputs information indicating that there is no priority target object to the output control unit 15 as information of the priority target object.
Hereinafter, the information of the priority target object output by the priority target determination unit 14 is also referred to as “priority target object information”.
Unless the priority target information is information indicating that there is no priority target, the priority target information output by the priority target determination unit 14 includes information such as position information that can identify the priority target. The information that can specify the priority target object has the same content as the information that can specify the target object, which is included in the target object information output from the gaze target detection unit 12.

図1の説明に戻る。
出力制御部15は、優先対象決定部14から出力された、優先対象物情報に基づき、優先対象物に関する情報を通知するための通知情報を生成し、出力装置2に出力させる。具体的には、出力制御部15は、通知情報を、音声出力装置21から音声出力させる。または、出力制御部15は、通知情報を、表示装置22に表示させる。出力制御部15は、通知情報を、音声出力装置21から音声出力させるとともに、表示装置22に表示させるようにしてもよい。
Returning to the explanation of FIG.
The output control unit 15 generates notification information for notifying information regarding the priority target object based on the priority target object information output from the priority target determination unit 14, and causes the output device 2 to output the notification information. Specifically, the output control unit 15 causes the voice output device 21 to voice output the notification information. Alternatively, the output control unit 15 causes the display device 22 to display the notification information. The output control unit 15 may cause the display device 22 to display the notification information as well as having the sound output device 21 output the sound.

実施の形態1において、通知情報とは、例えば、優先対象物が施設に含まれる対象物であった場合、当該対象物の属性情報である。施設に含まれる対象物の属性情報とは、当該対象物の名称、所在地、または、収容人数等、当該対象物がどのような施設であるのかを示す情報をいう。後述する地図情報記憶部16に記憶されている地図情報には、道路情報の他に、緯度または経度であらわされる位置情報と関連付けて、上記施設の属性情報が含まれる。出力制御部15は、地図情報を参照して、施設の属性情報を取得し、通知情報を生成するようにすればよい。 In the first embodiment, the notification information is, for example, attribute information of the target object when the priority target object is the target object included in the facility. The attribute information of the target object included in the facility is information indicating what kind of facility the target object is, such as the name, location, or number of persons accommodated in the target object. In addition to road information, the map information stored in the map information storage unit 16 to be described later includes the attribute information of the facility in association with the position information represented by latitude or longitude. The output control unit 15 may refer to the map information, acquire the attribute information of the facility, and generate the notification information.

また、通知情報とは、例えば、優先対象物が道路標識に含まれる対象物であった場合、当該対象物で示されている内容に関する情報である。具体的には、例えば、道路標識に含まれる案内標識であれば、ある地点までの方面、方向または距離等を示す情報である。また、例えば、道路標識に含まれる規制標識であれば、規制内容を示す情報である。出力制御部15は、地図情報を参照して、道路標識で示されている情報を取得し、通知情報を生成するようにすればよい。地図情報には、道路情報として、道路標識に関する情報も含まれている。 Further, the notification information is, for example, information about the content indicated by the target object when the priority target object is the target object included in the road sign. Specifically, for example, a guide sign included in a road sign is information indicating the direction, direction, distance, or the like to a certain point. Further, for example, if it is a regulation sign included in a road sign, it is information indicating the content of regulation. The output control unit 15 may refer to the map information, acquire the information indicated by the road sign, and generate the notification information. The map information also includes information about road signs as road information.

また、通知情報とは、例えば、優先対象物が、道路標識に含まれる、駐車場の案内標識であった場合、当該駐車場の空き状況を示す情報である。出力制御部15は、公衆無線通信機6から出力される交通情報から、駐車場の空き状況に関する情報を取得し、通知情報を生成するようにすればよい。公衆無線通信機6から出力される交通情報には、駐車場の空き状況に関する情報も含まれる。 The notification information is, for example, information indicating the availability of the parking lot when the priority target object is a parking lot guidance sign included in the road sign. The output control unit 15 may acquire the information regarding the vacancy status of the parking lot from the traffic information output from the public wireless communication device 6 and generate the notification information. The traffic information output from the public wireless communication device 6 also includes information on the availability of the parking lot.

出力制御部15が、どのような優先対象物に対して、どのような通知情報を生成するかは、優先対象物に応じて、予め設定されている。
出力制御部15は、優先対象物に応じて、当該優先対象物に関する情報を、通知情報として生成するようになっていればよい。
What kind of notification information the output control unit 15 generates for what priority object is set in advance according to the priority object.
It suffices for the output control unit 15 to generate information regarding the priority target object as notification information in accordance with the priority target object.

地図情報記憶部16は、地図情報を記憶する。地図情報には、道路情報、位置情報、または、施設情報等が含まれる。
ここでは、図1に示すように、地図情報記憶部16は、運転支援装置1に備えられるものとするが、これに限らず、地図情報記憶部16は、運転支援装置1の外部の、運転支援装置1が参照可能な場所に備えられるものとしてもよい。
The map information storage unit 16 stores map information. The map information includes road information, position information, facility information and the like.
Here, as shown in FIG. 1, it is assumed that the map information storage unit 16 is provided in the driving support device 1, but the present invention is not limited to this, and the map information storage unit 16 is provided outside the driving support device 1 for driving. The support device 1 may be provided at a location where it can be referenced.

実施の形態1に係る運転支援装置1の動作について説明する。
図7は、実施の形態1に係る運転支援装置1の動作を説明するためのフローチャートである。
注視領域検出部11は、視線検出装置5から運転者の視線方向情報を取得し(ステップST701)、取得した運転者の視線方向情報に基づき、当該運転者の注視領域を検出する(ステップST702)。
注視領域検出部11は、検出した注視領域に関する情報を、注視対象検出部12に出力する。
The operation of the driving support device 1 according to the first embodiment will be described.
FIG. 7 is a flowchart for explaining the operation of the driving support device 1 according to the first embodiment.
The gaze area detection unit 11 acquires the gaze direction information of the driver from the gaze detection device 5 (step ST701), and detects the gaze area of the driver based on the acquired gaze direction information of the driver (step ST702). ..
The gaze area detection unit 11 outputs information about the detected gaze area to the gaze target detection unit 12.

注視対象検出部12は、車外カメラ4から出力された車外撮影画像と、ステップST702にて注視領域検出部11が出力した注視領域に関する情報に基づき、注視領域検出部11が検出した注視領域内に存在する対象物を検出する(ステップST703)
注視対象検出部12は、検出した対象物情報を、優先対象決定部14に出力する。
The gazing target detection unit 12 determines whether the gazing area detected by the gazing area detection unit 11 is within the gazing area detected by the gazing area detection unit 11 on the basis of the vehicle outside image output from the outside camera 4 and the information about the gazing area output by the gazing area detection unit 11 in step ST702. Detect existing object (step ST703)
The gaze target detection unit 12 outputs the detected target object information to the priority target determination unit 14.

優先対象決定部14は、ステップST703にて注視対象検出部12から出力された対象物情報に基づき、注視領域内に対象物が複数存在するか否かを判定する(ステップST704)。
ステップST704において、注視領域内に対象物は1つしか存在しないと判定した場合(ステップST704の“NO”の場合)、優先対象決定部14は、対象物情報に基づく対象物を、優先対象物に決定する(ステップST705)。すなわち、優先対象決定部14は、ステップST703にて注視対象検出部12が検出した対象物を、優先対象物に決定する。
優先対象決定部14は、決定した優先対象物の情報を、出力制御部15に出力する。
The priority target determination unit 14 determines whether or not a plurality of target objects exist in the gaze area based on the target object information output from the gaze target detection unit 12 in step ST703 (step ST704).
In step ST704, when it is determined that there is only one target object in the gazing area (in the case of “NO” in step ST704), the priority target determination unit 14 determines the target object based on the target object information as the priority target object. Is determined (step ST705). That is, the priority target determination unit 14 determines the target object detected by the gaze target detection unit 12 in step ST703 as a priority target object.
The priority target determination unit 14 outputs information on the determined priority target object to the output control unit 15.

ステップST704において、注視領域内に対象物は複数存在すると判定した場合(ステップST704の“YES”の場合)、優先対象決定部14は、ステップST703にて注視対象検出部12から出力された対象物情報と、情報取得部13から出力された各種情報に基づき、優先対象物を決定する(ステップST706)。具体的には、優先対象決定部14は、注視対象検出部12から出力された対象物情報と、情報取得部13から出力された各種情報に基づき、優先対象決定条件に従って、複数の対象物のうちから、優先対象物を決定する。
優先対象決定部14は、優先対象物情報を出力制御部15に出力する。
When it is determined in step ST704 that a plurality of objects exist in the gaze area (in the case of “YES” in step ST704), the priority target determination unit 14 outputs the object output from the gaze target detection unit 12 in step ST703. Based on the information and various information output from the information acquisition unit 13, the priority target object is determined (step ST706). Specifically, the priority target determination unit 14 determines, based on the target object information output from the gaze target detection unit 12 and the various information output from the information acquisition unit 13, a plurality of target objects according to the priority target determination condition. From within, decide the priority object.
The priority target determination unit 14 outputs the priority target object information to the output control unit 15.

出力制御部15は、ステップST705またはステップST706にて優先対象決定部14から出力された、優先対象物情報に基づき、優先対象物に関する情報を通知するための通知情報を生成し(ステップST707)、生成した通知情報を、出力装置2に出力させる(ステップST708)。 The output control unit 15 generates notification information for notifying information about the priority target object based on the priority target object information output from the priority target determination unit 14 in step ST705 or step ST706 (step ST707), The generated notification information is output to the output device 2 (step ST708).

図8は、実施の形態1において、図7を用いて説明したように運転支援装置1が動作し、動作した結果出力される通知情報のイメージを説明するための図である。なお、図8は、運転支援装置1において、優先対象決定部14が、車両の現在位置に基づいて優先対象物を決定し、参照する優先対象決定条件は図2に示すものである場合に、生成され出力される通知情報のイメージを説明するための図としている。
今、車両が高速道路を走っており、運転者100は前方の、道路標識に含まれる案内標識801の方向を注視しているものとする。このとき、案内標識801は、運転者100の視界において、ビル802と重なっている。
FIG. 8 is a diagram for explaining an image of the notification information output as a result of the operation of the driving support device 1 operating as described with reference to FIG. 7 in the first embodiment. In addition, in FIG. 8, in the driving assistance device 1, when the priority target determination unit 14 determines the priority target object based on the current position of the vehicle and the priority target determination conditions to be referred to are those shown in FIG. It is a figure for demonstrating the image of the notification information produced|generated and output.
Now, it is assumed that the vehicle is running on a highway and the driver 100 is gazing ahead in the direction of the guide sign 801 included in the road sign. At this time, the guide sign 801 overlaps with the building 802 in the field of view of the driver 100.

注視領域検出部11は、視線検出装置5から取得した視線方向情報に基づき、運転者100の注視方向を検出し、注視領域800を検出する(図7のステップST701〜ステップST702参照)。
注視対象検出部12は、車外カメラ4から出力された車外撮影画像と、注視領域検出部11が検出した注視領域800に基づき、注視領域800内に存在する対象物として、案内標識801と、ビル802を検出する(図7のステップST703参照)。
注視領域800内には、2つの対象物が検出されたので(図7のステップST704の“YES”の場合参照)、優先対象決定部14は、図2に示す優先対象決定条件に従って、案内標識801とビル802のうち、どちらを優先対象物とするか決定する。
The gaze area detection unit 11 detects the gaze direction of the driver 100 based on the gaze direction information acquired from the eye gaze detection device 5 and detects the gaze area 800 (see steps ST701 to ST702 in FIG. 7).
The gaze target detection unit 12 is based on the exterior image captured by the exterior camera 4 and the gaze area 800 detected by the gaze area detection unit 11, and is an object existing in the gaze area 800. 802 is detected (see step ST703 in FIG. 7).
Since two objects have been detected in the gaze area 800 (refer to the case of “YES” in step ST704 of FIG. 7), the priority target determination unit 14 follows the priority target determination conditions shown in FIG. It is determined which one of 801 and the building 802 is to be the priority object.

具体的には、優先対象決定部14は、位置情報取得部131から出力された車両の現在位置の情報と地図情報記憶部16に記憶されている地図情報から、車両が高速道路上にあることを判定する。そして、優先対象決定部14は、優先対象決定条件に従って、案内標識801の方が、ビル802よりも優先順位が高いと判定し、案内標識801を、優先対象物に決定する(図7のステップST706参照)。
出力制御部15は、優先対象決定部14が優先対象物と決定した案内標識801に関する情報を通知するための通知情報803を生成し、出力装置2に出力させる。ここでは、出力制御部15は、通知情報803をスピーカから出力させるものとしている。
運転者100は、音声出力された通知情報803を確認し、注視領域800内の案内標識801は、「△△まであと○km」という内容であったことを把握することができる。
高速道路上では、運転者100に提供する情報としては、周辺のビル802に関する情報よりも、案内標識801に関する情報の方がより必要とされると推測される。実施の形態1に係る運転支援装置1では、上述のように、運転者100の注視領域800内に存在する対象物(案内標識801およびビル802)のうち、より必要と推測される対象物(案内標識801)に関する情報を出力することができる。
Specifically, the priority target determination unit 14 determines that the vehicle is on the highway based on the current position information of the vehicle output from the position information acquisition unit 131 and the map information stored in the map information storage unit 16. To judge. Then, the priority target determination unit 14 determines that the guide sign 801 has a higher priority than the building 802 according to the priority target determination condition, and determines the guide sign 801 as a priority target object (step in FIG. 7). ST706).
The output control unit 15 generates the notification information 803 for notifying the information about the guide sign 801 that the priority target determination unit 14 has determined as the priority target object, and causes the output device 2 to output the notification information 803. Here, the output control unit 15 outputs the notification information 803 from the speaker.
The driver 100 can confirm the notification information 803 output as voice, and can understand that the guide sign 801 in the gazing area 800 has the content of “○km until ΔΔ”.
It is presumed that on the expressway, the information provided to the driver 100 requires more information about the guide sign 801 than information about the surrounding building 802. In the driving support device 1 according to the first embodiment, as described above, among the objects (the guide sign 801 and the building 802) existing in the gazing area 800 of the driver 100, the object (presumed to be more necessary) ( Information about the guide sign 801) can be output.

なお、図8では、出力制御部15は、通知情報803を音声出力させるものとしたが、出力制御部15は、ヘッドアップディスプレイに、注視領域800と重畳して、当該通知情報803を表示させるようにしてもよい。
運転中の運転者100に対する情報提供であることから、運転中の運転者100が視線を大きくはずすことなく通知情報803を視認できるよう、通知情報803の表示は、ヘッドアップディスプレイに行うことが好ましい。
しかし、これに限らず、出力制御部15は、通知情報803を表示させる場合、例えば、ヘッドアップディスプレイに加え、コントロールパネルに設置されたナビゲーション装置が備えるディスプレイに当該通知情報803を表示させるようにしてもよい。この場合、例えば、同乗者が当該ディスプレイを確認して、案内標識801に関する情報を視認することができる。
Note that, in FIG. 8, the output control unit 15 outputs the notification information 803 by voice, but the output control unit 15 causes the head-up display to display the notification information 803 by superimposing it on the gaze area 800. You may do it.
Since the information is provided to the driver 100 who is driving, it is preferable that the notification information 803 is displayed on the head-up display so that the driver 100 who is driving can visually recognize the notification information 803 without greatly removing the line of sight. ..
However, the present invention is not limited to this, and when the notification information 803 is displayed, for example, in addition to the head-up display, the output control unit 15 causes the display included in the navigation device installed on the control panel to display the notification information 803. May be. In this case, for example, the passenger can check the display and visually recognize the information regarding the guide sign 801.

上述したような、従来の情報提供装置の技術に代表される従来技術では、注視対象物とされ得る対象物が複数存在する場合、どの対象物を注視対象物とすべきかの考慮がなされていない。
そのため、例えば、図8を用いて説明した上記例の場合、案内標識801とビル802のどちらを、運転者100が注視している対象物かを考慮せず、運転者100が必要としていないと推測される、ビル802に関する通知情報804を出力し得る(図9参照)。
そうすると、運転者100に対して適切な情報が提供できているとは言えず、運転者100に煩わしさを感じさせることにもなり得る。
As described above, in the related art represented by the technology of the conventional information providing apparatus, when there are a plurality of objects that can be gazed objects, which object should be the gazed object is not considered. ..
Therefore, for example, in the case of the above-described example described with reference to FIG. 8, the driver 100 does not need to consider which of the guide sign 801 and the building 802 is the object the driver 100 is gazing at. Inferred notification information 804 about the building 802 may be output (see FIG. 9).
Then, it cannot be said that appropriate information can be provided to the driver 100, and the driver 100 may feel annoyed.

これに対し、実施の形態1に係る運転支援装置1は、上記図8を用いた例でも説明したとおり、運転者100の注視領域に案内標識801とビル802が存在する場合に、どちらを優先対象物とするかを考慮することで、運転者100がより必要としていると推測される、案内標識801に関する情報を提供する。その結果、運転者100に対して、適切な情報を提供することができる。 On the other hand, as described in the example using FIG. 8, the driving support device 1 according to the first embodiment gives priority to which of the guide sign 801 and the building 802 exists in the gazing area of the driver 100. Information regarding the guide sign 801 which is estimated to be more needed by the driver 100 is provided by considering whether or not the target object is set. As a result, it is possible to provide the driver 100 with appropriate information.

以上のように、実施の形態1に係る運転支援装置1は、運転者の注視領域に複数の対象物が存在する場合に、当該複数の対象物のうち、優先して情報提供する対象とする優先対象物を決定し、当該優先対象物に関する通知情報を出力する。
これにより、運転者が必要としていると推測される対象物に関する情報を出力することができる。その結果、運転者の注視領域に複数の対象物が存在する場合であっても、運転者に対して、適切な情報提供を行うことができる。
As described above, when there are a plurality of objects in the gazing area of the driver, the driving assistance device 1 according to the first embodiment is a target to which information is preferentially provided among the plurality of objects. The priority target object is determined, and the notification information regarding the priority target object is output.
As a result, it is possible to output information regarding the object that is estimated to be needed by the driver. As a result, even when a plurality of objects are present in the driver's gaze area, it is possible to appropriately provide the driver with information.

また、実施の形態1に係る運転支援装置1は、図2〜図6等を用いて説明したように、運転者の注視領域に複数の対象物が存在し、当該複数の対象物のうちの優先対象物を決定する際、車両の現在位置、車速、または、車両の走行状態に応じて設定された優先対象決定条件に従って、優先対象物を決定する。
これにより、運転者に対して、運転者が置かれている状況に適した、運転者が必要としていると推測される情報を、提供することができる。
Further, as described with reference to FIG. 2 to FIG. 6 and the like, the driving support device 1 according to the first embodiment has a plurality of objects in the driver's gaze area, and among the plurality of objects, When determining the priority target object, the priority target object is determined according to the priority target determination condition set according to the current position of the vehicle, the vehicle speed, or the traveling state of the vehicle.
As a result, it is possible to provide the driver with information that is estimated to be needed by the driver and that is suitable for the situation in which the driver is placed.

なお、以上の実施の形態1では、運転支援装置1は、車両に搭載されているものとしたが、これは一例に過ぎない。
運転支援装置1は、サーバ(図示省略)に備えられ、車内カメラ3等とサーバとが通信によって接続されるようにしてもよい。
また、運転支援装置1を構成する注視領域検出部11、注視対象検出部12、情報取得部13、優先対象決定部14、および、出力制御部15のうちの一部のみがサーバに備えられるようにしてもよい。
In addition, in the above-described first embodiment, the driving support device 1 is assumed to be mounted on the vehicle, but this is merely an example.
The driving support device 1 may be provided in a server (not shown), and the in-vehicle camera 3 and the like may be connected to the server by communication.
Further, only a part of the gaze area detection unit 11, the gaze target detection unit 12, the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15 that configure the driving support device 1 is provided in the server. You can

また、以上の実施の形態1では、優先対象決定条件は、車両の位置、車速、または、走行状態によって、対象物の優先順位を付けるためのものとしたが、これは一例に過ぎない。優先対象決定条件は、優先対象決定部14が、注視領域内に存在している複数の対象物のうち、どの対象物を優先対象物とするかを決定することができる情報になっていればよい。 Further, in the first embodiment described above, the priority target determination condition is to prioritize the target objects according to the position of the vehicle, the vehicle speed, or the traveling state, but this is merely an example. If the priority target determination condition is information that allows the priority target determination unit 14 to determine which target object is the priority target object among the plurality of target objects existing in the gaze area. Good.

また、以上の実施の形態1では、運転支援装置1は、車外カメラ4が撮影した車外撮影画像に基づき、注視領域を検出するものとした。しかし、これに限らず、運転支援装置1は、例えば、車外カメラ4に代えて、車両の周辺の情報を取得する車両周辺センサから、車両周辺情報を取得し、当該車両周辺情報と、運転者の視線方向情報に基づき、注視領域を検出するようにしてもよい。運転支援装置1は、少なくとも運転者の視界に相当する画像または情報を取得するようになっていればよい。 Further, in the above-described first embodiment, the driving support device 1 detects the gaze area based on the vehicle outside image captured by the vehicle outside camera 4. However, the present invention is not limited to this, and the driving assistance device 1 acquires the vehicle surroundings information from a vehicle surroundings sensor that acquires information around the vehicle instead of the vehicle outside camera 4, and acquires the vehicle surroundings information and the driver. The gaze area may be detected based on the line-of-sight direction information. The driving support device 1 may be adapted to acquire at least an image or information corresponding to the driver's visual field.

図10A,図10Bは、実施の形態1に係る運転支援装置1のハードウェア構成の一例を示す図である。
実施の形態1において、注視領域検出部11と、注視対象検出部12と、情報取得部13と、優先対象決定部14と、出力制御部15の機能は、処理回路1001により実現される。すなわち、運転支援装置1は、運転者の注視領域に存在する対象物に関する通知情報を出力する制御を行うための処理回路1001を備える。
処理回路1001は、図10Aに示すように専用のハードウェアであっても、図10Bに示すようにメモリ1006に格納されるプログラムを実行するCPU(Central Processing Unit)1005であってもよい。
10A and 10B are diagrams showing an example of the hardware configuration of the driving support device 1 according to the first embodiment.
In the first embodiment, the functions of the gaze area detection unit 11, the gaze target detection unit 12, the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15 are realized by the processing circuit 1001. That is, the driving support device 1 includes the processing circuit 1001 for performing control to output the notification information regarding the object existing in the driver's gaze area.
The processing circuit 1001 may be dedicated hardware as shown in FIG. 10A or may be a CPU (Central Processing Unit) 1005 that executes a program stored in the memory 1006 as shown in FIG. 10B.

処理回路1001が専用のハードウェアである場合、処理回路1001は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。 When the processing circuit 1001 is dedicated hardware, the processing circuit 1001 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array), or a combination thereof.

処理回路1001がCPU1005の場合、注視領域検出部11と、注視対象検出部12と、情報取得部13と、優先対象決定部14と、出力制御部15の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、注視領域検出部11と、注視対象検出部12と、情報取得部13と、優先対象決定部14と、出力制御部15は、HDD(Hard Disk Drive)1002、メモリ1006等に記憶されたプログラムを実行するCPU1005、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD1002、メモリ1006等に記憶されたプログラムは、注視領域検出部11と、注視対象検出部12と、情報取得部13と、優先対象決定部14と、出力制御部15の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1006とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。 When the processing circuit 1001 is the CPU 1005, the functions of the gaze area detection unit 11, the gaze target detection unit 12, the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15 are software, firmware, or software. It is realized by the combination of and firmware. That is, the gaze area detection unit 11, the gaze target detection unit 12, the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15 are stored in the HDD (Hard Disk Drive) 1002, the memory 1006, and the like. It is realized by a CPU 1005 that executes a program and a processing circuit such as a system LSI (Large-Scale Integration). Further, the program stored in the HDD 1002, the memory 1006, or the like is the procedure or method of the gaze area detection unit 11, the gaze target detection unit 12, the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15. It can also be said that it causes a computer to execute. Here, the memory 1006 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read-Only Memory), or an EEPROM (Electrically Organizable Memory). Or volatile semiconductor memory, magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), and the like.

なお、注視領域検出部11と、注視対象検出部12と、情報取得部13と、優先対象決定部14と、出力制御部15の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、注視領域検出部11と、注視対象検出部12については専用のハードウェアとしての処理回路1001でその機能を実現し、情報取得部13と、優先対象決定部14と、出力制御部15については処理回路1001がメモリ1006に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、運転支援装置1は、出力装置2、車内カメラ3、車外カメラ4、視線検出装置5または公衆無線通信機6等の装置と、有線通信または無線通信を行う入力インタフェース装置1003および出力インタフェース装置1004を備える。
Note that some of the functions of the gaze area detection unit 11, the gaze target detection unit 12, the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15 are realized by dedicated hardware, and some of them are realized. May be realized by software or firmware. For example, regarding the gaze area detection unit 11 and the gaze target detection unit 12, the function is realized by a processing circuit 1001 as dedicated hardware, and regarding the information acquisition unit 13, the priority target determination unit 14, and the output control unit 15. The processing circuit 1001 can realize the function by reading and executing the program stored in the memory 1006.
Further, the driving support apparatus 1 includes an input interface device 1003 and an output interface device that perform wired communication or wireless communication with a device such as the output device 2, the in-vehicle camera 3, the out-of-vehicle camera 4, the line-of-sight detection device 5, or the public wireless communication device 6. 1004 is provided.

以上のように、実施の形態1に係る運転支援装置1は、車両の運転者の視線方向に関する視線方向情報に基づき、当該運転者が注視している注視領域を検出する注視領域検出部11と、注視領域検出部11が検出した注視領域に関する情報に基づき、当該注視領域内に存在する対象物を検出する注視対象検出部12と、注視対象検出部12が検出した対象物が複数存在する場合、当該複数の対象物のうち、情報提供する対象となる優先対象物を決定する優先対象決定部14と、優先対象決定部14が決定した優先対象物に関する通知情報を出力させる出力制御部15とを備えるように構成した。そのため、運転者の視線に基づいて当該運転者の運転を支援するための情報を提供するにあたり、当該運転者に対して適切な情報を提供することができる。 As described above, the driving assistance device 1 according to the first embodiment includes the gaze area detection unit 11 that detects the gaze area in which the driver gazes based on the gaze direction information regarding the gaze direction of the driver of the vehicle. In the case where there are a plurality of gaze target detection units 12 that detect an object existing in the gaze region based on information about the gaze region detected by the gaze region detection unit 11 and a plurality of target objects detected by the gaze target detection unit 12 Of the plurality of target objects, a priority target determination unit 14 that determines a priority target object to be provided with information, and an output control unit 15 that outputs notification information regarding the priority target object determined by the priority target determination unit 14. It is configured to include. Therefore, when providing the information for supporting the driving of the driver based on the line of sight of the driver, it is possible to provide appropriate information to the driver.

また、実施の形態1に係る運転支援装置1において、優先対象決定部14は、車両の現在位置に応じて、優先対象物を決定するようにした。また、優先対象決定部14は、車両の現在の車速に応じて、優先対象物を決定するようにした。また、優先対象決定部14は、車両の現在の走行状態に応じて、優先対象物を決定するようにした。そのため、運転者に対して、運転者が置かれている状況に適した、より適切な情報を提供することができる。
また、実施の形態1に係る運転支援装置1において、優先対象決定部14は、車両が後退している場合、運転者の注視領域内に存在する複数の対象物はいずれも優先対象物ではないと判断し、出力制御部15は、優先対象物に関する情報を出力させないようにすることもできる。そのため、運転者の注視領域内に複数の対象物が存在する場合であっても、運転者が、情報提供を必要としていないと推測される状況下において、運転者に対する情報提供を行わないようにすることができる。
In addition, in the driving assistance device 1 according to the first embodiment, the priority target determination unit 14 determines the priority target object according to the current position of the vehicle. Further, the priority target determination unit 14 determines the priority target object according to the current vehicle speed of the vehicle. In addition, the priority target determination unit 14 determines the priority target object according to the current traveling state of the vehicle. Therefore, it is possible to provide the driver with more appropriate information suitable for the situation in which the driver is placed.
Further, in the driving assistance device 1 according to the first embodiment, when the vehicle is moving backward, the priority target determination unit 14 does not select any of the plurality of target objects existing within the driver's gaze area as the priority target object. Therefore, the output control unit 15 may not output the information regarding the priority object. Therefore, even if there are multiple objects in the driver's gaze area, the driver should not provide information to the driver in a situation where it is presumed that information is not required. can do.

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 It should be noted that, in the present invention, it is possible to modify any constituent element of the embodiment or omit any constituent element of the embodiment within the scope of the invention.

この発明に係る運転支援装置は、運転者の視線に基づいて当該運転者の運転を支援するための情報を提供するにあたり、当該運転者に対して適切な情報を提供できるように構成したため、車両の運転者に対して、運転を支援するための情報を提供する運転支援装置に適用することができる。 Since the driving assistance device according to the present invention is configured to provide appropriate information to the driver in providing the information for assisting the driving of the driver based on the line of sight of the driver, the vehicle The present invention can be applied to a driving support device that provides the driver with information for supporting driving.

1 運転支援装置、2 出力装置、21 音声出力装置、22 表示装置、3 車内カメラ、4 車外カメラ、5 視線検出装置、6 公衆無線通信機、11 注視領域検出部、12 注視対象検出部、13 情報取得部、131 位置情報取得部、132 車速情報取得部、133 状態情報取得部、14 優先対象決定部、15 出力制御部、16 地図情報記憶部、800 注視領域、801 案内標識、802 ビル、803,804 通知情報、1001 処理回路、1002 HDD、1003 入力インタフェース装置、1004 出力インタフェース装置、1005 CPU、1006 メモリ。 DESCRIPTION OF SYMBOLS 1 Driving support device, 2 output device, 21 audio output device, 22 display device, 3 in-vehicle camera, 4 exterior camera, 5 line-of-sight detection device, 6 public wireless communication device, 11 gaze area detection part, 12 gaze target detection part, 13 Information acquisition unit, 131 position information acquisition unit, 132 vehicle speed information acquisition unit, 133 state information acquisition unit, 14 priority target determination unit, 15 output control unit, 16 map information storage unit, 800 gazing area, 801 guidance sign, 802 building, 803, 804 notification information, 1001 processing circuit, 1002 HDD, 1003 input interface device, 1004 output interface device, 1005 CPU, 1006 memory.

Claims (7)

車両の運転者の視線方向に関する視線方向情報に基づき、当該運転者が注視している注視領域を検出する注視領域検出部と、
前記注視領域検出部が検出した注視領域に関する情報に基づき、当該注視領域内に存在する対象物を検出する注視対象検出部と、
前記注視対象検出部が検出した対象物が複数存在する場合、当該複数の対象物のうち、情報提供する対象となる優先対象物を決定する優先対象決定部と、
前記優先対象決定部が決定した前記優先対象物に関する通知情報を出力させる出力制御部
とを備えた運転支援装置。
Based on the line-of-sight direction information about the line-of-sight direction of the driver of the vehicle, a gaze area detection unit that detects the gaze area that the driver gazes,
Based on information about the gaze area detected by the gaze area detection unit, a gaze target detection unit that detects an object existing in the gaze area,
When there are a plurality of objects detected by the gaze target detection unit, a priority target determination unit that determines a priority target object that is a target for information provision among the plurality of target objects,
An output control unit that outputs notification information about the priority target object determined by the priority target determination unit.
前記優先対象決定部は、
前記車両の現在位置に応じて、前記優先対象物を決定する
ことを特徴とする請求項1記載の運転支援装置。
The priority target determination unit,
The driving assistance device according to claim 1, wherein the priority target object is determined according to a current position of the vehicle.
前記優先対象決定部は、
前記車両の現在の車速に応じて、前記優先対象物を決定する
ことを特徴とする請求項1または請求項2記載の運転支援装置。
The priority target determination unit,
The driving assistance device according to claim 1 or 2, wherein the priority target object is determined according to a current vehicle speed of the vehicle.
前記優先対象決定部は、
前記車両の現在の走行状態に応じて、前記優先対象物を決定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の運転支援装置。
The priority target determination unit,
The driving assistance device according to any one of claims 1 to 3, wherein the priority target object is determined according to a current traveling state of the vehicle.
前記優先対象決定部は、前記車両が後退している場合、前記複数の対象物はいずれも前記優先対象物ではないと判断し、
前記出力制御部は、前記優先対象物に関する情報を出力させない
ことを特徴とする請求項4記載の運転支援装置。
When the vehicle is moving backward, the priority target determination unit determines that none of the plurality of target objects is the priority target object,
The driving support apparatus according to claim 4, wherein the output control unit does not output information regarding the priority target object.
注視領域検出部が、車両の運転者の視線方向に関する視線方向情報に基づき、当該運転者が注視している注視領域を検出するステップと、
注視対象検出部が、前記注視領域検出部が検出した注視領域に関する情報に基づき、当該注視領域内に存在する対象物を検出するステップと、
優先対象決定部が、前記注視対象検出部が検出した対象物が複数存在する場合、当該複数の対象物のうち、情報提供する対象となる優先対象物を決定するステップと、
出力制御部が、前記優先対象決定部が決定した前記優先対象物に関する通知情報を出力させるステップ
とを備えた運転支援プログラム。
The gaze area detection unit, based on the line-of-sight direction information about the line-of-sight direction of the driver of the vehicle, the step of detecting the gaze area that the driver gazes,
The gaze target detection unit, based on the information about the gaze area detected by the gaze area detection unit, a step of detecting an object existing in the gaze area,
Priority target determination unit, when there is a plurality of target objects detected by the gaze target detection unit, of the plurality of target objects, determining a priority target object for which information is to be provided,
And a step of causing the output control unit to output the notification information regarding the priority target object determined by the priority target determination unit.
車両の運転者の視線方向に関する視線方向情報に基づき、当該運転者が注視している注視領域を検出する注視領域検出部と、
前記注視領域検出部が検出した注視領域に関する情報に基づき、当該注視領域内に存在する対象物を検出する注視対象検出部と、
前記注視対象検出部が検出した対象物が複数存在する場合、当該複数の対象物のうち、情報提供する対象となる優先対象物を決定する優先対象決定部と、
前記優先対象決定部が決定した前記優先対象物に関する通知情報を出力させる出力制御部
とを備えた運転支援システム。
Based on the line-of-sight direction information about the line-of-sight direction of the driver of the vehicle, a gaze area detection unit that detects the gaze area that the driver gazes,
Based on information about the gaze area detected by the gaze area detection unit, a gaze target detection unit that detects an object existing in the gaze area,
When there are a plurality of target objects detected by the gaze target detection unit, a priority target determination unit that determines a priority target object that is a target for information provision among the plurality of target objects,
An output control unit that outputs notification information about the priority target object determined by the priority target determination unit.
JP2018231657A 2018-12-11 2018-12-11 Driving assist device, driving assist program, and driving assist program Pending JP2020094861A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018231657A JP2020094861A (en) 2018-12-11 2018-12-11 Driving assist device, driving assist program, and driving assist program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231657A JP2020094861A (en) 2018-12-11 2018-12-11 Driving assist device, driving assist program, and driving assist program

Publications (1)

Publication Number Publication Date
JP2020094861A true JP2020094861A (en) 2020-06-18

Family

ID=71084014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231657A Pending JP2020094861A (en) 2018-12-11 2018-12-11 Driving assist device, driving assist program, and driving assist program

Country Status (1)

Country Link
JP (1) JP2020094861A (en)

Similar Documents

Publication Publication Date Title
US9230438B2 (en) Vehicle location and activity sharing
JPWO2018066710A1 (en) Traveling support device and computer program
KR20190029488A (en) Method, apparatus and computer readable storage medium having instructions for controlling a display of an augmented-reality-display-device for a motor vehicle
JP4867463B2 (en) Driving assistance device
FI124068B (en) A method to improve driving safety
GB2553905A (en) Systems, methods, and devices for rendering in-vehicle media content based on vehicle sensor data
GB2554787A (en) Systems, methods, and devices for rendering in-vehicle media content based on vehicle sensor data
US11535260B2 (en) Attention-based notifications
US20220097524A1 (en) Apparatus and method for displaying vehicle information
JP2015128956A (en) Head-up display, control method, program and storage medium
JPWO2020045328A1 (en) Display device
JP6891926B2 (en) Vehicle systems, methods performed on vehicle systems, and driver assistance systems
JP2018194976A (en) Message display program, message display device, and message display method
JP2018151903A (en) Virtual image display device and computer program
JP6805974B2 (en) Driving support device and computer program
JP6552285B2 (en) In-vehicle display device and vehicle rear image display method
US10605616B2 (en) Image reproducing device, image reproducing system, and image reproducing method
JP2020094861A (en) Driving assist device, driving assist program, and driving assist program
CN115257794A (en) System and method for controlling head-up display in vehicle
JP6939147B2 (en) Driving information guidance device and computer program
CN114084159A (en) Driving assistance function reminding method, device, medium and vehicle
JP7119984B2 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
US11842661B2 (en) Control method and information display system
JP2016085651A (en) Information processor, method for guiding information of traffic light, and computer program
JP7270206B2 (en) Information presentation system, information presentation method, program, and mobile object