JPWO2019167285A1 - 運転支援装置及び運転支援方法 - Google Patents

運転支援装置及び運転支援方法 Download PDF

Info

Publication number
JPWO2019167285A1
JPWO2019167285A1 JP2018539917A JP2018539917A JPWO2019167285A1 JP WO2019167285 A1 JPWO2019167285 A1 JP WO2019167285A1 JP 2018539917 A JP2018539917 A JP 2018539917A JP 2018539917 A JP2018539917 A JP 2018539917A JP WO2019167285 A1 JPWO2019167285 A1 JP WO2019167285A1
Authority
JP
Japan
Prior art keywords
unit
driver
vehicle
oversight
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018539917A
Other languages
English (en)
Other versions
JP6419401B1 (ja
Inventor
萩原 利幸
利幸 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6419401B1 publication Critical patent/JP6419401B1/ja
Publication of JPWO2019167285A1 publication Critical patent/JPWO2019167285A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Abstract

地図情報に基づいて目的地までの経路を探索する経路探索部(108)と、車両の位置である車両位置を検出する車両位置検出部(104)と、地図情報に基づいて、車両位置における道路状態を判定する道路状態判定部(106)と、道路状態が分岐を示している場合に、道路状態から分岐の種類を特定するとともに、経路から車両の進行方向を特定し、特定された種類及び特定された進行方向に対応して、車両の運転者が目視する必要のある方向である目視必要方向を決定する目視必要方向決定部(110)と、運転者の映像である運転者映像を撮像する運転者撮像部(102)と、運転者映像から、運転者の視線の方向である視線方向を検出する視線方向検出部(103)と、目視必要方向の内、視線方向を含まない方向を見落とし方向として判定する見落とし方向判定部(111)と、運転者に、見落とし方向の注意を喚起する注意喚起部(112)とを備える。

Description

本発明は、運転支援装置及び運転支援方法に関する。
従来から、車外に取り付けられたカメラで取られた映像をナビ画面等に表示することにより、自動車の周囲の安全確認を行う機能が提供されている。
例えば、特許文献1には、方向指示器の操作、あるいは、ハンドル操作に応じて、その方向のカメラ映像を表示する車両監視装置が記載されている。
特開平7−215130号公報
従来の技術は、運転者の目視による確認動作と関係なく、一律に確認が必要な箇所の映像を表示するのみである。
このため、運転者が本来確認すべき方向を見ているかどうかはまったく考慮されておらず、安全性の向上にはつながらないという問題がある。
そこで、本発明の1又は複数の態様は、運転者が本来確認しなければならない方向を見落としている場合に、そのような方向を運転者に確認するように警告できるようにすることを目的とする。
本発明の1の態様に係る運転支援装置は、地図情報を記憶する地図情報記憶部と、目的地の入力を受け付ける入力部と、前記地図情報に基づいて、前記目的地までの経路を探索する経路探索部と、車両の位置である車両位置を検出する車両位置検出部と、前記地図情報に基づいて、前記車両位置における道路状態を判定する道路状態判定部と、前記道路状態が分岐を示している場合に、前記道路状態から前記分岐の種類を特定するとともに、前記経路から前記車両の進行方向を特定し、前記特定された種類及び前記特定された進行方向に対応して、前記車両の運転者が目視する必要のある方向である目視必要方向を決定する目視必要方向決定部と、前記運転者の映像である運転者映像を撮像する運転者撮像部と、前記運転者映像から、前記運転者の視線の方向である視線方向を検出する視線方向検出部と、前記目視必要方向の内、前記視線方向を含まない方向を見落とし方向として判定する見落とし方向判定部と、前記運転者に、前記見落とし方向の注意を喚起する注意喚起部と、を備えることを特徴とする。
本発明の1の態様に係る運転支援方法は、目的地の入力を受け付け、地図情報に基づいて、前記目的地までの経路を探索し、車両の位置である車両位置を検出し、前記地図情報に基づいて、前記車両位置における道路状態を判定し、前記道路状態が分岐を示している場合に、前記道路状態から前記分岐の種類を特定し、前記経路から前記車両の進行方向を特定し、前記特定された種類及び前記特定された進行方向に対応して、前記車両の運転者が目視する必要のある方向である目視必要方向を決定し、前記運転者の映像である運転者映像から、前記運転者の視線の方向である視線方向を検出し、前記目視必要方向の内、前記視線方向を含まない方向を見落とし方向として判定し、前記運転者に、前記見落とし方向の注意を喚起することを特徴とする。
本発明の1の態様によれば、運転者が本来確認しなければならない方向を見落としている場合に、そのような方向を運転者に確認するように警告することができる。
実施の形態1に係る運転支援装置の構成を概略的に示すブロック図である。 車両周囲撮像部の設置状況を示す概略図である。 運転者の視線方向を説明するための概略図である。 目視必要方向情報の一例を示す概略図である。 視線方向と目視必要方向との関係を説明する概略図である。 ハードウェア構成例を示すブロック図である。 運転支援装置の処理の流れを示すフローチャートである。 運転支援装置を搭載した車両がT字路にいる時の状態を示す概略図である。 見落とし方向判定部での処理を示すフローチャートである。 目視確認実施回数テーブルの一例を示す概略図である。 実施の形態2に係る運転支援装置の構成を概略的に示すブロック図である。 実施の形態2において表示される映像の一例を示す概略図である。 実施の形態3に係る運転支援装置の構成を概略的に示すブロック図である。 見落とし回数情報の一例を示す概略図である。
実施の形態1.
図1は、実施の形態1に係る運転支援装置100の構成を概略的に示すブロック図である。
実施の形態1に係る運転支援装置100は、車両周囲撮像部101と、運転者撮像部102と、視線方向検出部103と、車両位置検出部104と、地図情報記憶部105と、道路状態判定部106と、入力部107と、経路探索部108と、目視必要方向情報記憶部109と、目視必要方向決定部110と、見落とし方向判定部111と、注意喚起部112と、出力部113とを備える。
車両周囲撮像部101は、運転支援装置100が取り付けられている車両の周囲の複数の方向に対応する複数の映像を撮像する。
車両周囲撮像部101は、左前方撮像部101aと、右前方撮像部101bと、左側方撮像部101cと、右側方撮像部101dと、左後方撮像部101eと、右後方撮像部101fとを備える。
左前方撮像部101aは、その車両の左前方向の映像を撮像する。
右前方撮像部101bは、その車両の右前方向の映像を撮像する。
左側方撮像部101cは、その車両の左側方向の映像を撮像する。
右側方撮像部101dは、その車両の右側方向の映像を撮像する。
左後方撮像部101eは、その車両の左後方向の映像を撮像する。
右後方撮像部101fは、その車両の右後方向の映像を撮像する。
図2は、車両周囲撮像部101の設置状況を示す概略図である。
図2において、車両120には、運転支援装置100が搭載されているものとする。
左前方撮像部101aは、車両120のフロントの中央に、その光軸が前方正面に対して左45度の角度で設置されている。
右前方撮像部101bは、車両120のフロントの中央に、その光軸が前方正面に対して右45度の角度で設置されている。
左側方撮像部101cは、車両120の左側に、その光軸が車両120の前方正面に対して左90度の角度で設置されている。
右側方撮像部101dは、車両120の右側に、その光軸が車両120の前方正面に対して右90度の角度で設置されている。
左後方撮像部101eは、車両120のバックの中央に、その光軸が車両120の後方正面に対して右45度の角度で設置されている。
右後方撮像部101fは、車両120のバックの中央に、その光軸が車両120の後方正面に対して左45度の角度で設置されている。
図2に示されているようにこれらの撮像部101a〜101fを配置することにより、これらの撮像部101a〜101fの水平画角が90度であれば、車両120の前方及び後方については、死角無く撮像することができる。なお、水平画角は、水平方向において撮像する範囲である。
なお、これらの撮像部101a〜101fの光軸は、地面に対して、平行となっていることが望ましい。
図1に戻り、運転者撮像部102は、車両120内に設置され、車両120の運転者の映像である運転者映像を撮像する。具体的には、運転者撮像部102は、運転者の顔の映像を撮像する。
視線方向検出部103は、運転者撮像部102で撮像された映像から、運転者の顔の向き及びその眼球の向きを検出し、運転者の視線の方向である視線方向を検出する。なお、視線方向検出部103は、運転者の顔の向きのみを用いて、運転者の視線方向を検出してもよい。なお、視線方向検出部103は、検出された視線方向を示す視線方向情報を見落とし方向判定部111に与える。
図3は、運転者の視線方向を説明するための概略図である。
図3において、視線方向は、車両120の運転者121の位置から車両120の正面方向を見た場合の視線方向122と、運転者121が見ている視線方向123との間のなす角度で示される。運転者121が見ている視線方向123との間のなす角度は、車両120を真上から見て時計周りの方向を正とする。従って、運転者121が右真横を見た場合の視線方向は90度、運転者121が真後ろを見た場合の視線方向は180度、運転者121が左真横を見た場合の視線方向は270度となる。
図1に戻り、車両位置検出部104は、現在の車両120の位置である車両位置を検出し、検出された車両位置を示す車両位置情報を道路状態判定部106に与える。車両位置情報は、例えば、緯度及び経度の情報である。
地図情報記憶部105は、地図情報を記憶する。地図情報は、ノード及び補完点のポイントデータと、リンクデータとから構成されている。ノードは、交差点又はジャンクション等の分岐点である。補完点は、道路の屈曲を表す点である。ポイントデータは、ノード及び補完点の位置を示す位置情報である。位置情報は、例えば、緯度及び経度の情報である。リンクデータは、ノード同士の接続関係を表す情報である。
ポイントデータ及びリンクデータは、それぞれ属性情報を持っている。例えば、ポイントデータの属性情報は、信号の有無等であり、リンクデータの属性情報は、道路種別、道幅及び車線数等である。
道路状態判定部106は、地図情報記憶部105が記憶する地図情報を参照して、車両位置検出部104から与えられる車両位置情報で示される、車両の現在位置の道路状態を判定する。ここでは、道路状態判定部106は、道路状態として、分岐の種類(十字路、T字路、インター出口又はインター入口)及び信号有無等を判定する。そして、道路状態判定部106は、判定された道路状態を示す道路状態情報を目視必要方向決定部110に与える。
入力部107は、各種入力を受け付ける。例えば、入力部107は、車両120の出発地の位置及び目的地の位置の入力を受け付ける。
経路探索部108は、地図情報記憶部105が記憶する地図情報に基づいて、入力された目的地までの経路を探索する。具体的には、経路探索部108は、地図情報記憶部105が記憶する地図情報を参照して、入力された出発地の位置と、入力された目的地の位置とから車両120の経路の探索を行い、探索された経路を示す経路情報を生成する。経路情報は、車両120が出発地から目的地に到達するための経路を示す情報である。経路情報は、例えば、車両120が通過するノードの位置及びノードにおける進行方向を示す。進行方向は、例えば、左折、右折又は直進である。
なお、ここでは、入力部107は、出発地の位置の入力も受け付けているが、出発地の入力は、必ずしも必要ではない。例えば、経路探索部108は、車両位置検出部104で検出される車両位置を出発地として、目的地までの経路を探索してもよい。
目視必要方向情報記憶部109は、条件に応じて運転者が目視する必要のある方向である目視必要方向を示す目視必要方向情報を記憶する。
図4は、目視必要方向情報の一例である目視必要方向テーブル109aを示す概略図である。
目視必要方向テーブル109aは、判断条件列109bと、目視必要方向列109cとを有する。
判断条件列109bは、道路状態列109dと、進行方向列109eとを有する。
目視必要方向列109cは、左前方列109fと、右前方列109gと、左側方列109hと、右側方列109iと、左後方列109jと、右後方列109kとを有する。
道路状態列109dは、道路状態を格納する。ここでは、道路状態として、分岐の種類が格納される。
進行方向列109eは、進行方向を格納する。進行方向列109eが空欄の場合には、条件として進行方向が定義されていないこと、言い換えると、全ての進行方向が条件に該当することを示しているものとする。
左前方列109f、右前方列109g、左側方列109h、右側方列109i、左後方列109j及び右後方列109kのそれぞれは、目視必要方向に、左前方、右前方、左側方、右側方、左後方及び右後方のそれぞれが該当するか否かを格納する。
例えば、左前方列109f、右前方列109g、左側方列109h、右側方列109i、左後方列109j又は右後方列109kに「YES」が格納されている場合には、同じ行の道路状態及び進行方向において、対応する方向が目視必要方向であることを示す。一方、左前方列109f、右前方列109g、左側方列109h、右側方列109i、左後方列109j又は右後方列109kに「NO」が格納されている場合には、同じ行の道路状態及び進行方向において、対応する方向が目視必要方向ではないことを示す。
言い換えると、図4に示されている目視必要方向テーブル109aにより、判断条件列109bに格納されている条件が満たされている場合に、目視必要方向列109cにおいて「YES」となっている方向が、目視必要方向となる。
なお、ここでは、条件を道路状態及び進行方向としたが、信号の有無を含めても良い。
図1に戻り、目視必要方向決定部110は、目視必要方向情報記憶部109に記憶されている目視必要方向情報を参照して、経路探索部108で生成された経路情報と、道路状態判定部106で判定された道路状態とから、運転者が目視する必要のある方向である目視必要方向を決定する。目視必要方向は、安全に運転を行うために他の車両又は歩行者等の移動物体を確認するために見る必要がある車外の方向である。例えば、道路状態がT字路で、進行方向が右折であった場合、交差する道路の左方向から来る移動物体、右方向から来る移動物体及び右後方から来る移動物体を確認する必要があるため、左前方、右前方、右側方及び右後方が目視必要方向となる。
具体的には、目視必要方向決定部110は、道路状態が分岐を示している場合に、道路状態から分岐の種類を特定するとともに、車両の経路から車両の進行方向を特定し、特定された種類及び特定された進行方向に対応して、目視必要方向を決定する。
見落とし方向判定部111は、視線方向検出部103が検出した運転者の視線方向と、目視必要方向決定部110が決定した目視必要方向とを比較し、目視必要方向の内、視線方向を含まない方向を、見落とし方向として判定する。
図5は、視線方向と目視必要方向との関係を説明する概略図である。
図5に示すように、0度≦視線方向<45度の場合、右前方の目視必要方向に視線方向が含まれる。45度≦視線方向<135度の場合、右側方の目視必要方向に視線方向が含まれる。135度≦視線方向<180度の場合、右後方の目視必要方向に視線方向が含まれる。180度≦視線方向<225度の場合、左後方の目視必要方向に視線方向が含まれる。225度≦視線方向<315度の場合、左側方の目視必要方向に視線方向が含まれる。315度≦視線方向<359度の場合、左前方の目視必要方向に視線方向が含まれる。
図1に戻り、注意喚起部112は、見落とし方向判定部111が判定した見落とし方向の注意を喚起する。言い換えると、注意喚起部112は、見落とし方向判定部111が判定した見落とし方向を確認するように、運転者の注意を喚起する。
例えば、注意喚起部112は、車両周囲撮像部101が撮像した複数の映像の内、見落とし方向判定部111が判定した見落とし方向に対応する映像である見落とし方向映像を、出力部113に表示させる。また、注意喚起部112は、見落とし方向判定部111が判定した見落とし方向の注意を喚起する音声を、出力部113に出力させる。具体的には、出力部113は、左前方が見落とし方向と判定された場合、「左前方に注意ください」等の音声を流す。
出力部113は、注意喚起部112からの指示に応じて、映像及び音声の少なくとも何れか一方を出力する。例えば、出力部113は、音声出力部113a及び表示部113bを備える。
音声出力部113aは、注意喚起部112からの指示に応じて、運転者に、見落とし方向の注意を喚起するために、見落とし方向に注意する旨の音声を出力する。
表示部113bは、注意喚起部112からの指示に応じて、見落とし方向に対応する映像である見落とし方向映像を表示する。
図6は、実施の形態1に係る運転支援装置100のハードウェア構成を示すブロック図である。
運転支援装置100は、左前方カメラ130aと、右前方カメラ130bと、左側方カメラ130cと、右側方カメラ130dと、左後方カメラ130eと、右後方カメラ130fと、運転者モニタカメラ131と、プロセッサ132と、メモリ133と、GPS(Global Positioning System)受信機134と、方位センサ135と、車速センサ136と、グラフィックコントローラ137と、グラフィックメモリ138と、ディスプレイ139と、音声出力回路140と、スピーカ141と、入力装置142とを備える。
左前方カメラ130a、右前方カメラ130b、左側方カメラ130c、右側方カメラ130d、左後方カメラ130e、右後方カメラ130f及び運転者モニタカメラ131は、映像を撮像する。
プロセッサ132は、メモリ133に記憶されているプログラムを実行することで、運転支援装置100での処理を行う。
メモリ133は、運転支援装置100での処理を実現するためのプログラム及び運転支援装置100での処理に必要な情報を記憶する。
GPS受信機134は、車両の位置を検出するために、複数のGPS衛星から送信されるGPS信号を受信する。
方位センサ135は、車両の方向を検出するものであり、例えば、ジャイロスコープ等である。
車速センサ136は、車両の速度を検出する。
グラフィックコントローラ137は、プロセッサ132からの命令に基づいて、車両周囲撮像部101である左前方撮像部101a、右前方撮像部101b、左側方撮像部101c、右側方撮像部101d、左後方撮像部101e、右後方撮像部101fから取得した映像をディスプレイ139に表示したり、注意喚起情報の画像の画像データを生成して、ディスプレイ139に表示したりする。
グラフィックメモリ138は、車両周囲撮像部101で撮像された映像の映像データ及びグラフィックコントローラ137で生成された画像の画像データを保存する。
ディスプレイ139はグラフィックメモリ138に保存されている映像データの映像及び画像データの画像を表示する表示装置である。ディスプレイ139は、例えば、車内の運転者が確認できる位置、例えば、正面メーター内又はセンターコンソール等の位置に設置されている液晶モニタ等である。もちろん、ディスプレイ139は、液晶モニタに限定されるものではない。
音声出力回路140は、音声データから音声信号を生成する。音声出力回路140は、例えば、メモリ133に格納されている注意喚起の音声データから音声信号を生成する。その音声データは、例えば、「左前方を確認していません。確認してください」等の音声を示すデータである。
スピーカ141は、音声出力回路140が生成した音声信号を受けて音声を出力する。
入力装置142は、指示の入力を受け付ける、ボタン等の装置である。
メモリ133に格納されているプログラムに基づき、プロセッサ132が左前方カメラ130a、右前方カメラ130b、左側方カメラ130c、右側方カメラ130d、左後方カメラ130e及び右後方カメラ130fを制御することにより、左前方撮像部101a、右前方撮像部101b、左側方撮像部101c、右側方撮像部101d、左後方撮像部101e及び右後方撮像部101fを実現することができる。
メモリ133に格納されているプログラムに基づき、プロセッサ132が運転者モニタカメラ131を制御することにより、運転者撮像部102を実現することができる。
メモリ133に格納されるプログラムに基づき、プロセッサ132がGPS受信機134、方位センサ135及び車速センサ136を制御することで、車両位置検出部104が実現される。
プロセッサ132がメモリ133を制御することで、地図情報記憶部105及び目視必要方向情報記憶部109が実現される。
メモリ133に格納されるプログラムに基づき、プロセッサ132が入力装置142を制御することで、入力部107が実現される。
メモリ133に格納されるプログラムを実行することで、視線方向検出部103、道路状態判定部106、経路探索部108、目視必要方向決定部110、見落とし方向判定部111及び注意喚起部112が実現される。
メモリ133に格納されるプログラムに基づき、プロセッサ132が、グラフィックコントローラ137、グラフィックメモリ138、ディスプレイ139、音声出力回路140及びスピーカ141を制御することで、出力部113が実現される。
以上に記載されたプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。
図7は、実施の形態1に係る運転支援装置100の処理の流れを示すフローチャートである。
図8は、実施の形態1に係る運転支援装置100を搭載した車両120がT字路にいる時の状態を示す概略図である。
図8において、車両120は、T字路の手前に一時停止している。他の車両124は、T字路右方向からT字路に向けて移動している。T字路左方向から歩行者125がT字路に向けて移動している。T字路は、塀126、塀127及び塀128によって囲まれており、車両120の運転者121の視界が妨げられている。
図7及び図8を使って、実施の形態1に係る運転支援装置100の処理の流れについて説明する。
なお、ここでは、車両120の運転者121は、入力部107を介して、出発地及び目的地を入力し、経路探索部108は、出発地から目的地までの経路を示す経路情報を生成し、その経路情報を目視必要方向決定部110に与えているものとする。
まず、車両位置検出部104は、複数のGPS衛星からGPS信号を受信して自車の現在位置を測位して、車両位置を検出する(S10)。そして、車両位置検出部104は、検出された車両位置を示す情報を車両位置情報として道路状態判定部106に与える。
次に、道路状態判定部106は、車両位置情報と、地図情報記憶部105に記憶されている地図情報とから自車がいる位置の道路状態を判定する(S11)。そして、道路状態判定部106は、判定された道路状態を示す道路状態情報を目視必要方向決定部110に与える。
次に、目視必要方向決定部110は、道路状態判定部106からの道路状態情報に基づいて、車両120のいる位置が分岐点であるか否かを判断する(S12)。分岐点とは、例えば、T字路、十字路、インター出口又はインター入口である。車両120のいる位置が分岐点である場合(S12でYes)には、処理はステップS13に進み、車両120のいる位置が分岐点ではない場合(S12でNo)には、処理はステップS10に戻る。
次に、目視必要方向決定部110は、道路状態情報及び経路情報から目視必要方向を決定する(S13)。例えば、図8に示すように道路状態がT字路であり、進行方向が右折である場合、目視必要方向決定部110は、図4に示されている目視必要方向テーブル109aから目視必要方向を、左前方、右前方、右側方及び右後方と判定する。
次に、見落とし方向判定部111は、視線方向検出部103から取得した運転者の視線方向を示す視線方向情報と、経路探索部108から取得した経路情報と、目視必要方向決定部110から取得した目視必要方向情報とから、見落とし方向を判定する。見落とし方向を判定する処理については、図9を用いて後述する。
次に、見落とし方向判定部111は、見落とし方向があるか否かを判定する(S15)。見落とし方向がある場合(S15でYes)には、処理はステップS16に進み、見落とし方向がない場合(S15でNo)には、処理はステップS10に戻る。
なお、見落とし方向がある場合には、見落とし方向判定部111は、見落とし方向を示す見落とし方向情報を注意喚起部112に与える。
次に、注意喚起部112は、見落とし方向情報を元に注意喚起を行う(S16)。例えば、注意喚起部112は、予め準備された音声データを使用し、見落とし方向を通知する音声を出力部113から出力させる。
具体的には、見落とし方向情報が左前方であれば、次の音声が出力される。「左前方を確認していません。注意して下さい。」
または、注意喚起部112は、見落とし方向の映像を出力部113に表示させてもよい。
さらに、注意喚起部112は、出力部113に音声及び映像の両方を出力させてもよい。
図9は、見落とし方向判定部111での処理を示すフローチャートである。
まず、見落とし方向判定部111は、目視必要方向決定部110から与えられる目視必要方向情報で示される目視必要方向の各々の目視確認回数を0に初期化する(S20)。具体的には、見落とし方向判定部111は、目視必要方向決定部110から与えられる目視必要方向情報に基づいて、図10に示されているような、目視確認実施回数テーブル111aを生成する。
目視確認実施回数テーブル111aは、目視確認方向列111bと、目視確認回数列111cとを有する。
目視確認方向列111bの各々の行は、目視必要方向決定部110から与えられる目視必要方向情報で示される目視必要方向の各々を、目視確認方向として格納する。図10は、目視必要方向情報で示される目視必要方向が、左前方、右前方、右側方及び右後方である場合の例を示している。
目視確認回数列111cの各々の行は、同じ行に格納されている目視確認方向を目視した回数を格納する。
図9に戻り、見落とし方向判定部111は、見落とし方向判定時間Tmを設定する(S21)。見落とし方向判定時間Tmは、例えば、運転者が目視確認を行う時間の長さであり、予め定められているものとする。
次に、見落とし方向判定部111は、見落とし方向判定開始時刻Tstartを現在時刻に設定する(S22)。
次に、見落とし方向判定部111は、視線方向検出部103から視線方向情報を取得する(S23)。
次に、見落とし方向判定部111は、視線方向情報で示される視線方向から、目視確認方向を判定する(S24)。目視確認方向の判定は、図5を用いて説明した目視必要方向の判定と同様である。例えば、視線方向が30度であるとすると、図5に示されているように、目視確認方向は、右前方と判定される。
次に、見落とし方向判定部111は、目視確認実施回数テーブル111aの該当する目視確認方向の目視確認回数に「1」を加算する(S25)。例えば、判定された目視確認方向が右前方であれば、右前方の目視確認回数に「1」が1加算される。
次に、見落とし方向判定部111は、現在時刻Tnowを取得して、見落とし方向判定開始時刻Tstartと、現在時刻Tnowとの差分から、見落とし方向判定開始からの経過時間Tpassを算出する(S26)。
次に、見落とし方向判定部111は、経過時間Tpassと、見落とし方向判定時間Tmとを比較して、経過時間Tpassが見落とし方向判定時間Tm未満であるか否かを判断する(S27)。経過時間Tpassが見落とし方向判定時間Tm未満である場合(S27でYes)には、処理はステップS23に戻り、経過時間Tpassが見落とし方向判定時間Tm以上である場合(S27でNo)には、処理はステップS28に進む。
ステップS28では、見落とし方向判定部111は、目視確認実施回数テーブル111aを確認して、目視確認回数が「0」である目視確認方向を、見落とし方向と判断する。
以上のように、実施の形態1によれば、車両の運転者が安全のために確認すべき方向を見ているかどうかを判定し、見ていない場合には見落とした方向として映像及び音声の少なくとも何れか一方で注意を喚起することで、見落としを防ぎ、安全性を高めることができる。
実施の形態2.
図11は、実施の形態2に係る運転支援装置200の構成を概略的に示すブロック図である。
実施の形態2に係る運転支援装置200は、車両周囲撮像部101と、運転者撮像部102と、視線方向検出部103と、車両位置検出部104と、地図情報記憶部105と、道路状態判定部106と、入力部107と、経路探索部108と、目視必要方向情報記憶部109と、目視必要方向決定部110と、見落とし方向判定部111と、注意喚起部212と、出力部113と、移動物体検出部214とを備える。
実施の形態2における車両周囲撮像部101、運転者撮像部102、視線方向検出部103、車両位置検出部104、地図情報記憶部105、道路状態判定部106、入力部107、経路探索部108、目視必要方向情報記憶部109、目視必要方向決定部110、見落とし方向判定部111及び出力部113は、実施の形態1における対応する部分と同様である。
但し、見落とし方向判定部111は、見落とし方向を示す見落とし方向情報を移動物体検出部214に与える。
移動物体検出部214は、見落とし方向判定部111から与えられる見落とし方向情報で示される全ての見落とし方向について、車両周囲撮像部101で撮像された映像から移動物体を検出し、検出された移動物体を示す移動物体検出情報及び見落とし方向情報を、注意喚起情報として注意喚起部212に与える。移動物体の検出は、例えば、画像マッチング等で行われればよい。移動物体検出情報は、例えば、移動物体が検出された見落とし方向、見落とし方向を撮像した映像内の移動物体数、並びに、各移動物体の位置及び大きさといった情報である。
また、移動物体検出部214は、見落とし方向に対応する映像の映像データを注意喚起部212に与える。
注意喚起部212は、移動物体検出部214から与えられた注意喚起情報に基づいて、移動物体が検出された見落とし方向への注意を喚起する。
例えば、注意喚起部212は、移動物体検出部214から与えられた注意喚起情報に基づいて、移動物体が検出された見落とし方向について、音声を使って注意喚起を行う。具体的には、注意喚起部212は、予め準備された見落とし方向別の注意喚起の音声データから、移動物体の検出された見落とし方向に対応する音声データを選択して、選択された音声データを出力部113に与えることで、音声出力部113aにその音声データに対応する音声を出力させればよい。ここでは、移動物体に注意する旨の音声が出力されればよい。一例として、左後方が、移動物体の検出された見落とし方向であれば、「左後方に移動物体があります。ご注意下さい。」という音声を、音声出力部113aが出力する。このような場合、移動物体検出部214は、注意喚起情報として、移動物体が検出された見落とし方向を示す移動物体検出情報を注意喚起部212に与えればよい。また、注意喚起部212は、実施の形態1と同様に、見落とし方向の注意を喚起する音声も音声出力部113aに出力させてもよい。さらに、注意喚起部212は、検出された移動物体の数、位置及び大きさの少なくとも1つも出力部113から出力させる音声に含めてもよい。
また、注意喚起部212は、移動物体検出部214から与えられた注意喚起情報に基づいて、移動物体が検出された見落とし方向について映像と音声を使って注意喚起を行っても良い。具体的には、注意喚起部212は、移動物体検出部214から移動物体が検出された見落とし方向の映像の映像データを取得する。そして、注意喚起部212は、移動物体検出情報から各移動物体の位置及び大きさを特定し、取得された映像データに、特定された位置及び大きさで枠を書き込む。注意喚起部212は、枠を書き込んだ映像データを出力部113に与える。これにより、表示部113bは、移動物体に対応する位置に枠を追加して表示することができる。
なお、見落とし方向の映像データは、注意喚起情報に含まれていてもよい。
ここでは、枠により移動物体が示されているが、例えば、矢印等により移動物体が示されてもよい。言い換えると、映像中で移動物体を特定できるような表示であれば、どのような表示方法であってもよい。
図12は、実施の形態2において表示される映像の一例を示す概略図である。
図12において、T字路の左前方から人が歩いてきている場合、移動物体検出部214が、人を検出して、人の位置及び大きさを示す情報を移動物体検出情報として注意喚起部212に与える。注意喚起部212は、人の位置及び大きさを示す情報を元に、映像250に枠250aを追加する。また、注意喚起部212は、同時に音声として予め準備された見落とし方向別の注意を喚起するための音声の音声データを選択して出力部113に与える。見落とし方向が左前方であれば、「左前方に移動物体があります。ご確認下さい。」という音声が出力部113から出力される。
以上のように、実施の形態2によれば、運転者が安全のために確認すべき方向を見ているかどうか判定し、見ていない場合は見ていない方向の移動物体の検知を行い、移動物体が検出された場合は、検出された移動物体に対する注意を喚起する。これにより、見落としを防ぎ、安全性を高めるという効果がある。また、運転者が見ている方向の移動物体の検出を行わないため、運転支援装置200の負荷を下げることができる。また、運転者が見る必要の無い方向の移動物体の検出を行わないため、運転支援装置200の負荷を下げることができる。
実施の形態3.
図13は、実施の形態3に係る運転支援装置300の構成を概略的に示すブロック図である。
実施の形態3に係る運転支援装置300は、車両周囲撮像部101と、運転者撮像部102と、視線方向検出部103と、車両位置検出部104と、地図情報記憶部105と、道路状態判定部106と、入力部107と、経路探索部108と、目視必要方向情報記憶部109と、目視必要方向決定部110と、見落とし方向判定部311と、注意喚起部312と、出力部113と、見落とし回数記憶部315とを備える。
実施の形態3における車両周囲撮像部101、運転者撮像部102、視線方向検出部103、車両位置検出部104、地図情報記憶部105、道路状態判定部106、入力部107、経路探索部108、目視必要方向情報記憶部109、目視必要方向決定部110及び出力部113は、実施の形態1における対応する部分と同様である。
見落とし回数記憶部315は、分岐の種類及び進行方向の組み合わせに対応する目視必要方向毎に、これまでに見落とし方向として判定された回数を示す見落とし回数情報を記憶する。
図14は、見落とし回数情報の一例である見落とし回数テーブル351aを示す概略図である。
見落とし回数テーブル351aは、判断条件列351bと、見落とし回数列351cとを有する。
判断条件列351bは、道路状態列351dと、進行方向列351eとを有する。
見落とし回数列351cは、左前方列351fと、右前方列351gと、左側方列351hと、右側方列351i、左後方列351jと、右後方列351kとを有する。
道路状態列351dは、道路状態を格納する。ここでは、分岐の種類が格納される。
進行方向列351eは、進行方向を格納する。進行方向列351eが空欄の場合には、条件として進行方向が定義されていないこと、言い換えると、全ての進行方向が条件に該当することを示しているものとする。
左前方列351f、右前方列351g、左側方列351h、右側方列351i、左後方列351j及び右後方列351kのそれぞれは、見落とし回数を格納する。
例えば、道路状態列351dが「T字路」で、進行方向列351eが「左折」である行の左前方列351fに「1」が格納されている場合には、そのような条件において左前方が見落とし方向と判断された回数が「1」であることを示す。
なお、ここでは、判断条件を道路状態及び進行方向としたが、信号の有無が含まれていてもよい。
見落とし方向判定部311は、道路状態と、進行方向と、目視必要方向と、見落とし回数記憶部315に記憶されている見落とし回数情報とから、目視必要方向のうち、見落とし回数が予め定められた閾値以上の見落としがある目視必要方向を、見落とし方向判定前に見落とし事前注意喚起方向として示す見落とし事前注意喚起方向情報を、注意喚起部312に与える。ここで、予め定められた閾値は、例えば、「3」等とすればよい。
見落とし方向判定部311は、その後、実施の形態1と同様に、一定時間の間、運転者の視線方向を特定し、見落とし方向を判定するとともに、見落とし回数情報において、判定された見落とし方向の見落とし回数に「1」を加算する。
例えば、車両位置検出部104の車両位置情報及び地図情報記憶部105が保持する地図情報から、道路状態判定部106がT字路にいると判定する。
次に、目視必要方向決定部110は、道路状態及び経路探索部108が持つ経路情報から進行方向を求め、目視必要方向を決定する。例えば、道路状態がT字路、進行方向が右折方向であった場合、図4に示されている目視必要方向テーブル109aにより、目視必要方向は、左前方、右前方、右側方及び右後方となる。
次に、見落とし方向判定部311は、道路状態と、進行方向と、目視必要方向とに基づいて、見落とし回数テーブル351aから、目視必要方向毎の見落とし回数を特定し、すべての目視必要方向に対して、見落とし回数が3回以上かどうか判定する。結果、左前方の見落とし回数が5回で、3回以上なので、左前方を見落とし事前注意喚起方向として示す見落とし事前注意喚起方向情報を注意喚起部312に与える。
注意喚起部312は、見落とし事前注意喚起方向情報で示されている見落とし事前注意喚起方向に注意するように、運転者に通知を行う。例えば、注意喚起部312は、予め準備された音声データを使用して、見落とし事前注意喚起方向として左前方を通知する注意喚起を行う。例えば、見落とし事前注意喚起方向が左前方であれば、次の音声が出力部113から出力される。「左前方を注意して下さい。」
あるいは、注意喚起部312は、出力部113に、左前方を撮像している左前方撮像部101aからの映像データに基づいて映像を表示させてもよい。
また、注意喚起部312は、出力部113に、上述の音声及び映像の両方を出力させてもよい。
以上のように、実施の形態3によれば、過去に見落とし回数が多い場合は、見落としやすい方向として、運転者に事前に知らせることができ、目視の確認を行う際の見落としを防止することができる。
100,200,300 運転支援装置、 101 車両周囲撮像部、 102 運転者撮像部、 103 視線方向検出部、 104 車両位置検出部、 105 地図情報記憶部、 106 道路状態判定部、 107 入力部、 108 経路探索部、 109 目視必要方向情報記憶部、 110 目視必要方向決定部、 111,311 見落とし方向判定部、 112,212,312 注意喚起部、 113 出力部、 113a 音声出力部、 113b 表示部、 214 移動物体検出部、 315 見落とし回数記憶部。
本発明の1の態様に係る運転支援装置は、地図情報を記憶する地図情報記憶部と、目的地の入力を受け付ける入力部と、前記地図情報に基づいて、前記目的地までの経路を探索する経路探索部と、車両の位置である車両位置を検出する車両位置検出部と、前記地図情報に基づいて、前記車両位置における道路状態を判定する道路状態判定部と、前記道路状態が分岐を示している場合に、前記道路状態から前記分岐の種類を特定するとともに、前記経路から前記車両の進行方向を特定し、前記特定された種類及び前記特定された進行方向に対応して、前記車両の運転者が目視する必要のある方向である目視必要方向を決定する目視必要方向決定部と、前記運転者の映像である運転者映像を撮像する運転者撮像部と、前記運転者映像から、前記運転者の視線の方向である視線方向を検出する視線方向検出部と、前記目視必要方向の内、前記視線方向を含まない方向を見落とし方向として判定する見落とし方向判定部と、前記運転者に、前記見落とし方向の注意を喚起する注意喚起部と、前記車両の周囲の複数の方向に対応する複数の映像を撮像する車両周囲撮像部と、前記注意喚起部からの指示に応じて、前記複数の映像の内、前記見落とし方向に対応する映像である見落とし方向映像を表示する表示部と、を備えることを特徴とする。
本発明の1の態様に係る運転支援方法は、目的地の入力を受け付け、地図情報に基づいて、前記目的地までの経路を探索し、車両の位置である車両位置を検出し、前記地図情報に基づいて、前記車両位置における道路状態を判定し、前記道路状態が分岐を示している場合に、前記道路状態から前記分岐の種類を特定し、前記経路から前記車両の進行方向を特定し、前記特定された種類及び前記特定された進行方向に対応して、前記車両の運転者が目視する必要のある方向である目視必要方向を決定し、前記運転者の映像である運転者映像から、前記運転者の視線の方向である視線方向を検出し、前記目視必要方向の内、前記視線方向を含まない方向を見落とし方向として判定し、前記運転者に、前記見落とし方向の注意を喚起し、前記車両の周囲の複数の方向に対応する複数の映像を撮像し、前記複数の映像の内、前記見落とし方向に対応する映像である見落とし方向映像を表示することを特徴とする。

Claims (8)

  1. 地図情報を記憶する地図情報記憶部と、
    目的地の入力を受け付ける入力部と、
    前記地図情報に基づいて、前記目的地までの経路を探索する経路探索部と、
    車両の位置である車両位置を検出する車両位置検出部と、
    前記地図情報に基づいて、前記車両位置における道路状態を判定する道路状態判定部と、
    前記道路状態が分岐を示している場合に、前記道路状態から前記分岐の種類を特定するとともに、前記経路から前記車両の進行方向を特定し、前記特定された種類及び前記特定された進行方向に対応して、前記車両の運転者が目視する必要のある方向である目視必要方向を決定する目視必要方向決定部と、
    前記運転者の映像である運転者映像を撮像する運転者撮像部と、
    前記運転者映像から、前記運転者の視線の方向である視線方向を検出する視線方向検出部と、
    前記目視必要方向の内、前記視線方向を含まない方向を見落とし方向として判定する見落とし方向判定部と、
    前記運転者に、前記見落とし方向の注意を喚起する注意喚起部と、を備えること
    を特徴とする運転支援装置。
  2. 前記注意喚起部からの指示に応じて、前記運転者に、前記見落とし方向の注意を喚起するために、前記見落とし方向に注意する旨の音声を出力する音声出力部をさらに備えること
    を特徴とする請求項1に記載の運転支援装置。
  3. 前記車両の周囲の複数の方向に対応する複数の映像を撮像する車両周囲撮像部と、
    前記注意喚起部からの指示に応じて、前記複数の映像の内、前記見落とし方向に対応する映像である見落とし方向映像を表示する表示部をさらに備えること
    を特徴とする請求項1に記載の運転支援装置。
  4. 前記見落とし方向映像から、移動する移動物体を検出する移動物体検出部をさらに備え、
    前記表示部は、前記見落とし方向映像に、前記移動物体を示す画像を追加して表示すること
    を特徴とする請求項3に記載の運転支援装置。
  5. 前記表示部は、前記画像として、前記移動物体に対応する位置に枠を表示すること
    を特徴とする請求項4に記載の運転支援装置。
  6. 前記注意喚起部からの指示に応じて、前記移動物体に注意する旨の音声を出力する音声出力部をさらに備えること
    を特徴とする請求項4又は5に記載の運転支援装置。
  7. 前記分岐の複数の種類の各々及び複数の進行方向の各々の組み合わせに対応する目視必要方向毎に、前記見落とし方向として判定された回数を記憶する見落とし回数記憶部をさらに備え、
    前記注意喚起部は、前記特定された種類と前記特定された進行方向に対応する前記目視必要方向の前記回数が、予め定められた閾値以上である場合に、前記見落とし方向の注意を喚起する前に、前記回数が前記予め定められた閾値以上となっている前記目視必要方向である見落とし事前注意喚起方向に注意するように、前記運転者に通知を行うこと
    を特徴とする請求項1から6の何れか一項に記載の運転支援装置。
  8. 目的地の入力を受け付け、
    地図情報に基づいて、前記目的地までの経路を探索し、
    車両の位置である車両位置を検出し、
    前記地図情報に基づいて、前記車両位置における道路状態を判定し、
    前記道路状態が分岐を示している場合に、前記道路状態から前記分岐の種類を特定し、
    前記経路から前記車両の進行方向を特定し、
    前記特定された種類及び前記特定された進行方向に対応して、前記車両の運転者が目視する必要のある方向である目視必要方向を決定し、
    前記運転者の映像である運転者映像から、前記運転者の視線の方向である視線方向を検出し、
    前記目視必要方向の内、前記視線方向を含まない方向を見落とし方向として判定し、
    前記運転者に、前記見落とし方向の注意を喚起すること
    を特徴とする運転支援方法。
JP2018539917A 2018-03-02 2018-03-02 運転支援装置及び運転支援方法 Active JP6419401B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/008182 WO2019167285A1 (ja) 2018-03-02 2018-03-02 運転支援装置及び運転支援方法

Publications (2)

Publication Number Publication Date
JP6419401B1 JP6419401B1 (ja) 2018-11-07
JPWO2019167285A1 true JPWO2019167285A1 (ja) 2020-04-09

Family

ID=64098710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539917A Active JP6419401B1 (ja) 2018-03-02 2018-03-02 運転支援装置及び運転支援方法

Country Status (5)

Country Link
US (1) US20200391752A1 (ja)
JP (1) JP6419401B1 (ja)
CN (1) CN111788618A (ja)
DE (1) DE112018006951T5 (ja)
WO (1) WO2019167285A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7206750B2 (ja) * 2018-09-26 2023-01-18 日本電気株式会社 運転支援装置
JP7432198B2 (ja) * 2019-06-03 2024-02-16 学校法人早稲田大学 状況認識推定システム及び運転支援システム
CN112277798A (zh) * 2020-10-29 2021-01-29 西安工业大学 一种汽车行驶防碰撞系统和控制方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199148A (ja) * 2002-12-16 2004-07-15 Toshiba Corp 車両の運転支援装置
CN101512617B (zh) * 2006-09-04 2012-02-01 松下电器产业株式会社 行驶信息提供装置
JP4412365B2 (ja) * 2007-03-26 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP2010033106A (ja) * 2008-07-24 2010-02-12 Fujitsu Ten Ltd 運転者支援装置、運転者支援方法および運転者支援処理プログラム
JP2014048978A (ja) * 2012-08-31 2014-03-17 Denso Corp 移動体警告装置、および移動体警告方法
JP5492962B2 (ja) * 2012-09-28 2014-05-14 富士重工業株式会社 視線誘導システム
JP2014234037A (ja) * 2013-05-31 2014-12-15 株式会社デンソー 車両用報知装置
CN105556956B (zh) * 2013-09-19 2019-01-22 富士通天株式会社 图像生成装置、图像显示系统、图像生成方法以及图像显示方法
JP6292054B2 (ja) * 2013-11-29 2018-03-14 富士通株式会社 運転支援装置、方法、及びプログラム
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
JP6217919B2 (ja) * 2014-01-27 2017-10-25 株式会社デンソー 車両運転評価システム
DE102014216208A1 (de) * 2014-08-14 2016-02-18 Robert Bosch Gmbh Verfahren und eine Vorrichtung zum Bestimmen einer Reaktionszeit eines Fahrzeugführers
CN111016927B (zh) * 2014-12-12 2023-08-29 索尼公司 自动驾驶控制设备以及自动驾驶控制方法和程序
KR101895485B1 (ko) * 2015-08-26 2018-09-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법
JP6563798B2 (ja) * 2015-12-17 2019-08-21 大学共同利用機関法人自然科学研究機構 視覚認知支援システムおよび視認対象物の検出システム
JP6786807B2 (ja) * 2016-02-01 2020-11-18 富士通株式会社 注意喚起プログラム、注意喚起装置、注意喚起方法及び注意喚起システム
JP6771196B2 (ja) * 2016-02-01 2020-10-21 パナソニックIpマネジメント株式会社 樹脂管およびその製造方法
JP2017151606A (ja) * 2016-02-23 2017-08-31 株式会社デンソー 脇見見落とし注意システム及びコンピュータプログラム
JP2018013838A (ja) * 2016-07-19 2018-01-25 株式会社デンソー 運転支援装置

Also Published As

Publication number Publication date
DE112018006951T5 (de) 2020-11-19
CN111788618A (zh) 2020-10-16
WO2019167285A1 (ja) 2019-09-06
US20200391752A1 (en) 2020-12-17
JP6419401B1 (ja) 2018-11-07

Similar Documents

Publication Publication Date Title
JP4981566B2 (ja) 運転支援装置および運転支援方法
US20200391752A1 (en) Driving assistance device, driving assistance method, and non-transitory computer-readable medium
JP5277974B2 (ja) 運転支援装置
US11158190B2 (en) Recommended driving output device, recommended driving output method and recommended driving output system
JP5294562B2 (ja) 車両周辺監視装置、その表示方法
JP2007233770A (ja) 車載周辺状況提示装置
US10632912B2 (en) Alarm device
JP2011109170A (ja) 車両周囲表示装置、車両周囲表示方法
JP2005135025A (ja) 衝突可能性判定装置
JP5980607B2 (ja) ナビゲーション装置
JPH06255423A (ja) 車載用監視カメラ装置
KR101305310B1 (ko) 차량의 어라운드 뷰 제공 방법
JP2012118804A (ja) 警報装置
CN112272946B (zh) 车辆控制装置
US8532926B2 (en) Map information processing device
JP4561627B2 (ja) 車両周辺監視装置
JP6927787B2 (ja) 車載器および運転支援装置
JP2011000933A (ja) 周辺認知支援装置
JP2017005352A (ja) 車載表示装置及び車両後方映像表示方法
JP2009181322A (ja) 車両用表示制御装置
KR20080092740A (ko) 주변 차량의 주행 모니터링 시스템 및 그 방법
JP2006208256A (ja) 車載用電子装置
US11842661B2 (en) Control method and information display system
JP2005159541A (ja) 車載撮像装置
JPH1191467A (ja) 後方監視カメラ装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180730

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250