JP2019185218A - 警報装置 - Google Patents

警報装置 Download PDF

Info

Publication number
JP2019185218A
JP2019185218A JP2018072539A JP2018072539A JP2019185218A JP 2019185218 A JP2019185218 A JP 2019185218A JP 2018072539 A JP2018072539 A JP 2018072539A JP 2018072539 A JP2018072539 A JP 2018072539A JP 2019185218 A JP2019185218 A JP 2019185218A
Authority
JP
Japan
Prior art keywords
vehicle
driver
gazing
information
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018072539A
Other languages
English (en)
Inventor
公祐 塚尾
Kosuke Tsukao
公祐 塚尾
浩伸 塚嵜
Hironobu Tsukasaki
浩伸 塚嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2018072539A priority Critical patent/JP2019185218A/ja
Priority to CN201910267906.2A priority patent/CN110348281A/zh
Priority to DE102019108772.4A priority patent/DE102019108772A1/de
Priority to US16/375,183 priority patent/US10632912B2/en
Publication of JP2019185218A publication Critical patent/JP2019185218A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Abstract

【課題】運転者の注視状況に応じて適切に報知を行うことが可能な警報装置を提供する。【解決手段】警報装置1は、自車の状態を示す自車情報を取得する自車情報取得部10と、自車の車外の状況を示す車外情報を取得する車外情報取得部11と、自車情報と車外情報とに基づいて自車の運転者が注視すべき対象物を算定する注視対象物算定部12と、運転者の視線の方向を示す視線情報を取得する視線情報取得部13と、運転者の三次元座標上の眼球位置を示す眼球位置情報を取得する眼球位置情報取得部14と、視線情報と眼球位置情報とに基づいて運転者が注視している注視点を算定する注視点算定部15と、注視すべき対象物と注視点とに基づいて運転者が注視すべき対象物を注視しているか否かを判定する判定部16と、運転者が注視すべき対象物を注視していないと判定された場合に報知する報知部17と、を備える。【選択図】図1

Description

本発明は、車両の運転時における運転者の注視状況に応じて警報を行う警報装置に関する。
車両を運転する際、事故の未然防止や走行の円滑化の観点から、運転者は車両の周囲の状況を十分に把握することが望まれる。そこで、運転者の視線に応じて報知する技術が検討されてきた(例えば特許文献1)。
特許文献1に記載の通知制御装置は、ユーザの確認が必要な対象である要確認対象を特定する特定手段と、ユーザの顔または視線の向きを検出する方向検出手段と、検出された顔または視線の向きに基づいて、ユーザが要確認対象を確認したか否かを検出する確認検出手段と、ユーザが要確認対象を確認したことが検出されていない場合、要確認対象の確認が必要な状況を通知し、ユーザが要確認対象を確認したことが検出された場合、要確認対象の確認が必要な状況の通知を制限するようにユーザへの通知を制御する通知制御手段とを備えている。
特開2007−94618号公報
特許文献1に記載の技術は、CCDカメラ等の単眼一次元カメラにより撮像した画像を用いてユーザ(運転者)の顔の向きや視線の向きを検出している。このため、例えば個人ごとに教師画像の入力等を行って個人ごとに調整を行わなければ、三次元情報を含めた注視点を算定することができず検出精度が悪くなる。このため、運転者の注視状況に応じて適切に報知を行うことができない。
そこで、運転者の注視状況に応じて適切に報知を行うことが可能な警報装置が求められる。
本発明に係る警報装置の特徴構成は、自車の状態を示す自車情報を取得する自車情報取得部と、前記自車の車外の状況を示す車外情報を取得する車外情報取得部と、前記自車情報と前記車外情報とに基づいて前記自車の運転者が注視すべき対象物を算定する注視対象物算定部と、前記運転者の視線の方向を示す視線情報を取得する視線情報取得部と、前記運転者の三次元座標上の眼球位置を示す眼球位置情報を取得する眼球位置情報取得部と、前記視線情報と前記眼球位置情報とに基づいて前記運転者が注視している注視点を算定する注視点算定部と、前記注視すべき対象物と前記注視点とに基づいて前記運転者が前記注視すべき対象物を注視しているか否かを判定する判定部と、前記運転者が前記注視すべき対象物を注視していないと判定された場合に報知する報知部と、を備えている点にある。
このような特徴構成とすれば、三次元座標上で運転者の注視点の算出を行うので、例えば運転者の頭の位置が移動した場合であっても、運転者が注視すべき対象物を注視したか否かを精度良く判定することが可能となる。したがって、運転者の注視状況に応じて適切に報知を行うことができる。
また、前記注視点算定部は、前記自車の車外における注視点を算定すると好適である。
このような構成とすれば、車外に注視すべき対象物がある場合であっても、運転者が注視すべき対象物を注視したか否かを精度良く判定することができる。したがって、車外の状況に応じて適切に報知することが可能となる。
また、前記判定部は、前記車外において前記注視すべき対象物が含まれる仮想平面上の注視領域を設定し、当該注視領域内に前記注視点が含まれる場合に前記運転者が前記注視すべき対象物を注視していると判定すると好適である。
このような構成とすれば、車外の注視すべき対象物を運転者が注視しているか否かを容易に判定することが可能となる。したがって、運転者の注視状況に応じて適切に報知を行うことが可能となる。
警報装置の構成を示すブロック図である。 注視領域を示す図である。 警報装置の処理を示すフローチャートである。
本発明に係る警報装置は、運転者の注視状況に応じて適切に報知を行うことができるように構成される。以下、本実施形態の警報装置1について説明する。
1.警報装置の構成
図1は、警報装置1の構成を模式的に示したブロック図である。図1に示されるように、警報装置1は、自車情報取得部10、車外情報取得部11、注視対象物算定部12、視線情報取得部13、眼球位置情報取得部14、注視点算定部15、判定部16、報知部17の各機能部を備えている。各機能部は運転者に対する報知に係る処理を行うために、CPUを中核部材としてハードウェア又はソフトウェア或いはその両方で構築されている。
自車情報取得部10は、自車の状態を示す自車情報を取得する。自車の情報とは、車両の走行中における車両の状態を示す情報である。具体的には、車両の走行方向(進行方向)を示す走行方向情報、車両の位置を示す位置情報、車両のブレーキの動作状態を示すブレーキ情報、車両のシフトレバーの位置を示すシフト情報等である。
走行方向情報や位置情報は、GPS(Global Positioning System)信号やGNSS(Global Navigation Satellite System)信号を受信し、受信した信号に基づき取得することが可能である。ブレーキ情報は車両に備えられるブレーキセンサの検出結果に基づき取得することが可能である。シフト情報は車両に備えられるシフトセンサの検出結果に基づき取得することが可能である。
自車情報取得部10は、このような走行方向情報、位置情報、ブレーキ情報、シフト情報等を取得する。これらの各情報は自車情報として後述する注視対象物算定部12に伝達される。
車外情報取得部11は、自車の車外の状況を示す車外情報を取得する。自車の車外の状況とは、例えば車両が走行している場所を含む周囲の地図示す地図情報や、車両の周囲に物体が存在しているか否かを示す物体情報、車両が走行中に交通量を示す交通量情報である。地図情報は、車両に備えられるカーナビゲーションシステムで使用される地図に基づき取得することが可能である。物体情報は、車両に備えられる周辺監視センサ等の検出結果に基づき取得することが可能である。交通量情報は、車両に備えられるカーナビゲーションシステムで使用されるVICS(Vehicle Information and Communication System)(登録商標)情報に基づき取得することが可能である。
車外情報取得部11は、このような地図情報、物体情報、交通量情報等を取得する。これらの各情報は車外情報として後述する注視対象物算定部12に伝達される。
注視対象物算定部12は、自車情報と車外情報とに基づいて自車の運転者が注視すべき対象物を算定する。自車情報は自車情報取得部10から伝達される。車外情報は車外情報取得部11から伝達される。自車の運転者が注視すべき対象物とは、車両の周囲に存在する物体のうち、車両の運転者が運転中に確認すべき対象物である。具体的には、信号機、道路標識、車両の周囲を通行する人や自転車や他車等である。
例えば地図情報及びVICS情報から自車がスムーズに道路を走行していると推定された場合には、注視対象物算定部12は信号機や道路標識等を注視すべき対象物として算定する。また、車両が赤信号で停車中である場合には、信号機や自車の先行車両を注視すべき対象物として算定する。また、赤信号から青信号に代わり自車が発進する場合には、車両の周囲を通行する人や自転車や他車等を注視すべき対象物として算定する。もちろん、このような注視すべき対象物は一例であり、車両の走行状況に応じて種々のものが想定される。
注視対象物算定部12により算定された注視すべき対象物を示す情報は、当該対象物の位置を示す情報を含み、後述する判定部16に伝達される。
視線情報取得部13は、運転者の視線の方向を示す視線情報を取得する。運転者の視線とは、自車の運転者の視線である。したがって、運転者の視線の方向とは、自車の運転者の視線の向きにあたる。このような運転者に視線の方向は、例えば車内に設けられたカメラにより運転者の顔を含む撮像画像を取得し、当該撮像画像を用いて公知の画像認識処理により検出すると好適である。もちろん、他の方法により運転者の視線の方向を検出するように構成することも可能である。このような運転者の視線の方向を示す情報は警報装置1では視線情報として扱われ、後述する注視点算定部15に伝達される。
眼球位置情報取得部14は、運転者の三次元座標上の眼球位置を示す眼球位置情報を取得する。運転者とは自車の運転者である。三次元座標上の眼球位置とは、X−Y座標系における眼球位置ではなく、X−Y−Z座標系における眼球位置である。したがって、運転者の顔に着目した場合に、顔の横方向及び縦方向のみでなく、奥行方向の位置も考慮したものである。このような三次元座標上の眼球位置は、例えば距離画像センサを車内に設け、当該距離画像センサの検出結果から取得可能である。もちろん、ステレオカメラを用いて取得することも可能である。このような運転者の三次元座標上の眼球位置を示す情報は警報装置1では眼球位置情報として扱われ、後述する注視点算定部15に伝達される。
注視点算定部15は、視線情報と眼球位置情報とに基づいて運転者が注視している注視点を算定する。視線情報は視線情報取得部13から伝達される。眼球位置情報は眼球位置情報取得部14から伝達される。運転者が注視している注視点とは、自車の運転者が、実際に注視している点である。
注視点算定部15は、視線情報により示される視線の方向と、三次元座標上の眼球位置とから、運転者の視線の方向に位置し、三次元座標上における運転者が実際に見ている点を算定する。注視点算定部15により算定された注視点は、注視点を示す情報として後述する判定部16に伝達される。
本実施形態では、上述したように注視対象物算定部12が自車の運転者が注視すべき対象物として、車両の周囲に存在する物体のうち、車両の運転者が運転中に確認すべき対象物を算定することから、注視点算定部15は自車の車外における注視点を算定するように構成される。
判定部16は、注視すべき対象物と注視点とに基づいて運転者が注視すべき対象物を注視しているか否かを判定する。注視すべき対象物は、注視対象物算定部12により算定され、注視すべき対象物を示す情報として注視対象物算定部12から伝達される。注視点は、注視点算定部15により算定され、注視点を示す情報として注視点算定部15から伝達される。判定部16は、運転者の注視すべき対象物に注視点があるか否かに基づき、運転者が注視すべき対象物を注視しているか否かを判定する。
判定部16は、車外において注視すべき対象物が含まれる仮想平面上の注視領域を設定し、当該注視領域内に注視点が含まれる場合に運転者が注視すべき対象物を注視していると判定すると良い。例えば、図2に示されるように、自車が赤信号で停車し、自車の前に他車が停車している場合を考える。ここでは理解を容易にするために、自車に符号2を付し、他車に符号3を付して説明する。この場合、車外において注視すべき対象物は、他車3が相当する。判定部16は、まず、このような対象物(他車3)が含まれる仮想平面4を設定する。この時、判定部16は、仮想平面4は他車3の後端部5を基準として自車の運転者の眼球位置から等距離となるように設定する。次に、判定部16は、仮想平面4における他車3の後端部5(例えばバンパー等)を含む注視領域6を設定する。判定部16は、視線方向Aのように注視領域6に運転者の注視点(図2では符号7を付している)が含まれる場合には、運転者が注視すべき他車3を注視していると判定する。一方、判定部16は、視線方向Bのように注視領域6に運転者の注視点7が含まれない場合には、運転者が注視すべき他車3を注視していないと判定する。
なお、注視すべき対象物が他車3であることは単なる一例であり、注視すべき対象物が信号機や歩行者等であっても同様に判定することが可能である。判定部16の判定結果は後述する報知部17に伝達される。
図1に戻り、報知部17は、運転者が注視すべき対象物を注視していないと判定された場合に運転者に報知する。報知部17には判定部16から判定結果が伝達される。この判定結果が、運転者が注視すべき対象物を注視していないことを示す判定結果である場合に、報知部17は報知を行う。報知としては、例えば運転者が報知していないことを明示するような報知であっても良いし、運転者に注視を促すような報知であっても良い。係る場合、報知と共に、注視すべき対象物が何であるかを示す情報も報知するように構成することも可能である。また、報知部17は、早期に警報を報知するように構成しても良いし、報知方法を変更するように構成しても良い。なお、報知部17は、判定部16から伝達されてきた判定結果が、運転者が注視すべき対象物を注視していることを示す判定結果である場合には、報知を行わなくても良いし、所定時間後に報知を行うように構成されている場合には当該報知を制限するように構成しても良い。
2.警報装置の処理
次に、警報装置1の処理について、図3のフローチャートを用いて説明する。まず、自車情報取得部10が自車情報を取得する(ステップ#01)。また、車外情報取得部11が車外情報を取得する(ステップ#02)。注視対象物算定部12が、自車情報と車外情報とに基づき注視すべき対象物(注視対象物)を算定する(ステップ#03)。
一方、視線情報取得部13が視線情報を取得する(ステップ#04)。また、眼球位置情報取得部14が眼球位置情報を取得する(ステップ#05)。注視点算定部15が、池泉情報と眼球位置情報とに基づき注視点を算定する(ステップ#06)。
なお、ステップ#01−ステップ#03の処理、及びステップ#04−ステップ#06の処理は、ステップ#01−ステップ#03の処理よりも先にステップ#04−ステップ#06の処理を行っても良いし、ステップ#01−ステップ#03の処理と、ステップ#04−ステップ#06の処理とを並列に行っても良い。
判定部16が、注視対象物と注視点とに基づいて運転者が注視対象物を注視しているか否かを判定する。判定部16により運転者が注視対象物を注視していると判定された場合には(ステップ#07:Yes)、報知部17は報知を制限する(ステップ#08)。一方、判定部16により運転者が注視対象物を注視していないと判定された場合には(ステップ#07:No)、報知部17は報知を行う(ステップ#09)。ステップ#08及びステップ#09の後、一連の処理が終了する。警報装置1はこのようなフローに沿って処理を行う。
3.警報装置の利用形態
次に、警報装置1の利用形態について説明する。なお、以下の利用形態は単なる例示であり、警報装置1の利用形態が以下の例示に限定されるものではない。
3−1.車両の死角の注視に係る利用形態
車両には、運転者にとって視認し難い領域(死角)がある。警報装置1は、運転者がこのような死角を注視しているか否かの判定、及びその判定結果に応じた報知に利用することが可能である。ここでは、自車が駐車エリアや狭い路地等へ右折して進入する場合を例に挙げる。
係る場合、自車情報取得部10が自車のステアリングの舵角を示す舵角情報、及び自車の車速を示す車速情報を取得する。また、車外情報取得部11が自車の死角となる領域を撮像した撮像画像を取得する。この撮像画像は、死角となる領域のみが含まれるコーナービュー画像であっても良いし、死角となる領域とその周囲は含まれるアラウンドビュー画像であっても良い。また、車外情報取得部11が自車の周囲に物体が存在しているか否かを示す物体情報を取得する。この物体情報には物体の位置を示す情報が含まれる。注視対象物算定部12は、死角となる領域、すなわち車両の左前方を注視対象(注視対象物)として算定する。
視線情報取得部13が運転者に係る視線情報を取得し、眼球位置情報取得部14が運転者に係る眼球位置情報を取得する。注視点算定部15が視線情報と眼球位置情報とに基づいて運転者の注視点を算定する。
判定部16は、運転者の注視点が車両の左前方にあるか否かを判定する。報知部17は、判定部16の判定結果が運転者の注視点が車両の左前方にあるということを示すものである場合に、運転者の視野内であって、且つ、物体情報で示される物体への視線を遮らない位置に、車外情報取得部11により取得された、自車の死角となる領域を撮像した撮像画像を表示する。
このように警報装置1は、車両の前方角部が何らかの物体と接触が懸念される状況において、死角となる領域から目を離すことなく視認させるためのシステムに利用できる。このような利用形態にあっては、車両が低速で曲がる際に、車両が曲がる方向とは反対側の前方への運転者の視線を検出し、死角となる領域を撮像した画像を表示することが可能となる。
3−2.車両の発進時の注視に係る利用形態
車両が停止している状態から前進発進する際、運転者は前方に注意すべきである。また、車両の停止中に、運転者が意図せずブレーキペダルの踏力が弱くなり、車両が発進してしまうこともある。警報装置1は、車両の発進時に運転者が前方を注視しているか否かの判定、及びその判定結果に応じた報知に利用することが可能である。
係る場合、自車情報取得部10が自車の車速を示す車速情報を取得する。また、車外情報取得部11が自車の前方の状況を撮像した撮像画像を取得する。注視対象物算定部12は、車速情報に基づき車両が停止中であると特定すると、車両の前方を注視対象(注視対象物)として算定する。
視線情報取得部13が運転者に係る視線情報を取得し、眼球位置情報取得部14が運転者に係る眼球位置情報を取得する。注視点算定部15が視線情報と眼球位置情報とに基づいて運転者の注視点を算定する。
判定部16は、運転者の注視点が車両の前方にあるか否かを判定する。報知部17は、判定部16の判定結果が運転者の注視点が車両の前方にないということを示すものである場合であって、車両が前進発進を開始すると、警報(例えばアラーム音を発する)を発する。また、この警報に代えて、或いはこの警報と共に車両の運転者の前進を停止させるようにブレーキ制御を行うようにすることも可能である。
このように警報装置1は、運転者が前方を見ていない状態で走り出した(意図しない走行を含む)時には、警報を発したり、ブレーキ制御を行うようなシステムに利用できる。
3−3.物体への視線の誘導に係る利用形態
車両の走行中における運転者の脇見運転は非常に危険である。警報装置1は、脇見運転を行う運転者に対する注意喚起に利用することが可能である。
係る場合、自車情報取得部10が自車のステアリングの舵角を示す舵角情報、及び自車の車速を示す車速情報を取得する。また、車外情報取得部11が自車の周囲に物体が存在しているか否かを示す物体情報を取得する。この物体情報には物体の位置を示す情報が含まれる。注視対象物算定部12は、物体情報で示される物体を注視対象物として算定する。
視線情報取得部13が運転者に係る視線情報を取得し、眼球位置情報取得部14が運転者に係る眼球位置情報を取得する。注視点算定部15が視線情報と眼球位置情報とに基づいて運転者の注視点を算定する。
判定部16は、運転者の注視点が車両の前方の物体にあるか否かを判定する。報知部17は、判定部16の判定結果が運転者の注視点が車両の前方の物体にないということを示すものである場合に、運転者の視線方向を現在の方向から車両の前方の物体の方向へ誘導する報知を行う。このような報知として、例えば視線を誘導するように矢印を表示して報知することも可能であるし、音声によって行うことも可能である。なお、矢印の表示は、例えばフロントガラス、サイドガラス、モニタ、ヘッドアップディスプレイ、メータディスプレイ等に行うと好適である。
このように警報装置1は、運転者が脇見をしている時に、走行方向に障害物となる物体(例えば他車や人等)を検出すると、運転者の視線の方向を物体が存在している方向へ誘導させるためのシステムに利用できる。
3−4.運転者の視線によるデバイス操作に係る利用形態
車両の走行中、運転者がステアリングから手を離してデバイスを操作することは危険である。警報装置1は、運転者がステアリングから手を離すことなくデバイスの操作を可能とするシステムに利用することが可能である。
係る場合、音声によって操作され、当該音声による操作が運転者の視線によって可能となるデバイスが車内に設けられているとする。このため、本利用形態においては、注視対象物が車内のデバイスが相当する。
視線情報取得部13が運転者に係る視線情報を取得し、眼球位置情報取得部14が運転者に係る眼球位置情報を取得する。注視点算定部15が視線情報と眼球位置情報とに基づいて運転者の注視点を算定する。
判定部16は、運転者の注視点が予め設定された時間以上、車内の音声による操作が可能なデバイスにあるか否かを判定する。判定部16の判定結果が運転者の注視点が前記デバイスにあるということを示すものである場合に、報知部17は前記デバイスに対して音声による操作を許可するよう指示する。これにより、運転者はステアリングから手を離すことなくデバイスの操作を行うことが可能となる。
このように警報装置1によれば、音声による操作可能なデバイスに対する運転者の操作意思を容易に確認することができる。
3−5.運転者に対する情報の提示に係る利用形態
車両の走行中、運転者が車外の物体(例えば建物等)が何であるかを知りたい場合があるが、運転者はステアリングから手を離して携帯端末等を操作して調べることはできない。そこで、警報装置1は、運転者が疑問に思った物体についての情報を提示することを可能とするシステムに利用することが可能である。
係る場合、自車情報取得部10が自車の走行方向や位置を示す位置情報を取得する。また、車外情報取得部11が自車が走行している周囲の地図である地図情報を取得する。
視線情報取得部13が運転者に係る視線情報を取得し、眼球位置情報取得部14が運転者に係る眼球位置情報を取得する。注視点算定部15が視線情報と眼球位置情報とに基づいて運転者の注視点を算定する。
ここで、運転者が例えば「あれは何?」と発すると、報知部17は運転者の注視先にある物体(例えば建物)の情報を通知する。この通知は、例えばフロントガラス、モニタ、ヘッドアップディスプレイ、メータディスプレイ等に示される物体に指標(例えば枠)を重畳表示し、当該物体の情報を音声や表示で通知することが可能である。また、建物以外に、道路標識や看板等を運転者が注視していると判定された場合に、該当する物体に係る情報を通知しても良い。
このように警報装置1によれば、運転者が初めて訪れた場所であっても、建物や店舗を容易に探したり、日本の道路標識を見慣れていない外国からの訪問者に道路標識を認識させたりすることが可能となる。
4.その他の実施形態
上記実施形態では、判定部16が車外において注視すべき対象物が含まれる仮想平面4上の注視領域6を設定し、当該注視領域6内に注視点が含まれる場合に運転者が注視すべき対象物を注視していると判定するとして説明した。しかしながら、判定部16は、仮想平面4及び注視領域6を設定せずに判定するように構成することも可能である。
本発明は、車両の運転時における運転者の注視状況に応じて警報を行う警報装置に用いることが可能である。
1:警報装置
10:自車情報取得部
11:車外情報取得部
12:注視対象物算定部
13:視線情報取得部
14:眼球位置情報取得部
15:注視点算定部
16:判定部
17:報知部

Claims (3)

  1. 自車の状態を示す自車情報を取得する自車情報取得部と、
    前記自車の車外の状況を示す車外情報を取得する車外情報取得部と、
    前記自車情報と前記車外情報とに基づいて前記自車の運転者が注視すべき対象物を算定する注視対象物算定部と、
    前記運転者の視線の方向を示す視線情報を取得する視線情報取得部と、
    前記運転者の三次元座標上の眼球位置を示す眼球位置情報を取得する眼球位置情報取得部と、
    前記視線情報と前記眼球位置情報とに基づいて前記運転者が注視している注視点を算定する注視点算定部と、
    前記注視すべき対象物と前記注視点とに基づいて前記運転者が前記注視すべき対象物を注視しているか否かを判定する判定部と、
    前記運転者が前記注視すべき対象物を注視していないと判定された場合に報知する報知部と、
    を備えた警報装置。
  2. 前記注視点算定部は、前記自車の車外における注視点を算定する請求項1に記載の警報装置。
  3. 前記判定部は、前記車外において前記注視すべき対象物が含まれる仮想平面上の注視領域を設定し、当該注視領域内に前記注視点が含まれる場合に前記運転者が前記注視すべき対象物を注視していると判定する請求項1又は2に記載の警報装置。
JP2018072539A 2018-04-04 2018-04-04 警報装置 Pending JP2019185218A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018072539A JP2019185218A (ja) 2018-04-04 2018-04-04 警報装置
CN201910267906.2A CN110348281A (zh) 2018-04-04 2019-04-03 警报装置
DE102019108772.4A DE102019108772A1 (de) 2018-04-04 2019-04-03 Alarmvorrichtung
US16/375,183 US10632912B2 (en) 2018-04-04 2019-04-04 Alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072539A JP2019185218A (ja) 2018-04-04 2018-04-04 警報装置

Publications (1)

Publication Number Publication Date
JP2019185218A true JP2019185218A (ja) 2019-10-24

Family

ID=67991683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072539A Pending JP2019185218A (ja) 2018-04-04 2018-04-04 警報装置

Country Status (4)

Country Link
US (1) US10632912B2 (ja)
JP (1) JP2019185218A (ja)
CN (1) CN110348281A (ja)
DE (1) DE102019108772A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354913B1 (en) * 2019-11-27 2022-06-07 Woven Planet North America, Inc. Systems and methods for improving vehicle predictions using point representations of scene
CN111292548B (zh) * 2020-02-06 2021-02-05 温州大学 一种基于视觉注意力的安全驾驶方法
CN113570901B (zh) * 2020-04-27 2022-09-20 北京七鑫易维信息技术有限公司 车辆驾驶的辅助方法及装置
CN113696897B (zh) * 2020-05-07 2023-06-23 沃尔沃汽车公司 驾驶员分神预警方法和驾驶员分神预警系统
US11651692B2 (en) 2021-10-07 2023-05-16 Qualcomm Incorporated Presenting relevant warnings to a vehicle operator

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324295B2 (ja) * 1994-09-26 2002-09-17 日産自動車株式会社 車両用視線方向計測装置
JP3785669B2 (ja) 1996-03-05 2006-06-14 日産自動車株式会社 視線方向計測装置
JP2007094618A (ja) 2005-09-28 2007-04-12 Omron Corp 通知制御装置および方法、記録媒体、並びに、プログラム。
EP1968006B1 (en) * 2005-12-27 2020-03-25 Panasonic Intellectual Property Corporation of America Image processing apparatus
JP5974915B2 (ja) * 2013-01-29 2016-08-23 株式会社デンソー 覚醒度検出装置、および覚醒度検出方法

Also Published As

Publication number Publication date
US10632912B2 (en) 2020-04-28
US20190308554A1 (en) 2019-10-10
DE102019108772A1 (de) 2019-10-10
CN110348281A (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
JP2019185218A (ja) 警報装置
JP6113375B2 (ja) 運転支援装置および運転支援方法
JP5492962B2 (ja) 視線誘導システム
US9723243B2 (en) User interface method for terminal for vehicle and apparatus thereof
JP5718942B2 (ja) 輸送手段の安全な運転を補助する装置及び方法
JP6241235B2 (ja) 車両用運転支援装置
US20180322349A1 (en) Parking Space Detection Method and Device
US20140249717A1 (en) Visually-distracted-driving detection device
KR20120037253A (ko) 운전자 주시방향 연동 전방충돌 위험경보 시스템, 그 방법 및 그를 이용한 차량
JP2009184554A (ja) 安全走行支援システム
WO2013115241A1 (ja) 車両の運転手の注意を喚起する装置及びその方法
JP2015138308A (ja) 運転支援装置、運転支援方法及び運転支援プログラム
JP2012099085A (ja) 車両用ウインドシールドガラス上のリアルタイム警報システム及びその作動方法
JP6448714B2 (ja) 情報表示システム
JP2018100008A (ja) 車両用表示装置
JP2009154775A (ja) 注意喚起装置
JP2007133644A (ja) 歩行者認識装置
JP2007230314A (ja) 映像提示装置及び映像提示方法
JP6476644B2 (ja) 認知補助装置
US11643012B2 (en) Driving assistance device, driving situation information acquisition system, driving assistance method, and program
JP5492963B2 (ja) 視線誘導システム
JP5622819B2 (ja) 視線誘導システム
JP2011206072A (ja) 有効視野測定システムおよび有効視野測定方法
JP2016215770A (ja) 車両の運転者のための画像表示装置
JP2016118859A (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体