JP2017004117A - 視線検出装置および視線検出方法 - Google Patents

視線検出装置および視線検出方法 Download PDF

Info

Publication number
JP2017004117A
JP2017004117A JP2015115089A JP2015115089A JP2017004117A JP 2017004117 A JP2017004117 A JP 2017004117A JP 2015115089 A JP2015115089 A JP 2015115089A JP 2015115089 A JP2015115089 A JP 2015115089A JP 2017004117 A JP2017004117 A JP 2017004117A
Authority
JP
Japan
Prior art keywords
calibration
vehicle
unit
line
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015115089A
Other languages
English (en)
Inventor
哲 杉江
Satoru Sugie
哲 杉江
宗平 柴田
Shuhei Shibata
宗平 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015115089A priority Critical patent/JP2017004117A/ja
Priority to US15/095,504 priority patent/US10026000B2/en
Publication of JP2017004117A publication Critical patent/JP2017004117A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】容易かつ高精度な視線検出を行うこと。
【解決手段】実施形態に係る視線検出装置は、検出部と、取得部と、判定部と、算出部と、キャリブレーション部とを備える。検出部は、車両の運転者の視線方向を検出する。取得部は、車両の走行状況を取得する。判定部は、取得部によって取得された走行状況が、運転者が特定位置を注視中であると推定される状況であるか否かを判定する。算出部は、判定部によってその状況であると判定される場合における検出部の検出結果についての代表値を算出する。キャリブレーション部は、算出部によって算出された代表値が基準となるように検出部による視線方向の検出についてのキャリブレーションを実行する。
【選択図】図2

Description

開示の実施形態は、視線検出装置および視線検出方法に関する。
従来、車両の運転者の運転状態等を取得することを目的として、運転者の視線およびその動きを検出する技術が知られている。
たとえば、特許文献1には、運転者によって所定のスイッチが押下された場合に運転者の前方にキャリブレーション用のマーカーが表示され、このマーカーを運転者に注視させることによって取得される運転者とマーカーとの位置関係に基づき、視線検出のためのキャリブレーションを行う技術が開示されている。
特開平7−35543号公報
しかしながら、上述した従来技術には、キャリブレーションのたびに運転者による操作が必要となるため、手順が煩わしく、容易に行うことができないという問題点があった。
また、キャリブレーションに際して運転者に車室内で上記スイッチを押下する姿勢をとらせるため、運転者が通常運転時にとる姿勢とは異なる姿勢でキャリブレーションが行われていた。このため、走行中の車両において運転者の視線検出を高精度に行ううえでは難があった。
実施形態の一態様は、上記に鑑みてなされたものであって、容易かつ高精度な視線検出を行うことができる視線検出装置および視線検出方法を提供することを目的とする。
実施形態の一態様に係る視線検出装置は、検出部と、取得部と、判定部と、算出部と、キャリブレーション部とを備える。前記検出部は、車両の運転者の視線方向を検出する。前記取得部は、前記車両の走行状況を取得する。前記判定部は、前記取得部によって取得された前記走行状況が、前記運転者が特定位置を注視中であると推定される状況であるか否かを判定する。前記算出部は、前記判定部によって前記状況であると判定される場合における前記検出部の検出結果についての代表値を算出する。前記キャリブレーション部は、前記算出部によって算出された前記代表値が基準となるように前記検出部による視線方向の検出についてのキャリブレーションを実行する。
実施形態の一態様によれば、容易かつ高精度な視線検出を行うことができる。
図1Aは、実施形態に係る視線検出手法の概要を示す図(その1)である。 図1Bは、実施形態に係る視線検出手法の概要を示す図(その2)である。 図1Cは、実施形態に係る視線検出手法の概要を示す図(その3)である。 図1Dは、実施形態に係る視線検出手法の概要を示す図(その4)である。 図1Eは、実施形態に係る視線検出手法の概要を示す図(その5)である。 図2は、実施形態に係る視線検出装置のブロック図である。 図3は、赤外線カメラおよび赤外線LEDの配置例を示す図である。 図4Aは、検出部および算出部による視線方向検出処理の説明図(その1)である。 図4Bは、検出部および算出部による視線方向検出処理の説明図(その2)である。 図4Cは、検出部および算出部による視線方向検出処理の説明図(その3)である。 図4Dは、検出部および算出部による視線方向検出処理の説明図(その4)である。 図5は、仮想平面上のプロットデータの一例を示す図である。 図6Aは、判定部がキャリブレーション部にキャリブレーションを実行させる場合の説明図(その1)である。 図6Bは、判定部がキャリブレーション部にキャリブレーションを実行させる場合の説明図(その2)である。 図6Cは、判定部がキャリブレーション部にキャリブレーションを実行させる場合の説明図(その3)である。 図6Dは、判定部がキャリブレーション部にキャリブレーションを実行させる場合の説明図(その4)である。 図6Eは、判定部がキャリブレーション部にキャリブレーションを実行させる場合の説明図(その5)である。 図7Aは、判定部がキャリブレーション部にキャリブレーションを実行させない場合の説明図(その1)である。 図7Bは、判定部がキャリブレーション部にキャリブレーションを実行させない場合の説明図(その2)である。 図7Cは、判定部がキャリブレーション部にキャリブレーションを実行させない場合の説明図(その3)である。 図7Dは、判定部がキャリブレーション部にキャリブレーションを実行させない場合の説明図(その4)である。 図8Aは、判定部がキャリブレーション部に例外的にキャリブレーションを実行させる場合の説明図(その1)である。 図8Bは、判定部がキャリブレーション部に例外的にキャリブレーションを実行させる場合の説明図(その2)である。 図9Aは、実施形態に係る視線検出装置が実行する処理手順を示すフローチャートである。 図9Bは、視線方向検出処理の処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する視線検出装置および視線検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
また、以下では、本実施形態に係る視線検出手法の概要について図1A〜図1Eを用いて説明した後に、この視線検出手法を適用した視線検出装置について、図2〜図9Bを用いて説明することとする。
まず、本実施形態に係る視線検出手法の概要について、図1A〜図1Eを用いて説明する。図1A〜図1Eは、実施形態に係る視線検出手法の概要を示す図(その1)〜(その5)である。
本実施形態に係る視線検出手法は、比較例となる公知の視線検出手法とは異なり、車両Cが停止中である場合にとどまらず、車両Cが走行中である場合にも動的に視線検出に係るキャリブレーションを実行可能にしようとするものである。
公知の視線検出手法にて行われる視線検出のキャリブレーションは、たとえば車両Cを停止させた状態で運転者Dに所定のスイッチを押下させてキャリブレーション用のマーカーを表示し、このマーカーを運転者Dに注視させることによって運転者Dとマーカーとの位置関係を取得し、取得したその位置関係に基づいて行われるものが知られている。
しかしながら、こうした視線検出手法では、キャリブレーションのたびに運転者Dによる操作が必要となるため、手順が煩わしく、容易に行うことができない。また、キャリブレーションに際して運転者Dがとる姿勢は、車室内で上記スイッチを押下する姿勢であり、運転者Dが通常運転時にとる姿勢とは異なるものである。このため、走行中の車両Cにおいて良好に運転者Dの視線検出を行うための精度を得るうえでは難がある。
そこで、本実施形態に係る視線検出手法では、車両Cが走行中であり、かつ、運転者Dの姿勢が通常運転時の自然姿勢である状況において、運転者Dの操作を必要とすることなく、視線検出のキャリブレーションを行うこととした。
具体的にはまず、図1Aに示すように、本実施形態では、車両Cに搭載された視線検出装置10が、走行中である車両Cの走行状況を取得する(ステップS1)。そして、視線検出装置10は、取得した走行状況を判定する(ステップS2)。
具体的なその判定内容は、図1Bに示すように、「運転者が特定位置を注視している状況?」(ステップS21)と推定されるか否かである。ここで、本実施形態では、その「特定位置」を「車両Cが勾配のない平坦な直線道路を直進中であると仮定した場合における運転者Dの正面方向の無限遠点」または「道路の消失点」としている。
すなわち、本実施形態では、かかる無限遠点(消失点)を運転者Dが注視していると推定される状況こそ、運転者Dが通常運転時の自然姿勢をとっていると見立てている。したがって、図1Bに示すように、ステップS21では、車両Cが「直進中?」か、または、運転者Dの「視線をばらつかせる要素なし?」かといった内容の判定に基づき、運転者Dが「特定位置」を注視していると推定される状況であるか否かが判定される。ステップS21の具体例については、図6A〜図7Dを用いて後述する。
また、これと並行に、本実施形態では、図1Cに示すように、視線検出装置10が、赤外線カメラ13aおよび赤外線LED13bを用いつつ、運転者Dの視線方向の検出を動的に繰り返し行う(ステップS3)。
具体的には、赤外線LED13bで照らした運転者Dの顔を赤外線カメラ13aで撮像することによって得られる赤外画像中の瞳孔101と、眼球上に生じる赤外照明反射像(角膜反射102)との位置関係により、運転者Dの視線方向を検出する。
概略的に言えば、たとえば、図1Cに示すように、瞳孔101が角膜反射102よりも目頭103側にあれば、運転者Dは目頭103側を視ていることが分かる。また、たとえば、瞳孔101が角膜反射102よりも目尻104側にあれば、運転者Dは目尻104側を視ていることが分かる。
そして、図1Dに示すように、本実施形態では、上述のステップS21にて、運転者Dが「特定位置」を注視中であると推定される状況であると判定された場合において、かかる状況下でステップS3にて検出された視線方向を仮想平面V上へプロットする(ステップS4)。
仮想平面Vは、運転者Dと無限遠点∞とを結ぶ直線に直交する仮想上の平面であり、各視線方向は、かかる仮想平面Vと交わる位置へプロットされ、その位置は仮想平面V上のXY座標軸上に示される。ステップS3〜S5の具体例については、図3〜図5を用いて後述する。
そして、視線検出装置10は、かかるプロットされた各点P1〜P3(便宜上、3個を図示している)についての代表値を算出する(ステップS5)。代表値は各点P1〜P3の分布の中心を示すものであり、たとえば各点P1〜P3の平均値である。
そして、図1Eに示すように、本実施形態では、視線検出装置10が、ステップS5にて算出された代表値が基準となるようにキャリブレーションを実行する(ステップS6)。すなわち、代表値が運転者Dの正面方向の無限遠点∞を示すものとして、運転者Dの視線検出可能領域におけるキャリブレーション情報(瞳孔101と角膜反射102との位置関係を示すマッピング情報を含む情報)を補正する。
これにより、たとえば図1Eに示すように、当初、点P’で示されていた無限遠点∞が、上記代表値にて点Pで示されるならば、運転者Dが無限遠点∞を視る場合におけるキャリブレーション情報は点P’から点Pへ補正される。また、これを基準として、上記マッピング情報のすべてが補正されることとなる。
このように、本実施形態では、車両Cの走行状況を取得し、取得された走行状況が、運転者Dが特定位置を注視中であると推定される状況であるか否かを判定するとともに、これと並行に、車両Cの運転者Dの視線方向を動的に繰り返し検出することとした。
そして、本実施形態では、取得された走行状況が、運転者Dが特定位置を注視中であると推定される状況であると判定されたならば、かかる状況下における運転者Dの視線方向の検出結果についての代表値を算出し、かかる代表値が基準となるように視線方向の検出についてのキャリブレーションを実行することとした。したがって、本実施形態によれば、容易かつ高精度な視線検出を行うことができる。
以下、図1A〜図1Eに概要を示した本実施形態について、順次具体的に説明してゆく。
図2は、実施形態に係る視線検出装置10のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
さらに、視線検出装置10の各機能ブロックにて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)などのプロセッサおよび当該プロセッサにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得るものである。
図2に示すように、視線検出装置10は、車両Cに設けられる。なお、車両Cには、視線検出装置10の他にも、車両Cの周囲を撮像可能な車載カメラ2や、車両Cの舵角を検出する舵角センサ3、車速を検出する車速センサ4、加速度を検出する加速度センサ5、車両Cの周囲の輝度変化を検出する輝度センサ6等のセンサ群が搭載される。
また、車両Cには、車両Cに先行する先行車LCを検出する先行車検出装置20や、地図情報30aに基づく経路誘導を行う運転支援装置30、道路の白線を検出する白線検出装置40等の装置群が搭載される場合がある。なお、先行車検出装置20としては、たとえばミリ波レーダーやカメラ等を使用した任意の手段を用いることができる。
視線検出装置10は、これら車載カメラ2や、舵角センサ3〜輝度センサ6等のセンサ群、先行車検出装置20〜白線検出装置40等の装置群のいずれとも通信可能に設けられている。
また、視線検出装置10は、制御部11と、記憶部12と、検出部13とを備える。記憶部12は、ハードディスクドライブや不揮発性メモリ、レジスタといった記憶デバイスである。
制御部11は、たとえばCPUであり、記憶部12に記憶されたプログラム(図示略)を読み出して実行することにより、たとえば図2に示す各機能ブロック11a〜11dとして機能する。つづいて、各機能ブロック11a〜11dについて説明する。
制御部11は、取得部11aと、判定部11bと、算出部11cと、キャリブレーション部11dとを備える。
取得部11aは、車両Cの走行状況を取得する。具体的には、取得部11aは、上述の車載カメラ2や、舵角センサ3〜輝度センサ6等のセンサ群、先行車検出装置20〜白線検出装置40等の装置群から、撮像情報やセンシング情報、各装置群の出力情報といった車両Cの走行状況に関する各種情報を取得する。また、取得部11aは、取得した各種情報を判定部11bへ通知する。
判定部11bは、取得部11aによって取得された車両Cの走行状況を解析して、解析結果に基づき、かかる走行状況が、運転者Dが特定位置を注視中であると推定される状況であるか否かを判定する。かかる判定内容の具体例については、図6A〜図7Dを用いて後述する。
また、判定部11bは、走行状況が、運転者Dが特定位置を注視中であると推定される状況であるならば、算出部11cにかかる状況下における検出部13の検出結果についての代表値を算出させて、キャリブレーション部11dにこの代表値を基準とするキャリブレーションを実行させる。
また、判定部11bは、走行状況が、運転者Dが特定位置を注視中でないと推定される状況であるならば、取得部11aからの走行状況を新たに受け付けて解析および判定する処理を繰り返し行う。
算出部11cは、赤外線カメラ13aおよび赤外線LED13bを有する検出部13の検出結果に基づいて運転者Dの視線方向および視線位置を随時算出する。視線位置は、視線方向と、上述の仮想平面Vとの交点に対応する。算出の間隔は、たとえば毎秒数十回程度である。
また、算出部11cは、判定部11bによって、走行状況が、運転者Dが特定位置を注視中であると推定される状況であると判定されたならば、かかる状況下における運転者Dの視線方向についての代表値を算出する。
ここで、検出部13および算出部11cの行う具体的な処理内容について、図3〜図5を用いて説明しておく。図3は、赤外線カメラ13aおよび赤外線LED13bの配置例を示す図である。図4A〜図4Dは、検出部13および算出部11cによる視線方向検出処理の説明図(その1)〜(その4)である。図5は、仮想平面V上のプロットデータの一例を示す図である。
図3に示すように、検出部13の赤外線カメラ13aおよび赤外線LED13bは、たとえば車両Cの運転席のステアリングコラムの上部に、運転者Dの顔を撮像領域に含むようにして設けられる。
このようにして設けられた赤外線カメラ13aおよび赤外線LED13bは、たとえば図3に示すような視線検出可能領域DRを有する。視線検出可能領域DRは、たとえば赤外線カメラ13aを中心とする±20〜30°程度の領域である。
なお、図3では視線検出可能領域DRを真円で図示しているが、その形状を限定するものではない。視線検出可能領域DRには、無論、本実施形態における特定位置となる無限遠点∞が含まれる。
そして、このようにして設けられた赤外線カメラ13aおよび赤外線LED13bにより、まず運転者Dの顔を含む赤外画像が算出部11cへ入力され、図4Aに示すように、算出部11cは、たとえば公知の画像解析手法により目領域ERを検出する。
つづいて、算出部11cは、図4Bに示すように、目輪郭EEを検出するとともに、図4Cに示すように、つづけて瞳孔101を検出する。
つづいて、算出部11cは、たとえば既に図1Cに示した手法等により、瞳孔101の中心を算出し、かかる瞳孔101の中心に基づいて運転者Dの視線方向を算出する。なお、これは運転者Dの両目について行われる。そして、算出部11cは、このようにして算出した視線方向に基づいて視線検出可能領域DRにおける運転者Dの視線位置(たとえば図4Dに示す点P)を算出する。
そして、算出部11cは、判定部11bによって、走行状況が、運転者Dが特定位置を注視中であると推定される状況であると判定されたならば、かかる状況下における運転者Dの視線位置Pを仮想平面V上のXY座標軸上にプロットすることとなる(たとえば図5参照)。
そして、算出部11cは、かかるXY座標軸上のプロットデータの分布の中心を求めることによって代表値を算出する。なお、代表値は、たとえば平均値であると上述したが、これに限られるものではなく、たとえば中央値や最頻値を用いたり、あるいはすべてのプロットデータからの距離に基づいて算出したりしてもよい。
図2の説明に戻り、つづけて算出部11cについて説明する。また、算出部11cは、算出した代表値をキャリブレーション部11dへ通知する。
キャリブレーション部11dは、算出部11cから通知された代表値に基づき、この代表値を基準とするキャリブレーションを実行する。キャリブレーション部11dは、かかるキャリブレーションを実行するたびに、記憶部12のキャリブレーション情報12aを更新する。
キャリブレーション情報12aは、運転者Dのキャリブレーションに関する情報であり、既に述べたように、たとえば運転者Dの視線検出可能領域DRにおける瞳孔101と角膜反射102との位置関係を示すマッピング情報を含む情報である。
次に、上述した判定部11bが実行する判定処理の具体的な内容について、図6A〜図7Dを用いて説明する。図6A〜図6Eは、判定部11bがキャリブレーション部11dにキャリブレーションを実行させる場合の説明図(その1)〜(その5)である。これに対し、図7A〜図7Dは、判定部11bがキャリブレーション部11dにキャリブレーションを実行させない場合の説明図(その1)〜(その4)である。
すなわち、図6A〜図6Eには、判定部11bにより、走行状況が、運転者Dが特定位置を注視中であると推定される状況であると判定される場合を示している。これに対し、図7A〜図7Dには、走行状況が、運転者Dが特定位置を注視中であると推定されない状況であると判定される場合を示している。
まず、判定部11bは基本的に、本実施形態における特定位置が「車両Cが勾配のない平坦な直線道路を直進中であると仮定した場合における運転者Dの正面方向の無限遠点∞」を示すことから、図6Aに示すように、車両Cがかかる直線道路を直進中であるか否かを判定する。
具体的には、図6Bに示すように、判定部11bは、取得部11aが舵角センサ3から取得した舵角に基づき、かかる舵角がほぼ0°(舵角≒0°)であるならば、車両Cが直線道路を直進中であると見なし、キャリブレーション部11dにキャリブレーションを実行させる。
また、たとえば図6Cに示すように、判定部11bは、取得部11aが運転支援装置30から取得した地図情報30aに基づき、かかる地図情報30aから走行中の道路の曲率を抽出する。そして、判定部11bは、かかる曲率がほぼ0%(曲率≒0%)であるならば、車両Cが直線道路を直進中であると見なし、キャリブレーション部11dにキャリブレーションを実行させる。
また、たとえば図6Dに示すように、判定部11bは、取得部11aが白線検出装置40から取得した検出結果に基づき、車両Cの前後方向と白線方向とがほぼ平行(車両前後方向//白線方向)であるならば、車両Cが直線道路を直進中であると見なし、キャリブレーション部11dにキャリブレーションを実行させる。
また、たとえば図6Eに示すように、判定部11bは、取得部11aが車速センサ4から取得した車速に基づき、かかる車速が予め規定された規定値以上(車速≧規定値)であるならば、車両Cが直線道路を直進中であると見なし、キャリブレーション部11dにキャリブレーションを実行させる。
なお、ここで規定値は、たとえば100km/h程度である。また、車速に限らず、たとえば加速度センサ5から取得した加速度に基づくこととしてもよい。
また、判定部11bは、取得部11aが先行車検出装置20から取得した検出結果に基づき、車両Cと先行車LCとの相対関係を示す評価値を算出したうえで、この評価値を評価することによって、キャリブレーション部11dによるキャリブレーションの実行の可否を判定することとしてもよい。
たとえば、図7Aに示すように、車両Cが直進中であるものの、かかる車両Cの前方に先行車LCが存在しているものとする。まず、車両Cが直進中であっても、先行車LCがいれば、たとえばその先行車LCが車両Cに近かったり、あるいは次第に近づいてきたりすれば、車両Cの運転者Dは、視線をばらつかせやすい。すなわち、運転者Dは、特定位置を注視しがたい状況が起こり得る。
かかる場合、上述のように車両Cと先行車LCとの相対関係を示す評価値を算出し、この評価値を評価することによって、キャリブレーション部11dによるキャリブレーションの実行の可否を判定することができる。
具体的に、評価値としては、たとえばTTC(time to collision)、いわゆる衝突余裕時間を用いることができる。具体的には、図7Aに示すように、たとえば車両Cの車速=50m/sであり、先行車LCの車速=20m/sであったものとする。また、その間の距離=50mであったものとする。すなわち、このまま直進すれば、車両Cは距離50mからさらに先行車LCへ近づいていく走行状況である。
かかる場合、評価値として用いる衝突余裕時間(TTC)は、相対距離(m)/相対速度(m/s)で求めることができるので、50/(50−20)≒1.7(s)となる。ここで、たとえば、運転者Dが、無限遠点∞を注視することがあり得ないTTCは2秒以下であると想定して規定値「2.0(s)」が予め規定されていれば、ここでは「1.7(s)<2.0(s)」であるので、判定部11bは、キャリブレーション部11dにキャリブレーションを実行させないこととなる。
なお、車両Cと先行車LCとの相対関係を示す評価値としては、単に相対距離のみを用いることとしてもよい。たとえば、図7Bに示すように、車両Cと先行車LCとの間の距離=50mであるものとする。
ここで、運転者Dが、無限遠点∞を注視することがあり得ない相対距離は60m以下であると想定して規定値「60(m)」が予め規定されていれば、ここでは「50(m)<60(m)」であるので、判定部11bは、キャリブレーション部11dにキャリブレーションを実行させないこととなる。
ところで、走行状況によっては、運転者Dの視界領域に運転者Dの視線をばらつかせる、言い換えれば視線を不安定化させる不安定化要素が含まれる場合がある。
図7Cにその一例を示す。図7Cに示すのは、道路の経路形状だけを見れば、運転者Dが無限遠点∞を注視しうる道路であるが、かかる道路は、右側に柱と空間が交互に存在するものであり、運転者Dの視界領域の右側の輝度を大きく変化させるものである。
この場合、運転者Dの視線は、視界領域の左側へ寄りがちとなるので、運転者Dが無限遠点∞を注視する状況とは言いがたい。したがって、このような場合、判定部11bは、図中に破線で囲まれた領域を、運転者Dの視線を不安定化させる不安定化領域(不安定化要素の一つ)として取り扱う。そして、判定部11bは、かかる不安定化領域が運転者Dの視界領域に含まれるならば、キャリブレーションに適さないとして、キャリブレーション部11dにキャリブレーションを実行させない。
なお、この不安定化領域が運転者Dの視界領域に含まれるか否かは、たとえば車載カメラ2による撮像画像と輝度センサ6による検出結果とに基づいて判定することが可能である。
不安定化領域が含まれるもう一例を図7Dに示す。図7Dに示すのは、道路の経路形状だけを見れば、運転者Dが無限遠点∞を注視しやすいほぼ直線の道路であるが、かかる道路は、上側に透光性のある格子状の屋根が存在するものであり、運転者Dの視界領域の上側の輝度を大きく変化させるものである。
この場合、運転者Dの視線は、視界領域の下側へ寄りがちとなるので、やはり運転者Dが無限遠点∞を注視する状況とは言いがたい。したがって、このような場合も、判定部11bは、図中に破線で囲まれた領域を不安定化領域として取り扱い、かかる不安定化領域が運転者Dの視界領域に含まれるならば、キャリブレーションに適さないとして、キャリブレーション部11dにキャリブレーションを実行させない。
ところで、これまでは、判定部11bが、不安定化要素が運転者Dの視界領域に含まれるならば、一律にキャリブレーション部11dにキャリブレーションを実行させない場合について説明してきたが、たとえば例外的にキャリブレーションを実行させることとしてもよい。
かかる場合について、図8Aおよび図8Bを用いて説明する。図8Aおよび図8Bは、判定部11bがキャリブレーション部11dに例外的にキャリブレーションを実行させる場合の説明図(その1)および(その2)である。
図8Aに示すのは、トンネル内の直線道路である。図8Aに示すように、トンネルの天井部には、トンネル照明TLが、トンネル沿いに所定の間隔で配置されていることが多い。したがって、トンネル内を車両Cが走行する場合、運転者Dはトンネル照明TLによる視界領域の上側の輝度変化を受けて、その視線を下げる傾向がある。
すなわち、トンネル天井部は上述の不安定化領域に対応し、上述のように、キャリブレーションに適さないとして、キャリブレーション部11dにキャリブレーションを実行させないとすることができる。
しかし、見方を変えれば、トンネルは一般に直線状であることが多く、運転者Dを左右に脇見させる脇見可能性も少ないため、キャリブレーションに適しているとも言える。そこで、例外的に、上下方向あるいは左右方向についてのみ、キャリブレーション部11dにキャリブレーションを実行させることとしてもよい。
たとえば図8Aに示すトンネルの場合、運転者Dの視線を下げさせる不安定化要素(トンネル照明TL)は運転者Dの視界領域の上側に存在するので、上下方向についてはキャリブレーションせずに、左右方向についてのみキャリブレーションを実行することとすればよい。
また、方向を限定してキャリブレーションを実行するのではなく、たとえば視線の分布が不安定化要素によってずれるのであれば、かかるずれ量を特定位置について推定し、この特定位置のずれ量に応じて上述の代表値をオフセットさせたキャリブレーションを実行することとしてもよい。
具体的には、図8Aに示すトンネルにおいて、運転者Dの視線が下がる傾向にあり、視線の分布が下側にずれるのであれば、そのずれ量を推定し、分布の中心である代表値をそのずれ量に応じて上側にオフセットさせたキャリブレーションを実行してもよい。
これにより、運転者Dの視界領域に不安定要素が含まれる場合であっても、なお走行状況にキャリブレーションに適した要素が含まれるならば、不安定要素によって生じるずれ量分を補いつつ、キャリブレーションを実行することができる。
また、図8Bに示すのは、図8Aに示したのとは対照的な走行状況の一例であり、屋外の空いている直線道路である。かかる場合、運転者Dは、その視線を上げる傾向がある。これは、運転者Dの視界領域の上側よりも下側の方が輝度等の変化が大きいためである。
したがって、図8Bに示す例の場合、運転者Dの視線を上げさせる不安定化要素は運転者Dの視界領域の下側に存在すると言えるので、上下方向についてはキャリブレーションせずに、左右方向についてのみキャリブレーションを実行することとすればよい。
また、運転者Dの視線が上がる傾向にあり、視線の分布が上側にずれるのであれば、そのずれ量を推定し、分布の中心である代表値をそのずれ量に応じて下側にオフセットさせたキャリブレーションを実行してもよい。
次に、実施形態に係る視線検出装置10が実行する処理手順について、図9Aおよび図9Bを用いて説明する。図9Aは、実施形態に係る視線検出装置10が実行する処理手順を示すフローチャートである。図9Bは、視線方向検出処理の処理手順を示すフローチャートである。なお、図9Aでは、上述したキャリブレーションを例外的に実行する場合については記載を省略している。
図9Aに示すように、視線検出装置10は、視線方向検出処理を行う(ステップS101)。かかる視線方向検出処理は、ステップS102以降の処理とは並列に繰り返し実行される。
ここで、図9Bに示すように、視線方向検出処理ではまず、算出部11cが、検出部13から赤外線カメラ13aおよび赤外線LED13bによる赤外画像を入力する(ステップS201)。そして、算出部11cが、赤外画像から目領域ERを検出する(ステップS202)。
つづいて、算出部11cは、目輪郭EEを検出し(ステップS203)、さらに瞳孔101を検出する(ステップS204)。そして、算出部11cは、瞳孔101の中心を算出する(ステップS205)。
そして、算出部11cは、瞳孔101の中心および角膜反射102の位置関係から視線方向を算出し(ステップS206)、視線方向検出1回分についての処理を終了する。
図9Aの説明に戻り、ステップS102について説明する。ステップS102では、取得部11aが、車両Cの走行状況を取得する。そして、判定部11bが、その走行状況を解析する(ステップS103)。
そのうえで、判定部11bは、解析結果から、運転者Dが特定位置を注視していると推定される状況であるか否かを判定する(ステップS104)。ここで、その判定条件を満たす場合(ステップS104,Yes)、算出部11cが、上記状況下での視線方向検出結果の代表値を算出する(ステップS105)。
そして、キャリブレーション部11dが、代表値を基準とするキャリブレーションを実行する(ステップS106)。一方、ステップS104の判定条件を満たさない場合(ステップS104,No)、キャリブレーション部11dは、キャリブレーションを実行しない(ステップS107)。
そして、視線検出装置10は、キャリブレーション1回分についての処理を終了する。したがって、図9Aに示すフローチャートの処理手順は、キャリブレーションの可否が問われるたびごとに、繰り返し実行される。
上述してきたように、実施形態に係る視線検出装置は、検出部と、取得部と、判定部と、算出部と、キャリブレーション部とを備える。検出部は、車両の運転者の視線方向を検出する。取得部は、車両の走行状況を取得する。判定部は、取得部によって取得された走行状況が、運転者が特定位置を注視中であると推定される状況であるか否かを判定する。
算出部は、判定部によってその状況であると判定される場合における検出部の検出結果についての代表値を算出する。キャリブレーション部は、算出部によって算出された代表値が基準となるように検出部による視線方向の検出についてのキャリブレーションを実行する。
したがって、実施形態に係る視線検出装置によれば、容易かつ高精度な視線検出を行うことができる。
なお、上述した実施形態では、運転者の瞳孔と角膜反射との位置関係に基づいて視線方向を検出する場合を例に挙げたが、これに限られるものではない。たとえば、可視光カメラによって運転者の目を撮像し、基準点を目頭にし、かかる目頭に対する虹彩の位置によって視線方向を検出することとしてもよい。
また、上述した実施形態では、車両が走行中についてのみキャリブレーションを実行する場合を例に挙げたが、これに限られるものではない。たとえば、運転者それぞれの1回目のキャリブレーションでは、比較例となる公知の手法と同様の手法によって、車両を停止させた状態でキャリブレーションを行い、それにより得たキャリブレーション情報を初期設定情報として記憶部が予め記憶していてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
2 車載カメラ
3 舵角センサ
4 車速センサ
5 加速度センサ
6 輝度センサ
10 視線検出装置
11 制御部
11a 取得部
11b 判定部
11c 算出部
11d キャリブレーション部
12 記憶部
12a キャリブレーション情報
13 検出部
13a 赤外線カメラ
13b 赤外線LED
20 先行車検出装置
30 運転支援装置
30a 地図情報
40 白線検出装置
101 瞳孔
102 角膜反射
103 目頭
104 目尻
C 車両
D 運転者
DR 視線検出可能領域
EE 目輪郭
ER 目領域
LC 先行車
P 視線位置

Claims (13)

  1. 車両の運転者の視線方向を検出する検出部と、
    前記車両の走行状況を取得する取得部と、
    前記取得部によって取得された前記走行状況が、前記運転者が特定位置を注視中であると推定される状況であるか否かを判定する判定部と、
    前記判定部によって前記状況であると判定される場合における前記検出部の検出結果についての代表値を算出する算出部と、
    前記算出部によって算出された前記代表値が基準となるように前記検出部による視線方向の検出についてのキャリブレーションを実行するキャリブレーション部と
    を備えることを特徴とする視線検出装置。
  2. 前記判定部は、
    前記車両が平坦な直線道路を直進中であると仮定した場合における前記運転者の正面方向の無限遠点または道路の消失点を前記特定位置とすること
    を特徴とする請求項1に記載の視線検出装置。
  3. 前記取得部は、
    前記車両に搭載された先行車検出装置の検出結果を取得し、
    前記判定部は、
    前記先行車検出装置の検出結果に基づいて前記車両と先行車との相対関係を示す評価値を算出したうえで該評価値を評価することによって、前記キャリブレーション部による前記キャリブレーションの実行の可否を判定すること
    を特徴とする請求項2に記載の視線検出装置。
  4. 前記キャリブレーション部は、
    前記車両が直進中である場合に、前記キャリブレーションを実行すること
    を特徴とする請求項2に記載の視線検出装置。
  5. 前記取得部は、
    前記車両の舵角を取得し、
    前記判定部は、
    前記舵角に基づいて前記車両が直進中であるか否かを判定し、
    前記キャリブレーション部は、
    前記判定部によって前記車両が直進中であると判定された場合に、前記キャリブレーションを実行すること
    を特徴とする請求項4に記載の視線検出装置。
  6. 前記取得部は、
    地図情報に基づく経路誘導を行う運転支援装置が前記車両へ搭載されている場合に、前記地図情報を取得し、
    前記判定部は、
    前記地図情報から前記車両が走行中である道路の曲率を含む情報を抽出したうえで該曲率を含む情報に基づいて前記車両が直進中であるか否かを判定し、
    前記キャリブレーション部は、
    前記判定部によって前記車両が直進中であると判定された場合に、前記キャリブレーションを実行すること
    を特徴とする請求項4に記載の視線検出装置。
  7. 前記取得部は、
    道路の白線を検出する白線検出装置が前記車両へ搭載されている場合に、前記白線検出装置の検出結果を取得し、
    前記判定部は、
    前記白線検出装置の検出結果に基づいて前記車両が直進中であるか否かを判定し、
    前記キャリブレーション部は、
    前記判定部によって前記車両が直進中であると判定された場合に、前記キャリブレーションを実行すること
    を特徴とする請求項4に記載の視線検出装置。
  8. 前記取得部は、
    前記車両の速度および加速度の少なくともいずれかを取得し、
    前記判定部は、
    前記速度および加速度の少なくともいずれかが、該速度および加速度のそれぞれについて予め規定された規定値を超える場合に、前記車両が直進中であると判定し、
    前記キャリブレーション部は、
    前記判定部によって前記車両が直進中であると判定された場合に、前記キャリブレーションを実行すること
    を特徴とする請求項2に記載の視線検出装置。
  9. 前記判定部は、
    前記取得部によって取得された前記走行状況に基づき、前記運転者の視界領域に該運転者の視線方向を不安定化させる不安定化要素が含まれているか否かを判定すること
    を特徴とする請求項1〜8のいずれか一つに記載の視線検出装置。
  10. 前記キャリブレーション部は、
    前記判定部によって前記視界領域に前記不安定化要素が含まれていると判定された場合に、前記キャリブレーションを実行しないこと
    を特徴とする請求項9に記載の視線検出装置。
  11. 前記キャリブレーション部は、
    前記判定部によって前記視界領域に前記不安定化要素が含まれていると判定された場合に、前記視界領域で前記不安定化要素が含まれていない方向についての前記キャリブレーションを実行すること
    を特徴とする請求項9に記載の視線検出装置。
  12. 前記キャリブレーション部は、
    前記判定部によって前記視界領域に前記不安定化要素が含まれていると判定された場合に、前記不安定化要素によって生じると推定される前記特定位置のずれ量に応じて前記代表値をオフセットさせた前記キャリブレーションを実行すること
    を特徴とする請求項9に記載の視線検出装置。
  13. 車両の運転者の視線方向を検出する検出工程と、
    前記車両の走行状況を取得する取得工程と、
    前記取得工程によって取得された前記走行状況が、前記運転者が特定位置を注視中であると推定される状況であるか否かを判定する判定工程と、
    前記判定工程によって前記状況であると判定される場合における前記検出工程の検出結果についての代表値を算出する算出工程と、
    前記算出工程によって算出された前記代表値が基準となるように前記検出工程による視線方向の検出についてのキャリブレーションを実行するキャリブレーション工程と
    を含むことを特徴とする視線検出方法。
JP2015115089A 2015-06-05 2015-06-05 視線検出装置および視線検出方法 Pending JP2017004117A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015115089A JP2017004117A (ja) 2015-06-05 2015-06-05 視線検出装置および視線検出方法
US15/095,504 US10026000B2 (en) 2015-06-05 2016-04-11 Visual line detection device and visual line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015115089A JP2017004117A (ja) 2015-06-05 2015-06-05 視線検出装置および視線検出方法

Publications (1)

Publication Number Publication Date
JP2017004117A true JP2017004117A (ja) 2017-01-05

Family

ID=57451788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015115089A Pending JP2017004117A (ja) 2015-06-05 2015-06-05 視線検出装置および視線検出方法

Country Status (2)

Country Link
US (1) US10026000B2 (ja)
JP (1) JP2017004117A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179281A1 (ja) * 2017-03-30 2018-10-04 三菱電機株式会社 物体検出装置及び車両
CN109774722A (zh) * 2017-11-15 2019-05-21 欧姆龙株式会社 信息处理装置、方法和程序、驾驶员监控系统及保存媒体
CN109774723A (zh) * 2017-11-15 2019-05-21 欧姆龙株式会社 信息处理装置、方法和程序、驾驶员监控系统及保存媒体
JP2020181281A (ja) * 2019-04-24 2020-11-05 株式会社デンソーアイティーラボラトリ 視線方向推定装置、視線方向推定装置の較正方法、およびプログラム
WO2020250962A1 (ja) * 2019-06-11 2020-12-17 日本電気株式会社 画像処理装置、画像処理方法、記録媒体
CN113815623A (zh) * 2020-06-11 2021-12-21 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
WO2022014068A1 (ja) * 2020-07-15 2022-01-20 株式会社Jvcケンウッド 映像処理装置および映像処理方法
US11983319B2 (en) 2022-01-25 2024-05-14 Canon Kabushiki Kaisha Optical apparatus, image pickup apparatus, control method of optical apparatus, and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
DE102019202299B4 (de) * 2019-02-20 2020-12-31 Zf Friedrichshafen Ag Verfahren zur Online-Kalibrierung und Kalibriereinrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0735543A (ja) 1993-07-20 1995-02-07 Nissan Motor Co Ltd 車両用注視点計測装置
JP2009015533A (ja) 2007-07-03 2009-01-22 Toyota Motor Corp 視線方向検出装置
JP6036065B2 (ja) * 2012-09-14 2016-11-30 富士通株式会社 注視位置検出装置及び注視位置検出方法
WO2015064080A1 (ja) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
DE112014006382B4 (de) * 2014-02-19 2019-01-17 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesteuerverfahren der Anzeigesteuervorrichtung, Augen-Blickrichtungs-Detektionssystem und Kalibrations-Steuerverfahren von Augen-Blickrichtungs-Detektionssystem
US9547798B2 (en) * 2014-05-20 2017-01-17 State Farm Mutual Automobile Insurance Company Gaze tracking for a vehicle operator
JP6237504B2 (ja) * 2014-07-08 2017-11-29 株式会社デンソー 視線入力装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179281A1 (ja) * 2017-03-30 2018-10-04 三菱電機株式会社 物体検出装置及び車両
JPWO2018179281A1 (ja) * 2017-03-30 2019-11-21 三菱電機株式会社 物体検出装置及び車両
CN109774722A (zh) * 2017-11-15 2019-05-21 欧姆龙株式会社 信息处理装置、方法和程序、驾驶员监控系统及保存媒体
CN109774723A (zh) * 2017-11-15 2019-05-21 欧姆龙株式会社 信息处理装置、方法和程序、驾驶员监控系统及保存媒体
JP2019091255A (ja) * 2017-11-15 2019-06-13 オムロン株式会社 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP2020181281A (ja) * 2019-04-24 2020-11-05 株式会社デンソーアイティーラボラトリ 視線方向推定装置、視線方向推定装置の較正方法、およびプログラム
WO2020250962A1 (ja) * 2019-06-11 2020-12-17 日本電気株式会社 画像処理装置、画像処理方法、記録媒体
JPWO2020250962A1 (ja) * 2019-06-11 2021-12-02 日本電気株式会社 画像処理装置、画像処理方法、プログラム
JP7259957B2 (ja) 2019-06-11 2023-04-18 日本電気株式会社 判定システム、処理方法、プログラム
CN113815623A (zh) * 2020-06-11 2021-12-21 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
CN113815623B (zh) * 2020-06-11 2023-08-08 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
WO2022014068A1 (ja) * 2020-07-15 2022-01-20 株式会社Jvcケンウッド 映像処理装置および映像処理方法
US11983319B2 (en) 2022-01-25 2024-05-14 Canon Kabushiki Kaisha Optical apparatus, image pickup apparatus, control method of optical apparatus, and storage medium

Also Published As

Publication number Publication date
US20160358028A1 (en) 2016-12-08
US10026000B2 (en) 2018-07-17

Similar Documents

Publication Publication Date Title
JP2017004117A (ja) 視線検出装置および視線検出方法
JP6344417B2 (ja) 車両用表示装置
CN107848415B (zh) 显示控制装置、显示装置及显示控制方法
US20170039438A1 (en) Vehicle display system
JP6277933B2 (ja) 表示制御装置、表示システム
US20210341737A1 (en) Display control device, display control method, and non-transitory tangible computer-readable medium therefor
US20180218603A1 (en) Vehicle information display system and method for displaying vehicle information
US20140277825A1 (en) Vehicle signal lever proximity sensing for lane change intention detection with following recommendation to driver
CN111936345A (zh) 视线引导装置及视线引导方法
US20220238083A1 (en) Information processing device, and display method
KR102164635B1 (ko) 차량의 자율 주행을 위한 전자 장치 및 방법
JP2017187955A (ja) 視線誘導装置
JP2024091729A (ja) 表示制御装置、表示装置、表示制御方法及びプログラム
US11904691B2 (en) Display apparatus for switching between different displays of different images identifying a same element
US10474912B2 (en) Vehicle display controller, vehicle display system, vehicle display control method, and non-transitory storage medium
JP5481882B2 (ja) 運転支援情報提供装置
CN110891841B (zh) 用于查明目标处于车辆驾驶员视野中的概率的方法和设备
JP2019095892A (ja) 車両用運転支援装置、および車両用運転支援プログラム
JP6322991B2 (ja) 視線検出装置、および視線検出方法
JP7236674B2 (ja) 表示装置
JP2016197312A (ja) 運転支援表示装置
JP6583113B2 (ja) 情報処理装置及び表示システム
JP6972789B2 (ja) ヘッドアップディスプレイ装置
JP5326328B2 (ja) 情報表示装置
JP2016097765A (ja) 車載用表示装置