JP6847323B2 - 視線検出装置および視線検出方法 - Google Patents

視線検出装置および視線検出方法 Download PDF

Info

Publication number
JP6847323B2
JP6847323B2 JP2020551071A JP2020551071A JP6847323B2 JP 6847323 B2 JP6847323 B2 JP 6847323B2 JP 2020551071 A JP2020551071 A JP 2020551071A JP 2020551071 A JP2020551071 A JP 2020551071A JP 6847323 B2 JP6847323 B2 JP 6847323B2
Authority
JP
Japan
Prior art keywords
line
sight
sight detection
reliability
detection mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020551071A
Other languages
English (en)
Other versions
JPWO2020075215A1 (ja
Inventor
篤 松本
篤 松本
浩隆 坂本
浩隆 坂本
周作 ▲高▼本
周作 ▲高▼本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6847323B2 publication Critical patent/JP6847323B2/ja
Publication of JPWO2020075215A1 publication Critical patent/JPWO2020075215A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、視線検出装置および視線検出方法に関する。
特許文献1には、運転者状態検出装置が開示されている。運転者状態検出装置は、運転手の目の基準位置を検出し、その基準位置に基づいて運転者の視認領域を判定する。運転者状態検出装置は、運転者の体格など個人的特徴によらず、精度の高い検出を実現している。
特許文献2には、視線検出装置が開示されている。従来、顔が横を向いて片方の目が隠れたり、髪の毛に覆われて目が隠れたりすることにより視線検出精度は低下していた。そのような課題を解決するため、特許文献2に記載の視線検出装置は、目の表出の程度または顔の向きで表される信頼度に応じて、視線推定に使用する目(左目のみ、両目、右目のみ)を選択する手段を有する。視線検出装置は、その選択された目の視線を推定することにより、目の隠れが発生した場合においても、高精度な視線検出を可能としている。
特開2005−66023号公報 特許第5618686号公報
車両のセンターコンソール付近に取り付けられたカメラによって運転手の視線方向を推定する場合、カメラから遠い方の目(例えば、右ハンドル車両の運転手が視線検出の対象者である場合、その運転手の右目)の画像は小さく撮像される。また、顔の向きによってはカメラに対して目が隠れることがある。このような場合、視線の検出精度は低下する。よって、視線方向は、カメラに近い方の目によって検出されるのが妥当である。また、カメラから近い方の目の情報に基づき視線を算出することによって、視線検出の際の計算量も抑えられる。
運転中に運転手の顔向きが変動し、カメラに近い方の目が切り替わる場合、視線推定の対象の目が切り替わる。例えば、右ハンドル車両の運転手が正面を向いて運転している最中に顔を助手席側のサイドミラーに向けた場合、視線推定の対象の目が左目から右目に切り替わる。視線推定の対象の目が切り替わったとしても、その切替え前後において、視線推定方向は連続的に変化することが期待される。しかし、運転手の左目および右目の各々の特徴が異なる場合、視線が連続的に変化しないことがある。不連続な変化は、視線推定に関して誤判定を引き起こす可能性がある。
本発明は、以上のような課題を解決するためになされたものであり、視線検出の対象の目の切り替えが発生した際に、切り替え前後の視線の推定結果に関する信頼度を出力する視線検出装置の提供を目的とする。
本発明に係る視線検出装置は、切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択する推定対象選択部と、一の視線検出モードにおける視線検出対象者の視線を推定する視線推定部と、推定対象選択部の選択によって視線検出モードが切り替わる前の視線である第1視線と、視線検出モードが切り替わった後の視線である第2視線と、に基づき、視線検出モードが切り替わった後の第2視線の信頼度を決定する信頼度決定部と、第2視線の情報と第2視線の信頼度とを出力する視線方向出力部と、を含む。
本発明によれば、視線検出の対象の目の切り替えが発生した際に、切り替え前後の視線の推定結果に関する信頼度を出力する視線検出装置の提供が可能である。
本発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白になる。
実施の形態1にける視線検出装置の構成を示すブロック図である。 実施の形態1にける視線検出装置が有する処理回路の一例を示す図である。 実施の形態1にける視線検出装置が有する処理回路の別の一例を示す図である。 実施の形態1にける視線検出装置の動作および視線検出方法を示すフローチャートである。 実施の形態2における視線検出装置およびそれに関連して動作する装置の構成を示すブロック図である。 実施の形態2における車両の内部を示す図である。 実施の形態2における車両の内部を示す図である。 実施の形態2における視線検出装置の動作および視線検出方法の一部を示すフローチャートである。 実施の形態2における視線検出装置の動作および視線検出方法の一部を示すフローチャートである。 実施の形態2における視線検出装置の動作および視線検出方法の一部を示すフローチャートである。 実施の形態2における視線検出装置の動作および視線検出方法の一部を示すフローチャートである。 実施の形態2における視線検出対象者とカメラとの位置関係の一例を示す図である。 実施の形態2における視線推定結果を示す図である。 実施の形態2における視線推定結果を示す図である。 実施の形態2における視線推定結果を示す図である。 実施の形態2における視線推定結果を示す図である。 実施の形態3における視線検出装置およびそれに関連して動作する装置の構成を示すブロック図である。
<実施の形態1>
(視線検出装置の構成)
図1は、実施の形態1における視線検出装置100の構成を示すブロック図である。
視線検出装置100は、推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40を有する。
推定対象選択部10は、切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択する。視線検出対象者とは、例えば、車両の搭乗者である。車両の搭乗者とは、例えば、運転手である。ただし、視線検出対象者は、それらに限定されるものではない。視線推定対象の目とは、右目、左目または両目である。
視線推定部20は、推定対象選択部により選択された視線検出モードにおける視線検出対象者の視線を推定する。例えば、視線検出モードが右目である場合、視線推定部20は視線検出対象者の右目の視線を推定する。視線検出モードが左目である場合、視線推定部20は視線検出対象者の左目の視線を推定する。視線検出モードが両目である場合、視線推定部20は視線検出対象者の両目の視線を推定する。
信頼度決定部30は、推定対象選択部10の選択によって視線検出モードが切り替わる前の視線である第1視線と、視線検出モードが切り替わった後の視線である第2視線と、に基づき、視線検出モードが切り替わった後の第2視線の信頼度を決定する。例えば、視線検出モードが右目から左目、または、左目から右目に切り替わった場合に、信頼度決定部30は、第2視線の信頼度を決定する。または、例えば、視線検出モードが両目から片目、または、片目から両目に切り替わった場合に、信頼度決定部30は、第2視線の信頼度を決定する。
視線方向出力部40は、視線推定部20にて推定された第2視線の情報と信頼度決定部30にて決定された第2視線の信頼度を出力する。
図2は視線検出装置100が有する処理回路90の一例を示す図である。推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40の各機能は、処理回路90により実現される。すなわち、処理回路90は、推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40を有する。
処理回路90が専用のハードウェアである場合、処理回路90は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせた回路等である。推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40の各機能は、複数の処理回路により個別に実現されてもよいし、1つの処理回路によりまとめて実現されてもよい。
図3は視線検出装置100が有する処理回路の別の一例を示す図である。処理回路は、プロセッサ91とメモリ92とを有する。プロセッサ91がメモリ92に格納されるプログラムを実行することにより、推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40の各機能が実現される。例えば、プログラムとして記述されたソフトウェアまたはファームウェアがプロセッサ91により実行されることにより各機能が実現される。すなわち、視線検出装置100は、プログラムを格納するメモリ92と、そのプログラムを実行するプロセッサ91とを有する。
プログラムには、視線検出装置100が、切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択し、一の視線検出モードにおける視線検出対象者の視線を推定し、視線検出モードが切り替わる前の視線である第1視線と、視線検出モードが切り替わった後の視線である第2視線と、に基づき、視線検出モードが切り替わった後の第2視線の信頼度を決定し、第2視線の情報と第2視線の信頼度とを出力する機能が記述されている。また、プログラムは、推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40の手順または方法をコンピュータに実行させるものである。
プロセッサ91は、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリである。または、メモリ92は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、今後使用されるあらゆる記憶媒体であってもよい。
上述した推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40の各機能は、一部が専用のハードウェアによって実現され、他の一部がソフトウェアまたはファームウェアにより実現されてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現する。
(視線検出装置の動作および視線検出方法)
図4は、実施の形態1にける視線検出装置100の動作および視線検出方法を示すフローチャートである。
ステップS1にて、推定対象選択部10は、視線検出対象者の視線推定対象の目を選択する。つまり、一の視線検出モードが選択される。
ステップS2にて、視線推定部20は、視線検出対象者の視線を推定する。
ステップS3にて、信頼度決定部30は、視線検出モードが切り替わったか否かを判定する。信頼度決定部30は、視線検出モードが切り替わったと判定した場合、ステップS4が実行される。信頼度決定部30は、視線検出モードが切り替わっていないと判定した場合、ステップS1が再び実行される。
ステップS4にて、信頼度決定部30は、第1視線と第2視線とに基づき、第2視線の信頼度を決定する。
ステップS5にて、視線方向出力部40は、第2視線の情報と第2視線の信頼度とを出力する。
(効果)
以上をまとめると、実施の形態1における視線検出装置100は、切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択する推定対象選択部10と、一の視線検出モードにおける視線検出対象者の視線を推定する視線推定部20と、推定対象選択部10の選択によって視線検出モードが切り替わる前の視線である第1視線と、視線検出モードが切り替わった後の視線である第2視線と、に基づき、視線検出モードが切り替わった後の第2視線の信頼度を決定する信頼度決定部30と、第2視線の情報と第2視線の信頼度とを出力する視線方向出力部40と、を含む。
以上の構成により、視線検出装置100は、視線検出の対象の目の切り替えが発生した際に、切り替え前後の視線の推定結果に関する信頼度を出力することが可能である。左右の目のそれぞれの瞳孔位置は、個人の特徴(例えば斜視など)により異なる。視線検出モードが切り替わった場合、切り替え前後の各視線の連続性が保たれない場合がある。例えば、運転手の脇見を判定するシステムが、そのような不連続な視線の検出結果を使用した場合、脇見の判定を誤る可能性がある。実施の形態1における視線検出装置100は、視線検出モードが切り替わった場合に視線の信頼度を出力することで、精度の高い視線検出を可能とする。
以上をまとめると、実施の形態1における視線検出方法は、切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択し、一の視線検出モードにおける視線検出対象者の視線を推定し、視線検出モードが切り替わる前の視線である第1視線と、視線検出モードが切り替わった後の視線である第2視線と、に基づき、視線検出モードが切り替わった後の第2視線の信頼度を決定し、第2視線の情報と第2視線の信頼度とを出力する、視線検出方法。
以上の構成により、視線検出方法は、視線検出の対象の目の切り替えが発生した際に、切り替え前後の視線の推定結果に関する信頼度を出力することが可能である。左右の目のそれぞれの瞳孔位置は、個人の特徴(例えば斜視など)により異なる。視線検出モードが切り替わった場合、切り替え前後の各視線の連続性が保たれない場合がある。例えば、運転手の脇見を判定するシステムが、そのような不連続な視線の検出結果を使用した場合、脇見の判定を誤る可能性がある。実施の形態1における視線検出方法は、視線検出モードが切り替わった場合に視線の信頼度を出力することで、精度の高い視線検出を可能とする。
<実施の形態2>
実施の形態2における視線検出装置および視線検出方法を説明する。なお、実施の形態1と同様の構成および動作については説明を省略する。
(視線検出装置の構成)
図5は、実施の形態2における視線検出装置101およびそれに関連して動作する装置の構成を示すブロック図である。図5には、視線検出装置101に関連して動作する装置として、画像取得装置110および視線情報利用装置120が示されている。視線検出装置101は、画像取得装置110にて取得された車両の運転手の画像に基づき、運転手の視線を検出する。
画像取得装置110は、視線検出対象者の画像を撮影する。画像取得装置110は、例えば、車両に搭載されたカメラである。図6および図7は、車両1の内部を示す図である。カメラ2は、車内の前方のセンターコンソールまたはその付近に設置されている。ここでは、車両1は右ハンドル車であり、視線検出対象者である運転手3が前方を向いた場合、カメラ2は左前方に位置する。カメラ2は、運転手3の顔の周辺の画像を取得できるように配置されている。カメラ2は、カメラ2の光軸2Aが運転席の方向を向くように設置されている。ただし、カメラ2は、その光軸2AがZ軸方向(車両1の前方と後方とを結ぶ方向)を向いて設けられていてもよい。カメラ2の光軸2AがZ軸方向を向いていることにより、カメラ2は、運転手3および助手席の搭乗者の両方を撮影することができる。また、カメラ2は、運転手3の顔の周辺の画像を連続的に画像を撮影している、つまり映像を撮影している。以下、画像とは、映像を構成するフレームごとの画像のことである。
顔特徴検出部50は、視線検出対象者の画像を画像取得装置110から取得する。顔特徴検出部50は、その画像に基づき、視線検出対象者の顔の特徴を検出する。顔の特徴とは、例えば、顔を構成する器官などの所定の部位(所定の顔のパーツの位置)のことである。顔の特徴とは、例えば、目の位置である。
瞳孔検出部60は、顔の特徴つまり目の位置に基づき、瞳孔位置を検出する。瞳孔位置とは、顔の画像において、目尻および目頭に対する瞳孔の中心位置のことである。
瞳孔基準位置決定部70は、視線検出対象者の正面視認時における瞳孔位置である瞳孔基準位置を決定する。運転手3は運転中におおよそ正面方向つまり車両1の前方を向いているという仮定に基づき、瞳孔基準位置決定部70は、複数の画像(複数のフレーム)から、瞳孔位置の度数分布を求める。その度数分布に基づき、瞳孔基準位置決定部70は、運転手3の正面視認時における瞳孔基準位置を決定する。瞳孔基準位置決定部70は、運転手3が正面方向を視認している画像に基づき、瞳孔位置の度数分布を作成することが好ましい。そのため、瞳孔基準位置決定部70は、車両1の走行状態に応じて、検出された瞳孔位置を度数分布の作成のためのデータとして採用するか否かを判定してもよい。車両1の走行状態とは、車両1の速度または操舵角などである。例えば、瞳孔基準位置決定部70は、車両1の速度が予め定められた速度以下の場合に検出された瞳孔位置を度数分布の作成のためのデータとして採用しない。または例えば、瞳孔基準位置決定部70は、ハンドルが切られている状態で検出された瞳孔位置を度数分布の作成のためのデータとして採用しない。
顔向き推定部80は、顔の特徴に基づき、視線検出対象者の顔の方向を推定する。
推定対象選択部10は、視線検出対象者の顔の方向に基づき、視線検出モードを選択する。つまり、推定対象選択部10は、運転手3の右目、左目または両目を視線検出モードとして選択する。
視線推定部20は、推定対象選択部10にて選択された視線検出モードにおける瞳孔位置と瞳孔基準位置との差に基づき、視線検出対象者の視線を推定する。例えば、視線検出モードが片目(右目もしくは左目)である場合、視線推定部20は片目の瞳孔位置と瞳孔基準位置との差に基づき、視線を推定する。または例えば、視線検出モードが両目である場合、視線推定部20は右目および左目のそれぞれの瞳孔位置と瞳孔基準位置との差に基づき、右目および左目のそれぞれの視線を推定する。右目の視線と左目の視線とが交わる位置が視線検出対象者によって注視されている位置である。
信頼度決定部30は、推定対象選択部10の選択によって視線検出モードが切り替わる前の視線である第1視線と、視線検出モードが切り替わった後の視線である第2視線と、に基づき、視線検出モードが切り替わった後の第2視線の信頼度を決定する。例えば、視線検出モードが右目から左目、もしくは、左目から右目に切り替わった場合に、信頼度決定部30は、第2視線の信頼度を決定する。または、例えば、視線検出モードが片目から両目、もしくは、両目から片目に切り替わった場合に、信頼度決定部30は、第2視線の信頼度を決定する。
信頼度決定部30は、第2視線の信頼度を以下のように決定してもよい。例えば、信頼度決定部30は、第1視線と第2視線との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定する。つまり、信頼度決定部30は、第1視線と第2視線との連続性が予め定められた基準を満たさない場合に、第2視線の信頼度を決定する。
信頼度決定部30は、他の一例として、視線検出モードが切り替わる前の予め定められた第1時間内における第1視線と、視線検出モードが切り替わった後の予め定められた第2時間内における第2視線との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定してもよい。または、例えば、信頼度決定部30は、視線検出モードが切り替わる前の予め定められた時間内における第1視線の変化に基づいて予測される視線の予測範囲内に第2視線が含まれてない場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定してもよい。
視線方向出力部40は、視線推定部20にて推定された第2視線の情報と信頼度決定部30にて決定された第2視線の信頼度を出力する。
視線情報利用装置120は、視線検出装置101にて推定された第2視線の情報と信頼度とを利用する。視線情報利用装置120は、例えば、運転者の脇見運転を防止するための警告装置である。
視線検出装置101、画像取得装置110および視線情報利用装置120のいずれかは、車両に搭載されるドライバーモニタリングシステムの一部を構成していてもよい。
視線検出装置101は、実施の形態1と同様の処理回路を有する。処理回路は、顔特徴検出部50、顔向き推定部80、瞳孔検出部60、瞳孔基準位置決定部70、推定対象選択部10、視線推定部20、信頼度決定部30および視線方向出力部40を有する。つまり、実施の形態2に記載の各部の機能は、処理回路により実現される。
(視線検出装置の動作および視線検出方法)
図8は、実施の形態2における視線検出装置101の動作および視線検出方法の一部を示すフローチャートである。より詳細には、図8は、視線検出対象者の顔の方向を推定する方法を示すフローチャートである。
ステップS11にて、画像取得装置110は、視線検出対象者の画像を取得する。ここでは、画像取得装置110は、運転手3の顔周辺の画像を撮影する。
ステップS12にて、顔特徴検出部50は、顔周辺の画像に基づき、顔の特徴を検出する。ここでは、顔特徴検出部50は、運転手3の顔周辺の画像に基づき、顔および顔のパーツ情報を取得する。
ステップS13にて、顔特徴検出部50は、特徴量を検出できたか否かを判定する。顔特徴検出部50が特徴量を検出できたと判定した場合、ステップS14が実行される。顔特徴検出部50が特徴量を検出できていないと判定した場合、ステップS11が再び実行される。ここでは、顔特徴検出部50は、運転手3の顔および顔のパーツ情報を取得できたか否かを判定する。
ステップS14にて、顔向き推定部80は、顔の方向を推定する。ここでは、顔向き推定部80は、運転手3の顔および顔のパーツ情報に基づき、運転手3の顔向きを推定する。
図9は、実施の形態2における視線検出装置101の動作および視線検出方法の一部を示すフローチャートである。より詳細には、図9は、瞳孔基準位置の決定方法を示すフローチャートである。
ステップS11からステップS13は、図8における各ステップと同様であるためそれらの説明は省略する。ただし、ステップS13にて、顔特徴検出部50が特徴量を検出できたと判定した場合、ステップS21が実行される。
ステップS21にて、瞳孔検出部60は、顔および顔のパーツ情報に基づき、瞳孔位置を検出し、瞳孔基準位置決定部70は、度数分布を作成する。
ステップS22にて、瞳孔基準位置決定部70は、瞳孔基準位置を決定するのに十分な度数分布が収集できたか否かを判定する。十分な度数分布が収集できたと判定された場合、ステップS23が実行される。十分な度数分布が収集できていないと判定された場合、ステップS11が再び実行される。この判定条件は、度数分布のプロット数や、度数分布の実施時間などで決定される。
ステップS23にて、瞳孔基準位置決定部70は、瞳孔基準位置を決定する。この際、瞳孔基準位置決定部70は、瞳孔位置の度数分布に基づき、瞳孔の存在頻度が最も高い位置を算出し、その位置を運転手3の瞳孔基準位置に決定する。正面視認時の瞳孔位置は人ごとに異なるものの、この瞳孔基準位置の決定方法により、視線推定装置は個人の特徴に応じた瞳孔基準位置を決定することができる。
図10は、実施の形態2における視線検出装置101の動作および視線検出方法の一部を示すフローチャートである。より詳細には、図10は、視線検出モードの選択方法を示すフローチャートである。
ステップS31にて、推定対象選択部10は、カメラ2に対する顔の方向を算出する。
ステップS32にて、推定対象選択部10は、カメラ2に近い方の目を視線検出対象の目として選択する。
図11は、実施の形態2における視線検出装置101の動作および視線検出方法の一部を示すフローチャートである。より詳細には、図11は、視線の信頼度の決定方法を示すフローチャートである。
ステップS11からステップS13は、図8における各ステップと同様であるためそれらの説明は省略する。ただし、ステップS13にて、顔特徴検出部50が特徴量を検出できたと判定した場合、ステップS41が実行される。
ステップS41にて、視線推定部20は、現在の視線検出モードにおける瞳孔位置を検出する。例えば、視線検出モードが左目である場合、視線推定部20は、左目の瞳孔位置を検出する。
ステップS42にて、視線推定部20は、視線を推定する。例えば、視線推定部20は、ステップS23で決定された左目の瞳孔基準位置と、ステップS41にて検出された左目の瞳孔位置との関係から視線を推定する。
ステップS43にて、信頼度決定部30は、視線検出モードが切り替わったか否かを判定する。つまり、信頼度決定部30は、現在の視線検出モードと前回検出時の視線検出モードとが異なるか否かを判定する。この前回検出時の視線検出モードおよび前回検出時の視線検出モードにおいて推定された視線は、例えば、視線検出装置101の記憶部(図示せず)に格納されている。信頼度決定部30は、その記憶部から前回検出時の視線検出モードを読み込み、上記の判定を行う。視線検出モードが切り替わったと判定された場合、ステップS44が実行される。視線検出モードが切り替わっていないと判定された場合、ステップS11が再び実行される。
ステップS44にて、信頼度決定部30は、視線検出モードが切り替わる前の第1視線と視線検出モードが切り替わった後の第2視線とが連続しているか否かを判定する。第1視線と第2視線とが連続していないと判定された場合、ステップS45が実行される。第1視線と第2視線とが連続していると判定された場合、ステップS46が実行される。
ステップS45にて、信頼度決定部30は、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定する。つまり、信頼度決定部30は、第2視線の信頼度を第1視線の信頼度よりも下げる。
ステップS46にて、視線方向出力部40は、第2視線の情報および第2視線の信頼度を出力する。また、第2視線の情報は、ステップS14にて推定された顔の方向を含んでいてもよい。
(信頼度決定方法)
図12は、実施の形態2における視線検出対象者である運転手3とカメラ2との位置関係の一例を示す図である。図12における0°方向が、正面方向(車両1の前方)である。車両1が右ハンドル車の場合、90°方向が助手席の位置する方向である。カメラ2は、上述したように、車両1のセンターコンソール付近に設置されている。図12においては、視線検出モードとして左目が選択され、その左目の視線が推定されている。
図13から図16は、実施の形態2における視線推定結果を示す図である。時間の経過とともに、運転手3の視線が0°から90°の方向に移動している。時間T1において、視線検出モードが切り替わる。例えば、ここでは、視線検出モードが左目から右目、または左目から両目に切り替わる。各図において、黒塗りの印が第1視線であり、白抜きの印が第2視線である。以下、1つの視線のデータが1つの画像に基づいて推定された視線として説明する。
図13において、信頼度決定部30は、第1視線と第2視線との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定する。例えば、視線検出モードが切り替わる前の第1視線を基準として、予め定められた範囲Aに第2視線が含まれる場合、信頼度決定部30は、信頼度を1.0に決定する。また、予め定められた範囲Bに第2視線が含まれる場合、信頼度決定部30は、信頼度を0.8に決定する。予め定められた範囲Cに第2視線が含まれる場合、信頼度決定部30は、信頼度を0.5に決定する。予め定められた範囲Cの外側に第2視線が位置する場合、信頼度決定部30は、信頼度を0に決定する。このような方法により、信頼度決定部30は、第1視線と第2視線との連続性に基づく視線の信頼度を決定することができる。
図14において、第1視線は、予め定められた第1時間内における視線の平均値である。予め定められた第1時間は、視線検出モードが切り替わる前の時間T0からT1までの期間である。第1視線は、その第1時間における3つの視線の平均値として算出されている。つまり、信頼度決定部30は、予め定められた第1時間内における視線の平均値と、第2視線との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定する。
図15において、第2視線は、予め定められた第2時間内における視線の平均値である。予め定められた第2時間は、視線検出モードが切り替わった後の時間T1からT2までの期間である。第2視線は、その第2時間における3つの視線の平均値として算出されている。つまり、信頼度決定部30は、第1視線と、予め定められた第2時間内における視線の平均値との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定する。
また、図示は省略するが、予め定められた第1時間内における視線の平均値である第1視線と、予め定められた第2時間内における視線の平均値である第2視線との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定してもよい。
図16において、信頼度決定部30は、視線検出モードが切り替わる前の予め定められた時間内における第1視線の変化に基づいて予測される視線の予測範囲D内に第2視線が含まれてない場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定してもよい。図16において、予め定められた時間は、視線検出モードが切り替わる前の時間T0からT1までの期間である。信頼度決定部30は、視線の予測範囲Dに第2視線が含まれる場合、例えば、信頼度を1.0に決定する。視線の予測範囲Dよりも外側に第2視線が位置する場合、信頼度決定部30は、信頼度を1.0よりも小さな値に決定する。
(実施の形態2の変形例)
ステップS42およびステップS43の間にて、信頼度決定部30は、ステップS42にて推定された視線に関する信頼度である第1信頼度を決定してもよい。その後、ステップS45にて、信頼度決定部30は、第2視線に関する第1信頼度を補正するための第2信頼度を決定することにより、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定してもよい。つまり、信頼度決定部30は、第2視線の第1信頼度を第2信頼度で補正することにより、第2視線の信頼度を第1視線の信頼度よりも下げてもよい。
ステップS46にて、視線方向出力部40は、第2視線の情報および補正された第2視線の信頼度を出力する。また、第2視線の情報は、ステップS14にて推定された顔の方向を含んでいてもよい。
以上をまとめると、実施の形態2における視線検出装置101の信頼度決定部30は、第1視線と第2視線との差が予め定められた値よりも大きい場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定する。
このような構成により、視線検出装置101は、視線検出モードの切り替え前後の各視線の連続性が保たれない場合に、視線の信頼度を下げることで、精度の高い視線検出を可能とする。
また、実施の形態2における視線検出装置101において、第1視線は、視線検出モードが切り替わる前の予め定められた第1時間内における視線の平均値であってもよい。
このような構成により、視線検出装置101は、視線検出モードの切り替え前後の各視線の連続性が保たれない場合に、視線の信頼度を下げることで、精度の高い視線検出を可能とする。視線の平均値による信頼度の決定が可能であるため、信頼度決定の精度が向上する。
また、実施の形態2における視線検出装置101において、第2視線は、視線検出モードが切り替わった後の予め定められた第2時間内における視線の平均値であってもよい。
このような構成により、視線検出装置101は、視線検出モードの切り替え前後の各視線の連続性が保たれない場合に、視線の信頼度を下げることで、精度の高い視線検出を可能とする。視線の平均値による信頼度の決定が可能であるため、信頼度決定の精度が向上する。
また、実施の形態2における視線検出装置101の信頼度決定部30は、視線検出モードが切り替わる前の予め定められた時間内における第1視線の変化に基づいて予測される視線の予測範囲内に第2視線が含まれてない場合に、第2視線の信頼度を第1視線の信頼度よりも小さな値に決定してもよい。
このような構成により、視線検出装置101は、視線検出モードの切り替え前後の各視線の連続性が保たれない場合に、視線の信頼度を下げることで、精度の高い視線検出を可能とする。第2視線の連続性を予測することが可能であるため、信頼度決定の精度が向上する。
また、実施の形態2における視線検出装置101の信頼度決定部30は、視線検出モードが右目から左目、または、左目から右目に切り替わった場合に第2視線の信頼度を決定する。
このような構成により、視線検出装置101は、左右の目のそれぞれの瞳孔基準位置が異なる場合であっても、視線検出モードの切り替え前後において精度の高い視線検出を可能とする。
また、実施の形態2における視線検出装置101の信頼度決定部30は、視線検出モードが両目から片目、または、片目から両目に切り替わった場合に第2視線の信頼度を決定してもよい。
このような構成により、視線検出装置101は、視線検出装置101は、左右の目のそれぞれの瞳孔基準位置が異なる場合であっても、視線検出モードの切り替え前後において精度の高い視線検出を可能とする。
また、実施の形態2における視線検出装置101は、視線検出対象者の画像を取得し、画像に基づき、視線検出対象者の顔の特徴を検出する顔特徴検出部50と、顔の特徴に基づき、視線検出対象者の顔の方向を推定する顔向き推定部80と、をさらに含む。推定対象選択部10は、視線検出対象者の顔の方向に基づき、視線検出モードを選択する。
このような構成により、視線検出装置101は、精度の高い視線検出を可能とする。
また、実施の形態2における視線検出装置101は、顔の特徴に基づき、瞳孔位置を検出する瞳孔検出部60と、瞳孔位置に基づき、視線検出対象者の正面視認時における瞳孔位置である瞳孔基準位置を決定する瞳孔基準位置決定部70と、をさらに含む。視線推定部20は、推定対象選択部10にて選択された視線検出モードにおける瞳孔位置と瞳孔基準位置との差に基づき、視線検出対象者の視線を推定する。
このような構成により、視線検出装置101は、精度の高い視線検出を可能とする。
<実施の形態3>
各実施の形態にて示された視線検出装置は、ナビゲーション装置と、通信端末と、サーバと、これらにインストールされるアプリケーションの機能とを適宜に組み合わせて構築されるシステムにも適用することができる。ここで、ナビゲーション装置とは、例えば、PND(Portable Navigation Device)などを含む。通信端末とは、例えば、携帯電話、スマートフォンおよびタブレットなどの携帯端末を含む。
図17は、実施の形態3における視線検出装置100およびそれに関連して動作する装置の構成を示すブロック図である。
視線検出装置100および通信装置130がサーバ300に設けられている。視線検出装置100は、車両1に設けられた画像取得装置110から通信装置140および通信装置130を介して視線検出対象者の画像を取得する。視線検出装置100は、視線検出モードが切り替わった後の第2視線の情報と第2視線の信頼度とを各通信装置を介して視線情報利用装置120に出力する。
このように、視線検出装置100がサーバ300に配置されることにより、車載装置の構成を簡素化することができる。また、同様に、多数の視線推定の結果を蓄積して学習することができるため、視線推定および信頼度決定の精度が向上する。
また、視線検出装置100の機能あるいは構成要素の一部がサーバ300に設けられ、他の一部が車両1に設けられるなど、分散して配置されてもよい。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
本発明は詳細に説明されたが、上記した説明は、全ての局面において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
1 車両、2 カメラ、3 運転手、10 推定対象選択部、20 視線推定部、30 信頼度決定部、40 視線方向出力部、50 顔特徴検出部、60 瞳孔検出部、70 瞳孔基準位置決定部、80 顔向き推定部、100 視線検出装置。

Claims (10)

  1. 切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択する推定対象選択部と、
    前記一の視線検出モードにおける前記視線検出対象者の視線を推定する視線推定部と、
    推定対象選択部の選択によって前記視線検出モードが切り替わる前の前記視線である第1視線と、前記視線検出モードが切り替わった後の前記視線である第2視線と、に基づき、前記視線検出モードが切り替わった後の前記第2視線の信頼度を決定する信頼度決定部と、
    前記第2視線の情報と前記第2視線の前記信頼度とを出力する視線方向出力部と、を備える視線検出装置。
  2. 前記信頼度決定部は、前記第1視線と前記第2視線との差が予め定められた値よりも大きい場合に、前記第2視線の前記信頼度を前記第1視線の信頼度よりも小さな値に決定する、請求項1に記載の視線検出装置。
  3. 前記第1視線は、前記視線検出モードが切り替わる前の予め定められた第1時間内における前記視線の平均値である、請求項1に記載の視線検出装置。
  4. 前記第2視線は、前記視線検出モードが切り替わった後の予め定められた第2時間内における前記視線の平均値である、請求項1に記載の視線検出装置。
  5. 前記信頼度決定部は、前記視線検出モードが切り替わる前の予め定められた時間内における前記第1視線の変化に基づいて予測される前記視線の予測範囲内に前記第2視線が含まれてない場合に、前記第2視線の前記信頼度を前記第1視線の信頼度よりも小さな値に決定する、請求項1に記載の視線検出装置。
  6. 前記信頼度決定部は、前記視線検出モードが右目から左目、または、左目から右目に切り替わった場合に前記第2視線の前記信頼度を決定する、請求項1に記載の視線検出装置。
  7. 前記信頼度決定部は、前記視線検出モードが両目から片目、または、片目から両目に切り替わった場合に前記第2視線の前記信頼度を決定する、請求項1に記載の視線検出装置。
  8. 前記視線検出対象者の画像を取得し、前記画像に基づき、前記視線検出対象者の顔の特徴を検出する顔特徴検出部と、
    前記顔の特徴に基づき、前記視線検出対象者の顔の方向を推定する顔向き推定部と、をさらに備え、
    前記推定対象選択部は、前記視線検出対象者の前記顔の方向に基づき、前記一の視線検出モードを選択する、請求項1に記載の視線検出装置。
  9. 前記顔の特徴に基づき、瞳孔位置を検出する瞳孔検出部と、
    前記瞳孔位置に基づき、前記視線検出対象者の正面視認時における瞳孔位置である瞳孔基準位置を決定する瞳孔基準位置決定部と、をさらに備え、
    前記視線推定部は、前記推定対象選択部にて選択された前記一の視線検出モードにおける前記瞳孔位置と前記瞳孔基準位置との差に基づき、前記視線検出対象者の前記視線を推定する、請求項8に記載の視線検出装置。
  10. 切替え可能な複数の視線検出モードにおける一の視線検出モードとして視線検出対象者の視線推定対象の目を選択し、
    前記一の視線検出モードにおける前記視線検出対象者の視線を推定し、
    前記視線検出モードが切り替わる前の前記視線である第1視線と、前記視線検出モードが切り替わった後の前記視線である第2視線と、に基づき、前記視線検出モードが切り替わった後の前記第2視線の信頼度を決定し、
    前記第2視線の情報と前記第2視線の前記信頼度とを出力する、視線検出方法。
JP2020551071A 2018-10-09 2018-10-09 視線検出装置および視線検出方法 Active JP6847323B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/037529 WO2020075215A1 (ja) 2018-10-09 2018-10-09 視線検出装置および視線検出方法

Publications (2)

Publication Number Publication Date
JP6847323B2 true JP6847323B2 (ja) 2021-03-24
JPWO2020075215A1 JPWO2020075215A1 (ja) 2021-04-30

Family

ID=70163668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551071A Active JP6847323B2 (ja) 2018-10-09 2018-10-09 視線検出装置および視線検出方法

Country Status (3)

Country Link
US (1) US11983896B2 (ja)
JP (1) JP6847323B2 (ja)
WO (1) WO2020075215A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230286437A1 (en) * 2022-03-09 2023-09-14 Toyota Research Institute, Inc. Vehicular warning system and method based on gaze abnormality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066023A (ja) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd 運転者状態検出装置
JP2005296383A (ja) * 2004-04-13 2005-10-27 Honda Motor Co Ltd 視線検出装置
JP2012037934A (ja) * 2010-08-03 2012-02-23 Canon Inc 視線検出装置、視線検出方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4826506B2 (ja) 2007-02-27 2011-11-30 日産自動車株式会社 視線推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066023A (ja) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd 運転者状態検出装置
JP2005296383A (ja) * 2004-04-13 2005-10-27 Honda Motor Co Ltd 視線検出装置
JP2012037934A (ja) * 2010-08-03 2012-02-23 Canon Inc 視線検出装置、視線検出方法及びプログラム

Also Published As

Publication number Publication date
WO2020075215A1 (ja) 2020-04-16
JPWO2020075215A1 (ja) 2021-04-30
US20210383566A1 (en) 2021-12-09
US11983896B2 (en) 2024-05-14

Similar Documents

Publication Publication Date Title
US10061995B2 (en) Imaging system to detect a trigger and select an imaging area
JPWO2017159510A1 (ja) 駐車支援装置、車載カメラ、車両および駐車支援方法
US9731763B2 (en) Parking assist device and parking assist system
US20190236343A1 (en) Gesture detection device
JP7138175B2 (ja) バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム
KR20140079947A (ko) 차량용 영상 녹화 장치 및 차량용 영상 녹화 방법
JP6847323B2 (ja) 視線検出装置および視線検出方法
US11917335B2 (en) Image processing device, movable device, method, and program
JP7109649B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
JP7051014B2 (ja) 顔検出処理装置および顔検出処理方法
JP7175381B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
KR20190061693A (ko) 자율주행 차량의 통합 모니터링장치 및 그 방법
JP7267222B2 (ja) 処理装置、処理方法、報知システム及びプログラム
JP2004287752A (ja) 監視装置
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
US10841495B2 (en) Vehicle camera device and exposure parameter setting method thereof
JP2022143854A (ja) 乗員状態判定装置および乗員状態判定方法
WO2021240768A1 (ja) 運転不能判定装置および運転不能判定方法
WO2022234632A1 (ja) 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
JP7257889B2 (ja) 運転者監視装置及び監視システム
US20230306707A1 (en) Around view monitoring system and the method thereof
JP7483060B2 (ja) 手検出装置、ジェスチャー認識装置および手検出方法
US20230339401A1 (en) Device for Assisting Safety Exit of Vehicle and Method Therefor
WO2019073562A1 (ja) 表示制御装置、表示制御方法、及び表示制御装置を備える車載機器
WO2021140583A1 (ja) 眠気推定装置および眠気推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210302

R150 Certificate of patent or registration of utility model

Ref document number: 6847323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250