WO2012042580A1 - 視線推定装置 - Google Patents

視線推定装置 Download PDF

Info

Publication number
WO2012042580A1
WO2012042580A1 PCT/JP2010/007245 JP2010007245W WO2012042580A1 WO 2012042580 A1 WO2012042580 A1 WO 2012042580A1 JP 2010007245 W JP2010007245 W JP 2010007245W WO 2012042580 A1 WO2012042580 A1 WO 2012042580A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
sight
unit
gaze
measurement
Prior art date
Application number
PCT/JP2010/007245
Other languages
English (en)
French (fr)
Inventor
兼司 岡
宗太郎 築澤
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP10847169.9A priority Critical patent/EP2457499B1/en
Priority to CN201080019815.4A priority patent/CN102548465B/zh
Priority to US13/240,200 priority patent/US8503737B2/en
Publication of WO2012042580A1 publication Critical patent/WO2012042580A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

 視線計測結果に瞳孔の誤検出に起因するような大きな誤差が含まれる場合でも、誤差が抑制された高精度な視線推定結果を遅延なく得ることができる視線推定装置を提供する。視線推定装置200は、人物を撮影して画像を取り込む画像入力部201と、撮影された画像をもとに視線方向を計測する視線計測部202と、過去に計測された視線計測結果を保持する視線計測結果保持部211と、過去の視線計測結果の代表値を抽出する代表値抽出部212と、該代表値と該視線計測結果との差分が所定の閾値未満であるか否かにより、該代表値と該視線計測結果とのいずれかを視線推定結果として決定する視線決定部213とを備える。

Description

視線推定装置
 本発明は、人物の顔付近の領域を撮影装置により撮影した画像から該人物の視線方向を推定する視線推定装置に関し、より詳しくは、視線計測装置によって得られた視線計測結果に誤差が含まれる場合にも計測結果を平滑化することにより、精度良く視線方向を推定する機能を有する視線推定装置に関する。
 近年、自動車内に設置された車載用カメラを用いて運転者の顔付近の領域を撮影した画像から運転者の視線方向を推定し、計測した視線方向をもとに運転者の脇見状態を判定することにより、運転者に警告を与えるシステムが考案されてきている。このようなシステムでは精度良く視線方向を推定することが必要となる。
 視線推定装置は、大きく2種類に分類され、目周辺を拡大して撮影した画像から視線推定を行うものと、顔全体を含む顔周辺を広角に撮影した画像から視線推定を行うものとに大別される。
 このうち、目周辺を拡大して撮影した画像から視線推定を行うものは、高精度な視線推定が可能である一方で、頭部が動くと視線推定を行うことができなくなってしまうという欠点があり、運転者の視線推定には不適である。
 これに対し、顔全体を広角に撮影した画像から視線推定を行うものは、頭部が比較的自由に動いても視線推定を行うことができ、運転者の視線推定には適しているが、目領域に対する画素数や解像度が低くなるため、視線推定の精度が劣化しやすいという特徴がある。
 一般的に、顔全体を広角に撮影した画像から視線推定を行う視線推定装置は、撮影された人物の瞳孔の中心位置を検出することにより該人物の視線方向を推定する。このとき、目領域の解像度の低さが原因で、目領域周辺の低輝度部分で瞳孔の誤検出が頻繁に発生する。
 その結果として、瞳孔の誤検出による大きな誤差が視線計測結果に多く含まれることとなる。このため、精度良く視線方向を推定するためには、一旦得られた視線計測結果をそのまま出力するのではなく、平滑化することにより誤差の影響を除去する必要がある。
 このため、従来、何らかの信号処理技術を用いて、視線計測結果を平滑化する手法が提案されている。例えば、精度の良い視線推定結果を得るために、ウェーブレット解析を用いた平滑化処理を行うものがある(例えば、特許文献1参照)。
特許第3760960号公報
 しかしながら、上述した従来の技術では、視線計測結果に大きな誤差が含まれる場合に、平滑化が不十分となる。具体的には、実際に発生した瞳孔の誤検出を分析すると、瞳孔の誤検出は、目尻や虹彩輪郭の位置など、瞳孔の中心位置とは大きく離れた位置に、数フレームに1回程度の頻度で発生する場合がほとんどである。
 例えば、視線計測結果は、図13に示すように、サージ電流のようになる。したがって、このような視線計測結果に対して高精度な平滑化処理を行ったとしても、大きな誤差を除去することはできず、視線推定結果の精度は低下してしまう。
 また、平滑化処理を行った場合には、平滑化後の視線計測結果が、実際の計測値よりも数フレーム分遅延することが多く、リアルタイム性が低下することが問題となる。
 本発明の目的は、図13のように視線計測結果に瞳孔の誤検出に起因するような大きな誤差が含まれる場合でも、誤差が抑制された高精度な視線推定結果を遅延なく得ることができる視線推定装置を提供することを目的とする。
 本発明の視線推定装置は、目を含む顔付近の領域を撮影して画像として取り込む画像入力部と、撮影された画像をもとに視線方向を計測する視線計測部と、前記視線計測部で過去に計測された視線計測結果を保持する視線計測結果保持部と、前記視線計測結果保持部に保持された過去の視線計測結果の代表値を抽出する代表値抽出部と、前記代表値抽出部により抽出された代表値と前記視線計測部により計測された視線計測結果との差分Dが所定の閾値T未満であるか否かにより、前記代表値と前記視線計測結果とのいずれかを視線推定結果として決定する視線決定部と、を備えた構成を有している。
 この構成により、本発明の視線推定装置は、視線計測結果と代表値との差分Dが閾値T未満である場合には、視線計測結果を視線推定結果とし、差分Dが閾値T以上である場合には、代表値を視線推定結果とするため、視線計測結果に瞳孔の誤検出に起因するような大きな誤差が含まれる場合でも、誤差が抑制された高精度な視線推定結果を遅延なく得ることができる。
 なお、本発明の視線推定装置は、前記閾値Tを決定する閾値決定部を更に備え、前記閾値決定部は、1フレームの間に視線が動く可能性がある最大眼球回転角度Pと、瞳孔領域外に瞳孔を誤検出した場合における差分Dの最小角度Qを設定した上で、前記最大眼球回転角度P以上かつ前記最小角度Q以下の値を前記閾値Tとして決定するようにしてもよい。
 この構成により、本発明の視線推定装置は、視線計測結果と代表値のいずれかを選択するかに用いる閾値Tを適切に決定することができ、高精度な視線推定結果を安定して得ることができる。
 また、前記閾値決定部は、眼球運動を制御する筋肉の伸縮速度に関する既知の値に基づいて、前記最大眼球回転角度Pを設定するようにしてもよい。
 この構成により、本発明の視線推定装置は、閾値Tを決定するために参照される最大眼球回転角度Pを定数とすることができるため、閾値Tの決定にかかる時間を短縮することができる。
 また、前記閾値決定部は、前記視線計測部および前記視線決定部の少なくとも一方から過去に出力された結果に基づいて、前記最大眼球回転角度Pを微調整するようにしてもよい。
 この構成により、本発明の視線推定装置は、視線計測結果および視線推定結果の少なくとも一方に基づいて、最大眼球回転角度Pを微調整するため、最大眼球回転角度Pの精度を向上させることができる。
 また、前記閾値決定部は、瞳孔の中心から眼球の中心までを結ぶ直線と、虹彩輪郭上の一点から前記眼球の中心までを結ぶ直線とがなす角度、および、前記最大眼球回転角度Pに基づいて、前記最小角度Qを設定するようにしてもよい。
 この構成により、本発明の視線推定装置は、閾値Tを決定するために参照される最小角度Qを設定することができる。
 また、前記代表値抽出部は、前記視線計測結果保持部が保持する視線計測結果の中央値を前記代表値として抽出するようにしてもよい。
 この構成により、本発明の視線推定装置は、誤差が大きい視線計測結果が得られた場合でも、誤差が抑制された視線推定結果を遅延なく得ることができる。
 また、前記閾値決定部は、虹彩半径を算出し、算出した虹彩半径に基づいて、前記瞳孔の中心から前記眼球の中心までを結ぶ直線と、前記虹彩輪郭上の一点から前記眼球の中心までを結ぶ直線とがなす角度を算出するようにしてもよい。
 この構成により、本発明の視線推定装置は、運転者の虹彩半径に個人差がある場合でも安定して高精度な視線推定結果を得ることができる。
 また、本発明の視線推定装置は、前記目を含む顔付近の領域を照射する照射部を更に備え、前記閾値決定部は、前記虹彩の半径を計算するタイミングに合わせて、前記照射部による照射の状態を変更させるようにしてもよい。
 この構成により、本発明の視線推定装置は、輝度が安定した顔周辺画像を得ることができる一方で、虹彩の半径を計算するときには、可視光を多く含む自然光のみを運転者が受けた状態の画像に基づいて虹彩の半径を算出することができる。
 また、本発明の視線推定装置は、前記視線決定部によって決定された値を平滑化する時系列フィルタを更に備えるようにしてもよい。
 この構成により、本発明の視線推定装置は、誤差がより抑制された高精度な視線推定結果を得ることができる。
 本発明によれば、視線計測結果に瞳孔の誤検出に起因するような大きな誤差が含まれる場合でも、誤差が抑制された高精度な視線推定結果を遅延なく得ることができる視線推定装置を提供することができる。
本発明の第1の実施の形態における視線推定装置の概略構成を示すブロック図 本発明の第1の実施の形態における視線推定装置を構成する視線計測部に対する入力画像としての顔周辺画像を示す概念図 本発明の第1の実施の形態における視線推定装置を構成する視線計測部に対する入力画像から目周辺を切り出し拡大した目領域画像を示す図 本発明の第1の実施の形態における視線推定装置の視線計測結果と代表値との差分と各差分の発生頻度との関係を示すグラフ 本発明の第1の実施の形態における視線推定装置を構成する閾値決定部の構成を示すブロック図 眼球の模式図 本発明の第1の実施の形態における視線推定装置を構成する視線決定部の動作を示すフロー図 本発明の第1の実施の形態における視線静止時の視線推定装置の各部の処理結果を示す概念図 本発明の第1の実施の形態における視線移動時の視線推定装置の各部の処理結果を示す概念図 本発明の第2の実施の形態における視線推定装置の概略構成を示すブロック図 本発明の第2の実施の形態における視線推定装置に対する近赤外光照射環境下での入力画像を示す図 本発明の第2の実施の形態における視線推定装置に対する可視光照射環境下での入力画像を示す図 一般的な視線計測結果を示すグラフ
 以下に、本発明の実施の形態における視線推定装置について、図面を参照しながら説明する。なお、以下に示す実施の形態において、同一の構成要素には同一の符号を付し、その説明は省略する。
 (第1の実施の形態)
 図1は、本発明の第1の実施の形態に係る視線推定装置200の構成を示すブロック図である。視線推定装置200は、例えば、自動車の車室内に設けられ、外部の警報装置と接続される。この警報装置は、視線推定装置200の視線推定結果に基づいて、運転者が正面を長時間向かなかったと判断した場合には、運転者に対して警告を行うことにより注意を喚起するようになっている。
 図1において、視線推定装置200は、運転者の顔周辺を撮影する画像入力部201と、運転者の顔周辺を撮影した画像から運転者の視線方向を計測する視線計測部202と、視線計測部202による計測結果を表す視線計測結果を平滑化して運転者の視線方向を推定する視線推定部203とを備えている。
 画像入力部201は、CCD(Charge Coupled Devices)又はCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを備えた撮影装置によって構成されており、前方の被写体を撮影することができる。画像入力部201は、運転者の顔周辺が撮影できるように、例えば、車のハンドルの上やダッシュボード上のような運転者の顔付近の領域を撮影できる場所に設置される。
 視線計測部202および視線推定部203は、例えば、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等のプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、および、入出力インターフェイスを備えた電子制御装置によって構成されている。
 ROMには、当該電子制御装置を視線計測部202および視線推定部203として機能させるためのプログラムが記憶されている。すなわち、プロセッサがRAMを作業領域としてROMに記憶されたプログラムを実行することにより、当該電子制御装置は、視線計測部202および視線推定部203として機能する。
 視線計測部202は、運転者の顔周辺が画像入力部201によって撮影された顔周辺画像から、撮影されたときの運転者の視線方向を計測するようになっている。以下に、視線計測部202による視線方向の計測例について説明する。
 視線計測部202は、図2に示すような運転者の顔周辺の領域が撮影された顔周辺画像301の中で少なくとも片方の目の端点302、303を検出するようになっている。例えば、視線計測部202は、目の端点の標準的な画像をテンプレートとして予め保持しておき、そのテンプレート画像をもとに顔周辺画像301内を探索することにより、目の端点302、303を検出するようになっている。
 また、視線計測部202は、目の端点302、303を通り、目の端点302、303間の距離に応じたサイズの矩形を切り出し、拡大することにより、図3に示すような目領域画像401を取得するようになっている。ここで、視線計測部202は、目領域画像401内で、瞳孔の中心(以下、単に「瞳孔中心」という)404を検出するようになっている。
 例えば、視線計測部202は、目領域画像401の中で輝度が低い画素を抽出し、抽出した画素をグルーピングすることによって瞳孔領域の候補を抽出した上で、各瞳孔領域の候補の面積を算出し、予め設定された瞳孔の面積に最も近い面積を有する瞳孔領域の候補を瞳孔領域として選択し、選択した瞳孔領域の中心を瞳孔中心404として検出するようになっている。
 視線計測部202は、目領域画像401における目の端点402、403および瞳孔中心404に基づいて、視線方向を検出するようになっている。例えば、視線計測部202は、目の端点402、403に対して、瞳孔中心404がどの程度左右に偏っているかにより、視線の水平方向の角度を算出するようになっている。
 なお、視線計測部202は、予め定められた複数の角度を運転手に向いてもらうたびに、画像入力部201によって撮影された顔周辺画像301から得た目領域画像401における目の端点402、403および瞳孔中心404の位置関係を予め保持しておくことにより、より正確な視線角度を算出するようにしてもよい。
 視線計測部202による計測結果には、図13に示したように大きな誤差が含まれているものがある。このため、視線推定部203は、視線計測部202による計測結果を表す視線計測結果を平滑化した上で、運転者の視線方向を推定するようになっている。また、視線推定部203は、推定した結果を警報装置に出力するようになっている。
 図1において、視線推定部203は、視線計測部202によって計測された過去数フレーム分の視線計測結果を保持する視線計測結果保持部211と、過去数フレーム分の視線計測結果の代表値を抽出する代表値抽出部212と、視線方向を決定する視線決定部213と、視線決定部213によって参照される閾値を決定する閾値決定部214とを有する。
 視線計測結果保持部211は、過去数フレーム分の視線計測結果を保持するようになっている。ここで、視線計測結果保持部211が保持する視線計測結果の数については、任意に設定することができるが、本実施の形態において、視線計測結果保持部211は、1秒分のフレーム数の視線計測結果を保持するものとする。
 代表値抽出部212は、視線計測結果保持部211に保持された過去の視線計測結果から過去数フレーム分の視線計測結果を代表する代表値を抽出するようになっている。本実施の形態において、代表値抽出部212は、視線計測結果保持部211に保持されている視線計測結果の中央値を代表値として抽出するようになっている。
 視線計測結果保持部211に保持された視線計測結果には、図13に示すサージ電流のような大きな誤差が含まれることが多いため、代表値抽出部212は、視線計測結果の中央値を代表値とすることにより、視線計測結果に含まれる誤差の影響が小さい代表値を抽出することができる。
 視線決定部213は、視線方向を決定するようになっている。具体的には、視線決定部213は、まず、視線計測部202によって計測された視線計測結果Aと、代表値抽出部212によって抽出された代表値Bとの差分Dを算出するようになっている。
 また、視線決定部213は、算出した差分Dが閾値T未満であるか否かを判断し、差分Dが閾値T未満であると判断した場合には、視線計測結果Aを視線方向として決定するようになっている。一方、差分Dが閾値T未満でない、すなわち、閾値T以上であると判断した場合には、視線決定部213は、代表値Bを視線方向として決定するようになっている。
 また、視線決定部213は、決定した視線方向を視線推定結果として警報装置に出力するようになっている。ここで、視線決定部213が決定した視線方向をそのまま警報装置に入力させるようにしてもよいし、例えば、平均値フィルタやカルマンフィルタ等の時系列フィルタを用いて、遅延が少ない平滑化処理を施した上で警報装置に入力させてもよい。
 閾値決定部214は、1フレームあたりの最大眼球回転角度Pと、瞳孔領域外に瞳孔を誤検出した場合における差分Dの最小角度Qとに基づいて、閾値Tを決定するようになっている。
 ここで、最大眼球回転角度Pおよび最小角度Qと、閾値Tとの関係について、図4を参照して説明する。図4は、実際に視線計測を行った場合に、横軸に差分Dを取り、縦軸に差分Dの発生頻度を取ったときのグラフの典型例を示している。
 ここで、実線901は、視線計測結果が正しかったときのグラフを示し、破線902は、瞳孔領域外に瞳孔を誤検出したことによって誤計測したときのグラフを示している。このグラフから、最大眼球回転角度Pは実線901の上限値、最小角度Qは破線902の下限値として考えることができる。
 このように、一般的に、最小角度Qは最大眼球回転角度Pより大きくなることが実験的にわかっているため、最大眼球回転角度Pと最小角度Qとの間に閾値Tを定めることにより、差分Dが正しい計測結果によるものか、誤計測によるものかを判断することができる。
 具体的な構成として、閾値決定部214は、図5に示すように、最大眼球回転角度決定部801と、誤計測時差分最小値決定部802と、閾値設定部803とを有している。
 最大眼球回転角度決定部801は、最大眼球回転角度Pを決定するようになっている。この最大眼球回転角度Pは、眼球運動を制御する筋肉の伸縮速度に関する医学的な既知の値をもとに一定値と考えることができる。具体的には、一般的な最大眼球速度は毎秒300度とされているため、毎秒30フレームで画像を撮影して視線計測を行う場合には、1フレームあたりの最大眼球回転角度Pは10度と定められる。
 なお、最大眼球回転角度決定部801は、例えば、視線計測部202の視線計測結果の履歴および視線決定部213の視線推定結果の履歴などのような過去の出力履歴に基づいて、最大眼球回転角度Pを微調整するようにしてもよい。
 例えば、最大眼球回転角度決定部801は、最大眼球回転角度Pが過去の履歴と比較して大き過ぎる場合には、最大眼球回転角度Pを一定な微小値分小さくするといった処理を行うようにしてもよい。
 誤計測時差分最小値決定部802は、最小角度Qを決定するようになっている。ここで、瞳孔領域外に瞳孔を誤検出する場合のほとんどは、虹彩輪郭上またはその外側に発生することが実験的に既知であるため、誤計測時差分最小値決定部802は、その既知の値を利用して最小角度Qを決定するようになっている。
 具体的には、誤計測時差分最小値決定部802は、図6に示すように、瞳孔中心1001から眼球中心1002までを結ぶ直線と、虹彩輪郭上の一点1003から眼球中心1002までを結ぶ直線とがなす角度(以下、「虹彩角度」という)1004を算出し、算出した虹彩角度1004と、最大眼球回転角度Pとに基づいて最小角度Qを決定するようになっている。
 ここで、虹彩角度1004は、眼球半径1005や虹彩半径1006に依存するが、一般成人において、眼球半径1005は個人間の変動がほとんどなく、虹彩半径1006についても変動が比較的少ないため、医学的な既知の値をもとに一定値とすることができる。
 一般的に、虹彩半径1006は6mm、眼球半径1005は12mmであるため、虹彩角度1004は30度となる。誤計測時差分最小値決定部802は、最大眼球回転角度Pも考慮し、例えば、最大眼球回転角度Pが10度と定められた場合には、最小角度Qを20度と定めるようになっている。
 なお、誤計測時差分最小値決定部802は、虹彩半径1006を画像処理により算出し、その算出結果をもとに虹彩角度1004を算出するようにしてもよい。例えば、図3において、誤計測時差分最小値決定部802は、視線計測部202によって検出される瞳孔中心404周辺で一定輝度よりも小さい画素をグルーピングすることにより虹彩に対応する画素を抽出し、抽出した画素を円形近似することにより、画像上での虹彩輪郭を求めるようにしてもよい。
 また、画像入力部201の焦点距離、イメージセンサの画素ピッチ、および、カメラから目周辺までの距離が既知であれば、虹彩輪郭の実寸を顔周辺画像301から導出することができるため、誤計測時差分最小値決定部802は、画像入力部201の焦点距離、イメージセンサの画素ピッチ、および、撮影装置から目周辺までの距離に基づいて顔周辺画像301から虹彩半径1006を算出するようにしてもよい。
 この場合には、誤計測時差分最小値決定部802は、例えば、互いの位置関係が既知の2台のカメラを用いて、ステレオ測距処理を行うことにより撮影装置から目周辺までの距離を算出するようにしてもよい。
 閾値設定部803は、最大眼球回転角度Pと最小角度Qとの間の任意の1つの角度を閾値Tとして決定するようになっている。例えば、閾値設定部803は、最大眼球回転角度Pが10度と定められ、最小角度Qが20度と定められた場合には、閾値Tを15度に決定することができる。
 なお、閾値設定部803は、頭部の移動量を推定した結果を考慮して閾値Tを変動させるようにしてもよい。例えば、閾値設定部803は、頭部が左右方向に回転移動したときには、視線方向も大きく移動している可能性が高いことを考慮して、閾値Tを大きく定めるようにしてもよい。この場合には、閾値設定部803は、目の端点402、403の移動量に基づいて、頭部の移動量の推定するようにしてもよい。
 以上のように構成された視線決定部213の動作を図7に示すフロー図を参照しながら説明する。
 まず、視線計測部202の視線計測結果Aと、代表値抽出部212によって抽出された代表値Bとの差分Dが視線決定部213によって計算される(S501)。次に、差分Dが閾値決定部214によって決定された閾値T未満であるか否かが視線決定部213によって判断される(S502)。
 ここで、差分Dが閾値T未満であると判断された場合には、視線計測結果Aが視線決定部213から視線推定結果として出力される(S503)。一方、差分Dが閾値T未満でないと判断された場合には、代表値Bが視線推定結果として視線決定部213から出力される(S504)。
 このように動作する視線決定部213による視線推定結果の出力例について図8を用いて詳細に説明する。視線計測結果Aを時系列でプロットすると、例えば、グラフ601に示すように、視線計測結果Aには、大きな誤差が含まれるものがある。
 ここで、グラフ601の各フレームの代表値として所定フレーム分の計測結果の中央値が代表値として抽出されると、抽出された代表値は、グラフ602に示すように、視線計測結果Aに含まれる誤差が抑制されている。
 その後、グラフ601とグラフ602とを比較していくと、グラフ603に示すように、双方の差分Dが閾値T以上となっているところがあるため、視線推定結果としてグラフ604が得られる。このように、視線推定結果を示すグラフ604は、代表値のグラフ602と一致するため、視線推定結果に含まれる誤差が抑制されていることを示している。
 次に、視線決定部213の他の出力例を図9を用いて説明する。グラフ701は、視線方向が一定の速度で変化していることを表している。ここで、グラフ701の各フレームの代表値として所定フレーム分の計測結果の中央値が抽出されると、抽出された代表値を示すグラフ702は、グラフ701と同様に変動する。
 その後、グラフ701とグラフ702とを比較していくと、グラフ703に示すように、双方の差分Dが常に閾値T未満となっているため、視線推定結果としてグラフ704が得られる。このように、視線推定結果を示すグラフ704は、視線計測結果のグラフ701と一致するため、視線推定結果の遅延が抑制されていることを示す。
 以上のように、視線決定部213は、図8に示すように、視線推定結果に含まれる大きな誤差を抑制することができ、図9に示すように、視線移動時にも、視線推定結果に含まれる誤差を遅延なく抑制することができる。
 このように、本発明の第1の実施の形態に係る視線推定装置200は、視線計測結果Aと、代表値抽出部212によって抽出された代表値Bとの差分Dが閾値T未満である場合には、視線計測結果Aを視線推定結果とし、差分Dが閾値T以上である場合には、代表値Bを視線推定結果とするため、視線計測結果に瞳孔の誤検出に起因するような大きな誤差が含まれる場合でも、誤差が抑制された高精度な視線推定結果を遅延なく得ることができる。
 (第2の実施の形態)
 図10に示すように、本発明の第2の実施の形態に係る視線推定装置1100は、本発明の第1の実施の形態に係る視線推定装置200の構成要件に加えて、運転者の目を含む顔付近の領域を照射する照射部1101を備えている。
 照射部1101は、近赤外線領域の光を発光するライトによって構成され、その光軸が運転者の目を通るように、例えば、画像入力部201の近傍に設けられている。近赤外線領域の光は、運転者には不可視であるが、CCDやCMOS等のイメージセンサには検知される。このため、画像入力部201は、照射部1101から照射された光が運転者の顔領域付近で反射し、反射した光の像を撮影することができる。
 本実施の形態において、閾値決定部214は、誤計測時差分最小値決定部802が虹彩角度1004を決定するために、虹彩半径1006を画像処理により算出するタイミングに応じて照射部1101の照明状態を変更するようになっている。
 照射部1101は、閾値決定部214の誤計測時差分最小値決定部802から虹彩半径1006の算出を開始することを表すタイミング信号を受信すると、照射を中止するようになっている。これにより、可視光を多く含む自然光のみを運転者が受けた状態で画像入力部201が画像を取得することができ、誤計測時差分最小値決定部802は、その画像を用いて、虹彩角度1004を算出することができる。
 一方、照射部1101は、誤計測時差分最小値決定部802から虹彩半径1006の算出が終了したことを表すタイミング信号を受信すると、照射を再開するようになっている。
 ここで、虹彩における光の反射率は、近赤外光領域よりも可視光領域の方が低いため、近赤外光照射時には、図11に示すように、虹彩の輝度が高い場合であっても、可視光下では、図12に示すように、虹彩の輝度が低くなり、虹彩と強膜(白目)部分との輝度差が大きくなる。したがって、照射部1101による照射を上述したように制御することにより、虹彩半径1006の算出結果を安定させることができる。
 このように、本発明の第2の実施の形態に係る視線推定装置1100は、本発明の第1の実施の形態に係る視線推定装置200と同様な効果を得ることができると共に、運転者の虹彩半径1006に個人差がある場合でも安定して高精度な視線推定結果を遅延なく得ることができる。
 なお、上記各実施の形態においては、本発明の視線推定装置をソフトウェアで構成する場合を例にとって説明したが、本発明の視線推定装置は、ハードウェアで構成することも可能である。この場合、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSI(Large Scale Integration)によって構成される。これら各機能ブロックは、個別に1チップ化されてもよい。ここで、LSIは、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、本発明の視線推定装置は、LSIによって構成する他に、専用回路または汎用プロセッサによって構成してもよい。例えば、LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサによって本発明の視線推定装置を構成してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて、本発明の視線推定装置の各機能ブロックの集積化を行ってもよい。
 本発明の視線推定装置は、精度の高い視線推定結果を出力することができるため、車載用カメラを用いた脇見警報や見落とし検知に利用できるものとして有用である。また、本発明の視線推定装置は、車載用途のみならず、テレビなどのAV機器操作や、監視カメラにおける人物行動解析など幅広い用途に用いることができる。
 200、1100 視線推定装置
 201 画像入力部
 202 視線計測部
 203 視線推定部
 211 視線計測結果保持部
 212 代表値抽出部
 213 視線決定部
 214 閾値決定部
 301 顔周辺画像
 302、303、402、403 目の端点
 401 目領域画像
 404、1001 瞳孔中心
 601、701 視線計測結果を示すグラフ
 602、702 代表値を示すグラフ
 603、703 閾値処理を示すグラフ
 604、704 視線推定結果を示すグラフ
 801 最大眼球回転角度決定部
 802 誤計測時差分最小値決定部
 803 閾値設定部
 901 計測結果が正しいときのグラフ
 902 誤計測のときのグラフ
 1002 眼球中心
 1003 虹彩輪郭上の一点
 1004 虹彩角度
 1005 眼球半径
 1006 虹彩半径
 1101 照射部

Claims (9)

  1.  目を含む顔付近の領域を撮影して画像として取り込む画像入力部と、
     撮影された画像をもとに視線方向を計測する視線計測部と、
     前記視線計測部で過去に計測された視線計測結果を保持する視線計測結果保持部と、
     前記視線計測結果保持部に保持された過去の視線計測結果の代表値を抽出する代表値抽出部と、
     前記代表値抽出部により抽出された代表値と前記視線計測部により計測された視線計測結果との差分Dが所定の閾値T未満であるか否かにより、前記代表値と前記視線計測結果とのいずれかを視線推定結果として決定する視線決定部と、を備えた視線推定装置。
  2.  前記閾値Tを決定する閾値決定部を更に備え、
     前記閾値決定部は、1フレームの間に視線が動く可能性がある最大眼球回転角度Pと、瞳孔領域外に瞳孔を誤検出した場合における差分Dの最小角度Qを設定した上で、前記最大眼球回転角度P以上かつ前記最小角度Q以下の値を前記閾値Tとして決定することを特徴とする請求項1に記載の視線推定装置。
  3.  前記閾値決定部は、眼球運動を制御する筋肉の伸縮速度に関する既知の値に基づいて、前記最大眼球回転角度Pを設定することを特徴とする請求項2に記載の視線推定装置。
  4.  前記閾値決定部は、前記視線計測部および前記視線決定部の少なくとも一方から過去に出力された結果に基づいて、前記最大眼球回転角度Pを微調整することを特徴とする請求項3に記載の視線推定装置。
  5.  前記閾値決定部は、瞳孔の中心から眼球の中心までを結ぶ直線と、虹彩輪郭上の一点から前記眼球の中心までを結ぶ直線とがなす角度、および、前記最大眼球回転角度Pに基づいて、前記最小角度Qを設定することを特徴とする請求項2に記載の視線推定装置。
  6.  前記代表値抽出部は、前記視線計測結果保持部が保持する視線計測結果の中央値を前記代表値として抽出することを特徴とする請求項1に記載の視線推定装置。
  7.  前記閾値決定部は、虹彩半径を算出し、算出した虹彩半径に基づいて、前記瞳孔の中心から前記眼球の中心までを結ぶ直線と、前記虹彩輪郭上の一点から前記眼球の中心までを結ぶ直線とがなす角度を算出することを特徴とする請求項5に記載の視線推定装置。
  8.  前記目を含む顔付近の領域を照射する照射部を更に備え、
     前記閾値決定部は、前記虹彩の半径を計算するタイミングに合わせて、前記照射部による照射の状態を変更させることを特徴とする請求項7に記載の視線推定装置。
  9.  前記視線決定部によって決定された値を平滑化する時系列フィルタを更に備えたことを特徴とする請求項1に記載の視線推定装置。
PCT/JP2010/007245 2010-09-27 2010-12-14 視線推定装置 WO2012042580A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10847169.9A EP2457499B1 (en) 2010-09-27 2010-12-14 Line-of-sight estimation device
CN201080019815.4A CN102548465B (zh) 2010-09-27 2010-12-14 视线估计装置
US13/240,200 US8503737B2 (en) 2010-09-27 2011-09-22 Visual line estimating apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010215331A JP5466610B2 (ja) 2010-09-27 2010-09-27 視線推定装置
JP2010-215331 2010-09-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/240,200 Continuation US8503737B2 (en) 2010-09-27 2011-09-22 Visual line estimating apparatus

Publications (1)

Publication Number Publication Date
WO2012042580A1 true WO2012042580A1 (ja) 2012-04-05

Family

ID=45892086

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/007245 WO2012042580A1 (ja) 2010-09-27 2010-12-14 視線推定装置

Country Status (4)

Country Link
EP (1) EP2457499B1 (ja)
JP (1) JP5466610B2 (ja)
CN (1) CN102548465B (ja)
WO (1) WO2012042580A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778390A (zh) * 2014-01-10 2015-07-15 由田新技股份有限公司 身份认证系统及其方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799277B (zh) * 2012-07-26 2015-06-10 深圳先进技术研究院 一种基于眨眼动作的人机交互方法及系统
CN104180995A (zh) * 2013-05-24 2014-12-03 上海汽车集团股份有限公司 一种扫描车辆整车视野的装置以及方法
CN103337171B (zh) * 2013-06-15 2018-04-10 广东安达交通工程有限公司 一种交通综合监控系统及其监控方法
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
KR101628543B1 (ko) * 2014-11-26 2016-06-08 현대자동차주식회사 시선추적장치 및 그의 추적정확도 측정방법
WO2016098406A1 (ja) * 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP3305176A1 (en) 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
CN112597872A (zh) * 2020-12-18 2021-04-02 深圳地平线机器人科技有限公司 视线角度估计方法和装置、存储介质、电子设备
WO2023139975A1 (ja) * 2022-01-21 2023-07-27 日本電気株式会社 眼球運動測定装置、眼球運動測定プログラムを格納した非一時的なコンピュータ可読媒体及び眼球運動測定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0796803A (ja) * 1993-08-04 1995-04-11 Nissan Motor Co Ltd 車両用インタフェース
JP2004334784A (ja) * 2003-05-12 2004-11-25 Nissan Motor Co Ltd 確認動作検出装置及び警報システム
JP2007268164A (ja) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ 視線移動検出方法及び視線移動検出装置
JP2007301087A (ja) * 2006-05-10 2007-11-22 Gen Tec:Kk 車両運転者の視線方向の検出方法又は同装置
JP2009181424A (ja) * 2008-01-31 2009-08-13 Nec Corp 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2950546B2 (ja) * 1988-08-31 1999-09-20 キヤノン株式会社 視線検出装置及び視線検出装置を有するカメラ
JP4551766B2 (ja) * 2002-10-15 2010-09-29 ボルボ テクノロジー コーポレイション 被験者の頭及び目の動きを分析する方法及び装置
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
CA2685976C (en) * 2007-05-23 2013-02-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
CN101788848B (zh) * 2009-09-29 2012-05-23 北京科技大学 用于视线追踪系统的眼部特征参数检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0796803A (ja) * 1993-08-04 1995-04-11 Nissan Motor Co Ltd 車両用インタフェース
JP2004334784A (ja) * 2003-05-12 2004-11-25 Nissan Motor Co Ltd 確認動作検出装置及び警報システム
JP2007268164A (ja) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ 視線移動検出方法及び視線移動検出装置
JP2007301087A (ja) * 2006-05-10 2007-11-22 Gen Tec:Kk 車両運転者の視線方向の検出方法又は同装置
JP2009181424A (ja) * 2008-01-31 2009-08-13 Nec Corp 画像処理装置、画像処理方法及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2457499A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778390A (zh) * 2014-01-10 2015-07-15 由田新技股份有限公司 身份认证系统及其方法

Also Published As

Publication number Publication date
EP2457499B1 (en) 2016-11-02
JP2012065997A (ja) 2012-04-05
EP2457499A4 (en) 2014-04-09
CN102548465B (zh) 2015-12-16
JP5466610B2 (ja) 2014-04-09
EP2457499A1 (en) 2012-05-30
CN102548465A (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
JP5466610B2 (ja) 視線推定装置
EP2541493B1 (en) Pupil detection device and pupil detection method
JP5538160B2 (ja) 瞳孔検出装置及び瞳孔検出方法
US9330325B2 (en) Apparatus and method for reducing noise in fingerprint images
US20200210733A1 (en) Enhanced video-based driver monitoring using phase detect sensors
JP2003098424A (ja) 画像処理測距装置
CN106934804B (zh) 图像清晰度检测方法及装置
JP6601351B2 (ja) 視線計測装置
US8503737B2 (en) Visual line estimating apparatus
US8983147B2 (en) Eyelid detection device
US11210773B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP2018156408A (ja) 画像認識撮像装置
US10593044B2 (en) Information processing apparatus, information processing method, and storage medium
WO2019021876A1 (ja) 車載カメラのキャリブレーション装置及び方法
JP2011134119A (ja) 車両周辺監視装置
JP5519413B2 (ja) 瞳孔隠蔽状態検出装置及びそれを備えた車載カメラ
JP4111080B2 (ja) 脇見状態検出装置
JP4151624B2 (ja) 瞳孔検出装置、虹彩認証装置及び瞳孔検出方法
JP6169446B2 (ja) 視線検出装置
JP6737213B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP5655491B2 (ja) 開眼状態検出装置
JP2004310396A (ja) 画像処理装置
US20230017607A1 (en) Imaging apparatus
JP5743635B2 (ja) 異物検知装置
TWI621554B (zh) 基線可調式立體視覺裝置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080019815.4

Country of ref document: CN

REEP Request for entry into the european phase

Ref document number: 2010847169

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010847169

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10847169

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE