JP5230748B2 - 視線方向判定装置及び視線方向判定方法 - Google Patents

視線方向判定装置及び視線方向判定方法 Download PDF

Info

Publication number
JP5230748B2
JP5230748B2 JP2010530731A JP2010530731A JP5230748B2 JP 5230748 B2 JP5230748 B2 JP 5230748B2 JP 2010530731 A JP2010530731 A JP 2010530731A JP 2010530731 A JP2010530731 A JP 2010530731A JP 5230748 B2 JP5230748 B2 JP 5230748B2
Authority
JP
Japan
Prior art keywords
line
coordinate
unit
gaze direction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010530731A
Other languages
English (en)
Other versions
JPWO2010035472A1 (ja
Inventor
宗太郎 築澤
健介 丸谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010530731A priority Critical patent/JP5230748B2/ja
Publication of JPWO2010035472A1 publication Critical patent/JPWO2010035472A1/ja
Application granted granted Critical
Publication of JP5230748B2 publication Critical patent/JP5230748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Pathology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Eye Examination Apparatus (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、被撮影者の視線方向が所定方向であることを判定する視線方向判定装置及び視線方向判定方法に関する。
人物の視線方向を判定する視線方向判定装置においては、検出した方向を、外界の座標系で表す必要がある。
特許文献1には、事前に特定方向を見たときの眼球の状態を検出し、その結果から、特定方向を見ているか否かを判断する視線検出装置が開示されている。特許文献1記載の装置は、ファインダ内の指標を注視し、その際の視軸と眼球軸のずれを補正する。
特許文献2には、運転中の視線方向を長時間にわたって観測し、その分布から、視線の基準方向を規定する運転状態検出装置が開示されている。特許文献2記載の装置は、時系列データから視線の基準位置を推定する。
このように、従来の視線方向判定には、2系統の手法が存在している。1つは、注視対象を指示もしくは検出し、注視状態を検出する(特許文献1記載の装置例)、いま1つは、長時間の視線の分布から視線方向の中心を規定する(特許文献2記載の装置例)である。
特開平4−242630号公報 特開2005−66023号公報
しかしながら、このような従来の視線方向判定装置にあっては、以下のような課題がある。
(1)特許文献1記載の装置では、注視対象の指示が必要であり、煩雑な作業となる。自動判定では、本当に見ているのか判定することが困難である。いずれにしても事前の計測作業が必要であることから、利便性の向上が図れない。
(2)特許文献2記載の装置では、長時間測定したときの視線の分布が本当に正面方向になるのか保証できない。また、長時間測定した後でないと、補正できない。長時間の観測が必要である上、計測した統計結果が個人差なく一定である保証はないため、計測開始直後に判定が困難であること、精度保証が困難であるという課題があった。
本発明は、かかる点に鑑みてなされたものであり、注視対象の指示及び事前の調整作業なしに、計測開始直後から判定することができ、高精度かつ正確に視線方向を判定することができる視線方向判定装置及び視線方向判定方法を提供することを目的とする。
本発明の視線方向判定装置は、両目を含む顔画像を撮像する撮像部と、前記両目の角膜を光源によって照射する照射部と、前記顔画像から、前記両目のうち、一方の目の瞳孔の
中心座標である第1座標と、他方の目の瞳孔の中心座標である第2座標とを検出する瞳孔検出部と、前記顔画像から、前記一方の目の角膜における前記光源の角膜反射像の中心座標である第3座標と、前記他方の目の角膜における前記光源の角膜反射像の中心座標である第4座標とを検出する角膜反射像検出部と、前記第1座標と前記第2座標とを結ぶ第1の線分の垂直二等分線を算出し、前記垂直二等分線に対して前記第3座標と線対称の位置座標である線対称位置座標を算出する線対称位置算出部と、前記第4座標と前記線対称位置座標との座標距離を算出し、前記座標距離と所定の閾値との比較に基づいて、前記両目の視線方向を判定する視線方向判定部と、を備える構成を採る。
本発明の視線方向判定方法は、両目を含む顔画像を撮像し、前記両目の角膜を光源によって照射し、前記顔画像から、前記両目のうち、一方の目の瞳孔の中心座標である第1座標と、他方の目の瞳孔の中心座標である第2座標とを検出し、前記顔画像から、前記一方の目の角膜における前記光源の角膜反射像の中心座標である第3座標と、前記他方の目の角膜における前記光源の角膜反射像の中心座標である第4座標とを検出し、前記第1座標と前記第2座標とを結ぶ第1の線分の垂直二等分線を算出し、前記垂直二等分線に対して前記第3座標と線対称の位置座標である線対称位置座標を算出し、前記第4座標と前記線対称位置座標との座標距離を算出し、前記座標距離と所定の閾値との比較に基づいて、前記両目の視線方向を判定する。
本発明によれば、左右の目の瞳孔の中心線に対して、前記左目又は右目の角膜反射像が線対称の位置にあることを判定し、この判定結果から特定位置の視線方向を判定することにより、視線方向判定の際に、注視対象の指示及び事前の調整作業が不要となり、利便性を向上させることができる。また、人間に共通の特徴を利用するため、判定結果の信頼性が高く、統計処理を行う手法などと比べて高精度な視線方向の判定が可能となる。同様の理由で、判定された視線方向は正確な視線方向であると保証できるため、従来例のように長時間測定する必要がない。さらに、撮像画像から直ちに判定が可能であるため、計測開始後、すぐに判定可能となる。
以上の効果に加えて、さらに以下の効果がある。
特定の注視対象を見なくても、自動的に検出した視線方向のずれを補正することが可能である。また、注視が不要であるため、処理を軽量化することができ、誤判定を防止することができる。これは、補正可能な機会が多くなることにつながる。さらに、1フレームでもカメラ方向を見ればよいので、高確率で補正可能という効果がある。
本発明の実施の形態1に係る視線方向判定装置の構成を示すブロック図 上記実施の形態1に係る視線方向判定装置の線方向判定方法を説明する図 上記実施の形態1に係る視線方向判定装置の線方向判定方法を説明する図 上記実施の形態1に係る視線方向判定装置の線方向判定方法を説明する図 上記実施の形態1に係る視線方向判定装置の視線方向判定アルゴリズムを説明する図 上記実施の形態1に係る視線方向判定装置の視線方向判定処理を示すフロー図 上記実施の形態1に係る視線方向判定装置に入力される入力画像の例を示す図 上記実施の形態1に係る視線方向判定装置で使用される画像特徴の例を示す図 本発明の実施の形態2に係る視線方向判定装置の構成を示すブロック図 上記実施の形態2に係る視線方向判定装置の視線方向判定処理を示すフロー図 本発明の実施の形態3に係る自動校正機能付き視線方向判定装置の構成を示すブロック図 上記実施の形態3に係る自動校正機能付き視線方向検出装置の動作を示すフロー図 上記実施の形態3に係る自動校正機能付き視線方向判定装置の視線方向のオフセットを自動的に補正可能なことを説明する図 本発明の実施の形態4に係る視線方向判定装置の構成を示すブロック図 上記実施の形態4に係る視線方向判定装置の照射部と撮像部の位置関係を示す図 上記実施の形態4に係る視線方向判定装置の角膜反射像と角膜投影像の位置関係を示す図 上記実施の形態4に係る警報装置部を有する視線方向判定装置の構成ブロック図
以下、本発明の実施の形態について図面を参照して詳細に説明する。
(実施の形態1)
本発明は、照明手段を備える撮像装置で取得した顔画像から、瞳、もしくは瞳孔の中心と、照明の角膜反射像を検出し、それらの線対称性から、被験者の視線方向を判定する視線方向判定装置に関する。ここに、視線方向判定とは、被験者の視線が、特定の方向を向いているか否かを判定することを表す。但し、特定方向とは必ずしも1つである必要はなく、複数の方向であってもよい。
本発明の実施の形態1では、照明手段を備えた撮像装置で取得した顔画像から、瞳、もしくは瞳孔の中心と、照明の角膜反射像を検出し、それらの線対称性から、被験者の視線方向を判定する、視線方向判定装置について記載する。
図1は、本発明の実施の形態1に係る視線方向判定装置の構成を示すブロック図である。本実施の形態は、自動車の車室内に設けられ、ドライバーの視線方向を検出して、正面を長時間向かなかった場合には警告を行う警報装置に対して、本発明の視線方向判定装置を適用した例である。
図1に示すように、視線方向判定装置100は、例えば、カーナビやテレビ、スピーカなどの情報提示機器や、運転者支援カメラや監視カメラなどの安全状態監視機器、スチールカメラやビデオカメラなどの映像記録機器、ロボットなどの生活補助機器等の、操作者や非撮影者がどこをみているのかという情報が必要となる機器に対して適用できる。
視線方向判定装置100は、画像入力部110、顔検出部120、顔部品検出部130、画像特徴検出部140、線対称位置算出部150、評価値算出部160、及び視線方向判定部170を備えて構成される。
画像入力部110は、撮像部111によって撮影した画像を、後述の顔検出部120に出力する。
画像入力部110は、車のハンドルの上やダッシュボード上など、運転席の正面に設置され、運転者の撮影可能な位置に設置された撮像部111と、運転者の顔を照射する照射部112と、撮像部111と照射部112を同期させる同期部113とを有する。
撮像部111は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconducto
r)などのイメージセンサを備えており、同期部113から入力される同期信号に合わせて、画像を取得する。
なお、撮像した顔画像は、画像横方向をX軸、画像縦方向をY軸として、1画素が1座標点であるとして、以下、説明する。
照射部112は、不可視であるが、撮像部111では感度がある近赤外線LEDを備えており、同期部113からの同期信号に合わせて発光する。
同期部113は、撮像部111の露光開始から終了までに相当する時間だけ、同期信号を撮像部111と照射部112に出力する。
顔検出部120は、画像入力部110から入力された画像から、人物の顔の画像である顔画像を検出し、顔画像を顔部品検出部130に出力する。
顔部品検出部130は、顔検出部120から入力された顔画像から、目尻、目頭、瞳中心、鼻孔、口角、眉の両端などの顔部品を検出し、各顔部品の輪郭を形成する複数の点の座標を画像特徴検出部140に出力する。
画像特徴検出部140は、顔画像から瞳孔を検出する瞳孔検出部141と、顔画像から、角膜上の照射部112の反射像を検出する角膜反射像検出部142とを有する。角膜反射像とは、プルキニエ像と呼ばれる、角膜表面の反射像を表す。
瞳孔検出部141は、画像入力部110により入力された顔画像と、顔部品検出部130により入力された顔部品座標から、左右の目の瞳孔を検出し、左右瞳孔の中心座標を線対称位置算出部150に出力する。
角膜反射像検出部142は、画像入力部110により入力された顔画像と、顔部品検出部130により入力された顔部品座標から、左右の目の、照射部112の角膜反射像を検出し、左右角膜反射像の中心座標を、線対称位置算出部150に出力する。
線対称位置算出部150は、画像特徴検出部140から入力された左右の目の瞳孔中心座標と、角膜反射像中心座標から、左右片方の目の角膜反射像中心の線対称位置を算出し、線対称位置座標と、もう一方の目の角膜反射像中心座標とをそれぞれ、評価値算出部160に出力する。線対称とは、左右瞳孔中心を端点とする線分の垂直二等分線に関して、線対称であることを表す。
評価値算出部160は、線対称位置算出部150から入力された投影座標と、画像特徴検出部140から入力された角膜反射像中心座標と線対称位置座標から、角膜反射像の線対称性を評価する線対称性評価値を算出し、視線方向判定部170に出力する。
視線方向判定部170は、評価値算出部160から入力された線対称性評価値から、左右角膜反射像の線対称性を判断し、線対称性を有する場合には、被験者の視線方向が、カメラ方向を向いていると判定、また、線対称性がない場合には、カメラ方向を向いていないと判定し、判定結果を図示しない警報装置へ出力する。図示しない警報装置は、判定結果から、長時間カメラ方向を向いていない場合には、警報を発する。この警報は、警告メッセージ含む表示、音声合成LSIによる音声メッセージ、LED発光、スピーカ等による放音、またはこれらの組み合わせである。
上記各部の機能は、マイクロコンピュータが、制御プログラムを実行して実現する。す
なわち、視線方向判定装置100は、制御部であるCPU、制御プログラムが記録されたROM、及びプログラム実行用のRAM等、撮像装置であるカメラ、表示・警報装置である表示部を有し、この制御部が視線方向判定装置100の各部の動作を制御する。図1の各部は、制御部が実行する視線方向判定処理を行うブロックとして明示したものである。
以下、上述のように構成された視線方向判定装置100の動作を説明する。
まず、本視線方向判定方法の基本的な考え方について説明する。
図2乃至図4は、視線方向判定装置100の視線方向判定方法を説明する図である。
図2Aに示すように、投光器201(図1では、照射部112)は、顔202の眼球203を照射する。カメラ206(図1では、撮像部111)は、眼球203の角膜203aに反射した角膜反射像205を取得する。図2Bに示すように、投光器201からの光照射により、眼球203の角膜203aには、角膜反射像205が現れる。
視線方向判定装置100は、顔の左右対称性を利用し、左右の目の角膜反射像205を検出する。すなわち、左右の目の角膜反射像205の位置を算出し、得られた角膜反射像位置が、左右の目で、線対称の位置にあるか否かを判定する。
図3に示すように、投光器201の角膜反射像205を左右の目で取得し、瞳孔204に対する反射像位置205の対称性から投光器201方向を見ている時を検出する。また、投光器201の角膜反射像位置の左右対称性を検証することで、カメラ206方向を見ているか否かを判定する。
具体的には、図4Aに示すように、カメラ206、投光器201方向を見ているときは、角膜反射像205の位置が、左右対称となる。また、図4Bに示すように、カメラ206・投光器201方向を見ていないときは、角膜反射像205の位置が、左右非対称となる。
次に、視線方向判定方法の詳細について説明する。
[アルゴリズム]
1.瞳孔と角膜反射像を検出
2.左右瞳孔の垂直二等分線に関して対称な位置に片方の反射像を投影
3.投影反射像ともう一方の反射像のずれを検出
4.ずれ量が閾値以下ならその時の視線方向をカメラ方向と判定
図5は、視線方向判定アルゴリズムを説明する図であり、図5Aは顔画像を示し、図5Bは顔画像と顔画像に基づいて算出された両目の瞳孔を結ぶ線分の垂直二等分線を示す。
図5Aに示すように、顔画像202から、眼球203が検出され、両目の瞳孔204及び両目の角膜反射像205が検出される。
図5Bに示すように、本アルゴリズムは、左右瞳孔の垂直二等分線211に関して対称な位置に片方の反射像を投影する。一方の眼球203に投影(投影線212参照)された他方の角膜反射像205を、角膜投影像215と呼ぶ。ここでは、右目の角膜反射像205が左目に投影されて、左目上で、左目の角膜反射像205と投影された角膜投影像215とが近接して並ぶことになる。
本アルゴリズムは、左目の角膜反射像205と投影された角膜投影像215とのずれを検出する。このずれ量が閾値以下ならその時の視線方向をカメラ方向と判定する。なお、
本アルゴリズムの実現手段については、図6の視線方向判定処理フローにより後述する。
このように、両目の角膜反射像の座標位置が、垂直二等分線211に対して線対称であるか否かを検証することによって、視線方向を判定することができる。
図6は、視線方向判定装置100の視線方向判定処理を示すフローチャートである。図7は、視線方向判定装置100に入力される顔画像を示す図である。
図6において、本プログラムの開始により、画像入力部110は、撮影作業を開始する。撮影作業の開始は、人手により行われてもよいし、外的な何らかの信号をトリガに視線方向判定装置100により行われてもよい。
ステップS1では、画像入力部110は、一定期間ごとに同期部113によって照射部112と同期の取れた撮像部111から、図7の顔画像300を取得し、この顔画像300を顔検出部120に出力する。
例えば、画像入力部110は、CMOSイメージセンサとレンズを備えたデジタルカメラと、近赤外線LEDを備えた投光器によって構成されるセンサが想定され、これにより投光器と同期して撮影されるPPM(Portable Pix Map file format)形式の画像等が、画像入力部110中に存在する画像記憶部(例えば、PCのメモリ空間)に一時記憶される。
そして、この一時記憶されている画像が、PPM形式で顔検出部120に入力される。
このとき、照射部112は、撮像部111の露光時間だけ同期して点灯する、同期パルス駆動近赤外線LED投光器である。撮像に十分な光量が得られる場合は、同期パルス駆動ではなく、常時点灯であってもよい。
ステップS2において、顔検出部120は、画像入力部110により入力された顔画像300から、顔領域301の検出処理を行う。
顔領域検出は、例えば、入力画像から特徴となる画像の抽出を行い、抽出した特徴となる画像と、あらかじめ用意した顔領域を表す特徴画像との比較し、比較した画像について類似度が高いものを検出する。
類似度は、例えば、あらかじめ取得した平均顔のガボール特徴量と、入力画像をスキャンし、抽出したガボール特徴量とを照合し、その差分の絶対値の逆数を用いる。
この場合、顔領域は、あらかじめ用意したテンプレートと比べて、図7の顔領域301の中で、最も相関の高い領域を画像中から探索される。
また、顔領域301は、画像中から肌色領域検出を行ったり、楕円検出を行ったり、統計的パターン識別手法を用いたりすることで検出してもよい。その他、上記顔検出を行うことができる技術であれば、どのような方法であってもよい。
ステップS3において、顔部品検出部130は、顔検出部120により入力された顔画像300の顔領域301を探索領域とし、口角や目尻、目頭などの顔部品群302の検出処理を行う。
顔部品群検出は、例えば、分離度フィルタを用いて、口角、目尻、目頭などの顔部品の
端点や鼻の穴などの2次元座標を検出する。
また、あらかじめ複数の顔画像と、顔画像に対応する顔部品の位置との関係を学習器に学習させ、顔画像300を学習器に入力した際に、最も尤度が高い場所を顔部品として検出してもよいし、標準的な顔部品のテンプレートを用いて顔画像300内から顔部品を探索したりしてもよい。
ステップS4において、瞳孔検出部141は、上記ステップS3で顔部品群検出によって検出された目領域の中から、図3の瞳孔303の中心座標を検出する。
顔画像において瞳孔の中心座標は、例えば、上記ステップS3で顔部品群検出によって検出された目尻、目頭を含む目領域に対して円形分離度フィルタを適用し、最も輝度の分離度が高い円の中心の座標を瞳孔の中心座標として抽出する。
このとき、Sobelフィルタなどを用いたエッジ検出や、大津の閾値決定法などを用いた輝度の二値化などによって検出した瞼を考慮し、上下瞼に挟まれた領域内のみを検出対象範囲とする。
また、目尻、目頭を含む領域において、水平、垂直方向に輝度和を取り、もっとも垂直方向に取った輝度和と水平方向に取った輝度和が小さい点を瞳孔中心としてもよい。
また、検出対象が、瞳孔ではなく、虹彩の中心や、角膜の中心であってもよい。
その他、上記瞳孔の中心座標を検出できる技術であれば、どのような検出方法を採用してもよい。
ステップS5において、角膜反射像検出部142は、上記ステップS3で顔部品群検出によって検出された目領域の中から、図7の角膜反射像304の中心座標を検出する。
角膜反射像の中心座標は、例えば、上記ステップS4で検出された瞳孔の中心の周辺領域に対して、輝度ヒストグラムを算出し、最大輝度画素の座標の重心を、角膜反射像の中心座標として検出される。また、ヒストグラムの上位数%(例えば1%)の画素の重心を取得してもよい。
このとき、最大輝度が、あらかじめ定められた閾値よりも小さい場合は、角膜反射像が存在しないと見なし、判定処理を中止し、上記ステップS1に戻る。また、最大輝度の画素数が、あらかじめ定められた閾値よりも大きい場合は、角膜反射像に照射部112以外の物体の反射が含まれていると見なし、処理を中止して上記ステップS1に戻る。
ステップS6において、線対称位置算出部150は、画像特徴検出部140から入力された瞳孔303の中心座標と、角膜反射像304の中心座標とを結んだ線分の垂直二等分線を算出し、算出された垂直二等分線に対する左右一方の角膜反射像の線対称位置の中心座標を算出する。
図8は、視線方向判定装置100で使用される画像特徴の例を示す図であり、図8Aは視線がカメラ206の方向を向いている場合の画像410を示し、図8Bは視線がカメラ206の方向を向いていない場合の画像420を示す。
図8Aにおいて、瞳孔411は図7における瞳孔303と同じであり、角膜反射像412は図7における角膜反射像304と同じである。
図8において、線対称位置算出部150は、両目の瞳孔411の中心座標を結ぶ線分の垂直二等分線414を次式(1)に従って算出する。
但し、右目瞳孔の座標を(xr,yr)、右目瞳孔の座標を(xl,yl)とする。
次に、式(1)で表される垂直二等分線直線414に関して、左右一方の目の角膜反射像304の中心座標の線対称位置を次式(2)に従って算出する。但し、式(2)は右目の角膜反射像の中心座標の線対称位置を表した式であり、線対称位置の座標は(xs,ys)で表すものとする。
但し、a,bはそれぞれ次式(3)で表されるものとする。
ステップS7において、評価値算出部160は、画像特徴検出部140から入力された角膜反射像304の中心座標と、線対称位置算出部150から入力された線対称位置から、左右角膜反射像位置の線対称性を、次式(4)で表される線対称性評価値Vとして算出する。
このとき、例えば、図8(a)の画像410で表されるように、視線がカメラ206の方向を向いている場合には、左右一方の角膜反射像の線対称位置424は、もう一方の角膜反射像と近い位置であるため、線対称性評価値Vは大きな値をとる。しかし、図8(b)の画像420で表されるように、視線がカメラ206の方向を向いていない場合には、左右一方の角膜反射像の線対称位置422は、もう一方の角膜反射像421から遠い位置であるため、線対称性評価値は小さな値をとる。
また、線対称性評価値Vは、必ずしも式(4)で表される値である必要はなく、左右一方の角膜反射像の線対称位置422と、もう一方の角膜反射像421が近いほど高い値を返す評価値であればよい。
ステップS8において、視線方向判定部170は、評価値算出部160から入力された
線対称性評価値から、視線方向が特定の方向であるか否かを判定する。例えば、線対称性評価値があらかじめ定められた閾値以上であれば、特定の方向を向いていると判定する。
また、一定時間の評価値を記録し、その平均値が閾値以上の時、特定の方向を向いていると判定してもよい。特定の方向とは、画像入力部110の方向を表す。
その他、上記視線方向判定を行うことができる技術であれば、どのような判定方法を採用してもよい。
ステップS9において、図示しない警報装置は、視線方向判定部170において視線が正面方向を向いていないと判定された場合は、正面を向いていないと判定された回数を表す警報カウントを1増加する。このとき、Nが所定の閾値を超えた場合は、長時間正面を見ていないと見なして警報を発する。
また、正面を向いていると判定された場合は、警報カウントをゼロにする。なお、警報カウントは、初期状態ではゼロである。
ステップS10において、終了判定を行う。終了判定は、人手による終了命令の入力によって行われてもよいし、外的な何らかの信号をトリガに視線方向判定装置100により行われてもよい。
終了判定の結果、終了する場合は、視線方向判定装置100の視線方向判定動作を終了する。上記ステップS10において終了しない場合は、上記ステップS1に戻る。
以上詳細に説明したように、本実施の形態の視線方向判定装置100は、左右の目の瞳孔の中心線に対して、左目又は右目の角膜反射像が線対称の位置にあることを判定する線対称位置判定部150と、線対称位置判定結果から、撮像部111又は略同じ位置の照射部112の設置位置を含む特定位置の視線方向を判定する視線方向判定部170とを備え、角膜反射像の線対称性を判定し、この線対称性から特定の視線方向を判定するので、注視対象の指示及び事前の調整作業なしに、計測開始直後から判定することができ、高精度かつ正確に視線方向を判定することができる。
従来例では、瞳孔と角膜反射像の位置関係を用いる場合、計算を片目のみで行っている。また、両目を用いる場合も、単に視線の安定化にのみ使用しており、本実施の形態のように特定方向の視線検出に利用した例はない。さらに、従来例において、特定方向の視線方向を検出しようとすると、注視対象を指示もしくは検出し、かつ長時間の検出結果の統計から推定する必要がある。これでは、精度かつ正確に視線方向を判定することができる。
これに対して、本実施の形態では、左右の目の瞳孔の中心線に対して、左目又は右目の角膜反射像が線対称の位置にあることを判定する。瞳孔や角膜反射像は、低解像度の撮影像からも安定して検出することができる特徴があり、安定して視線方向を判定することができる。また、角膜反射像の左右対称性は、個人差無く存在するので、事前の調整作業が不要であり、簡便に利用できる。さらに、1枚の画像だけでも判定が可能であるため、計測開始直後から判定可能である、一瞬だけ特定の方向を見ると言った状況でも判定が可能であるという効果も有する。
また、本実施の形態では、左右の角膜反射像の線対称性を表す評価値を算出する評価値算出160を備え、視線方向判定部170は、この評価値を基に、まず左右角膜反射像の線対称性を判断し、次に特定の視線方向を判定するので、より一層精度の良い視線方向判定が可能になる。
(実施の形態2)
図9は、本発明の実施の形態2に係る視線方向判定装置の構成を示すブロック図である。本実施の形態の説明に当たり、図1と同一構成部分には同一番号を付して重複箇所の説明を省略する。
本実施の形態は、自動車の車室内に設けられ、ドライバーの視線方向を検出して、正面を長時間向かなかった場合には警告を行う警報装置に対して、本発明の視線方向判定装置を適用した例である。
また、視線方向判定装置500は、顔がカメラと投光器の中点方向を向いている場合に、視線がカメラと投光器の中点を向いている否かを判定する場合を例に採る。
視線方向判定装置500は、画像入力部110、顔検出部120、顔部品検出部130、画像特徴検出部140、線対称位置算出部150、評価値算出部160、顔方向算出部501、及び顔視線方向判定部502を備えて構成される。
顔方向算出部501は、顔部品検出部130から入力された顔部品位置から、顔方向情報を算出し、顔視線方向判定部502に出力する。
顔視線方向判定部502は、まず、顔方向算出部501から入力された顔方向情報の水平成分がカメラと投光器の中間点を向いている場合は、処理を継続し、向いていない場合は、処理を終了する。次に、顔視線方向判定部502は、評価値算出部160から入力された線対称性評価値から、左右角膜反射像の線対称性を判断し、線対称性を有する場合には、被験者の視線方向が、カメラと投光器の中点方向を向いていると判定、また、線対称性がない場合には、カメラと投光器の中点方向を向いていないと判定し、判定結果を図示しない警報装置へ出力する。
以下、上述のように構成された視線方向判定装置500の動作を説明する。
投光器(照射部112)が、カメラ(撮像部111)に対して水平にずれている場合の動作を示す。但し、本実施の形態におけるカメラと投光器のずれは、カメラと顔との距離に対して十分小さいものとする。
図10は、視線方向判定装置500の視線方向判定処理を示すフローチャートである。図6に示すフローと同一処理を行う部分には同一ステップ番号を付して重複箇所の説明を省略する。
ステップS7において、評価値算出部160により線対称性評価値が算出されると、ステップS21に進む。
ステップS21において、顔方向算出部501は、顔部品検出部130から入力された顔部品群302から、顔方向情報を算出する。
顔方向情報は、顔部品位置が三次元で入力される場合には、例えば、左右の目尻と、口角の中点がのる平面の法線ベクトルを顔方向ベクトルとして取得する。また、顔部品位置が二次元で入力される場合には、例えば、顔部品群302の分布から、標準的な頭部3次元モデルの姿勢を推定し、左右の目尻と、口角の中点が載る平面の法線ベクトルを顔方向ベクトルとして取得する。
ステップS22において、顔視線方向判定部502は、まず、顔方向算出部501から入力された顔方向情報から、顔方向が、カメラと投光器の中点を向いているか否かを判定する。判定方法は、例えば、あらかじめ計測したカメラの中心と、投光器の中心から、カメラの中心と、投光器の中心を結ぶベクトルを算出し、顔方向ベクトルの水平成分との内積をとる。
内積の値が0の場合、顔方向が、カメラと投光器の中点を向いていると判定する。但し、内積の値は誤差を含んでいてもよく、必ずしも厳密に0でなくてもよい。このとき、顔方向が、カメラと投光器の中点を向いていると判定されなかった場合は、視線方向が特定の方向ではないと判定する。
次に、顔視線方向判定部502は、評価値算出部160から入力された線対称性評価値から、視線方向が特定の方向であるか否かを判定する。例えば、線対称性評価値があらかじめ定められた閾値以上であれば、特定の方向を向いていると判定する。また、一定時間の評価値を記録し、その平均値が閾値以上の時、特定の方向を向いていると判定してもよい。特定の方向とは、例えばカメラと投光器の中点方向を表す。
その他、上記視線方向判定を行うことができる技術であれば、どのような判定方法を採用してもよい。
このように、本実施の形態によれば、視線方向判定装置500は、顔方向情報を算出する顔方向算出部501を備え、顔視線方向判定部502は、まず、顔がカメラと投光器の中間点(一例に過ぎず任意位置でよい)を向いている場合は、実施の形態1と同様の視線方向判定処理を継続し、向いていない場合は、処理を終了する。これにより、視線方向だけではなく顔方向も判定動作に含めることができる。例えば、ドライバーの顔が正面を向いていることを検出することができる。ドライバーが正面を長時間向かなかった場合にこの情報を警報装置に出力し、警報装置が警報を発するなどの利用が可能になる。
(実施の形態3)
実施の形態3は、視線方向検出装置の検出誤差を自動的に補正する機能を有する、自動校正機能付き視線方向検出装置の適用例である。
一般に、被験者の視線方向を画像から検出する場合、目尻や目頭、眉、鼻孔などの顔部品の位置と、瞳孔の位置を用いて視線方向を算出する。このとき、顔部品が、真値からずれて検出されたり、視線方向の算出する際に必要な眼球モデルが実際の眼球の形状に対して誤差があったりするため、検出された視線方向は、実際に被験者が見ている方向とは異なり、定量的なずれが発生する。
この視線方向の真値とのずれを補正するために、計測前、もしくは計測中に校正作業が必要であるが、この作業は、頭部を固定して複数の点を注視するなど、被験者にとって煩雑で負荷が大きい。これは、校正の際に、被験者がどこを見ているのかを知る必要があるためである。
実施の形態3は、この校正作業を自動的に行えるようにする。具体的には、実施の形態1,2の視線方向検出装置100,500によって、視線がカメラ方向を向いている時を検出し、その時の視線方向検出装置100,500の検出結果と比較して、そのずれを修正する。
図11は、本発明の実施の形態3に係る自動校正機能付き視線方向判定装置の構成を示
すブロック図である。
図11に示すように、自動校正機能付き視線方向検出装置600は、視線方向判定装置100と、視線方向を顔画像から算出する視線方向算出部610と、視線方向算出部610の検出結果と真値とのずれを校正(補正)する視線検出校正部620と、校正結果のパラメータを記憶する校正パラメータ記憶部630と、視線検出の結果を出力する出力部640とを備えて構成される。
本実施の形態では、実施の形態1の視線方向判定装置100を用いているが、視線方向判定装置100に代えて、実施の形態2の視線方向判定装置500を用いてもよい。
視線方向判定装置100は、視線方向がカメラ方向を向いていることを判定し、判定結果を視線方向判定情報として取得する。また、視線方向判定装置100の画像入力部110(図1参照)は、顔画像を視線方向算出部610に出力し、視線方向判定情報を、視線検出校正部620に出力する。
視線方向算出部610は、視線方向判定装置100の画像入力部110から入力された顔画像から視線方向を算出し、視線方向情報として、視線検出校正部620へ出力する。
視線検出校正部620は、視線方向判定装置100から入力された視線方向判定情報と、視線方向算出部610から入力された視線方向情報から、校正パラメータPを算出し、校正パラメータを校正パラメータ記憶部630に入力する。また、視線検出校正部620は、視線方向算出部610から入力された視線方向情報と校正パラメータPから、校正済み視線方向情報を取得する。校正パラメータPについては、図12のフローにより後述する。
校正パラメータ記憶部630は、視線検出校正部620から入力された校正パラメータPを記憶し、視線検出校正部620を経由して視線方向算出部610に出力する。
出力部640は、視線検出校正部620から入力された校正済み視線方向情報を、音や映像、記号、文字などによって出力する。
図12は、自動校正機能付き視線方向検出装置600の動作を示すフローチャートである。
本プログラムがスタートすると、視線方向判定装置100は、撮影作業を開始する。撮影作業の開始は、人手により行われてもよいし、外的な何らかの信号をトリガに視線方向判定装置100により行われてもよい。
ステップS31において、視線方向算出部610は、視線方向を算出する。視線方向の算出は、視線方向情報を視線方向ベクトルVeとして取得する。例えば、視線検出方法は、以下の方法を採る。
a.視線方向検出は、次のように、顔部品検出部190で検出した目尻及び目頭と、瞳孔検出部141で検出した瞳孔の中心から視線方向を算出する。
b.まず、目尻及び目頭の位置から、眼球の中心位置を推定する。例えば、目尻及び目頭を結ぶ線分の法線方向に、あらかじめ定められた距離だけ進んだところに眼球中心があるとみなす。
c.また、あらかじめ、目尻及び目頭に対する眼球中心の位置を多数の被験者に対して計測し、その平均を採るなど統計的な手法を採ってもよい。
d.次に、推定した眼球中心と瞳孔中心を結ぶ直線を算出する。
e.最後に、前記直線の方向ベクトルを算出し、これを視線方向ベクトルとして取得する。
なお、上記視線方向算出を行うことができる技術であれば、どのような算出方法を採用してもよい。
ステップS32において、視線方向判定装置100は、実施の形態1に示した方法で、視線方向がカメラ方向を向いているか否かを判定する。
視線方向がカメラ方向を向いていると判定された場合は、ステップS33に移行する。
視線方向がカメラ方向を向いていないと判定された場合は、ステップS35に移行する。
ステップS33において、視線検出校正部620は、視線方向算出の校正パラメータPを算出する。校正パラメータPは、例えば、上記ステップS31で算出された視線方向ベクトルVeと、視線がカメラ方向を向いた場合の視線方向ベクトルVcとのなす角で表す。校正パラメータPは、次式(5)で算出する。
ステップS34において、校正パラメータ記憶部630は、校正パラメータPを記憶する。このとき、過去の校正パラメータPは破棄し、最も新しい校正パラメータPのみを記憶する。
ステップS35において、視線方向校正部620は、校正パラメータPから、視線方向情報を校正し、校正済み視線方向情報として取得する。校正済み視線方向情報は、本実施の形態では、校正済み視線方向ベクトルVfで表現する。視線方向情報の校正は、例えば、次式(6)により算出する。
但し、Rot(P)は、校正パラメータPに相当する角度だけ回転させる回転行列である。
ステップS36において、出力部640は、補正済み視線方向情報を出力する。
ステップS37において、終了判定を行う。終了判定は、手動で行ってもよいし、何らかの自動的なトリガによってでもよい。
終了判定の結果、終了する場合は、自動校正機能付き視線方向検出装置600の視線検出校正動作を終了する。上記ステップS37で終了しない場合は、上記ステップS31に戻る。
このように、本実施の形態によれば、視線方向の真値との定量的なずれを、リアルタイムで校正することができる。また、頭部を固定して複数の点を注視するなど、被験者にと
って煩雑で負荷のかかる作業を必要としない優れた効果がある。これにより、以下の効果を得ることができる。
(1)特定の注視対象を見なくても、自動的に補正(校正)が可能になる。このことは、注視が不要であることにつながり、処理の軽量化、誤判定防止を実現することができる。
(2)補正可能な機会を増やすことができる。1フレームでもカメラ方向を見ればよいので、高確率で補正可能な機会が拡がる。
図13は、視線方向のオフセット(真値からの定量的なずれ)を自動的に補正可能なことを説明する図である。
図13Aに示すように、従来の視線検出手法では、視線方向に真値からの定量的なずれが発生する。顔202の中心正面方向を0°とした場合、視線方向は約10°左方向にずれている。これを補正するためには、特定の場所を「いつ」見ているのか検出する必要がある。しかし解決課題で述べたようにこの補正は困難であった。本視線方向判定装置100では、投光器201の角膜反射像を左右の目で取得し、瞳孔204に対する反射像位置205の対称性から投光器方向を見ている時をリアルタイムで検出することができる。これにより、図13Bに示すように、視線方向のオフセットを自動的に補正し、高精度な視線検出を実現することが可能になる。
(実施の形態4)
図14は、本発明の実施の形態4に係る視線方向判定装置の構成を示すブロック図である。
顔画像は、画像横方向をX軸、画像縦方向をY軸として、1画素が1座標点であるとして説明する。
図14に示すように、視線方向判定装置1400は、照射部112と、撮像部1401と、瞳孔検出部1402と、角膜反射像検出部1403と、線対称位置算出部1404と、視線方向判定部1405とを備えて構成される。
照射部112は、運転者の両目の角膜を光源によって照射し、撮像部1401は、光源によって照射された両目を含む顔画像を撮像する。
照射部112は、実施の形態1において説明したとおり、光源を有する。照射部112は、撮像部1401の露光開始から終了までの間は少なくとも発光する。照射部112と、撮像部1401との位置関係については後述する。
撮像部1401は、CCDやCMOSなどのイメージセンサを備えており、両目を含む顔画像を取得する。なお、撮像部1401は、運転者の視線が車の進行方向を向いた場合において両目の瞳孔を結ぶ線分の中心点に対して、正面上方または正面下方に設置される。すなわち、運転者の視線が車の進行方向を向いている場合、運転者の視線は撮像部1401の垂直方向を向いていることになる。
瞳孔検出部1402は、撮像部1401において撮像された顔画像に基づいて瞳孔の中心座標を算出し、角膜反射像検出部1403は、撮像部1401において取得した顔画像に基づいて照射部112の有する光源の角膜における角膜反射像の中心座標を算出する。
線対称位置算出部1404は、両目の瞳孔の中心座標と両目の角膜反射像の中心座標とに基づいて、左目の瞳孔の中心座標と右目の瞳孔の中心座標とを結ぶ線分の垂直二等分線に対する、両目のうち一方の目の角膜反射像の線対称位置の座標を算出する。
視線方向判定部1405は、両目のうち他方の目の角膜反射像の中心座標と、線対称位置の座標との距離に基づいて、運転者の視線方向を判定する。
次に、図15を用いて、照射部112と撮像部1401との位置関係について説明する。
図15は、両目、照射部112、及び撮像部1401の位置関係を示す図であり、図15Aは両目、照射部112、及び撮像部1401の鳥瞰図を示し、図15Bは両目の正面図を示し、図15Cは両目、照射部112、撮像部1401の側面図を示す。なお、図15において、撮像部1401は両目を撮像できる位置であり、照射部112は両目の角膜を光源によって照射できる位置にあることが前提である。
図15に示すように、右目の瞳孔1501、左目の瞳孔1502、右目の眼球1503、左目の眼球1504とした場合、右目の瞳孔1501の中心と左目の瞳孔1502の中心とを結ぶ線分1505が示される。また、線分1505を含む平面1506、照射部112から平面1506への垂線1507、撮像部1401から平面1506への垂線1508、平面1506に含まれる線分1505の垂直二等分線1509、平面1506に対する垂線1507の足1510、平面1506に対する垂線1508の足1511とする。
図15Aに示すように、右目の瞳孔1501の中心と左目の瞳孔1502の中心とを結ぶ線分1505に対して、撮像部1401及び照射部112の向きは垂直である。
また、図15B.Cに示すように、線分1505を含む平面1506に対する撮像部1401の垂線1508の足1511と、平面1506に対する照射部112の垂線1507の足1510とを結ぶ線分1509は、線分1507の垂直二等分線である。
なお、図15Cに示すように、平面1506は右目の瞳孔1501に対して垂直であるとして説明したが、この限りではない。すなわち、平面1506は、右目の瞳孔1501と垂直な面に対して任意の角度を有している場合においても、垂線1507及び垂線1509との関係が上述の関係にあればよい。
また、図15Aに示すように、撮像部1401から線分1505への距離は、照射部112から線分1505への距離よりも近いとして説明したが、この限りではない。すなわち、鳥瞰図において、撮像部1401から線分1505への距離は、照射部112から線分1505への距離よりも遠くてもよく、同じでもよい。
また、右目の瞳孔1501の視線方向に対して、撮像部1401及び照射部112は下方に位置しているとして説明したが、撮像部1401及び照射部112の一方、若しくは両方が上方に位置していてもよい。
以上のように、照射部112は、撮像部1401から両目の瞳孔を結ぶ線分を含む平面への垂線の足と、照射部112から当該平面への垂線の足とを結ぶ線分が、両目の瞳孔を結ぶ線分と直行するように設置される。
瞳孔検出部1402は、撮像部1401において取得した顔画像から両目の瞳孔を検出
し、両目の瞳孔の中心座標を算出する。具体的には、瞳孔検出部1402は、顔画像に含まれる両目に対して円形分離度フィルタを適用することにより、最も輝度の分離度が高い円を瞳孔として検出し、顔画像における瞳孔の中心座標を算出する。
角膜反射像検出部1403は、撮像部1401において取得した顔画像から、照射部112の有する光源の角膜における角膜反射像を検出し、左右角膜反射像の中心座標を算出する。上記角膜反射像とは、角膜に光源が映った場合に角膜に生じる光源の反射像である。具体的には、角膜反射像検出部1403は、顔画像に対して輝度ヒストグラムを算出し、輝度が最大となる画素の重心を検出し、角膜反射像の中心座標として算出する。
ここで、輝度が最大となる画素の重心は、輝度が最大となる画素、又は所定の値以上の輝度を有する画素を顔画像から抽出し、当該画素の座標を重心である。上記所定の値は、輝度ヒストグラムにおいて所定の値以上の輝度を有する画素の数が、所定の数以上となるように動的に決定してもよく、又は予め定められた値でもよい。
なお、重心の算出時の座標平均は、単純平均でもよいし、輝度を重みとした重み付き平均でもよい。
線対称位置算出部1404は、瞳孔検出部1403から両目の瞳孔の中心座標を受け、角膜反射像検出部1404から両目の角膜反射像の中心座標を受ける。そして、線対称位置算出部1404は、左目の瞳孔の中心座標と右目の瞳孔の中心座標とを結ぶ線分の垂直二等分線を算出し、両目のうち一方の目の角膜反射像の垂直二等分線に対する線対称位置の座標を算出する。
図16は、角膜反射像と角膜投影像の位置関係を示す図であり、図16Aは視線が撮像部1401(図14)の垂直方向を向いた場合の顔画像における両目の正面図を示し、図16Bは視線が撮像部1401の垂直方向に対して横方向を向いた場合の顔画像における両目の正面図を示す。
図16Aに示すように、両目を含んだ顔画像1600、右目1601、左目1602、右目の角膜1603、左目の角膜1604、右目の瞳孔1605、左目の瞳孔1606、右目の角膜反射像1607、左目の角膜反射像1608、右目の瞳孔と左目の瞳孔とを結んだ線分1609、線分1609の垂直二等分線1610、角膜投影像1611とする。
図16Aに示すように、視線が撮像部1401(図14)の垂直方向を向いた場合、照射部112(図14)の光源は両目の角膜を正面から照射するため、右目の角膜反射像1607aは右目の瞳孔1605aに対して顔の内側に投影され、左目の角膜反射像1608aは左目の動向1606aに対して顔の内側に投影される。
線対称位置算出部1404は、顔画像1600aにおいて、右目の瞳孔1605aと左目の瞳孔1606aとに基づいて線分1609aを結び、線分1609aの垂直二等分線1610aを算出する。
そして、線対称位置算出部1404は、垂直二等分線1610aに対して右目の角膜反射像1607aと線対称の位置にある座標点を算出する。上記座標点を角膜投影像と定義する。
ここで、図16Aに示すように、視線が撮像部1401の垂直方向を向いた場合、照射部112の光源は両目の角膜を正面から照射するため、右目の角膜反射像1607aと左目の角膜反射像1608aとは、垂直二等分線1610aに対して線対称である。従って
、両目の角膜の形状が同一である等の条件の下においては、角膜投影像1611aと左目の角膜反射像1608aとは、同一座標となる。
なお、線対称位置算出部1404は、図16Bに示すように、視線が撮像部1401の垂直方向に対して横方向を向いた場合においても、図16Aを用いて説明した処理と同じ処理を行い、角膜等映像1611bを算出する。
ここで、図16Bに示すように、視線が撮像部1401の垂直方向の横方向を向いた場合、照射部112の光源は両目の角膜を横方向から照射するため、右目の角膜反射像1607bと左目の角膜反射像1608bとは、垂直二等分線1610bに対して線対称とはならない。したがって、角膜投影像1611bの座標点と左目の角膜反射像1608bの座標点との間には距離が生じ、視線が撮像部1401の垂直方向から外れるほど距離は大きくなる。
以上説明した視線の方向と、角膜反射像1608bと角膜投影像1611bとの距離と、の関係に基づいて、視線方向判定部1405の機能を説明する。
ここでは、垂直二等分線1610aに対して右目の角膜反射像1607aと線対称位置にある座標点を角膜等映像として算出したが、垂直二等分線1610aに対して左目の角膜反射像1608aと線対称位置にある座標点を角膜等映像として算出してもよい。この場合、後述する視線方向判定部1405において、角膜等映像の座標点と右目の角膜反射像の座標点との距離に基づいて、視線方向を判定することとなる。
視線方向判定部1405は、線対称位置算出部1404において算出された角膜投影像1611の座標点と、角膜反射像1611と同一角膜に存在する角膜反射像との距離を算出し、所定の閾値と比較することにより、視線方向を判定する。
図16で述べたように、視線が撮像部1401の垂直方向を向いている場合、一方の目の角膜投影像と他方の角膜反射像とは同一座標点、若しくは近傍の座標点に存在する。
一方、視線が撮像部1401の垂直方向に対して横方向を向いている場合、一方の目の角膜投影像と他方の角膜反射像とは離れる。
したかって、顔画像において、一方の目の角膜投影像と他方の角膜反射像との距離が、所定の距離よりも小さい場合は、視線が撮像部1401の垂直方向、若しくは垂直方向に対して近傍の横方向を向いていると判定でき、一方の目の角膜投影像と他方の角膜反射像との距離が、所定の距離よりも大きい場合は、視線が撮像部1401の垂直方向、若しくは垂直方向に対して近傍の横方向を向いていないと判定できる。
以上のような原理に基づき、視線方向判定部1405は、角膜投影像1611aの座標点と角膜反射像1608aの座標店との距離を算出し、所定の閾値と比較することによって、視線方向を判定する。
所定の閾値は、角膜形状を含む顔部品に起因するため、運転者の個性に合わせて設定される必要がある。
以上の説明においては、角膜投影像1611aの座標点と角膜反射像1608aの座標点との距離を視線方向判定部1405において算出することにより、視線方向を判定したが、実施の形態1において説明したように、評価値算出部を設けてもよい。
なお、実施の形態1において説明したとおり、図17に示すように、警報装置部1701を更に有する構成としてもよい。図17は、警報装置部1701を有する視線方向判定装置1700の構成を示すブロック図である。警報装置部1701は、視線が正面方向を向いていないと判定された場合、正面を向いていないと判定された回数を表す警報カウントNが所定の閾値を超えた場合は、長時間正面を見ていないと見なして警報を発する。
以上の説明は本発明の好適な実施の形態の例証であり、本発明の範囲はこれに限定されることはない。本実施の形態では、自動車の車室内に設けられ、ドライバーの視線方向を検出して、正面を長時間向かなかった場合には警告を行う警報装置について説明したが、視線方向を判定する視線方向判定装置を有する電子機器であればどのような装置にも適用できる。
例えば、テレビ、スピーカなどの情報提示機器や、監視カメラなどの安全状態監視機器、スチールカメラやビデオカメラなどの映像記録機器、ロボットなどの生活補助機器、TVゲームや体感ゲームなどの遊戯機器などに適用することも考え得る。上記機器に適用することで、従来の技術のように、個人ごとに校正をあらかじめ行ったりする必要がなく、かつ安定して視線方向の判定を行うことができるという効果を有する。
その場合、上記各実施の形態の警報装置は、入力画像を記録するための映像記録手段や、ロボットがユーザ又はロボットなどの状況を把握するための周辺情報把握手段、ゲームの状態を変化させるための状態更新手段などに置き換えることで、実現することができる。
また、上記各実施の形態における線対称位置算出方法は一例に過ぎず、様々な算出方法で代替可能である。また、線対称性評価値算出方法も他の算出方法を採ってもよい。但し、本発明者らの実験等によれば、線対称位置に対応する目の角膜反射像の中心との距離を基に、評価値を算出する本方法によると良好な結果が得られた。
また、本実施の形態では、視線方向判定装置及び視線方向判定方法という名称を用いたが、これは説明の便宜上であり、装置は視線検出装置、方法は視線方向検出方法等であってもよい。
さらに、上記視線方向判定装置を構成する各構成部、例えば顔検出部の種類、その顔部品検出方法など、さらには画像特徴検出部の種類などは前述した実施の形態に限られない。
以上説明した視線方向判定装置は、この視線方向判定装置の視線方向判定方法を機能させるためのプログラムでも実現される。このプログラムはコンピュータで読み取り可能な記録媒体に格納されている。
2008年9月26日出願の特願2008−248877の日本出願に含まれる明細書、図面及び要約書の開示内容は、すべて本願に援用される。
本発明に係る視線方向判定装置及び視線方向判定方法は、パーソナルコンピュータ、OA機器、携帯電話などの情報端末や、自動車、飛行機、船、電車などの移動手段に搭載される情報提供装置として有用である。また、監視、警報装置や、ロボット、映像音響再生装置などの用途にも応用することができる。
100,500,1400,1700 視線方向判定装置
110 画像入力部
111 撮像部
112 照射部
113 同期部
120 顔検出部
130 顔部品検出部
140 画像特徴検出部
141 瞳孔検出部
142 角膜反射像検出部
150 線対称位置算出部
160 評価値算出部
170 視線方向判定部
501 顔方向算出部
502 顔視線方向判定部
600 自動校正機能付き視線方向検出装置
610 視線方向算出部
620 視線検出校正部
630 校正パラメータ記憶部
640 出力部
1400 視線方向判定装置
1401 撮像部
1402 瞳孔検出部
1403 角膜反射像検出部
1404 線対称位置算出部
1405 視線方向判定部
1501 右目の瞳孔
1502 左目の瞳孔
1503 右目の眼球
1504 左目の眼球
1505 右目の瞳孔の中心と左目の瞳孔の中心とを結ぶ線分
1506 平面
1507 垂線
1508 垂線
1509 垂直二等分線
1510 垂線の足
1511 垂線の足
1600 顔画像
1601 右目
1602 左目
1603 右目の角膜
1604 左目の角膜
1605 右目の瞳孔
1606 左目の瞳孔
1607 右目の角膜反射像
1608 左目の角膜反射像
1609 線分
1610 垂直二等分線
1611 角膜投影像 1700 視線方向判定装置
1701 警報装置部

Claims (7)

  1. 両目を含む顔画像を撮像する撮像部と、
    前記両目の角膜を光源によって照射する照射部と、
    前記顔画像から、前記両目のうち、一方の目の瞳孔の中心座標である第1座標と、他方の目の瞳孔の中心座標である第2座標とを検出する瞳孔検出部と、
    前記顔画像から、前記一方の目の角膜における前記光源の角膜反射像の中心座標である第3座標と、前記他方の目の角膜における前記光源の角膜反射像の中心座標である第4座標とを検出する角膜反射像検出部と、
    前記第1座標と前記第2座標とを結ぶ第1の線分の垂直二等分線を算出し、前記垂直二等分線に対して前記第3座標と線対称の位置座標である線対称位置座標を算出する線対称位置算出部と、
    前記第4座標と前記線対称位置座標との座標距離を算出し、前記座標距離と所定の閾値との比較に基づいて、前記両目の視線方向を判定する視線方向判定部と、
    を備える視線方向判定装置。
  2. 前記撮像部から前記第1の線分を含む平面への垂線の足と、前記照射部から前記平面への垂線の足とを結ぶ第2の線分が、前記第1の線分と直行する請求項1記載の視差方向判定装置。
  3. 警報装置を更に有し、
    前記警報装置は、前記視線方向判定部における判定結果を受け、前記視線方向が特定の方向ではないという判定結果を受けた回数をカウントし、前記カウント数が所定の回数を超えた場合は警告を発する請求項1記載の視線方向判定装置。
  4. 前記警報装置は、前記視線方向が前記特定の方向であるという判定結果を受けた場合、前記カウント数をゼロにする請求項3記載の視線方向判定装置。
  5. 前記顔画像に基づいて顔方向を判定する顔方向算出部と、
    前記顔方向算出部において前記顔方向が前記特定の方向であると判定された場合は、前記座標距離と前記所定の閾値とに基づいて、視線方向を判定する顔視線方向判定部を更に有し、
    前記視線方向判断部は、顔の方向をパラメータにして、視線方向を判定する請求項1記載の視線方向判定装置。
  6. 前記撮像部において取得した前記顔画像から視線方向情報を算出する視線方向算出部と、
    前記視線方向判定部における判定結果と、前記視線方向算出情報とに基づいて、前記視線方向のずれ値を算出し、前記ずれ値に基づいて視線方向を校正する校正部と、
    を備える請求項1記載の視線方向判定装置。
  7. 両目を含む顔画像を撮像し、
    前記両目の角膜を光源によって照射し、
    前記顔画像から、前記両目のうち、一方の目の瞳孔の中心座標である第1座標と、他方の目の瞳孔の中心座標である第2座標とを検出し、
    前記顔画像から、前記一方の目の角膜における前記光源の角膜反射像の中心座標である第3座標と、前記他方の目の角膜における前記光源の角膜反射像の中心座標である第4座標とを検出し、
    前記第1座標と前記第2座標とを結ぶ第1の線分の垂直二等分線を算出し、前記垂直二等分線に対して前記第3座標と線対称の位置座標である線対称位置座標を算出し、
    前記第4座標と前記線対称位置座標との座標距離を算出し、前記座標距離と所定の閾値との比較に基づいて、前記両目の視線方向を判定する視線方向判定方法。
JP2010530731A 2008-09-26 2009-09-25 視線方向判定装置及び視線方向判定方法 Active JP5230748B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010530731A JP5230748B2 (ja) 2008-09-26 2009-09-25 視線方向判定装置及び視線方向判定方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008248877 2008-09-26
JP2008248877 2008-09-26
PCT/JP2009/004853 WO2010035472A1 (ja) 2008-09-26 2009-09-25 視線方向判定装置及び視線方向判定方法
JP2010530731A JP5230748B2 (ja) 2008-09-26 2009-09-25 視線方向判定装置及び視線方向判定方法

Publications (2)

Publication Number Publication Date
JPWO2010035472A1 JPWO2010035472A1 (ja) 2012-02-16
JP5230748B2 true JP5230748B2 (ja) 2013-07-10

Family

ID=42059485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010530731A Active JP5230748B2 (ja) 2008-09-26 2009-09-25 視線方向判定装置及び視線方向判定方法

Country Status (5)

Country Link
US (2) US8538044B2 (ja)
EP (1) EP2338416B1 (ja)
JP (1) JP5230748B2 (ja)
CN (1) CN102149325B (ja)
WO (1) WO2010035472A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
US10757337B2 (en) 2016-05-10 2020-08-25 Sony Corporation Information processing apparatus and information processing method to control exposure for imaging the eye

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5634111B2 (ja) * 2010-04-28 2014-12-03 キヤノン株式会社 映像編集装置、映像編集方法及びプログラム
JP5387763B2 (ja) * 2010-05-25 2014-01-15 富士通株式会社 映像処理装置、映像処理方法及び映像処理プログラム
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
JP5618686B2 (ja) * 2010-08-03 2014-11-05 キヤノン株式会社 視線検出装置、視線検出方法及びプログラム
US9329683B2 (en) * 2010-12-08 2016-05-03 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
JP5714951B2 (ja) * 2011-03-22 2015-05-07 パナソニック株式会社 両眼瞳孔検査装置
IL215883A0 (en) * 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
CN104094197B (zh) * 2012-02-06 2018-05-11 索尼爱立信移动通讯股份有限公司 利用投影仪的注视追踪
US9148537B1 (en) * 2012-05-18 2015-09-29 hopTo Inc. Facial cues as commands
US9395826B1 (en) 2012-05-25 2016-07-19 hopTo Inc. System for and method of translating motion-based user input between a client device and an application host computer
CN103054548A (zh) * 2012-07-05 2013-04-24 东北电力大学 凝视点测量装置及瞳孔、普尔钦亮斑识别方法
JP2014048936A (ja) * 2012-08-31 2014-03-17 Omron Corp ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US8937552B1 (en) * 2013-01-02 2015-01-20 The Boeing Company Heads down warning system
US9730655B2 (en) * 2013-01-21 2017-08-15 Tracy J. Stark Method for improved detection of nodules in medical images
JP6157165B2 (ja) * 2013-03-22 2017-07-05 キヤノン株式会社 視線検出装置及び撮像装置
KR102037417B1 (ko) * 2013-08-13 2019-10-28 삼성전자주식회사 홍채 영상 촬영 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 홍채 영상 촬영 장치
WO2015064080A1 (ja) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
CN103594003B (zh) * 2013-11-13 2015-11-25 安徽三联交通应用技术股份有限公司 一种用于驾驶人的远程监控与异常预警的方法
US9189692B2 (en) * 2014-02-14 2015-11-17 GM Global Technology Operations LLC Methods and systems for detecting driver attention to objects
TWI577327B (zh) 2014-08-14 2017-04-11 由田新技股份有限公司 瞳孔定位方法與裝置及其電腦程式產品
KR101610496B1 (ko) * 2014-08-26 2016-04-07 현대자동차주식회사 시선 추적 방법 및 장치
KR20160025316A (ko) * 2014-08-27 2016-03-08 현대자동차주식회사 동공 검출 시스템 및 그 방법
JP6346525B2 (ja) * 2014-08-29 2018-06-20 アルプス電気株式会社 視線検出装置
JP2016106668A (ja) * 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN107003752B (zh) 2014-12-17 2020-04-10 索尼公司 信息处理装置、信息处理方法以及程序
JP2015159550A (ja) * 2015-03-19 2015-09-03 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP2017063995A (ja) * 2015-09-29 2017-04-06 株式会社トプコン 眼科装置
CN105704369B (zh) * 2016-01-20 2019-02-15 努比亚技术有限公司 一种信息处理方法及装置、电子设备
CN105913487B (zh) * 2016-04-09 2018-07-06 北京航空航天大学 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法
CN106123819B (zh) * 2016-06-29 2018-07-24 华中科技大学 一种注意力焦点测量方法
US9875398B1 (en) * 2016-06-30 2018-01-23 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition with two-dimensional sensing modality
CN110167823B (zh) * 2016-07-01 2022-08-12 视力移动技术有限公司 用于驾驶员监测的系统和方法
JP6737057B2 (ja) * 2016-08-10 2020-08-05 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
JP6800091B2 (ja) * 2017-06-09 2020-12-16 株式会社豊田中央研究所 視線計測装置及びプログラム
CN107323338B (zh) * 2017-07-03 2020-04-03 北京汽车研究总院有限公司 车用转向灯控制系统、控制方法及车辆
JP6953247B2 (ja) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 ゴーグル型表示装置、視線検出方法及び視線検出システム
JP7180067B2 (ja) * 2017-11-06 2022-11-30 日本電気株式会社 運転支援装置
EP3480729B1 (en) * 2017-11-07 2023-03-01 Tata Consultancy Services Limited System and method for face position tracking and alerting user
KR102460665B1 (ko) * 2017-12-14 2022-10-31 삼성전자주식회사 응시 거리를 결정하는 방법 및 디바이스
JP6717330B2 (ja) 2018-03-15 2020-07-01 オムロン株式会社 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
US12076087B2 (en) * 2018-03-29 2024-09-03 Sony Corporation Information processing apparatus and information processing method
CN108891414A (zh) * 2018-05-22 2018-11-27 通化市聚诚网络科技有限公司 一种车道变换辅助方法及装置
KR102115150B1 (ko) * 2018-05-29 2020-06-08 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
JP7180228B2 (ja) * 2018-09-20 2022-11-30 いすゞ自動車株式会社 車両用監視装置
WO2020065790A1 (ja) * 2018-09-26 2020-04-02 日本電気株式会社 推定装置、推定方法、および記憶媒体
US11348370B2 (en) * 2018-10-16 2022-05-31 Nec Corporation Iris authentication device, iris authentication method, and recording medium
JP7173836B2 (ja) * 2018-11-05 2022-11-16 京セラ株式会社 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
JP7192570B2 (ja) * 2019-02-27 2022-12-20 株式会社Jvcケンウッド 記録再生装置、記録再生方法およびプログラム
WO2020183732A1 (ja) * 2019-03-14 2020-09-17 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法及び記録媒体
TWI725441B (zh) * 2019-05-15 2021-04-21 劉恩銓 生物訊號檢測分析方法
CN110363133B (zh) * 2019-07-10 2021-06-01 广州市百果园信息技术有限公司 一种视线检测和视频处理的方法、装置、设备和存储介质
US20230043992A1 (en) * 2020-01-08 2023-02-09 Mitsubishi Electric Corporation Pupil detection device, line-of-sight detection device, occupant monitoring system, and pupil detection method
WO2021171395A1 (ja) * 2020-02-26 2021-09-02 三菱電機株式会社 瞳孔位置検出装置、視線検出装置、及び瞳孔位置検出方法
WO2021171396A1 (ja) * 2020-02-26 2021-09-02 三菱電機株式会社 瞳孔位置検出装置、視線検出装置、及び瞳孔位置検出方法
JP7538647B2 (ja) 2020-07-27 2024-08-22 キヤノン株式会社 視線位置処理装置、撮像装置、学習装置、視線位置処理方法、学習方法、及びプログラム
KR102497805B1 (ko) * 2020-07-31 2023-02-10 주식회사 펫타버스 인공지능 기반 반려동물 신원확인 시스템 및 방법
CN111860440B (zh) * 2020-07-31 2024-08-06 广州繁星互娱信息科技有限公司 人脸特征点的位置调整方法、装置、终端及存储介质
CN112270283A (zh) * 2020-11-04 2021-01-26 北京百度网讯科技有限公司 异常驾驶行为确定方法、装置、设备、车辆和介质
CN112541400B (zh) * 2020-11-20 2024-06-21 小米科技(武汉)有限公司 基于视线估计的行为识别方法及装置、电子设备、存储介质
CN113116292B (zh) * 2021-04-22 2023-07-11 上海交通大学医学院附属第九人民医院 基于眼部外观图像的眼位测量方法、装置、终端和设备
EP4250064A4 (en) * 2021-06-29 2024-04-24 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE FOR ERROR CORRECTION DURING GAZE DIRECTION DETECTION AND OPERATING METHOD FOR AN ELECTRONIC DEVICE

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH024313A (ja) * 1988-06-13 1990-01-09 Nippon Telegr & Teleph Corp <Ntt> 注視位置検出装置
JP2002119478A (ja) * 2000-10-19 2002-04-23 Canon Inc 視線検出機能付き装置
WO2008007781A1 (fr) * 2006-07-14 2008-01-17 Panasonic Corporation Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3186072B2 (ja) 1991-01-08 2001-07-11 キヤノン株式会社 視線検出装置を有する機器
JPH08297019A (ja) * 1995-04-27 1996-11-12 Nissan Motor Co Ltd 車両用視線方向計測装置
US5926655A (en) * 1995-08-15 1999-07-20 Canon Kabushiki Kaisha Line of sight detection device and an apparatus having a line of sight detection device
JP2005066023A (ja) 2003-08-25 2005-03-17 Nissan Motor Co Ltd 運転者状態検出装置
JP4376685B2 (ja) * 2004-04-16 2009-12-02 本田技研工業株式会社 視線検出装置
US7580545B2 (en) * 2005-10-03 2009-08-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for determining gaze direction in a pupil detection system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH024313A (ja) * 1988-06-13 1990-01-09 Nippon Telegr & Teleph Corp <Ntt> 注視位置検出装置
JP2002119478A (ja) * 2000-10-19 2002-04-23 Canon Inc 視線検出機能付き装置
WO2008007781A1 (fr) * 2006-07-14 2008-01-17 Panasonic Corporation Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
US10757337B2 (en) 2016-05-10 2020-08-25 Sony Corporation Information processing apparatus and information processing method to control exposure for imaging the eye

Also Published As

Publication number Publication date
EP2338416A4 (en) 2018-02-14
EP2338416A1 (en) 2011-06-29
US8538044B2 (en) 2013-09-17
US20110249868A1 (en) 2011-10-13
WO2010035472A1 (ja) 2010-04-01
CN102149325A (zh) 2011-08-10
US20140043459A1 (en) 2014-02-13
EP2338416B1 (en) 2019-02-27
CN102149325B (zh) 2013-01-02
JPWO2010035472A1 (ja) 2012-02-16

Similar Documents

Publication Publication Date Title
JP5230748B2 (ja) 視線方向判定装置及び視線方向判定方法
JP5137833B2 (ja) 視線方向検出装置および視線方向検出方法
US10521683B2 (en) Glare reduction
JP4926437B2 (ja) 車両の運転支援装置
WO2015064080A1 (ja) 視線方向検出装置および視線方向検出方法
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
US11455810B2 (en) Driver attention state estimation
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JP2018154153A (ja) 車両の表示システム及び車両の表示システムの制御方法
WO2018051681A1 (ja) 視線計測装置
US10997861B2 (en) Luminance control device, luminance control system, and luminance control method
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP6669182B2 (ja) 乗員監視装置
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
JP2018101212A (ja) 車載器および顔正面度算出方法
JP7046347B2 (ja) 画像処理装置及び画像処理方法
JP6906943B2 (ja) 車載器
JP6572841B2 (ja) 情報処理装置及びプログラム
JP2017138645A (ja) 視線検出装置
US10572730B2 (en) Visual line measuring device and visual line measuring method
JP4118773B2 (ja) 視線方向検出装置及び視線方向検出方法
JP2015206764A (ja) 対象者存在範囲推定装置及び対象者存在範囲推定方法
JP2024120464A (ja) 瞳孔検出装置及び瞳孔検出方法
JP2024015666A (ja) 視線推定装置、視線推定用コンピュータプログラム及び視線推定方法
JP2021133801A (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5230748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350