JPWO2016031666A1 - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
JPWO2016031666A1
JPWO2016031666A1 JP2016545466A JP2016545466A JPWO2016031666A1 JP WO2016031666 A1 JPWO2016031666 A1 JP WO2016031666A1 JP 2016545466 A JP2016545466 A JP 2016545466A JP 2016545466 A JP2016545466 A JP 2016545466A JP WO2016031666 A1 JPWO2016031666 A1 JP WO2016031666A1
Authority
JP
Japan
Prior art keywords
image
camera
image acquisition
light source
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016545466A
Other languages
English (en)
Other versions
JP6381654B2 (ja
Inventor
河内 隆宏
隆宏 河内
山下 龍麿
龍麿 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Publication of JPWO2016031666A1 publication Critical patent/JPWO2016031666A1/ja
Application granted granted Critical
Publication of JP6381654B2 publication Critical patent/JP6381654B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Dentistry (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

1度の検知光照射によって明瞳孔像と暗瞳孔像の生成のための画像を取得し、これによって、視線検出の処理の高速化を実現する視線検出装置を提供する。画像取得部は、光軸が互いに略同軸とならない所定距離だけ離間されるように配置された複数のカメラから画像を取得し、複数の光源は、複数のカメラのいずれかに対して、光軸が略同軸となるようにそれぞれ配置され、複数の光源のうちの1つの第1光源から与えた検知光についての第1画像取得として、第1光源と略同軸のカメラで明瞳孔画像を抽出するための画像を取得し、第1光源と略同軸とならないカメラで暗瞳孔画像を抽出するための画像を取得する。【選択図】図1

Description

本発明は、車の運転者その他の対象者の視線方向を検出可能な視線検出装置に関する。
特許文献1に記載の注視点検出方法は、2台以上のカメラと、これらのカメラの開口部外側に設けた光源とを用いて、対象者の顔画像を明瞳孔画像及び暗瞳孔画像として生成し、これらの画像に基づいて、カメラと瞳孔を結ぶ基準線に垂直な平面上における対象者の角膜反射点から瞳孔までのベクトルを計算し、このベクトルをもとに各カメラの基準線に対する対象者の視線の方向を所定の関数を用いて計算する。さらに、各カメラに対応して計算した視線の方向が近くなるように前記関数を補正し、補正された関数を用いて視線の方向を計算して視線の所定の平面上の交点を求めることによって対象者の所定平面上の注視点を検出することができる。
特許文献1に記載の注視点検出方法においては、前記光源として、互いに異なる波長の光を出力する発光素子が設けられており、これらの発光素子を交互に発光させることによって、一方の発光素子によって対象者の目に照明光が照射されたときに明瞳孔像を生成し、他方の発光素子によって照明光が照射されたときに暗瞳孔像を生成する。
国際公開2012/020760号公報
しかしながら、特許文献1に記載の注視点検出方法においては、明瞳孔像と暗瞳孔像を生成するために2回の照明光の照射が必要となるため、瞳孔像の取得に時間を要し、ひいては、これらの瞳孔像を用いて行う、注視点や視線の検出処理の高速化を困難にしていた。
そこで本発明は、1回の検知光照射によって明瞳孔像と暗瞳孔像の生成のための画像を取得することができ、視線検出の処理の高速化を実現できる視線検出装置を提供することを目的とする。
上記課題を解決するために、本発明は、離れて配置されてそれぞれが少なくとも目を含む領域の画像を取得する第1カメラならびに第2カメラと、前記第1カメラに接近して配置された第1光源と、前記第2カメラに接近して配置された第2光源と、それぞれのカメラで取得した明瞳孔画像と暗瞳孔画像とから瞳孔画像を抽出する瞳孔画像抽出部とを有する視線検出装置において、
前記第1光源を点灯させて前記第1カメラで明瞳孔画像を取得し前記第2カメラで暗瞳孔画像を取得する第1画像取得と、前記第2光源を点灯させて前記第2カメラで明瞳孔画像を取得し前記第1カメラで暗瞳孔画像を取得する第2画像取得と、が行われることを特徴とするものである。
本発明の視線検出装置は、前記暗瞳孔画像から角膜反射光を検出する角膜反射光中心検出部と、前記瞳孔画像と前記角膜反射光とから前記対象者の視線方向を算出する視線方向算出部とを有するものとすることが可能である。
本発明の視線検出装置は、第1光源と第2光源の一方が発光しているときに明瞳孔画像と暗瞳孔画像を取得することができ、視線検出処理を高速に行うことが可能となる。
本発明の視線検出装置では、前記第1光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得し、前記第2光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得することが好ましい。
明瞳孔画像を抽出するための画像の取得と暗瞳孔画像を抽出するための画像の取得を同時に行うことにより、2つのカメラで明瞳孔画像と暗瞳孔画像を取得するための周期を短くすることができ、視線検出処理をさらに高速に行うことができる。
なお、本発明では、第1光源が点灯している期間に、第1カメラによる画像取得と第2カメラによる画像取得とが、重複しないように交互に行われ、第2光源が点灯している期間にも、第1カメラによる画像取得と第2カメラによる画像取得とが、重複しないように交互に行われてもよい。
本発明は、第1画像取得と第2画像取得とが交互に行われることが好ましい。
この場合に、前記第1画像取得で得られた画像の明るさをモニターし、その次の第1画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられていることが好ましい。
また、前記第2画像取得で得られた画像の明るさをモニターし、その次の第2画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられていることが好ましい。
例えば、本発明は、第1画像取得で得られた画像の明るさと、第2画像取得で得られた画像の明るさと比較する画像比較部と、前記画像比較部による比較結果に応じて、第1画像取得と第2画像取得の少なくとも一方において前記露光条件を制御する前記露光制御部とが設けられているものとなる。
この場合に、前記画像比較部では、第1画像取得で得られた明瞳孔画像となる画像の明るさと、前記第2の画像取得で得られた暗瞳孔画像となる画像との明るさが比較される。
また、前記画像比較部では、第1画像取得で得られた暗瞳孔画像となる画像の明るさと、前記第2の画像取得で得られた明瞳孔画像となる画像の明るさとが比較される。
あるいは、前記画像比較部では、前記第1画像取得、または、前記第2画像取得で得られた画像とターゲット値とが比較される。
上記発明では、複数の光源の輝度等の違いに起因する、取得画像の明るさのばらつきを抑えることができるため、一定の画質の明瞳孔画像と暗瞳孔画像を得ることができ、これにより高精度の視線検出が可能となる。
本発明の視線検出装置は、前記露光条件は、前記光源の発光時間及び発光強度、並びに、前記カメラによる画像取得時間、ゲインのうちの少なくとも一つであることが好ましい。
本発明の視線検出装置において、前記露光条件が前記カメラによる画像取得時間を含んでおり、第1画像取得と第2画像取得の少なくとも一方において、前記第1カメラによる画像取得時間と前記第2カメラによる画像取得時間のうちの長い方の時間に合わせて光源の発光時間を制御することが好ましい。
これにより、明瞳孔画像と暗瞳孔画像のための画像の取得について複雑な制御が不要となる。
本発明によると、第1光源と第2光源の一方を点灯している期間に、明瞳孔像と暗瞳孔像の生成のための画像を取得することができるため、視線検出の処理の高速化を実現することが可能となる。
また、本発明によると、光源の輝度の変動などに起因する、取得画像の明るさのばらつきを抑えることができるため、一定の画質の明瞳孔画像と暗瞳孔画像を得ることができ、これにより高精度の視線検出が可能となる。
本発明の実施形態に係る視線検出装置の構成を示す正面図である。 本発明の実施形態に係る視線検出装置の構成を示すブロック図である。 人の目の視線の向きとカメラとの関係を示す平面図である。 瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。 本発明の実施形態の視線検出装置における画像取得のタイミングを示すチャートである。 光源の発光とカメラによる画像取得のタイミングを示すチャートである。
以下、本発明の実施形態に係る視線検出装置について図面を参照しつつ詳しく説明する。
<視線検出装置の構造>
図1は、本実施形態の視線検出装置の構成を示す正面図、図2は、本実施形態の視線検出装置の構成を示すブロック図、図3は、人の目の視線の向きとカメラとの関係を示す平面図、図4は、瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。
本実施形態の視線検出装置は、図2に示すように、2つの受像装置10、20と、演算制御部CCとを備え、自動車の車室内の、例えばインストルメントパネルやウインドシールドの上部などに、対象者としての運転者の顔に向けるように設置される。
図1と図3に示すように、2つの受像装置10、20は所定距離L10だけ離間して配置されて、それぞれが備えるカメラ12、22の光軸13C、23Cが運転者などの目50に向けられている。カメラ12、22は、CMOS(相補型金属酸化膜半導体)やCCD(電荷結合素子)などの撮像素子を有しており、運転者の目を含む顔の画像を取得する。撮像素子では、二次元的に配列された複数の画素で光が検出される。
図1と図2に示すように、受像装置10は、第1光源11と第1カメラ12とを備え、第1光源11は、12個のLED(発光ダイオード)光源111からなる。これらのLED光源111は、カメラ12のレンズ12Lの外側において、それらの光軸111Cとカメラ12の光軸12Cとが距離L11だけ離れて円状になるように配置されている。受像装置20は、第2光源21と第2カメラ22とを備え、第2光源21は、12個のLED光源211からなる。これらのLED光源211は、第2カメラ22のレンズ22Lの外側において、それらの光軸211Cと第2カメラ22の光軸22Cとが距離L21だけ離れて円状になるように配置されている。
第1カメラ12と第2カメラ22においては、光源11、21が射出する検知光の波長に合わせたバンドパスフィルタを配置していることが好ましい。これにより、検知光以外の波長の光の入射を抑えることができるため、画像比較部33における画像の明るさの比較や、瞳孔画像抽出部40における瞳孔画像の抽出や、視線方向算出部45における視線方向の算出を精度良く行うことができる。
第1光源11のLED光源111、及び、第2光源21のLED光源211は、検知光として、例えば波長が850nmの赤外光(近赤外光)を出射し、この検知光を対象者の目に与えることができるように配置されている。ここで、850nmは、人の目の眼球内で光吸収率の低い波長であり、この波長の光は眼球の奥の網膜で反射されやすい。
第1カメラ12とLED光源111の光軸間距離L11は、視線検出装置と対象者としての運転者との距離を考慮して、第1カメラ12と第2カメラ22の光軸間距離L10に対して十分に短いため、第1光源11は第1カメラ12に対して互いの光軸が略同軸であるとみなすことができる。同様に、第2カメラ22とLED光源211の光軸間距離L21は、第1カメラ12と第2カメラ22の光軸間距離L10に対して十分に短いため、第2光源21は第2カメラ22に対して互いの光軸が略同軸であるとみなすことができる。なお、光軸間距離L10は、例えば人の両目の間隔とほぼ一致する寸法に設定されている。
これに対して、第1カメラ12と第2カメラ22の光軸間距離L10は十分に長いために、第1光源11及び第1カメラ12の各光軸と、第2光源21及び第2カメラ22の各光軸とは、互いに同軸ではない。以下の説明において、上記状態に関し、2つの部材が略同軸である等と表現し、2つの部材が非同軸である等と表現することがある。
演算制御部CCは、コンピュータのCPUやメモリで構成されており、図2に示す各ブロックの機能は、予めインストールされたソフトウエアを実行することで演算が行われる。
図2に示す演算制御部CCには、光源制御部31、32と、画像比較部33と、画像取得部34、35と、露光制御部36と、瞳孔画像抽出部40と、瞳孔中心算出部43と、角膜反射光中心検出部44と、視線方向算出部45とが設けられている。
光源制御部31及び光源制御部32は、露光制御部36からの指示信号にしたがって、第1光源11及び第2光源21の点灯・非点灯をそれぞれ制御する。カメラ12、22で取得された画像は、フレームごとに画像取得部34、35にそれぞれ取得される。
画像比較部33は、画像取得部34、35で取得された画像、すなわち、明瞳孔画像又は暗瞳孔画像を抽出するための画像について、第1画像取得において取得した画像の明るさと、第2画像取得において取得した画像の明るさと、を互いに比較する。
ここで、第1画像取得とは、第1光源11から検知光を与えたときに第1カメラ12及び第2カメラ22から同時又は略同時に画像をそれぞれ取得する行程を意味し、第2画像取得とは、第2光源21から検知光を与えたときに第1カメラ12及び第2カメラ22から同時又は略同時に画像をそれぞれ取得する行程を意味する。なお、第2光源から検知光を与えるときが第1画像取得で、第1光源から検知光を与えるときが第2画像取得であってもよい。
画像比較部36では、第1画像取得において、明瞳孔画像を得るために第1カメラ12で取得された画像と、第2画像取得において、暗瞳孔画像を得るために第1カメラ12で取得された画像との明るさが比較される。また、第1画像取得において、暗瞳孔画像を得るために第2カメラ22で取得された画像と、第2画像取得において、明瞳孔画像を得るために第2カメラ22で取得された画像との明るさが比較される。この比較結果を露光制御部36に与えることにより、第1画像取得と第2画像取得において、第1カメラ12で得られる明瞳孔画像と暗瞳孔画像との明るさの差(瞳孔部以外の顔画像の明るさの差)を無くしまたは少なくでき、また第2カメラ22で得られる暗瞳孔画像と明瞳孔画像との明るさの差(瞳孔部以外の顔画像の明るさの差)を無くしまたは少なくできる。
また、他の実施の形態での画像比較部36の動作として、第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像と、次の第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像とで明るさを比較し、第1画像取得において、第2カメラ12で取得された暗瞳孔画像を得るための画像と、次の第1画像取得において、第2カメラ12で取得された暗瞳孔画像を得るための画像とで明るさを比較してもよい。
同様に、第2画像取得と、その次の第2画像取得とで、明瞳孔画像を得るための画像どうしで明るさを比較し、第2画像取得と、その次の第2画像取得とで、暗瞳孔画像を得るための画像どうしで明るさを比較してもよい。この比較結果を露光制御部36に与えることにより、第1画像取得と第2画像取得において、明るさのばらつきの少ない明瞳孔画像と暗瞳孔画像を得ることができるようになる。
あるいは、予め画像の明るさの基準をターゲット値として決めておく。画像比較部33では、第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像の明るさと、明瞳孔画像用のターゲット値とを比較し、また、第2カメラ22で取得された暗瞳孔画像を得るための画像の明るさと、暗瞳孔画像用のターゲット値とを比較し、その比較結果が露光制御部36に与えられてもよい。この制御では、先に行われた第1画像取得での画像の明るさを最適化するように、次の第1画像取得での露光条件が変更される。これは第2画像取得においても同じである。
画像どうしの明るさの比較、あるいは画像の明るさとターゲット値との比較は、例えば、画像取得部34、35で取得された画像全体の輝度値の平均値の比較若しくは合計値の比較である。あるいは、輝度の最大値と最小値の差の比較であってもよいし、輝度値の標準偏差を互いに比較してもよい。
露光制御部36は、画像比較部33による比較結果に応じて、第1画像取得と第2画像取得で取得する、比較すべく画像間の明るさの差が所定範囲内に収まるように、撮像のための露光条件を制御する。
露光制御部36で制御する露光条件は、例えば、第1光源11と第2光源21の発光時間及び発光強度、並びに、第1カメラ12と第2カメラ22による画像取得時間(カメラの露光時間)、センサーゲインのうちの少なくとも1つを制御する。この制御に対応する信号は、露光制御部36から、光源制御部31、32、第1カメラ12、及び第2カメラ22に出力され、光源制御部31、32では、制御信号にしたがって、第1光源11と第2光源21の発光時間及び発光強度が設定され、第1カメラ12及び第2カメラ22では、制御信号にしたがって、シャッタの開口時間に対応する画像取得時間、およびセンサーゲインが設定される。
画像取得部34、35で取得された画像は、フレームごとに瞳孔画像抽出部40に読み込まれる。瞳孔画像抽出部40は、明瞳孔画像検出部41と暗瞳孔画像検出部42とを備えている。
<明瞳孔画像と暗瞳孔画像>
図3は、対象者の目50の視線の向きとカメラとの関係を模式的に示す平面図である。図4は、瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。図3(A)と図4(A)では、対象者の視線方向VLが受像装置10と受像装置20との中間に向けられており、図3(B)と図4(B)では、視線方向VLがカメラの光軸13Cの方向へ向けられている。
目50は前方に角膜51を有し、その後方に瞳孔52と水晶体53が位置している。そして最後部に網膜54が存在している。
第1光源11と第2の光源21から発せられる波長850nmの赤外光は、眼球内での吸収率が低く、その光は網膜54で反射されやすい。そのため、第1光源11が点灯したときに、第1光源11と略同軸の第1カメラ12で取得される画像では、網膜54で反射された赤外光が瞳孔52を通じて検出され、瞳孔52が明るく見える。この画像が明瞳孔画像として明瞳孔画像検出部41で抽出される。これは、第2光源21が点灯したときに、これと略同軸の第2カメラ22で取得される画像についても同様である。
これに対して、第1光源11を点灯したときに、第1光源11と非同軸の第2カメラ22で画像を取得する場合には、網膜54で反射された赤外光が第2カメラ22で検知されにくくなるため、瞳孔52が暗く見える。したがって、この画像は暗瞳孔画像として、暗瞳孔画像検出部42で抽出される。これは、第2光源21が点灯したときに、これと非同軸の第1カメラ12で取得される画像についても同様である。
図2に示す瞳孔画像抽出部40では、明瞳孔画像検出部41で検出された明瞳孔画像から暗瞳孔画像検出部42で検出された暗瞳孔画像がマイナスされ、好ましくは瞳孔52以外の画像が相殺されて、瞳孔52の形状が明るくなった瞳孔画像信号が生成される。この瞳孔画像信号は、瞳孔中心算出部43に与えられる。瞳孔中心算出部43では、瞳孔画像信号が画像処理されて二値化され、瞳孔52の形状と面積に対応する部分のエリア画像が算出される。さらに、このエリア画像を含む楕円が抽出され、楕円の長軸と短軸との交点が瞳孔52の中心位置として算出される。あるいは、瞳孔画像の輝度分布から瞳孔52の中心が求められる。
また、暗瞳孔画像検出部42で検出された暗瞳孔画像信号は、角膜反射光中心検出部44に与えられる。暗瞳孔画像信号には、図3と図4に示す、角膜51の反射点55から反射された反射光による輝度信号が含まれている。
図3(A)に示すように、いずれかの光源が点灯しているときには、その光源からの光が、角膜51の表面で反射されて、その光が第1カメラ12と第2カメラ22の双方で取得され、明瞳孔画像検出部41と暗瞳孔画像検出部42で検出される。特に、暗瞳孔画像検出部42では、瞳孔52の画像が比較的暗いため、角膜51の反射点55から反射された反射光が明るくスポット画像として検出される。
角膜51の反射点55からの反射光はプルキニエ像を結像するものであり、図4に示すように、カメラ12,22の撮像素子には、きわめて小さい面積のスポット画像が取得される。角膜反射光中心検出部44では、スポット画像が画像処理されて、角膜51の反射点55からの反射光の中心が求められる。
瞳孔中心算出部43で算出された瞳孔中心算出値と角膜反射光中心検出部44で算出された角膜反射光中心算出値は、視線方向算出部45に与えられる。視線方向算出部45では、瞳孔中心算出値と角膜反射光中心算出値とから視線の向きが検出される。
図3(A)に示す場合では、人の目50の視線方向VLが、2つの受像装置10,20の中間に向けられている。このとき、図4(A)に示すように、角膜51からの反射点55の中心が瞳孔52の中心と一致している。これに対して、図3(B)に示す場合では、人の目50の視線方向VLが、やや左方向へ向けられているため、図4(B)に示すように、瞳孔52の中心と角膜51からの反射点55の中心とが位置ずれする。
視線方向算出部45では、瞳孔52の中心と、角膜51からの反射点55の中心との直線距離αが算出される(図4(B))。また瞳孔52の中心を原点とするX−Y座標が設定され、瞳孔52の中心と反射点55の中心とを結ぶ線とX軸との傾き角度βが算出される。さらに、前記直線距離αと前記傾き角度βとから、視線方向VLが算出される。
前記の瞳孔画像抽出と、角膜反射光中心の検出と、これらを利用した視線方向VLの算出は、2つのカメラ12,22で得られたステレオ画像に基づいて行われるため、視線方向VLの検出を三次元的に求めることが可能になる。
<撮像ならびに検知動作>
視線検出装置においては、第1画像取得で、第1光源11を発光させて、この間に、第1カメラ12と第2カメラ22で同時又は略同時に画像を取得する。第2の画像取得で、第2光源を発光させ、この間に、第1カメラ12と第2カメラ22で同時又は略同時に画像を取得する。
第1画像取得ならびに第2の画像取得と、明瞳孔画像ならびに暗瞳孔画像の検知との関係は以下の通りである。
(A)第1画像取得:第1光源11が点灯、
(A−1)第1カメラ12で、明瞳孔画像を得るための画像取得。
(A−2)第2カメラ22で、暗瞳孔画像を得るための画像取得。
(B)第2画像取得:第2光源12が点灯、
(B−1)第2カメラ22で、明瞳孔画像を得るための画像取得。
(B−2)第1カメラ12で、暗瞳孔画像を得るための画像取得。
前記(A)第1画像取得と(B)第2画像取得は、基本的に交互に行なわれる。
第1画像取得と第2画像取得を1回ずつ行った後において、画像比較部33は、画像取得を行うたびに、直前に行った、第1画像取得と第2画像取得で取得した画像の明るさを互いに比較し、比較結果を露光制御部36へ送出する。比較結果を受けた露光制御部36は、その比較結果に応じて、今後の画像取得で取得する画像の明るさが所定範囲内に収まるように光源の露光条件を制御するための制御信号を生成する。この制御信号は、次の画像取得で用いる光源に対応する光源制御部31,32、及び、画像取得部34、35に送出され、例えば、光源においては発光時間又は発光強度が調整され、カメラにおいては露光時間、ゲインが調整される。
また、この実施の形態では、第1画像取得において、第1カメラで明瞳孔画像が取得され第2カメラで暗瞳孔画像が取得され、この時点で、明瞳孔画像と暗瞳孔画像から瞳孔画像を得て、さらに角膜反射光を得て、視線方向を算出できる。同様に、第2画像取得においても、第1カメラで暗瞳孔画像が取得され第2カメラで明瞳孔画像が取得されるため、この時点で、瞳孔画像と角膜反射光とから視線方向を算出できる。
このように、第1画像取得と第2画像取得のそれぞれの時点で視線方向を算出できるので、視線検出動作を高速化することが可能である。
以下、図5を参照して、より具体的に説明する。図5は、本実施形態の視線検出装置における画像取得のタイミングを示すチャートである。図5の(a)〜(d−4)は、それぞれ以下の信号等のタイミングを示している。
(a):第1光源11の発光タイミング
(b−1):第1カメラ12の露光開始を指示するトリガ信号(TE1、TE2、TE3、TE4、TE5、...)
(b−2):第1カメラ12から画像取得部34への画像取得の開始を指示するトリガ信号(TD1、TD2、TD3、TD4、TD5、...)
(b−3):第1カメラ12における画像取得(露光)
(b−4):第1カメラ12から画像取得部34へのデータ転送
(c):第2光源21の発光タイミング
(d−1):第2カメラ22の露光開始を指示するトリガ信号
(d−2):第2カメラ22から画像取得部35への画像取得の開始を指示するトリガ信号
(d−3):第2カメラ22における画像取得(露光)
(d−4):第2カメラ22から画像取得部35へのデータ転送
ここで、(b−1)と(d−1)のトリガ信号のタイミングは同一であって、これにより、第1カメラ12と第2カメラ22から同時に画像が取得される。また、図5に示す例では、画像取得ごとの、(a)又は(c)の発光時間と、(b−3)と(d−3)の露光時間と、は同じ長さとしている。
図5に示す例では、第1画像取得として、第1光源11の発光L1に合わせて、第1カメラ12における露光E11及び第2カメラ22における露光E12が同時に行われる。第1光源11と略同軸の第1カメラ12で取得する画像は明瞳孔画像抽出のための画像であって、第1光源11と非同軸の第2カメラ22で取得する画像は暗瞳孔画像抽出のための画像である。
発光L1が終了すると、同時に露光E11、E12が終了し、露光の終了と同時に、第1カメラ12及び第2カメラ22から画像取得部34、35へのデータ転送D11、D12(詳しくはデータ転送とフレームへの展開)がそれぞれ開始される。データ転送D11、D12の時間TGは、光源11、21の露光時間に拘わらず、各区間において同一である。
次に、第2画像取得として、第2光源21の発光L2に合わせて、第1カメラ12における露光E21及び第2カメラ22における露光E22が同時に行われる。第2光源21と略同軸の第2カメラ22で取得する画像は明瞳孔画像抽出のための画像であって、第2光源21と非同軸の第1カメラ12で取得する画像は暗瞳孔画像抽出のための画像である。発光L2が終了すると、同時に露光E21、E22が終了し、露光の終了と同時に、第1カメラ12及び第2カメラ22から画像取得部34、35へのデータ転送D21、D22がそれぞれ開始される。ここまでの発光L1、L2の時間、及び、露光E11、E12、E21、E22の時間は、予め設定した同一の時間である。
ここで、画像比較部33は、先に行われた第1画像取得と第2画像取得とで得られた画像の明るさを互いに比較し、比較結果を露光制御部36へ送出する。この比較では、第1画像取得で得られた明瞳孔画像のための画像の明るさと、第2画像取得で得られた暗瞳孔画像のための画像の明るさとが比較される。また、第1画像取得で得られた暗瞳孔画像のための画像の明るさと、第2画像取得で得られた明瞳孔画像のための画像の明るさ、とが比較される。
図5は、第1光源11の発光L1による第1画像取得で得られた画像の明るさが、第2光源21の発光L2による第2画像取得で得られた画像の明るさよりも低下している例を示している。したがって、露光制御部36では、次の期間の第1画像取得で、第1光源11の発光L3における露光条件を高め(例えばカメラの画像取得時間(露光)を長くし)、受光量を高めるようにしている。そのため、第1光源21が発光L3となる2回目の第1画像取得では、先の第1画像取得に比べて明るい画像が取得される。
さらに、図5に示す例では、第2光源21の発光L2による第2画像取得と、第1光源11の発光L3による2回目の第1画像取得とが比較された結果、第2光源21の発光L4となる2回目の第2画像取得において、画像取得の露光条件が長く補正されている。
なお、前述のように、第1画像取得で得られた画像の明るさどうしを比較して、その比較結果から、後の第1画像取得で露光条件を変化させ、第2画像取得で得られた画像の明るさどうしを比較して、その比較結果から、後の第2画像取得で露光条件を変化させてもよい。
あるいは、先の第1画像取得で得られた画像(明瞳孔画像、暗瞳孔画像)を所定のターゲット値(しきい値)と比較し、その比較の結果として次の第1画像取得において露光状態を変更してもよい。これは第2画像取得においても同じである。
次に、図6は、(a)が光源11または21の発光LAのタイミングを、(b)は第1カメラ12における露光EA1のタイミングを、(c)は第2カメラ22における露光EA2のタイミングを、それぞれ示している。
図6に示す例では、2つの受像装置10、20の位置関係や、カメラ12、22の受光性能の違いや、明瞳孔画像と暗瞳孔画像を抽出するために適切となる画像に明るさの違いなどを考慮し、光源が発光LAとなっている画像取得において、第1カメラ12における画像取得時間(露光時間)EA1と、第2カメラ22における画像取得時間(露光時間)EA2とを相違させている。
この場合に、光源の発光LAの長さを、時間の長い露光EA21の終了に合わせている。これにより、明瞳孔画像と暗瞳孔画像のための画像の取得について複雑な制御が不要となる。
また、上述の実施形態では、第1光源11からの検知光と第2光源21からの検知光の波長を850nmとしていたが、眼球内での吸収率が同程度であればこれ以外の波長でもよい。
以上のように構成されたことから、上記実施形態によれば、次の効果を奏する。
(1)第1画像取得又は第2画像取得として、第1光源11と第2光源21の一方から検知光を与えたときに、光源と略同軸のカメラで明瞳孔画像を抽出するための画像を取得し、光源と非同軸のカメラで暗瞳孔画像を抽出するための画像を取得することにより、視線検出処理を高速に行うことが可能となる。また、明瞳孔画像を抽出するための画像の取得と、暗瞳孔画像を抽出するための画像の取得と、を同時に行うことにより、複数の光源からの検知光射出のサイクルを短くすることができるため、視線検出処理をさらに高速に行うことができる。第1画像取得と第2画像取得を交互に行うことによって得られる、瞳孔画像を抽出するための複数の画像を用いることにより、視線検出を高い精度で実現することができる。
(2)第1画像取得において取得した2枚の画像の明るさと、第2画像取得において取得した2枚の画像の明るさと、を比較する画像比較部と、画像比較部による比較結果に応じて、第1画像取得と第2画像取得で取得する、画像の明るさが所定範囲内に収まるように、光源の露光条件を制御する露光制御部と、を備えることにより、複数の光源それぞれの輝度等の違いに起因する、取得画像の明るさのばらつきを抑えることができるため、一定の画質の明瞳孔画像と暗瞳孔画像を得ることができ、これにより高精度の視線検出が可能となる。
本発明について上記実施形態を参照しつつ説明したが、本発明は上記実施形態に限定されるものではなく、改良の目的または本発明の思想の範囲内において改良または変更が可能である。
以上のように、本発明に係る視線検出装置は、車両の車室内に配置して運転者の視線を検出する場合のように、高精度かつ高速に検出することが求められる場合に有用である。
10、20 受像装置
11 第1光源
12 第1カメラ
12C 光軸
21 第2光源
22 第2カメラ
22C 光軸
33 画像比較部
34、35 画像取得部
36 露光制御部
40 瞳孔画像抽出部
41 明瞳孔画像検出部
42 暗瞳孔画像検出部
43 瞳孔中心算出部
44 角膜反射光中心検出部
45 視線方向検出部
50 目
図1と図2に示すように、受像装置10は、第1光源11と第1カメラ12とを備え、第1光源11は、12個のLED(発光ダイオード)光源111からなる。これらのLED光源111は、第1カメラ12のレンズ12Lの外側において、それらの光軸111Cと第1カメラ12の光軸12Cとが距離L11だけ離れて円状になるように配置されている。受像装置20は、第2光源21と第2カメラ22とを備え、第2光源21は、12個のLED光源211からなる。これらのLED光源211は、第2カメラ22のレンズ22Lの外側において、それらの光軸211Cと第2カメラ22の光軸22Cとが距離L21だけ離れて円状になるように配置されている。
第1カメラ12と第2カメラ22においては、第1、第2光源11、21が射出する検知光の波長に合わせたバンドパスフィルタを配置していることが好ましい。これにより、検知光以外の波長の光の入射を抑えることができるため、画像比較部33における画像の明るさの比較や、瞳孔画像抽出部40における瞳孔画像の抽出や、視線方向算出部45における視線方向の算出を精度良く行うことができる。
画像比較部33は、画像取得部34、35で取得された画像、すなわち、明瞳孔画像および暗瞳孔画像を抽出するための画像について、第1画像取得において取得した画像の明るさと、第2画像取得において取得した画像の明るさと、を互いに比較する。
ここで、第1画像取得とは、第1光源11から検知光を与えたときに第1カメラ12及び第2カメラ22から同時又は略同時に画像をそれぞれ取得する行程を意味し、第2画像取得とは、第2光源21から検知光を与えたときに第1カメラ12及び第2カメラ22から同時又は略同時に画像をそれぞれ取得する行程を意味する。なお、第2光源21から検知光を与えるときが第1画像取得で、第1光源11から検知光を与えるときが第2画像取得であってもよい。
画像比較部33では、第1画像取得において、明瞳孔画像を得るために第1カメラ12で取得された画像と、第2画像取得において、暗瞳孔画像を得るために第1カメラ12で取得された画像との明るさが比較される。また、第1画像取得において、暗瞳孔画像を得るために第2カメラ22で取得された画像と、第2画像取得において、明瞳孔画像を得るために第2カメラ22で取得された画像との明るさが比較される。この比較結果を露光制御部36に与えることにより、第1画像取得と第2画像取得において、第1カメラ12で得られる明瞳孔画像と暗瞳孔画像との明るさの差(瞳孔部以外の顔画像の明るさの差)を無くしまたは少なくでき、また第2カメラ22で得られる暗瞳孔画像と明瞳孔画像との明るさの差(瞳孔部以外の顔画像の明るさの差)を無くしまたは少なくできる。
また、他の実施の形態での画像比較部33の動作として、第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像と、次の第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像とで明るさを比較し、第1画像取得において、第2カメラ22で取得された暗瞳孔画像を得るための画像と、次の第1画像取得において、第2カメラ22で取得された暗瞳孔画像を得るための画像とで明るさを比較してもよい。
<明瞳孔画像と暗瞳孔画像>
図3は、対象者の目50の視線の向きとカメラとの関係を模式的に示す平面図である。図4は、瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。図3(A)と図4(A)では、対象者の視線方向VLが受像装置10と受像装置20との中間に向けられており、図3(B)と図4(B)では、視線方向VLが第1カメラ12の光軸13Cの方向へ向けられている。
<撮像ならびに検知動作>
視線検出装置においては、第1画像取得で、第1光源11を発光させて、この間に、第1カメラ12と第2カメラ22で同時又は略同時に画像を取得する。第2の画像取得で、第2光源21を発光させ、この間に、第1カメラ12と第2カメラ22で同時又は略同時に画像を取得する。
(B)第2画像取得:第2光源21が点灯、
(B−1)第2カメラ22で、明瞳孔画像を得るための画像取得。
(B−2)第1カメラ12で、暗瞳孔画像を得るための画像取得。
前記(A)第1画像取得と(B)第2画像取得は、基本的に交互に行なわれる。
第1画像取得と第2画像取得を1回ずつ行った後において、画像比較部33は、画像取得を行うたびに、直前に行った、第1画像取得と第2画像取得で取得した画像の明るさを互いに比較し、比較結果を露光制御部36へ送出する。比較結果を受けた露光制御部36は、その比較結果に応じて、今後の画像取得で取得する画像の明るさが所定範囲内に収まるように光源の露光条件を制御するための制御信号を生成する。この制御信号は、次の画像取得で用いる光源に対応する光源制御部31または32、及び、画像取得部34および35に送出され、例えば、光源においては発光時間又は発光強度が調整され、カメラにおいては露光時間、ゲインが調整される。
また、この実施の形態では、第1画像取得において、第1カメラ12で明瞳孔画像が取得され第2カメラ22で暗瞳孔画像が取得され、この時点で、明瞳孔画像と暗瞳孔画像から瞳孔画像を得て、さらに角膜反射光を得て、視線方向を算出できる。同様に、第2画像取得においても、第1カメラ12で暗瞳孔画像が取得され第2カメラ22で明瞳孔画像が取得されるため、この時点で、瞳孔画像と角膜反射光とから視線方向を算出できる。
発光L1が終了すると、同時に露光E11、E12が終了し、露光の終了と同時に、第1カメラ12及び第2カメラ22から画像取得部34、35へのデータ転送D11、D12(詳しくはデータ転送とフレームへの展開)がそれぞれ開始される。データ転送D11、D12の時間TGは、第1、第2光源11、21の露光時間に拘わらず、各区間において同一である。
ここで、画像比較部33は、先に行われた第1画像取得と第2画像取得とで得られた画像の明るさを互いに比較し、比較結果を露光制御部36へ送出する。この比較では、第1画像取得で得られた明瞳孔画像抽出のための画像の明るさと、第2画像取得で得られた暗瞳孔画像抽出のための画像の明るさとが比較される。また、第1画像取得で得られた暗瞳孔画像抽出のための画像の明るさと、第2画像取得で得られた明瞳孔画像抽出のための画像の明るさ、とが比較される。
図5は、第1光源11の発光L1による第1画像取得で得られた画像の明るさが、第2光源21の発光L2による第2画像取得で得られた画像の明るさよりも低下している例を示している。したがって、露光制御部36では、次の期間の第1画像取得で、第1光源11の発光L3における露光条件を高め(例えば第1カメラ12の画像取得時間(露光)を長くし)、受光量を高めるようにしている。そのため、第1光源11が発光L3となる2回目の第1画像取得では、先の第1画像取得に比べて明るい画像が取得される。
なお、前述のように、第1画像取得で得られた画像の明るさどうしを比較して、その比較結果から、その次の第1画像取得で露光条件を変化させ、第2画像取得で得られた画像の明るさどうしを比較して、その比較結果から、その次の第2画像取得で露光条件を変化させてもよい。
次に、図6は、(a)が第1光源11または第2光源21の発光LAのタイミングを、(b)は第1カメラ12における露光EA1のタイミングを、(c)は第2カメラ22における露光EA2のタイミングを、それぞれ示している。
図6に示す例では、2つの受像装置10、20の位置関係や、第1カメラ12、第2カメラ22の受光性能の違いや、明瞳孔画像と暗瞳孔画像を抽出するために適切となる画像明るさの違いなどを考慮し、光源が発光LAとなっている画像取得において、第1カメラ12における画像取得時間(露光時間)EA1と、第2カメラ22における画像取得時間(露光時間)EA2とを相違させている。

Claims (12)

  1. 離れて配置されてそれぞれが少なくとも目を含む領域の画像を取得する第1カメラならびに第2カメラと、前記第1カメラに接近して配置された第1光源と、前記第2カメラに接近して配置された第2光源と、それぞれのカメラで取得した明瞳孔画像と暗瞳孔画像とから瞳孔画像を抽出する瞳孔画像抽出部とを有する視線検出装置において、
    前記第1光源を点灯させて前記第1カメラで明瞳孔画像を取得し前記第2カメラで暗瞳孔画像を取得する第1画像取得と、前記第2光源を点灯させて前記第2カメラで明瞳孔画像を取得し前記第1カメラで暗瞳孔画像を取得する第2画像取得と、が行われることを特徴とする視線検出装置。
  2. 前記暗瞳孔画像から角膜反射光を検出する角膜反射光中心検出部と、前記瞳孔画像と前記角膜反射光とから前記対象者の視線方向を算出する視線方向算出部とを有する請求項1記載の視線検出装置。
  3. 前記第1光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得し、前記第2光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得する請求項1または2記載の視線検出装置。
  4. 第1画像取得と第2画像取得とが交互に行われる請求項1ないし3のいずれかに記載の視線検出装置。
  5. 前記第1画像取得で得られた画像の明るさをモニターし、その次の第1画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられている請求項1ないし4のいずれかに記載の視線検出装置。
  6. 前記第2画像取得で得られた画像の明るさをモニターし、その次の第2画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられている請求項1ないし5のいずれかに記載の視線検出装置。
  7. 第1画像取得で得られた画像の明るさと、第2画像取得で得られた画像の明るさと比較する画像比較部と、
    前記画像比較部による比較結果に応じて、第1画像取得と第2画像取得の少なくとも一方において前記露光条件を制御する前記露光制御部とが設けられている請求項1ないし5のいずれかに記載の視線検出装置。
  8. 前記画像比較部では、第1画像取得で得られた明瞳孔画像となる画像の明るさと、前記第2画像取得で得られた暗瞳孔画像となる画像との明るさが比較される請求項7記載の視線検出装置。
  9. 前記画像比較部では、第1画像取得で得られた暗瞳孔画像となる画像の明るさと、前記第2画像取得で得られた明瞳孔画像となる画像の明るさとが比較される請求項7または8記載の視線検出装置。
  10. 前記画像比較部では、前記第1画像取得、または、前記第2画像取得で得られた画像とターゲット値とが比較される請求項7記載の視線検出装置。
  11. 前記露光条件は、前記光源の発光時間及び発光強度、並びに、前記カメラによる画像取得時間、ゲインのうちの少なくとも一つである請求項5ないし10のいずれかに記載の視線検出装置。
  12. 前記露光条件が前記カメラによる画像取得時間を含んでおり、第1画像取得と第2画像取得の少なくとも一方において、前記第1カメラによる画像取得時間と前記第2カメラによる画像取得時間のうちの長い方の時間に合わせて光源の発光時間を制御する請求項8記載の視線検出装置。
JP2016545466A 2014-08-29 2015-08-20 視線検出装置 Expired - Fee Related JP6381654B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014176128 2014-08-29
JP2014176128 2014-08-29
PCT/JP2015/073350 WO2016031666A1 (ja) 2014-08-29 2015-08-20 視線検出装置

Publications (2)

Publication Number Publication Date
JPWO2016031666A1 true JPWO2016031666A1 (ja) 2017-06-22
JP6381654B2 JP6381654B2 (ja) 2018-08-29

Family

ID=55399561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016545466A Expired - Fee Related JP6381654B2 (ja) 2014-08-29 2015-08-20 視線検出装置

Country Status (5)

Country Link
US (1) US20170156590A1 (ja)
EP (1) EP3187100A4 (ja)
JP (1) JP6381654B2 (ja)
CN (1) CN106793944A (ja)
WO (1) WO2016031666A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154370A1 (ja) * 2016-03-09 2017-09-14 アルプス電気株式会社 視線検出装置および視線検出方法
US10726574B2 (en) * 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
JP7173836B2 (ja) * 2018-11-05 2022-11-16 京セラ株式会社 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
GB2611289A (en) * 2021-09-23 2023-04-05 Continental Automotive Tech Gmbh An image processing system and method thereof
SE2250765A1 (en) * 2022-06-22 2023-12-23 Tobii Ab An eye tracking system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2950759B2 (ja) * 1995-08-31 1999-09-20 キヤノン株式会社 視線検出装置を有する光学機器
JP4824420B2 (ja) * 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
EP2238889B1 (en) * 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
WO2012020760A1 (ja) * 2010-08-09 2012-02-16 国立大学法人静岡大学 注視点検出方法及び注視点検出装置
US9329683B2 (en) * 2010-12-08 2016-05-03 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
JP5998863B2 (ja) * 2012-11-09 2016-09-28 株式会社Jvcケンウッド 視線検出装置および視線検出方法
JP6327753B2 (ja) * 2013-05-08 2018-05-23 国立大学法人静岡大学 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法
SG11201607901YA (en) * 2014-03-25 2016-11-29 Jvc Kenwood Corp Detection apparatus and detection method
JP6201956B2 (ja) * 2014-10-24 2017-09-27 株式会社Jvcケンウッド 視線検出装置および視線検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置

Also Published As

Publication number Publication date
WO2016031666A1 (ja) 2016-03-03
CN106793944A (zh) 2017-05-31
US20170156590A1 (en) 2017-06-08
EP3187100A4 (en) 2018-05-09
EP3187100A1 (en) 2017-07-05
JP6381654B2 (ja) 2018-08-29

Similar Documents

Publication Publication Date Title
JP6381654B2 (ja) 視線検出装置
CN108027977B (zh) 视线检测装置以及视线检测方法
JP5145555B2 (ja) 瞳孔検出方法
JP6346525B2 (ja) 視線検出装置
JP5366028B2 (ja) 顔画像撮像装置
CN108140244B (zh) 视线检测装置以及视线检测方法
JP2008276328A (ja) 顔画像撮像装置
US20160345818A1 (en) Eyeblink measurement method, eyeblink measurement apparatus, and non-transitory computer-readable medium
WO2014181775A1 (ja) 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法
JP6504788B2 (ja) 瞳孔検出用光源装置の制御方法
JP6900994B2 (ja) 視線検出装置及び視線検出方法
WO2017203769A1 (ja) 視線検出方法
WO2018164104A1 (ja) 眼部画像処理装置
US11179035B2 (en) Real-time removal of IR LED reflections from an image
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
JP2016051317A (ja) 視線検出装置
JP2016051312A (ja) 視線検出装置
JP2017124037A (ja) 視線検出装置
WO2017134918A1 (ja) 視線検出装置
JP2016049258A (ja) 照明撮像装置及びそれを備えた視線検出装置
JP6643603B2 (ja) 眼科装置
JP6693149B2 (ja) 瞳孔検出装置、および瞳孔検出方法
WO2023053556A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11648080B2 (en) Medical observation control device and medical observation system that correct brightness differences between images acquired at different timings
JP6909391B2 (ja) 視線検出装置及び視線検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180731

R150 Certificate of patent or registration of utility model

Ref document number: 6381654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees