JP6767482B2 - 視線検出方法 - Google Patents

視線検出方法 Download PDF

Info

Publication number
JP6767482B2
JP6767482B2 JP2018519093A JP2018519093A JP6767482B2 JP 6767482 B2 JP6767482 B2 JP 6767482B2 JP 2018519093 A JP2018519093 A JP 2018519093A JP 2018519093 A JP2018519093 A JP 2018519093A JP 6767482 B2 JP6767482 B2 JP 6767482B2
Authority
JP
Japan
Prior art keywords
image
line
face
eye region
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018519093A
Other languages
English (en)
Other versions
JPWO2017203769A1 (ja
Inventor
山下 龍麿
龍麿 山下
正行 中西
正行 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Alps Alpine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd, Alps Alpine Co Ltd filed Critical Alps Electric Co Ltd
Publication of JPWO2017203769A1 publication Critical patent/JPWO2017203769A1/ja
Application granted granted Critical
Publication of JP6767482B2 publication Critical patent/JP6767482B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象者の視線方向を検出する視線検出方法に関する。
特許文献1に記載の視線検出装置では、まず、取得された画像データから、顔の中心位置、顔を構成するパーツの中心位置、瞳の位置等の器官位置などが検出され、検出された中心位置や器官位置を使用して、顔の大きさが所定のサイズで、かつ顔の向きが正立するように正規化が行われる。その後、正規化された画像データを使用して、顔の向きに対応する特徴量と目領域の特徴量が抽出され、これらの特徴量を使用して視線方向の推定が行われる。
特開2012−037934号公報
しかしながら、特許文献1に記載の視線検出装置においては、視線方向の推定を更新するたびに、正規化処理から、顔の向きに対応する特徴量と目領域の特徴量の抽出までの演算処理を行うため、毎回の処理量が多くなり、視線検出処理を高速化することが困難となっている。さらに、近年では、目領域の特徴量の抽出精度を上げて視線方向の推定の確度を高めることが求められつつあり、このために画像の解像度を高めると上記演算処理の負担はさらに高いものとなる。
そこで本発明は、視線方向検出の精度を確保しつつ、演算処理の負担を抑えて高速化を図ることができる視線検出方法を提供することを目的とする。
上記課題を解決するために、本発明の視線検出方法は、全体画像を取得し、前記全体画像から眼領域画像を抽出するために取得され所定範囲の画像に、対象者の眼領域画像が含まれているか否かを一定周期で判別する第1の判別ステップを有し、前記第1の判別ステップにおいて、前記所定範囲の画像に前記対象者の眼領域画像が含まれている場合は、その眼領域画像を抽出し、抽出した眼領域画像に基づいて前記対象者の視線方向を検出し、前記視線方向を検出した後に第2の判別ステップに移行し、前記第2の判別ステップでは、前記第1の判別ステップで取得した前記全体画像よりも低解像度の全体画像を取得し、この低解像度の全体画像から顔画像検出処理を行い、前記第1の判別ステップにおいて前記所定範囲の画像に前記対象者の眼領域画像が含まれていない場合に、または前記第2の判別ステップの前記顔画像検出処理で顔画像が検出できなかった場合に、前記第1の判別ステップに戻って、新たに全体画像を取得し、この全体画像から前記対象者の顔画像を検出し、検出した顔画像から前記対象者の眼領域画像を抽出し、前記抽出した眼領域画像を含む範囲を前記所定範囲として更新することを特徴としている。
これにより、所定範囲の画像に眼領域画像が含まれている限り、すなわち、所定範囲から眼領域画像がロストしない限り、全体画像を取得せずに所定範囲の画像から抽出した眼領域画像に基づいて視線方向を算出するため、視線方向の算出の精度を維持しつつ、演算処理の負担を抑えることができ、処理の高速化を図ることができる。
本発明の視線検出方法において、画像の取得は、複数の画素が水平方向及び垂直方向に配列され、ローリングシャッタ方式で駆動される撮像素子で行われ、所定範囲は、撮像素子の水平方向に並ぶ1つまたは2以上のラインで構成されることが好ましい。
これにより、撮像素子のコストを下げることができるとともに、演算処理の負担を軽減して高速かつ高精度の視線方向検出を実現することができる。
本発明の視線検出方法によると、視線方向検出の精度を確保しつつ、演算処理の負担を抑え、処理の高速化を図ることができる。
本発明の第1実施形態に係る視線検出装置の構成を示す機能ブロック図である。 本発明の第1実施形態の画像取得部の構成を示す機能ブロック図である。 本発明の第1実施形態の視線検出部の構成を示す機能ブロック図である。 対象者の画像の例を示す図である。 (A)は、撮像素子からの画像取得タイミングを模式的に示す図、図5(B)は第1光源と第2光源の発光期間を模式的に示す図である。 本発明の第1実施形態に係る視線検出の流れを示すフローチャートである。 本発明の第2実施形態に係る視線検出の流れを示すフローチャートである。
以下、本発明の実施形態に係る視線検出方法について図面を参照しつつ詳しく説明する。
<第1実施形態>
<視線検出装置の構成>
図1〜図3を参照して、第1実施形態に係る視線検出方法に用いる視線検出装置について説明する。ここで、図1は、第1実施形態に係る視線検出装置10の構成を示す機能ブロック図、図2は、第1実施形態の画像取得部20の構成を示す機能ブロック図、図3は、第1実施形態の視線検出部60の構成を示す機能ブロック図である。図4は、対象者の画像の例を示す図である。
図1に示すように、第1実施形態に係る視線検出装置10は、制御部11と、メモリ12と、画像取得部20と、顔検出部30と、正規化処理部40と、眼領域画像取得部50と、視線検出部60とを備える。視線検出装置10は、例えば、自動車の車室内のインストルメントパネルやウインドシールドの上部などに、対象者としての運転者の顔に向けるように設置される。
視線検出装置10においては、画像取得部20によって取得された対象者SBの全体画像A1(図4)、例えば上半身に対応する範囲の画像から顔検出部30において顔画像A2(図4)を抽出し、この顔画像A2について正規化処理部40で正規化処理を行う。正規化処理された顔画像は、眼領域画像取得部50において、眼領域を含む所定範囲A3(図4)が設定され、この所定範囲内の眼領域画像が抽出されて視線検出部60へ出力される。視線検出部60では、受け取った画像に基づいて特徴量を抽出し、この特徴量に基づいて対象者の視線方向を検出する。画像取得部20による画像取得から視線検出部60による視線方向の検出までの処理は制御部11による制御にしたがって実行され、その処理に必要な情報、処理結果などはメモリ12に保存され、必要に応じて読み出される。
眼領域画像取得部50で設定された所定範囲はメモリ12に記憶され、視線検出部60による視線方向の検出後は、この所定範囲で次の画像が取得され、この画像に眼領域画像が含まれるか否かが判別部としての制御部11によって判別される。取得された画像に眼領域画像が含まれていれば上述の処理と同様に視線方向が検出される。制御部11による判別の結果、所定範囲の画像に眼領域画像が含まれていない場合は、改めて画像取得部20によって全体画像が取得され、この画像に基づいて顔画像の検出と正規化処理の後に、所定範囲を新たに設定して、この範囲をもって、メモリ12に記憶された所定範囲のデータを更新する。さらに、この所定範囲で取得した画像に眼領域画像が含まれている場合には、この眼領域画像から抽出した特徴量に基づいて視線方向を検出する。以下、各構成部材・ブロックについて説明する。
画像取得部20は、図2に示すように、第1光源21と、第2光源22と、第1カメラ23と、第2カメラ24と、露光制御部25と、光源制御部26とを備える。
第1光源21は複数個のLED(発光ダイオード)光源からなる。これらのLED光源は、第1カメラ23のレンズの外側において、レンズを囲むように配置されている。
第2光源22も複数個のLED光源からなる。これらのLED光源は、第2カメラ24のレンズの外側において、レンズを囲むように配置されている。
第1光源21のLED光源、および、第2光源22のLED光源は、800nm以上1000nm以下の赤外光(近赤外光)を出射し、この検知光を運転者の眼に与えることができるように配置されている。特に、850nmは、人の眼の眼球内での光吸収率が低い波長であり、この光は眼球の奥の網膜で反射されやすい。
カメラ23、24は、撮像素子として、例えばCMOS(相補型金属酸化膜半導体)を有している。この撮像素子は運転者の眼を含む顔の画像を取得し、水平方向および垂直方向に配列された複数の画素で光が検出される。
これらのカメラ23、24においては、2つの光源21、22から出射される検知光の波長に合わせたバンドパスフィルタを配置していることが好ましい。これにより、明瞳孔画像検出部61や暗瞳孔画像検出部62における瞳孔画像の抽出や、視線方向算出部65における視線方向の算出を精度良く行うことができる。
カメラ23、24は、制御部11の制御にしたがって、撮影の範囲および解像度を切り替えることができる。
撮影の範囲は、例えば全体画像と部分画像に切り替えることができる。全体画像は、例えば車両の運転者を対象とする場合は、視線検出の対象となる位置としての運転席に着いた運転者の上半身の画像である。部分画像は、全体画像に基づいて眼領域画像取得部50で設定した所定範囲の画像、すなわち、運転者の眼領域に対応する範囲の画像である。
撮影の解像度は、例えば高解像度と低解像度に切り替えることができる。高解像度の画像は、少なくとも、視線方向の検出に必要な特徴量を抽出可能な解像度を有する画像であり、低解像度の画像は、少なくとも、顔の特徴部位の検出ができ、これによって顔画像の検出が可能な解像度を有する画像である。
第1カメラ23と第1光源21のLED光源の光軸間距離は、視線検出部60と運転者としての運転者との距離を考慮して、第1カメラ23と第2カメラ24の光軸間距離に対して十分に短くしている。そのため、第1光源21は第1カメラ23に対して互いの光軸が略同軸であるとみなすことができる。同様に、第2カメラ24と第2光源22のLED光源の光軸間距離は、第1カメラ23と第2カメラ24の光軸間距離に対して十分に短くしているため、第2光源22は第2カメラ24に対して互いの光軸が略同軸であるとみなすことができる。
これに対して、第1カメラ23と第2カメラ24の光軸間距離を十分に長くとっているため、第1光源21および第1カメラ23の各光軸と、第2光源22および第2カメラ24の各光軸とは、同軸ではない。以下の説明においては、上記配置を、2つの部材が略同軸である等と表現し、2つの部材が非同軸である等と表現することがある。
第1光源21と第2光源22の点灯(発光)のタイミングは光源制御部26によって制御される。この点灯のタイミングは露光制御部25からの指示信号によって設定され、露光制御部25は、制御部11の制御に従って、第1光源21と第2光源22の点灯に同期させるように、後述の撮影条件(明瞳孔撮影条件、暗瞳孔撮影条件)で、第1カメラ23と第2カメラ24に撮像を行わせる。
顔検出部30は、画像取得部20で取得した全体画像A1(図4)に対して、前処理としてビニング処理などにより画素の数を減らすダウンサイジングを行う。このダウンサイジングは、全体画像A1において隣り合う所定数の画素を1画素にまとめることによって解像度を低下させ、画像データのサイズを小さくするものである。このダウンサイジング処理は、後の顔検出処理が可能なレベルに設定されており、このレベルに対応して1画素にまとめる画素数も定められている。これにより、画像のデータサイズが小さくなるため、後の顔検出処理の精度を確保しつつ高速化することができる。
さらに、顔検出部30は、ダウンサイジング処理後の画像に各種の検出方法を適用することによって顔検出を行う。例えば、Haar−like顔検出法に基づいて初期検出を行い、さらに、あらかじめメモリ12に登録した一般的な顔の特徴部位の情報、例えば、眉、眼球、虹彩、鼻、唇の位置、形状、大きさなどのデータと照らし合わせて、この照合結果にしたがって顔の検出を行う。また、立体的な顔のデータとして、複数の顔向き、例えば正面、斜め右向き、斜め左向きについての各特徴部位の情報と、取得した画像とを照らし合わせることにより顔向きの検出も行う。
また、顔検出部30は、検出された顔画像における色や明るさなどに基づいて、各特徴部位に対応する複数のランドマーク、例えば、眉、眼球、虹彩、唇の輪郭線、鼻の稜線を検出する。
なお、一般的な顔の特徴部位の情報に加えて、または、これに代えて、特定の個人の顔の特徴部位の情報と、その個人を特定する氏名その他の識別情報とを組み合わせて予め登録し、画像取得部20で取得した画像との照合によって、顔検出とともに個人を認証するようにしてもよい。
正規化処理部40は、顔検出部30で検出された複数のランドマーク間の関係を維持しつつ、例えばアフィン変換によって、顔を正面向きとし、かつ、所定のサイズとなるように変換させ、これによって顔画像を正規化する。
眼領域画像取得部50は、正規化処理部40で正規化された画像において、ランドマークとして検出された眼球の位置・範囲情報に基づいて、両眼の眼球を含む画像が含まれる範囲を所定範囲として設定する。さらに、眼領域画像取得部50は、画像取得部20で取得した画像のうち、所定範囲に対応する明瞳孔画像と暗瞳孔画像を眼領域画像として取得する。設定された所定範囲はメモリ12に保存され、取得された眼領域画像は視線検出部60へ出力される。
ここで所定範囲の設定例について説明する。図5は、ローリングシャッタ方式の撮像素子からの画像取得タイミングと光源の発光タイミングの例を模式的に示す図である。図5(A)は、撮像素子からの画像取得タイミングを示し、図5(B)は第1光源21と第2光源22の発光期間を示す。
撮像素子の駆動方式には、グローバルシャッタ方式とローリングシャッタ方式があり、第1実施形態のカメラ23、24はいずれの方式の撮像素子も使用可能であるが、ここではローリングシャッタ方式の場合について説明する。
図5(A)において、H000、H100、H200、H300、H400、H500、H600、H700、及び、H800は、撮像素子において垂直方向の上から下側へ順に並んだ、水平方向に並ぶ画素のラインをそれぞれ示している。撮像素子は、ローリングシャッタ方式で、これらのラインごとに駆動される。また、図5(A)の「VSYNC」は、カメラ23、24から出力される垂直同期信号であって、カメラのフレームレートにより決定され、制御部11はこれらの垂直同期信号に同期して、対応するカメラの撮像素子の画素のラインに対応する撮像データを取り込む。また、B11〜B18、B21〜・・・は、撮像素子の各画素ラインに対応する撮像データを取り込むタイミングを示しており、水平同期信号を意味している。
図5(B)は、第1光源21からの検知光の出射期間I11、I12、I13と、第2光源22からの検知光の出射期間I21、I22とを示している。図5(B)に示す例では、光源21、22の発光時間は同じであり、一定の周期で交互に発光している。第1光源21または第2光源22からの検知光が発光しているそれぞれの期間において、撮像素子がラインH000からラインH800までの1フレーム分ずつ駆動される。この1フレーム分の駆動により得られる画像は対象者の全体画像に対応し、この画像のうちで眼領域に対応する所定範囲として、1つまたは複数の画素のラインを設定することができる。
視線検出部60は、コンピュータのCPUやメモリで構成されており、図3に示す各ブロックによる処理は、予めインストールされたソフトウエアを実行することで行われる。視線検出部60には、明瞳孔画像検出部61と、暗瞳孔画像検出部62と、瞳孔中心算出部63と、角膜反射光中心検出部64と、視線方向算出部65とが設けられている。
視線検出部60に与えられた画像は、明瞳孔画像検出部61と暗瞳孔画像取得部62にそれぞれ読み込まれる。明瞳孔画像検出部61では、以下の明瞳孔撮影条件(a)のいずれかを満たす、光源とカメラの組み合わせのときの眼の画像が検出され、暗瞳孔画像検出部62では、以下の暗瞳孔撮影条件(b)のいずれかを満たす、光源とカメラの組み合わせのときの眼の画像が検出される。
(a)明瞳孔撮影条件
(a−1)第1光源21の点灯期間に、これと略同軸の第1カメラ23で画像を取得
(a−2)第2光源22の点灯期間に、これと略同軸の第2カメラ24で画像を取得
(b)暗瞳孔撮影条件
(b−1)第1光源21の点灯期間に、これと非同軸の第2カメラ24で画像を取得
(b−2)第2光源22の点灯期間に、これと非同軸の第1カメラ23で画像を取得
<明瞳孔画像と暗瞳孔画像>
光源21、22からの出射光の波長850nmは、運転者の眼の網膜に至る眼球内での吸収率が低いため、この波長の光は網膜で反射されやすい。例えば第1光源21が点灯したときに、第1光源21と略同軸の第1カメラ23で取得される画像では、網膜で反射された赤外光が瞳孔を通じて検出され、瞳孔が明るく見える。この画像が明瞳孔画像として明瞳孔画像検出部61で抽出される。これは、第2光源22が点灯したときに、これと略同軸の第2カメラ24で取得される画像についても同様である。
これに対して、第1光源21を点灯したときに、第1光源21と非同軸の第2カメラ24で画像を取得する場合には、網膜で反射された赤外光が第2カメラ24にほとんど入射しないため、瞳孔が暗く見える。したがって、この画像は暗瞳孔画像として、暗瞳孔画像検出部62で抽出される。これは、第2光源22が点灯したときに、非同軸の第1カメラ23で取得される画像についても同様である。
瞳孔中心算出部63では、明瞳孔画像検出部61で検出された明瞳孔画像から暗瞳孔画像検出部62で検出された暗瞳孔画像が減算されて、瞳孔の形状が明るくなった瞳孔画像信号が取得される。瞳孔中心算出部63では、瞳孔画像信号が画像処理されて二値化され、瞳孔の形状と面積に対応する部分のエリア画像が算出される。さらに、このエリア画像を含む楕円が抽出され、特徴量として、楕円の長軸と短軸との交点が、瞳孔の中心位置として算出される。あるいは、瞳孔画像の輝度分布により瞳孔の中心位置が算出されてもよい。
暗瞳孔画像検出部62で検出された暗瞳孔画像信号は、角膜反射光中心検出部64に与えられる。暗瞳孔画像信号は、角膜の反射点から反射された反射光による輝度信号が含まれている。角膜の反射点からの反射光はプルキニエ像を結像するものであり、カメラ23、24の撮像素子では、きわめて小さい面積のスポット画像として取得される。角膜反射光中心検出部64では、このスポット画像が画像処理されて、特徴量として、角膜の反射点からの反射光の中心が求められる。
瞳孔中心算出部63で算出された瞳孔中心算出値と角膜反射光中心検出部64で算出された角膜反射光中心算出値は、視線方向算出部65に与えられる。視線方向算出部65では、瞳孔中心算出値と角膜反射光中心算出値とから視線の向きが検出される。
視線方向算出部65では、瞳孔の中心と、角膜からの反射点の中心との直線距離αが算出される。また瞳孔の中心を原点とするX−Y座標が設定され、瞳孔の中心と反射点の中心とを結ぶ線とX軸との傾き角度βが算出される。さらに、前記直線距離αと前記傾き角度βとから、視線方向が算出される。算出された視線方向のデータは、視線方向算出部65による検出結果として制御部11へ出力される。
なお、瞳孔中心に代えて虹彩中心を用いて視線方向を算出してもよい。虹彩中心は、例えば、明瞳孔撮影条件を満たす画像の虹彩(黒目)と白目の反射率の違いを利用して、虹彩部分を楕円状または円形状に抽出し、抽出した図形の中心を算出することによって求める。
<視線検出の流れ>
図4と図6を参照しつつ第1実施形態の視線検出装置10を用いた視線検出の流れについて説明する。図6は、第1実施形態に係る視線検出の流れを示すフローチャートである。
まず、画像取得部20によって対象者SBの全体画像A1(図4)を取得する(図6のステップS11)。具体的には、第1光源21と第2光源22を交互に発光させ、第1光源21の点灯に同期させて、第1カメラ23と第2カメラ24で同時に撮像を行う。このとき第1カメラ23で明瞳孔画像が取得され、第2カメラ24で暗瞳孔画像が取得される。第2光源22が点灯している期間についても、点灯に同期させて、第1カメラ23と第2カメラ24で同時に撮像が行われる。このときは、第1カメラ23で暗瞳孔画像が取得され、第2カメラ24で明瞳孔画像が取得される。撮像された画像データはメモリ12にそれぞれ保存され、第1カメラ23または第2カメラ24で取得された明瞳孔画像が全体画像A1として顔検出部30へ与えられる。
次に、顔検出部30は、画像取得部20から与えられた全体画像A1(図4)に対して顔検出処理を行う(図6のステップS12)。顔検出部30は、顔検出処理に先立って、ビニング処理などにより画素の数を減らすダウンサイジングを行う。顔検出部30は、ダウンサイズされた画像に対して各種の検出方法を適用することによって顔検出を行い、顔画像A2を抽出する。例えば、Haar−like顔検出法に基づいて初期検出を行い、さらに、あらかじめメモリ12に登録した一般的な顔の特徴部位の情報と、例えば、図4に示す全体画像A1における眉BR、眼球EB、虹彩IR、鼻NS、唇LPなどの位置、形状、大きさなどとを互いに照らし合わせることによって顔画像A2を抽出する。また、立体的な顔のデータとして、複数の顔向き、例えば正面、斜め右向き、斜め左向きについての各特徴部位の情報と、取得した画像とを照らし合わせることにより顔向きの検出も行う。さらに、顔検出部30は、検出された顔画像における色や明るさなどに基づいて、各特徴部位に対応する複数のランドマーク、例えば、眉BR、眼球EB、虹彩IR、唇LPの輪郭線、鼻NSの稜線を検出する。検出された顔画像A2およびランドマークについての検出情報は正規化処理部40へ出力される。
つづいて、正規化処理部40は、顔検出部30で検出された複数のランドマーク間の関係を維持しつつ、例えばアフィン変換によって、顔を正面向きとし、かつ、所定のサイズとなるように変換させ、これによって顔画像を正規化する(ステップS13)。正規化された画像データは眼領域画像取得部50へ送られ、眼領域画像取得部50においては、ランドマークとして検出された眼球の位置・範囲情報に基づいて、両眼の眼球を含む画像が含まれる範囲が初期の所定範囲A3(図4)として設定される(ステップS14)。さらに、眼領域画像取得部50は、画像取得部20で取得した明瞳孔画像と暗瞳孔画像をメモリ12から読み出し、これらの画像において、上記所定範囲A3に対応する範囲の画像を抽出・取得する(ステップS15)。このように取得された画像は判別部としての制御部11へ与えられる。
次に、判別部としての制御部11は、眼領域画像取得部50から受け取った画像に眼領域画像が含まれているか否かを判別する(ステップS16、第1の判別ステップ)。この判別は、あらかじめメモリ12に登録した一般的な目の特徴部位の情報と、例えば、眼球や虹彩の位置、形状、大きさなどとを互いに照らし合わせることによって行う。ここで、上記ステップS14、S15において、両眼の眼球を含む画像に基づいて所定範囲A3が設定されていることから、制御部11は、眼領域画像取得部50から受け取った画像に眼領域画像が含まれていると判別する(ステップS16でYES)。制御部11は、眼領域画像取得部50から受け取った画像を視線検出部60へ出力する。
眼領域画像を受け取った視線検出部60では、まず、明瞳孔画像検出部61で明瞳孔画像が検出され、暗瞳孔画像検出部62で暗瞳孔画像が検出される。さらに、瞳孔中心算出部63において、明瞳孔画像から暗瞳孔画像が減算されて、瞳孔の形状が明るくなった瞳孔画像信号が取得され、この信号に基づいて、瞳孔の形状と面積に対応する部分のエリア画像が算出され、このエリア画像を含む楕円から、特徴量として瞳孔の中心位置が算出される(ステップS17)。また、角膜反射光中心検出部64では、暗瞳孔画像信号に含まれるスポット画像が画像処理されて、特徴量として、角膜の反射点からの反射光の中心が求められる(ステップS17)。
次に、視線方向算出部65において、瞳孔中心算出部63で算出された瞳孔中心算出値と角膜反射光中心検出部64で算出された角膜反射光中心算出値とから、視線方向が検出される(ステップS18)。
視線方向の検出後は、上記ステップS14で設定した所定範囲で画像が取得される(ステップS15)。この画像の取得方法は上記ステップS11と同様に、第1光源21と第2光源22を交互に点灯させて、2つのカメラ23、24で撮影条件に対応した瞳孔画像を撮影する。ここでは全体画像ではなく、所定範囲の画像のみを取得するため、データのサイズを小さく抑えることができ、その後の処理も高速に実行することが可能となる。ここで取得された画像については、制御部11において、眼領域画像が含まれているか否かが判別される(ステップS16、第1の判別ステップ)。
制御部11による判別(ステップS16)の結果、眼領域画像が含まれている場合(ステップS16でYES)は、視線検出部60において、特徴量として、瞳孔中心と角膜反射光中心の位置が抽出され(ステップS17)。この特徴量に基づいて、視線方向算出部65において視線方向が検出される(ステップS18)。
これに対して、制御部11による判別(ステップS16)の結果、眼領域画像が含まれていなかった場合(ステップS16でNO)は、全体画像が再び取得され(ステップS11)、この全体画像について、顔画像の検出(ステップS12)と正規化処理(ステップS13)が実行され、この正規化画像に対して新たな所定範囲が設定される。この新しい所定範囲によって、メモリ12に記憶された所定範囲のデータは更新され(ステップS14)、その後の画像取得(ステップS15)以下の処理が行われる。ここで、眼領域画像が含まれていなかった場合としては、片眼の眼球の画像だけが含まれていた場合、両眼の眼球の画像が特徴量検出に十分な濃度、解像度を有していなかった場合などが挙げられる。
以上のように構成されたことから、第1実施形態の視線検出方法によれば、次の効果を奏する。
(1)第1の判別ステップ(図6のステップS16)において所定範囲の画像に対象者の眼領域画像が含まれているか否かを判別し、眼領域画像が含まれている間は、新たに全体画像を取得せずに、所定範囲の画像に基づいて視線方向を検出し続ける。このため、視線検出の精度は確保しつつ、毎回取得する画像のデータサイズを抑えることができ、演算処理の負担を抑えて処理の高速化を図ることができる。
(2)ローリングシャッタ方式で駆動される撮像素子を用いた場合、撮像素子のコストを下げることができるとともに、演算処理の負担を軽減して高速かつ高精度の視線方向検出を実現することができる。
<第2実施形態>
つづいて、本発明の第2実施形態について説明する。第2実施形態においては、所定範囲に眼領域画像が含まれているか否かに拘わらず、定期的に低解像度の全体画像を取得して第2の判別ステップを実行する点が第1実施形態と異なる。第2実施形態に係る視線検出装置は、第1実施形態に係る視線検出装置10と同様の構成を備える。以下、第1実施形態と同様の構成・処理・作用等については詳細な説明は省略する。
図7は、第2実施形態に係る視線検出の流れを示すフローチャートである。
まず、第1実施形態の視線検出(図6)と同様に、画像取得部20によって対象者SBの全体画像A1(図4)を取得(図7のステップS21)し、この全体画像A1を用いて、顔検出部30において顔検出処理を行い、顔画像A2を抽出する(ステップS22)。また、顔検出部30では、顔向きの検出や各特徴部位に対応する複数のランドマークの検出を行う。さらに、正規化処理部40における顔画像の正規化(ステップS23)と、眼領域画像取得部50における所定範囲A3の設定(ステップS24)と、判別部としての制御部11における判別(ステップS26、第1の判別ステップ)とも第1実施形態と同様である。ここで、上記ステップS24、S25において、両眼の眼球を含む画像に基づいて所定範囲A3が設定されていることから、制御部11は、眼領域画像取得部50から受け取った画像に眼領域画像が含まれていると判別(ステップS26でYES)し、眼領域画像取得部50から受け取った画像を視線検出部60へ出力する。
眼領域画像を受け取った視線検出部60では、第1実施形態と同様に、まず、明瞳孔画像検出部61で明瞳孔画像が検出され、暗瞳孔画像検出部62で暗瞳孔画像が検出される。さらに、瞳孔中心算出部63において、明瞳孔画像から暗瞳孔画像が減算されて、瞳孔の形状が明るくなった瞳孔画像信号が取得され、この信号に基づいて、瞳孔の形状と面積に対応する部分のエリア画像が算出され、このエリア画像を含む楕円から、特徴量として瞳孔の中心位置が算出される(ステップS27)。また、角膜反射光中心検出部64では、暗瞳孔画像信号に含まれるスポット画像が画像処理されて、特徴量として、角膜の反射点からの反射光の中心が求められる(ステップS27)。つづいて、視線方向算出部65において、瞳孔中心算出部63で算出された瞳孔中心算出値と角膜反射光中心検出部64で算出された角膜反射光中心算出値とから、視線方向が検出される(ステップS28)。
次に、画像取得部20によって対象者SBの全体画像が取得される(ステップS29)。この画像は、上記ステップS21で取得する画像よりも低い解像度であり、以下に述べる簡易的な顔画像検出ができる最低限の解像度を有している。顔検出部30においては、この画像に基づいて顔画像検出処理が実行される(ステップS30、第2の判別ステップ)。この顔画像検出においては、特徴部位の照合によって、顔の位置、向きが上記ステップS22における顔画像検出に対して、所定量以上ずれていないことを確認し、ランドマークの検出は省略する。この所定量は、一般的な特徴部位の配置において、いったん設定した所定範囲A3内に眼領域画像が再び含まれる基準量として設定される。
顔画像検出ができた場合(ステップS30でYES)、すなわち、顔の位置、向きが上記ステップS22における顔画像検出の結果に対して所定量未満のずれ量の範囲内にある場合、上記ステップS24で設定した所定範囲について画像が取得される(ステップS25)。ここで取得される画像の解像度は、上記ステップS21で取得する画像と同等の高い解像度であり、かつ、上記ステップS29で取得される画像の解像度よりも高い。画像の取得方法は上記ステップS21と同様に、第1光源21と第2光源22を交互に点灯させて、2つのカメラ23、24で撮影条件に対応した瞳孔画像を撮影する。ここで取得された画像については、制御部11において、眼領域画像が含まれているか否かが判別される(ステップS26、第1の判別ステップ)。
制御部11による判別(ステップS26)の結果、眼領域画像が含まれている場合(ステップS26でYES)は、視線検出部60において、特徴量として、瞳孔中心と角膜反射光中心の位置が抽出され(ステップS27)。この特徴量に基づいて、視線方向算出部65において視線方向が検出される(ステップS28)。
(1)制御部11による判別(ステップS26)の結果、眼領域画像が含まれていなかった場合(ステップS26でNO)、および、(2)上記ステップS30において顔画像検出ができなかった場合(ステップS30でNO)、すなわち、顔の位置、向きが上記ステップS22における顔画像検出の結果に対して所定量以上のずれを生じていた場合は、全体画像が再び取得され(ステップS21)、この全体画像について、顔画像の検出(ステップS22)と正規化処理(ステップS23)が実行され、正規化画像に対して新たな所定範囲が設定され、この新しい所定範囲によって、メモリ12に記憶された所定範囲のデータは更新され(ステップS24)、その後の画像取得(ステップS25)以下の処理が行われる。
なお、図7のステップS30で示す第2判別ステップは、視線方向の検出(ステップS28)が終わるたびに毎回実行されていたが、この実行間隔は毎回ではなく所定回数ごととしてもよい。また、図7のステップS30で示す第2判別ステップに代えて、図7に示す処理の流れとは独立した形で第2判別ステップを実行させてもよい。
第2実施形態の視線検出方法によれば、第2の判別ステップにおいてデータ量の小さな画像で判別を行うことができるため、視線検出の精度を確保しつつ、演算処理の負担を軽減することができる。
なお、その他の作用、効果、変形例は第1実施形態と同様である。
本発明について上記実施形態を参照しつつ説明したが、本発明は上記実施形態に限定されるものではなく、改良の目的または本発明の思想の範囲内において改良または変更が可能である。
以上のように、本発明に係る視線検出方法は、視線検出の精度を確保しつつ、処理負担を軽減して高速化を図ることができる点で有用である。
10 視線検出装置
11 制御部
12 メモリ
20 画像取得部
21 第1光源
22 第2光源
23 第1カメラ
24 第2カメラ
25 露光制御部
26 光源制御部
30 顔検出部
40 正規化処理部
50 眼領域画像取得部
60 視線検出部
61 明瞳孔画像検出部
62 暗瞳孔画像検出部
63 瞳孔中心算出部
64 角膜反射光中心検出部
65 視線方向算出部
A1 全体画像
A2 顔画像
A3 所定範囲

Claims (3)

  1. 全体画像を取得し、前記全体画像から眼領域画像を抽出するために取得され所定範囲の画像に、対象者の眼領域画像が含まれているか否かを一定周期で判別する第1の判別ステップを有し、
    前記第1の判別ステップにおいて、前記所定範囲の画像に前記対象者の眼領域画像が含まれている場合は、その眼領域画像を抽出し、抽出した眼領域画像に基づいて前記対象者の視線方向を検出し、前記視線方向を検出した後に第2の判別ステップに移行し、
    前記第2の判別ステップでは、前記第1の判別ステップで取得した前記全体画像よりも低解像度の全体画像を取得し、この低解像度の全体画像から顔画像検出処理を行い、
    前記第1の判別ステップにおいて前記所定範囲の画像に前記対象者の眼領域画像が含まれていない場合に、または前記第2の判別ステップの前記顔画像検出処理で顔画像が検出できなかった場合に、
    前記第1の判別ステップに戻って、新たに全体画像を取得し、この全体画像から前記対象者の顔画像を検出し、検出した顔画像から前記対象者の眼領域画像を抽出し、前記抽出した眼領域画像を含む範囲を前記所定範囲として更新することを特徴とする視線検出方法。
  2. 前記顔画像検出処理では、前記第1の判別ステップで得られた前記全体画像に含まれる顔画像に対して、前記低解像度の全体画像に含まれる顔画像の顔の位置、向きのずれが所定量以上のときに、顔画像が検出できなかった、と判別する請求項1記載の視線検出方法。
  3. 画像の取得は、複数の画素が水平方向及び垂直方向に配列され、ローリングシャッタ方式で駆動される撮像素子で行われ、
    前記所定範囲は、前記撮像素子の前記水平方向に並ぶ1つまたは2以上のラインで構成されることを特徴とする請求項1または請求項2に記載の視線検出方法。
JP2018519093A 2016-05-23 2017-02-24 視線検出方法 Active JP6767482B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016102080 2016-05-23
JP2016102080 2016-05-23
PCT/JP2017/007189 WO2017203769A1 (ja) 2016-05-23 2017-02-24 視線検出方法

Publications (2)

Publication Number Publication Date
JPWO2017203769A1 JPWO2017203769A1 (ja) 2019-04-18
JP6767482B2 true JP6767482B2 (ja) 2020-10-14

Family

ID=60412231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018519093A Active JP6767482B2 (ja) 2016-05-23 2017-02-24 視線検出方法

Country Status (2)

Country Link
JP (1) JP6767482B2 (ja)
WO (1) WO2017203769A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102714774B1 (ko) 2018-05-04 2024-10-11 구글 엘엘씨 자동화된 어시스턴트 기능(들)의 핫-워드 프리 적응
EP3596585B1 (en) 2018-05-04 2022-01-12 Google LLC Invoking automated assistant function(s) based on detected gesture and gaze
EP4343499B1 (en) 2018-05-04 2026-03-11 Google LLC Adapting automated assistant based on detected mouth movement and/or gaze
CN111209867A (zh) * 2020-01-08 2020-05-29 上海商汤临港智能科技有限公司 一种表情识别方法及装置
WO2021210041A1 (ja) * 2020-04-13 2021-10-21 三菱電機株式会社 顔検出装置および顔検出方法
JP7557389B2 (ja) * 2021-02-15 2024-09-27 矢崎総業株式会社 視線検出装置、視線検出システム、及び視線検出方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4203279B2 (ja) * 2002-07-26 2008-12-24 独立行政法人科学技術振興機構 注目判定装置
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
JP5655644B2 (ja) * 2011-03-09 2015-01-21 富士通株式会社 視線検出装置及び視線検出方法
JP6370168B2 (ja) * 2014-08-29 2018-08-08 アルプス電気株式会社 照明撮像装置及びそれを備えた視線検出装置

Also Published As

Publication number Publication date
JPWO2017203769A1 (ja) 2019-04-18
WO2017203769A1 (ja) 2017-11-30

Similar Documents

Publication Publication Date Title
JP6767482B2 (ja) 視線検出方法
JP6577454B2 (ja) 軸上視線追跡システム及び方法
JP4895797B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
US9852339B2 (en) Method for recognizing iris and electronic device thereof
JP6631951B2 (ja) 視線検出装置及び視線検出方法
KR20120057033A (ko) Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
TW201416908A (zh) 瞳孔追蹤裝置
US20160063334A1 (en) In-vehicle imaging device
CN108140244B (zh) 视线检测装置以及视线检测方法
JP2016051317A (ja) 視線検出装置
CN106793944A (zh) 视线检测装置
JP4452836B2 (ja) 瞳孔を検出する方法及び装置
JP6957048B2 (ja) 眼部画像処理装置
JP2017162233A (ja) 視線検出装置および視線検出方法
JP7379028B2 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP6555707B2 (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP2020140637A (ja) 瞳孔検出装置
US12487670B2 (en) Information processing device, information processing method, and program
US11156831B2 (en) Eye-tracking system and method for pupil detection, associated systems and computer programs
JP2016051312A (ja) 視線検出装置
JP2018190213A (ja) 顔認識装置及び視線検出装置
JP6370168B2 (ja) 照明撮像装置及びそれを備えた視線検出装置
JP2005296383A (ja) 視線検出装置
US20210350554A1 (en) Eye-tracking system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200917

R150 Certificate of patent or registration of utility model

Ref document number: 6767482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150