JP6737057B2 - 視線検出装置、視線検出方法、及び視線検出プログラム - Google Patents

視線検出装置、視線検出方法、及び視線検出プログラム Download PDF

Info

Publication number
JP6737057B2
JP6737057B2 JP2016157681A JP2016157681A JP6737057B2 JP 6737057 B2 JP6737057 B2 JP 6737057B2 JP 2016157681 A JP2016157681 A JP 2016157681A JP 2016157681 A JP2016157681 A JP 2016157681A JP 6737057 B2 JP6737057 B2 JP 6737057B2
Authority
JP
Japan
Prior art keywords
image
corneal reflection
reflection
reference point
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016157681A
Other languages
English (en)
Other versions
JP2018025987A (ja
Inventor
英樹 冨森
英樹 冨森
哲 中島
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016157681A priority Critical patent/JP6737057B2/ja
Priority to US15/651,099 priority patent/US10152633B2/en
Priority to EP17181824.8A priority patent/EP3284395B1/en
Publication of JP2018025987A publication Critical patent/JP2018025987A/ja
Application granted granted Critical
Publication of JP6737057B2 publication Critical patent/JP6737057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、視線検出装置、視線検出方法、及び視線検出プログラムに関する。
近年、パーソナルコンピュータのユーザインタフェースや、店舗やデジタルサイネージ等において顧客の興味を示す商品や情報を調査する方法の1つとして、視線検出技術が利用されている。視線検出技術では、例えば、赤外光を照射した利用者の頭部を含む赤外線画像を撮像し、当該赤外線画像の角膜反射の位置と、瞳孔の位置とに基づいて利用者の視線を検出する。
この種の視線検出技術では、視線を検出する人物がメガネを装着している場合、メガネのレンズで赤外光が反射し、撮像した画像におけるメガネのレンズ部分に角膜反射とは別の赤外光の反射が写ることがある。このような角膜反射とは別の赤外光の反射は、角膜反射の抽出の妨げになることがある。
メガネのレンズでの赤外光の反射が画像に写ることを回避する方法の一つとして、2組の赤外光源と撮像装置との組を離れた場所に設置し、人物の顔の向きに応じて切り替える方法が知られている(例えば、特許文献1を参照)。
また、瞬き等で目を閉じているときには角膜反射が写らないことを利用し、断続的に発生する反射を角膜反射として検出することで、メガネのレンズによる反射と角膜反射とを識別する方法が知られている(例えば、特許文献2を参照)。
特開2006−167256号公報 特開2012−239550号公報
2組の赤外光源と撮像装置との組を離れた場所に設置し、人物の顔の向きに応じて切り替える場合、導入コストが増大するとともに、装置が大型化する。
また、瞬きをして目を閉じている時間は非常に短い。このため、画像の撮像間隔が長い(フレームレートが低い)場合や、画像を間引いて処理を行う場合、目を閉じている画像の発生間隔が長くなり処理に十分な量の瞬き画像の取得ができない、もしくは取得に時間がかかる場合がある。そのため、メガネを装着した人物の視線を検出する際に、角膜反射を正しく検出することが難しく、視線を正しく検出できない可能性がある。
1つの側面において、本発明は、メガネを装着した人物の視線を簡素な構成で精度良く検出することを目的とする。
1つの態様では、視線検出装置は、角膜反射候補抽出部と、基準点抽出部と、閾値ベクトル算出部と、角膜反射特定部と、瞳孔抽出部と、視線算出部と、を備える。角膜反射候補抽出部は、人物の目を含む像が写っている第1の画像と、第1の画像よりも後に撮像された第2の画像から所定の特徴を有する角膜反射の候補を抽出する。基準点抽出部は、第1の画像及び第2の画像から人物における基準点を抽出する。閾値ベクトル算出部は、第2の画像において第1の画像の基準点と重なる位置を始点とし第2の画像における基準点を終点とする基準点の移動ベクトルと、予め定めた閾値とに基づいて、第2の画像において第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出する。角膜反射特定部は、第2の画像における候補位置を始点とし第2の画像から抽出した角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、閾値ベクトルと、反射位置の移動ベクトルとに基づいて、第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定する。瞳孔抽出部は、前記画像から瞳孔の位置を抽出する。視線算出部は、特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する。
メガネを装着した人物の視線を簡素な構成で精度良く検出することが可能となる。
視線検出システムの構成例を示す図である。 一実施形態に係る視線検出装置の機能的構成を示す図である。 角膜反射抽出部の機能的構成を示す図である。 一実施形態に係る視線検出装置が行う処理を説明するフローチャート(その1)である。 一実施形態に係る視線検出装置が行う処理を説明するフローチャート(その2)である。 角膜反射特定処理の内容を説明するフローチャート(その1)である。 角膜反射特定処理の内容を説明するフローチャート(その2)である。 顔領域及び目領域の例を示す図である。 目領域の角膜反射の例を示す図である。 顔の動きの例を示す図である。 角膜反射及びメガネ反射の例を示す図である。 角膜反射の特定方法を説明する図(その1)である。 角膜反射の特定方法を説明する図(その2)である。 コンピュータのハードウェア構成を示す図である。
図1は、視線検出システムの構成例を示す図である。
図1に示すように、視線検出システム1は、例えば、表示装置2の表示面201を観察する人物3の視線4の検出に用いられる。視線検出システム1は、赤外光源5と、撮像装置6と、視線検出装置7と、を含む。赤外光源5は、例えば、赤外発光ダイオードである。赤外光源5は、表示装置2の表示面201を観察する人物3の頭部に向けて赤外光501を発する向きで、表示装置2の近傍に設置される。撮像装置6は、赤外線カメラである。撮像装置6は、表示装置2の表示面201を観察する人物3の頭部を含む赤外線画像を撮像する向きで、表示装置2の近傍に設置される。視線検出装置7は、撮像装置6で撮像した赤外線画像に写っている人物3の目の部分(眼球部分)における角膜反射の位置と、瞳孔の位置とに基づいて、人物3の視線4を検出する。すなわち、視線検出装置7は、瞳孔−角膜反射法により人物3の視線4を検出する。視線検出装置7で検出した人物3の視線4は、例えば、表示装置2の表示面201上における人物3の視線位置(すなわち人物3が表示面201のどこを見ているか)に基づいた視線入力等に利用される。
図2は、一実施形態に係る視線検出装置の機能的構成を示す図である。
図2に示すように、視線検出装置7は、画像取得部710と、情報抽出部720と、視線算出部730と、出力部740と、を備える。また、視線検出装置7は、視線履歴750を記憶する記憶部(図示せず)を備える。
画像取得部710は、撮像装置6から赤外線画像を取得する。
情報抽出部720は、取得した赤外線画像に写っている人物3の目の部分から、角膜反射の位置と瞳孔の位置とを含む、人物3の視線の算出に用いる情報を抽出する。情報抽出部720は、領域抽出部721と、角膜反射抽出部722と、瞳孔抽出部723と、抽出情報保持部724と、を含む。
視線算出部730は、情報抽出部720で抽出した角膜反射の位置と瞳孔の位置とに基づいて、人物3の視線を算出する。視線算出部730は、瞳孔−角膜反射法における既知の算出方法に従って、人物3の視線を算出する。
出力部740は、視線算出部730で算出した人物3の視線を視線履歴750に蓄積するとともに、表示装置2等の外部装置に出力する。
上記のように、本実施形態に係る視線検出装置7における情報抽出部720は、情報抽出部720は、領域抽出部721と、角膜反射抽出部722と、瞳孔抽出部723と、抽出情報保持部724と、を含む。
領域抽出部721は、取得した赤外線画像から人物3の顔領域及び目領域を抽出する。領域抽出部721は、画像解析の分野における既知の抽出方法に従って、人物3の顔領域及び目領域を抽出する。
角膜反射抽出部722は、赤外線画像から抽出した目領域内に存在する角膜反射を抽出し、その位置を算出する。角膜反射抽出部722は、瞳孔−角膜反射法における既知の抽出方法に従って、角膜反射を抽出する。なお、本実施形態に係る角膜反射抽出部722は、1つの目領域内から複数の角膜反射の候補が抽出された場合、それら複数の角膜反射の候補の中から角膜反射を特定する。角膜反射抽出部722は、例えば、2枚の赤外線画像における顔領域内の基準点の移動ベクトルと、角膜反射の候補の移動ベクトルとに基づいて、角膜反射を特定する。
瞳孔抽出部723は、赤外線画像から抽出した目領域内に存在する瞳孔を抽出し、その位置を算出する。瞳孔抽出部722は、瞳孔−角膜反射法における既知の抽出方法に従って、瞳孔を抽出する。
抽出情報保持部724は、画像取得部710で取得した複数の赤外線画像のそれぞれから抽出した顔領域、目領域、角膜反射の候補の位置、及び顔領域内の基準点の位置等を保持する。
図3は、角膜反射抽出部の機能的構成を示す図である。
図3に示すように、本実施形態に係る角膜反射抽出部722は、角膜反射候補抽出部722Aと、基準点抽出部722Bと、閾値ベクトル算出部722Cと、角膜反射特定部722Dと、を含む。
角膜反射候補抽出部722Aは、瞳孔−角膜反射法における既知の抽出方法に従って、角膜反射の候補を抽出する。ここで、角膜反射の候補は、角膜反射に限らず、メガネのレンズによる赤外光の反射等、目領域における角膜反射らしい反射を含む。
基準点抽出部722Bは、取得した画像から人物における基準点を抽出する。基準点は、例えば、人物が装着しているメガネ等における所定箇所であってもよいし、眉毛等の人物の顔において特徴となる点でもよい。
閾値ベクトル算出部722Cは、角膜反射の候補から角膜反射を特定する際に用いる閾値ベクトルを算出する。閾値ベクトル算出部722Cは、例えば、まず、第1の画像よりも後に撮像された第2の画像において第1の画像の基準点と重なる位置を始点とし第2の画像における基準点を終点とする基準点の移動ベクトルを算出する。また、閾値ベクトル算出部722Cは、算出した基準点の移動ベクトルと、予め定めた閾値とに基づいて、第2の画像において第1の画像の角膜反射の候補の位置と重なる位置(以下「候補位置」ともいう)を始点とする閾値ベクトルを算出する。
角膜反射特定部722Dは、第2の画像から抽出された複数の角膜反射の候補の中から、角膜反射の位置を特定する。角膜反射特定部722Dは、第2の画像における候補位置を始点とし第2の画像から抽出した角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出する。また、角膜反射特定部722Dは、閾値ベクトルと、反射位置の移動ベクトルとに基づいて、第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定する。
本実施形態に係る視線検出装置7は、動作を開始すると、画像取得部710において撮像装置6が撮像した赤外線画像の取得を開始する。その後、視線検出装置7は、取得した赤外線画像のそれぞれに対し、例えば、図4A及び図4Bに示す処理を行う。なお、以下の説明では、撮像装置6が撮像した赤外線画像のことを単に「画像」という。
図4Aは、一実施形態に係る視線検出装置が行う処理を説明するフローチャート(その1)である。図4Bは、一実施形態に係る視線検出装置が行う処理を説明するフローチャート(その2)である。
視線検出装置7は、まず、図4Aに示すように、取得した画像から視線の検出対象とする画像を選択する(ステップS1)。ステップS1の処理は、画像取得部710又は情報抽出部720が行う。画像取得部710又は情報抽出部720は、例えば、取得した画像のうちの、未選択であり、かつ撮像時刻が最も早い(古い)画像を、視線の検出対象に選択する。
次に、視線検出装置7は、選択した画像から顔領域及び目領域を抽出する(ステップS2)。ステップS2の処理は、情報抽出部720の領域抽出部721が行う。領域抽出部721は、画像解析の分野における既知の抽出方法に従って、人物3の顔領域及び目領域を抽出する。
次に、視線検出装置7は、画像から抽出した目領域に含まれる角膜反射の候補を抽出する(ステップS3)。ステップS3の処理は、情報抽出部720の角膜反射抽出部722における角膜反射候補抽出部722Aが行う。角膜反射候補抽出部722Aは、瞳孔−角膜反射法における既知の抽出方法に従って、角膜反射の候補を抽出する。
ステップS3の後、角膜反射抽出部722は、角膜反射の候補があるか否かを判定する(ステップS4)。角膜反射の候補がない場合(ステップS4;NO)、角膜反射抽出部722は、視線検出装置7に、ステップS5〜S11をスキップさせ、図4Bに示すように、ステップS12の判定を行わせる。
角膜反射の候補がある場合(ステップS4;YES)、角膜反射抽出部722は、次に、候補が複数であるか否かを判定する(ステップS5)。抽出した角膜反射の候補が複数である場合(ステップS5;YES)、角膜反射抽出部722は、次に、複数の角膜反射の候補の中から角膜反射を特定する角膜反射特定処理(ステップS6)を行う。ステップS6において、角膜反射抽出部722は、例えば、2枚の赤外線画像における顔領域内の基準点の移動ベクトルと、角膜反射の候補の移動ベクトルとに基づいて、角膜反射を特定する。
角膜反射特定処理を終えると、角膜反射抽出部722は、瞳孔抽出部723に、目領域に含まれる瞳孔を抽出する処理(ステップS7)を行わせる。ステップS7の処理において、瞳孔抽出部723は、瞳孔−角膜反射法における既知の抽出方法に従って、瞳孔を抽出する。
一方、抽出した角膜反射の候補が1つである場合(ステップS5;NO)、角膜反射抽出部722は、ステップS6の角膜反射特定処理をスキップし、瞳孔抽出部723に、目領域に含まれる瞳孔を抽出する処理(ステップS7)を行わせる。
ステップS7の処理を終えると、視線検出装置7は、次に、図4Bに示すように、特定した角膜反射が複数であるか否かを判定する(ステップS8)。ステップS8の判定は、例えば、視線算出部730が行う。視線算出部730は、ステップS6で角膜反射であると特定した反射が1個の目領域内に複数存在するか否かを判定する。特定した角膜反射が複数である場合(ステップS8;YES)、視線算出部730は、複数の角膜反射のうちの瞳孔に最も近い角膜反射を選択し(ステップS9)、瞳孔の位置と角膜反射の位置とに基づいて視線を算出する(ステップS10)。一方、特定した角膜反射が1個である場合(ステップS8;NO)、視線算出部730は、ステップS9の処理をスキップし、瞳孔の位置と角膜反射の位置とに基づいて視線を算出する(ステップS10)。ステップS10の処理において、視線算出部730は、瞳孔−角膜反射法における既知の算出方法に従って、人物3の視線を算出する。
ステップS10の処理を終えると、視線検出装置7は、次に、算出した視線を出力する(ステップS11)。ステップS11の処理は、出力部740が行う。出力部740は、視線算出部730が算出した人物3の視線についての情報を視線履歴750に蓄積する。なお、ステップS11において、出力部740は、例えば、視線算出部730が算出した人物3の視線、或いは視線に基づいて表示装置2の表示面210上における視線位置を算出し、表示装置2等の外部装置に出力してもよい。
算出した視線を出力した後、視線検出装置7は、一連の処理(ステップS1〜S11)を終了するか否かを判定する(ステップS12)。例えば、撮像装置6の撮像範囲内にいた人物3が撮像範囲の外側に移動した場合や、人物3等が視線検出装置7に対し視線の検出を終了させる操作を行った場合、視線検出装置7は、一連の処理を終了する(ステップS12;YES)と判定する。一方、一連の処理を続ける場合(ステップS12;NO)、視線検出装置7は、ステップS1〜S11の処理を繰り返す。
このように、本実施形態に係る視線検出装置7の角膜反射抽出部722は、1枚の画像から抽出した1個の目領域に複数の角膜反射の候補が存在する場合には当該複数の角膜反射の候補から角膜反射を特定する角膜反射特定処理(ステップS6)を行う。角膜反射抽出部722は、角膜反射特定処理として、例えば、図5A及び図5Bに示した処理を行う。
図5Aは、角膜反射特定処理の内容を説明するフローチャート(その1)である。図5Bは、角膜反射特定処理の内容を説明するフローチャート(その2)である。
角膜反射特定処理において、角膜反射抽出部722は、まず、図5に示すように、顔領域から特徴点を抽出する(ステップS601)。ステップS601の処理は、例えば、基準点抽出部722Bが行う。基準点抽出部722Bは、例えば、画像から抽出した顔領域に対しエッジ検出処理等を行い、顔領域内の特徴点を抽出する。
次に、角膜反射抽出部722は、抽出した特徴点に基づいて顔領域の基準点を決定し、当該基準点の位置情報を記憶する(ステップS602)。ステップS602の処理は、基準点抽出部722Bが行う。角膜反射特定処理を行う場合(すなわち、1個の目領域に複数の角膜反射の候補が存在する場合)、画像に写っている人物3がメガネを装着している可能性が高い。そのため、基準点抽出部722Bは、例えば、メガネのフレームにおけるリムとブリッジとの接続点等を基準点とし、顔領域内における基準点の位置を決定する。基準点抽出部722Bは、基準点の位置情報を、処理対象の画像の識別子と対応付けて抽出情報保持部724に記憶させる(保持させる)。
次に、角膜反射抽出部722は、角膜反射の各候補の位置情報と特徴情報とを記憶する(ステップS603)。ステップS603の処理は、例えば、角膜反射候補抽出部722Aが行う。角膜反射候補抽出部722Aは、例えば、角膜反射の中心の位置を位置情報とし、角膜反射の大きさを特徴情報として、処理対象の画像の識別子と対応付けて抽出情報保持部724に記憶させる(保持させる)。
次に、角膜反射抽出部722は、抽出情報保持部724を参照し、過去の角膜反射特定処理において記憶させた基準点の位置情報等があるか否かを判定する(ステップS604)。ステップS604の判定は、例えば、閾値ベクトル算出部722Cが行う。ここで、過去の角膜反射特定処理は、例えば、ある一人の人物3に対する視線の検出処理を開始してから現在の角膜反射特定処理を行う前までに行われた角膜反射特定処理とする。過去の情報がない場合(ステップS604;NO)、角膜反射抽出部722は、図5A及び図5Bに示すように、ステップS605〜S617の処理をスキップして角膜反射特定処理を終了する。この場合、角膜反射抽出部722は、複数の角膜反射の候補の全てを角膜反射と特定する。このため、ステップS6,S7の後、視線算出部730は、特定した角膜反射が複数である判定し(ステップS8;YES)、複数の角膜反射のうちの瞳孔に最も近い角膜反射の位置と、瞳孔の位置とに基づいて人物3の視線を算出する(ステップS9,S10)。
一方、過去の情報がある場合(ステップS604;YES)、角膜反射抽出部722は、過去の情報を参照し、顔の移動距離を算出する(ステップS605)。ステップS605は、例えば、角膜反射抽出部722の閾値ベクトル算出部722Cが行う。ステップS605において、角膜反射抽出部722は、例えば、まず、撮像装置6から人物3の顔までの距離L(cm)を算出する。距離Lは、画像内における顔幅の画素数と、撮像装置6の水平解像度と、撮像装置6の水平画角と、人の顔幅の平均値(例えば、14.29cm)とに基づいて算出する。次に、角膜反射抽出部722は、下記式(1)により、撮像装置6の水平撮像範囲H(cm)を算出する。
H=2・tan(φ/2)・L ・・・(1)
式(1)におけるφは、撮像装置6の水平画角である。
その後、角膜反射抽出部722は、下記式(2)により、顔の移動距離D(cm)を算出する。
D=(W・H)/HR ・・・(2)
式(2)において、Wは画像内における顔の移動幅を表す画素数であり、HRは水平解像度である。
顔の移動距離Dを算出した後、角膜反射抽出部722は、算出した顔の移動距離Dが閾値TH1以上であるか否かを判定する(ステップS606)。ステップS606の判定は、例えば、角膜反射特定部722Dが行う。顔の移動距離Dが閾値TH1よりも短い場合(ステップS606;NO)、角膜反射抽出部722は、図5A及び図5Bに示すように、ステップS607〜S617の処理をスキップして角膜反射特定処理を終了する。この場合、角膜反射抽出部722は、複数の角膜反射の候補の全てを角膜反射と特定する。このため、ステップS6,S7の後、視線算出部730は、特定した角膜反射が複数である判定し(ステップS8;YES)、複数の角膜反射のうちの瞳孔に最も近い角膜反射の位置と、瞳孔の位置とに基づいて人物3の視線を算出する(ステップS9,S10)。
一方、顔の移動距離Dが閾値TH1以上である場合(ステップS606;YES)、角膜反射抽出部722は、次に、基準点の移動ベクトルVを算出する(ステップS607)。ステップS607の処理は、例えば、角膜反射抽出部722の閾値ベクトル算出部722Cが行う。ステップS607において、角膜反射抽出部722は、ステップS602で決定した基準点の位置情報と、ステップS605で参照した過去の情報に含まれる基準点の位置情報とに基づいて、移動ベクトルVを算出する。
次に、角膜反射抽出部722は、角膜反射の候補同士の対応付けを行う(ステップS608)。ステップS608の処理は、例えば、角膜反射抽出部722の閾値ベクトル算出部722Cが行う。ステップS608において、角膜反射抽出部722は、現在の処理対象である画像における角膜反射の位置情報及び特徴情報と、ステップS605で参照した過去の情報に含まれる角膜反射の位置情報及び特徴情報とに基づいて、角膜反射の候補同士を対応付ける。
次に、角膜反射抽出部722は、対応付けた角膜反射の候補同士の移動ベクトルVを算出する(ステップS609)。ステップS609の処理は、例えば、角膜反射抽出部722の角膜反射特定部722Dが行う。
次に、角膜反射抽出部722は、図5Bに示すように、角膜反射の移動範囲を取得する(ステップS610)。ステップS610の処理は、例えば、角膜反射抽出部722の閾値ベクトル算出部722Cが行う。角膜反射の移動範囲は、例えば、視線を検出可能な範囲における眼球の移動範囲の最大値とする。視線検出装置7は、例えば、人物3の視線を検出する処理を開始する際のキャリブレーションにおいて人物3が表示装置2の表示面201の端部を注視した際の眼球の移動量を、角膜反射の移動範囲として抽出情報保持部724等に記憶させておく。
次に、角膜反射抽出部722は、角膜反射の候補の組を識別する変数Mを1にする(ステップS611)。ステップS611の処理は、角膜反射抽出部722の閾値ベクトル算出部722Cが行う。
次に、角膜反射抽出部722は、M番目の角膜反射の候補の組に対する閾値ベクトルVTHを算出する(ステップS612)。ステップS612の処理は、角膜反射抽出部722の閾値ベクトル算出部722Cが行う。ステップS612において、閾値ベクトル算出部722Cは、下記式(3)により、閾値ベクトルVTHを算出する。
TH=V−R・(V/|V|) ・・・(3)
式(3)におけるRは、ステップS610で取得した角膜反射の移動範囲を表す円の半径である。
次に、角膜反射抽出部722は、移動ベクトルVの大きさが閾値ベクトルVTHの大きさ以上であるか否かを判定する(ステップS613)。ステップS613の判定は、角膜反射抽出部722の角膜反射特定部722Dが行う。|V|≧|VTH|である場合(ステップS613;YES)、角膜反射特定部722Dは、次に、閾値ベクトルVTHと移動ベクトルVとのなす角が閾値TH2以下であるか否かを判定する(ステップS614)。閾値ベクトルVTHと移動ベクトルVとのなす角が閾値TH2以下である場合(ステップS614;YES)、角膜反射特定部722Dは、M番目の角膜反射の候補を角膜反射と特定する(ステップS615)。
その後、角膜反射特定部722Dは、変数Mが角膜反射の候補の組の総数m以上であるか否かを判定する(ステップS616)。なお、|V|<|VTH|である場合(ステップS613;NO)、角膜反射特定部722Dは、ステップS614,S615をスキップしてステップS616の判定を行う。また、閾値ベクトルVTHと移動ベクトルVとのなす角が閾値TH2よりも大きい場合(ステップS614;NO)、角膜反射特定部722Dは、ステップS615をスキップしてステップS616の判定を行う。
M<mである場合(ステップS616;NO)、角膜反射特定部722Dは、変数MをM=M+1に更新し(ステップS617)、閾値ベクトル算出部722Cと協働して、ステップS612以降の処理を繰り返す。そして、M≧mになった場合(ステップS616;YES)、角膜反射特定部722Dは、角膜反射特定処理を終了する。
図6は、顔領域及び目領域の例を示す図である。図7は、目領域の角膜反射の例を示す図である。
本実施形態に係る視線検出装置7は、例えば、図6の(a)に示すような画像10を取得し、領域検出部721において顔領域11を抽出する。顔領域11は、例えば、矩形の領域とし、左上角部の座標(U1,V1)と、水平方向(u方向)の画素数と、垂直方向(v方向)の画素数とで指定する。
更に、領域検出部721は、図6の(b)に示すように、顔領域11内に存在する目領域12A,12Bを抽出する。目領域12Aは、人物3の右目301Rを含む矩形の領域とし、例えば、左上角部の座標(U2,V2)と、水平方向(u方向)の画素数と、垂直方向(v方向)の画素数とで指定する。目領域12Bは、人物3の左目301Lを含む矩形の領域とし、例えば、左上角部の座標(U3,V3)と、水平方向(u方向)の画素数と、垂直方向(v方向)の画素数とで指定する。
このとき、1個の目領域12Aに着目すると、図7に示すように、右目301Rの角膜部分に角膜反射13、すなわち赤外光源5が発した赤外光501の反射が見られる。視線検出装置7では、目領域12A内の角膜反射13との位置(U4,V4)と、瞳孔302Rの位置(U5,V5)とに基づいて、画像に写っている人物の視線を算出する。
ここで、画像に写っている人物3がメガネを装着していない場合、1個の目領域12A内における赤外光501の反射は1個であり、当該反射を角膜反射13と特定することが可能である。ところが、画像に写っている人物3がメガネを装着している場合、赤外光501は、目の角膜だけでなく、メガネのレンズでも反射する。そのため、画像に写っている人物3がメガネを装着している場合、1個の目領域内に複数の赤外光501の反射が見られ、角膜反射を特定することが難しくなる。よって、本実施形態では、1個の目領域内に複数の赤外光501の反射が見られる場合、角膜反射特定処理(ステップS6)を行い、複数の反射(角膜反射の候補)の中から角膜反射を特定する。角膜反射特定処理では、上記のように、画像内における人物の顔の動きを利用して、複数の角膜反射の候補の中から角膜反射を特定する。
図8は、顔の動きの例を示す図である。
図8の(a)には、時刻tにおける人物3の顔の向きと、撮像装置6で撮像した画像10との例を示している。時刻tにおける人物3の視線4は、表示装置2の表示面201の正面方向から時計回り(左側)に角度θ1だけ傾いている。また、図8の(b)には、時刻t+Δtにおける人物3の顔の向きと、撮像装置6で撮像した画像10との例を示している。ここで、時間差Δtは、例えば、0.1秒〜0.3秒程度とする。時刻t+Δtにおける人物3の視線4は、表示装置2の表示面201の正面方向から時計回りに角度θ2(<θ1)だけ傾いている。
撮像装置6は、表示装置2の近傍に設置されており、撮像範囲が一定である。そのため、表示装置2の表示面201を観察する人物3が顔の向きを変えて視線4の方向を変化させると、それに伴い、画像10内における人物3の顔の向きが変化する。そのため、時刻tの画像10及び時刻t+Δtの画像10における位置(U6,V6)を左上角部とする矩形領域14を比較すると、矩形領域14内における左目301Lの位置が移動する。
図9は、角膜反射及びメガネ反射の例を示す図である。
図9の(a)には、図8の(a)に示した時刻tの画像10における矩形領域14を示している。図9の(a)の矩形領域14には、人物3の左目301Lと、メガネ15の一部が写っている。また、図9の(a)の矩形領域14には、赤外光源5が発した赤外光の反射1301,1302,1303が写っている。3個の反射1301,1302,1303のうち、左目301Lの瞳孔302Lの中心に最も近い反射1301は、左目301L(角膜)における赤外光の反射である。また、3個の反射1301,1302,1303のうち、残りの2個の反射1302,1303は、それぞれ、メガネ15における左目用のレンズ1503における赤外光の反射(メガネ反射)である。
図9の(b)には、図8の(b)に示した時刻t+Δtの画像10における矩形領域14を示している。図9の(b)の矩形領域14には、人物3の左目301Lと、メガネ15の一部が写っている。また、図9の(a)の矩形領域14には、赤外光源5が発した赤外光の反射1311,1312,1313が写っている。3個の反射1311,1312,1313のうち、左目301Lの瞳孔302Lの中心に最も近い反射1311は、左目311L(角膜)における赤外光の反射である。また、3個の反射1311,1312,1313のうち、残りの2個の反射1312,1313は、それぞれ、メガネ15における左目用のレンズ1503における赤外光の反射(メガネ反射)である。
このように、画像に写っている人物がメガネ15を装着している場合、画像には目(角膜)での赤外光の反射と、メガネ15のレンズ1503での赤外光の反射とが含まれる。しかも、1枚の画像から角膜での赤外光の反射と、レンズ1503での赤外光の反射とを識別することは難しい。このため、本実施形態では、時刻tの画像10と時刻t+Δtの画像10における基準点の移動ベクトルに基づいて、複数の角膜反射の候補の中から角膜反射を特定する。
画像10における基準点は、顔の向きに応じて変化する点とし、例えば、メガネ15におけるリム1501と、ブリッジ1502との接続部分P1,P2とする。図9の(b)に点線の円で示した基準点P1は、時刻tの画像におけるリム1501と、ブリッジ1502との接続部分の位置を表している。一方、図9の(b)に実線の円で示した基準点P2は、時刻t+Δtの画像におけるリム1501と、ブリッジ1502との接続部分の位置を表している。また、図9の(b)には、時刻tの画像における角膜反射の候補1301,1302,1303の位置を、それぞれ点線の円で示している。
人物3が目を動かさずに顔の向きを変化させた場合、角膜反射の移動方向及び移動量は、基準点の移動方向及び移動量と略一致する。これに対し、メガネ15のレンズ1503における反射の移動方向及び移動量と、基準点の移動方向及び移動量との間には、大きなずれが生じる。本実施形態に係る角膜反射特定処理では、このような顔の向きを変化させたときに生じる、角膜反射の移動方向及び移動量と、メガネ15のレンズ1503での反射の移動方向及び移動量との差異に基づいて、角膜反射を特定する。例えば、図9の(b)に示した矩形領域14(画像)における反射1301から反射1311への移動方向及び移動量と、反射1302から反射1312への移動方向及び移動量に比べて、基準点P1から基準点P2への移動方向及び移動量との類似性が高い。よって、閾値を用いて反射1311と、反射1312,1313とを識別することで、メガネを装着した人物における角膜反射を正しく抽出することが可能となる。
図10Aは、角膜反射の特定方法を説明する図(その1)である。図10Bは、角膜反射の特定方法を説明する図(その2)である。
本実施形態に係る角膜反射特定処理(ステップS6)では、処理対象の画像における角膜反射を特定する際に、過去の角膜反射特定処理で決定した基準点の位置情報を参照して基準点の移動ベクトルVを算出する(ステップS607)。ここで、処理対象の画像を図8の(b)に示した時刻t+Δtの画像10とすると、ステップS607において、角膜反射抽出部722は、例えば、図8の(a)に示した時刻tの画像10との間での基準点の移動ベクトルVを算出する。この場合、基準点の移動ベクトルVは、図10Aに示したように、時刻t+Δtの画像における基準点P1の位置を始点とし、基準点P2を終点とするベクトル(すなわち基準点P1から基準点P2に向かうベクトル)となる。
次に、角膜反射抽出部722は、角膜反射の候補同士の対応付けを行う(ステップS608)、ステップS608において、角膜反射抽出部722は、抽出情報保持部724に記憶させた角膜反射の各候補の位置情報と特徴情報とに基づいて、角膜反射の候補同士を対応付ける。例えば、図10Aに示した時刻t+Δtの画像における3個の反射1311,1312,1313は、略垂直方向(v方向)に並んでおり、最も下方の反射1313が大きい。また、図10Aに示した時刻tの画像における3個の反射1301,1302,1303は、略垂直方向(v方向)に並んでおり、最も下方の反射1303が大きい。そのため、時刻t+Δtの画像における最も上方の反射1311は、時刻tの画像における最も上方の反射1301と対応付けられる。また、図10Aに示した時刻t+Δtの画像における最も下方の反射1313は、時刻tの画像における最も下方の反射1303と対応付けられる。更に、図10Aに示した時刻t+Δtの画像における反射1312は、時刻tの画像における反射1302と対応付けられる。
次に、角膜反射抽出部722は、角膜反射の候補同士の移動ベクトルVを算出する(ステップS609)。ステップS609において、角膜反射抽出部722は、まず、時刻tの画像における最も上方の反射1301から、時刻t+Δtの画像における最も上方の反射1311に向かう移動ベクトルVM=1を算出する。続けて、角膜反射抽出部722は、時刻tの画像における反射1302から時刻t+Δtの画像における反射1312に向かう移動ベクトルVM=2(図示せず)を算出する。更に、角膜反射抽出部722は、時刻tの画像における反射1303から時刻t+Δtの画像における反射1313に向かう移動ベクトルVM=3(図示せず)を算出する。
その後、角膜反射抽出部722は、角膜反射の移動範囲を取得し(ステップS610)、M=1の角膜反射の候補の組に対する閾値ベクトルVTHを算出する(ステップS612)。ステップS610において、角膜反射抽出部722は、図10Aに示すように、M=1の角膜反射の候補の組における時刻tの画像の反射1301の位置を始点とする基準点の移動ベクトルVを設定する。次に、角膜反射抽出部722は、当該移動ベクトルVの終点を中心とする半径Rの領域ARを、角膜反射の移動範囲に設定する。その後、角膜反射抽出部722は、反射1301から領域ARの外周上の点までの距離が最小となるベクトルを、M=1の角膜反射の候補の組に対する閾値ベクトルVTHとする。
M=1の角膜反射の候補の組に対する閾値ベクトルVTHを算出した後、角膜反射抽出部722は、|VM=1|≧|VTH|であるか否かを判定する(ステップS613)。図10Aに示した例では、|VM=1|≧|VTH|である(ステップS613;YES)。したがって、角膜反射抽出部722は、次に、閾値ベクトルVTHと移動ベクトルVM=1とのなす角が閾値TH2以下であるか否かを判定する(ステップS614)。ここで、閾値ベクトルVTHと移動ベクトルVM=1とのなす角が閾値TH2以下であるとすると、角膜反射抽出部722は、M=1の角膜反射の候補の組における、時刻t+Δtの画像の角膜反射の候補1311を角膜反射に特定する(ステップS615)。
M=1の角膜反射の候補の組に対するステップS612〜S615の処理を終えると、角膜反射抽出部722は、M=2の角膜反射の候補の組に対するステップS612,S613の処理を行う。このとき、角膜反射抽出部722は、図10Bに示すように、時刻tの画像の反射1302の位置を始点とする基準点の移動ベクトルVに基づいて半径Rの領域AR(角膜反射の移動範囲)を設定し、閾値ベクトルVTHを算出する(ステップS612)。その後、角膜反射抽出部722は、|VM=2|≧|VTH|であるか否かを判定する(ステップS613)。図10Bに示した例では、|VM=2|<|VTH|である(ステップS613;NO)。したがって、角膜反射抽出部722は、M=2の角膜反射の候補の組に対するステップS614,S615をスキップし、次に、M=3の角膜反射の候補の組に対するステップS612,S613の処理を行う。図示は省略するが、M=3の角膜反射の候補の組では、|VM=3|<|VTH|である(ステップS613;NO)。したがって、角膜反射抽出部722は、M=3の角膜反射の候補の組に対するステップS614,S615をスキップし、ステップS616の判定を行う。図10A,図10Bに示した例では、角膜反射の候補の組が3組(m=3)である。そのため、M=3の角膜反射の候補の組に対するステップS614,S615をスキップした後、角膜反射抽出部722は、ステップS616においてNOと判定し、角膜反射特定処理を終了する。
以上の処理により図8の(b)に示した時刻t+Δtの画像10における左目301Lの角膜反射が特定される。
このように、本実施形態に係る視線検出装置7では、画像内で人物とともに移動する基準点の移動ベクトルと、画像内の1個の目領域から抽出した複数の角膜反射の候補の位置の移動ベクトルと、角膜反射の移動範囲についての閾値とに基づいて角膜反射を特定する。この際、視線検出装置7では、第1の画像及び第2の画像における角膜反射の候補の組に対し、第1の画像における角膜反射の候補の位置を始点とする基準点の移動ベクトルと、角膜反射の移動範囲についての閾値とに基づいて、角膜反射の候補の組に対する閾値ベクトルを設定する。そして、視線検出装置7は、角膜反射の候補の組における移動ベクトルの大きさが、閾値ベクトルの大きさよりも大きく、かつ、移動ベクトルと閾値ベクトルとのなす角が角度閾値TH2以下である場合に、その角膜反射の候補を角膜反射に特定する。このため、画像に写っている人物がメガネを装着している場合でも、メガネのレンズにおける赤外光の反射を除外して角膜反射を特定することが可能となる。
また、基準点の移動ベクトルが閾値ベクトルよりも大きくなる第1の画像と第2の画像との組を選択することで、より精度よく角膜反射を特定することが可能となる。
また、画像に写っている人物が目を閉じており、メガネのレンズによる赤外光の反射のみが角膜反射の候補として抽出された場合にも、本実施形態によれば、メガネのレンズにおける赤外光の反射を除外して角膜反射を特定することが可能となる。
更に、画像の撮像間隔が長い場合(フレームレートが低い場合)や、取得した画像を間引きして処理を行う場合のように、人物が目を閉じている画像が定期的に現れない場合でも、メガネのレンズによる赤外光の反射を除外して角膜反射を特定することが可能となる。
しかも、本実施形態に係る視線検出装置7では、1組の赤外光源5及び撮像装置6によりメガネのレンズによる赤外光の反射を除外して角膜反射を特定することが可能となる。このため、簡素な構成で角膜反射を精度良く特定でき、視線検出システムのコストを低減することが可能となる。
なお、本実施形態においては、第1の画像(時刻tの画像)と、第1の画像よりも後に撮像された第2の画像(時刻t+Δt)とに基づいて第2の画像における角膜反射の位置を特定している。しかしながら、本実施形態に係る角膜反射特定処理では、これに限らず、第1の画像と、第2の画像とに基づいて、第1の画像における角膜反射の位置を特定してもよい。
また、基準点は、上記のメガネ15におけるリム1501とブリッジ1502との接続位置に限らず、顔の向きとともに移動する点であればよい。例えば、撮像装置6で画像を撮像する際の時間間隔(フレームレート)が数十fps以上であり表情筋の動きよりも十分速い場合には、眉毛を基準点としてもよい。
また、図5A及び図5Bに示したフローチャートは、本実施形態に係る視線検出装置7が行う角膜反射特定処理の一例に過ぎない。角膜反射特定処理は、上記の手順に限らず、本実施形態の要旨を逸脱しない範囲において適宜変更可能である。
また、図4A及び図4Bに示したフローチャートは、本実施形態に係る視線検出装置7が行う処理の一例に過ぎない。本実施形態に係る視線検出装置7が行う処理は、上記の手順に限らず、本実施形態の要旨を逸脱しない範囲において適宜変更可能である。
更に、本実施形態に係る視線検出装置7の機能的構成は、図2に示した構成に限らず、本実施形態の要旨を逸脱しない範囲において適宜変更可能である。
加えて、本実施形態に係る視線検出装置7は、図1に示したような構成の視線検出システム1に限らず、種々の視線検出システムに適用可能である。例えば、視線検出装置7は、店舗内で顧客がどの商品に興味を示したかを調査する表示装置2のない視線検出システムにも適用可能である。
また、上記の処理を行う視線検出装置7は、例えば、コンピュータと、当該コンピュータに実行させるプログラムとにより実現可能である。以下、図11を参照して、コンピュータとプログラムとを用いて実現される視線検出装置7について説明する。
図11は、コンピュータのハードウェア構成を示す図である。
図11に示すように、コンピュータ20は、プロセッサ2001と、主記憶装置2002と、補助記憶装置2003と、入力装置2004と、出力装置2005と、入出力インタフェース2006と、通信制御装置2007と、媒体駆動装置2008と、を備える。コンピュータ20におけるこれらの要素2001〜2008は、バス2010により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
プロセッサ2001は、Central Processing Unit(CPU)やMicro Processing Unit(MPU)等である。プロセッサ2001は、オペレーティングシステムを含む各種のプログラムを実行することにより、コンピュータ20の全体の動作を制御する。また、プロセッサ2001は、例えば、図4A、図4B、図5A、及び図5Bに示した各処理を行う。
主記憶装置2002は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置2002のROMには、例えば、コンピュータ20の起動時にプロセッサ2001が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置2002のRAMは、プロセッサ2001が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。主記憶装置2002のRAMは、例えば、撮像装置6から取得した画像、画像から抽出した顔領域の基準点の位置情報、角膜反射の候補の位置情報及び特徴情報、角膜反射の移動範囲、並びに角膜反射の候補同士の移動ベクトルV等の記憶に利用可能である。
補助記憶装置2003は、例えば、Hard Disk Drive(HDD)や、フラッシュメモリ等の不揮発性メモリ(Solid State Drive(SSD)を含む)等、主記憶装置2002のRAMと比べて容量の大きい記憶装置である。補助記憶装置2003は、プロセッサ2001によって実行される各種のプログラムや各種のデータ等の記憶に利用可能である。補助記憶装置2003は、例えば、図4A、図4B、図5A、及び図5Bに示した各処理を含むプログラム等の記憶に利用可能である。また、補助記憶装置2003は、例えば、撮像装置6から取得した画像、画像から抽出した顔領域の基準点の位置情報、角膜反射の候補の位置情報及び特徴情報、角膜反射の移動範囲、角膜反射の候補同士の移動ベクトルV、並びに検出した視線(視線履歴750)等の記憶に利用可能である。
入力装置2004は、例えば、キーボード装置やタッチパネル装置等である。コンピュータ20のオペレータ(利用者)が入力装置2004に対して所定の操作を行うと、入力装置2004は、その操作内容に対応付けられている入力情報をプロセッサ2001に送信する。入力装置2004は、例えば、視線の検出処理を開始させる命令、視線の検出処理を終了させる命令、コンピュータ20が実行可能な他の処理に関する命令等の入力や、各種設定値の入力等に利用可能である。
出力装置2005は、例えば、液晶表示装置等の装置、スピーカ等の音声再生装置を含む。出力装置2005における表示装置は、図1の視線検出システム1の表示装置2として利用可能である。
入出力インタフェース2006は、コンピュータ20と、他の電子機器とを接続する。入出力インタフェース2006は、例えば、Universal Serial Bus(USB)規格のコネクタ等を備える。入出力インタフェース2006は、例えば、コンピュータ20と、撮像装置6や赤外光源5との接続に利用可能である。
通信制御装置2007は、コンピュータ20をインターネット等の通信ネットワークに接続し、通信ネットワークを介したコンピュータ20と他の電子機器との各種通信を制御する装置である。通信制御装置2007は、例えば、コンピュータ20と、表示装置2に表示させる各種映像等を蓄積したサーバ装置等との通信に利用可能である。
媒体駆動装置2008は、可搬型記憶媒体21に記録されているプログラムやデータの読み出し、補助記憶装置2003に記憶されたデータ等の可搬型記憶媒体21への書き込みを行う。媒体駆動装置2008には、例えば、1種類又は複数種類の規格に対応したメモリカード用リーダ/ライタが利用可能である。媒体駆動装置2008としてメモリカード用リーダ/ライタを用いる場合、可搬型記憶媒体21としては、メモリカード用リーダ/ライタが対応している規格、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)等を利用可能である。また、可搬型記録媒体21としては、例えば、USB規格のコネクタを備えたフラッシュメモリが利用可能である。更に、コンピュータ20が媒体駆動装置2008として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体21として利用可能である。可搬型記録媒体21として利用可能な光ディスクには、例えば、Compact Disc(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(Blu-rayは登録商標)等がある。可搬型記録媒体21は、図4A、図4B、図5A、及び図5Bに示した処理を含むプログラム、撮像装置6で撮像した画像、コンピュータ20で算出した(検出した)視線の履歴等の記憶に利用可能である。
図4A及び図4Bに示した処理を開始する命令をコンピュータ20に入力すると、プロセッサ2001が、補助記憶装置2003等の非一時的な記録媒体に記憶させた、図4A及び図4Bに示した処理を含むプログラムを読み出して実行する。これらの処理において、プロセッサ2001は、図2の視線検出装置7の画像取得部710、領域抽出部721、角膜反射抽出部722、瞳孔抽出部723、視線算出部730、及び出力部740として機能する(動作する)。また、主記憶装置2002のRAMや補助記憶装置2003等は、図2の視線検出装置7における抽出情報保持部724、視線履歴750を記憶する記憶部の他、図示していないバッファ等として機能する。
なお、視線検出装置7として動作させるコンピュータ20は、図11に示した全ての要素2001〜2008を含む必要はなく、用途や条件に応じて一部の要素を省略することも可能である。例えば、コンピュータ20は、通信制御装置2007や媒体駆動装置2008が省略されたものであってもよい。
以上記載した各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
人物の目を含む像が写っている第1の画像と、前記第1の画像よりも後に撮像された第2の画像から所定の特徴を有する角膜反射の候補を抽出する角膜反射候補抽出部と、
前記第1の画像及び前記第2の画像から前記人物における基準点を抽出する基準点抽出部と、
前記第2の画像において前記第1の画像の基準点と重なる位置を始点とし前記第2の画像における基準点を終点とする前記基準点の移動ベクトルと、予め定めた閾値とに基づいて、前記第2の画像において前記第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出する閾値ベクトル算出部と
前記第2の画像における前記候補位置を始点とし前記第2の画像から抽出した前記角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、前記閾値ベクトルと、前記反射位置の移動ベクトルとに基づいて、前記第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定する角膜反射特定部と、
前記画像から瞳孔の位置を抽出する瞳孔抽出部と、
特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する視線算出部と、
を備えることを特徴とする視線検出装置。
(付記2)
前記閾値ベクトル算出部は、前記第2の画像における前記候補位置を前記基準点の移動ベクトルの始点としたときの当該移動ベクトルの終点の位置と、前記人物の前記目の移動範囲に基づいて、第2の画像における前記候補位置から前記目の移動範囲までの距離が最小となる前記閾値ベクトルを算出する、
ことを特徴とする付記1に記載の視線検出装置。
(付記3)
前記角膜反射特定部は、前記基準点の移動ベクトルの大きさが、前記閾値ベクトルの大きさよりも大きくなる前記第1の画像と前記第2の画像との組を選択して、前記角膜反射の位置を特定する、
ことを特徴とする付記2に記載の視線検出装置。
(付記4)
前記基準点抽出部は、前記人物が装着しているメガネの所定箇所を前記基準点として前記画像から抽出する、
ことを特徴とする付記1に記載の視線検出装置。
(付記5)
前記基準点抽出部は、前記人物の眉毛を前記基準点として前記画像から抽出する、
ことを特徴とする付記1に記載の視線検出装置。
(付記6)
前記人物の前記目の移動範囲の最大値を保持する保持部、を更に備え、
前記閾値ベクトル算出部は、前記第2の画像における前記候補位置を前記基準点の移動ベクトルの始点としたときの当該移動ベクトルの終点の位置と、前記人物の前記目の移動範囲の最大値とに基づいて、前記閾値ベクトルを算出する、
ことを特徴とする付記2に記載の視線検出装置。
(付記7)
前記視線算出部は、特定した前記角膜反射が複数である場合に、当該複数の前記角膜反射のうちの前記瞳孔に最も近い角膜反射の位置と、前記瞳孔の位置とに基づいて、前記人物の視線を算出する、
ことを特徴とする付記1に記載の視線検出装置。
(付記8)
コンピュータが、
人物の目を含む像が写っている画像から前記人物における基準点を抽出するとともに、所定の特徴を有する角膜反射の候補を抽出し、
第1の画像よりも後に撮像された第2の画像において前記第1の画像の基準点と重なる位置を始点とし前記第2の画像における基準点を終点とする前記基準点の移動ベクトルを算出し、
前記基準点の移動ベクトルと、予め定めた閾値とに基づいて、前記第2の画像において前記第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出するとともに、前記第2の画像における前記候補位置を始点とし前記第2の画像から抽出した前記角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、
前記閾値ベクトルと、前記反射位置の移動ベクトルとに基づいて、前記第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定し、
前記画像から瞳孔の位置を抽出し、
特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する、
処理を実行することを特徴とする視線検出方法。
(付記9)
前記閾値ベクトルを算出する処理において、前記コンピュータは、
前記第2の画像における前記候補位置を前記基準点の移動ベクトルの始点としたときの当該移動ベクトルの終点の位置と、前記人物の前記目の移動範囲に基づいて、第2の画像における前記候補位置から前記目の移動範囲までの距離が最小となる前記閾値ベクトルを算出する、
ことを特徴とする付記8に記載の視線検出方法。
(付記10)
前記コンピュータは、
前記基準点の移動ベクトルの大きさが、前記閾値ベクトルの大きさよりも大きくなる前記第1の画像と前記第2の画像との組を選択して、前記角膜反射の位置を特定する、
ことを特徴とする付記9に記載の視線検出方法。
(付記11)
前記基準点を抽出する処理において、前記コンピュータは、
前記人物が装着しているメガネの所定箇所を前記基準点として前記画像から抽出する、
ことを特徴とする付記8に記載の視線検出方法。
(付記12)
前記基準点を抽出する処理において、前記コンピュータは、
前記人物の眉毛を前記基準点として前記画像から抽出する、
ことを特徴とする付記8に記載の視線検出方法。
(付記13)
前記閾値ベクトルを算出する処理において、前記コンピュータは、
当該コンピュータのメモリに記憶させた前記人物の目の移動範囲の最大値を読み出し、
前記第2の画像における前記候補位置を前記基準点の移動ベクトルの始点としたときの当該移動ベクトルの終点の位置と、前記人物の前記目の移動範囲の最大値とに基づいて、前記閾値ベクトルを算出する、
ことを特徴とする付記9に記載の視線検出方法。
(付記14)
前記人物の視線を算出する処理において、前記コンピュータは、
特定した前記角膜反射が複数である場合には、当該複数の前記角膜反射のうちの前記瞳孔に最も近い角膜反射の位置と、前記瞳孔の位置とに基づいて、前記人物の視線を算出する、
ことを特徴とする付記8に記載の視線検出方法。
(付記15)
人物の目を含む像が写っている画像から前記人物における基準点を抽出するとともに、所定の特徴を有する角膜反射の候補を抽出し、
第1の画像よりも後に撮像された第2の画像において前記第1の画像の基準点と重なる位置を始点とし前記第2の画像における基準点を終点とする前記基準点の移動ベクトルを算出し、
前記基準点の移動ベクトルと、予め定めた閾値とに基づいて、前記第2の画像において前記第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出するとともに、前記第2の画像における前記候補位置を始点とし前記第2の画像から抽出した前記角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、
前記閾値ベクトルと、前記反射位置の移動ベクトルとに基づいて、前記第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定し、
前記画像から瞳孔の位置を抽出し、
特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する、
処理をコンピュータに実行させる視線検出プログラム。
1 視線検出システム
2 表示装置
3 人物
4 視線
5 赤外光源
6 撮像装置
7 視線検出装置
10 画像
11 顔領域
12A,12B 目領域
13,1301,1311 角膜反射(の候補)
15 メガネ
20 コンピュータ
21 可搬型記録媒体
301R 右目
301L 左目
302R,302L 瞳孔
1302,1303,1312,1313 角膜反射の候補
710 画像取得部
720 情報抽出部
721 領域抽出部
722 角膜反射抽出部
723 瞳孔抽出部
724 抽出情報保持部
730 視線算出部
740 出力部
750 視線履歴
1501 リム
1502 ブリッジ
1503 レンズ
2001 プロセッサ
2002 主記憶装置
2003 補助記憶装置
2004 入力装置
2005 出力装置
2006 入出力インタフェース
2007 通信制御装置
2008 媒体駆動装置
P1,P2 基準点

Claims (8)

  1. 人物の目を含む像が写っている第1の画像と、前記第1の画像よりも後に撮像された第2の画像から所定の特徴を有する角膜反射の候補を抽出する角膜反射候補抽出部と、
    前記第1の画像及び前記第2の画像から前記人物における基準点を抽出する基準点抽出部と、
    前記第2の画像において前記第1の画像の基準点と重なる位置を始点とし前記第2の画像における基準点を終点とする前記基準点の移動ベクトルと、予め定めた閾値とに基づいて、前記第2の画像において前記第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出する閾値ベクトル算出部と、
    前記第2の画像における前記候補位置を始点とし前記第2の画像から抽出した前記角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、前記閾値ベクトルと、前記反射位置の移動ベクトルとに基づいて、前記第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定する角膜反射特定部と、
    前記画像から瞳孔の位置を抽出する瞳孔抽出部と、
    特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する視線算出部と、
    を備えることを特徴とする視線検出装置。
  2. 前記閾値ベクトル算出部は、前記第2の画像における前記候補位置を前記基準点の移動ベクトルの始点としたときの当該移動ベクトルの終点の位置と、前記人物の前記目の移動範囲に基づいて、第2の画像における前記候補位置から前記目の移動範囲までの距離が最小となる前記閾値ベクトルを算出する、
    ことを特徴とする請求項1に記載の視線検出装置。
  3. 前記角膜反射特定部は、前記基準点の移動ベクトルの大きさが、前記閾値ベクトルの大きさよりも大きくなる前記第1の画像と前記第2の画像との組を選択して、前記角膜反射の位置を特定する、
    ことを特徴とする請求項2に記載の視線検出装置。
  4. 前記基準点抽出部は、前記人物が装着しているメガネの所定箇所を前記基準点として前記画像から抽出する、
    ことを特徴とする請求項1に記載の視線検出装置。
  5. 前記基準点抽出部は、前記人物の眉毛を前記基準点として前記画像から抽出する、
    ことを特徴とする請求項1に記載の視線検出装置。
  6. 前記人物の前記目の移動範囲の最大値を保持する保持部、を更に備え、
    前記閾値ベクトル算出部は、前記第2の画像における前記候補位置を前記基準点の移動ベクトルの始点としたときの当該移動ベクトルの終点の位置と、前記人物の前記目の移動範囲の最大値とに基づいて、前記閾値ベクトルを算出する、
    ことを特徴とする請求項2に記載の視線検出装置。
  7. コンピュータが、
    人物の目を含む像が写っている画像から前記人物における基準点を抽出するとともに、所定の特徴を有する角膜反射の候補を抽出し、
    第1の画像よりも後に撮像された第2の画像において前記第1の画像の基準点と重なる位置を始点とし前記第2の画像における基準点を終点とする前記基準点の移動ベクトルを算出し、
    前記基準点の移動ベクトルと、予め定めた閾値とに基づいて、前記第2の画像において前記第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出するとともに、前記第2の画像における前記候補位置を始点とし前記第2の画像から抽出した前記角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、
    前記閾値ベクトルと、前記反射位置の移動ベクトルとに基づいて、前記第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定し、
    前記画像から瞳孔の位置を抽出し、
    特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する、
    処理を実行することを特徴とする視線検出方法。
  8. 人物の目を含む像が写っている画像から前記人物における基準点を抽出するとともに、所定の特徴を有する角膜反射の候補を抽出し、
    第1の画像よりも後に撮像された第2の画像において前記第1の画像の基準点と重なる位置を始点とし前記第2の画像における基準点を終点とする前記基準点の移動ベクトルを算出し、
    前記基準点の移動ベクトルと、予め定めた閾値とに基づいて、前記第2の画像において前記第1の画像の角膜反射の候補の位置と重なる候補位置を始点とする閾値ベクトルを算出するとともに、前記第2の画像における前記候補位置を始点とし前記第2の画像から抽出した前記角膜反射の候補の位置を終点とする反射位置の移動ベクトルを算出し、
    前記閾値ベクトルと、前記反射位置の移動ベクトルとに基づいて、前記第2の画像から抽出された複数の角膜反射の候補の中から角膜反射の位置を特定し、
    前記画像から瞳孔の位置を抽出し、
    特定した前記角膜反射の位置と、抽出した前記瞳孔の位置とに基づいて、前記画像に写っている前記人物の視線を算出する、
    処理をコンピュータに実行させる視線検出プログラム。
JP2016157681A 2016-08-10 2016-08-10 視線検出装置、視線検出方法、及び視線検出プログラム Active JP6737057B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016157681A JP6737057B2 (ja) 2016-08-10 2016-08-10 視線検出装置、視線検出方法、及び視線検出プログラム
US15/651,099 US10152633B2 (en) 2016-08-10 2017-07-17 Line-of-sight detection device and line-of-sight detection method
EP17181824.8A EP3284395B1 (en) 2016-08-10 2017-07-18 Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016157681A JP6737057B2 (ja) 2016-08-10 2016-08-10 視線検出装置、視線検出方法、及び視線検出プログラム

Publications (2)

Publication Number Publication Date
JP2018025987A JP2018025987A (ja) 2018-02-15
JP6737057B2 true JP6737057B2 (ja) 2020-08-05

Family

ID=59381109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016157681A Active JP6737057B2 (ja) 2016-08-10 2016-08-10 視線検出装置、視線検出方法、及び視線検出プログラム

Country Status (3)

Country Link
US (1) US10152633B2 (ja)
EP (1) EP3284395B1 (ja)
JP (1) JP6737057B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671071B2 (en) * 2016-08-09 2020-06-02 Nissan Motor Co., Ltd. Control method and control device of automatic driving vehicle
JP6737057B2 (ja) * 2016-08-10 2020-08-05 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
EP3588444A4 (en) * 2017-02-24 2020-02-12 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP6915502B2 (ja) * 2017-11-09 2021-08-04 トヨタ自動車株式会社 ドライバ状態検出装置
CN109359503B (zh) * 2018-08-15 2022-07-01 温州生物材料与工程研究所 瞳孔识别图像处理方法
SE543240C2 (en) * 2018-12-21 2020-10-27 Tobii Ab Classification of glints using an eye tracking system
JP6717477B1 (ja) * 2019-09-13 2020-07-01 株式会社スワローインキュベート 画像処理方法、画像処理装置、及び画像処理プログラム
JP6757949B1 (ja) * 2020-05-28 2020-09-23 株式会社スワローインキュベート 画像処理方法、画像処理装置、及び画像処理プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1357831A2 (en) * 2001-02-09 2003-11-05 Sensomotoric Instruments GmbH Multidimensional eye tracking and position measurement system
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
JP4451195B2 (ja) 2004-04-13 2010-04-14 本田技研工業株式会社 視線検出装置
JP2006095008A (ja) * 2004-09-29 2006-04-13 Gen Tec:Kk 視線検出方法
JP4491604B2 (ja) 2004-12-17 2010-06-30 国立大学法人静岡大学 瞳孔検出装置
EP2338416B1 (en) * 2008-09-26 2019-02-27 Panasonic Intellectual Property Corporation of America Line-of-sight direction determination device and line-of-sight direction determination method
JP5417272B2 (ja) 2010-07-14 2014-02-12 本田技研工業株式会社 眼球撮像装置
JP5184596B2 (ja) * 2010-09-03 2013-04-17 本田技研工業株式会社 脇見判定装置
JP5776323B2 (ja) 2011-05-17 2015-09-09 富士通株式会社 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
JP5949389B2 (ja) * 2012-09-24 2016-07-06 富士通株式会社 検出装置、検出プログラムおよび検出方法
JP6303297B2 (ja) * 2013-06-14 2018-04-04 富士通株式会社 端末装置、視線検出プログラムおよび視線検出方法
JP6322986B2 (ja) * 2013-12-09 2018-05-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6256165B2 (ja) 2014-04-09 2018-01-10 富士通株式会社 視線検出装置、視線検出プログラム及び視線検出方法
JP6555707B2 (ja) * 2014-11-12 2019-08-07 国立大学法人静岡大学 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP6696119B2 (ja) * 2015-05-01 2020-05-20 富士通株式会社 変換装置、変換方法、及び変換プログラム
JP2017079883A (ja) * 2015-10-23 2017-05-18 富士通株式会社 視線検出システム、視線検出方法、および視線検出プログラム
JP6737057B2 (ja) * 2016-08-10 2020-08-05 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム

Also Published As

Publication number Publication date
JP2018025987A (ja) 2018-02-15
EP3284395A1 (en) 2018-02-21
US20180046842A1 (en) 2018-02-15
EP3284395B1 (en) 2019-01-02
US10152633B2 (en) 2018-12-11

Similar Documents

Publication Publication Date Title
JP6737057B2 (ja) 視線検出装置、視線検出方法、及び視線検出プログラム
US9489574B2 (en) Apparatus and method for enhancing user recognition
CN107209849B (zh) 眼睛跟踪
KR102093198B1 (ko) 시선 인식을 이용한 사용자 인터페이스 방법 및 장치
US20190102956A1 (en) Information processing apparatus, information processing method, and program
CN111212594B (zh) 电子设备和利用电子设备确定结膜充血程度的方法
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
US20100109998A1 (en) System and method for sensing facial gesture
JP2017213191A (ja) 視線検出装置、視線検出方法、及び視線検出プログラム
US20170236304A1 (en) System and method for detecting a gaze of a viewer
EP3158921A1 (en) Line of sight detection system and method
CN110313006A (zh) 一种人脸图像检测方法及终端设备
US10964046B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP5834941B2 (ja) 注目対象特定装置、注目対象特定方法、及びプログラム
JP6583996B2 (ja) 映像評価装置、及びプログラム
JP6476678B2 (ja) 情報処理装置及び情報処理プログラム
JP2012068948A (ja) 顔属性推定装置およびその方法
US20200125855A1 (en) Information processing apparatus, information processing method, system, and storage medium to determine staying time of a person in predetermined region
US20170178107A1 (en) Information processing apparatus, information processing method, recording medium and pos terminal apparatus
JP2016139353A (ja) 画像判定装置および画像判定方法
EP3910530A1 (en) Determining display zoom level
CN114766027A (zh) 信息处理方法、信息处理装置以及控制程序
US20170068848A1 (en) Display control apparatus, display control method, and computer program product
KR101587533B1 (ko) 피사체의 시선에 따라 영상을 이동시키는 영상처리시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150