JP6776970B2 - 視線検出装置、視線検出方法及び視線検出プログラム - Google Patents

視線検出装置、視線検出方法及び視線検出プログラム Download PDF

Info

Publication number
JP6776970B2
JP6776970B2 JP2017059712A JP2017059712A JP6776970B2 JP 6776970 B2 JP6776970 B2 JP 6776970B2 JP 2017059712 A JP2017059712 A JP 2017059712A JP 2017059712 A JP2017059712 A JP 2017059712A JP 6776970 B2 JP6776970 B2 JP 6776970B2
Authority
JP
Japan
Prior art keywords
center
corneal
pupil
difference
curvature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017059712A
Other languages
English (en)
Other versions
JP2018161249A (ja
Inventor
賢 二宮
賢 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017059712A priority Critical patent/JP6776970B2/ja
Priority to PCT/JP2017/040639 priority patent/WO2018173359A1/ja
Priority to EP17901747.0A priority patent/EP3583887B1/en
Publication of JP2018161249A publication Critical patent/JP2018161249A/ja
Priority to US16/561,184 priority patent/US10996747B2/en
Application granted granted Critical
Publication of JP6776970B2 publication Critical patent/JP6776970B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Geometry (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、視線検出装置、視線検出方法及び視線検出プログラムに関する。
操作者又は被験者がモニタ画面などの観察面上で注視している位置を検出する、視線検出装置が提案されている。顔に装置を取り付けることなく被験者の視線方向を非接触で検出する方法として、被験者の眼球に検出光を照射し、検出光が照射された眼球の画像から瞳孔中心と角膜曲率中心とを算出し、角膜曲率中心から瞳孔中心へ向かうベクトルを被験者の視線方向として検出する方法がある。従来においては、角膜曲率半径が左右の眼球で同じ値であり、左右の眼球の視線方向は同じであるとの仮定のもと、視線方向が検出されていた。
特許第2739331号公報
しかし、従来技術では、角膜曲率半径が左右の眼球で大きく異なる被験者、又は斜視などの影響により左右の眼球の視線方向が大きく異なる被験者について、視線方向を正確に検出することが困難であるという問題があった。
本発明は、様々な被験者について視線方向を正確に検出できる視線検出装置、視線検出方法及び視線検出プログラムを提供することを目的とする。
本発明に係る視線検出装置は、表示装置の表示画面の1点に画像を表示する表示制御部と、被験者の左右の眼球に検出光を照射する光源と、前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得部と、取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部と、前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出部と、前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出部と、前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出部と、左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算部と、前記瞳孔中心の位置と前記補正後の角膜曲率中心の位置に前記位置差分を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出部と、左右の眼球の前記位置差分同士の差である左右差分の大きさに基づいて、前記注視点検出部で検出された左右それぞれの眼球の前記視線方向が有効か否かを判定する判定部と、を備える。
本発明に係る視線検出装置は、表示装置の表示画面の1点に画像を表示する表示制御部と、被験者の左右の眼球に検出光を照射する光源と、前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得部と、取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部と、前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出部と、前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出部と、前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出部と、左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算部と、左右の眼球の前記位置差分同士の差である左右差分が所定の閾値以下であるか否かを判定する判定部と、を備える。
本発明に係る視線検出方法は、表示装置の表示画面の1点に画像を表示する表示制御ステップと、被験者の左右の眼球に光源から検出光を照射する照射ステップと、前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得ステップと、取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出ステップと、前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出ステップと、前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出ステップと、前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出ステップと、左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算ステップと、前記瞳孔中心の位置と前記補正後の角膜曲率中心の位置に前記位置差分を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出ステップと、左右の眼球の前記位置差分同士の差である左右差分の大きさに基づいて、左右それぞれの眼球の前記視線方向が有効か否かを判定する判定ステップと、を含む。
本発明に係る視線検出プログラムは、表示装置の表示画面の1点に画像を表示する表示制御ステップと、被験者の左右の眼球に光源から検出光を照射する照射ステップと、前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得ステップと、取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出ステップと、前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出ステップと、前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出ステップと、前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出ステップと、左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算ステップと、前記瞳孔中心の位置と前記補正後の角膜曲率中心の位置に前記位置差分を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出ステップと、左右の眼球の前記位置差分同士の差である左右差分の大きさに基づいて、左右それぞれの眼球の前記視線方向が有効か否かを判定する判定ステップと、をコンピュータに実行させる。
本発明によれば、様々な被験者について視線方向を正確に検出できる。
図1は、本実施形態に係る視線検出装置の一例を模式的に示す斜視図である。 図2は、本実施形態に係る表示装置とステレオカメラ装置と照明装置と被験者の眼球との位置関係を模式的に示す図である。 図3は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。 図4は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。 図5は、本実施形態に係る角膜曲率中心の位置の算出方法を説明するための模式図である。 図6は、本実施形態に係る角膜曲率中心の位置の算出方法を説明するための模式図である。 図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。 図8は、本実施形態に係る第1キャリブレーション処理の一例を説明するための模式図である。 図9は、本実施形態に係る第1キャリブレーション処理の一例を示すフローチャートである。 図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。 図11は、本実施形態に係る注視点検出処理の一例を示すフローチャートである。 図12は、本実施形態に係る第2キャリブレーション処理の一例を説明するための模式図である。 図13は、本実施形態に係る第2キャリブレーション処理の一例を示すフローチャートである。 図14は、本実施形態に係る有効判定処理の一例を示すフローチャートである。
以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。図1に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。
表示装置101は、液晶ディスプレイ(Liquid Crystal Display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。
本実施形態において、表示装置101の表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。また、表示画面101Sに向かって右方向が+X方向、左方向が−X方向であり、上方向が+Y方向、下方向が−Y方向であり、手前方向が+Z方向、奥方向が−Z方向である。
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
図2は、本実施形態に係る表示装置101とステレオカメラ装置102と照明装置103と被験者の眼球111との位置関係を模式的に示す図である。
照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
図3は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図3に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。
演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。音声出力装置70は、スピーカを含み、例えば被験者に注意を促すための音声を出力する。
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型コンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
図4は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図4に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部202と、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、補正位置算出部214と、注視点検出部216と、理想位置算出部218と、演算部220と、判定部222と、記憶部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
表示制御部202は、被験者に見せるための画像を表示装置101の表示画面101Sに表示させる。表示制御部202は、例えば表示画面101Sの1点に画像を表示可能である。
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置を検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置を検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置及び角膜反射中心の位置を検出する。
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置を算出する。
補正位置算出部214は、位置検出部210で検出された瞳孔112の中心と、曲率中心算出部212で算出された角膜曲率中心との距離に基づいて、角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する。
注視点検出部216は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置を検出する。本実施形態において、注視点の位置とは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置をいう。注視点検出部216は、眼球111の画像データから取得された瞳孔中心の位置及び角膜曲率中心の位置に基づいて、被験者の左右それぞれの眼球111の視線方向である視線ベクトルを検出する。つまり、注視点検出部216は、被験者の左右それぞれの眼球111の視線方向を検出する視線検出部でもある。被験者の左右それぞれの眼球111の視線ベクトルが検出された後、注視点検出部216は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置を検出する。
理想位置算出部218は、表示画面101Sの1点に表示される画像の位置と、瞳孔112の中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する。
演算部220は、左右それぞれの眼球について、補正位置算出部214で算出される補正後の角膜曲率中心の位置と、理想位置算出部218で算出される理想的な角膜曲率中心の位置との差分である位置差分を算出する。また、演算部220は、左右の眼球の位置差分同士の差分である左右差分を算出する。
判定部222は、左右差分の大きさに基づいて、注視点検出部216で検出された左右それぞれの眼球の注視点が有効か否かを判定する。
記憶部224は、表示装置101の表示画面101Sの1点に画像を表示する処理と、被験者の左右の眼球に光源から近赤外光を照射する処理と、近赤外光が照射される被験者の左右の眼球の画像データを取得する処理と、取得された画像データから、左右それぞれの眼球の瞳孔112の中心を示す瞳孔中心の位置と角膜反射像113の中心を示す角膜反射中心の位置とを検出する処理と、光源と角膜反射中心とを結ぶ仮想直線と、画像と瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する処理と、瞳孔中心と角膜曲率中心との距離に基づいて角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する処理と、瞳孔中心の位置と補正後の角膜曲率中心の位置とから、左右それぞれの眼球の注視点を検出する処理と、表示画面101Sの1点に表示される画像の位置と瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する処理と、左右それぞれの眼球について、補正後の角膜曲率中心の位置と理想的な角膜曲率中心の位置との差分である位置差分を算出する処理と、左右の眼球の位置差分同士の差である左右差分の大きさに基づいて、注視点検出部216で検出された左右それぞれの眼球の注視点が有効か否かを判定する処理と、をコンピュータに実行させる視線検出プログラムを記憶する。
出力制御部226は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部226は、表示画面101Sの1点に画像を表示させる。また、出力制御部226は、被験者の左右それぞれの眼球111の注視点の位置を表示画面101S又は出力装置50に表示させる。
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置を算出する。
図5及び図6は、本実施形態に係る角膜曲率中心110の位置の算出方法を説明するための模式図である。図5は、1つの光源103Cで眼球111が照明される例を示す。図6は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
まず、図5に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図5において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。
角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。
角膜反射中心113Cの位置は、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置を、角膜曲率中心110の位置として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部224に記憶されている。
次に、図6に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。
角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。
角膜反射中心124の位置は、ステレオカメラ装置102で取得された角膜反射中心121の位置及び角膜反射中心122の位置に基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置及び角膜反射中心122の位置を検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部224に記憶されている。
曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置及び角膜反射中心122の位置を、変換パラメータを使って、三次元グローバル座標系における位置に変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置及び角膜反射中心122の位置に基づいて、三次元グローバル座標系における角膜反射中心124の位置を算出する。
角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置を、角膜曲率中心110の位置として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部224に記憶されている。
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置及び角膜曲率中心110の位置が算出されることにより、角膜曲率半径109が算出される。
[視線検出方法]
次に、本実施形態に係る視線検出方法の一例について説明する。図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。本実施形態においては、角膜曲率中心110の位置の算出処理及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含む第1キャリブレーション処理(ステップS100)と、注視点検出処理(ステップS200)と、理想的な角膜曲率中心110の位置の算出処理を含む第2キャリブレーション処理(ステップS300)と、左右の眼球の位置差分同士の差である左右差分の大きさに基づいて、ステップS200で検出された左右それぞれの眼球の注視点が有効か否かを判定する有効判定処理(ステップS400)と、が実施される。
(第1キャリブレーション処理)
第1キャリブレーション処理(ステップS100)について説明する。図8は、本実施形態に係る第1キャリブレーション処理の一例を説明するための模式図である。第1キャリブレーション処理は、角膜曲率中心110の位置を算出すること、及び瞳孔中心112Cと角膜曲率中心110との距離126を算出することを含む。
被験者に注視させるための目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。
表示制御部202は、設定された目標位置130に目標画像を表示させる。これにより、被験者は、目標位置130を注視し易くなる。
直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置と、目標位置130の位置と、瞳孔中心112Cの位置と、角膜反射中心113Cの位置とに基づいて、角膜曲率中心110の位置を算出することができる。
図9は、本実施形態に係る第1キャリブレーション処理(ステップS100)の一例を示すフローチャートである。表示制御部202は、表示装置101の表示画面101Sに目標画像を表示させる(ステップS101)。被験者は、目標画像を注視することにより、目標位置130を注視することができる。
次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち一方の光源から検出光を射出させる(ステップS102)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS103)。
次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち他方の光源から検出光を射出させる(ステップS104)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS105)。
瞳孔112は、暗い部分としてステレオカメラ装置102に検出され、角膜反射像113は、明るい部分としてステレオカメラ装置102に検出される。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。位置検出部210は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。また、位置検出部210は、瞳孔112の画像データに基づいて、瞳孔中心112Cの位置を算出する。また、位置検出部210は、角膜反射像113の画像データに基づいて、角膜反射中心113Cの位置を算出する(ステップS106)。
ステレオカメラ装置102によって検出された位置は、3次元のローカル座標系で規定される位置である。位置検出部210は、記憶部224に記憶されている変換パラメータを使用して、ステレオカメラ装置102で検出された瞳孔中心112Cの位置及び角膜反射中心113Cの位置を座標変換して、三次元グローバル座標系で規定される瞳孔中心112Cの位置及び角膜反射中心113Cの位置を算出する(ステップS107)。
曲率中心算出部212は、グローバル座標系で規定される角膜反射中心113Cと仮想光源103Vとを結ぶ直線131を算出する(ステップS108)。
次に、曲率中心算出部212は、表示装置101の表示画面101Sに規定される目標位置130と瞳孔中心112Cとを結ぶ直線132を算出する(ステップS109)。曲率中心算出部212は、ステップS108で算出した直線131とステップS109で算出した直線132との交点を求め、この交点を角膜曲率中心110とする(ステップS110)。
曲率中心算出部212は、瞳孔中心112Cと角膜曲率中心110との距離126を算出して、記憶部224に記憶する(ステップS111)。記憶された距離は、ステップS200の注視点検出において、角膜曲率中心110を算出するために使用される。
(注視点検出処理)
次に、注視点検出処理(ステップS200)について説明する。注視点検出処理は、第1キャリブレーション処理の後に実施される。注視点検出部216は、眼球111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置を算出する。
図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。注視点検出処理は、第1キャリブレーション処理(ステップS100)で求めた瞳孔中心112Cと角膜曲率中心110との距離126を用いて、角膜曲率中心110の位置を補正すること、及び補正された角膜曲率中心110の位置を使って注視点を算出することを含む。
図10において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心110から求めた注視点を示す。注視点166は、第1キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心110Hから求めた注視点を示す。
瞳孔中心112Cは、第1キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、第1キャリブレーション処理において算出された角膜反射中心を示す。
直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。
距離126は、第1キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。
角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。
角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
図11は、本実施形態に係る注視点検出処理(ステップS200)の一例を示すフローチャートである。なお、図11に示すステップS201からステップS207までの処理は、図9に示したステップS102からステップS108までの処理と同様であるため説明を省略する。
補正位置算出部214は、ステップS207で算出した直線173上であって、瞳孔中心112Cからの距離がキャリブレーション処理によって求めた距離126と等しい位置を、補正後の角膜曲率中心である角膜曲率中心110Hとして算出する(ステップS208)。
注視点検出部216は、瞳孔中心112Cと角膜曲率中心110Hとを結ぶ視線ベクトルを算出する(ステップS209)。視線ベクトルは、被験者が見ている視線方向を示す。注視点検出部216は、視線ベクトルと表示装置101の表示画面101Sとの交点の位置を算出する(ステップS210)。視線ベクトルと表示装置101の表示画面101Sとの交点の位置が、三次元グローバル座標系で規定される表示画面101Sにおける被験者の注視点の位置である。
注視点検出部216は、三次元グローバル座標系で規定される注視点の位置を、2次元座標系で規定される表示装置101の表示画面101Sにおける位置に変換する(ステップS211)。これにより、被験者が見つめる表示装置101の表示画面101S上の注視点の位置が算出される。
(第2キャリブレーション処理)
次に、第2キャリブレーション処理(ステップS300)について説明する。図12は、本実施形態に係る第2キャリブレーション処理の一例を説明するための模式図である。第2キャリブレーション処理は、左右それぞれの眼球の理想的な角膜曲率中心110Fの位置を算出することを含む。
図12に示すように、第2キャリブレーション処理では、被験者に注視させるための目標位置180が設定される。目標位置180は、三次元グローバル座標系において規定される。本実施形態において、目標位置180は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置180は、表示画面101Sの端部位置に設定されてもよい。表示制御部202は、設定された目標位置180に目標画像を表示させる。これにより、被験者は、目標位置180を注視し易くなる。
瞳孔中心112Cは、第1キャリブレーション処理において算出された瞳孔中心を示す。直線181は、仮想光源103Vと瞳孔中心112Cとを結ぶ直線である。距離126は、第1キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110Fとの距離である。
直線181上であって、瞳孔中心112Cとの間に距離126を有する位置には、理想的な角膜曲率中心110Fが設定される。理想位置算出部218は、目標位置180の位置と、瞳孔中心112Cの位置と、瞳孔中心112Cと角膜曲率中心110との距離126のデータとに基づいて、理想的な角膜曲率中心110Fの位置を算出することができる。位置差分127は、理想的な角膜曲率中心110Fと、上記した補正後の角膜曲率中心110Hとの距離である。
図13は、本実施形態に係る第2キャリブレーション処理(S300)の一例を示すフローチャートである。なお、図13に示すステップS301からステップS307までの処理は、図9に示したステップS101からステップS107までの処理と同様であるため説明を省略する。
理想位置算出部218は、表示画面101Sの目標位置180と、グローバル座標系で規定される瞳孔中心112Cとを結ぶ直線181を算出する(ステップS308)。
次に、理想位置算出部218は、ステップS308で算出した直線181上の点であって、瞳孔中心112Cからの距離が第1キャリブレーション処理によって求めた距離126と等しい点を理想的な角膜曲率中心110Fとして求め、当該理想的な角膜曲率中心110Fの位置を算出する(ステップS309)。
次に、演算部220は、左右それぞれの眼球について、理想的な角膜曲率中心110Fと補正後の角膜曲率中心110Hとの距離である位置差分127を算出する(ステップS310)。演算部220は、算出した位置差分127を記憶部224に記憶させる。この位置差分127は、注視点検出処理で得られる補正後の角膜曲率中心110Hに対する較正値として用いられる。例えば、以降に注視点検出処理を行う際、注視点検出部216は、瞳孔中心112Cの位置と補正後の角膜曲率中心110Hの位置に位置差分127を加算した位置とから左右それぞれの眼球の視線方向を検出する。具体的には、注視点検出部216は、補正後の角膜曲率中心110Hに位置差分127を較正値として加算した角膜曲率中心から瞳孔中心112Cへ向かう視線ベクトルを、被験者の較正後の視線方向として検出する。
(有効判定処理)
次に、有効判定処理(S400)について説明する。有効判定処理(S400)では、左右それぞれの眼球について、左右の眼球の位置差分127同士の差分である左右差分を算出すること、左右差分の大きさに基づいて左右それぞれの眼球の視線方向が有効か否かを判定することを含む。
図14は、本実施形態に係る有効判定処理(S400)の一例を示すフローチャートである。図14に示すように、有効判定処理S400において、演算部220は、左右の眼球の位置差分127同士の差分である左右差分を算出する(ステップS401)。
左右差分が算出された後、判定部222は、左右差分の絶対値が一定値m(第1閾値、所定の閾値)以下であるか否かを判定する(ステップS402)。一定値mは、予め設定して記憶部224に記憶させておく。判定部222により左右差分の絶対値が一定値m以下であると判定された場合(ステップS402のYes)、注視点検出部216は、左右両方の眼球の視線方向が有効であると判断し、左右の視線方向の平均値を検出結果として抽出する(ステップS403)。
一方、判定部222は、ステップS402において、左右差分の絶対値が一定値mより大きいと判定した場合(ステップS402のNo)、左右で位置差分127が小さい方がどちらかを判定する(ステップS404)。ステップS404において、演算部220は、例えば左の眼球についての位置差分127から右の眼球についての位置差分127を減算した減算値が正の値であれば右の眼球についての位置差分127が小さいと判定し負の値であれば左の眼球についての位置差分127が小さいと判定することにより、左右で位置差分が小さい方を容易に判定できる。なお、演算部220は、右の眼球についての位置差分127から左の眼球についての位置差分127を減算した減算値について同様の判定を行ってもよい。
次に、演算部220は、左右のうち小さい方の位置差分127が一定値n(第2閾値)以下であるか否かを判定する(ステップS405)。一定値nは、予め設定して記憶部224に記憶させておく。ステップS405において、判定部222により小さい方の位置差分127が一定値n以下であると判定された場合(ステップS405のYes)、注視点検出部216は、左右のうち位置差分127が小さい方の眼球の視線方向が有効であると判断し、当該視線方向を検出結果として抽出する(ステップS406)。
一方、判定部222は、ステップS405において、小さい方の位置差分127が一定値nよりも大きいと判定した場合(ステップS405のNo)、左右のどちらの眼球の視線方向についても有効ではないものとして、エラー判定を行う(ステップS407)。有効判定処理は、ステップS403、ステップS406、ステップS407のいずれかが行われた場合、処理を終了する。
以上のように、本実施形態に係る視線検出装置100は、表示装置101の表示画面101Sの1点に画像を表示する表示制御部202と、被験者の左右の眼球に検出光を照射する照明装置103と、検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得部206と、取得された画像データから、左右それぞれの眼球の瞳孔中心112Cの位置と角膜反射中心113Cの位置とを検出する位置検出部210と、光源103と角膜反射中心113Cとを結ぶ直線131と、画像と瞳孔中心112Cと結ぶ直線132とに基づいて、左右それぞれの眼球の角膜曲率中心110の位置を算出する曲率中心算出部212と、瞳孔中心112Cと角膜曲率中心110との距離に基づいて角膜曲率中心110の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心110Hの位置を算出する補正位置算出部214と、表示画面101Sの1点に表示される画像の位置と瞳孔中心112Cの位置とから、左右それぞれの眼球の理想的な角膜曲率中心110Fの位置を算出する理想位置算出部218と、左右それぞれの眼球について補正後の角膜曲率中心110Hの位置と理想的な角膜曲率中心110Fの位置との差分である位置差分127を算出する演算部220と、瞳孔中心112Cの位置と補正後の角膜曲率中心110Hの位置に位置差分127を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出部216と、左右の眼球の位置差分127同士の差である左右差分の大きさに基づいて、注視点検出部216で検出された左右それぞれの眼球の視線方向が有効か否かを判定する判定部222と、を備える。
この構成によれば、注視点検出部216で検出される視線方向の有効性について、角膜曲率中心の位置を検出する際の較正値である位置差分127を用いて判定するため、別途視線方向の有効性を検出するための設備等を用いることなく、容易かつ効果的に視線方向の有効性を判定することができる。これにより、例えば角膜曲率半径が左右の眼球で大きく異なる被験者、又は斜視などの影響により左右の眼球の視線方向が大きく異なる被験者等、様々な被験者について視線方向を正確に検出できる。
また、本実施形態において、演算部222は、算出した左右の眼球の位置差分127に基づいて左右差分を算出するため、演算部222において位置差分127及び左右差分を効率的に算出することができる。
また、本実施形態において、注視点検出部216は、左右の眼球の視線方向のうち判定部222で有効であると判定された視線方向を検出結果として抽出するため、より確実に視線方向の有効性を判定できる。
また、本実施形態において、判定部222は、左右差分の絶対値が第1閾値以下である場合、左右両方の眼球の視線方向が有効であると判定するため、視線方向の有効性を判定する判定精度を高めることができる。
また、本実施形態において、判定部222は、左右差分の絶対値が第1閾値よりも大きい場合であって、左右の眼球の位置差分127のうち小さい方の位置差分127が第2閾値以下である場合、左右のうち位置差分127が小さい方の眼球の視線方向が有効であると判定するため、左右のうち有効な視線方向のみを採用することができる。これにより、視線方向の有効性を判定する精度を高めることができる。
また、本実施形態において、判定部222は、左右差分が第1閾値よりも大きい場合であって、左右の眼球の位置差分127のうち小さい方の位置差分127が第2閾値よりも大きい場合、左右両方の眼球の視線方向が有効でないと判定するため、有効でない視線方向を採用しないことができる。これにより、視線方向の有効性を判定する精度を高めることができる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
例えば、上記実施形態の有効判定処理(S400)において、ステップS401の後、判定部222が、左右の眼球の位置差分127同士の差である左右差分が一定値m(所定の閾値)以下であるか否かを判定し、判定結果を出力する処理を行ってもよい。なお、当該処理は、上記した有効判定処理と並列に行ってもよいし、当該処理を単独の有効判定処理として行ってもよい。これにより、出力結果に基づいて、被験者の左右の眼球の視線方向が大きく異なるか否かを検出することができる。この検出結果を用いることにより、視線方向の検出精度の向上を図ることができる。
20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視線検出装置、101…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103C…光源、103A…第1光源、103B…第2光源、103V…仮想光源、109…角膜曲率半径、110,110F,110H…角膜曲率中心、111…眼球、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173,181…直線、126…距離、127…位置差分、130,180…目標位置、165,166…注視点、177,178…視線、202…表示制御部、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…補正位置算出部、216…注視点検出部、218…理想位置算出部、220…演算部、222…判定部、224…記憶部、226…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部。

Claims (6)

  1. 表示装置の表示画面の1点に画像を表示する表示制御部と、
    被験者の左右の眼球に検出光を照射する光源と、
    前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得部と、
    取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部と、
    前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出部と、
    前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出部と、
    前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出部と、
    左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算部と、
    前記瞳孔中心の位置と前記補正後の角膜曲率中心の位置に前記位置差分を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出部と、
    左右の眼球の前記位置差分同士の差である左右差分の大きさに基づいて、前記注視点検出部で検出された左右それぞれの眼球の前記視線方向が有効か否かを判定する判定部と、
    を備える視線検出装置。
  2. 前記判定部は、前記左右差分の絶対値が第1閾値以下である場合、左右両方の眼球の前記視線方向が有効であると判定する
    請求項1に記載の視線検出装置。
  3. 前記判定部は、前記左右差分が第1閾値よりも大きい場合であって、左右の眼球の前記位置差分のうち小さい方の前記位置差分が第2閾値以下である場合、左右のうち前記位置差分が小さい方の眼球の前記視線方向が有効であると判定する
    請求項1又は請求項2に記載の視線検出装置。
  4. 表示装置の表示画面の1点に画像を表示する表示制御部と、
    被験者の左右の眼球に検出光を照射する光源と、
    前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得部と、
    取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部と、
    前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出部と、
    前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出部と、
    前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出部と、
    左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算部と、
    左右の眼球の前記位置差分同士の差である左右差分が所定の閾値以下であるか否かを判定する判定部と、
    を備える視線検出装置。
  5. 表示装置の表示画面の1点に画像を表示する表示制御ステップと、
    被験者の左右の眼球に光源から検出光を照射する照射ステップと、
    前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得ステップと、
    取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出ステップと、
    前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出ステップと、
    前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出ステップと、
    前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出ステップと、
    左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算ステップと、
    前記瞳孔中心の位置と前記補正後の角膜曲率中心の位置に前記位置差分を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出ステップと、
    左右の眼球の前記位置差分同士の差である左右差分の大きさに基づいて、左右それぞれの眼球の前記視線方向が有効か否かを判定する判定ステップと、
    を含むことを特徴とする視線検出方法。
  6. 表示装置の表示画面の1点に画像を表示する表示制御ステップと、
    被験者の左右の眼球に光源から検出光を照射する照射ステップと、
    前記検出光が照射される被験者の左右の眼球の画像データを取得する画像データ取得ステップと、
    取得された前記画像データから、左右それぞれの眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出ステップと、
    前記光源と前記角膜反射中心とを結ぶ仮想直線と、前記画像と前記瞳孔中心と結ぶ仮想直線とに基づいて、左右それぞれの眼球の角膜曲率中心の位置を算出する曲率中心算出ステップと、
    前記瞳孔中心と前記角膜曲率中心との距離に基づいて前記角膜曲率中心の位置を補正し、左右それぞれの眼球の補正後の角膜曲率中心の位置を算出する補正位置算出ステップと、
    前記表示画面の1点に表示される前記画像の位置と前記瞳孔中心の位置とから、左右それぞれの眼球の理想的な角膜曲率中心の位置を算出する理想位置算出ステップと、
    左右それぞれの眼球について前記補正後の角膜曲率中心の位置と前記理想的な角膜曲率中心の位置との差分である位置差分を算出する演算ステップと、
    前記瞳孔中心の位置と前記補正後の角膜曲率中心の位置に前記位置差分を加算した位置とから左右それぞれの眼球の視線方向を検出する注視点検出ステップと、
    左右の眼球の前記位置差分同士の差である左右差分の大きさに基づいて、左右それぞれの眼球の前記視線方向が有効か否かを判定する判定ステップと、
    をコンピュータに実行させることを特徴とする視線検出プログラム。
JP2017059712A 2017-03-24 2017-03-24 視線検出装置、視線検出方法及び視線検出プログラム Active JP6776970B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017059712A JP6776970B2 (ja) 2017-03-24 2017-03-24 視線検出装置、視線検出方法及び視線検出プログラム
PCT/JP2017/040639 WO2018173359A1 (ja) 2017-03-24 2017-11-10 視線検出装置、視線検出方法及び視線検出プログラム
EP17901747.0A EP3583887B1 (en) 2017-03-24 2017-11-10 Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
US16/561,184 US10996747B2 (en) 2017-03-24 2019-09-05 Line-of-sight detection device, line-of-sight detection method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059712A JP6776970B2 (ja) 2017-03-24 2017-03-24 視線検出装置、視線検出方法及び視線検出プログラム

Publications (2)

Publication Number Publication Date
JP2018161249A JP2018161249A (ja) 2018-10-18
JP6776970B2 true JP6776970B2 (ja) 2020-10-28

Family

ID=63585318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059712A Active JP6776970B2 (ja) 2017-03-24 2017-03-24 視線検出装置、視線検出方法及び視線検出プログラム

Country Status (4)

Country Link
US (1) US10996747B2 (ja)
EP (1) EP3583887B1 (ja)
JP (1) JP6776970B2 (ja)
WO (1) WO2018173359A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116027910B (zh) * 2023-03-29 2023-07-04 广州视景医疗软件有限公司 一种基于vr眼动追踪技术的眼位图生成方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739331B2 (ja) 1988-11-16 1998-04-15 株式会社エイ・ティ・アール通信システム研究所 非接触視線検出装置
EP3663840A1 (en) * 2012-09-19 2020-06-10 Nikon Corporation Line of sight detection device, display method, line of sight detection device calibration method, spectacle lens design method, spectacle lens selection method, spectacle lens manufacturing method, printed matter, spectacle lens sales method, optical device, line of sight information detection method, optical instrument design method, optical instrument, optical instrument selection method, and optical instrument production method
JP6217445B2 (ja) * 2013-03-07 2017-10-25 株式会社Jvcケンウッド 診断支援装置および診断支援方法
WO2014188727A1 (ja) * 2013-05-22 2014-11-27 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
JP6210023B2 (ja) * 2013-11-28 2017-10-11 株式会社Jvcケンウッド 視線検出支援装置および視線検出支援方法
WO2015190204A1 (ja) * 2014-06-09 2015-12-17 国立大学法人静岡大学 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP6201956B2 (ja) * 2014-10-24 2017-09-27 株式会社Jvcケンウッド 視線検出装置および視線検出方法
US10016131B2 (en) * 2014-11-14 2018-07-10 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Eye tracking system and method to detect the dominant eye
US10061384B2 (en) * 2015-02-23 2018-08-28 Sony Corporation Information processing apparatus, information processing method, and program
JP6536324B2 (ja) * 2015-09-30 2019-07-03 富士通株式会社 視線検出システム、視線検出方法および視線検出プログラム

Also Published As

Publication number Publication date
US20190391643A1 (en) 2019-12-26
EP3583887A4 (en) 2020-03-18
WO2018173359A1 (ja) 2018-09-27
EP3583887B1 (en) 2021-12-08
EP3583887A1 (en) 2019-12-25
US10996747B2 (en) 2021-05-04
JP2018161249A (ja) 2018-10-18

Similar Documents

Publication Publication Date Title
JP6971686B2 (ja) 視線検出装置及び視線検出方法
JP6737234B2 (ja) 評価装置、評価方法、及び評価プログラム
EP3488763B1 (en) Line-of-sight detection device, line-of-sight detection method, and computer program
JP6848526B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
WO2021059745A1 (ja) 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
JP6776970B2 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP6996343B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7063045B2 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP6958507B2 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム
JP2015046111A (ja) 視点検出装置および視点検出方法
JP2019024776A (ja) 評価装置、評価方法、及び評価プログラム
JP7074221B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2023008023A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
WO2022044395A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
WO2021059746A1 (ja) 視線データ処理装置、評価装置、視線データ処理方法、評価方法、視線データ処理プログラム、及び評価プログラム
JP2023019690A (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP2023019659A (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP2024090620A (ja) 被験者特定装置、視線検出装置、被験者特定方法及び被験者特定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R150 Certificate of patent or registration of utility model

Ref document number: 6776970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150