JP2021099664A - 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム - Google Patents
角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム Download PDFInfo
- Publication number
- JP2021099664A JP2021099664A JP2019231141A JP2019231141A JP2021099664A JP 2021099664 A JP2021099664 A JP 2021099664A JP 2019231141 A JP2019231141 A JP 2019231141A JP 2019231141 A JP2019231141 A JP 2019231141A JP 2021099664 A JP2021099664 A JP 2021099664A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- subject
- eyeball
- light
- corneal reflex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
【課題】角膜反射の位置を容易、かつ、精度よく検出する角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラムを提供する。【解決手段】視線検出装置100において、角膜反射検出装置70は、光源の射出位置と撮影部の撮影位置とが第1位置関係となるように配置した状態で、被験者の眼球に第1光を照射し、第1光が照射された状態の被験者の眼球を撮影部で撮影して第1画像データを生成し、光源の射出位置と撮影部の撮影位置とが第2位置関係となるように配置した状態で、被験者の眼球に第2光を照射し、第2光が照射された状態の被験者の眼球を撮影部で撮影して第2画像データを生成し、第1画像データを構成する画素と第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行い、演算結果に基づいて、被験者の眼球における角膜反射の位置を推定する。【選択図】図2
Description
本発明は、角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラムに関する。
視線検出技術の一つとして角膜反射法が知られている。角膜反射法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼球をカメラで撮影し、角膜表面における光源の反射像である角膜反射に対する瞳孔の位置を検出して、被験者の視線を検出する。例えば、暗瞳孔及び明瞳孔の差分画像を用いて瞳孔の位置を検出する方法が提案されている(例えば、特許文献1参照)。
特許文献1に記載の方法では、角膜反射の位置を容易に精度よく検出することができない。
本発明は、上記に鑑みてなされたものであり、角膜反射の位置を容易にかつ精度よく検出することが可能な角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラムを提供することを目的とする。
本発明に係る角膜反射検出装置は、被験者の眼球を照射可能な光源と、前記被験者の眼球を撮影し画像データを生成する撮影部とを有し、前記光源による光の射出位置及び前記撮影部による撮影位置の位置関係を変更可能な画像取得装置と、前記光源の前記射出位置と前記撮影部の前記撮影位置とが第1位置関係となるように配置した状態で、前記被験者の眼球に第1光を照射し、前記第1光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第1画像データを生成する第1撮影モードと、前記光源の前記射出位置と前記撮影部の前記撮影位置とが第2位置関係となるように配置した状態で、前記被験者の眼球に第2光を照射し、前記第2光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第2画像データを生成する第2撮影モードと、を前記光源及び前記撮影部に行わせる撮影制御部と、前記第1画像データを構成する画素と前記第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行う演算部と、演算結果に基づいて、前記被験者の眼球における角膜反射の位置を推定する処理部とを備える。
本発明に係る視線検出装置は、上記の角膜反射検出装置を備える。
本発明に係る角膜反射検出方法は、光源による光の射出位置と撮影部による撮影位置とが第1位置関係となるように配置した状態で、被験者の眼球に第1光を照射し、前記第1光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第1画像データを生成することと、前記光源の前記射出位置と前記撮影位置とが前記第1位置関係とは異なる第2位置関係となるように配置した状態で、前記被験者の眼球に第2光を照射し、前記第2光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第2画像データを生成することと、前記第1画像データを構成する画素と前記第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行うことと、演算結果に基づいて、前記被験者の眼球における角膜反射の位置を推定することとを含む。
本発明に係る角膜反射検出プログラムは、光源による光の射出位置と撮影部による撮影位置とが第1位置関係となるように配置した状態で、被験者の眼球に第1光を照射し、前記第1光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第1画像データを生成する処理と、前記光源の前記射出位置と前記撮影位置とが前記第1位置関係とは異なる第2位置関係となるように配置した状態で、前記被験者の眼球に第2光を照射し、前記第2光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第2画像データを生成する処理と、前記第1画像データを構成する画素と前記第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行うことと、演算結果に基づいて、前記被験者の眼球における角膜反射の位置を推定する処理とをコンピュータに実行させる。
本発明によれば、角膜反射の位置を容易にかつ精度よく検出することができる。
以下、本発明に係る角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
[角膜反射検出装置、視線検出装置]
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す図である。本実施形態に係る視線検出装置100は、被験者の視線を検出し、検出結果を出力する。視線検出装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する。
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す図である。本実施形態に係る視線検出装置100は、被験者の視線を検出し、検出結果を出力する。視線検出装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する。
図1に示すように、視線検出装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。
表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。ヘッドマウント型ディスプレイの場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。
画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、撮影装置(撮影部)21を有する。撮影装置21は、被験者の左右の眼球EBを撮影することで画像データを生成する。撮影装置21は、被験者の視線を検出する方法に応じた各種カメラを有する。本実施形態のように、被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮影装置21は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。撮影装置21は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮影装置21は、第1カメラ21A及び第2カメラ21Bを有するステレオカメラの構成である。第1カメラ21Aは、第1撮影位置Q1に配置される。第2カメラ21Bは、第2撮影位置Q2に配置される。第1カメラ21A及び第2カメラ21Bにより取得される画像データは、例えば8ビットの値(0〜255)で設定される輝度を有する画素が2次元状に配列された構成である。輝度は、値が小さいほど暗く、値が大きいほど明るいことを示す。輝度の値が0の画素は、画像データに黒色として表示される。輝度の値が255の画素は、画像データに白色として表示される。第1カメラ21A及び第2カメラ21Bは、例えば同一の解像度を有する。この場合、第1カメラ21A及び第2カメラ21Bにより取得される画像データは、縦横の画素数が互いに等しくなる。
画像取得装置20は、被験者の眼球EBを照明する照明装置(光源)22を有する。照明装置22は、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。照明装置22は、撮影装置21のフレーム同期信号に同期するように検出光(光)を射出する。照明装置22は、第1光源22A及び第2光源22Bを有する。第1光源22Aは、第1射出位置P1に配置され、第1光L1を射出する。第2光源22Bは、第2射出位置P2に配置され、第2光L2を射出する。
コンピュータシステム30は、視線検出装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。
出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。
本実施形態に係る視線検出装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。
図2は、視線検出装置100の一例を示す機能ブロック図である。図2に示すように、コンピュータシステム30は、撮影制御部31と、入出力制御部32と、演算部33と、処理部34と、注視点検出部35と、記憶部36とを有する。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図1参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が視線検出装置100の外部に設けられてもよい。本実施形態では、画像取得装置20の撮影装置(撮影部)21及び照明装置(光源)22と、撮影制御部31と、入出力制御部32と、演算部33と、処理部34とによって角膜反射検出装置70が構成される。なお、角膜反射検出装置70は、注視点検出部35及び記憶部36の少なくとも一方を含んでもよい。
撮影制御部31は、撮影装置21及び照明装置22を制御する。撮影制御部31は、照明装置22の第1光源22A及び第2光源22Bのそれぞれについて、検出光の射出のタイミング、射出時間等を制御する。撮影制御部31は、撮影装置21の第1カメラ21A及び第2カメラ21Bのそれぞれについて、撮影のタイミング等を制御する。撮影制御部31は、照明装置22による光の射出位置及び撮影装置21による撮影位置の位置関係を変更することができる。
撮影制御部31は、撮影装置21及び照明装置22に対して、以下に説明する第1撮影モード及び第2撮影モードを行わせる。
第1撮影モードは、第1射出位置P1から被験者の眼球EBに第1光を照射し、第1光が照射された状態の被験者の眼球EBを第1撮影位置Q1から撮影して第1画像データを生成する撮影モードである。このとき、照明装置22の射出位置と撮影装置21の撮影位置との位置関係は、射出位置が第1射出位置P1であり、撮影位置が第1撮影位置Q1である第1位置関係となる。第1位置関係において、第1撮影位置Q1と第1射出位置P1との距離は第1撮影位置Q1と第2射出位置P2との距離に対し遠い位置となっていることが望ましい。第1撮影モードを行う場合、撮影制御部31は、第1光源22Aが第1光L1を発光し、この状態で第1カメラ21Aが被験者の眼球を撮影するように撮影装置21及び照明装置22を制御する。
第2撮影モードは、第2射出位置P2から被験者の眼球EBに第2光を照射し、第2光が照射された状態の被験者の眼球EBを第2撮影位置Q2から撮影して第2画像データを生成する撮影モードである。このとき、照明装置22の射出位置と撮影装置21の撮影位置との位置関係は、射出位置が第2射出位置P2であり、撮影位置が第2撮影位置Q2である第2位置関係となる。第2位置関係において、第2撮影位置Q2と第2射出位置P2との距離は第2撮影位置Q2と第1射出位置P1との距離に対し遠い位置となっていることが望ましい。第2撮影モードを行う場合、撮影制御部31は、第2光源22Bが第2光L2を発光し、この状態で被験者の眼球を第2カメラ21Bが撮影するように撮影装置21及び照明装置22を制御する。
入出力制御部32は、画像取得装置20及び入力装置50の少なくとも一方からのデータを取得する。入出力制御部32は、画像取得装置20により取得される画像データ(第1画像データ、第2画像データ)を取得する。入出力制御部32は、取得した第1画像データ及び第2画像データを記憶部36に記憶する。また、入出力制御部32は、表示装置10及び出力装置40の少なくとも一方にデータを出力する。
演算部33は、第1画像データと第2画像データとの間で対応する画素の輝度に関する輝度演算を行う。演算部33は、第1画像データと第2画像データとの間で対応する画素の輝度の差分を求める演算を輝度演算として行ってもよい。また、演算部33は、当該差分を求め、求めた輝度の差分の絶対値を算出する演算を輝度演算として行ってもよい。また、演算部33は、求めた輝度の差分の値が負の値となる場合、当該輝度の差分の値を「0」とする演算を行ってもよい。なお、輝度演算は、輝度の差分を求める演算に限定されない。例えば、演算部33は、第1画像データと第2画像データとの間で対応する画素の輝度を比較し、共に所定の閾値以下の輝度であった場合には、輝度の値を「0」に置換する演算を輝度演算として行ってもよい。
処理部34は、演算結果に基づいて、被験者の眼球における角膜反射の位置を推定する。演算部33が輝度の差分を求め、当該差分の絶対値を算出する構成において、処理部34は、算出された絶対値に基づいて角膜反射の位置を推定することができる。この場合、処理部34は、例えば算出された絶対値を画素における輝度とする差分画像データを生成し、生成した差分画像データに基づいて角膜反射の位置を推定することができる。
差分画像データに基づいて角膜反射の位置を推定する場合、処理部34は、まず、差分画像データの中から最も輝度が高い画素である最高輝度画素を求める。処理部34は、求めた最高輝度画素の周囲において、所定の輝度閾値を超える輝度を有する高輝度画素を抽出する。最高輝度画素の周囲については、例えば、最高輝度画素に対して上下方向に±32画素以内の正方形内に含まれる領域とすることができる。所定の輝度閾値については、例えば、輝度が8ビットで表される場合、−30とすることができる。つまり、最高輝度画素に対して−30を超える輝度を有する画素を高輝度画素とすることができる。処理部34は、抽出した高輝度画素の面積を算出し、高輝度画素の面積が所定の面積閾値以下であるか否かを判定する。所定の面積閾値については、例えば、連続した領域が20画素以内となる面積とすることができる。処理部34は、高輝度画素の面積が所定の面積閾値未満である場合に、最高輝度画素が角膜反射に含まれると判定する。一方、処理部34は、高輝度画素の面積が所定の面積閾値以上である場合、高輝度画素が角膜反射には含まれないと判定する。処理部34は、最高輝度画素が角膜反射に含まれると判定した場合に、最高輝度画素の位置が角膜反射の位置であると推定する。
注視点検出部35は、被験者の注視点の位置データ(視線データ)を検出する。本実施形態において、注視点検出部35は、画像取得装置20によって取得される被験者の左右の眼球EBの画像データに基づいて、三次元グローバル座標系で規定される被験者の視線ベクトルを検出する。注視点検出部35は、検出した被験者の視線ベクトルと表示装置10の表示部11との交点の位置データを、被験者の注視点の位置データとして検出する。つまり、本実施形態において、注視点の位置データは、三次元グローバル座標系で規定される被験者の視線ベクトルと、表示装置10の表示部11との交点の位置データである。本実施形態において、注視点は、被験者に注視されることで指定される表示部11上の指定点である。注視点検出部35は、規定のサンプリング周期毎に被験者の注視点の位置データを検出する。このサンプリング周期は、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。
本実施形態において、注視点検出部35は、左右の眼球EBの画像データに基づいて、瞳孔領域及び角膜反射領域を検出し、検出結果に基づいて瞳孔中心及び角膜反射中心の位置を算出する。また、注視点検出部35は、第1カメラ21Aと第2カメラ21Bとの中間の位置(仮想光源位置)と、算出した角膜反射中心の位置とを結ぶ仮想直線に基づいて角膜曲率中心を算出する。注視点検出部35は、算出した瞳孔中心と角膜曲率中心とを結ぶ仮想直線の直線方向を視線方向G(図3参照)として検出する。
記憶部36は、入出力制御部32により取得される第1画像データ及び第2画像データを記憶する。記憶部36は、処理部34により生成される差分画像データを記憶する。また、記憶部36は、照明装置22による光の射出位置と撮影装置21による撮影位置とが第1位置関係(第1射出位置P1、第1撮影位置Q1)となるように配置した状態で、被験者の眼球EBに第1光L1を照射し、第1光L1が照射された状態の被験者の眼球EBを撮影装置21で撮影して複数の画素を含む第1画像データIM1を生成する処理と、照明装置22による光の射出位置と撮影装置21による撮影位置とが第2位置関係(第2射出位置P2、第2撮影位置Q2)となるように配置した状態で、第2光L2を被験者の眼球EBに照射し、第2光L2が照射された状態の被験者の眼球EBを撮影装置21で撮影して複数の画素を含む第2画像データIM2を生成する処理と、第1画像データIM1を構成する画素と第2画像データIM2を構成する画素との間で対応する画素間の輝度に関する輝度演算を行う処理と、演算結果に基づいて、被験者の眼球EBにおける角膜反射CRの位置を推定する処理とをコンピュータに実行させる角膜反射検出プログラムを記憶する。
[角膜反射検出方法]
次に、本実施形態に係る角膜反射検出方法について説明する。図3は、視線検出装置100による視線検出の原理を模式的に示す図である。図3では、被験者の右眼ERについての例を示しているが、左眼ELについても同様の説明が可能である。図3に示すように、本実施形態において、注視点検出部35は、右眼ERを撮影した画像データに基づいて、瞳孔領域及び角膜反射領域を検出し、検出結果に基づいて瞳孔中心PUC及び角膜反射中心CRA、CRBの位置を算出する。注視点検出部35は、第1カメラ21Aと第2カメラ21Bとの中間に設定される仮想光源21Cの位置(仮想光源位置)P3と、算出した角膜反射中心CRA、CRBの位置とを結ぶ仮想直線に基づいて角膜曲率中心CRCを算出する。注視点検出部35は、算出した瞳孔中心PUCと角膜曲率中心CRCとを結ぶ仮想直線の直線方向を視線方向Gとして検出する。
次に、本実施形態に係る角膜反射検出方法について説明する。図3は、視線検出装置100による視線検出の原理を模式的に示す図である。図3では、被験者の右眼ERについての例を示しているが、左眼ELについても同様の説明が可能である。図3に示すように、本実施形態において、注視点検出部35は、右眼ERを撮影した画像データに基づいて、瞳孔領域及び角膜反射領域を検出し、検出結果に基づいて瞳孔中心PUC及び角膜反射中心CRA、CRBの位置を算出する。注視点検出部35は、第1カメラ21Aと第2カメラ21Bとの中間に設定される仮想光源21Cの位置(仮想光源位置)P3と、算出した角膜反射中心CRA、CRBの位置とを結ぶ仮想直線に基づいて角膜曲率中心CRCを算出する。注視点検出部35は、算出した瞳孔中心PUCと角膜曲率中心CRCとを結ぶ仮想直線の直線方向を視線方向Gとして検出する。
撮影装置21により被験者の右眼ER及び左眼ELを撮影した画像データは、それぞれデータとしてのサイズが大きくなることがある。この場合、注視点検出部35が画像データの全体から角膜反射中心CRA、CRBの位置を算出する場合、処理に時間を要する可能性がある。
これに対して、本実施形態では、角膜反射検出装置70により角膜反射CRの位置を推定し、推定結果を用いて注視点検出部35が角膜反射中心CRA、CRBの位置を算出することができる。これにより、サイズの大きい画像データから角膜反射中心CRA、CRBの位置を容易にかつ精度よく検出することができる。以下、角膜反射検出装置70を用いた角膜反射検出の手順を説明する。
まず、撮影制御部31は、撮影装置21及び照明装置22に対して第1撮影モードを行わせる。この場合、撮影制御部31は、第1光源22Aが第1光L1を発光し、この状態で第1カメラ21Aが被験者の眼球を撮影するように撮影装置21及び照明装置22を制御する。この制御により、画像取得装置20は、第1射出位置P1からの第1光L1が照射された状態の被験者の眼球を第1撮影位置Q1から撮影した第1画像データを生成する。
次に、撮影制御部31は、撮影装置21及び照明装置22に対して第2撮影モードを行わせる。この場合、撮影制御部31は、第2光源22Bが第2光L2を発光し、この状態で被験者の眼球を第2カメラ21Bが撮影するように撮影装置21及び照明装置22を制御する。この制御により、画像取得装置20は、第2射出位置P2からの第2光L2が照射された状態の被験者の眼球を第2撮影位置Q2から撮影した第2画像データを生成する。
図4は、第1画像データ及び第2画像データの一例を示す図である。図4に示すように、第1画像データIM1及び第2画像データIM2は、図中の上下方向及び左右方向について、同一数の画素が配置される。第1画像データIM1及び第2画像データIM2には、被験者の顔がほぼ同様の位置、大きさ、範囲に映っている。第1画像データIM1及び第2画像データIM2において、被験者の眼球EB(右眼ER及び左眼EL)には、角膜反射CRが映っている。
つまり、第1画像データIM1には、第1光L1によって形成される第1角膜反射CR1が映っている。第1角膜反射CR1は、被験者の黒目の中心に対して図中の右側に位置している。第2画像データIM2には、第2光L2によって形成される第2角膜反射CR2が映っている。第2角膜反射CR2は、被験者の黒目の中心に対して図中の左側に位置している。このように、第1画像データIM1及び第2画像データIM2は、角膜反射CRの位置が互いに異なり、他の部分は互いに近似した画像として取得される。
入出力制御部32は、画像取得装置20において取得された上記の第1画像データIM1及び第2画像データIM2を、入出力インターフェース装置60を介して取得する。
演算部33は、第1画像データIM1と第2画像データIM2との間で対応する画素の輝度に関する輝度演算を行う。輝度演算は、第1画像データIM1と第2画像データIM2との間で対応する画素の輝度の差分を求める演算を含む。輝度演算は、求めた差分の絶対値を算出する演算を含む。本実施形態において、輝度演算は、例えば画素ごとに下記の式(1)で示す演算を行う。
差分画像データにおける画素(X,Y)の輝度値
=|第1画像データの画素(X,Y)の輝度値
−第2画像データの画素(X,Y)の輝度値| ・・・(1)
但し、(X,Y)は、縦方向及び横方向における画素の位置座標である。
=|第1画像データの画素(X,Y)の輝度値
−第2画像データの画素(X,Y)の輝度値| ・・・(1)
但し、(X,Y)は、縦方向及び横方向における画素の位置座標である。
演算部33は、例えば第1画像データIM1及び第2画像データIM2の全ての画素について、上記の輝度演算、つまり、画素間の輝度の差分を求め、当該差分の絶対値を算出する。演算部33は、算出結果を画素に対応付けて記憶部36に記憶する。
例えば、第1画像データIM1と第2画像データIM2とで近似した画像が映っている部分の画素については、それぞれ輝度が同一又は近似する値となる。したがって、このような画素における輝度の差分の絶対値は、0又は0に近似する値となる。また、第1画像データIM1及び第2画像データIM2において、第1角膜反射CR1と第2角膜反射CR2とは、黒目の中心に対する位置が異なっている。このため、第1角膜反射CR1及び第2角膜反射CR2が映っている部分の画素における輝度の差分の絶対値は、大きい値となる。このように、輝度演算を行うことにより、第1角膜反射CR1及び第2角膜反射CR2が映っている部分と、それ以外の部分との間で、輝度の差分の絶対値に大きな差異が生じることになる。
処理部34は、演算結果に基づいて、被験者の眼球EBにおける角膜反射CRの位置を推定する。処理部34は、まず、演算結果に基づいて、差分画像データを生成する。差分画像データは、各画素について演算部33で算出された輝度の差分の絶対値を、当該画素における輝度とする画像データである。
図5は、差分画像データIM3の一例を示す図である。図6は、図5における一部(被験者の両眼の部分)を拡大して示す図である。図5及び図6に示すように、差分画像データIM3において、第1角膜反射CR1及び第2角膜反射CR2に対応する画素は、輝度の値(輝度の差分の絶対値)が大きく、白色に近い表示となっている。一方、それ以外の部分の画素は、輝度の値(輝度の差分の絶対値)が0又は0に近似する値であり、黒色に近い表示となっている。
処理部34は、このように生成される差分画像データIM3に基づいて角膜反射CRの位置を推定する。図7は、差分画像データIM3のうち一部の画素Kを示す図である。図7に示すように、処理部34は、まず、差分画像データIM3を構成する画素Kの中から最も輝度が高い画素である最高輝度画素K1を求める。この場合、処理部34は、差分画像データIM3に基づいて画像処理を行うことで最高輝度画素K1を求めてもよいし、記憶部36に記憶される輝度(輝度の差分の絶対値)のうち最大値に対応する画素を選択することで最高輝度画素K1を求めてもよい。
次に、処理部34は、最高輝度画素K1の周囲の画素Kのうち所定の輝度閾値を超える輝度を有する高輝度画素K2を抽出する。この場合、処理部34は、差分画像データIM3に基づいて画像処理を行うことで高輝度画素K2を抽出してもよいし、記憶部36に記憶される輝度(輝度の差分の絶対値)の値に基づいて高輝度画素K2を抽出してもよい。処理部34は、最高輝度画素K1及び高輝度画素K2により構成される領域を高輝度領域ARとして設定する。
図8は、差分画像データの他の例を示す図である。図8では、眼鏡をかけた被験者についての差分画像データIM4を示している。図8に示すように、眼鏡をかけた被験者に対して第1光L1及び第2光L2を照射する場合、眼鏡のレンズで反射する反射光L3が差分画像データIM4に映る場合がある。この場合、処理部34は、角膜反射CRではなく、当該反射光L3に含まれる画素を最高輝度画素K1として求める可能性がある。
本実施形態では、このような眼鏡の反射光L3等、角膜反射CRとは異なる領域に含まれる最高輝度画素K1を角膜反射CRの一部として誤認することを抑制するための処理を行う。すなわち、処理部34は、高輝度領域ARの面積を算出し、算出結果に基づいて、最高輝度画素K1が角膜反射CRに含まれるか否かを判定する。例えば図8に示すような反射光L3は、角膜反射CRに比べて広い領域に形成される傾向がある。そこで、処理部34は、差分画像データにおける高輝度領域ARの面積を求め、当該高輝度領域ARの面積が所定の面積閾値よりも小さいか否かを判定する。
高輝度領域ARの面積が所定の面積閾値以上である場合、当該高輝度領域ARは、図8に示す反射光L3等、角膜反射CRとは異なる領域に含まれると推定できる。この場合、処理部34は、高輝度領域ARを構成する各画素(最高輝度画素K1を含む)の輝度を0に置換する。この処理により、差分画像データにおいて高輝度領域ARとして抽出された領域が黒色表示となる。置換を行った後、処理部34は、新たな最高輝度画素K1を求め、最高輝度画素K1に基づいて高輝度領域ARを抽出し、高輝度領域ARの面積が所定の面積閾値よりも小さいか否かの判定を行う。また、高輝度領域ARの面積が所定の面積閾値よりも小さい場合、最高輝度画素K1が角膜反射CRに含まれると推定できる。この場合、処理部34は、最高輝度画素K1の位置を角膜反射CRの位置として推定する。
次に、本実施形態に係る角膜反射検出方法の一例について、図9を参照しながら説明する。図9は、本実施形態に係る角膜反射検出方法の一例を示すフローチャートである。図9に示すように、撮影制御部31は、画像取得装置20に第1撮影モードを行わせる(ステップS101)。ステップS101では、第1光源22Aから第1光L1が射出され、被験者の眼球EBに第1光L1が照射される。また、被験者の眼球EBに第1光L1が照射された状態で第1カメラ21Aにより被験者の眼球EBが撮影され、第1画像データIM1が生成される。入出力制御部32は、生成された第1画像データIM1を取得する(ステップS102)。入出力制御部32は、取得した第1画像データIM1を記憶部36に記憶する。
次に、撮影制御部31は、画像取得装置20に第2撮影モードを行わせる(ステップS103)。ステップS103では、第2光源22Bから第2光L2が射出され、被験者の眼球EBに第2光L2が照射される。また、被験者の眼球EBに第2光L2が照射された状態で第2カメラ21Bにより被験者の眼球EBが撮影され、第2画像データIM2が生成される。入出力制御部32は、生成された第2画像データIM2を取得する(ステップS104)。入出力制御部32は、取得した第2画像データIM2を記憶部36に記憶する。
次に、演算部33は、第1画像データIM1と第2画像データIM2との間で対応する画素の輝度に関する輝度演算を行う(ステップS105)。ステップS105において、演算部33は、第1画像データIM1と第2画像データIM2との間で対応する画素の輝度の差分を求め、当該差分の絶対値を算出する。演算部33は、算出結果を画素に対応付けて記憶部36に記憶する。
次に、処理部34は、演算結果に基づいて、差分画像データIM3を生成する(ステップS106)。ステップS106では、各画素について算出された輝度の差分の絶対値を当該画素における輝度の値とする画像データが差分画像データIM3として生成される。処理部34は、差分画像データIM3の中から最も輝度が高い画素である最高輝度画素K1を求める(ステップS107)。
次に、処理部34は、最高輝度画素K1の周囲において所定の輝度閾値を超える輝度を有する高輝度の画素を抽出し、抽出した画素により構成される高輝度領域ARの面積を算出する(ステップS108)。処理部34は、算出結果が所定の面積閾値よりも小さいか否かを判定する(ステップS109)。算出結果が面積閾値以上であると判定した場合(ステップS109のNo)、処理部34は、高輝度領域ARを構成する各画素(最高輝度画素K1を含む)の輝度を0に置換し(ステップS110)、その後、ステップS107以降の処理を再度行う。一方、算出結果が面積閾値よりも小さいと判定した場合(ステップS109のYes)、処理部34は、最高輝度画素K1が角膜反射CRに含まれると判定する(ステップS111。この場合、処理部34は、最高輝度画素K1の位置を角膜反射CRの位置として推定して、処理を終了する。
以上のように、本実施形態に係る角膜反射検出装置70は、被験者の眼球EBを照射可能な照明装置22と、被験者の眼球EBを撮影可能であり、撮影により複数の画素を含む画像データを生成する撮影装置21とを有し、照明装置22による光の射出位置及び撮影装置21による撮影位置の位置関係を変更可能な画像取得装置20と、射出位置と撮影位置とが第1位置関係(第1射出位置P1、第1撮影位置Q1)となるように配置した状態で、被験者の眼球EBに第1光L1を照射し、第1光L1が照射された状態の被験者の眼球EBを撮影装置21で撮影して第1画像データIM1を取得する第1撮影モードと、射出位置と撮影位置とが第1位置関係とは異なる第2位置関係(第2射出位置P2、第2撮影位置Q2)となるように配置した状態で、被験者の眼球EBに第2光L2を照射し、第2光L2が照射された状態の被験者の眼球EBを撮影装置21で撮影して第2画像データIM2を取得する第2撮影モードと、を照明装置22及び撮影装置21に行わせる撮影制御部31と、第1画像データIM1を構成する画素と第2画像データIM2を構成する画素との間で対応する画素間の輝度に関する輝度演算を行う演算部33と、演算結果に基づいて、被験者の眼球EBにおける角膜反射CRの位置を推定する処理部34とを備える。
また、本実施形態に係る角膜反射検出方法は、照明装置22による光の射出位置と撮影装置21による撮影位置とが第1位置関係(第1射出位置P1、第1撮影位置Q1)となるように配置した状態で、被験者の眼球EBに第1光L1を照射し、第1光L1が照射された状態の被験者の眼球EBを撮影装置21で撮影して複数の画素を含む第1画像データIM1を生成することと、照明装置22による光の射出位置と撮影装置21による撮影位置とが第2位置関係(第2射出位置P2、第2撮影位置Q2)となるように配置した状態で、第2光L2を被験者の眼球EBに照射し、第2光L2が照射された状態の被験者の眼球EBを撮影装置21で撮影して複数の画素を含む第2画像データIM2を生成することと、第1画像データIM1を構成する画素と第2画像データIM2を構成する画素との間で対応する画素間の輝度に関する輝度演算を行うことと、演算結果に基づいて、被験者の眼球EBにおける角膜反射CRの位置を推定することとを含む。
また、本実施形態に係る角膜反射の位置検出プログラムは、照明装置22による光の射出位置と撮影装置21による撮影位置とが第1位置関係(第1射出位置P1、第1撮影位置Q1)となるように配置した状態で、被験者の眼球EBに第1光L1を照射し、第1光L1が照射された状態の被験者の眼球EBを撮影装置21で撮影して複数の画素を含む第1画像データIM1を生成する処理と、照明装置22による光の射出位置と撮影装置21による撮影位置とが第2位置関係(第2射出位置P2、第2撮影位置Q2)となるように配置した状態で、第2光L2を被験者の眼球EBに照射し、第2光L2が照射された状態の被験者の眼球EBを撮影装置21で撮影して複数の画素を含む第2画像データIM2を生成する処理と、第1画像データIM1を構成する画素と第2画像データIM2を構成する画素との間で対応する画素間の輝度に関する輝度演算を行う処理と、演算結果に基づいて、被験者の眼球EBにおける角膜反射CRの位置を推定する処理とをコンピュータに実行させる。
本実施形態によれば、照明装置22による光の射出位置と撮影装置21による撮影位置とを第1位置関係及び第2位置関係として第1画像データ及び第2画像データを生成することにより、第1画像データと第2画像データとの間で、被験者の眼球EBの中心に対して角膜反射CRを異なる位置に形成することができる。したがって、第1画像データと第2画像データとの間で対応する画素について輝度演算を行うことで、容易かつ高精度に被験者の角膜反射CRの位置を検出することができる。
本実施形態に係る角膜反射検出装置70において、照明装置22及び撮影装置21の少なくとも一方は、2つ設けられる。これにより、2つ設けられるうちの一方を第1位置関係の構成要素として用い、他方を第2位置関係の構成要素として用いることができるため、第1位置関係及び第2位置関係を設定しやすくなる。
本実施形態に係る角膜反射検出装置70において、輝度演算は、第1画像データIM1と第2画像データIM2との間で対応する画素の輝度の差分を求める演算を含む。この構成によれば、輝度の差分を求めることにより、角膜反射CRに対応する画素とそれ以外の画素とを容易に区別することが可能となる。
本実施形態に係る角膜反射検出装置70において、演算部33は、求めた差分の絶対値を算出する演算を行い、処理部34は、算出された絶対値に基づいて角膜反射CRの位置を推定する。この構成によれば、より高精度に角膜反射CRに対応する画素とそれ以外の画素とを容易に区別することが可能となる。
本実施形態に係る角膜反射検出装置70において、処理部34は、算出された絶対値を画素における輝度とする差分画像データIM3を生成し、生成した差分画像データIM3に基づいて角膜反射CRの位置を推定する。この構成によれば、差分画像データIM3を用いて、容易かつ高精度に被験者の角膜反射CRの位置を検出することができる。
本実施形態に係る角膜反射検出装置70において、処理部34は、差分画像データIM3の中から最も輝度が高い画素である最高輝度画素K1を求め、最高輝度画素K1の周囲において所定の輝度閾値を超える輝度を有する画素を抽出し、抽出結果に基づいて、最高輝度画素K1が角膜反射CRに含まれるか否かを判定し、最高輝度画素K1が角膜反射CRに含まれると判定した場合に、最高輝度画素K1の位置が角膜反射CRの位置であると推定する。この構成によれば、被験者の角膜反射CRの位置を高精度に推定することができる。
本実施形態に係る視線検出装置100は、上記の角膜反射検出装置70を備える。撮影装置21により被験者の右眼ER及び左眼ELを撮影した画像データは、それぞれデータとしてのサイズが大きくなることがある。この場合、注視点検出部35が画像データの全体から角膜反射中心CRA、CRBの位置を算出する場合、処理に時間を要する可能性がある。これに対して、本実施形態では、角膜反射検出装置70により角膜反射CRの位置を高精度に推定し、推定結果を用いて注視点検出部35が角膜反射中心CRA、CRBの位置を算出する。これにより、角膜反射中心CRA、CRBの位置を容易にかつ精度よく検出することが可能な視線検出装置100を提供できる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態において、第1射出位置P1及び第2射出位置P2に1つずつ、計2つの光源(第1光源22A及び第2光源22B)が用いられる構成を例に挙げて説明したが、これに限定されない。第1射出位置P1及び第2射出位置P2に配置可能であれば、光源は1つであってもよい。この場合、1つの光源を第1射出位置P1及び第2射出位置P2の間で付け替える構成、1つの光源を第1射出位置P1及び第2射出位置P2の間で移動させる構成等が挙げられる。
また、上記実施形態において、第1撮影位置Q1及び第2撮影位置Q2に1台ずつ、計2台のカメラ(第1カメラ21A及び第2カメラ21B)が用いられる構成を例に挙げて説明したが、これに限定されない。第1撮影位置Q1及び第2撮影位置Q2に配置可能であれば、カメラは1台であってもよい。この場合、1台のカメラを第1撮影位置Q1及び第2撮影位置W2の間で付け替える構成、1つのカメラを第1撮影位置Q1及び第2撮影位置Q2の間で移動させる構成等が挙げられる。
また、上記実施形態において、角膜反射検出装置70が視線検出装置100に含まれる構成を例に挙げて説明したが、これに限定されない。角膜反射検出装置70は、例えば独立した装置として設けられてもよい。また、角膜反射検出装置70は、例えばスマートフォン等の端末装置、防犯カメラ等の映像を解析する映像解析装置、対象者の顔を認識する顔認識機能を有する装置等、視線検出装置100とは異なる他の装置に設けられてもよい。
図10は、視線検出装置の他の例を示す図である。図10に示す視線検出装置100Aは、画像取得装置20の撮影装置21について、第1カメラ21A及び第2カメラ21Bを有する点で上記実施形態に記載の視線検出装置100と同様の構成である。一方、視線検出装置100Aは、照明装置22について、射出位置P4に1つの光源22Dのみが設けられる点で上記の視線検出装置100とは異なっている。
この構成では、例えば射出位置P4及び撮影位置Q1の位置関係(第1位置関係)にある光源22Dと第1カメラ21Aとを用いて第1撮影モードを行うことができる。また、射出位置P4及び撮影位置Q2の位置関係(第2位置関係)にある光源22Dと第2カメラ21Bとを用いて第2撮影モードを行うことができる。したがって、光源が1つ、カメラが2つ設けられた構成においても、本発明の適用が可能である。
図11は、視線検出装置の他の例を示す図である。図11に示す視線検出装置200は、例えばスマートフォン等の端末装置である。視線検出装置200は、本体部210と、画像取得装置220とを有する。本体部210は、例えば画像等を表示する表示装置、音声及び振動等を出力可能な出力装置、ユーザの操作を入力するタッチパネル及びボタン等の入力装置、外部との間で情報の通信を行う通信装置、これら各装置を制御する制御装置等を有する(いずれも不図示)。
画像取得装置220は、撮影装置(撮影部)221と、照明装置(光源)222とを有する。撮影装置221は、例えばカメラ等が用いられ、本体部210の左右方向の中央部に1つ配置される。照明装置222は、第1光源222A及び第2光源222Bを有する。第1光源222A及び第2光源222Bは、撮影装置221に対して左右方向の両側に配置される。第1光源222Aと撮影装置221との間の距離と、第2光源222Bと撮影装置221との間の距離とは、等しくなっている。第1光源222Aと第2光源222Bとは、離れているほど好ましい態様である。
この構成では、例えば射出位置P5及び撮影位置Q3の位置関係(第1位置関係)にある第1光源222Aと撮影装置221を用いて第1撮影モードを行うことができる。また、射出位置P6及び撮影位置Q3の位置関係(第2位置関係)にある第2光源222Bと撮影装置22とを用いて第2撮影モードを行うことができる。このように、光源が2つ、カメラが1つ設けられた構成においても、本発明の適用が可能である。
AR…高輝度領域、CR…角膜反射、CRA…角膜反射中心、CRC…角膜曲率中心、CR1…第1角膜反射、CR2…第2角膜反射、EB…眼球、EL…左眼、ER…右眼、G…視線方向、IM1…第1画像データ、IM2…第2画像データ、IM3,IM4…差分画像データ、K…画素、K1…最高輝度画素、K2…高輝度画素、L1…第1光、L2…第2光、L3…反射光、PUC…瞳孔中心、P1…第1射出位置、P2…第2射出位置、Q1…第1撮影位置、Q2…第2撮影位置、P3…位置、10…表示装置、11…表示部、20…画像取得装置、21…撮影装置、21A…第1カメラ、21B…第2カメラ、21C…仮想光源、22…照明装置、22A…第1光源、22B…第2光源、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31…撮影制御部、32…入出力制御部、33…演算部、34…処理部、35…注視点検出部、36…記憶部、40…出力装置、50…入力装置、60…入出力インターフェース装置、70…角膜反射検出装置、100…視線検出装置
Claims (9)
- 被験者の眼球を照射可能な光源と、前記被験者の眼球を撮影し画像データを生成する撮影部とを有し、前記光源による光の射出位置及び前記撮影部による撮影位置の位置関係を変更可能な画像取得装置と、
前記光源の前記射出位置と前記撮影部の前記撮影位置とが第1位置関係となるように配置した状態で、前記被験者の眼球に第1光を照射し、前記第1光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第1画像データを生成する第1撮影モードと、前記光源の前記射出位置と前記撮影部の前記撮影位置とが第2位置関係となるように配置した状態で、前記被験者の眼球に第2光を照射し、前記第2光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第2画像データを生成する第2撮影モードと、を前記光源及び前記撮影部に行わせる撮影制御部と、
前記第1画像データを構成する画素と前記第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行う演算部と、
演算結果に基づいて、前記被験者の眼球における角膜反射の位置を推定する処理部と
を備える角膜反射検出装置。 - 前記光源及び前記撮影部の少なくとも一方は、2つ設けられる
請求項1に記載の角膜反射検出装置。 - 前記輝度演算は、前記第1画像データと前記第2画像データとの間で対応する前記画素の輝度の差分を求める演算を含む
請求項1又は請求項2に記載の角膜反射検出装置。 - 前記演算部は、求めた前記差分の絶対値を算出する演算を行い、
前記処理部は、算出された前記絶対値に基づいて前記角膜反射の位置を推定する
請求項3に記載の角膜反射検出装置。 - 前記処理部は、算出された前記絶対値を前記画素における差分画像データを生成し、生成した前記差分画像データに基づいて前記角膜反射の位置を推定する
請求項4に記載の角膜反射検出装置。 - 前記処理部は、
前記差分画像データの中から最も輝度が高い前記画素である最高輝度画素を求め、
前記最高輝度画素の周囲において所定の輝度閾値を超える輝度を有する前記画素を抽出し、
抽出結果に基づいて、前記最高輝度画素が前記角膜反射に含まれるか否かを判定し、
前記最高輝度画素が前記角膜反射に含まれると判定した場合に、前記最高輝度画素の位置が前記角膜反射の位置であると推定する
請求項5に記載の角膜反射検出装置。 - 請求項1から請求項5のいずれか一項に記載の角膜反射検出装置を備える視線検出装置。
- 光源による光の射出位置と撮影部による撮影位置とが第1位置関係となるように配置した状態で、被験者の眼球に第1光を照射し、前記第1光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第1画像データを生成することと、
前記光源の前記射出位置と前記撮影位置とが前記第1位置関係とは異なる第2位置関係となるように配置した状態で、前記被験者の眼球に第2光を照射し、前記第2光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第2画像データを生成することと、
前記第1画像データを構成する画素と前記第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行うことと、
演算結果に基づいて、前記被験者の眼球における角膜反射の位置を推定することと
を含む角膜反射検出方法。 - 光源による光の射出位置と撮影部による撮影位置とが第1位置関係となるように配置した状態で、被験者の眼球に第1光を照射し、前記第1光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第1画像データを生成する処理と、
前記光源の前記射出位置と前記撮影位置とが前記第1位置関係とは異なる第2位置関係となるように配置した状態で、前記被験者の眼球に第2光を照射し、前記第2光が照射された状態の前記被験者の眼球を前記撮影部で撮影して第2画像データを生成する処理と、
前記第1画像データを構成する画素と前記第2画像データを構成する画素との間で対応する画素間の輝度に関する輝度演算を行う処理と、
演算結果に基づいて、前記被験者の眼球における角膜反射の位置を推定する処理と
をコンピュータに実行させる角膜反射検出プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019231141A JP2021099664A (ja) | 2019-12-23 | 2019-12-23 | 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム |
PCT/JP2020/041241 WO2021131335A1 (ja) | 2019-12-23 | 2020-11-04 | 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019231141A JP2021099664A (ja) | 2019-12-23 | 2019-12-23 | 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021099664A true JP2021099664A (ja) | 2021-07-01 |
Family
ID=76542011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019231141A Pending JP2021099664A (ja) | 2019-12-23 | 2019-12-23 | 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021099664A (ja) |
WO (1) | WO2021131335A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06323832A (ja) * | 1993-05-13 | 1994-11-25 | Nissan Motor Co Ltd | 車両用インターフェイス |
JPH09251539A (ja) * | 1996-03-18 | 1997-09-22 | Nissan Motor Co Ltd | 視線計測装置 |
WO2017013913A1 (ja) * | 2015-07-17 | 2017-01-26 | ソニー株式会社 | 視線検出装置、アイウェア端末、視線検出方法及びプログラム |
-
2019
- 2019-12-23 JP JP2019231141A patent/JP2021099664A/ja active Pending
-
2020
- 2020-11-04 WO PCT/JP2020/041241 patent/WO2021131335A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021131335A1 (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10896324B2 (en) | Line-of-sight detection device and method for detecting line of sight | |
CN108140244B (zh) | 视线检测装置以及视线检测方法 | |
EP3011894B1 (en) | Eye gaze detection apparatus and eye gaze detection method | |
JP2019025195A (ja) | 視線検出装置及び視線検出方法 | |
JP2018140007A (ja) | 評価装置、評価方法、及び評価プログラム | |
WO2018164104A1 (ja) | 眼部画像処理装置 | |
JP2016028669A (ja) | 瞳孔検出装置、および瞳孔検出方法 | |
US20210153794A1 (en) | Evaluation apparatus, evaluation method, and evaluation program | |
WO2021059745A1 (ja) | 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム | |
US20230098675A1 (en) | Eye-gaze detecting device, eye-gaze detecting method, and computer-readable storage medium | |
WO2021131335A1 (ja) | 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム | |
JP4451195B2 (ja) | 視線検出装置 | |
US20220079484A1 (en) | Evaluation device, evaluation method, and medium | |
US11937928B2 (en) | Evaluation apparatus, evaluation method, and evaluation program | |
JP2019146915A (ja) | 評価装置、評価方法、及び評価プログラム | |
US10996747B2 (en) | Line-of-sight detection device, line-of-sight detection method, and medium | |
JP7063045B2 (ja) | 視線検出装置、視線検出方法及び視線検出プログラム | |
JP2018163411A (ja) | 顔向き推定装置及び顔向き推定方法 | |
WO2020026574A1 (ja) | 視線検出装置、視線検出方法及び視線検出プログラム | |
WO2020183792A1 (ja) | 表示装置、表示方法、及び表示プログラム | |
JP2017162233A (ja) | 視線検出装置および視線検出方法 | |
JP2015046111A (ja) | 視点検出装置および視点検出方法 | |
JP2016049258A (ja) | 照明撮像装置及びそれを備えた視線検出装置 | |
WO2021010122A1 (ja) | 評価装置、評価方法、及び評価プログラム | |
WO2023008023A1 (ja) | 視線検出装置、視線検出方法及び視線検出プログラム |