図1は、本実施形態に係る視機能検出装置の一例を模式的に示す斜視図である。
図2は、本実施形態に係る視機能検出装置のハードウェア構成の一例を示す図である。
図3は、本実施形態に係る視機能検出装置の一例を示す機能ブロック図である。
図4は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。
図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。
図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。
図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。
図8は、本実施形態に係る判断用画像を示す図である。
図9は、判断用画像が移動する様子を示す図である。
図10は、異なるパターンの判断用画像を説明した図である。
図11は、異なるパターンの判断用画像を説明した図である。
図12は、異なるパターンの判断用画像を説明した図である。
図13は、視機能を検出するフローを説明するフローチャートである。
図14は、注視点の位置の例を説明する図である。
図15は、注視点の位置の例を説明する図である。
図16は、時間ごとの注視点の座標の変動の一例を示すグラフである。
図17は、時間ごとの注視点の座標の変動の一例を示すグラフである。
図18は、視機能を段階的に検出する方法を示すフローチャートである。
図19は、コントラストが異なる判断用画像の例を示す図である。
図20は、コントラストが異なる判断用画像の例を示す図である。
図21は、判断用画像の他の例を示す図である。
図22は、判断用画像の他の例を示す図である。
図23は、判断用画像の他の例を示す図である。
以下、本発明に係る視機能検出装置、視機能検出方法及びプログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
(視機能検出装置)
図1は、本実施形態に係る視機能検出装置の一例を模式的に示す斜視図である。視機能検出装置100は、被験者Hを評価する評価装置としても用いられる。図1に示すように、視機能検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。
表示部としての表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置101は、表示画面101Sを有する。表示画面101Sは、画像を表示する。表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
照明装置103は、検出光である近赤外光を射出して、被験者Hの眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
図2は、本実施形態に係る視機能検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視機能検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60とを備える。
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cを実行して視線検出処理を実行するため、本実施形態に係る視線検出装置であるともいえる。
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視機能検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
図3は、本実施形態に係る視機能検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
コンピュータシステム20は、視機能検出装置100を制御する。コンピュータシステム20は、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、表示制御部216と、関係検出部218と、視機能検出部220と、記憶部222とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
表示制御部216は、表示装置101及び出力装置50の少なくとも1つにデータを出力する。本実施形態において、表示制御部216は、表示装置101に判断用画像231を表示させるためのデータを表示装置101に出力して、表示装置101の表示画面101S上に、判断用画像231を表示させる。表示制御部216が表示させる判断用画像231については、後述する。また、表示制御部216は、被験者Hの左右それぞれの眼球111の注視点の位置を表示画面101S又は出力装置50に表示させてもよい。
関係検出部218は、表示画面101S上の判断用画像231の動く方向と、注視点検出部214が検出した注視点の動く方向との関係を示す情報である関係情報を検出する。関係情報の検出方法については後述する。
視機能検出部220は、関係検出部218が検出した関係情報に基づき、被験者Hの視機能を検出する。視機能検出部220は、関係情報に基づき、判断用画像231が被験者Hに見えているかを判定するための基準となる情報を導出することで、視機能を検出する。すなわち、ここで視機能を検出するというのは、判断用画像231が視認可能であるかという判定の基準となる情報を導出することであるといえる。また、視機能検出部220は、判断用画像231が被験者Hに見えているかの判定に基づき、被験者の視力を判定するための基準となる情報を導出してもよいし、例えば白内障であるかを判定するための基準となる情報を導出してもよい。
記憶部222は、画像データ取得部206が取得した被験者Hの眼球111の画像データ、注視点検出部214が検出した注視点の位置データ、表示画面101Sに表示させる画像(例えば判断用画像231)の画像データ、関係検出部218が検出した関係情報、及び視機能検出部220による視機能の検出結果のデータなどを記憶する。
記憶部222は、表示画面101Sに画像を表示させる処理と、表示画面101Sを観察する被験者Hの注視点の位置を検出する処理と、判断用画像231の動く方向と注視点の動く方向との関係情報を検出する処理と、情報に基づき視機能を検出する処理とをコンピュータに実行させるプログラムを記憶する。
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。図4及び図5は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図4は、1つの光源103Cで眼球111が照明される例を示す。図5は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
まず、図4に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図4において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
次に、図5に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
次に、本実施形態に係る視線検出方法の一例について説明する。図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。出力制御部226は、設定された目標位置130に目標画像を表示させる。直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
次に、注視点検出処理について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。図7において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
(視機能検出方法)
次に、本実施形態に係る視機能検出方法について説明する。図8は、本実施形態に係る判断用画像を示す図である。表示制御部216は、視機能検出を行う際、表示装置101に画像230を表示させるためのデータを表示装置101に出力して、表示装置101の表示画面101S上に、画像230を表示させる。図8に示すように、画像230は、判断用画像231と、背景用画像232とを含む。すなわち、表示制御部216は、表示装置101に判断用画像231を表示させるためのデータと、背景用画像232を表示させるためのデータとを出力して、表示装置101の表示画面101S上に、判断用画像231と背景用画像232とを表示させるといえる。なお、画像230は、表示画面101Sの全域を占める画像であるが、表示画面101Sの一部を占める画像であってもよい。
図8に示すように、判断用画像231は、画像230が表示される領域(ここでは表示画面101S)内の表示領域101T内に表示される。すなわち、判断用画像231は、表示画面101Sの表示領域101Tの、全域を占めるように表示される。本実施形態では、表示領域101Tは、表示画面101Sの一部の領域である。ただし、表示領域101Tは、表示画面101Sの全域を占めるものであってもよい。この場合、画像230は、背景用画像232を有さず判断用画像231のみを有することとなる。
判断用画像231は、表示画面101Sの1倍以下の大きさであることが好ましい。このようにすることで、被検査者Hは、判断用画像231を適切に視認することができる。
判断用画像231は、模様を表示する画像である。具体的には、判断用画像231は、第1画像241と第2画像242とを有する。言い換えれば、表示領域101Tは、第1画像241が表示される第1領域と、第2画像242が表示される第1領域とに区分されている。従って、第1画像241とは、第1画像241が表示される第1領域と言い換えることができ、第2画像242とは、第2画像242が表示される第2領域であると言い換えることができる。第1画像241と第2画像242とは、互いに輝度が異なる画像である。本実施形態において、第1画像241は、第2画像242よりも輝度が低い画像である。また、本実施形態の例では、第1画像241と第2画像242とは、無彩色の画像である。従って、第1画像241は、第2画像242よりも黒成分が強く、第2画像242は、第1画像241よりも白成分が強い。ただし、第1画像241と第2画像242とは、互いに輝度が異なる画像であれば、彩色の画像であってもよい。
図8に示すように、本実施形態においては、判断用画像231は、第1画像241と第2画像242とを複数含み、第1画像241と第2画像242とが、交互にストライプ状に配列している。すなわち、第1画像241と第2画像242とは、Y軸方向に沿った長さが、表示領域101TのY軸方向に沿った長さと同じであり、Y軸方向に沿って、表示領域101Tの上端から下端まで延在する。そして、第1画像241と第2画像242とは、X軸方向に沿った長さ(幅)が、表示領域101TのX軸方向に沿った長さより短くなっている。第1画像241と第2画像242とは、表示領域101T内で、X軸方向に沿って交互に並んでいる。なお、本実施形態では、表示領域101TのX軸方向に沿った端面から離れている第1画像241同士は、面積が等しい。同様に、表示領域101TのX軸方向に沿った端面から離れている第2画像242同士も、面積が等しい。そして、表示領域101TのX軸方向に沿った端面から離れている第1画像241と第2画像242とも、面積が等しい。また、第1画像241の数と第2画像242の数も同じである。ただし、第1画像241同士の面積及び形状は互いに異なってもよいし、第2画像242同士の面積及び形状も、互いに異なってよい。そして、第1画像241の数と第2画像242の数とも、異なっていてよい。
図8に示すように、背景用画像232は、画像230が表示される領域(ここでは表示画面101S)内において、判断用画像231が表示される表示領域101T以外の領域に表示される画像である。すなわち、背景用画像232は、表示領域101T(判断用画像231)の周囲を囲うように表示される画像である。背景用画像232は、画像230が表示される領域のうち、表示領域101T以外の領域の全域を占めるように表示される。ただし、背景用画像232は、表示領域101Tの周囲を囲うものであれば、表示領域101T以外の領域の一部を占めるものであってもよい。
また、判断用画像231は、模様がない一様な画像である。本実施形態において、背景用画像232は、全域において輝度が一定の画像であり、さらに言えば、判断用画像231と同じ彩色、すなわち無彩色の画像である。従って、背景用画像232は、第1画像241よりも、輝度が大きく、白色成分が高い。そして、背景用画像232は、第2画像242よりも、輝度が小さく、黒色成分が高い。
図9は、判断用画像が移動する様子を示す図である。表示制御部216は、表示領域101T内で、判断用画像231を、X軸方向に移動させる。表示制御部216は、表示領域101Tの位置を固定させたまま、表示領域101T内で、判断用画像231をX軸方向に動かす。すなわち、判断用画像231は、表示領域101T内で表示される動画像であるといえる。判断用画像231を動かす方向は、X軸方向に限られず任意であり、予め定めた一方向である所定方向であればよい。この所定方向は、本実施形態のように、第1画像241と第2画像242とが並ぶ方向であることが好ましいが、それに限られない。また、表示制御部231は、また、判断用画像231を動かす方向を、所定方向に限られずに、任意の方向に動かしてよい。すなわち、表示制御部231は、判断用画像231を、表示領域101Tで動かすものであればよい。また、表示制御部216は、判断用画像231を動かす方向を、途中で切り替えないことが好ましい。また、表示制御部216は、表示領域101Tの位置を動かしてもよい。
より詳しくは、表示制御部216は、判断用画像231、すなわち第1画像241と第2画像242とを、X軸方向に沿ってスクロールさせる。言い換えれば、表示制御部216は、複数の判断用画像231を予め準備する。それらの判断用画像231は、第1画像241と第2画像242との表示位置が、X軸方向に沿って互いにずれた画像(例えば図9の状態S1からS4の画像)である。そして、表示制御部216は、フレーム毎に、これらの判断用画像231を順番に表示する。これにより、判断用画像231は、第1画像241と第2画像242とをX軸方向に沿ってスクロールされた動画像となるように視認される。この場合、第1画像241と第2画像242とは、時間経過に伴い、表示領域101T内をX軸方向に移動し、表示領域101TのX軸方向側の端部に到達したら徐々に面積が小さくなり、表示領域101Tから消える。そして、X軸方向と反対側の端部からは、第1画像241と第2画像242が順次現れ、所定面積に達したら、X軸方向に移動する。
さらに詳しく説明すると、図9に示すように、複数の第2画像242のうちの1つである第2画像242Sについて着目する。第2画像242Sは、時間経過と共に、表示領域101T内をX軸方向に移動し、第2画像242SのX軸方向の端部(図9の例では右側の端部)に到達する(図9の状態S1)。その後、第2画像242Sは、X軸方向の端部で面積が徐々に小さくなり(図9の状態S2)、さらに時間が経過すると、表示領域101Tから消える(図9の状態S3)。そして、その第2画像242の移動中、表示領域101TのX軸方向と反対側の端部(図9の例では左側の端部)では、別の第2画像242Tが、X軸方向側に徐々に面積を大きくしながら現れ(状態S2)、規定の面積に達したら(状態S3)、その面積のまま表示領域101T内をX軸方向に移動する(状態S4)。第1画像241も、第2画像242S、242Tと同様に移動する。判断用画像231は、この状態S4に達したら、状態S1に戻り、同じ動きを繰り返す。すなわち、表示制御部216が判断用画像231をX軸方向に移動させている間中、判断用画像231は、このような動きを繰り返す。
表示制御部216は、予め定めた速度で、フレーム毎に、判断用画像231を移動させる。移動速度は、100ピクセル/秒以上400ピクセル/秒以下程度であるが、それに限られず任意に設定可能である。
図10から図12は、異なるパターンの判断用画像を説明した図である。表示制御部216は、視機能検出検査のために、例えば図10から図12に示すように、異なるパターンの判断用画像231を表示する場合がある。表示制御部216は、いずれかのパターンの判断用画像231を選択して、選択したパターンの判断用画像231を、上記のように動かす。
図10に示す判断用画像231Aと、図11に示す判断用画像231Bと、図12に示す判断用画像231Cとは、第1画像241及び第2画像242の大きさ(面積)が、互いに異なり、第1画像241及び第2画像242の数も、互いに異なる。すなわち、判断用画像231A、231B、231Cは、第1画像241及び第2画像242の粗密分布が互いに異なる。一方、判断用画像231Aと判断用画像231Bと判断用画像231Cとは、全体の大きさ、すなわち表示領域101Tの大きさが、互いに等しいが、大きさが互いに異なってもよい。
図10から図12の例では、判断用画像231Bの第1画像241B及び第2画像242Bは、判断用画像231Aの第1画像241A及び第2画像242Aよりも、面積が小さい。さらに言えば、第1画像241Bと第2画像242Bとの方向Xに沿った長さは、第1画像241Aと第2画像242Aとの方向Xに沿った長さよりも短い。また、判断用画像231Bは、第1画像241B及び第2画像242Bの数が、判断用画像231Aの第1画像241A及び第2画像242Aよりも多い。そして、判断用画像231Cの第1画像241C及び第2画像242Cは、判断用画像231Bの第1画像241B及び第2画像242Bよりも、面積が小さい。さらに言えば、第1画像241Cと第2画像242Cとの方向Xに沿った長さは、第1画像241Bと第2画像242Bとの方向Xに沿った長さよりも短い。また、判断用画像231Cは、第1画像241C及び第2画像242Cの数が、判断用画像231Bの第1画像241B及び第2画像242Bよりも多い。
図11に示す判断用画像231Bは、第1画像241と第2画像242とが、図10に示す判断用画像231Aより小さいため、判断用画像231Aよりも、被験者に視認され難い。同様に、図11に示す判断用画像231Cは、判断用画像231Bよりも、被験者に視認され難い。従って、表示制御部216は、このように異なるパターンの判断用画像231を表示させることで、被験者Hの視機能の度合い(例えば視力など)を、段階的に検出することができる。
表示制御部216は、視機能検出を行う際、このようにして、表示装置101の表示画面101Sに判断用画像231と背景用画像232とを表示させる。被験者Hは、視機能検出の際、表示画面101Sを観察しており、注視点検出部214は、その時の被験者Hの注視点166を検出する。関係検出部218は、表示画面101S上の判断用画像231の移動方向と、注視点検出部214が検出した注視点の移動方向との関係を示す関係情報を検出し、視機能検出部220は、その関係情報に基づき、被験者Hの視機能を検出する。以下、視機能を検出するフローについて、説明する。
図13は、視機能を検出するフローを説明するフローチャートである。図14は、注視点の位置の例を説明する図である。図13に示すように、視機能検出を行う場合、注視点検出部214は、上述した注視点検出処理を実行して(ステップS10)、表示画面101Sの前に位置する被験者Hの注視点166の位置を検出する。被験者の眼球111の画像データは、画像データ取得部206の撮像により、所定時間毎に取得される。従って、注視点検出部214は、所定時間毎に、注視点166の位置を検出する。この所定時間は、例えば1/60秒程度であるため、注視点166は、1秒間に60回程度検出される。ただし、この所定時間の長さは任意である。注視点検出部214は、後述する判断用画像231が表示される期間中、注視点166の位置検出を続ける。
そして、視機能検出装置100は、表示制御部216により、表示領域101Tに判断用画像231を表示させ、判断用画像231を、表示領域101T内でスクロール(移動)させる(ステップS12)。すなわち、表示制御部216は、表示領域101T内でスクロールさせつつ、判断用画像231を表示させ続ける。そして、視機能検出装置100は、検出時間と算出結果とをリセットして(ステップS14)、注視点166の位置検出結果を取得する(ステップS16)。検出時間とは、予め定められた時間であり、判断用画像231を表示して注視点検出を行う期間である。検出時間は、例えば20秒程度であるが、時間は任意である。視機能検出装置100は、検出時間をリセットして判断用画像231の表示と注視点検出とを開始させ、開始させたタイミングからの時間のカウントを始める。算出結果とは、後述する合計移動距離などの算出結果である。すなわち、算出結果をリセットするとは、積算していた合計移動距離の値をゼロとすることであり、視機能検出装置100は、このタイミングから合計移動距離の算出を開始する。また、視機能検出装置100は、注視点検出部214により、表示領域101Tに判断用画像231が表示されている間、注視点166の位置検出を行っており、注視点166の検出毎に、注視点166の位置検出結果を取得する。
注視点166の位置検出結果を取得したら、視機能検出装置100は、関係検出部218により、注視点166の移動距離を算出する(ステップS18)。図14は、注視点の移動を説明するための図である。以下では、注視点166Bの移動距離を算出することを例に説明する。図14の注視点166Aは、注視点166Bの直前に検出された注視点である。関係検出部218は、注視点166Bの位置検出結果、すなわち注視点166Bの座標を取得したら、注視点166Bと注視点166Aとの間の距離を、移動距離として算出する。より詳しくは、関係検出部218は、X軸方向に沿った注視点166Bと注視点166Aとの間の距離である距離Xと、Y軸方向に沿った注視点166Bと注視点166Aとの間の距離である距離Yとを算出する。このように、関係検出部218は、検出された注視点166と、その直前に検出された注視点166との間の長さを移動距離として、距離Xと距離Yとを算出する。なお、距離Xは、注視点166Bと注視点166Aとの間の距離の、判断用画像231の移動方向に沿ったベクトル成分であり、距離Yは、注視点166Bと注視点166Aとの間の距離の、判断用画像231の移動方向に直交する方向のベクトル成分であるといえる。ただし、ここで算出する距離Xは、必ずしもX軸方向に限られず、任意の方向であってよい。すなわち、距離Xは、注視点166Bと注視点166Aとの間の距離(検出毎の注視点の移動距離)の、任意の方向(第1の方向)に沿ったベクトル成分であり、距離Yは、注視点166Bと注視点166Aとの間の距離の、その任意の方向(第1の方向)に直交する方向に沿ったベクトル成分であればよい。
注視点166の移動距離を算出した後、視機能検出装置100は、関係検出部218により、注視点166の合計移動距離を算出する(ステップS20)。関係検出部218は、今までに算出した移動距離の全てを合計して、合計移動距離を算出する。従って、関係検出部218は、直前のタイミングで算出した合計移動距離に、今回のタイミングで検出した移動距離を加えて、合計移動距離を算出する。具関係検出部218は、この合計移動距離を、関係情報として検出する。具体的には、関係検出部218は、以下の式(1)、(2)により、X軸方向についての合計移動距離と、Y軸方向についての合計移動距離とを算出する。
XSUM=XSUM(−1)+X ・・・(1)
YSUM=YSUM(−1)+Y ・・・(2)
ここで、XSUMは、X軸方向についての合計移動距離であり、XSUM(−1)は、前回のタイミングで算出された合計移動距離である。また、YSUMは、Y軸方向についての合計移動距離であり、YSUM(−1)は、前回のタイミングで算出された合計移動距離である。
合計移動距離を算出したら、視機能検出装置100は、検出時間が経過したかを判断し(ステップS22)、検出時間が経過していない場合(ステップS22;No)、ステップS16に戻り、その後の処理を繰り返す。すなわち、視機能検出装置100は、次のタイミングで検出された注視点166の位置情報を取得して、合計移動距離を更新する。視機能検出装置100は、検出時間が経過するまで、合計移動距離の更新を繰り返す。
視機能検出装置100は、検出時間が経過した場合(ステップS22;Yes)、視機能検出部220により、差分移動距離を算出し(ステップS24)、差分移動距離が閾値より大きいかを判断する(ステップS26)。視機能検出部220は、X軸方向についての合計移動距離XSUMとY軸方向についての合計移動距離YSUMとの差分を、差分移動距離として算出し、この差分移動距離に基づき、検査基準を満たすかの判断を行う。より詳しくは、視機能検出部220は、合計移動距離XSUMから合計移動距離YSUMを差し引いた値を、差分移動距離として算出する。視機能検出部220は、差分移動距離が、予め定めた閾値より大きいかを判断し、閾値より大きい場合(ステップS26;Yes)、被験者Hの視機能が、検査基準を満たしていると判断する(ステップS28)。一方、視機能検出部220は、差分移動距離が閾値より大きくない場合(ステップS26;No)、すなわち閾値以下である場合、被験者Hの視機能が、検査基準を満たしていないと判断する(ステップS29)。このステップS28又はS29により、本処理は終了する。視機能検出部220は、この検査基準を満たしているか否かという判断結果を、視機能を検出するための基準となる情報として導出し、例えば記憶部222に記憶させる。
図15は、注視点の位置の例を説明する図である。図14は、被験者Hが判断用画像231を視認できている場合の例であり、図15は、被験者Hが判断用画像231を視認できていない場合の例である。判断用画像231は、表示領域101T内で、所定方向(ここではX軸方向)に移動する動画像である。従って、この判断用画像231は、OKN(Optokinetic Nystagmus 視覚運動性眼振)ドラムのような機能を発揮して、被験者Hが視認できている場合には、被験者Hの注意を引きつつ、被験者Hの眼球111を、判断用画像231の移動方向(ここではX軸方向)に沿って往復運動させる。従って、被験者Hが判断用画像231を視認できている場合、注視点166は、図14のように、判断用画像231の動きに対応して、X軸方向に沿って往復するような軌跡となる。一方、被験者Hが判断用画像231を視認できていない場合、注視点166は、図15のように、判断用画像231の動きに対応せず、X軸方向に沿って往復するような軌跡とならない傾向にある。
図16及び図17は、時間ごとの注視点の座標の変動の一例を示すグラフである。図16は、被験者Hが判断用画像231を視認できている場合の、注視点166のX軸方向の座標の変化の例を示しており、図17は、被験者Hが判断用画像231を視認できている場合の、注視点166のY軸方向の座標の変化の例を示している。判断用画像231を視認できている場合、注視点166は、図16及び図17のように座標が変化する傾向にある。本実施形態に係る視機能検出部220は、合計移動距離XSUMから合計移動距離YSUMを差し引いて差分移動距離を算出して、その差分移動距離に基づき判断を行うことで、被験者Hの注視点166が図16及び図17のような傾向になっているかを、適切に検出する。従って、この視機能検出装置100によると、被験者の視機能を適切に検査することができる。
本実施形態では、注視点166の位置情報の取得毎に、合計移動距離を更新して算出している。ただし、関係検出部218は、検出期間の経過後に、まとめて合計移動距離を算出してもよい。
また、視機能検出部220による判断は、差分移動距離に基づくものに限られない。例えば、以下の方法での判断も可能である。すなわち、関係検出部218は、ステップS16で注視点166の位置検出結果を取得したら、その都度位置検出結果を配列に代入する。すなわち、関係検出部218は、注視点166の注視点166の位置情報をタイミング毎に記憶しておく。そして、関係検出部218は、検出時間が経過したら、注視点166のX軸方向における移動平均値と、Y軸方向における移動平均値とを算出する。移動平均値とは、あるデータを、そのデータの直近のデータと平均した値である。本実施形態では、あるタイミングの注視点166の座標値を、そのタイミングの直近(例えば直前のタイミングと直後のタイミング)の注視点166の座標値と合計し、合計した注視点166数で除することで、移動平均を算出する。すなわち、関係検出部218は、注視点166のX軸方向の座標と、その注視点166の直近のタイミングで検出された注視点166のX軸方向の座標とを合計し、合計した注視点166の数で除することで、X軸方向の移動平均値を算出する。また、関係検出部218は、注視点166のY軸方向の座標と、その注視点166の直近のタイミングで検出された注視点166のY軸方向の座標とを合計し、合計した注視点166の数で除することで、Y軸方向の移動平均値を算出する。関係検出部218は、全ての注視点166について、X軸方向の移動平均値とY軸方向の移動平均値とを算出する。
そして、関係検出部218は、注視点166毎のX軸方向の移動平均値と、Y軸方向の移動平均値を時系列で並べ、移動方向が反転した回数を抽出する。移動方向が反転するとは、時間経過に伴い座標がプラス側に移動していたのに対し、その次のタイミングでマイナス側に移動する場合と、時間経過に伴い座標がマイナス側に移動していたのに対し、その次のタイミングでプラス側に移動する場合とがある。関係検出部218は、X軸方向において移動方向が反転した回数と、Y軸方向に沿って移動方向が反転した回数とを、関係情報として検出する。
視機能検出部220は、X軸方向についての移動方向が反転した回数とY軸方向についての移動方向が反転した回数との差分を、差分回数として算出し、この差分回数に基づき、検査基準を満たすかの判断を行う。より詳しくは、視機能検出部220は、X軸方向についての移動方向が反転した回数からY軸方向についての移動方向が反転した回数を差し引いた値を、差分回数として算出する。視機能検出部220は、差分移動距離が、予め定めた閾値より大きいかを判断し、閾値より大きい場合、検査基準を満たしていると判断し、閾値以下である場合、検査基準を満たしていないと判断する。
このように、移動平均値に基づき判断を行うと、眼球111の微細な移動(固視微動)を、ローパスフィルタとしての移動平均値で除去することができ、適切な判断を行うことができる。ただし、視機能検出部220による判断は、差分移動距離や移動平均値に基づくものに限られない。視機能検出部220は、注視点166の移動方向のうちの、判断用画像231の移動方向に沿ったベクトル成分と、移動方向に直交する方向に沿ったベクトル成分とに基づき、被験者Hの視機能を検出すればよい。すなわち、視機能検出部220は、判断用画像231の移動方向に沿ったベクトル成分が、移動方向に直交する方向に沿ったベクトル成分より大きくなる度合いが高いと、被験者Hが判断用画像231を見えている可能性が高いとの判断結果を導出する。ただし、視機能検出部220は、注視点166の移動方向と、判断用画像231の移動方向とに基づき判断結果を導出するものであれば、他の方法で判断結果を導出してもよい。
また、視機能検出装置100は、異なるパターンの判断用画像231を表示させることで、被験者Hの視機能の度合いを、段階的に検出する。以下、その方法について説明する。図18は、視機能を段階的に検出する方法を示すフローチャートである。図18は、被験者の視力を検出する場合の一例を示すフローチャートである。図18に示すように、視機能検出装置100は、最初に、第1判断用画像で検査を行う(ステップS30)。第1判断用画像とは、複数のパターンの判断用画像231のうち、第1画像241及び第2画像242の面積が大きい画像であり、本実施形態の例では、図10に示す判断用画像231Aである。視機能検出装置100は、ステップS30において、この第1判断用画像(判断用画像231A)を用いて、図13に示す検査を実行する。すなわち、この場合、視機能検出装置100は、第1判断用画像(判断用画像231A)を表示させることで、検査基準を満たすかを判断する。
第1判断用画像での検査で検査基準を満たさないと判断された場合(ステップS32;No)、視機能検出装置100は、被験者Hの視力が、第1視力値より低いと判断して(ステップS33)、本処理を終了する。第1視力値とは、第1判断用画像の検査基準を満たすと判断された場合の視力であり、例えば、0.3である。ただし、第1視力値の値は、第1判断用画像の形状、すなわち第1画像241と第2画像242との大きさによって定められるものである。
第1判断用画像での検査で検査基準を満たすと判断された場合(ステップS32;Yes)、視機能検出装置100は、第2判断用画像で検査を行う(ステップS34)。第2判断用画像は、第1判断用画像よりも、第1画像241及び第2画像242の面積が小さい画像であり、本実施形態の例では、図11に示す判断用画像231Bである。視機能検出装置100は、ステップS34において、この第2判断用画像(判断用画像231B)を用いて、図13に示す検査を実行し、検査基準を満たすかを判断する。
第2判断用画像での検査で検査基準を満たさないと判断された場合(ステップS36;No)、視機能検出装置100は、被験者Hの視力が、第1視力値であると判断して(ステップS37)、本処理を終了する。第2判断用画像での検査で検査基準を満たすと判断された場合(ステップS36;Yes)、視機能検出装置100は、第3判断用画像で検査を行う(ステップS38)。第3判断用画像は、第2判断用画像よりも、第1画像241及び第2画像242の面積が小さい画像であり、本実施形態の例では、図12に示す判断用画像231Cである。視機能検出装置100は、ステップS38において、この第3判断用画像(判断用画像231C)を用いて、図13に示す検査を実行し、検査基準を満たすかを判断する。
第3判断用画像での検査で検査基準を満たさないと判断された場合(ステップS40;No)、視機能検出装置100は、被験者Hの視力が、第2視力値であると判断して(ステップS41)、本処理を終了する。第2視力値とは、第2判断用画像の検査基準を満たすと判断された場合の視力であり、第1視力値より高い値である。第2視力値は、例えば、0.5である。ただし、第2視力値の値は、第2判断用画像の形状、すなわち第1画像241と第2画像242との大きさによって定められるものである。
第3判断用画像での検査で検査基準を満たすと判断された場合(ステップS40;Yes)、視機能検出装置100は、被験者Hの視力が、第3視力値であると判断して(ステップS42)、本処理を終了する。第3視力値とは、第3判断用画像の検査基準を満たすと判断された場合の視力であり、第2視力値より高い値である。第3視力値は、例えば、1.0である。ただし、第3視力値の値は、第3判断用画像の形状、すなわち第1画像241と第2画像242との大きさによって定められるものである。視機能検出部220は、このように判断した視力値(第1視力値、第2視力値、第3視力値)と判断した情報を、視機能としての視力を検出するための基準となる情報として導出し、例えば記憶部222に記憶させる。
また、視機能検出装置100は、図18の例では、1つの判断用画像231での検査が終了したら、判断用画像231の表示を停止させて、次の判断用画像231での検査を開始している。ただし、視機能検出装置100は、複数の判断用画像231での検査を、連続的に行ってもよい。この場合、視機能検出装置100は、図13のステップS22での検出時間が経過したら、ステップS12に戻り、次のフレームから別の判断用画像231を表示させて、同様に表示領域101T内でスクロールさせながらの検査を行ってもよい。例えば、視機能検出装置100は、判断用画像231Aを検出時間の間表示したら、次のフレームから、例えば判断用画像231Bに切り替えて同様の検査を続けてもよい。このように連続的に検査を行うことで、検査時間を短縮することができる。さらに、視機能検出装置100は、判断用画像231Bを検出時間の間表示した後、次のフレームから、例えば判断用画像231Aに切り替えることも可能であり、ある視力の画像が見えなかった場合に、それよりも低視力用の画像での検査に戻ることもできる。
また、図18の例では、第3判断用画像の検査結果を満たした場合に、視力値を判断して処理を終了していたが、より高い検査基準となる判断用画像231がある場合、処理を続けてもよい。より高い検査基準となる判断用画像231としては、第3判断用画像より第1画像241と第2画像242との大きさが小さい画像が挙げられる。ただし、より高い検査基準となる判断用画像231としては、第3判断用画像よりコントラストが小さい判断用画像231であってもよい。
図19と図20とは、コントラストが異なる判断用画像の例を示す図である。ここでのコントラストとは、判断用画像231内の最大輝度と最小輝度との輝度の違いの度合いである。最大輝度と最小輝度との輝度の違いの度合いが大きいほど、コントラストが大きくなり、最大輝度と最小輝度との輝度の違いの度合いが小さいほど、コントラストが小さくなる。例えば、コントラストは、判断用画像231内の画素のうち輝度が最大となる画素の輝度、すなわち最大輝度を、判断用画像231内の画素のうち輝度が最小となる画素の輝度、すなわち最小輝度で除した値である。
図19に示す判断用画像231Dと、図20に示す判断用画像231Eとは、第1画像241と第2画像242との大きさが等しい。ただし、図20に示す判断用画像231Eは、図19に示す判断用画像231Dよりも、コントラストが小さい。すなわち、判断用画像231Eは、判断用画像231Dよりも、最大輝度と最小輝度との輝度の違いの度合いが小さい。従って、判断用画像231Eは、判断用画像231Dよりも、被験者Hに視認され難い。なお、本実施形態では、第2画像242が最大輝度となり、第1画像241が最小輝度となる。コントラストが小さくなれば、第1画像241と第2画像242との輝度差が小さくなるため、被験者は、視認し難くなる。
このように、判断用画像231のコントラストを異ならせることによっても、段階的な検査を行うことができる。視機能検出装置100は、第1画像241と第2画像242との大きさが異なる判断用画像231のみを用いて検査を行ってもよいし、コントラストが異なる判断用画像231のみを用いて検査を行ってもよいし、それらの両方を用いたり、組み合わせたりしてもよい。
以上説明したように、本実施形態に係る視機能検出装置100は、表示制御部216と、注視点検出部214と、関係検出部218と、視機能検出部220と、を有する。表示制御部216は、表示部(表示装置101)の表示画面101S上の表示領域101Tに判断用画像231を表示させ、判断用画像231を、表示領域101T内で移動させる。注視点検出部214は、表示画面101Sを観察する被験者Hの注視点の表示画面101S上の位置を検出する。関係検出部218は、判断用画像231の移動方向と注視点166の移動方向との関係情報を検出する。視機能検出部220は、関係情報に基づき、被験者Hの視機能を検出する。この視機能検出装置100は、被験者Hの注意を引く判断用画像231を表示することで、その判断用画像231が視認できている場合は、被験者Hの視線を判断用画像231に誘導する。さらに、視機能検出装置100は、判断用画像231が表示領域101T内で動くように、判断用画像231を表示している。従って、その判断用画像231が視認できている場合、被験者Hの視線は、判断用画像231の移動方向に沿う方向により大きく動く。この視機能検出装置100は、その被験者の視線を注視点として検出し、その注視点の移動方向に基づき、被験者Hが判断用画像231を視認できているか判断して、被験者Hの視機能を検出している。従って、この視機能検出装置100によると、視認できているかの自己申告が不要となり、注視点を適切に検出でき、注視点に基づき、被験者Hが判断用画像231を視認できているかを適切に判断できる。従って、この視機能検出装置100によると、被験者Hの視機能を適切に検査することができる。
なお、本実施形態では、注視点166の移動方向に基づき、視機能の検出を行っていた。ただし、視機能検出装置100は、注視点166を検出することなく、被験者Hの眼球111の動く方向に基づき、視機能を検出してもよい。すなわち、視機能検出装置100は、表示制御部216と、表示画面101Sを観察する被験者Hの眼球111の動きを検出する検出部と、判断用画像231の移動方向と眼球111の動く方向との関係情報を検出する関係検出部218と、関係情報に基づき被験者Hの視機能を検出する視機能検出部220と、を有していてもよい。被験者Hは、判断用画像231が視認できている場合、眼球111を、判断用画像231の移動方向に沿う方向により大きく動く。従って、眼球111が、移動方向に直交する方向よりも、移動方向により大きく、又はより多数動いていれば、視機能検出部220は、注視点166の検出時と同様に、断用画像231が視認できているとの判断の基準となる情報を導出することができる。なお、検出部は、眼球111の動きを、画像データ取得部206が取得した眼球111の画像データに基づき検出する。検出部は、例えば、位置検出部210であってよい。この場合、関係検出部218は、位置検出部210が検出した瞳孔中心の位置データを用いて、注視点166と同様の方法で、関係情報を検出することができる。また、検出部は、眼球111の画像データに基づき眼球111の動きを検出可能な構成であれば、位置検出部210に限られない。
また、表示制御部216は、判断用画像231を表示領域101Tの全域に表示させ、判断用画像231は、互いに輝度の異なる第1画像241と第2画像242とを有する。この視機能検出装置100は、判断用画像231を表示領域101Tの全域に表示させた上で、輝度の異なる第1画像241と第2画像242とを判断用画像231として表示することで、被験者Hが視認できている場合には適切に視線を誘導して、視機能を適切に検査することができる。
また、表示制御部216は、第1画像241と第2画像242とを、表示領域101T内で、所定方向にスクロールさせる。この視機能検出装置100は、第1画像241と第2画像242とをスクロールさせることで、被験者Hが視認できている場合には適切に視線を誘導して、視機能を適切に検査することができる。
また、表示制御部216は、表示領域101T内に複数の第1画像241と複数の第2画像242とを表示させる。表示制御部216は、第1画像241及び第2画像241を、表示領域101Tの所定方向(本実施形態ではX軸方向)と反対側の端部において、徐々に面積が大きくなるように表示させ、第1画像241及び第2画像241が所定の面積に達したら、所定方向に移動させる。この視機能検出装置100は、第1画像241と第2画像242とをこのようにスクロールさせることで、被験者Hが視認できている場合には適切に視線を誘導して、視機能を適切に検査することができる。
また、表示制御部216は、第1画像241及び第2画像242が表示領域101Tの所定方向(本実施形態ではX軸方向)の端部まで移動したら、第1画像241及び第2画像242の面積を徐々に小さくさせた後、所定方向の端部での第1画像241及び第2画像242の表示を終了させる。この視機能検出装置100は、第1画像241と第2画像242とをこのようにスクロールさせることで、被験者Hが視認できている場合には適切に視線を誘導して、視機能を適切に検査することができる。
また、表示制御部216は、表示領域101T内に、複数の第1画像241と複数の第2画像242とを表示し、第1画像241及び第2画像242の大きさが互いに異なる複数種類の判断用画像231を異なるタイミングで表示させる。視機能検出部220は、複数種類の判断用画像231毎の関係情報に基づき、被験者Hの視機能を検出する。この視機能検出装置100は、複数種類の判断用画像231毎に検査を行うことで、視機能を段階的に評価することができる。
表示制御部216は、互いにコントラストが異なる複数種類の判断用画像231を、異なるタイミングで表示させ、視機能検出部220は、複数種類の判断用画像231毎の関係情報に基づき、被験者Hの視機能を検出する。この視機能検出装置100は、コントラストが異なる判断用画像231毎に検査を行うため、視機能を段階的に評価することができる。
視機能検出部220は、注視点166の移動方向のうちの、任意の第1の方向に沿ったベクトル成分と、第1の方向に直交する方向に沿ったベクトル成分とに基づき、被験者Hの視機能を検出する。この視機能検出部220は、注視点166の移動方向を、判断用画像231の移動方向に沿ったベクトル成分と、移動方向に直交する方向に沿ったベクトル成分とに分解して評価を行う。従って、視機能検出装置100は、判断用画像231の移動方向に沿った注視点166の動きを適切に検出することにより、視機能を適切に評価することができる。
図21から図23は、判断用画像の他の例を示す図である。本実施形態の判断用画像231は、第1画像241と第2画像242とが、X軸方向に沿って交互に並ぶストライプ形状であったが、判断用画像231の表示はそれに限られない。例えば、図21判断用画像231aに示すように、第1画像241aと第2画像242aとが、Y軸方向に沿って交互に並ぶストライプ形状であってもよい。この場合、判断用画像231の移動方向は、Y軸方向であることが好ましい。視機能検出装置100は、判断用画像231と判断用画像231aとを切り替えて検査を行うことで、X軸方向の動きへの反応と、Y軸方向の動きへの反応との、両方を検出することができる。また、判断用画像231の移動方向は、X軸方向及びY軸方向に限られず、例えば、X軸方向及びY軸方向の両方に交差する方向、すなわち斜め方向であってもよい。
また、図22の判断用画像231bに示すように、第1画像241bと第2画像242bとが、X軸方向及びY軸方向に沿って交互に並ぶ市松模様であってもよい。また、図23の判断用画像231cに示すように、第1画像241cと第2画像242cとが、互いに輝度や形状が異なる画像であってもよい。なお、図23の例では、第1画像241cと第2画像242cとが果物であったが、それに限られない。
以上、本発明の実施形態を説明したが、これら実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。