以下、本発明に係る評価装置、評価方法、及び評価プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
[視線検出装置]
図1は、第1実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。視線検出装置100は、認知機能障害および脳機能障害の評価を行う評価装置として用いられる。図1に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。
表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置101は、表示画面101Sを有する。表示画面101Sは、画像を表示する。本実施形態において、表示画面101Sは、例えば被験者の視機能を評価するための指標を表示する。表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも-X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも-X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111の一部(以下、これを含めて「眼球」とする)を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを撮影する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを撮影する。
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で撮影される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、撮影される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
図2は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60とを備える。
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で撮影された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
図3は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで撮影された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで撮影された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部202と、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、領域設定部216と、判定部218と、演算部220と、記憶部222と、評価部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
表示制御部202は、第1属性を有する複数の比較対象物と、第1属性を有しない特定対象物とを表示画面101Sに表示する表示動作を行う。この場合、表示制御部202は、表示動作に先立って、又は表示動作と同時に、被験者に対して第1属性を有しない特定対象物を見つめるように指示する指示情報を表示画面101Sに表示してもよい。この指示情報は、表示画面101Sに表示する態様に限られず、表示に加えて、又は表示に代えて、音声等により被験者に伝達してもよい。ここで、「属性」は、表示画面101Sに表示する対象物(特定対象物及び比較対象物)に備わる特徴及び性質である。このような属性として、例えば、形状、色彩、能力、機能、生物であるか非生物であるか、生物である場合の生態、分類、等が挙げられる。なお、表示制御部202は、表示動作において1つ以上、つまり1つ又は複数の特定対象物を表示画面101Sに表示することができる。
また、表示制御部202は、表示動作において、第1属性と当該第1属性とは異なる第2属性とを共に有する対象物を比較対象物のうちの第1比較対象物として表示画面101Sに表示し、第1属性を有しかつ第2属性を有しない対象物を比較対象物のうちの第2比較対象物として表示画面101Sに表示し、第1属性及び第2属性を有しない対象物を特定対象物として表示画面101Sに表示してもよい。なお、表示制御部202は、表示動作において1つ以上、つまり1つ又は複数の第2比較対象物を表示画面101Sに表示することができる。
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって撮影された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
領域設定部216は、表示動作が行われる表示期間において、表示装置101の表示画面101Sのうち特定対象物に対応した特定領域と、それぞれの比較対象物に対応した比較領域とを設定する。また、領域設定部216は、表示画面101Sにおいて比較対象物として第1比較対象物及び第2比較対象物とが表示される場合、第1比較対象物に対応した第1比較領域と、第2比較対象物に対応した第2比較領域とを表示画面101Sに設定する。領域設定部216は、特定領域と比較領域とが重ならないように表示画面101Sに設定する。
判定部218は、表示動作が行われる表示期間において、視点の位置データに基づいて、注視点が特定領域及び比較領域に存在するか否かをそれぞれ判定し、判定データを出力する。判定部218は、表示画面101Sに第1比較領域と第2比較領域とが設定される場合、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が第1比較領域、第2比較領域及び特定領域に存在するか否かの判定を行う。判定部218は、例えば一定時間毎に注視点が特定領域及び比較領域に存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。
演算部220は、判定部218の判定データに基づいて、表示期間における注視点の移動の経過を示す移動経過データを算出する。移動経過データは、表示期間の開始時点から注視点が特定領域に到達した到達時点までの到達時間データと、注視点が最初に特定領域に到達するまでに複数の比較領域の間で注視点の位置が移動する回数(移動回数)を示す移動回数データと、表示期間に注視点が特定領域に存在した存在時間を示す存在時間データと、特定領域及び比較領域のうち表示時間において注視点が最後に存在していた領域(最終領域)を示す最終領域データと、を含む。また、表示画面101Sに第1比較領域及び第2比較領域が表示される場合、存在時間データは、表示期間に注視点が特定領域に存在した存在時間を示す第1存在時間データに加えて、表示期間に注視点が第2比較領域に存在した存在時間を示す第2存在時間データを含んでもよい。
なお、演算部220は、映像の再生時間を管理する管理タイマと、表示画面101Sに映像が表示されてからの経過時間を検出する検出タイマT1を有する。演算部220は、特定領域について、注視点が存在すると判定された判定回数をカウントするカウンタを有する。表示画面101Sに特定領域及び第2比較領域が表示される場合、演算部220は、特定領域及び第2比較領域のそれぞれについて、注視点が存在すると判定された判定回数を別個にカウントするカウンタを有する。
評価部224は、移動経過データに基づいて、被験者の評価データを求める。評価データは、表示動作において表示画面101Sに表示される特定対象物を被験者が注視できているかを評価するデータを含む。
記憶部222は、上記の判定データ、移動経過データ(存在時間データ、移動回数データ、最終領域データ、到達時間データ)、及び評価データを記憶する。また、記憶部222は、表示画面101Sに画像を表示する処理と、表示画面101Sを観察する被験者の注視点の位置を検出する処理と、第1属性を有する複数の比較対象物と、第1属性を有しない特定対象物とを表示画面101Sに表示する表示動作を行う処理と、比較対象物(第1比較対象物、第2比較対象物)に対応した比較領域(第1比較領域、第2比較領域)と、特定対象物に対応した特定領域とを表示画面101Sに設定する処理と、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が比較領域及び特定領域に存在するか否かの判定を行う処理と、判定部における判定結果に基づいて、表示期間における注視点の移動の経過を示す移動経過データを算出する処理と、移動経過データに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる評価プログラムを記憶する。
出力制御部226は、表示装置101及び出力装置50の少なくとも一方にデータを出力する。
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。図4及び図5は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図4は、1つの光源103Cで眼球111が照明される例を示す。図5は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
まず、図4に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図4において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
次に、図5に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。角膜反射中心124の位置データは、ステレオカメラ装置102で撮影された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。曲率中心算出部212は、ステレオカメラ装置102で撮影された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
次に、本実施形態に係る視線検出方法の一例について説明する。図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。出力制御部226は、設定された目標位置130に目標画像を表示する。直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
次に、注視点検出処理について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼球111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。図7において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
[評価方法]
次に、本実施形態に係る評価方法について説明する。本実施形態に係る評価方法では、上記の視線検出装置100を用いることにより、被験者の認知機能障害および脳機能障害を評価する。
図8は、表示動作において表示画面101Sに表示する内容の一例を示す図である。図8に示すように、表示制御部202は、被験者に対する指示である指示情報I1を表示画面101Sに表示する。指示情報I1は、表示画面101Sに表示される複数の対象物のうち属性が異なる対象物を注視するように指示する内容である。
また、表示制御部202は、指示情報I1に対して正解となる特定対象物と、指示情報I1に対して不正解となる複数の比較対象物とを表示画面101Sに表示する。図8に示す例において、表示制御部202は、4種類の魚の画像MC1~MC4と、イカの画像MB1と、ヤカンの画像MA1とを表示画面101Sに表示する。ここで、4種類の魚及びイカは、水中の生物としての第1属性を有している。ヤカンは、水中の生物としての第1属性を有していない。
また、上記の4種類の魚は、水中の生物であるという第1属性を有すると共に、魚類であるという第2属性を有している。一方、イカは、水中の生物であるが、魚類ではないため、第1属性を有しているが第2属性を有していない。また、ヤカンは、水中の生物でもなく、魚類でもないため、第1属性及び第2属性を有していない。
つまり、図8に示す例において、表示制御部202は、第1属性(水中の生物である属性)を有し、第2属性(魚類である属性)を有する4種類の魚の画像を、比較対象物のうちの第1比較対象物MC1~MC4として表示画面101Sに表示する。また、表示制御部202は、第1属性(水中の生物である属性)を有し、第2属性(魚類である属性)を有しないイカの画像を、比較対象物のうちの第2比較対象物MB1として表示画面101Sに表示する。また、表示制御部202は、第1属性(水中の生物である属性)及び第2属性(魚類である属性)を有しないヤカンの画像を特定対象物MA1として表示する。
また、表示制御部202による表示期間において、領域設定部216は、指示情報I1に対して正解となる特定対象物MA1に対応した特定領域Aを設定する。領域設定部216は、特定対象物MA1の少なくとも一部を含む領域に特定領域Aを設定することができる。本実施形態において、領域設定部216は、特定対象物MA1を含む矩形の領域に特定領域Aを設定する。
また、領域設定部216は、指示情報I1に対して不正解となる比較対象物MB1、MC1~MC4に対応した比較領域B、C1~C4を設定する。領域設定部216は、比較対象物MB1、MC1~MC4のうち、第1比較対象物MC1~MC4に対応した第1比較領域C1~C4と、第2比較対象物MB1に対応した第2比較領域Bとを比較領域として別個に設定する。領域設定部216は、第1比較対象物MC1~MC4の少なくとも一部を含む領域にそれぞれ第1比較領域C1~C4を設定することができる。また、領域設定部216は、第2比較対象物MB1の少なくとも一部を含む領域に第2比較領域Bを設定することができる。本実施形態において、領域設定部216は、第1比較対象物MC1~MC4、第2比較対象物MB1を含む矩形の領域に第1比較領域C1~C4、第2比較領域Bをそれぞれ設定する。また、領域設定部216は、特定領域Aと、第1比較領域C1~C4と、第2比較領域Bとが重ならないように表示画面101Sに設定する。
なお、特定領域A、第1比較領域C1~C4、及び第2比較領域Bは、表示画面101Sには表示されない。特定領域A、第1比較領域C1~C4、及び第2比較領域Bの形状については、上記のような矩形に限定されず、円形、楕円形、多角形等、他の形状であってもよい。
また、図8では、表示画面101Sにおいて、例えば計測後に結果表示される注視点Pの一例を示しているが、当該注視点Pは、実際には表示画面101Sには表示されない。注視点の位置データの検出は、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期で(例えば20[msec]毎に)実施される。第1カメラ102A及び第2カメラ102Bは、同期して撮像する。
認知機能障害および脳機能障害の症状は、被験者の記憶能力及び認知能力に影響することが知られている。被験者が認知機能障害および脳機能障害ではない場合、表示動作において表示画面101Sに表示される複数の対象物MA1、MB1、MC1~MC4を見て、第1属性(水中の生物である属性)を有する比較対象物MB1、MC1~MC4に対して、第1属性を有しない特定対象物(ヤカン)MA1を区別して見つけ出すことができる。
これに対して、被験者が認知機能障害および脳機能障害である場合、比較対象物MB1、MC1~MC4に対して特定対象物MA1を区別することができず、特定対象物MA1を注視できないことがある。したがって、本実施形態では、複数の対象物の中から他とは異なった属性の対象物を見つけ出す課題を被験者に与え、被験者が回答を見つけ出す際の注視点の移動の経過に基づいて、被験者の認知機能障害および脳機能障害の可能性を評価する。
また、本発明者は、被験者が認知機能障害および脳機能障害である場合、比較対象物MB1、MC1~MC4の中から、第2属性(魚類である)を有する第1比較対象物(4種類の魚)MC1~MC4に対して、第2属性を有しない第2比較対象物(イカ)MB1を区別し、当該第2比較対象物MB1を注視してしまう傾向があることを見出した。その理由として、本発明者は、イカには8本の足があったり、ヒレが無かったりと、外観における形状等が4種類の魚とは異なるためであることを見出した。したがって、本実施形態では、不正解となる複数の比較対象物の中に、他の対象物(第1比較対象物MC1~MC4)とは異なった属性の対象物(第2比較対象物MB1)を含ませた上で、被験者が回答を見つけ出す際の注視点の移動の経過に基づいて、被験者の認知機能障害および脳機能障害の可能性を評価する。
なお、本実施形態のように複数の対象物MA1、MB1、MC1~MC4を表示画面101Sに表示する方式では、表示動作の開始時に、被験者の注視点が正解である特定対象物MA1等に偶然配置されてしまう場合がある。このような場合、被験者が認知機能障害および脳機能障害であるか否かに関わらず正解として判定される可能性があるため、被験者を高精度に評価することが困難となる。このため、例えば以下の手順を行うことにより、被験者を評価することが可能である。
まず、表示動作として、表示画面101Sに指示情報I1を表示させ、複数の対象物(特定対象物MA1、比較対象物MB1、MC1~MC4)を表示させる。この場合に、被験者が複数の対象物を1つ1つ注視しているか否か、被験者が最終的に正解となる特定対象物MA1に到達できるか否か、被験者が特定対象物MA1に到達するまでに要する時間の長さはどれだけか、被験者が特定対象物MA1を注視できているか否か、被験者が第2比較対象物MB1を注視しているか否か、等の観点から被験者を評価することが可能である。
表示動作において、被験者の注視点Pの位置データが検出された場合、判定部218は、被験者の注視点が特定領域A、及び比較領域B、C1~C4に存在するかを判定し、判定データを出力する。
演算部220は、判定データに基づいて、表示期間における注視点Pの移動の経過を示す移動経過データを算出する。演算部220は、移動経過データとして、存在時間データと、移動回数データと、最終領域データと、到達時間データとを算出する。
存在時間データは、注視点Pが特定領域Aに存在した存在時間を示す第1存在時間データと、注視点Pが第2比較領域Bに存在した存在時間を示す第2存在時間データとを含む。本実施形態では、判定部218により注視点が特定領域A、第2比較領域Bに存在すると判定された回数が多いほど、特定領域A、第2比較領域Bに注視点Pが存在した存在時間が長いと推定することができる。したがって、存在時間データは、特定領域A、第2比較領域Bに注視点が存在すると判定部218に判定された回数とすることができる。つまり、演算部220は、カウンタにおけるカウント値CNTAを第1存在時間データとし、カウント値CNTBを第2存在時間データとすることができる。
また、移動回数データは、注視点Pが最初に特定領域Aに到達するまでに複数の比較領域B、C1~C4の間で注視点Pの位置が移動する移動回数を示す。したがって、演算部220は、特定領域A及び比較領域B、C1~C4の領域間で注視点Pが何回移動したかをカウントし、注視点Pが特定領域Aに到達するまでのカウント結果を移動回数データとすることができる。
また、最終領域データは、特定領域A及び比較領域B、C1~C4のうち表示時間において注視点Pが最後に存在していた領域、つまり被験者が回答として最後に注視していた領域を示す。演算部220は、注視点Pが存在する領域を当該注視点Pの検出毎に更新することにより、表示期間が終了した時点における検出結果を最終領域データとすることができる。
また、到達時間データは、表示期間の開始時点から注視点が特定領域Aに最初に到達した到達時点までの時間を示す。したがって、演算部220は、表示期間の開始からの経過時間をタイマT1によって測定し、注視点が最初に特定領域Aに到達した時点でフラグ値を1としてタイマT1の測定値を検出することで、当該タイマT1の検出結果を到達時間データとすることができる。
本実施形態において、評価部224は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データに基づいて評価データを求める。
ここで、最終領域データのデータ値をD1、第1存在時間データのデータ値をD2、第2存在時間データのデータ値をD3、到達時間データのデータ値をD4、移動回数データのデータ値をD5とする。ただし、最終領域データのデータ値D1は、被験者の最終的な注視点Pが特定領域Aに存在していれば(つまり、正解であれば)1、特定領域Aに存在していなければ(つまり、不正解であれば)0とする。なお、最終領域データのデータ値D1は、被験者の最終的な注視点Pが特定領域Aに存在していない場合(不正解の場合)において、第1比較領域C1~C4に存在していれば0.5とし、第2比較領域Bに存在していれば0としてもよい。また、第1存在時間データのデータ値D2は、特定領域Aに注視点Pが存在した秒数とする。また、第2存在時間データのデータ値D3は、第2比較領域Bに注視点Pが存在した秒数とする。なお、データ値D2、D3は、表示期間よりも短い秒数の上限値が設けられてもよい。また、到達時間データのデータ値D4は、到達時間の逆数(例えば、1/(到達時間)÷10)(10:到達時間の最小値を0.1秒として到達時間評価値を1以下とするための係数)とする。また、移動回数データのデータ値D5は、カウンタ値をそのまま用いることとする。なお、データ値D4は、適宜上限値が設けられてもよい。
この場合、評価値ANSは、例えば、
ANS=D1・K1+D2・K2-D3・K3+D4・K4+D5・K5
と表すことができる。なお、K1~K5は、重みづけのための定数である。定数K1~K5については、適宜設定することができる。
上記式で示される評価値ANSは、最終領域データのデータ値D1が大きい場合、第1存在時間データのデータ値D2が大きい場合、第2存在時間データのデータ値D3が小さい場合、到達時間データのデータ値D4が小さい場合、移動回数データのデータ値D5が大きい場合に、値が大きくなる。つまり、最終的な注視点Pが特定領域Aに存在し、特定領域Aにおける注視点Pの存在時間が長く、第2比較領域Bにおける注視点Pの存在時間が短く、表示期間の開始時点から特定領域Aに注視点Pが到達する到達時間が短く、注視点Pが各領域を移動する移動回数が多いほど、評価値ANSが大きくなる。
一方、評価値ANSは、最終領域データのデータ値D1が小さい場合、第1存在時間データのデータ値D2が小さい場合、第2存在時間データのデータ値D3が大きい場合、到達時間データのデータ値D4が大きい場合、移動回数データのデータ値D5が小さい場合に、値が小さくなる。つまり、最終的な注視点Pが特定領域Aに存在せず、特定領域Aにおける注視点Pの存在時間が短く、第2比較領域Bにおける注視点Pの存在時間が長く、表示期間の開始時点から特定領域Aに注視点Pが到達する到達時間が長く、注視点Pが各領域を移動する移動回数が少ないほど、評価値ANSが小さくなる。
したがって、評価部224は、評価値ANSが所定値以上か否かを判断することで評価データを求めることができる。例えば評価値ANSが所定値以上である場合、被験者が認知機能障害および脳機能障害である可能性は低いと評価することができる。また、評価値ANSが所定値未満である場合、被験者が認知機能障害および脳機能障害である可能性は高いと評価することができる。
また、評価部224は、評価値ANSの値を記憶部222に記憶させておくことができる。例えば、同一の被験者についての評価値ANSを累積的に記憶し、過去の評価値と比較した場合の評価を行ってもよい。例えば、評価値ANSが過去の評価値よりも高い値となった場合、脳機能が前回の評価に比べて改善されている旨の評価を行うことができる。また、評価値ANSの累積値が徐々に高くなっている場合等には、脳機能が徐々に改善されている旨の評価を行うことができる。
また、評価部224は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データを個別又は複数組み合わせて評価を行ってもよい。例えば、多くの対象物を見ている間に、偶発的に特定領域Aに注視点Pが到達した場合には、移動回数データのデータ値D5は小さくなる。この場合には、上述した第1存在時間データのデータ値D2と併せて評価を行うことができる。例えば、移動回数が少ない場合であっても特定領域Aに存在した存在時間が長い場合には、正解となる特定領域Aを注視できていると評価することができる。また、移動回数が少ない場合であって存在時間も短い場合、偶発的に注視点Pが特定領域Aを通過したものがあると評価することができる。
また、移動回数が少ない場合において、最終領域が特定領域Aであれば、例えば正解の特定領域Aに注視点移動が少なくて到達したと評価することができる。一方、上述した移動回数が少ない場合において、最終領域が特定領域Aでなければ、例えば偶発的に注視点Pが特定領域Aを通過したものあると評価することができる。
本実施形態において、出力制御部226は、評価部224が評価データを出力した場合、評価データに応じて、例えば「被験者は認知機能障害および脳機能障害である可能性が低いと思われます」の文字データや、「被験者は認知機能障害および脳機能障害である可能性が高いと思われます」の文字データ等を出力装置50に出力させることができる。また、出力制御部226は、同一の被験者についての評価値ANSが過去の評価値ANSに比べて高くなっている場合、「認知機能および脳機能が改善されています」等の文字データ等を出力装置50に出力することができる。
図9及び図10は、表示動作において表示画面101Sに表示する内容の他の例を示す図である。表示制御部202は、表示動作において、まず図9に示すように、指示情報I1を表示画面101Sに表示する。指示情報I1を表示画面101Sに表示してから一定期間が経過した後、表示制御部202は、図10に示すように、複数の対象物(特定対象物MA1、比較対象物MB1、MC1~MC4)を表示画面101Sに表示する。この場合、表示画面101Sの全体に複数の対象物を配置することができるため、対象物同士の間隔を十分に確保でき、特定領域A、比較領域B、C1~C4の間隔を十分に確保することができるため、高精度の評価が可能となる。
図11は、表示画面101Sに表示する複数の対象物の他の例を示す図である。図11では、複数の対象物が表示画面101Sの全体に亘って表示される例を示しているが、これに限定されず、複数の対象物が指示情報I1と共に表示される場合でも同様の説明が可能である。
図11に示すように、表示制御部202は、複数の対象物として、4種類の魚の画像MC5~MC8と、カエルの画像MB2と、カップの画像MA2とを表示画面101Sに表示する。ここで、4種類の魚及びカエルは、生物であるという第1属性を有している。カップは、生物であるという第1属性を有していない。
また、上記の4種類の魚は、生物であるという第1属性を有すると共に、魚類であるという第2属性を有している。一方、カエルは、生物ではあるが魚類ではないため、第1属性を有しているが第2属性を有していない。また、カップは、水中の生物でもなく、魚類でもないため、第1属性及び第2属性を有していない。
このように、表示制御部202は、第1属性(生物である属性)を有し、第2属性(魚類である属性)を有する4種類の魚の画像を比較対象物のうち第1比較対象物MC5~MC8として表示画面101Sに表示する。また、表示制御部202は、第1属性(生物である属性)を有し、第2属性(魚類である属性)を有しないカエルの画像を比較対象物のうち第2比較対象物MB2として表示画面101Sに表示する。また、表示制御部202は、第1属性(生物である属性)及び第2属性(魚類である属性)を有しないカップの画像を特定対象物MA2として表示画面101Sに表示する。
領域設定部216は、指示情報I1に対して正解となる特定対象物MA2に対応した特定領域Aを設定する。また、領域設定部216は、指示情報I1に対して不正解となる比較対象物MB2、MC5~MC8に対応した比較領域B、C1~C4を設定する。領域設定部216は、比較対象物MB2、MC5~MC8のうち、第1比較対象物MC5~MC8に対応した第1比較領域C1~C4と、第2比較対象物MB2に対応した第2比較領域Bとを比較領域として別個に設定する。また、領域設定部216は、特定領域Aと、第1比較領域C1~C4と、第2比較領域Bとが重ならないように表示画面101Sに設定する。
被験者が認知機能障害および脳機能障害ではない場合、表示動作において表示画面101Sに表示される複数の対象物MA2、MB2、MC5~MC8を見て、第1属性(生物である属性)を有する比較対象物MB2、MC5~MC8に対して、第1属性を有しない特定対象物(カップ)MA2を区別して見つけ出すことができる。
これに対して、被験者が認知機能障害および脳機能障害である場合、比較対象物MB2、MC5~MC8の中から、第2属性(魚類である)を有する第1比較対象物(4種類の魚)MC5~MC8に対して、第2属性を有しない第2比較対象物(カエル)MB2を区別し、当該第2比較対象物MB2を注視してしまう傾向がある。
なお、第2比較対象物MB2であるカエルは、第1比較対象物MC5~MC8である4種類の魚とは属性が相違するため、足があったり、ヒレが無かったり、色彩が魚とは異なったりと、外観における形状等が4種類の魚とは異なる。この場合、カエルは、イカのような足の尖った部分等が無いため、イカに比べて4種類の魚との外観における形状等における相違点が少ない。また、特定対象物MA2であるカップには、第1比較対象物MC5~MC8と同一属性を有する魚の画像が描かれており、ヤカンと比べて外観上の類似点が多い。このため、図11に示す例では、図8に示す例に比べて、難易度が高くなっている。
図12は、表示画面101Sに表示する複数の対象物の他の例を示す図である。図12では、複数の対象物が表示画面101Sの全体に亘って表示される例を示しているが、これに限定されず、複数の対象物が指示情報I1と共に表示される場合でも同様の説明が可能である。
図12に示すように、表示制御部202は、複数の対象物として、2種類の鳥の画像MC9~MC10と、コウモリの画像MB3と、飛行機の画像MA3とを表示画面101Sに表示する。ここで、2種類の鳥及びコウモリは、空を飛べる生物であるという第1属性を有している。飛行機は、空を飛べる生物ではないため、第1属性を有していない。
また、2種類の鳥は、鳥類であるという第2属性を有している。一方、コウモリは、空を飛べる生物ではあるが、鳥類ではないため、第1属性を有しているが第2属性を有していない。また、飛行機は、空を飛べる生物でもなく、鳥類でもないため、第1属性及び第2属性を有していない。
このように、表示制御部202は、第1属性(空を飛べる生物である属性)を有し、第2属性(鳥類である属性)を有する2種類の鳥の画像を比較対象物のうち第1比較対象物MC9~MC10として表示画面101Sに表示する。また、表示制御部202は、第1属性(空を飛べる生物である属性)を有し、第2属性(鳥類である属性)を有しないコウモリの画像を比較対象物のうち第2比較対象物MB3として表示画面101Sに表示する。また、表示制御部202は、第1属性(空を飛べる生物である属性)及び第2属性(鳥類である属性)を有しない飛行機の画像を特定対象物MA3として表示画面101Sに表示する。
領域設定部216は、指示情報I1に対して正解となる特定対象物MA3に対応した特定領域Aを設定する。また、領域設定部216は、指示情報I1に対して不正解となる比較対象物MB3、MC9、MC10に対応した比較領域B、C1、C2を設定する。領域設定部216は、比較対象物MB3、MC9、MC10のうち、第1比較対象物MC9、MC10に対応した第1比較領域C1、C2と、第2比較対象物MB3に対応した第2比較領域Bと、を比較領域として別個に設定する。また、領域設定部216は、特定領域Aと、第1比較領域C1、C2と、第2比較領域Bとが重ならないように表示画面101Sに設定する。
被験者が認知機能障害および脳機能障害ではない場合、表示動作において表示画面101Sに表示される複数の対象物MA3、MB3、MC9、MC10を見て、第1属性(空を飛べる生物である属性)を有する比較対象物MB3、MC9、MC10に対して、第1属性を有しない特定対象物(飛行機)MA3を区別して見つけ出すことができる。
これに対して、被験者が認知機能障害および脳機能障害である場合、複数の比較対象物(MB3、MC9、MC10)である2種類の鳥とコウモリとの間で翼の形状や色彩等が相違するため、第2属性(鳥類である)を有する第1比較対象物(2種類の鳥)MC9、MC10に対して、第2属性を有しない第2比較対象物(コウモリ)MB3を区別し、当該第2比較対象物MB3を注視してしまう傾向がある。
なお、第2比較対象物MB3であるコウモリは、第1比較対象物MC9、MC10である2種類の鳥とは、外観においてくちばしが無く、翼の形状が2種類の鳥とは異なっている。一方、コウモリは、翼を広げた全体の外観が2種類の鳥に類似している。図12に示す例では、第1比較対象物MC9、MC10と第2比較対象物MB3との間に類似点を多くすることにより、上記の例に比べて難易度が高くなっている。また、特定対象物MA3である飛行機は、翼を有している点で第1比較対象物MC9、MC10及び第2比較対象物MB3と類似している。このように、図12に示す例では、特定対象物MA3と、第1比較対象物MC9、MC10及び第2比較対象物MB3との間に類似点を設定することにより、上記の例に比べて難易度が高くなっている。
このように、第1比較対象物(MC1~MC10)と特定対象物(MA1、MA2、MA3)との外観上の相違点を少なく又は類似点を多くし、第1比較対象物(MC1~MC10)と第2比較対象物(MB1、MB2、MB3)との外観上の相違点を少なく又は類似点を多くすることにより、評価の難易度を高めることが可能となる。評価の難易度を高めることにより、より軽度の認知機能障害および脳機能障害を高精度に評価することができる。
次に、本実施形態に係る評価方法の一例について、図13及び図14を参照しながら説明する。図13は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態に係る評価方法において、図13に示すように、まず表示制御部202は、映像の再生を開始させる(ステップS101)。評価用映像部分までの待ち時間を経過した後(ステップS102)、タイマT1をリセットし(ステップS103)、カウンタのカウント値CNTA、CNTBをリセットし(ステップS104)、フラグ値を0にし、移動回数及び最終領域をクリアする(ステップS105)。
ステップS105の後、評価処理(ステップS106~ステップS139)を行う。図14は、評価処理の一例を示すフローチャートである。図14に示すように、評価処理において、注視点検出部214は、表示装置101に表示された映像を被験者に見せた状態で、規定のサンプリング周期(例えば20[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する(ステップS106)。位置データが検出された場合(ステップS107のNo)、判定部218は、位置データに基づいて注視点Pが存在する領域を判定する(ステップS108)。また、位置データが検出されない場合(ステップS107のYes)、後述するステップS139以降の処理を行う。
注視点Pが特定領域Aに存在すると判定された場合(ステップS109のYes)、演算部220は、フラグ値が1であるか否か、つまり、注視点Pが特定領域Aに到達したのが最初か否か(1:到達済み、0:未到達)を判定する(ステップS110)。フラグ値が1である場合(ステップS110のYes)、演算部220は、以下のステップS111からステップS113を飛ばして後述するステップS114の処理を行う。
また、フラグ値が1ではない場合、つまり、特定領域Aに注視点Pが到達したのが最初である場合(ステップS110のNo)、演算部220は、タイマT1の計測結果を到達時間データとして抽出する(ステップS111)。また、演算部220は、特定領域Aに到達するまでに注視点Pが領域間の移動を何回行ったかを示す移動回数データを記憶部222に記憶させる(ステップS112)。その後、演算部220は、フラグ値を1に変更する(ステップS113)。
次に、演算部220は、直近の検出において注視点Pが存在した領域、つまり最終領域が特定領域Aであるか否かを判定する(ステップS114)。演算部220は、最終領域が特定領域Aであると判定した場合(ステップS114のYes)、以下のステップS115及びステップS116を飛ばして後述するステップS117の処理を行う。また、最終領域が特定領域Aではないと判定した場合(ステップS114のNo)、演算部220は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS115)、最終領域を特定領域Aに変更する(ステップS116)。また、演算部220は、特定領域Aでの存在時間データを示すカウント値CNTAを+1とする(ステップS117)。その後、演算部220は、後述するステップS139以降の処理を行う。
また、注視点Pが特定領域Aに存在しないと判定された場合(ステップS109のNo)、演算部220は、注視点Pが第2比較領域Bに存在するか否かを判定する(ステップS118)。注視点Pが第2比較領域Bに存在すると判定された場合(ステップS118のYes)、演算部220は、直近の検出において注視点Pが存在した領域、つまり最終領域が第2比較領域Bであるか否かを判定する(ステップS119)。演算部220は、最終領域が第2比較領域Bであると判定した場合(ステップS119のYes)、以下のステップS120及びステップS121を飛ばして後述するステップS122の処理を行う。また、最終領域が第2比較領域Bではないと判定した場合(ステップS119のNo)、演算部220は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS120)、最終領域を第2比較領域Bに変更する(ステップS121)。また、演算部220は、第2比較領域Bでの存在時間データを示すカウント値CNTBを+1とする(ステップS122)。その後、演算部220は、後述するステップS139以降の処理を行う。
また、注視点Pが第2比較領域Bに存在しないと判定された場合(ステップS118のNo)、演算部220は、注視点Pが第1比較領域C1に存在するか否かを判定する(ステップS123)。注視点Pが第1比較領域C1に存在すると判定された場合(ステップS123のYes)、演算部220は、直近の検出において注視点Pが存在した領域、つまり最終領域が第1比較領域C1であるか否かを判定する(ステップS124)。演算部220は、最終領域が第1比較領域C1であると判定した場合(ステップS124のYes)、以下のステップS125及びステップS126を飛ばして後述するステップS139の処理を行う。また、最終領域が第1比較領域C1ではないと判定した場合(ステップS124のNo)、演算部220は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS125)、最終領域を第1比較領域C1に変更する(ステップS126)。その後、演算部220は、後述するステップS139以降の処理を行う。
また、注視点Pが第1比較領域C1に存在しないと判定された場合(ステップS123のNo)、演算部220は、注視点Pが第1比較領域C2に存在するか否かを判定する(ステップS127)。注視点Pが第1比較領域C2に存在すると判定された場合(ステップS127のYes)、演算部220は、直近の検出において注視点Pが存在した領域、つまり最終領域が第1比較領域C2であるか否かを判定する(ステップS128)。演算部220は、最終領域が第1比較領域C2であると判定した場合(ステップS128のYes)、以下のステップS129及びステップS130を飛ばして後述するステップS139の処理を行う。また、最終領域が第1比較領域C2ではないと判定した場合(ステップS128のNo)、演算部220は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS129)、最終領域を第1比較領域C2に変更する(ステップS130)。その後、演算部220は、後述するステップS139以降の処理を行う。
また、注視点Pが第1比較領域C2に存在しないと判定された場合(ステップS127のNo)、演算部220は、注視点Pが第1比較領域C3に存在するか否かを判定する(ステップS131)。注視点Pが第1比較領域C3に存在すると判定された場合(ステップS131のYes)、演算部220は、直近の検出において注視点Pが存在した領域、つまり最終領域が第1比較領域C3であるか否かを判定する(ステップS132)。演算部220は、最終領域が第1比較領域C3であると判定した場合(ステップS132のYes)、以下のステップS133及びステップS134を飛ばして後述するステップS139の処理を行う。また、最終領域が第1比較領域C3ではないと判定した場合(ステップS132のNo)、演算部220は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS133)、最終領域を第1比較領域C3に変更する(ステップS134)。その後、演算部220は、後述するステップS139以降の処理を行う。
また、注視点Pが第1比較領域C3に存在しないと判定された場合(ステップS131のNo)、演算部220は、注視点Pが第1比較領域C4に存在するか否かを判定する(ステップS135)。注視点Pが第1比較領域C4に存在すると判定された場合(ステップS135のYes)、演算部220は、直近の検出において注視点Pが存在した領域、つまり最終領域が第1比較領域C4であるか否かを判定する(ステップS136)。演算部220は、最終領域が第1比較領域C4であると判定した場合(ステップS136のYes)、以下のステップS137及びステップS138を飛ばして後述するステップS139の処理を行う。また、最終領域が第1比較領域C4ではないと判定した場合(ステップS136のNo)、演算部220は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS137)、最終領域を第1比較領域C4に変更する(ステップS138)。ステップS138の後、及びステップS135において注視点Pが第1比較領域C4に存在しないと判定された場合(ステップS135のNo)、演算部220は、後述するステップS139以降の処理を行う。
その後、演算部220は、検出タイマT1の検出結果に基づいて、映像の再生が完了する時刻に到達したか否かを判断する(ステップS139)。演算部220により映像の再生が完了する時刻に到達していないと判断された場合(ステップS139のNo)、上記のステップS106以降の処理を繰り返し行う。
ステップS139の後、図13に示すように、演算部220により映像の再生が完了する時刻に到達したと判断された場合(ステップS139のYes)、表示制御部202は、映像の再生を停止させる(ステップS140)。映像の再生が停止された後、評価部224は、上記の処理結果から得られる存在時間データと、移動回数データと、最終領域データと、到達時間データに基づいて、評価値ANSを算出し(ステップS141)、評価値ANSに基づいて評価データを求める。その後、出力制御部226は、評価部224で求められた評価データを出力する(ステップS142)。
以上のように、本実施形態に係る評価装置100は、画像を表示する表示画面101Sと、表示画面101Sに表示される画像を観察する被験者の注視点の位置を検出する注視点検出部214と、第1属性を有する複数の比較対象物MB1~MB3、MC1~MC10と、第1属性を有しない特定対象物MA1~MA3とを表示画面101Sに表示する表示動作を行う表示制御部202と、比較対象物MB1~MB3、MC1~MC10に対応した比較領域B、C1~C4と、特定対象物MA1~MA3に対応した特定領域Aとを表示画面101Aに設定する領域設定部216と、注視点Pの位置データに基づいて、表示動作が行われる表示期間に注視点Pが特定領域A及び比較領域B、C1~C4に存在するか否かの判定を行う判定部218と、判定結果に基づいて、表示期間における注視点Pの移動の経過を示す移動経過データを算出する演算部220と、移動経過データに基づいて、被験者の評価データを求める評価部224とを備える。
また、本実施形態に係る評価方法は、表示画面101Sに画像を表示することと、表示画面101Sに表示される画像を観察する被験者の注視点の位置を検出することと、第1属性を有する複数の比較対象物MB1~MB3、MC1~MC10と、第1属性を有しない特定対象物MA1~MA3とを表示画面101Sに表示する表示動作を行うことと、比較対象物MB1~MB3、MC1~MC10に対応した比較領域B、C1~C4と、特定対象物MA1~MA3に対応した特定領域Aとを表示画面101Aに設定することと、注視点Pの位置データに基づいて、表示動作が行われる表示期間に注視点Pが特定領域A及び比較領域B、C1~C4に存在するか否かの判定を行うことと、判定結果に基づいて、表示期間における注視点Pの移動の経過を示す移動経過データを算出することと、移動経過データに基づいて、被験者の評価データを求めることとを含む。
また、本実施形態に係る評価プログラムは、表示画面101Sに画像を表示する処理と、表示画面101Sに表示される画像を観察する被験者の注視点の位置を検出する処理と、第1属性を有する複数の比較対象物MB1~MB3、MC1~MC10と、第1属性を有しない特定対象物MA1~MA3とを表示画面101Sに表示する表示動作を行う処理と、比較対象物MB1~MB3、MC1~MC10に対応した比較領域B、C1~C4と、特定対象物MA1~MA3に対応した特定領域Aとを表示画面101Aに設定する処理と、注視点Pの位置データに基づいて、表示動作が行われる表示期間に注視点Pが特定領域A及び比較領域B、C1~C4に存在するか否かの判定を行う処理と、判定結果に基づいて、表示期間における注視点Pの移動の経過を示す移動経過データを算出する処理と、移動経過データに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる。
本実施形態によれば、複数の対象物の中から第1属性を有しない対象物を見つけ出す課題を被験者に与え、被験者が回答を見つけ出す際の注視点の移動の経過に基づいて、被験者の認知機能障害および脳機能障害の可能性を評価するため、被験者を精度よく評価することができる。また、表示期間における注視点の移動の経過に基づいて、被験者の評価データを求めることができるため、被験者をより高精度に評価することができる。これにより、評価装置100は、被験者の評価を高精度に行うことが可能となる。
また、本実施形態に係る評価装置100において、表示制御部202は、表示動作において、第1属性と当該第1属性とは異なる第2属性とを共に有する複数の対象物を比較対象物のうち第1比較対象物MC1~MC10として表示画面101Sに表示し、第1属性を有しかつ第2属性を有しない対象物を比較対象物のうち第2比較対象物MB1~MB3として表示画面101Sに表示し、第1属性及び第2属性を有しない対象物を特定対象物MA1~MA3として表示画面101Sに表示し、領域設定部216は、第1比較対象物MC1~MC10に対応した第1比較領域C1~C4と、第2比較対象物MB1~MB3に対応した第2比較領域Bとを別個の領域として表示画面101Sに設定し、判定部218は、注視点Pの位置データに基づいて、表示動作が行われる表示期間に注視点Pが第1比較領域C1~C4、第2比較領域B及び特定領域Aに存在するか否かの判定を行う。これにより、被験者の注視点Pが第2比較領域Bに存在する場合を別個に検出することができるため、被験者の評価を高精度に行うことが可能となる。
また、本実施形態に係る評価装置100において、移動経過データは、表示期間に注視点Pが特定領域Aに存在した存在時間を示す第1存在時間データと、表示期間に注視点Pが第2比較領域Bに存在した存在時間を示す第2存在時間データと、を含み、評価部224は、第1存在時間データと第2存在時間データとで異なる重み付けをして評価データを求める。これにより、被験者の注視点Pが特定領域Aに存在する場合と第2比較領域Bに存在する場合とを区別して評価することができるため、被験者の評価を高精度に行うことが可能となる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記各実施形態では、比較対象物として第1比較対象物及び第2比較対象物を表示装置101Sに表示する場合を例に挙げて説明したが、これに限定されず、第2比較対象物を表示しない態様であってもよい。
また、「属性」については、上記実施形態において説明した特徴及び性質の例に限定されず、他の特徴及び性質であってもよい。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記各実施形態では、評価装置100を、認知機能障害および脳機能障害である可能性を評価する評価装置として用いる場合を例に挙げて説明したが、これに限定されない。例えば、評価装置100は、認知機能障害および脳機能障害ではない被験者を評価する評価装置として用いてもよい。