JP2019024776A - 評価装置、評価方法、及び評価プログラム - Google Patents

評価装置、評価方法、及び評価プログラム Download PDF

Info

Publication number
JP2019024776A
JP2019024776A JP2017146000A JP2017146000A JP2019024776A JP 2019024776 A JP2019024776 A JP 2019024776A JP 2017146000 A JP2017146000 A JP 2017146000A JP 2017146000 A JP2017146000 A JP 2017146000A JP 2019024776 A JP2019024776 A JP 2019024776A
Authority
JP
Japan
Prior art keywords
display
data
evaluation
display operation
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017146000A
Other languages
English (en)
Other versions
JP6883242B2 (ja
Inventor
首藤 勝行
Katsuyuki Shudo
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017146000A priority Critical patent/JP6883242B2/ja
Publication of JP2019024776A publication Critical patent/JP2019024776A/ja
Application granted granted Critical
Publication of JP6883242B2 publication Critical patent/JP6883242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被験者の評価を高精度に行うことが可能な評価装置、評価方法、及び評価プログラムを提供する。【解決手段】評価装置は、被験者の眼球の画像データを取得する画像データ取得部と、画像データに基づいて、被験者の注視点の位置データを検出する注視点検出部と、第1表示動作と、第2表示動作と、第3表示動作と含む表示動作を行う表示制御部と、表示画面において、特定対象物の位置に対応した対応領域を設定する領域設定部と、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が対応領域に存在するか否かをそれぞれ判定し、判定データを出力する判定部と、判定データに基づいて、表示期間に注視点が対応領域に存在した存在時間を示す時間データを算出する演算部と、時間データに基づいて、被験者の評価データを求める評価部と、評価データを出力する出力制御部とを備える。【選択図】図4

Description

本発明は、評価装置、評価方法、及び評価プログラムに関する。
視線検出技術の一つとして角膜反射法が知られている。角膜反射法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像に対する瞳孔の位置を検出して、被験者の視線を検出する。
このような被験者の視線を検出した結果を用いて、各種評価が行われている。例えば、特許文献1には、眼球運動を検出することにより、脳機能を検査する技術が記載されている。
特開2003−038443号公報
近年、認知症等の脳神経疾病・障がい者が増加傾向にあるといわれている。また、このような脳神経疾病・障がいを早期に発見し、症状の重さを定量的に評価することが求められている。例えば、脳神経疾病・障がいの症状は、追視能力に影響することが知られている。このため、被験者の追視能力を計測することにより、被験者を高精度に評価することが求められている。
本発明は、上記に鑑みてなされたものであり、被験者の評価を高精度に行うことが可能な評価装置、評価方法、及び評価プログラムを提供することを目的とする。
本発明に係る評価装置は、被験者の眼球の画像データを取得する画像データ取得部と、前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う表示制御部と、前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する領域設定部と、前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する判定部と、前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する演算部と、前記時間データに基づいて、前記被験者の評価データを求める評価部と、前記評価データを出力する出力制御部とを備える。
本発明に係る評価方法は、被験者の眼球の画像データを取得することと、前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行うことと、前記表示画面において、前記特定対象物の位置に対応した対応領域を設定することと、前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力することと、前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出することと、前記時間データに基づいて、前記被験者の評価データを求めることと、前記評価データを出力することとを含む。
本発明に係る評価プログラムは、被験者の眼球の画像データを取得する処理と、前記画像データに基づいて、前記被験者の注視点の位置データを検出する処理と、外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う処理と、前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する処理と、前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する処理と、前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する処理と、前記時間データに基づいて、前記被験者の評価データを求める処理と、前記評価データを出力する処理とをコンピュータに実行させる。
本発明によれば、被験者の視線検出結果を用いた評価を高精度に行うことが可能となる。
図1は、第1実施形態に係る視線検出装置の一例を模式的に示す斜視図である。 図2は、本実施形態に係る表示装置とステレオカメラ装置と照明装置と被験者の眼との位置関係を模式的に示す図である。 図3は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。 図4は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。 図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図6は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。 図8は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。 図9は、本実施形態に係るキャリブレーション処理の一例を示すフローチャートである。 図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。 図11は、本実施形態に係る注視点検出処理の一例を示すフローチャートである。 図12は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図13は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図14は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図15は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図16は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図17は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図18は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図19は、本実施形態に係る表示制御部が表示装置に表示させる映像の一例を示す図である。 図20は、各映像が表示される時刻を示すタイムチャートである。 図21は、本実施形態に係る評価方法の一例を示すフローチャートである。 図22は、本実施形態に係る表示制御部が表示装置に表示させる映像の変形例を示す図である。
以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
<第1実施形態>
第1実施形態について説明する。図1は、本実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。本実施形態において、視線検出装置100は、被験者の関心対象を評価する評価装置として用いられる。
図1に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。
表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。表示装置101は、表示部として機能する。
本実施形態において、表示装置101の表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
図2は、本実施形態に係る表示装置101とステレオカメラ装置102と照明装置103と被験者の眼球111との位置関係を模式的に示す図である。
照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
図3は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図3に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。
演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。音声出力装置70は、スピーカを含み、例えば被験者に注意を促すための音声を出力する。
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
図4は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図4に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部202と、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、領域設定部216と、判定部218と、演算部220と、記憶部222と、評価部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
表示制御部202は、外観が同一の複数の対象物について1つの対象物を特定対象物として他の対象物とは異なる表示態様で区別して表示画面101Sに表示した後に特定対象物を他の対象物と同一の表示態様で表示画面101Sに表示する第1表示動作と、第1表示動作を行った後に複数の対象物が移動する状態を同一の表示態様で表示画面101Sに表示する第2表示動作と、第2表示動作を行った後に複数の対象物の移動が停止する状態を同一の表示態様で表示画面101Sに表示する第3表示動作と、含む表示動作を行う。表示動作により複数の対象物が表示されている期間を表示期間とする。表示制御部202は、例えば被験者に見せるための映像を表示装置101の表示画面101Sに表示させる。この映像には、複数の対象物を表示させる場面と、複数の対象物を非表示とする場面とを含む。したがって、表示制御部202は、映像を再生させることにより、表示画面101Sに第1表示動作、第2表示動作及び第3表示動作を行うようになっている。また、この映像は、被験者に対して指示を行うための文字情報等を表示する場面を含む。
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
領域設定部216は、表示装置101の表示画面101Sにおいて、特定対象物の位置に対応した対応領域を設定する。領域設定部216は、例えば第1表示動作が行われる第1表示期間において、他の対象物とは異なる表示態様で区別して表示画面に表示される特定対象物の表示内容に基づいて対応領域を設定する。例えば、第1表示動作において特定対象物とは異なる表示物が表示される場合、領域設定部216は、当該表示物を含むように対応領域を設定することができる。領域設定部216は、例えば第2表示動作が行われる第2表示期間において、移動する特定対象物の軌跡に基づいて対応領域を設定する。領域設定部216は、例えば第3表示動作が行われる第3表示期間において、停止した状態の特定対象物を含む範囲に対応領域を設定することができる。
判定部218は、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が複数の対応領域に存在するか否かをそれぞれ判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が対応領域に存在するか否かをそれぞれ判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
演算部220は、判定部218の判定データに基づいて、表示期間に注視点が対応領域に存在した存在時間を示す時間データを算出する。演算部220は、第1表示動作が行われる第1表示期間における存在時間を示す第1時間データと、第2表示動作が行われる第2表示期間における存在時間を示す第2時間データと、第3表示動作が行われる第3表示期間における存在時間を示す第3時間データと、を時間データとして算出する。
なお、演算部220は、映像の再生時間を管理する管理タイマと、表示画面101Sに映像が表示されてからの経過時間を検出する検出タイマを有する。演算部220は、検出タイマの検出結果に基づいて、表示画面101Sに表示される映像がタイムチャートにおける複数の期間(図20の期間T1〜T7参照)のうちいずれの期間の映像かを検出可能である。また、演算部220は、対応領域について注視点が存在すると判定された判定回数をカウントする。演算部220は、対応領域について判定回数をカウントするカウンタを有する。
評価部224は、少なくとも時間データに基づいて、被験者の評価データを求める。評価データは、表示動作において表示画面101Sに表示される複数の対象物のうち特定対象物に対して被験者がどの程度追視しているかを示すデータである。
記憶部222は、上記の判定データ、時間データ、評価データを記憶する。また、記憶部222は、被験者の眼球の画像データを取得する処理と、画像データに基づいて、被験者の注視点の位置データを検出する処理と、外観が同一の複数の対象物について1つの対象物を特定対象物として他の対象物とは異なる表示態様で区別して表示画面に表示した後に特定対象物を他の対象物と同一の表示態様で表示画面に表示する第1表示動作と、第1表示動作を行った後に複数の対象物が移動する状態を同一の表示態様で表示画面に表示する第2表示動作と、第2表示動作を行った後に複数の対象物の移動が停止する状態を同一の表示態様で表示画面に表示する第3表示動作と、含む表示動作を行う処理と、表示画面において、特定対象物の位置に対応した対応領域を設定する処理と、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が対応領域に存在するか否かをそれぞれ判定し、判定データを出力する処理と、判定データに基づいて、表示期間に注視点が対応領域に存在した存在時間を示す時間データを算出する処理と、時間データに基づいて、被験者の評価データを求める処理と、評価データを出力する処理とをコンピュータに実行させる評価プログラムを記憶する。
出力制御部226は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部226は、演算部220で算出された時間データを表示装置101又は出力装置50に表示させる。また、出力制御部226は、被験者の左右それぞれの眼球111の注視点の位置データを表示装置101又は出力装置50に表示させる。また、出力制御部226は、評価部224から出力された評価データを表示装置101又は出力装置50に表示させる。
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
図5及び図6は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図5は、1つの光源103Cで眼球111が照明される例を示す。図6は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
まず、図5に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図5において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。
角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。
角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
次に、図6に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。
角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。
角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。
曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。
角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
[視線検出方法]
次に、本実施形態に係る視線検出方法の一例について説明する。図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。本実施形態においては、角膜曲率中心110の位置データの算出処理及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS100)と、注視点検出処理(ステップS200)が実施される。
(キャリブレーション処理)
キャリブレーション処理(ステップS100)について説明する。図8は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理は、角膜曲率中心110の位置データを算出すること、及び瞳孔中心112Cと角膜曲率中心110との距離126を算出することを含む。
被験者に注視させるための目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。
表示制御部202は、設定された目標位置130に目標画像を表示させる。これにより、被験者は、目標位置130を注視し易くなる。
直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
図9は、本実施形態に係るキャリブレーション処理(ステップS100)の一例を示すフローチャートである。出力制御部226は、表示装置101の表示画面101Sに目標画像を表示させる(ステップS101)。被験者は、目標画像を注視することにより、目標位置130を注視することができる。
次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち一方の光源から検出光を射出させる(ステップS102)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS103)。
次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち他方の光源から検出光を射出させる(ステップS104)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS105)。
瞳孔112は、暗い部分としてステレオカメラ装置102に検出され、角膜反射像113は、明るい部分としてステレオカメラ装置102に検出される。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。位置検出部210は、取得される画像の輝度に基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを検出することができる。また、位置検出部210は、瞳孔112の画像データに基づいて、瞳孔中心112Cの位置データを算出する。また、位置検出部210は、角膜反射像113の画像データに基づいて、角膜反射中心113Cの位置データを算出する(ステップS106)。
ステレオカメラ装置102によって検出された位置データは、3次元のローカル座標系で規定される位置データである。位置検出部210は、記憶部222に記憶されている変換パラメータを使用して、ステレオカメラ装置102で検出された瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを座標変換して、三次元グローバル座標系で規定される瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを算出する(ステップS107)。
曲率中心算出部212は、グローバル座標系で規定される角膜反射中心113Cと仮想光源103Vとを結ぶ直線131を算出する(ステップS108)。
次に、曲率中心算出部212は、表示装置101の表示画面101Sに規定される目標位置130と瞳孔中心112Cとを結ぶ直線132を算出する(ステップS109)。曲率中心算出部212は、ステップS108で算出した直線131とステップS109で算出した直線132との交点を求め、この交点を角膜曲率中心110とする(ステップS110)。
曲率中心算出部212は、瞳孔中心112Cと角膜曲率中心110との距離126を算出して、記憶部222に記憶する(ステップS111)。記憶された距離は、ステップS200の注視点検出処理において、角膜曲率中心110を算出するために使用される。
(注視点検出処理)
次に、注視点検出処理(ステップS200)について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。
図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。注視点検出処理は、キャリブレーション処理(ステップS100)で求めた瞳孔中心112Cと角膜曲率中心110との距離126を用いて、角膜曲率中心110の位置を補正すること、及び補正された角膜曲率中心110の位置データを使って注視点を算出することを含む。
図10において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。
瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。
直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。
距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。
角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。
角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
図11は、本実施形態に係る注視点検出処理(ステップS200)の一例を示すフローチャートである。なお、図11に示すステップS201からステップS207までの処理は、図9に示したステップS102からステップS108までの処理と同様であるため説明を省略する。
曲率中心算出部212は、ステップS207で算出した直線173上であって、瞳孔中心112Cからの距離がキャリブレーション処理によって求めた距離126と等しい位置を角膜曲率中心110Hとして算出する(ステップS208)。
注視点検出部214は、瞳孔中心112Cと角膜曲率中心110Hとを結ぶ視線ベクトルを算出する(ステップS209)。視線ベクトルは、被験者が見ている視線方向を示す。注視点検出部214は、視線ベクトルと表示装置101の表示画面101Sとの交点の位置データを算出する(ステップS210)。視線ベクトルと表示装置101の表示画面101Sとの交点の位置データが、三次元グローバル座標系で規定される表示画面101Sにおける被験者の注視点の位置データである。
注視点検出部214は、三次元グローバル座標系で規定される注視点の位置データを、2次元座標系で規定される表示装置101の表示画面101Sにおける位置データに変換する(ステップS211)。これにより、被験者が見つめる表示装置101の表示画面101S上の注視点の位置データが算出される。
次に、本実施形態に係る評価方法について説明する。本実施形態において、視線検出装置100は、例えば被験者の追視能力を評価する評価装置に使用される。以下の説明においては、視線検出装置100を適宜、評価装置100、と称する場合がある。
図12は、表示制御部202が表示装置101に表示させる映像の一例を示す図である。図12に示すように、表示制御部202は、表示装置101の表示画面101Sに、複数の対象物Mを表示させる。本実施形態では、複数の対象物Mとして、例えば3つの対象物Mを表示する。以下、3つの対象物Mを表記する際、対象物M1、M2、M3と表記する場合がある。なお、表示画面101Sに表示する対象物Mの数は、3つに限定されず、2つ又は4つ以上であってもよい。表示制御部202は、対象物M1〜M3を、例えば表示画面101Sに互いに離れた状態で表示する。
対象物M1〜M3は、例えば開口部が下向きのカップであるが、これに限定されず、他の物品であってもよい。対象物M1〜M3は、外観が同一である。つまり、対象物M1〜M3は、形状、寸法、色彩、姿勢等が同一の状態で表示される。したがって、対象物M1〜M3は、被験者から見た場合に区別がつかない状態で表示される。
また、表示制御部202は、例えば表示画面101Sの上辺に沿った領域に被験者への指示を表示させてもよい。被験者への指示は、例えば特定対象物M0を他の対象物とは異なる表示態様で区別して表示する際の当該表示を見るように指示する場合や、対象物M1〜M3が移動する際に被験者に特定対象物M0を追視するように指示する場合等に、それぞれ指示の内容を文章等で表示させる。
また、図12では、出力制御部226により表示画面101Sにおいて、例えば計測後に結果表示される注視点の一例を示している。出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示装置101に表示させる。注視点の位置データの検出は、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期で(例えば50[msec]毎に)実施される。第1カメラ102A及び第2カメラ102Bは、同期して撮像する。したがって、表示画面101Sのうちプロット点Pが密集している領域ほど、被験者が注視していることを示す。また、プロット点Pの数が多い領域ほど、被験者がその領域を注視している時間が長いことを示す。
脳神経疾病・障がいの症状は、追視能力に影響することが知られている。被験者が脳神経疾病・障がい者ではない場合、複数の対象物M1〜M3が表示画面101Sに移動させた状態で示され、そのうち1つの対象物Mについて注視点を追従させる(追視させる)ように指示された場合に、当該1つの対象物Mについて追視することができる。一方、被験者が脳神経疾病・障がい者である場合では、複数の対象物M1〜M3を表示画面101Sに移動させた状態で示され、そのうち1つの対象物Mについて追視するように指示された場合、当該1つの対象物Mを追視できないことがある。
このため、例えば以下の手順を行うことにより、被験者を評価することが可能である。まず、表示画面101Sに複数の対象物Mを表示させた状態で被験者に1つの対象物Mを特定対象物として記憶させる。その後、表示画面101Sに複数の対象物Mを移動させた状態で表示し、特定対象物を追視するように被験者に指示する。つまり、特定対象物の移動に応じて視線を移動させ、特定対象物に視線を合わせ続けるように被験者に指示する。この場合に、被験者が特定対象物を追視できるかを検出することにより、被験者を評価することが可能である。
図13から図19は、本実施形態に係る表示制御部202が表示画面101Sに表示させる映像の一例を示す図である。図20は、各映像が表示される期間を示すタイムチャートである。表示制御部202により映像が再生される場合、まず、第1表示動作が行われる。第1表示動作では、対象物M1〜M3のうち1つの対象物Mが特定対象物M0として他の対象物Mとは異なる表示態様で区別して表示画面101Sに表示された後に、特定対象物M0が他の対象物Mと同一の表示態様で表示画面101Sに表示される。本実施形態では、対象物M1〜M3のうち、対象物M2が特定対象物M0として設定される場合を例に挙げて説明する。なお、対象物M1、M3のいずれかが特定対象物M0として設定される場合についても、同様の説明が可能である。
図13に示すように、第1表示動作では、まず対象物M1〜M3が表示され、特定対象物M0が他の対象物M1、M3とは異なる表示態様で区別して表示画面101Sに表示される。図13では、特定対象物M0が被遮蔽物であるコインCを遮蔽する動作を行い、他の対象物M1、M3については静止した状態が所定期間(図20の期間T1)表示される。この表示により、被験者に対して直感的に特定対象物M0を認識させることができる。期間T1では、特定対象物M0を被験者に記憶させるため、例えば「特定対象物M0を覚えて下さい」等の指示が表示画面101Sに表示されてもよい。期間T1において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。以下、期間T1において設定される対応領域Aを対応領域A1と表記する場合がある。対応領域A1は、例えば特定対象物M0及びコインCを含む範囲に設定される。
第1表示動作では、期間T1が経過した後、図14に示すように、特定対象物M0が他の対象物M1、M3と同一の表示態様で表示画面101Sに所定期間(図20の期間T2)表示される。例えば、特定対象物M0がコインCを遮蔽した後、他の対象物M1、M3と区別がつかない状態で表示画面101Sに表示される。期間T2では、特定対象物M0に視線を合わせるように、例えば「特定対象物M0を注視して下さい」等の指示が表示画面101Sに表示されてもよい。期間T2において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。以下、期間T2において設定される対応領域Aを対応領域A2と表記する場合がある。なお、期間T2ではコインCが表示されないため、対応領域A1と対応領域A2とで範囲が異なっている。第1表示期間において、出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示画面101Sに表示させてもよい。このようにして、第1表示動作が完了する。
第1表示動作が完了した後、続けて第2表示動作が行われる。第2表示動作では、図15〜図17に示すように、対象物M1〜M3が移動する状態が同一の表示態様で表示画面101Sに所定期間(図20の期間T3〜T5)表示される。この場合、特定対象物M0は、他の対象物M1、M3と区別がつかない状態で表示画面101Sに表示される。なお、第2表示動作が行われる第2表示期間(期間T3〜T5)では、移動する特定対象物M0に視線を合わせ続けるように、例えば「特定対象物M0を追視して下さい」等の指示が表示画面101Sに表示されてもよい。第2表示期間の各期間T3、T4、T5は、互いに等しい期間として設定することができる。なお、対象物M1〜M3は、必ずしも全てが移動しなくてもよい。例えば、特定対象物M0が設定されている対象物M2が移動せず、対象物M1及び対象物M3のみが移動してもよい。以下では対象物M1〜M3の全てが移動するものとして説明する。
第2表示期間において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。領域設定部216は、例えば移動する特定対象物M0の軌跡に基づいて対応領域Aを設定することができる。この場合、領域設定部216は、期間毎に対応領域Aを設定してもよい。
例えば、領域設定部216は、図15に示すように、期間T3における特定対象物M0の軌跡を含む範囲に対応領域Aを設定する。この場合、対応領域Aは、特定対象物M0の軌跡に対応して、表示画面101Sの図中の左右方向の中央部近傍に上下方向に延びた状態で形成される。以下、期間T3において設定される対応領域Aを対応領域A3と表記する場合がある。
表示期間が期間T3から期間T4に切り替わった場合、領域設定部216は、図16に示すように、期間T4における特定対象物M0の軌跡を含む範囲に対応領域Aを設定する。この場合、対応領域Aは、特定対象物M0の軌跡に対応して、表示画面101Sの図中の左上に左右方向に延びた状態で形成される。以下、期間T4において設定される対応領域Aを対応領域A4と表記する場合がある。
表示期間が期間T4から期間T5に切り替わった場合、領域設定部216は、図17に示すように、期間T5における特定対象物M0の軌跡を含む範囲に対応領域A5を設定する。この場合、対応領域Aは、特定対象物M0の軌跡に対応して、表示画面101Sの図中の左側に上下方向に延びた状態で形成される。以下、期間T5において設定される対応領域Aを対応領域A5と表記する場合がある。
第2表示期間において、対象物M1〜M3は、例えば互いに重ならないように移動ルートが設定されている。領域設定部216は、設定された特定対象物M0の移動ルートの情報を取得することにより、特定対象物M0の軌跡に応じた対応領域A3〜A5を設定可能である。このように、領域設定部216は、期間T3、T4、T5によって対応領域Aの範囲を変更することができる。なお、第2表示期間において、出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示画面101Sに表示させてもよい。このようにして、第2表示動作が完了する。
第2表示動作が完了した後、続けて第3表示動作が行われる。第3表示動作では、図18に示すように、対象物M1〜M3の移動が停止する状態が同一の表示態様で表示画面101Sに所定期間(図20の期間T6)表示される。この場合においても、特定対象物M0は、他の対象物M1、M3と区別がつかない状態で表示画面101Sに表示される。なお、期間T6では、移動を停止した特定対象物M0に視線を合わせ続けるように、例えば「特定対象物M0を注視して下さい」等の指示が表示画面101Sに表示されてもよい。第3表示動作が行われる第3表示期間(期間T6)において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。以下、期間T6において設定される対応領域Aを対応領域A6と表記する場合がある。対応領域A6は、特定対象物M0を囲う範囲に設定される。なお、第3表示期間において、出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示画面101Sに表示させてもよい。このようにして、第3表示動作が完了する。第3表示動作が完了した場合、領域設定部216は、対応領域A6の設定を解除する。これにより、表示画面101Sには対応領域Aが設定されていない状態となる。したがって、領域設定部216は、表示期間が期間T1、T2、T3、T4、T5、T6と切り替わって進む際に、表示画面101Sに対応領域Aを、それぞれ対応領域A1、A2、A3、A4、A5、A6と切り替えて設定する。
第3表示動作が完了した後、続けて第4表示動作が行われる。第4表示動作では、特定対象物M0が他の対象物M1、M3とは異なる表示態様で区別されて表示画面101Sに表示される。例えば、図19に示すように、特定対象物M0を上昇させてコインCが現れる状態が表示される。これにより、被験者に対して、移動後の特定対象物M0の位置を直観的に知らせることができる。このようにして、第4表示動作が完了する。第4表示動作の期間T7が経過した後、映像の再生が終了する。なお、期間T7においては、映像が終了した旨が表示画面101Sに表示されてもよい。
被験者が脳神経疾病・障がい者ではない場合、対象物M1〜M3のうち1つの特定対象物M0を追視するように指示された場合、特定対象物M0に追従して視点を合わせることができる。一方、被験者が脳神経疾病・障がい者である場合、対象物M1〜M3のうち1つの特定対象物M0を追視するように指示された場合、特定対象物M0に追従して視線を合わせることができないことがある。
上記の第1表示期間〜第3表示期間(期間T1〜T6)において、判定部218は、注視点が対応領域Aに存在するか否かをそれぞれ判定し、判定データを出力する。また、演算部220は、第1表示期間〜第3表示期間(期間T1〜T6)において、判定データに基づいて、注視点を示すプロット点Pが対応領域Aに存在した存在時間をそれぞれ示す時間データを算出する。本実施形態において、時間データは、例えば第1表示期間(期間T1、T2)において対応領域A1、A2に注視点が存在する時間を示す第1時間データと、第2表示期間(期間T3〜T5)において対応領域A3〜A5に注視点が存在する時間を示す第2時間データと、第3表示期間(期間T6)において対応領域A6に注視点が存在する時間を示す第3時間データと、を含む。
また、本実施形態において、判定部218において注視点が存在すると判定された回数が多いほど、対応領域Aに注視点が存在した存在時間が長いと推定することができる。したがって、本実施形態において、時間データは、例えば対応領域Aについて表示期間内に判定部218で注視点が存在すると判定された回数とすることができる。つまり、時間データは、表示期間内に対応領域Aで検出されるプロット点Pの数とすることができる。演算部220は、判定部218に設けられるカウンタのカウント結果を用いて時間データを算出可能である。
本実施形態において、評価部224は、時間データに基づいて評価データを求める場合、例えば、以下のように行うことができる。
まず、演算部220に設けられるカウンタは、第1表示期間において第1時間データをカウントし、第2表示期間において第2時間データをカウントし、第3表示期間において第3時間データをカウントする。ここで、第1時間データのカウンタ値をCNTAとし、第2時間データのカウンタ値をCNTBとし、第3時間データのカウンタ値をCNTCとする。
この場合、評価部224は、評価データを求めるための評価値を、以下のように求めることができる。例えば、被験者の注視点が対応領域Aに存在した時間の長さを判断することにより、評価値を求めることができる。被験者が特定対象物M0に追従して視線を合わせ続けている場合、対応領域Aを注視する時間が長くなる。第1表示期間において、対応領域A1、A2に存在する注視点の存在時間が長いほど、カウンタ値CNTAの値が大きくなる。第2表示期間において、対応領域A3〜A5に存在する注視点の存在時間が長いほど、カウンタ値CNTBの値が大きくなる。第3表示期間において、対応領域A6に存在する注視点の存在時間が長いほど、カウンタ値CNTCの値が大きくなる。このため、カウンタ値CNTA、CNTB、CNTCの合計値が所定値以上か否かを判断することで、評価値を求めることができる。例えばカウンタ値CNTA、CNTB、CNTCの合計値が所定値以上である場合、被験者が脳神経疾病・障がい者である可能性は低いと評価することができる。また、カウンタ値CNTA、CNTB、CNTCの合計値が所定値未満である場合、被験者が脳神経疾病・障がい者である可能性は高いと評価することができる。
なお、所定値としては、例えば脳神経疾病・障がい者ではない被験者のカウンタ値CNTA、CNTB、CNTCの平均値、又は当該平均値に基づいて設定される値等を用いることができる。また、所定値として、例えば脳神経疾病・障がい者ではない被験者のカウンタ値CNTA、CNTB、CNTCの最低値を用いてもよい。この場合、予め所定値を年齢及び性別ごとに設定しておき、被験者の年齢及び性別に応じた値を用いるようにしてもよい。
また、評価部224は、例えば以下の式(1)により評価値ANSを求めることができる。
ANS=(K1×CNTA)+(K2×CNTB)+(K3×CNTC)・・・(1)
上記の式(1)において、定数K1、K2、K3は、重みづけのための定数である。定数K1、K2、K3については、例えば、K1、K2<K3とすることができる。この場合、第1時間データ及び第2時間データの影響よりも第3時間データの影響に重みをつけた評価値ANSを求めることができる。
また、定数K1、K2、K3について、例えば、K1<K2<K3とすることができる。この場合、第1時間データの影響よりも第2時間データの影響に重みをつけ、更に第2時間データの影響よりも第3時間データの影響に重みをつけた評価値ANSを求めることができる。第3表示期間で特定対象物M0に視点を合わせることができる場合、それまでの第1表示期間及び第2表示期間においても特定対象物M0に追視していた可能性が高いと考えられる。したがって、第3時間データに重みをつけて評価値を求めることにより、効率的に評価データを得ることができる。なお、定数K1、K2、K3をそれぞれ等しい値(例えば、1)とし、重みづけをすることなく評価値ANSを求めてもよい。このように、第1時間データ、第2時間データ及び第3時間データに基づいて評価データを求めことにより、第1表示動作における追視能力、第2表示動作における追視能力、及び第3表示動作における追視能力を細分化して評価することができる。
次に、本実施形態に係る評価方法の一例について、図21を参照しながら説明する。図21は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態においては、表示制御部202は、映像の再生を開始させる(ステップS301)。表示画面101Sには、図13から図19に示す映像が順に表示される。
また、演算部220は、映像の再生時間を管理する管理タイマと、図20に示すタイムチャートにおける期間T1〜期間T7のうち現在再生されている映像がどの期間に属するかを検出する検出タイマとをリセットして、それぞれ計測を開始させる(ステップS302)。また、判定部218は、カウンタ値CNTA、CNTB、CNTCをそれぞれ0にリセットして計測を開始させる(ステップS303)。
注視点検出部214は、表示装置101に表示された映像を被験者に見せた状態で、規定のサンプリング周期(例えば50[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する(ステップS304)。
位置データが検出された場合(ステップS305のNo)、演算部220は、検出タイマの検出結果により、表示期間が期間T1又はT2であるか否かの判定を行う(ステップS306)。表示期間が期間T1又はT2であると判断された場合(ステップS306のYes)、領域設定部216は、期間T1に対応した対応領域A1、期間T2に対応した対応領域A2をそれぞれ設定する(ステップS307)。対応領域A1、A2が設定された後、判定部218は、被験者の注視点が対応領域A1、A2に存在するか否かを判定して判定データを出力する(ステップS308)。判定部218により注視点が対応領域A1、A2に存在すると判定された場合(ステップS308のYes)、演算部220は、カウンタ値CNTAを+1とする(ステップS309)。判定部218により注視点が対応領域A1、A2に存在しないと判定された場合(ステップS308のNo)、演算部220は、カウンタ値CNTAを変更しない。
表示期間が期間T1又はT2ではないと判断された場合(ステップS306のNo)、演算部220は、検出タイマの検出結果により、表示期間が期間T3〜T5であるか否かの判定を行う(ステップS310)。表示期間が期間T3〜T5であると判断された場合(ステップS310のYes)、領域設定部216は、期間T3に対応した対応領域A3、期間T4に対応した対応領域A4、期間T5に対応した対応領域A5をそれぞれ設定する(ステップS311)。対応領域A3〜A5が設定された後、判定部218は、被験者の注視点が対応領域A3〜A5に存在するか否かを判定して判定データを出力する(ステップS312)。判定部218により注視点が対応領域A3〜A5に存在すると判定された場合(ステップS312のYes)、演算部220は、カウンタ値CNTBを+1とする(ステップS313)。判定部218により注視点が対応領域A3〜A5に存在しないと判定された場合(ステップS312のNo)、演算部220は、カウンタ値CNTBを変更しない。
表示期間が期間T3〜T5ではないと判断された場合(ステップS310のNo)、演算部220は、検出タイマの検出結果により、表示期間が期間T6であるか否かの判定を行う(ステップS314)。表示期間が期間T6であると判断された場合(ステップS314のYes)、領域設定部216は、期間T6に対応した対応領域A6を設定する(ステップS315)。対応領域A6が設定された後、判定部218は、被験者の注視点が対応領域A6に存在するか否かを判定して判定データを出力する(ステップS316)。判定部218により注視点が対応領域A6に存在すると判定された場合(ステップS316のYes)、演算部220は、カウンタ値CNTCを+1とする(ステップS317)。判定部218により注視点が対応領域A6に存在しないと判定された場合(ステップS316のNo)、演算部220は、カウンタ値CNTCを変更しない。
表示期間が期間T6ではないと判断された場合(ステップS314のNo)、又は、上記のステップS308のNo、ステップS309、ステップS312のNo、ステップS313、ステップS316のNo、ステップS317のいずれかの処理が行われた後、演算部220は、管理タイマの検出結果に基づいて、映像の再生が完了する時刻に到達したか否かを判断する(ステップS318)。演算部220により映像の再生が完了する時刻に到達していないと判断された場合(ステップS318のNo)、上記のステップS304以降の処理を繰り返し行う。
演算部220により映像の再生が完了する時刻に到達したと判断された場合(ステップS318のYes)、表示制御部202は、映像の再生を停止させる(ステップS319)。映像の再生が停止された後、評価部224は、上記の処理結果から得られる時間データに基づいて、評価値ANSを算出し(ステップS320)、評価値ANSに基づいて評価データを求める。その後、出力制御部226は、評価部224で求められた評価データを出力する(ステップS321)。
以上のように、本実施形態に係る評価装置100は、被験者の眼球の画像データを取得する画像データ取得部206と、画像データに基づいて、被験者の注視点の位置データを検出する注視点検出部214と、外観が同一の複数の対象物Mについて1つの対象物Mを特定対象物M0として他の対象物Mとは異なる表示態様で区別して表示画面101Sに表示した後に特定対象物M0を他の対象物Mと同一の表示態様で表示画面101Sに表示する第1表示動作と、第1表示動作を行った後に複数の対象物Mが移動する状態を同一の表示態様で表示画面101Sに表示する第2表示動作と、第2表示動作を行った後に複数の対象物Mの移動が停止する状態を同一の表示態様で表示画面101Sに表示する第3表示動作と、含む表示動作を行う表示制御部202と、表示画面101Sにおいて、特定対象物M0の位置に対応した対応領域Aを設定する領域設定部216と、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が対応領域Aに存在するか否かをそれぞれ判定し、判定データを出力する判定部218と、判定データに基づいて、表示期間に注視点が対応領域Aに存在した存在時間を示す時間データを算出する演算部220と、時間データに基づいて、被験者の評価データを求める評価部224と、評価データを出力する出力制御部226とを備える。
この構成により、表示期間に被験者の注視点が対応領域Aに存在する時間データが求められ、時間データに基づいて被験者の評価データを求められる。このため、評価装置100は、表示期間における被験者の視線の動きにより、被験者の追視能力を評価することができる。これにより、評価装置100は、被験者の評価を高精度に行うことが可能となる。
また、本実施形態に係る評価装置100において、演算部220は、第1表示動作が行われる第1表示期間(期間T1、T2)における存在時間を示す第1時間データと、第2表示動作が行われる第2表示期間(期間T3〜T5)における存在時間を示す第2時間データと、第3表示動作が行われる第3表示期間(期間T6)における存在時間を示す第3時間データと、を算出し、評価部224は、第1時間データ、第2時間データ及び第3時間データに基づいて評価データを求める。これにより、第1表示動作における追視能力、第2表示動作における追視能力、及び第3表示動作における追視能力を細分化して評価することができる。
また、本実施形態に係る評価装置100において、評価部224は、第1時間データ及び第2時間データよりも第3時間データに重みをつけて評価データを求める。第3表示期間で特定対象物M0に視点を合わせることができる場合、それまでの第1表示期間及び第2表示期間においても特定対象物M0に追視していた可能性が高いと考えられる。したがって、第3時間データに重みをつけて評価値を求めることにより、効率的に評価データを得ることができる。
また、本実施形態に係る評価装置100において、領域設定部216は、第2表示動作が行われる第2表示期間において、特定対象物M0の軌跡に基づいて対応領域Aを設定する。これにより、特定対象物M0の移動に応じて対応領域Aを精度よく設定することができるため、精度の高い時間データを得ることができる。
また、本実施形態に係る評価装置100において、表示制御部202は、第3表示動作を行った後、特定対象物M0を他の対象物Mとは異なる表示態様で区別して表示画面に表示する第4表示動作を行う。これにより、第3表示動作の後、特定対象物M0がどの位置に存在するかを被験者に知らせることができる。被験者は、特定対象物M0の位置を知ることにより、自身の追視が正しく行われたか否かを確認することができるため、追視のトレーニングを容易に行うことができる。
また、本実施形態に係る評価装置100において、表示制御部202は、第1表示動作においては特定対象物M0が所定の被遮蔽物Cを遮蔽する動作を表示する。これにより、被験者に対して特定対象物M0を直観的に認識させることができる。また、第2表示動作及び第3表示動作においては被遮蔽物を表示することなく複数の対象物Mを表示するため、第2表示動作及び第3表示動作において、複数の対象物Mが移動する表示を容易に行うことができる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、第1表示動作において、特定対象物M0を他の対象物Mとは異なる表示態様で区別して表示画面101Sに表示する例として、特定対象物M0によりコインCを遮蔽する表示を行う場合を説明したが、これに限定されない。例えば、特定対象物M0を点滅させたり、特定対象物M0の色を他の対象物Mに対して変化させたりしてもよい。また、第1表示動作において、例えば対象物Mとしてコインを表示し、特定対象物M0となるコインについてはコインの表裏の一方の面に印を付した後、すべての対象物Mについて当該印を付した面とは反対側の面を表示させるようにしてもよい。
また、上記実施形態では、第2表示動作において、複数の対象物Mが重ならないように移動する場合を例に挙げて説明したが、これに限定されない。図22は、本実施形態に係る表示制御部が表示装置に表示させる映像の変形例を示す図である。図22では、第2表示動作が行われる場合の表示画面101Sの一例を示している。
図22に示すように、表示制御部202は、第2表示動作を行う場合、対象物M1〜M3を互いに重なるように移動させてもよい。この場合、表示制御部202は、例えば表示画面101Sの下方に配置される対象物Mを手前側に配置し、表示画面101Sの上方に配置される対象物Mを奥側に配置させてもよい。これにより、被験者に対象物M1〜M3の空間的な位置関係を把握しやすくすることができる。
脳神経疾病・障がいの症状は、追視能力に加えて空間認知能力にも影響することが知られている。被験者が脳神経疾病・障がい者ではない場合、複数の対象物M1〜M3を互いに重なるように移動させた場合に、特定対象物M0を追視することができる。一方、被験者が脳神経疾病・障がい者である場合では、複数の対象物M1〜M3を互いに重なるように移動させた場合に、対象物M1〜M3の空間的な位置関係を把握できず、特定対象物M0を追視できないことがある。このため、複数の対象物M1〜M3を互いに重なるように移動させた場合に、被験者が特定対象物M0を追視できるかを検出することにより、被験者の空間認知能力を評価することが可能である。
また、上記実施形態では、領域設定部216は、第2表示動作が行われる第2表示期間において、期間T3〜T5毎に特定対象物M0の軌跡に基づいて対応領域A3〜A5を設定する場合を例に挙げて説明したが、これに限定されない。領域設定部216は、期間T3〜T5のそれぞれにおいて、対応領域Aを切り替えて設定してもよい。この場合、領域設定部216は、各期間内の所定時間毎に特定対象物M0が移動する場合の軌跡を求め、当該軌跡を含む範囲に対応領域Aを設定することができる。また、所定時間を短く設定することにより、特定対象物M0の移動に追従して移動する対応領域Aを設定することができる。
また、上記実施形態では、評価部224は、評価値ANSを求める場合、カウンタ値CNTA、CNTB、CNTCにそれぞれ定数を乗じた値を加算する例を説明したが、これに限定されない。例えば、評価部224は、カウンタ値CNTA、CNTB、CNTCの各値を個別に判断することで、評価値を求めてもよい。
また、上記実施形態では、評価装置100を、脳神経疾病・障がい者である可能性を評価する評価装置として用いる場合を例に挙げて説明したが、これに限定されない。例えば、評価装置100は、脳神経疾病・障がい者ではない被験者の記憶力を評価する評価装置として用いてもよい。
A,A1〜A6…対応領域、C…コイン、M0…特定対象物、M,M1〜M3…対象物、P…プロット点、T1〜T7…期間、ANS…評価値、CNTA,CNTB,CNTC…カウンタ値、20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視線検出装置,評価装置、101…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110,110H…角膜曲率中心、111…眼球、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173…直線、126…距離、130…目標位置、177,178…視線、202…表示制御部、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…注視点検出部、216…領域設定部、218…判定部、220…演算部、222…記憶部、224…評価部、226…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部

Claims (5)

  1. 被験者の眼球の画像データを取得する画像データ取得部と、
    前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、
    外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う表示制御部と、
    前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する領域設定部と、
    前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する判定部と、
    前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する演算部と、
    前記時間データに基づいて、前記被験者の評価データを求める評価部と、
    前記評価データを出力する出力制御部と
    を備える評価装置。
  2. 前記演算部は、前記第1表示動作が行われる第1表示期間における前記存在時間を示す第1時間データと、前記第2表示動作が行われる第2表示期間における前記存在時間を示す第2時間データと、前記第3表示動作が行われる第3表示期間における前記存在時間を示す第3時間データと、を算出し、
    前記評価部は、前記第1時間データ、前記第2時間データ及び前記第3時間データに基づいて前記評価データを求める
    請求項1に記載の評価装置。
  3. 前記領域設定部は、前記第2表示動作が行われる第2表示期間において、前記特定対象物の軌跡に基づいて前記対応領域を設定する
    請求項1又は請求項2に記載の評価装置。
  4. 被験者の眼球の画像データを取得することと、
    前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、
    外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行うことと、
    前記表示画面において、前記特定対象物の位置に対応した対応領域を設定することと、
    前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力することと、
    前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出することと、
    前記時間データに基づいて、前記被験者の評価データを求めることと、
    前記評価データを出力することと
    を含む評価方法。
  5. 被験者の眼球の画像データを取得する処理と、
    前記画像データに基づいて、前記被験者の注視点の位置データを検出する処理と、
    外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う処理と、
    前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する処理と、
    前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する処理と、
    前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する処理と、
    前記時間データに基づいて、前記被験者の評価データを求める処理と、
    前記評価データを出力する処理と
    をコンピュータに実行させる評価プログラム。
JP2017146000A 2017-07-28 2017-07-28 評価装置、評価方法、及び評価プログラム Active JP6883242B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017146000A JP6883242B2 (ja) 2017-07-28 2017-07-28 評価装置、評価方法、及び評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146000A JP6883242B2 (ja) 2017-07-28 2017-07-28 評価装置、評価方法、及び評価プログラム

Publications (2)

Publication Number Publication Date
JP2019024776A true JP2019024776A (ja) 2019-02-21
JP6883242B2 JP6883242B2 (ja) 2021-06-09

Family

ID=65476991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146000A Active JP6883242B2 (ja) 2017-07-28 2017-07-28 評価装置、評価方法、及び評価プログラム

Country Status (1)

Country Link
JP (1) JP6883242B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151359A (ja) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003038443A (ja) * 2001-07-31 2003-02-12 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置
WO2008041346A1 (fr) * 2006-09-29 2008-04-10 Ssd Company Limited Dispositif d'entraînement cérébral local
JP2013169375A (ja) * 2012-02-22 2013-09-02 Jvc Kenwood Corp 脳機能疾患診断支援装置および脳機能疾患診断支援方法
JP2018192195A (ja) * 2017-05-22 2018-12-06 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003038443A (ja) * 2001-07-31 2003-02-12 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置
WO2008041346A1 (fr) * 2006-09-29 2008-04-10 Ssd Company Limited Dispositif d'entraînement cérébral local
JP2013169375A (ja) * 2012-02-22 2013-09-02 Jvc Kenwood Corp 脳機能疾患診断支援装置および脳機能疾患診断支援方法
JP2018192195A (ja) * 2017-05-22 2018-12-06 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151359A (ja) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
JP7092082B2 (ja) 2019-03-22 2022-06-28 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Also Published As

Publication number Publication date
JP6883242B2 (ja) 2021-06-09

Similar Documents

Publication Publication Date Title
JP6737234B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6848526B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6736920B2 (ja) 診断支援装置及び診断支援方法
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
JP6971686B2 (ja) 視線検出装置及び視線検出方法
JP2019171022A (ja) 評価装置、評価方法、及び評価プログラム
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
WO2020137028A1 (ja) 表示装置、表示方法、およびプログラム
JP2019046438A (ja) 評価装置、及び評価方法
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP6883242B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020194849A1 (ja) 評価装置、評価方法、及び評価プログラム
JP2020025849A (ja) 評価装置、評価方法、及び評価プログラム
JP2021051564A (ja) 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
WO2020026574A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
WO2020183792A1 (ja) 表示装置、表示方法、及び表示プログラム
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7074221B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020044691A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2020031471A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2019188152A1 (ja) 評価装置、評価方法、及び評価プログラム
JP6776970B2 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP7247690B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2021010122A1 (ja) 評価装置、評価方法、及び評価プログラム
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6883242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150