JP6883242B2 - Evaluation device, evaluation method, and evaluation program - Google Patents
Evaluation device, evaluation method, and evaluation program Download PDFInfo
- Publication number
- JP6883242B2 JP6883242B2 JP2017146000A JP2017146000A JP6883242B2 JP 6883242 B2 JP6883242 B2 JP 6883242B2 JP 2017146000 A JP2017146000 A JP 2017146000A JP 2017146000 A JP2017146000 A JP 2017146000A JP 6883242 B2 JP6883242 B2 JP 6883242B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- data
- display operation
- evaluation
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
本発明は、評価装置、評価方法、及び評価プログラムに関する。 The present invention relates to an evaluation device, an evaluation method, and an evaluation program.
視線検出技術の一つとして角膜反射法が知られている。角膜反射法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像に対する瞳孔の位置を検出して、被験者の視線を検出する。 The corneal reflex method is known as one of the line-of-sight detection techniques. In the corneal reflex method, a subject is irradiated with infrared light emitted from a light source, the subject's eyes irradiated with infrared light are photographed with a camera, and the pupil of the corneal reflex image, which is a reflected image of the light source on the corneal surface. The position is detected to detect the subject's line of sight.
このような被験者の視線を検出した結果を用いて、各種評価が行われている。例えば、特許文献1には、眼球運動を検出することにより、脳機能を検査する技術が記載されている。 Various evaluations are performed using the results of detecting the line of sight of such a subject. For example, Patent Document 1 describes a technique for examining brain function by detecting eye movements.
近年、認知症等の脳神経疾病・障がい者が増加傾向にあるといわれている。また、このような脳神経疾病・障がいを早期に発見し、症状の重さを定量的に評価することが求められている。例えば、脳神経疾病・障がいの症状は、追視能力に影響することが知られている。このため、被験者の追視能力を計測することにより、被験者を高精度に評価することが求められている。 In recent years, it is said that the number of people with cranial nerve diseases such as dementia and persons with disabilities is increasing. In addition, it is required to detect such cranial nerve diseases / disorders at an early stage and quantitatively evaluate the severity of symptoms. For example, it is known that the symptoms of cranial nerve disease / disability affect the ability to follow. Therefore, it is required to evaluate the subject with high accuracy by measuring the tracking ability of the subject.
本発明は、上記に鑑みてなされたものであり、被験者の評価を高精度に行うことが可能な評価装置、評価方法、及び評価プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an evaluation device, an evaluation method, and an evaluation program capable of evaluating a subject with high accuracy.
本発明に係る評価装置は、被験者の眼球の画像データを取得する画像データ取得部と、前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う表示制御部と、前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する領域設定部と、前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する判定部と、前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する演算部と、前記時間データに基づいて、前記被験者の評価データを求める評価部と、前記評価データを出力する出力制御部とを備える。 The evaluation device according to the present invention has the same appearance as the image data acquisition unit that acquires the image data of the subject's eyeball and the gaze point detection unit that detects the position data of the gaze point of the subject based on the image data. After displaying one of the plurality of objects as a specific object in a display mode different from that of the other objects on the display screen, the specific object is displayed in the same display mode as the other objects. A first display operation for displaying on the display screen, a second display operation for displaying a state in which a plurality of the objects move after performing the first display operation on the display screen in the same display mode, and the above. A third display operation that displays a state in which the movement of a plurality of the objects is stopped on the display screen in the same display mode after the second display operation is performed, a display control unit that performs a display operation including the second display operation, and the display screen. In the area setting unit that sets the corresponding area corresponding to the position of the specific object, and the gaze point exists in the corresponding area during the display period in which the display operation is performed based on the position data of the gaze point. A determination unit that determines whether or not the gaze point is present and outputs the determination data, and a calculation unit that calculates time data indicating the existence time of the gazing point in the corresponding area during the display period based on the determination data. An evaluation unit that obtains the evaluation data of the subject based on the time data and an output control unit that outputs the evaluation data are provided.
本発明に係る評価方法は、被験者の眼球の画像データを取得することと、前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行うことと、前記表示画面において、前記特定対象物の位置に対応した対応領域を設定することと、前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力することと、前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出することと、前記時間データに基づいて、前記被験者の評価データを求めることと、前記評価データを出力することとを含む。 The evaluation method according to the present invention includes acquiring image data of the eyeball of a subject, detecting position data of the gazing point of the subject based on the image data, and for a plurality of objects having the same appearance. After displaying one said object as a specific object in a display mode different from that of the other objects on the display screen, the specific object is displayed on the display screen in the same display mode as the other objects. The first display operation is performed, the second display operation for displaying the state in which a plurality of the objects are moving after the first display operation is performed on the display screen in the same display mode, and the second display operation are performed. After that, a third display operation of displaying a state in which the movement of the plurality of objects is stopped on the display screen in the same display mode, a display operation including the display operation, and a position of the specific object on the display screen are performed. Based on the position data of the gazing point, it is determined whether or not the gazing point exists in the corresponding area during the display period in which the display operation is performed, and the determination data is determined. Is output, time data indicating the existence time of the gazing point in the corresponding region during the display period is calculated based on the determination data, and evaluation of the subject is performed based on the time data. It includes obtaining data and outputting the evaluation data.
本発明に係る評価プログラムは、被験者の眼球の画像データを取得する処理と、前記画像データに基づいて、前記被験者の注視点の位置データを検出する処理と、外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う処理と、前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する処理と、前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する処理と、前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する処理と、前記時間データに基づいて、前記被験者の評価データを求める処理と、前記評価データを出力する処理とをコンピュータに実行させる。 The evaluation program according to the present invention includes a process of acquiring image data of the eyeball of a subject, a process of detecting position data of the gazing point of the subject based on the image data, and a plurality of objects having the same appearance. After displaying one said object as a specific object in a display mode different from that of the other objects on the display screen, the specific object is displayed on the display screen in the same display mode as the other objects. The first display operation is performed, the second display operation for displaying the state in which a plurality of the objects are moving after the first display operation is performed on the display screen in the same display mode, and the second display operation are performed. A third display operation for displaying a state in which the movement of the plurality of objects is stopped on the display screen in the same display mode, a process for performing a display operation including the operation, and a position of the specific object on the display screen. Based on the process of setting the corresponding area corresponding to the above and the position data of the gaze point, it is determined whether or not the gaze point exists in the corresponding area during the display period in which the display operation is performed, and the determination data is determined. The process of outputting the data, the process of calculating the time data indicating the existence time of the gazing point in the corresponding region during the display period based on the determination data, and the evaluation of the subject based on the time data. The computer is made to execute the process of obtaining the data and the process of outputting the evaluation data.
本発明によれば、被験者の視線検出結果を用いた評価を高精度に行うことが可能となる。 According to the present invention, it is possible to perform an evaluation using the line-of-sight detection result of a subject with high accuracy.
以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings, but the present invention is not limited thereto. The components of the embodiments described below can be combined as appropriate. In addition, some components may not be used.
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。 In the following description, a three-dimensional global coordinate system is set and the positional relationship of each part is described. The direction parallel to the first axis of the predetermined surface is the X-axis direction, the direction parallel to the second axis of the predetermined surface orthogonal to the first axis is the Y-axis direction, and orthogonal to each of the first axis and the second axis. The direction parallel to the third axis is the Z-axis direction. The predetermined plane includes an XY plane.
<第1実施形態>
第1実施形態について説明する。図1は、本実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。本実施形態において、視線検出装置100は、被験者の関心対象を評価する評価装置として用いられる。
<First Embodiment>
The first embodiment will be described. FIG. 1 is a perspective view schematically showing an example of the line-of-
図1に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。
As shown in FIG. 1, the line-of-
表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。表示装置101は、表示部として機能する。
The
本実施形態において、表示装置101の表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
In the present embodiment, the
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
The
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
The
図2は、本実施形態に係る表示装置101とステレオカメラ装置102と照明装置103と被験者の眼球111との位置関係を模式的に示す図である。
FIG. 2 is a diagram schematically showing the positional relationship between the
照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
The illuminating
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
A frame synchronization signal is output from at least one of the
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
When the
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
By appropriately setting the relative positions of the
図3は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図3に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。
FIG. 3 is a diagram showing an example of the hardware configuration of the line-of-
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。
The
演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
The
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
The
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。音声出力装置70は、スピーカを含み、例えば被験者に注意を促すための音声を出力する。
The
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
In the present embodiment, the
図4は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図4に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
FIG. 4 is a functional block diagram showing an example of the line-of-
コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部202と、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、領域設定部216と、判定部218と、演算部220と、記憶部222と、評価部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
The
表示制御部202は、外観が同一の複数の対象物について1つの対象物を特定対象物として他の対象物とは異なる表示態様で区別して表示画面101Sに表示した後に特定対象物を他の対象物と同一の表示態様で表示画面101Sに表示する第1表示動作と、第1表示動作を行った後に複数の対象物が移動する状態を同一の表示態様で表示画面101Sに表示する第2表示動作と、第2表示動作を行った後に複数の対象物の移動が停止する状態を同一の表示態様で表示画面101Sに表示する第3表示動作と、含む表示動作を行う。表示動作により複数の対象物が表示されている期間を表示期間とする。表示制御部202は、例えば被験者に見せるための映像を表示装置101の表示画面101Sに表示させる。この映像には、複数の対象物を表示させる場面と、複数の対象物を非表示とする場面とを含む。したがって、表示制御部202は、映像を再生させることにより、表示画面101Sに第1表示動作、第2表示動作及び第3表示動作を行うようになっている。また、この映像は、被験者に対して指示を行うための文字情報等を表示する場面を含む。
The
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
The light
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
The image
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
The input data acquisition unit 208 acquires the input data generated by operating the
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
The
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
The curvature
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
The gazing
領域設定部216は、表示装置101の表示画面101Sにおいて、特定対象物の位置に対応した対応領域を設定する。領域設定部216は、例えば第1表示動作が行われる第1表示期間において、他の対象物とは異なる表示態様で区別して表示画面に表示される特定対象物の表示内容に基づいて対応領域を設定する。例えば、第1表示動作において特定対象物とは異なる表示物が表示される場合、領域設定部216は、当該表示物を含むように対応領域を設定することができる。領域設定部216は、例えば第2表示動作が行われる第2表示期間において、移動する特定対象物の軌跡に基づいて対応領域を設定する。領域設定部216は、例えば第3表示動作が行われる第3表示期間において、停止した状態の特定対象物を含む範囲に対応領域を設定することができる。
The
判定部218は、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が複数の対応領域に存在するか否かをそれぞれ判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が対応領域に存在するか否かをそれぞれ判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
Based on the position data of the gazing point, the
演算部220は、判定部218の判定データに基づいて、表示期間に注視点が対応領域に存在した存在時間を示す時間データを算出する。演算部220は、第1表示動作が行われる第1表示期間における存在時間を示す第1時間データと、第2表示動作が行われる第2表示期間における存在時間を示す第2時間データと、第3表示動作が行われる第3表示期間における存在時間を示す第3時間データと、を時間データとして算出する。
Based on the determination data of the
なお、演算部220は、映像の再生時間を管理する管理タイマと、表示画面101Sに映像が表示されてからの経過時間を検出する検出タイマを有する。演算部220は、検出タイマの検出結果に基づいて、表示画面101Sに表示される映像がタイムチャートにおける複数の期間(図20の期間T1〜T7参照)のうちいずれの期間の映像かを検出可能である。また、演算部220は、対応領域について注視点が存在すると判定された判定回数をカウントする。演算部220は、対応領域について判定回数をカウントするカウンタを有する。
The
評価部224は、少なくとも時間データに基づいて、被験者の評価データを求める。評価データは、表示動作において表示画面101Sに表示される複数の対象物のうち特定対象物に対して被験者がどの程度追視しているかを示すデータである。
The
記憶部222は、上記の判定データ、時間データ、評価データを記憶する。また、記憶部222は、被験者の眼球の画像データを取得する処理と、画像データに基づいて、被験者の注視点の位置データを検出する処理と、外観が同一の複数の対象物について1つの対象物を特定対象物として他の対象物とは異なる表示態様で区別して表示画面に表示した後に特定対象物を他の対象物と同一の表示態様で表示画面に表示する第1表示動作と、第1表示動作を行った後に複数の対象物が移動する状態を同一の表示態様で表示画面に表示する第2表示動作と、第2表示動作を行った後に複数の対象物の移動が停止する状態を同一の表示態様で表示画面に表示する第3表示動作と、含む表示動作を行う処理と、表示画面において、特定対象物の位置に対応した対応領域を設定する処理と、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が対応領域に存在するか否かをそれぞれ判定し、判定データを出力する処理と、判定データに基づいて、表示期間に注視点が対応領域に存在した存在時間を示す時間データを算出する処理と、時間データに基づいて、被験者の評価データを求める処理と、評価データを出力する処理とをコンピュータに実行させる評価プログラムを記憶する。
The
出力制御部226は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部226は、演算部220で算出された時間データを表示装置101又は出力装置50に表示させる。また、出力制御部226は、被験者の左右それぞれの眼球111の注視点の位置データを表示装置101又は出力装置50に表示させる。また、出力制御部226は、評価部224から出力された評価データを表示装置101又は出力装置50に表示させる。
The
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
Next, an outline of the processing of the curvature
図5及び図6は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図5は、1つの光源103Cで眼球111が照明される例を示す。図6は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
5 and 6 are schematic views for explaining a method of calculating the position data of the
まず、図5に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図5において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。
First, an example shown in FIG. 5 will be described. The
角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。
The corneal
角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
The position data of the corneal
次に、図6に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。
Next, an example shown in FIG. 6 will be described. In the present embodiment, the
角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。
The corneal
角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。
The position data of the corneal
曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。
The curvature
角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
The
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
In this way, even when there are two light sources, the
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
The
[視線検出方法]
次に、本実施形態に係る視線検出方法の一例について説明する。図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。本実施形態においては、角膜曲率中心110の位置データの算出処理及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS100)と、注視点検出処理(ステップS200)が実施される。
[Gaze detection method]
Next, an example of the line-of-sight detection method according to the present embodiment will be described. FIG. 7 is a flowchart showing an example of the line-of-sight detection method according to the present embodiment. In the present embodiment, the calibration process (step S100) including the calculation process of the position data of the
(キャリブレーション処理)
キャリブレーション処理(ステップS100)について説明する。図8は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理は、角膜曲率中心110の位置データを算出すること、及び瞳孔中心112Cと角膜曲率中心110との距離126を算出することを含む。
(Calibration process)
The calibration process (step S100) will be described. FIG. 8 is a schematic diagram for explaining an example of the calibration process according to the present embodiment. The calibration process includes calculating the position data of the
被験者に注視させるための目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。
A
表示制御部202は、設定された目標位置130に目標画像を表示させる。これにより、被験者は、目標位置130を注視し易くなる。
The
直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
The
図9は、本実施形態に係るキャリブレーション処理(ステップS100)の一例を示すフローチャートである。出力制御部226は、表示装置101の表示画面101Sに目標画像を表示させる(ステップS101)。被験者は、目標画像を注視することにより、目標位置130を注視することができる。
FIG. 9 is a flowchart showing an example of the calibration process (step S100) according to the present embodiment. The
次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち一方の光源から検出光を射出させる(ステップS102)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS103)。
Next, the light
次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち他方の光源から検出光を射出させる(ステップS104)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS105)。
Next, the light
瞳孔112は、暗い部分としてステレオカメラ装置102に検出され、角膜反射像113は、明るい部分としてステレオカメラ装置102に検出される。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。位置検出部210は、取得される画像の輝度に基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを検出することができる。また、位置検出部210は、瞳孔112の画像データに基づいて、瞳孔中心112Cの位置データを算出する。また、位置検出部210は、角膜反射像113の画像データに基づいて、角膜反射中心113Cの位置データを算出する(ステップS106)。
The
ステレオカメラ装置102によって検出された位置データは、3次元のローカル座標系で規定される位置データである。位置検出部210は、記憶部222に記憶されている変換パラメータを使用して、ステレオカメラ装置102で検出された瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを座標変換して、三次元グローバル座標系で規定される瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを算出する(ステップS107)。
The position data detected by the
曲率中心算出部212は、グローバル座標系で規定される角膜反射中心113Cと仮想光源103Vとを結ぶ直線131を算出する(ステップS108)。
The curvature
次に、曲率中心算出部212は、表示装置101の表示画面101Sに規定される目標位置130と瞳孔中心112Cとを結ぶ直線132を算出する(ステップS109)。曲率中心算出部212は、ステップS108で算出した直線131とステップS109で算出した直線132との交点を求め、この交点を角膜曲率中心110とする(ステップS110)。
Next, the curvature
曲率中心算出部212は、瞳孔中心112Cと角膜曲率中心110との距離126を算出して、記憶部222に記憶する(ステップS111)。記憶された距離は、ステップS200の注視点検出処理において、角膜曲率中心110を算出するために使用される。
The curvature
(注視点検出処理)
次に、注視点検出処理(ステップS200)について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。
(Gaze point detection process)
Next, the gazing point detection process (step S200) will be described. The gazing point detection process is performed after the calibration process. The gaze
図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。注視点検出処理は、キャリブレーション処理(ステップS100)で求めた瞳孔中心112Cと角膜曲率中心110との距離126を用いて、角膜曲率中心110の位置を補正すること、及び補正された角膜曲率中心110の位置データを使って注視点を算出することを含む。
FIG. 10 is a schematic diagram for explaining an example of the gaze point detection process according to the present embodiment. In the gazing point detection process, the position of the
図10において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。
In FIG. 10, the
瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。
The
直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。
The
距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。
The
角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。
The
角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
The
図11は、本実施形態に係る注視点検出処理(ステップS200)の一例を示すフローチャートである。なお、図11に示すステップS201からステップS207までの処理は、図9に示したステップS102からステップS108までの処理と同様であるため説明を省略する。 FIG. 11 is a flowchart showing an example of the gaze point detection process (step S200) according to the present embodiment. Since the processing from step S201 to step S207 shown in FIG. 11 is the same as the processing from step S102 to step S108 shown in FIG. 9, the description thereof will be omitted.
曲率中心算出部212は、ステップS207で算出した直線173上であって、瞳孔中心112Cからの距離がキャリブレーション処理によって求めた距離126と等しい位置を角膜曲率中心110Hとして算出する(ステップS208)。
The curvature
注視点検出部214は、瞳孔中心112Cと角膜曲率中心110Hとを結ぶ視線ベクトルを算出する(ステップS209)。視線ベクトルは、被験者が見ている視線方向を示す。注視点検出部214は、視線ベクトルと表示装置101の表示画面101Sとの交点の位置データを算出する(ステップS210)。視線ベクトルと表示装置101の表示画面101Sとの交点の位置データが、三次元グローバル座標系で規定される表示画面101Sにおける被験者の注視点の位置データである。
The gazing
注視点検出部214は、三次元グローバル座標系で規定される注視点の位置データを、2次元座標系で規定される表示装置101の表示画面101Sにおける位置データに変換する(ステップS211)。これにより、被験者が見つめる表示装置101の表示画面101S上の注視点の位置データが算出される。
The gazing
次に、本実施形態に係る評価方法について説明する。本実施形態において、視線検出装置100は、例えば被験者の追視能力を評価する評価装置に使用される。以下の説明においては、視線検出装置100を適宜、評価装置100、と称する場合がある。
Next, the evaluation method according to this embodiment will be described. In the present embodiment, the line-of-
図12は、表示制御部202が表示装置101に表示させる映像の一例を示す図である。図12に示すように、表示制御部202は、表示装置101の表示画面101Sに、複数の対象物Mを表示させる。本実施形態では、複数の対象物Mとして、例えば3つの対象物Mを表示する。以下、3つの対象物Mを表記する際、対象物M1、M2、M3と表記する場合がある。なお、表示画面101Sに表示する対象物Mの数は、3つに限定されず、2つ又は4つ以上であってもよい。表示制御部202は、対象物M1〜M3を、例えば表示画面101Sに互いに離れた状態で表示する。
FIG. 12 is a diagram showing an example of an image displayed on the
対象物M1〜M3は、例えば開口部が下向きのカップであるが、これに限定されず、他の物品であってもよい。対象物M1〜M3は、外観が同一である。つまり、対象物M1〜M3は、形状、寸法、色彩、姿勢等が同一の状態で表示される。したがって、対象物M1〜M3は、被験者から見た場合に区別がつかない状態で表示される。 The objects M1 to M3 are, for example, cups having an opening facing downward, but are not limited to this, and may be other articles. The objects M1 to M3 have the same appearance. That is, the objects M1 to M3 are displayed in the same state in shape, size, color, posture, and the like. Therefore, the objects M1 to M3 are displayed in an indistinguishable state when viewed from the subject.
また、表示制御部202は、例えば表示画面101Sの上辺に沿った領域に被験者への指示を表示させてもよい。被験者への指示は、例えば特定対象物M0を他の対象物とは異なる表示態様で区別して表示する際の当該表示を見るように指示する場合や、対象物M1〜M3が移動する際に被験者に特定対象物M0を追視するように指示する場合等に、それぞれ指示の内容を文章等で表示させる。
Further, the
また、図12では、出力制御部226により表示画面101Sにおいて、例えば計測後に結果表示される注視点の一例を示している。出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示装置101に表示させる。注視点の位置データの検出は、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期で(例えば50[msec]毎に)実施される。第1カメラ102A及び第2カメラ102Bは、同期して撮像する。したがって、表示画面101Sのうちプロット点Pが密集している領域ほど、被験者が注視していることを示す。また、プロット点Pの数が多い領域ほど、被験者がその領域を注視している時間が長いことを示す。
Further, FIG. 12 shows an example of a gazing point where the
脳神経疾病・障がいの症状は、追視能力に影響することが知られている。被験者が脳神経疾病・障がい者ではない場合、複数の対象物M1〜M3が表示画面101Sに移動させた状態で示され、そのうち1つの対象物Mについて注視点を追従させる(追視させる)ように指示された場合に、当該1つの対象物Mについて追視することができる。一方、被験者が脳神経疾病・障がい者である場合では、複数の対象物M1〜M3を表示画面101Sに移動させた状態で示され、そのうち1つの対象物Mについて追視するように指示された場合、当該1つの対象物Mを追視できないことがある。
Symptoms of cranial nerve diseases and disabilities are known to affect tracking ability. When the subject is not a person with a cranial nerve disease or a disability, a plurality of objects M1 to M3 are shown in a state of being moved to the
このため、例えば以下の手順を行うことにより、被験者を評価することが可能である。まず、表示画面101Sに複数の対象物Mを表示させた状態で被験者に1つの対象物Mを特定対象物として記憶させる。その後、表示画面101Sに複数の対象物Mを移動させた状態で表示し、特定対象物を追視するように被験者に指示する。つまり、特定対象物の移動に応じて視線を移動させ、特定対象物に視線を合わせ続けるように被験者に指示する。この場合に、被験者が特定対象物を追視できるかを検出することにより、被験者を評価することが可能である。
Therefore, it is possible to evaluate the subject by performing the following procedure, for example. First, the subject is made to store one object M as a specific object in a state where a plurality of objects M are displayed on the
図13から図19は、本実施形態に係る表示制御部202が表示画面101Sに表示させる映像の一例を示す図である。図20は、各映像が表示される期間を示すタイムチャートである。表示制御部202により映像が再生される場合、まず、第1表示動作が行われる。第1表示動作では、対象物M1〜M3のうち1つの対象物Mが特定対象物M0として他の対象物Mとは異なる表示態様で区別して表示画面101Sに表示された後に、特定対象物M0が他の対象物Mと同一の表示態様で表示画面101Sに表示される。本実施形態では、対象物M1〜M3のうち、対象物M2が特定対象物M0として設定される場合を例に挙げて説明する。なお、対象物M1、M3のいずれかが特定対象物M0として設定される場合についても、同様の説明が可能である。
13 to 19 are diagrams showing an example of an image displayed on the
図13に示すように、第1表示動作では、まず対象物M1〜M3が表示され、特定対象物M0が他の対象物M1、M3とは異なる表示態様で区別して表示画面101Sに表示される。図13では、特定対象物M0が被遮蔽物であるコインCを遮蔽する動作を行い、他の対象物M1、M3については静止した状態が所定期間(図20の期間T1)表示される。この表示により、被験者に対して直感的に特定対象物M0を認識させることができる。期間T1では、特定対象物M0を被験者に記憶させるため、例えば「特定対象物M0を覚えて下さい」等の指示が表示画面101Sに表示されてもよい。期間T1において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。以下、期間T1において設定される対応領域Aを対応領域A1と表記する場合がある。対応領域A1は、例えば特定対象物M0及びコインCを含む範囲に設定される。
As shown in FIG. 13, in the first display operation, the objects M1 to M3 are first displayed, and the specific object M0 is displayed on the
第1表示動作では、期間T1が経過した後、図14に示すように、特定対象物M0が他の対象物M1、M3と同一の表示態様で表示画面101Sに所定期間(図20の期間T2)表示される。例えば、特定対象物M0がコインCを遮蔽した後、他の対象物M1、M3と区別がつかない状態で表示画面101Sに表示される。期間T2では、特定対象物M0に視線を合わせるように、例えば「特定対象物M0を注視して下さい」等の指示が表示画面101Sに表示されてもよい。期間T2において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。以下、期間T2において設定される対応領域Aを対応領域A2と表記する場合がある。なお、期間T2ではコインCが表示されないため、対応領域A1と対応領域A2とで範囲が異なっている。第1表示期間において、出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示画面101Sに表示させてもよい。このようにして、第1表示動作が完了する。
In the first display operation, after the period T1 elapses, as shown in FIG. 14, the specific object M0 is displayed on the
第1表示動作が完了した後、続けて第2表示動作が行われる。第2表示動作では、図15〜図17に示すように、対象物M1〜M3が移動する状態が同一の表示態様で表示画面101Sに所定期間(図20の期間T3〜T5)表示される。この場合、特定対象物M0は、他の対象物M1、M3と区別がつかない状態で表示画面101Sに表示される。なお、第2表示動作が行われる第2表示期間(期間T3〜T5)では、移動する特定対象物M0に視線を合わせ続けるように、例えば「特定対象物M0を追視して下さい」等の指示が表示画面101Sに表示されてもよい。第2表示期間の各期間T3、T4、T5は、互いに等しい期間として設定することができる。なお、対象物M1〜M3は、必ずしも全てが移動しなくてもよい。例えば、特定対象物M0が設定されている対象物M2が移動せず、対象物M1及び対象物M3のみが移動してもよい。以下では対象物M1〜M3の全てが移動するものとして説明する。
After the first display operation is completed, the second display operation is subsequently performed. In the second display operation, as shown in FIGS. 15 to 17, the moving states of the objects M1 to M3 are displayed on the
第2表示期間において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。領域設定部216は、例えば移動する特定対象物M0の軌跡に基づいて対応領域Aを設定することができる。この場合、領域設定部216は、期間毎に対応領域Aを設定してもよい。
In the second display period, the
例えば、領域設定部216は、図15に示すように、期間T3における特定対象物M0の軌跡を含む範囲に対応領域Aを設定する。この場合、対応領域Aは、特定対象物M0の軌跡に対応して、表示画面101Sの図中の左右方向の中央部近傍に上下方向に延びた状態で形成される。以下、期間T3において設定される対応領域Aを対応領域A3と表記する場合がある。
For example, as shown in FIG. 15, the
表示期間が期間T3から期間T4に切り替わった場合、領域設定部216は、図16に示すように、期間T4における特定対象物M0の軌跡を含む範囲に対応領域Aを設定する。この場合、対応領域Aは、特定対象物M0の軌跡に対応して、表示画面101Sの図中の左上に左右方向に延びた状態で形成される。以下、期間T4において設定される対応領域Aを対応領域A4と表記する場合がある。
When the display period is switched from the period T3 to the period T4, the
表示期間が期間T4から期間T5に切り替わった場合、領域設定部216は、図17に示すように、期間T5における特定対象物M0の軌跡を含む範囲に対応領域A5を設定する。この場合、対応領域Aは、特定対象物M0の軌跡に対応して、表示画面101Sの図中の左側に上下方向に延びた状態で形成される。以下、期間T5において設定される対応領域Aを対応領域A5と表記する場合がある。
When the display period is switched from the period T4 to the period T5, the
第2表示期間において、対象物M1〜M3は、例えば互いに重ならないように移動ルートが設定されている。領域設定部216は、設定された特定対象物M0の移動ルートの情報を取得することにより、特定対象物M0の軌跡に応じた対応領域A3〜A5を設定可能である。このように、領域設定部216は、期間T3、T4、T5によって対応領域Aの範囲を変更することができる。なお、第2表示期間において、出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示画面101Sに表示させてもよい。このようにして、第2表示動作が完了する。
In the second display period, the movement routes of the objects M1 to M3 are set so as not to overlap each other, for example. The
第2表示動作が完了した後、続けて第3表示動作が行われる。第3表示動作では、図18に示すように、対象物M1〜M3の移動が停止する状態が同一の表示態様で表示画面101Sに所定期間(図20の期間T6)表示される。この場合においても、特定対象物M0は、他の対象物M1、M3と区別がつかない状態で表示画面101Sに表示される。なお、期間T6では、移動を停止した特定対象物M0に視線を合わせ続けるように、例えば「特定対象物M0を注視して下さい」等の指示が表示画面101Sに表示されてもよい。第3表示動作が行われる第3表示期間(期間T6)において、領域設定部216は、表示画面101Sには表示されないが、特定対象物M0に対応した対応領域Aを設定する。以下、期間T6において設定される対応領域Aを対応領域A6と表記する場合がある。対応領域A6は、特定対象物M0を囲う範囲に設定される。なお、第3表示期間において、出力制御部226は、被験者の注視点の位置データを示すプロット点Pを表示画面101Sに表示させてもよい。このようにして、第3表示動作が完了する。第3表示動作が完了した場合、領域設定部216は、対応領域A6の設定を解除する。これにより、表示画面101Sには対応領域Aが設定されていない状態となる。したがって、領域設定部216は、表示期間が期間T1、T2、T3、T4、T5、T6と切り替わって進む際に、表示画面101Sに対応領域Aを、それぞれ対応領域A1、A2、A3、A4、A5、A6と切り替えて設定する。
After the second display operation is completed, the third display operation is subsequently performed. In the third display operation, as shown in FIG. 18, the state in which the movement of the objects M1 to M3 is stopped is displayed on the
第3表示動作が完了した後、続けて第4表示動作が行われる。第4表示動作では、特定対象物M0が他の対象物M1、M3とは異なる表示態様で区別されて表示画面101Sに表示される。例えば、図19に示すように、特定対象物M0を上昇させてコインCが現れる状態が表示される。これにより、被験者に対して、移動後の特定対象物M0の位置を直観的に知らせることができる。このようにして、第4表示動作が完了する。第4表示動作の期間T7が経過した後、映像の再生が終了する。なお、期間T7においては、映像が終了した旨が表示画面101Sに表示されてもよい。
After the third display operation is completed, the fourth display operation is continuously performed. In the fourth display operation, the specific object M0 is distinguished from the other objects M1 and M3 in a display mode and displayed on the
被験者が脳神経疾病・障がい者ではない場合、対象物M1〜M3のうち1つの特定対象物M0を追視するように指示された場合、特定対象物M0に追従して視点を合わせることができる。一方、被験者が脳神経疾病・障がい者である場合、対象物M1〜M3のうち1つの特定対象物M0を追視するように指示された場合、特定対象物M0に追従して視線を合わせることができないことがある。 When the subject is not a person with a cranial nerve disease or a disability, and is instructed to follow the specific object M0, which is one of the objects M1 to M3, the viewpoint can be adjusted by following the specific object M0. On the other hand, when the subject is a person with a cranial nerve disease or a disability, when instructed to follow the specific object M0 of one of the objects M1 to M3, the line of sight may be adjusted following the specific object M0. There are things you can't do.
上記の第1表示期間〜第3表示期間(期間T1〜T6)において、判定部218は、注視点が対応領域Aに存在するか否かをそれぞれ判定し、判定データを出力する。また、演算部220は、第1表示期間〜第3表示期間(期間T1〜T6)において、判定データに基づいて、注視点を示すプロット点Pが対応領域Aに存在した存在時間をそれぞれ示す時間データを算出する。本実施形態において、時間データは、例えば第1表示期間(期間T1、T2)において対応領域A1、A2に注視点が存在する時間を示す第1時間データと、第2表示期間(期間T3〜T5)において対応領域A3〜A5に注視点が存在する時間を示す第2時間データと、第3表示期間(期間T6)において対応領域A6に注視点が存在する時間を示す第3時間データと、を含む。
In the first display period to the third display period (periods T1 to T6), the
また、本実施形態において、判定部218において注視点が存在すると判定された回数が多いほど、対応領域Aに注視点が存在した存在時間が長いと推定することができる。したがって、本実施形態において、時間データは、例えば対応領域Aについて表示期間内に判定部218で注視点が存在すると判定された回数とすることができる。つまり、時間データは、表示期間内に対応領域Aで検出されるプロット点Pの数とすることができる。演算部220は、判定部218に設けられるカウンタのカウント結果を用いて時間データを算出可能である。
Further, in the present embodiment, it can be estimated that the greater the number of times the
本実施形態において、評価部224は、時間データに基づいて評価データを求める場合、例えば、以下のように行うことができる。
In the present embodiment, when the
まず、演算部220に設けられるカウンタは、第1表示期間において第1時間データをカウントし、第2表示期間において第2時間データをカウントし、第3表示期間において第3時間データをカウントする。ここで、第1時間データのカウンタ値をCNTAとし、第2時間データのカウンタ値をCNTBとし、第3時間データのカウンタ値をCNTCとする。
First, the counter provided in the
この場合、評価部224は、評価データを求めるための評価値を、以下のように求めることができる。例えば、被験者の注視点が対応領域Aに存在した時間の長さを判断することにより、評価値を求めることができる。被験者が特定対象物M0に追従して視線を合わせ続けている場合、対応領域Aを注視する時間が長くなる。第1表示期間において、対応領域A1、A2に存在する注視点の存在時間が長いほど、カウンタ値CNTAの値が大きくなる。第2表示期間において、対応領域A3〜A5に存在する注視点の存在時間が長いほど、カウンタ値CNTBの値が大きくなる。第3表示期間において、対応領域A6に存在する注視点の存在時間が長いほど、カウンタ値CNTCの値が大きくなる。このため、カウンタ値CNTA、CNTB、CNTCの合計値が所定値以上か否かを判断することで、評価値を求めることができる。例えばカウンタ値CNTA、CNTB、CNTCの合計値が所定値以上である場合、被験者が脳神経疾病・障がい者である可能性は低いと評価することができる。また、カウンタ値CNTA、CNTB、CNTCの合計値が所定値未満である場合、被験者が脳神経疾病・障がい者である可能性は高いと評価することができる。
In this case, the
なお、所定値としては、例えば脳神経疾病・障がい者ではない被験者のカウンタ値CNTA、CNTB、CNTCの平均値、又は当該平均値に基づいて設定される値等を用いることができる。また、所定値として、例えば脳神経疾病・障がい者ではない被験者のカウンタ値CNTA、CNTB、CNTCの最低値を用いてもよい。この場合、予め所定値を年齢及び性別ごとに設定しておき、被験者の年齢及び性別に応じた値を用いるようにしてもよい。 As the predetermined value, for example, the average value of the counter values CNTA, CNTB, and CNTC of a subject who is not a cranial nerve disease / disabled person, or a value set based on the average value can be used. Further, as a predetermined value, for example, the lowest counter values of CNTA, CNTB, and CNTC of a subject who is not a cranial nerve disease / disabled person may be used. In this case, a predetermined value may be set in advance for each age and gender, and a value corresponding to the age and gender of the subject may be used.
また、評価部224は、例えば以下の式(1)により評価値ANSを求めることができる。
Further, the
ANS=(K1×CNTA)+(K2×CNTB)+(K3×CNTC)・・・(1) ANS = (K1 x CNTA) + (K2 x CNTB) + (K3 x CNTC) ... (1)
上記の式(1)において、定数K1、K2、K3は、重みづけのための定数である。定数K1、K2、K3については、例えば、K1、K2<K3とすることができる。この場合、第1時間データ及び第2時間データの影響よりも第3時間データの影響に重みをつけた評価値ANSを求めることができる。 In the above equation (1), the constants K1, K2, and K3 are constants for weighting. For the constants K1, K2, and K3, for example, K1, K2 <K3 can be set. In this case, it is possible to obtain the evaluation value ANS in which the influence of the third time data is weighted rather than the influence of the first time data and the second time data.
また、定数K1、K2、K3について、例えば、K1<K2<K3とすることができる。この場合、第1時間データの影響よりも第2時間データの影響に重みをつけ、更に第2時間データの影響よりも第3時間データの影響に重みをつけた評価値ANSを求めることができる。第3表示期間で特定対象物M0に視点を合わせることができる場合、それまでの第1表示期間及び第2表示期間においても特定対象物M0に追視していた可能性が高いと考えられる。したがって、第3時間データに重みをつけて評価値を求めることにより、効率的に評価データを得ることができる。なお、定数K1、K2、K3をそれぞれ等しい値(例えば、1)とし、重みづけをすることなく評価値ANSを求めてもよい。このように、第1時間データ、第2時間データ及び第3時間データに基づいて評価データを求めことにより、第1表示動作における追視能力、第2表示動作における追視能力、及び第3表示動作における追視能力を細分化して評価することができる。 Further, for the constants K1, K2, and K3, for example, K1 <K2 <K3 can be set. In this case, it is possible to obtain the evaluation value ANS in which the influence of the second time data is weighted more than the influence of the first time data, and the influence of the third time data is weighted more than the influence of the second time data. .. If the viewpoint can be focused on the specific object M0 in the third display period, it is highly probable that the specific object M0 was closely watched even in the first display period and the second display period up to that point. Therefore, the evaluation data can be efficiently obtained by weighting the third time data and obtaining the evaluation value. The constants K1, K2, and K3 may be set to equal values (for example, 1), and the evaluation value ANS may be obtained without weighting. In this way, by obtaining the evaluation data based on the first time data, the second time data, and the third time data, the tracking ability in the first display operation, the tracking ability in the second display operation, and the third display It is possible to subdivide and evaluate the tracking ability in motion.
次に、本実施形態に係る評価方法の一例について、図21を参照しながら説明する。図21は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態においては、表示制御部202は、映像の再生を開始させる(ステップS301)。表示画面101Sには、図13から図19に示す映像が順に表示される。
Next, an example of the evaluation method according to the present embodiment will be described with reference to FIG. FIG. 21 is a flowchart showing an example of the evaluation method according to the present embodiment. In the present embodiment, the
また、演算部220は、映像の再生時間を管理する管理タイマと、図20に示すタイムチャートにおける期間T1〜期間T7のうち現在再生されている映像がどの期間に属するかを検出する検出タイマとをリセットして、それぞれ計測を開始させる(ステップS302)。また、判定部218は、カウンタ値CNTA、CNTB、CNTCをそれぞれ0にリセットして計測を開始させる(ステップS303)。
Further, the
注視点検出部214は、表示装置101に表示された映像を被験者に見せた状態で、規定のサンプリング周期(例えば50[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する(ステップS304)。
The gazing
位置データが検出された場合(ステップS305のNo)、演算部220は、検出タイマの検出結果により、表示期間が期間T1又はT2であるか否かの判定を行う(ステップS306)。表示期間が期間T1又はT2であると判断された場合(ステップS306のYes)、領域設定部216は、期間T1に対応した対応領域A1、期間T2に対応した対応領域A2をそれぞれ設定する(ステップS307)。対応領域A1、A2が設定された後、判定部218は、被験者の注視点が対応領域A1、A2に存在するか否かを判定して判定データを出力する(ステップS308)。判定部218により注視点が対応領域A1、A2に存在すると判定された場合(ステップS308のYes)、演算部220は、カウンタ値CNTAを+1とする(ステップS309)。判定部218により注視点が対応領域A1、A2に存在しないと判定された場合(ステップS308のNo)、演算部220は、カウンタ値CNTAを変更しない。
When the position data is detected (No in step S305), the
表示期間が期間T1又はT2ではないと判断された場合(ステップS306のNo)、演算部220は、検出タイマの検出結果により、表示期間が期間T3〜T5であるか否かの判定を行う(ステップS310)。表示期間が期間T3〜T5であると判断された場合(ステップS310のYes)、領域設定部216は、期間T3に対応した対応領域A3、期間T4に対応した対応領域A4、期間T5に対応した対応領域A5をそれぞれ設定する(ステップS311)。対応領域A3〜A5が設定された後、判定部218は、被験者の注視点が対応領域A3〜A5に存在するか否かを判定して判定データを出力する(ステップS312)。判定部218により注視点が対応領域A3〜A5に存在すると判定された場合(ステップS312のYes)、演算部220は、カウンタ値CNTBを+1とする(ステップS313)。判定部218により注視点が対応領域A3〜A5に存在しないと判定された場合(ステップS312のNo)、演算部220は、カウンタ値CNTBを変更しない。
When it is determined that the display period is not the period T1 or T2 (No in step S306), the
表示期間が期間T3〜T5ではないと判断された場合(ステップS310のNo)、演算部220は、検出タイマの検出結果により、表示期間が期間T6であるか否かの判定を行う(ステップS314)。表示期間が期間T6であると判断された場合(ステップS314のYes)、領域設定部216は、期間T6に対応した対応領域A6を設定する(ステップS315)。対応領域A6が設定された後、判定部218は、被験者の注視点が対応領域A6に存在するか否かを判定して判定データを出力する(ステップS316)。判定部218により注視点が対応領域A6に存在すると判定された場合(ステップS316のYes)、演算部220は、カウンタ値CNTCを+1とする(ステップS317)。判定部218により注視点が対応領域A6に存在しないと判定された場合(ステップS316のNo)、演算部220は、カウンタ値CNTCを変更しない。
When it is determined that the display period is not the period T3 to T5 (No in step S310), the
表示期間が期間T6ではないと判断された場合(ステップS314のNo)、又は、上記のステップS308のNo、ステップS309、ステップS312のNo、ステップS313、ステップS316のNo、ステップS317のいずれかの処理が行われた後、演算部220は、管理タイマの検出結果に基づいて、映像の再生が完了する時刻に到達したか否かを判断する(ステップS318)。演算部220により映像の再生が完了する時刻に到達していないと判断された場合(ステップS318のNo)、上記のステップS304以降の処理を繰り返し行う。
When it is determined that the display period is not the period T6 (No in step S314), or any of the above-mentioned No in step S308, step S309, No in step S312, No in step S313, No in step S316, and step S317. After the processing is performed, the
演算部220により映像の再生が完了する時刻に到達したと判断された場合(ステップS318のYes)、表示制御部202は、映像の再生を停止させる(ステップS319)。映像の再生が停止された後、評価部224は、上記の処理結果から得られる時間データに基づいて、評価値ANSを算出し(ステップS320)、評価値ANSに基づいて評価データを求める。その後、出力制御部226は、評価部224で求められた評価データを出力する(ステップS321)。
When the
以上のように、本実施形態に係る評価装置100は、被験者の眼球の画像データを取得する画像データ取得部206と、画像データに基づいて、被験者の注視点の位置データを検出する注視点検出部214と、外観が同一の複数の対象物Mについて1つの対象物Mを特定対象物M0として他の対象物Mとは異なる表示態様で区別して表示画面101Sに表示した後に特定対象物M0を他の対象物Mと同一の表示態様で表示画面101Sに表示する第1表示動作と、第1表示動作を行った後に複数の対象物Mが移動する状態を同一の表示態様で表示画面101Sに表示する第2表示動作と、第2表示動作を行った後に複数の対象物Mの移動が停止する状態を同一の表示態様で表示画面101Sに表示する第3表示動作と、含む表示動作を行う表示制御部202と、表示画面101Sにおいて、特定対象物M0の位置に対応した対応領域Aを設定する領域設定部216と、注視点の位置データに基づいて、表示動作が行われる表示期間に注視点が対応領域Aに存在するか否かをそれぞれ判定し、判定データを出力する判定部218と、判定データに基づいて、表示期間に注視点が対応領域Aに存在した存在時間を示す時間データを算出する演算部220と、時間データに基づいて、被験者の評価データを求める評価部224と、評価データを出力する出力制御部226とを備える。
As described above, the
この構成により、表示期間に被験者の注視点が対応領域Aに存在する時間データが求められ、時間データに基づいて被験者の評価データを求められる。このため、評価装置100は、表示期間における被験者の視線の動きにより、被験者の追視能力を評価することができる。これにより、評価装置100は、被験者の評価を高精度に行うことが可能となる。
With this configuration, time data in which the gaze point of the subject exists in the corresponding area A during the display period is obtained, and evaluation data of the subject is obtained based on the time data. Therefore, the
また、本実施形態に係る評価装置100において、演算部220は、第1表示動作が行われる第1表示期間(期間T1、T2)における存在時間を示す第1時間データと、第2表示動作が行われる第2表示期間(期間T3〜T5)における存在時間を示す第2時間データと、第3表示動作が行われる第3表示期間(期間T6)における存在時間を示す第3時間データと、を算出し、評価部224は、第1時間データ、第2時間データ及び第3時間データに基づいて評価データを求める。これにより、第1表示動作における追視能力、第2表示動作における追視能力、及び第3表示動作における追視能力を細分化して評価することができる。
Further, in the
また、本実施形態に係る評価装置100において、評価部224は、第1時間データ及び第2時間データよりも第3時間データに重みをつけて評価データを求める。第3表示期間で特定対象物M0に視点を合わせることができる場合、それまでの第1表示期間及び第2表示期間においても特定対象物M0に追視していた可能性が高いと考えられる。したがって、第3時間データに重みをつけて評価値を求めることにより、効率的に評価データを得ることができる。
Further, in the
また、本実施形態に係る評価装置100において、領域設定部216は、第2表示動作が行われる第2表示期間において、特定対象物M0の軌跡に基づいて対応領域Aを設定する。これにより、特定対象物M0の移動に応じて対応領域Aを精度よく設定することができるため、精度の高い時間データを得ることができる。
Further, in the
また、本実施形態に係る評価装置100において、表示制御部202は、第3表示動作を行った後、特定対象物M0を他の対象物Mとは異なる表示態様で区別して表示画面に表示する第4表示動作を行う。これにより、第3表示動作の後、特定対象物M0がどの位置に存在するかを被験者に知らせることができる。被験者は、特定対象物M0の位置を知ることにより、自身の追視が正しく行われたか否かを確認することができるため、追視のトレーニングを容易に行うことができる。
Further, in the
また、本実施形態に係る評価装置100において、表示制御部202は、第1表示動作においては特定対象物M0が所定の被遮蔽物Cを遮蔽する動作を表示する。これにより、被験者に対して特定対象物M0を直観的に認識させることができる。また、第2表示動作及び第3表示動作においては被遮蔽物を表示することなく複数の対象物Mを表示するため、第2表示動作及び第3表示動作において、複数の対象物Mが移動する表示を容易に行うことができる。
Further, in the
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、第1表示動作において、特定対象物M0を他の対象物Mとは異なる表示態様で区別して表示画面101Sに表示する例として、特定対象物M0によりコインCを遮蔽する表示を行う場合を説明したが、これに限定されない。例えば、特定対象物M0を点滅させたり、特定対象物M0の色を他の対象物Mに対して変化させたりしてもよい。また、第1表示動作において、例えば対象物Mとしてコインを表示し、特定対象物M0となるコインについてはコインの表裏の一方の面に印を付した後、すべての対象物Mについて当該印を付した面とは反対側の面を表示させるようにしてもよい。
The technical scope of the present invention is not limited to the above-described embodiment, and modifications can be made as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, in the first display operation, as an example of distinguishing the specific object M0 from the other object M in a display mode different from that of the other object M and displaying it on the
また、上記実施形態では、第2表示動作において、複数の対象物Mが重ならないように移動する場合を例に挙げて説明したが、これに限定されない。図22は、本実施形態に係る表示制御部が表示装置に表示させる映像の変形例を示す図である。図22では、第2表示動作が行われる場合の表示画面101Sの一例を示している。
Further, in the above embodiment, the case where the plurality of objects M move so as not to overlap each other in the second display operation has been described as an example, but the present invention is not limited to this. FIG. 22 is a diagram showing a modified example of the image displayed on the display device by the display control unit according to the present embodiment. FIG. 22 shows an example of the
図22に示すように、表示制御部202は、第2表示動作を行う場合、対象物M1〜M3を互いに重なるように移動させてもよい。この場合、表示制御部202は、例えば表示画面101Sの下方に配置される対象物Mを手前側に配置し、表示画面101Sの上方に配置される対象物Mを奥側に配置させてもよい。これにより、被験者に対象物M1〜M3の空間的な位置関係を把握しやすくすることができる。
As shown in FIG. 22, the
脳神経疾病・障がいの症状は、追視能力に加えて空間認知能力にも影響することが知られている。被験者が脳神経疾病・障がい者ではない場合、複数の対象物M1〜M3を互いに重なるように移動させた場合に、特定対象物M0を追視することができる。一方、被験者が脳神経疾病・障がい者である場合では、複数の対象物M1〜M3を互いに重なるように移動させた場合に、対象物M1〜M3の空間的な位置関係を把握できず、特定対象物M0を追視できないことがある。このため、複数の対象物M1〜M3を互いに重なるように移動させた場合に、被験者が特定対象物M0を追視できるかを検出することにより、被験者の空間認知能力を評価することが可能である。 Symptoms of cranial nerve diseases and disabilities are known to affect spatial cognitive ability in addition to tracking ability. When the subject is not a person with a cranial nerve disease or a disability, the specific object M0 can be tracked when a plurality of objects M1 to M3 are moved so as to overlap each other. On the other hand, when the subject is a person with a cranial nerve disease or a disability, when a plurality of objects M1 to M3 are moved so as to overlap each other, the spatial positional relationship between the objects M1 to M3 cannot be grasped and the specific target is specified. It may not be possible to track the object M0. Therefore, when a plurality of objects M1 to M3 are moved so as to overlap each other, it is possible to evaluate the spatial cognitive ability of the subject by detecting whether the subject can follow the specific object M0. is there.
また、上記実施形態では、領域設定部216は、第2表示動作が行われる第2表示期間において、期間T3〜T5毎に特定対象物M0の軌跡に基づいて対応領域A3〜A5を設定する場合を例に挙げて説明したが、これに限定されない。領域設定部216は、期間T3〜T5のそれぞれにおいて、対応領域Aを切り替えて設定してもよい。この場合、領域設定部216は、各期間内の所定時間毎に特定対象物M0が移動する場合の軌跡を求め、当該軌跡を含む範囲に対応領域Aを設定することができる。また、所定時間を短く設定することにより、特定対象物M0の移動に追従して移動する対応領域Aを設定することができる。
Further, in the above embodiment, the
また、上記実施形態では、評価部224は、評価値ANSを求める場合、カウンタ値CNTA、CNTB、CNTCにそれぞれ定数を乗じた値を加算する例を説明したが、これに限定されない。例えば、評価部224は、カウンタ値CNTA、CNTB、CNTCの各値を個別に判断することで、評価値を求めてもよい。
Further, in the above embodiment, when the evaluation value ANS is obtained, the
また、上記実施形態では、評価装置100を、脳神経疾病・障がい者である可能性を評価する評価装置として用いる場合を例に挙げて説明したが、これに限定されない。例えば、評価装置100は、脳神経疾病・障がい者ではない被験者の記憶力を評価する評価装置として用いてもよい。
Further, in the above embodiment, the case where the
A,A1〜A6…対応領域、C…コイン、M0…特定対象物、M,M1〜M3…対象物、P…プロット点、T1〜T7…期間、ANS…評価値、CNTA,CNTB,CNTC…カウンタ値、20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視線検出装置,評価装置、101…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110,110H…角膜曲率中心、111…眼球、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173…直線、126…距離、130…目標位置、177,178…視線、202…表示制御部、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…注視点検出部、216…領域設定部、218…判定部、220…演算部、222…記憶部、224…評価部、226…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部 A, A1 to A6 ... Corresponding area, C ... Coin, M0 ... Specific object, M, M1 to M3 ... Object, P ... Plot point, T1 to T7 ... Period, ANS ... Evaluation value, CNTA, CNTB, CNTC ... Counter value, 20 ... computer system, 20A ... arithmetic processing device, 20B ... storage device, 20C ... computer program, 30 ... input / output interface device, 40 ... drive circuit, 50 ... output device, 60 ... input device, 70 ... audio output Device, 100 ... line-of-sight detection device, evaluation device, 101 ... display device, 101S ... display screen, 102 ... stereo camera device, 102A ... first camera, 102B ... second camera, 103 ... lighting device, 103A ... first light source, 103B ... second light source, 103C ... light source, 103V ... virtual light source, 109 ... corneal curvature radius, 110, 110H ... corneal curvature center, 111 ... eyeball, 112 ... pupil, 112C ... pupil center, 113 ... corneal reflection image, 113C, 121, 122, 124 ... Corneal reflection center, 123, 131, 132, 173 ... Straight line, 126 ... Distance, 130 ... Target position, 177, 178 ... Line of sight, 202 ... Display control unit, 204 ... Light source control unit, 206 ... Image Data acquisition unit, 208 ... Input data acquisition unit, 210 ... Position detection unit, 212 ... Curvature center calculation unit, 214 ... Gaze point detection unit, 216 ... Area setting unit, 218 ... Judgment unit, 220 ... Calculation unit, 222 ... Storage Unit, 224 ... Evaluation unit, 226 ... Output control unit, 302 ... Input / output unit, 402 ... Display device drive unit, 404A ... First camera input / output unit, 404B ... Second camera input / output unit, 406 ... Light source drive unit
Claims (5)
前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、
外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う表示制御部と、
前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する領域設定部と、
前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する判定部と、
前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する演算部と、
前記時間データに基づいて、前記被験者の評価データを求める評価部と、
前記評価データを出力する出力制御部と
を備える評価装置。 An image data acquisition unit that acquires image data of the subject's eyeball,
A gaze point detection unit that detects the position data of the gaze point of the subject based on the image data,
For a plurality of objects having the same appearance, one object is designated as a specific object and displayed on a display screen in a display mode different from that of the other objects, and then the specific object is the same as the other object. A first display operation for displaying on the display screen in the display mode of the above, and a second display operation for displaying a state in which a plurality of the objects move after performing the first display operation on the display screen in the same display mode. A third display operation that displays a state in which the movement of the plurality of objects is stopped on the display screen in the same display mode after the second display operation is performed, and a display control unit that performs a display operation including the second display operation.
On the display screen, an area setting unit for setting a corresponding area corresponding to the position of the specific object, and an area setting unit.
Based on the position data of the gazing point, a determination unit that determines whether or not the gazing point exists in the corresponding area during the display period in which the display operation is performed, and a determination unit that outputs the determination data.
Based on the determination data, a calculation unit that calculates time data indicating the existence time of the gazing point in the corresponding region during the display period, and a calculation unit.
An evaluation unit that obtains the evaluation data of the subject based on the time data, and
An evaluation device including an output control unit that outputs the evaluation data.
前記評価部は、前記第1時間データ、前記第2時間データ及び前記第3時間データに基づいて前記評価データを求める
請求項1に記載の評価装置。 The calculation unit includes first time data indicating the existence time in the first display period in which the first display operation is performed, and second time indicating the existence time in the second display period in which the second display operation is performed. The data and the third time data indicating the existence time in the third display period in which the third display operation is performed are calculated.
The evaluation device according to claim 1, wherein the evaluation unit obtains the evaluation data based on the first time data, the second time data, and the third time data.
請求項1又は請求項2に記載の評価装置。 The evaluation device according to claim 1 or 2, wherein the area setting unit sets the corresponding area based on the locus of the specific object in the second display period in which the second display operation is performed.
前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、
外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行うことと、
前記表示画面において、前記特定対象物の位置に対応した対応領域を設定することと、
前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力することと、
前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出することと、
前記時間データに基づいて、前記被験者の評価データを求めることと、
前記評価データを出力することと
を含む評価方法。 Acquiring image data of the subject's eyeball and
To detect the position data of the gazing point of the subject based on the image data,
For a plurality of objects having the same appearance, one object is designated as a specific object and displayed on a display screen in a display mode different from that of the other objects, and then the specific object is the same as the other object. The first display operation to be displayed on the display screen in the display mode of the above, and the second display operation to display the state in which a plurality of the objects move after the first display operation is performed on the display screen in the same display mode. A third display operation for displaying a state in which the movement of the plurality of objects is stopped on the display screen in the same display mode after the second display operation is performed, and a display operation including the second display operation are performed.
On the display screen, setting a corresponding area corresponding to the position of the specific object and
Based on the position data of the gazing point, it is determined whether or not the gazing point exists in the corresponding area during the display period in which the display operation is performed, and the determination data is output.
Based on the determination data, time data indicating the existence time of the gazing point in the corresponding region during the display period is calculated.
Obtaining the evaluation data of the subject based on the time data,
An evaluation method including outputting the evaluation data.
前記画像データに基づいて、前記被験者の注視点の位置データを検出する処理と、
外観が同一の複数の対象物について1つの前記対象物を特定対象物として他の前記対象物とは異なる表示態様で区別して表示画面に表示した後に前記特定対象物を他の前記対象物と同一の表示態様で前記表示画面に表示する第1表示動作と、前記第1表示動作を行った後に複数の前記対象物が移動する状態を同一の表示態様で前記表示画面に表示する第2表示動作と、前記第2表示動作を行った後に複数の前記対象物の移動が停止する状態を同一の表示態様で前記表示画面に表示する第3表示動作と、含む表示動作を行う処理と、
前記表示画面において、前記特定対象物の位置に対応した対応領域を設定する処理と、
前記注視点の位置データに基づいて、前記表示動作が行われる表示期間に前記注視点が前記対応領域に存在するか否かをそれぞれ判定し、判定データを出力する処理と、
前記判定データに基づいて、前記表示期間に前記注視点が前記対応領域に存在した存在時間を示す時間データを算出する処理と、
前記時間データに基づいて、前記被験者の評価データを求める処理と、
前記評価データを出力する処理と
をコンピュータに実行させる評価プログラム。 The process of acquiring image data of the subject's eyeball and
A process of detecting the position data of the gazing point of the subject based on the image data, and
For a plurality of objects having the same appearance, one object is designated as a specific object and displayed on a display screen in a display mode different from that of the other objects, and then the specific object is the same as the other object. A first display operation for displaying on the display screen in the display mode of the above, and a second display operation for displaying a state in which a plurality of the objects move after performing the first display operation on the display screen in the same display mode. A third display operation for displaying a state in which the movement of the plurality of objects is stopped on the display screen in the same display mode after the second display operation is performed, and a process for performing a display operation including the second display operation.
On the display screen, a process of setting a corresponding area corresponding to the position of the specific object and
Based on the position data of the gazing point, it is determined whether or not the gazing point exists in the corresponding area during the display period in which the display operation is performed, and the determination data is output.
Based on the determination data, a process of calculating time data indicating the existence time of the gazing point in the corresponding region during the display period, and
The process of obtaining the evaluation data of the subject based on the time data, and
An evaluation program that causes a computer to execute the process of outputting the evaluation data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017146000A JP6883242B2 (en) | 2017-07-28 | 2017-07-28 | Evaluation device, evaluation method, and evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017146000A JP6883242B2 (en) | 2017-07-28 | 2017-07-28 | Evaluation device, evaluation method, and evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019024776A JP2019024776A (en) | 2019-02-21 |
JP6883242B2 true JP6883242B2 (en) | 2021-06-09 |
Family
ID=65476991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017146000A Active JP6883242B2 (en) | 2017-07-28 | 2017-07-28 | Evaluation device, evaluation method, and evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6883242B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7092082B2 (en) * | 2019-03-22 | 2022-06-28 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
JP7363377B2 (en) * | 2019-10-31 | 2023-10-18 | 株式会社Jvcケンウッド | Driving support device, driving support method, and driving support program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4543594B2 (en) * | 2001-07-31 | 2010-09-15 | パナソニック電工株式会社 | Brain function test apparatus and brain function test system |
WO2008041346A1 (en) * | 2006-09-29 | 2008-04-10 | Ssd Company Limited | Local brain training device |
JP5817582B2 (en) * | 2012-02-22 | 2015-11-18 | 株式会社Jvcケンウッド | Brain function disease diagnosis support apparatus and brain function disease diagnosis support method |
JP6737234B2 (en) * | 2017-05-22 | 2020-08-05 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
-
2017
- 2017-07-28 JP JP2017146000A patent/JP6883242B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019024776A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6737234B2 (en) | Evaluation device, evaluation method, and evaluation program | |
JP6848526B2 (en) | Evaluation device, evaluation method, and evaluation program | |
JP6736920B2 (en) | Diagnosis support device and diagnosis support method | |
JP7067502B2 (en) | Evaluation device, evaluation method, and evaluation program | |
JP2019171022A (en) | Evaluation device, evaluation method, and evaluation program | |
WO2020137028A1 (en) | Display device, display method, and program | |
US20210401287A1 (en) | Evaluation apparatus, evaluation method, and non-transitory storage medium | |
JP6747172B2 (en) | Diagnosis support device, diagnosis support method, and computer program | |
JP6883242B2 (en) | Evaluation device, evaluation method, and evaluation program | |
WO2020044691A1 (en) | Evaluation device, evaluation method, and evaluation program | |
JP2019046438A (en) | Evaluation apparatus and evaluation method | |
US11266307B2 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
JP2020018470A (en) | Visual line detection device, visual line detection method, and visual line detection program | |
JP7057483B2 (en) | Evaluation device, evaluation method, and evaluation program | |
JP7215246B2 (en) | Display device, display method, and display program | |
JP7074221B2 (en) | Evaluation device, evaluation method, and evaluation program | |
WO2020031471A1 (en) | Assessment device, assessment method, and assessment program | |
JP5838894B2 (en) | Diagnosis support apparatus and diagnosis support method | |
WO2019188152A1 (en) | Assessment device, assessment method and assessment program | |
JP2021000200A (en) | Evaluation device, evaluation method and evaluation program | |
JP6849110B2 (en) | Training support device and training support method | |
JP7247690B2 (en) | Evaluation device, evaluation method, and evaluation program | |
WO2021010122A1 (en) | Evaluation device, evaluation method, and evaluation program | |
WO2020194841A1 (en) | Assessment device, assessment method, and assessment program | |
JP2019166254A (en) | Evaluation device, evaluation method, and evaluation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6883242 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |